WO2021033417A1 - 欠陥部認識装置及び欠陥部認識方法 - Google Patents

欠陥部認識装置及び欠陥部認識方法 Download PDF

Info

Publication number
WO2021033417A1
WO2021033417A1 PCT/JP2020/024371 JP2020024371W WO2021033417A1 WO 2021033417 A1 WO2021033417 A1 WO 2021033417A1 JP 2020024371 W JP2020024371 W JP 2020024371W WO 2021033417 A1 WO2021033417 A1 WO 2021033417A1
Authority
WO
WIPO (PCT)
Prior art keywords
defect
unit
cluster
clusters
spectral
Prior art date
Application number
PCT/JP2020/024371
Other languages
English (en)
French (fr)
Inventor
水村 通伸
Original Assignee
株式会社ブイ・テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ブイ・テクノロジー filed Critical 株式会社ブイ・テクノロジー
Priority to US17/636,182 priority Critical patent/US11953447B2/en
Priority to KR1020227004503A priority patent/KR20220044744A/ko
Priority to CN202080058129.1A priority patent/CN114270179A/zh
Publication of WO2021033417A1 publication Critical patent/WO2021033417A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95684Patterns showing highly reflecting parts, e.g. metallic elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8858Flaw counting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N2021/9513Liquid crystal panels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • G01N2021/95615Inspecting patterns on the surface of objects using a comparative method with stored comparision signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display

Definitions

  • the present invention relates to a defect recognition device and a method for a multilayer substrate.
  • the defective portion is recognized by visual recognition using a microscope image or by collating the image of the defective portion with the reference image without the defective portion by using an image processing technique to grasp the position and characteristics of the defective portion. Such things are done (see Patent Document 1 below).
  • the defective portion of the multilayer substrate it is necessary to recognize which layer of the multilayer film the defective portion is located in, and what kind of layer structure the underlying layer of the defective portion has.
  • a processing recipe for performing laser correction is appropriately selected.
  • the operator has to rely on the experience and knowledge of the operator to grasp the layer structure of the defective part, and the correction recipe differs depending on the difference in the appearance. There was a problem that the skill affected the correction quality.
  • the information obtained from the defective portion by the two-dimensional image is limited to the color, size, contrast, shape, etc. of the defective portion. It is not possible to accurately grasp the layer structure of the underlying layer of the defect. Therefore, in the end, it depends on the experience and knowledge of the operator, and there is a problem that high-quality correction processing cannot be performed even by this conventional technique.
  • the present invention has been proposed to deal with such a problem. That is, it is an object of the present invention to be able to mechanically recognize the state of the defective portion in the multilayer film substrate and to enable correction processing that is not affected by the skill of the operator.
  • the present invention has the following configurations. It has a microscope that irradiates the surface of the multilayer film substrate with white epi-illumination to obtain a magnified image of a unit region that recognizes a defect portion on the surface, and an imaging surface on which the enlarged image is formed.
  • a spectrum spectrum camera that outputs the spectral spectrum information of the enlarged image for each pixel and an information processing unit that processes the spectral spectrum information output from the spectral spectrum camera are provided, and the information processing unit includes the spectral spectrum for each pixel. It includes a machine learning unit that clusters information and a defect recognition unit that recognizes defects from the processing results of the machine learning unit, and the machine learning unit sets clusters according to the layer structure existing in the unit region.
  • a histogram having the number of pixels clustered in the cluster as a frequency is generated, and the defect recognition unit compares the frequency distribution of the generated spectrum with the frequency distribution of the histogram in which no defect exists, and the difference in frequency is different.
  • a defect recognition device characterized in that a defect is recognized in the presence of a certain cluster.
  • Explanatory drawing which showed the defect part recognition device The explanatory view explaining the information processing part of the defect part recognition apparatus.
  • Explanatory drawing explaining the clustering process of a machine learning part The explanatory view explaining the function of the defect recognition part.
  • Explanatory drawing explaining the defect position recognition function of the defect recognition unit ((a) is the coordinate position of a normal pattern in one layer structure, and (b) is the coordinate position of pixels clustered in the layer structure in which the defect portion exists. (C) is the coordinate position of the pixel in the defect area).
  • Explanatory drawing explaining the reclustering process in a defect area Explanatory drawing which showed the flow of the defect recognition method.
  • Explanatory drawing which showed the laser correction apparatus provided with the defect part recognition apparatus The explanatory view explaining the information processing part of the defect part recognition apparatus.
  • Explanatory drawing explaining the clustering process of a machine learning part The explanatory view explaining the function of the defect recognition part.
  • Explanatory drawing explaining the defect position recognition function of the defect recognition unit ((a) is
  • the defect recognition device 1 recognizes a defect portion of the multilayer film substrate W which is a work installed on the stage S, and recognizes a defect portion of the multilayer film substrate W, which is a microscope 10, a spectrum spectroscopic camera 20, and an information processing unit 30. It has.
  • the microscope 10 is an optical microscope that irradiates the surface Wa of the multilayer film substrate W with white epi-illumination to obtain a magnified image of a unit region (for example, a pixel region of the TFT substrate) that recognizes a defect portion on the surface Wa, and is an objective. It is provided with an optical system such as a lens 11 and a tube lens 17, and is provided with a white light source 12 for irradiating the surface Wa with white epi-illumination light and its optical system (mirror 13 and half mirror 14). Further, the microscope 10 is provided with a monitor camera 15 for obtaining a monitor image of a magnified image of the surface Wa and an optical system (half mirror 16) for that purpose, if necessary.
  • a monitor camera 15 for obtaining a monitor image of a magnified image of the surface Wa and an optical system (half mirror 16) for that purpose, if necessary.
  • a slit 23 and a grating element (diffraction grating) 21 are arranged on the optical axis 10P of the optical system of the microscope 10, and the light reflected by the surface Wa is separated by wavelength, and the separated light is separated.
  • Light is imaged on the imaging surface 22a of the two-dimensional camera 22 via the relay lens system 24, and the spectral spectrum information of the enlarged image of the surface Wa is acquired for each pixel of the imaging surface 22a by the line spectroscopy method. ..
  • the information processing unit 30 processes spectral spectrum information output from the spectral spectroscopic camera 20, and as shown in FIG. 2, a machine learning unit 31 that clusters spectral spectrum information for each pixel and a machine learning unit 31. It is provided with a defect recognition unit 32 that recognizes the defect portion from the processing result of.
  • the recognition result of the defect recognition unit 32 is output to the control unit of the laser correction device (not shown), and is applied to determine whether or not the defect portion needs to be laser-machined, and to select a processing recipe for laser machining. Will be done.
  • the spectral spectrum information output from the spectral spectroscopic camera 20 outputs one spectral spectral distribution for each pixel P (Xn, Yn) of the imaging surface 22a of the two-dimensional camera 22. ..
  • the pixel P (Xn, Yn) here has the position information of the XY plane coordinates, and the position of the pixel P (Xn, Yn) corresponds to a specific position in the enlarged image to be reviewed. doing.
  • the spectral spectrum information for each pixel output by the spectral spectroscopic camera 20 is different from the simple two-dimensional image information of the surface Wa, and is a layer at a position on the surface Wa corresponding to the pixels P (Xn, Yn) of the imaging surface 22a.
  • the structure contains predictable information. This is peculiar to the layer structure because the light reflected by the surface Wa of the multilayer film substrate W exhibits various spectral characteristics due to the difference in the surface layer of the multilayer film and interferes with the light reflected at the interface of each layer of the multilayer film. It is due to showing the spectral distribution of.
  • the machine learning unit 31 uses the number of layer structures existing in the unit region of the multilayer film substrate W to be reviewed as the number of clusters when clustering the spectral spectrum information for each pixel output by the spectral spectroscopic camera 20.
  • the layer structure here can be known in advance from the design information of the multilayer film substrate W.
  • 11 layer structures exist in the unit region of the multilayer film substrate W, and 11 cluster Nos. 1 to 11 are set.
  • the machine learning unit 31 does not know what kind of structure the layer structure corresponding to the cluster is, and collects pixels having spectral spectral information of similar spectral distribution in one cluster and within the imaging surface 22a. In the example of FIG. 3, each pixel of is distributed to 11 clusters. As a result, the machine learning unit 31 generates a histogram in which the number of pixels clustered in each cluster is a frequency, as shown in FIG.
  • this histogram will be the histogram as designed, but if there is a defect in the unit area, the frequency of the histogram will be the design value. It will be different.
  • the defect recognition unit 32 compares the frequency distribution of the histogram generated by the machine learning unit 31 with the frequency distribution of the histogram of the design value in which no defect exists, and the defect portion presents the layered structure of the clusters having different frequencies. Recognize as a layered structure that may occur.
  • FIG. 4 schematically shows the processing of the defect recognition unit 32.
  • the defect recognition unit 32 recognizes the relationship between each cluster set in the machine learning unit 31 and the layer structure. Then, as shown by the circled broken line in FIG. 4, a cluster having a large difference between the histogram frequency of the design value and the frequency of the clustered histogram is identified, and the layer structure corresponding to the cluster has a defect portion. Recognize as a layered structure that may occur.
  • the defect recognition unit 32 sets the coordinate positions of the pixels clustered in the clusters having different powers and the coordinate positions of the normal pattern in this layer structure in the generated histogram.
  • the position of the defective part is recognized from the difference. Specifically, when it is recognized that a defect portion exists in the layer structure corresponding to the cluster 7 in FIG. 4, the coordinate position of the normal pattern of this layer structure is the coordinate position distribution shown in FIG. 5 (a).
  • the defect recognition unit 32 takes the difference between the distribution in FIG. 5 (b) and the distribution in FIG. 5 (a), so that the position of the defect portion (defect) is as shown in FIG. 5 (c).
  • the coordinate position distribution of the pixels existing in the area) can be recognized.
  • the machine learning unit 31 reclusters the spectral spectrum information of the pixels located in the defect region, as shown in FIG. 6, based on the above-mentioned recognition result of the defect position of the defect recognition unit 32. At this time, the machine learning unit 31 adds a plurality of clusters (No. 12 and 13) for the defective part to the clusters (No. 1 to 11) corresponding to the already set layer structure.
  • the layer structure at the pixel position in the defect region is a known layer structure, it is clustered in the clusters (No. 1 to 11) that have already been set, but other foreign substances or the like are used. In some cases, it will be clustered into the added clusters for defective parts (Nos. 12 and 13). Then, it can be said that the pixels clustered in the added clusters for defective parts (No. 12 and 13) have a structure different from the design layer structure. Therefore, for example, a layer structure generated by the adhesion of foreign matter may be used. You can predict that there is.
  • the defect recognition unit 32 is based on the spectral spectrum information of the clustered pixels and presupposes the above-mentioned prediction, and the defect portion 32 Recognize the type of.
  • FIG. 7 shows a process example of a defect recognition method using the above-mentioned defect recognition device 1.
  • the multilayer film substrate W which is a work is placed on the stage S (step S01), the review position of the surface Wa is specified, and the optical axis of the microscope 10 is moved there. (Step S02).
  • the surface Wa at the review position is irradiated with white epi-illumination, a magnified image of the unit region to be reviewed is obtained by the microscope 10, and the spectral spectroscopic camera 20 having an imaging surface 22a on which the magnified image is imaged is obtained. Is used to acquire spectral spectrum information for each pixel of the imaging surface 22a (step S03).
  • the acquired spectral spectrum information for each pixel is input to the machine learning unit 31 in the information processing unit 30, where the clustering process described above is performed (step S04).
  • this clustering process is completed, as described above, a histogram is generated in which the number of layer structures existing in the unit area to be reviewed is the number of clusters and the number of pixels clustered in each cluster is the frequency (step 05). ).
  • the defect recognition unit 32 compares the frequency distribution of the histogram generated by clustering with the frequency distribution of the histogram of the design value as described above, and differs in the frequency. The presence or absence of a defective portion is confirmed by the presence of a certain cluster (step S06).
  • the defect recognition unit 32 compares the coordinate position distribution of the pixels clustered in the cluster with the defect portion with the coordinate position distribution of the normal pattern of the layer structure.
  • the position of the defective portion (defect region) is specified (step S07).
  • the machine learning unit 31 adds a cluster for the defect portion and reclusters the pixels in the specified defect region (step S08).
  • the defect recognition unit 32 recognizes the type of the defect unit based on the distribution status of the pixels clustered in the defect cluster and the spectral spectrum information of the pixels clustered there (step S09). ..
  • step S10 it is determined whether or not to move the review position (step S10), and when the review position is moved (step S10: YES), the moved review position is subjected to the processing after step S02. If the review position is not moved (step S10: NO), the process ends.
  • FIG. 8 shows a configuration example of the laser correction device 2 provided with the defect recognition device 1 described above.
  • the laser correction device 2 irradiates the defect portion recognized by the defect recognition unit 32 in the information processing unit 30 described above with a laser beam to perform correction processing, and the laser is coaxial with the optical axis of the microscope 10. It includes a laser irradiation unit 3 that irradiates light L.
  • the laser irradiation unit 3 includes, for example, a laser light source 40, a laser scanner 42, and the like, and the laser light L emitted from the laser light source 40 passes through the mirror 41 and the galvano mirrors 42A and 42B of the laser scanner 42. It is incident on the optical system of the microscope 10 and is irradiated on the surface Wa of the unit region where the magnified image by the laser 10 is obtained.
  • a switching mirror 18 is provided to enter / retract the optical axis of the microscope 10.
  • the defect recognition device 1 is operated by incident light, and the switching mirror 18 is retracted from the optical axis of the microscope 10 to enable the laser correction device 2 that irradiates the surface Wa with the laser beam L.
  • the defect recognition unit 32 determines the presence or absence of the defect portion and the defect portion when there is a defect portion.
  • Information such as the position, the layer structure of the defective portion, and the type of the defective portion is transmitted to the laser control unit 50.
  • the laser control unit 50 determines whether or not to perform laser correction based on the above-mentioned information transmitted from the defect recognition unit 32, and when performing laser correction, based on the position information of the defect unit.
  • the laser irradiation range is set, and the processing recipe is set based on the layer structure and type information of the defective portion.
  • the magnified image of the microscope 10 is also formed on the monitor camera 15, and the laser correction can be performed while observing the image captured by the monitor camera 15 on the display device 52. ing.
  • the two-dimensional image acquired by the monitor camera 15 is image-processed by the image processing unit 51 and transmitted to the laser control unit 50 and the information processing unit 30, and the two-dimensional image is also used by the laser irradiation unit 3. It is possible to control.
  • the defective portion of the multilayer film substrate W can be mechanically recognized in more detail, and the laser correction processing can be set based on the recognized information. ..
  • high-quality correction machining that is not affected by the skill of the operator becomes possible, and it is possible to perform high-efficiency and high-quality correction machining by automating from recognition of defective parts to machining.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Laser Beam Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

多層膜基板における欠陥部の状態を機械的に認識することができ、オペレータのスキルに影響されない修正加工を可能にする。欠陥部認識装置は、多層膜基板の表面に白色落射光を照射して、表面において欠陥部を認識する単位領域の拡大像を得る顕微鏡と、拡大像が結像される撮像面を有し、撮像面のピクセル毎に拡大像の分光スペクトル情報を出力するスペクトル分光カメラと、スペクトル分光カメラから出力された分光スペクトル情報を処理する情報処理部を備え、情報処理部は、ピクセル毎の分光スペクトル情報をクラスタリング処理する機械学習部と、機械学習部の処理結果から欠陥部を認識する欠陥認識部を備え、機械学習部は、単位領域に存在する層構造に応じてクラスタを設定し、クラスタにクラスタリングされるピクセル数を度数とするヒストグラムを生成し、欠陥認識部は、生成されたヒストグラムの度数分布を欠陥が存在しないヒストグラムの度数分布と比較して、度数に差があるクラスタの存在で、欠陥部を認識する。

Description

欠陥部認識装置及び欠陥部認識方法
 本発明は、多層膜基板の欠陥部認識装置及び方法に関するものである。
 FPD(Flat Panel Display)などの製造工程では、検査工程で欠陥画素が検出された場合に、TFT(Thin Film Transistor)などの多層膜基板を対象に、欠陥画素の欠陥部に対してレーザ光を照射する修正加工を行っている。
 この際の欠陥部の認識は、顕微鏡画像による目視認識か、或いは、画像処理技術を用いて、欠陥部の画像と欠陥部の無い参照画像とを照合し、欠陥部の位置や特徴を把握することなどが行われている(下記特許文献1参照)。
特開2008-188638号公報
 多層膜基板の欠陥部は、欠陥部が多層膜のどの層にあるのか、更には欠陥部の層の下地層がどのような層構造になっているかを認識することが必要になり、この違いに応じて、レーザ修正を行う際の加工レシピが適宜選択されている。従来、顕微鏡画像の目視で欠陥部を認識している場合には、欠陥部の層構造の把握はオペレータの経験や知識に頼らざるを得ず、見立ての違いによって修正レシピが異なるなど、オペレータのスキルが修正品質に影響してしまう問題があった。
 また、画像処理技術を用いて欠陥部の認識を行う従来技術によると、2次元画像によって欠陥部から得られる情報は、欠陥部の色、大きさ、コントラスト、形状などに限られてしまうため、欠陥の下地層の層構造などを正確に把握することができない。このため、最終的にはオペレータの経験や知識に頼ることになり、この従来技術によっても品質の高い修正加工を行うことができない問題があった。
 本発明は、このような問題に対処するために提案されたものである。すなわち、多層膜基板における欠陥部の状態を機械的に認識することができ、オペレータのスキルに影響されない修正加工を可能にすること、などが本発明の課題である。
 このような課題を解決するために、本発明は、以下の構成を具備するものである。
 多層膜基板の表面に白色落射光を照射して、前記表面において欠陥部を認識する単位領域の拡大像を得る顕微鏡と、前記拡大像が結像される撮像面を有し、当該撮像面のピクセル毎に前記拡大像の分光スペクトル情報を出力するスペクトル分光カメラと、前記スペクトル分光カメラから出力された分光スペクトル情報を処理する情報処理部を備え、前記情報処理部は、前記ピクセル毎の分光スペクトル情報をクラスタリング処理する機械学習部と、該機械学習部の処理結果から欠陥部を認識する欠陥認識部を備え、該機械学習部は、前記単位領域に存在する層構造に応じてクラスタを設定し、該クラスタにクラスタリングされるピクセル数を度数とするヒストグラムを生成し、前記欠陥認識部は、生成された前記ヒストグラムの度数分布を欠陥が存在しないヒストグラムの度数分布と比較して、度数に差があるクラスタの存在で、欠陥部を認識することを特徴とする欠陥部認識装置。
欠陥部認識装置を示した説明図。 欠陥部認識装置の情報処理部を説明する説明図。 機械学習部のクラスタリング処理を説明する説明図。 欠陥認識部の機能を説明する説明図。 欠陥認識部の欠陥位置認識機能を説明する説明図((a)は一つの層構造における正常なパターンの座標位置、(b)は欠陥部が存在する層構造にクラスタリングされたピクセルの座標位置、(c)は欠陥領域のピクセルの座標位置)。 欠陥領域内の再クラスタリング処理を説明する説明図。 欠陥認識方法のフローを示した説明図。 欠陥部認識装置を備えたレーザ修正装置を示した説明図。
 以下、図面を参照して本発明の実施形態を説明する。以下の説明で、異なる図における同一符号は同一機能の部位を示しており、各図における重複説明は適宜省略する。
 図1に示すように、欠陥部認識装置1は、ステージS上に設置されたワークである多層膜基板Wの欠陥部を認識するものであり、顕微鏡10、スペクトル分光カメラ20、情報処理部30を備えている。
 顕微鏡10は、多層膜基板Wの表面Waに白色落射光を照射して、表面Waにおいて欠陥部を認識する単位領域(例えば、TFT基板の画素領域)の拡大像を得る光学顕微鏡であり、対物レンズ11やチューブレンズ17などの光学系を備えると共に、白色落射光を表面Waに照射するための白色光源12とその光学系(ミラー13及びハーフミラー14)を備えている。また、顕微鏡10は、必要に応じて、表面Waの拡大像のモニタ画像を得るためのモニタカメラ15とそのための光学系(ハーフミラー16)などを備えている。
 スペクトル分光カメラ20は、顕微鏡10の光学系の光軸10P上に、スリット23とグレーティング素子(回折格子)21を配置して、表面Waにて反射される光を波長分離し、この分離された光を、リレーレンズ系24を介して2次元カメラ22の撮像面22aに結像し、ライン分光方式によって、表面Waの拡大像の分光スペクトル情報を撮像面22aのピクセル毎に取得するものである。
 情報処理部30は、スペクトル分光カメラ20から出力された分光スペクトル情報処理するものであり、図2に示すように、ピクセル毎の分光スペクトル情報をクラスタリング処理する機械学習部31と、機械学習部31の処理結果から欠陥部を認識する欠陥認識部32とを備えている。欠陥認識部32の認識結果は、図示省略しているレーザ修正装置の制御部に出力され、欠陥部をレーザ加工することの要・不要判断や、レーザ加工する場合の加工レシピの選択などに適用される。
 スペクトル分光カメラ20から出力される分光スペクトルの情報は、図3に示すように、2次元カメラ22の撮像面22aの一つのピクセルP(Xn,Yn)毎に、一つの分光スペクトル分布を出力する。ここでのピクセルP(Xn,Yn)は、X-Y平面座標の位置情報を有しており、このピクセルP(Xn,Yn)の位置が、レビュー対象となる拡大像内の特定位置に対応している。
 そして、スペクトル分光カメラ20が出力するピクセル毎の分光スペクトル情報は、表面Waの単なる2次元画像情報とは異なり、撮像面22aのピクセルP(Xn,Yn)に対応する表面Wa上の位置の層構造が予測できる情報を含んでいる。これは、多層膜基板Wの表面Waにて反射する光が、多層膜の表層の違いで様々な分光特性を示すと共に多層膜の各層界面で反射する光と干渉するなどして、層構造特有のスペクトル分布を示すことに起因する。
 機械学習部31は、スペクトル分光カメラ20が出力するピクセル毎の分光スペクトル情報をクラスタリングするに際して、レビュー対象となる多層膜基板Wの単位領域に存在する層構造の数をクラスタ数としている。ここでの層構造は、多層膜基板Wの設計情報から予め知ることができるものである。図3に示した例では、多層膜基板Wの単位領域には、11個の層構造が存在しており、それに対応して11個のクラスタNo.1~11が設定されている。
 機械学習部31は、クラスタに対応する層構造がどのような構造であるかは把握しておらず、類似のスペクトル分布の分光スペクトル情報を有するピクセルを一つのクラスタに集めて、撮像面22a内の各ピクセルを、図3の例では11個のクラスタに振り分ける処理を行っている。これによって、機械学習部31は、図3に示すように、各クラスタにクラスタリングされるピクセル数を度数とするヒストグラムを生成する。
 このヒストグラムは、レビュー対象の単位領域内に欠陥部が存在しない場合には、設計されたとおりのヒストグラムになるが、単位領域内に欠陥部が存在する場合には、ヒストグラムの度数が設計値と異なってくる。欠陥認識部32は、機械学習部31によって生成されたヒストグラムの度数分布を欠陥が存在しない設計値のヒストグラムの度数分布と比較して、度数に差があるクラスタの層構造を、欠陥部が存在する可能性がある層構造として認識する。
 図4は、欠陥認識部32の処理を模式的に示している。ここで、欠陥認識部32は、機械学習部31において設定された各クラスタと層構造との関係を認識している。そして、図4に破線の丸で囲んだように、設計値のヒストグラム度数とクラスタリングされたヒストグラムの度数に大きな差があるクラスタを特定して、そのクラスタに対応する層構造を、欠陥部が存在する可能性がある層構造として認識する。
 次に、欠陥認識部32は、図5に示すように、生成されたヒストグラムにおいて、度数に差があるクラスタにクラスタリングされたピクセルの座標位置と、この層構造における正常なパターンの座標位置との差分から、欠陥部の位置を認識する。具体的には、図4におけるクラスタ7に対応する層構造に欠陥部が存在することを認識した場合に、この層構造の正常なパターンの座標位置が、図5(a)に示す座標位置分布であるとする。これに対して、実際にクラスタ7にクラスタリングされたピクセルの座標位置分布をX-Y座標上に示してみると、図5(b)に示すような座標位置分布が得られたとする。このような場合に、欠陥認識部32は、図5(b)の分布と図5(a)の分布の差分を取ることで、図5(c)に示すように、欠陥部の位置(欠陥領域に存在するピクセルの座標位置分布)を認識することができる。
 これに対して、機械学習部31は、前述した欠陥認識部32の欠陥位置の認識結果を踏まえて、図6に示すように、欠陥領域に位置するピクセルの分光スペクトル情報を再クラスタリングする。この際、機械学習部31は、既に設定されている層構造に対応するクラスタ(No.1~11)に追加して、欠陥部用のクラスタ(No.12,13)を複数設定する。
 この再クラスタリングでは、欠陥領域内のピクセル位置の層構造が既知の層構造である場合には、既に設定されているクラスタ(No.1~11)にクラスタリングされるが、それ以外の異物などである場合には、追加した欠陥部用のクラスタ(No.12,13)にクラスタリングされることになる。そして、追加した欠陥部用のクラスタ(No.12,13)にクラスタリングされたピクセルは、設計上の層構造とは異なる構造であると言えるので、例えば、異物の付着によって生じた層構造などであることを予測することができる。欠陥認識部32は、欠陥部用のクラスタ(No.12,13)にピクセルがクラスタリングされた場合には、クラスタリングされたピクセルの分光スペクトル情報を基にし、前述した予測を前提にして、欠陥部の種別を認識する。
 図7は、前述した欠陥部認識装置1を用いた欠陥部認識方法の工程例を示している。欠陥部認識を開始するには、先ず、ワークである多層膜基板WをステージS上に設置して(ステップS01)、表面Waのレビュー位置を特定し、そこに顕微鏡10の光軸を移動させる(ステップS02)。
 そして、レビュー位置の表面Wa上に白色落射光を照射し、顕微鏡10によって、レビュー対象となる単位領域の拡大像を得て、その拡大像が結像される撮像面22aを有するスペクトル分光カメラ20を用いて、撮像面22aのピクセル毎の分光スペクトル情報を取得する(ステップS03)。
 取得したピクセル毎の分光スペクトル情報は、情報処理部30における機械学習部31に入力され、ここで、前述したクラスタリング処理が行われる(ステップS04)。このクラスタリング処理が終了すると、前述したように、レビュー対象となる単位領域に存在する層構造の数をクラスタ数とし、各クラスタにクラスタリングされるピクセル数を度数とするヒストグラムが生成される(ステップ05)。
 機械学習部31にてヒストグラムが生成されると、欠陥認識部32は、前述したように、クラスタリングによって生成されたヒストグラムの度数分布と設計値のヒストグラムの度数分布とを比較して、度数に差があるクラスタの存在によって欠陥部の有無を確認する(ステップS06)。
 次に、欠陥認識部32は、図5に示すように、欠陥部有りのクラスタにクラスタリングされているピクセルの座標位置分布を、当該層構造の正常なパターンの座標位置分布と比較することで、欠陥部の位置(欠陥領域)を特定する(ステップS07)。そして、機械学習部31は、前述したように、欠陥部用のクラスタを追加して、特定された欠陥領域内のピクセルを再クラスタリングする(ステップS08)。
 再クラスタリングの後、欠陥認識部32は、欠陥用クラスタにクラスタリングされたピクセルの分布状況や、そこにクラスタリングされたピクセルの分光スペクトル情報を基にして、欠陥部の種別を認識する(ステップS09)。
 その後は、レビュー位置の移動を行うか否かの判断を行い(ステップS10)、レビュー位置を移動する場合には(ステップS10:YES)、移動したレビュー位置に対して、ステップS02以降の処理を行い、レビュー位置を移動しない場合には(ステップS10:NO)、処理を終了する。
 図8は、前述した欠陥部認識装置1を備えたレーザ修正装置2の構成例を示している。レーザ修正装置2は、前述した情報処理部30における欠陥認識部32が認識した欠陥部に対して、レーザ光を照射して修正加工を行うものであり、顕微鏡10の光軸と同軸上にレーザ光Lを照射するレーザ照射部3を備えている。
 レーザ照射部3は、例えば、レーザ光源40、レーザスキャナ42などを備えており、レーザ光源40から出射されたレーザ光Lは、ミラー41とレーザスキャナ42のガルバノミラー42A,42Bを経由して、顕微鏡10の光学系内に入射され、顕微鏡10による拡大像が得られている単位領域の表面Wa上に照射される。
 図示の例では、顕微鏡10の光軸に進入・退避する切り替えミラー18が設けられており、切り替えミラー18を顕微鏡10の光軸上に進入させることで、スペクトル分光カメラ20に表面Waからの反射光を入射させて、欠陥部認識装置1を動作させ、切り替えミラー18を顕微鏡10の光軸から退避させることで、レーザ光Lを表面Waに照射するレーザ修正装置2を動作可能にしている。
 このような欠陥部認識装置1を備えたレーザ修正装置2は、先ず、欠陥部認識装置1を動作させることで、欠陥認識部32が、欠陥部の有無、欠陥部が有る場合の欠陥部の位置、欠陥部の層構造、欠陥部の種別などの情報をレーザ制御部50に送信する。レーザ制御部50は、欠陥認識部32から送信された前述の情報を基にして、レーザ修正を行うか否かの判断を行い、レーザ修正を行う場合には、欠陥部の位置情報に基づいてレーザ照射範囲の設定を行い、欠陥部の層構造や種別情報に基づいて加工レシピの設定を行う。
 また、図示の例では、顕微鏡10の拡大像は、モニタカメラ15にも結像されており、モニタカメラ15が撮像した画像を表示装置52で観察しながら、レーザ修正を行うことできるようになっている。この際、モニタカメラ15が取得した2次元画像は、画像処理部51で画像処理されてレーザ制御部50や情報処理部30に送信されており、この2次元画像によっても、レーザ照射部3の制御を行うことができるようになっている。
 以上説明した本発明の実施形態によると、多層膜基板Wの欠陥部を、機械的により詳細に認識することができ、この認識した情報を基にして、レーザ修正加工の設定を行うことができる。これにより、オペレータのスキルに影響されない高品質の修正加工が可能になり、また、欠陥部の認識から加工までを自動化して、高能率且つ高品質な修正加工を行うことができる。
 以上、本発明の実施の形態について図面を参照して詳述してきたが、具体的な構成はこれらの実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれる。また、上述の各実施の形態は、その目的及び構成等に特に矛盾や問題がない限り、互いの技術を流用して組み合わせることが可能である。
1:欠陥部認識装置,2:レーザ修正装置,3:レーザ照射部,
10:顕微鏡,10P:光軸,11:対物レンズ,12:白色光源,
13:ミラー,14,16:ハーフミラー,15:モニタカメラ,
17:チューブレンズ,18:切り替えミラー,
20:スペクトル分光カメラ,21:グレーティング素子,
22:2次元カメラ,22a:撮像面,23:スリット
30:情報処理部,31:機械学習部,32:欠陥認識部,
40:レーザ光源,41:ミラー,42:レーザスキャナ,
42A,42B:ガルバノミラー,
50:レーザ制御部,51:画像処理部,52:表示装置,
S:ステージ,W:多層膜基板,Wa:表面,L:レーザ光

Claims (6)

  1.  多層膜基板の表面に白色落射光を照射して、前記表面において欠陥部を認識する単位領域の拡大像を得る顕微鏡と、
     前記拡大像が結像される撮像面を有し、当該撮像面のピクセル毎に前記拡大像の分光スペクトル情報を出力するスペクトル分光カメラと、
     前記スペクトル分光カメラから出力された分光スペクトル情報を処理する情報処理部を備え、
     前記情報処理部は、前記ピクセル毎の分光スペクトル情報をクラスタリング処理する機械学習部と、該機械学習部の処理結果から欠陥部を認識する欠陥認識部を備え、
     該機械学習部は、前記単位領域に存在する層構造に応じてクラスタを設定し、該クラスタにクラスタリングされるピクセル数を度数とするヒストグラムを生成し、
     前記欠陥認識部は、生成された前記ヒストグラムの度数分布を欠陥が存在しないヒストグラムの度数分布と比較して、度数に差があるクラスタの存在で、欠陥部を認識することを特徴とする欠陥部認識装置。
  2.  前記欠陥認識部は、前記度数に差があるクラスタにクラスタリングされたピクセルの座標位置と、当該クラスタの層構造における正常なパターンの座標位置との差分から、欠陥部の位置を認識することを特徴とする請求項1記載の欠陥部認識装置。
  3.  前記機械学習部は、前記単位領域に存在する層構造に応じたクラスタに加えて、欠陥部用のクラスタを設定し、
     前記欠陥認識部は、前記欠陥部用のクラスタにクラスタリングされたピクセルを基に欠陥部の種別を認識することを特徴とする請求項1又は2記載の欠陥部認識装置。
  4.  多層膜基板の表面に白色落射光を照射して、前記表面において欠陥部を認識する単位領域の拡大像を得る工程と、
     前記拡大像が結像される撮像面を有するスペクトル分光カメラを用い、前記撮像面のピクセル毎に前記拡大像の分光スペクトル情報を取得する工程と、
     前記スペクトル分光カメラによって取得したピクセル毎の分光スペクトル情報を、前記単位領域に存在する層構造に応じて設定されたクラスタにクラスタリングする工程と、
     前記クラスタにクラスタリングされるピクセル数を度数とするヒストグラムを生成する工程と、
     生成された前記ヒストグラムの度数分布を欠陥が存在しないヒストグラムの度数分布と比較して、度数に差があるクラスタの存在で、欠陥部を認識することを特徴とする欠陥部認識方法。
  5.  前記度数に差があるクラスタにクラスタリングされたピクセルの座標位置と、当該クラスタの層構造における正常なパターンの座標位置との差分から、欠陥部の位置を認識することを特徴とする請求項4記載の欠陥部認識方法。
  6.  前記欠陥部として認識されたピクセルを再クラスタリングする工程を有し、該再クラスタリングでは、前記クラスタに加えて、欠陥部用のクラスタを設定し、当該欠陥部用のクラスタにクラスタリングされたピクセルを基に、前記欠陥部の種別を認識することを特徴とする請求項5記載の欠陥部認識方法。
PCT/JP2020/024371 2019-08-21 2020-06-22 欠陥部認識装置及び欠陥部認識方法 WO2021033417A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/636,182 US11953447B2 (en) 2019-08-21 2020-06-22 Defective part recognition device and defective part recognition method
KR1020227004503A KR20220044744A (ko) 2019-08-21 2020-06-22 결함부 인식 장치 및 결함부 인식 방법
CN202080058129.1A CN114270179A (zh) 2019-08-21 2020-06-22 缺陷部识别装置及缺陷部识别方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019151063A JP7287669B2 (ja) 2019-08-21 2019-08-21 欠陥部認識装置及び欠陥部認識方法
JP2019-151063 2019-08-21

Publications (1)

Publication Number Publication Date
WO2021033417A1 true WO2021033417A1 (ja) 2021-02-25

Family

ID=74661036

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024371 WO2021033417A1 (ja) 2019-08-21 2020-06-22 欠陥部認識装置及び欠陥部認識方法

Country Status (5)

Country Link
US (1) US11953447B2 (ja)
JP (1) JP7287669B2 (ja)
KR (1) KR20220044744A (ja)
CN (1) CN114270179A (ja)
WO (1) WO2021033417A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115144405A (zh) * 2022-09-02 2022-10-04 扬州中科半导体照明有限公司 基于光学检测的Mini LED晶圆外观缺陷检测方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11614361B1 (en) 2021-12-23 2023-03-28 Optiz, Inc. Hyperspectral camera
US20230402328A1 (en) * 2022-06-09 2023-12-14 Onto Innovation Inc. Optical metrology with nuisance feature mitigation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991699A (en) * 1995-05-04 1999-11-23 Kla Instruments Corporation Detecting groups of defects in semiconductor feature space
JP2008188638A (ja) * 2007-02-05 2008-08-21 Sony Corp 欠陥修正装置、配線基板の製造方法、ディスプレイ装置の製造方法
JP2011165479A (ja) * 2010-02-09 2011-08-25 Hitachi High-Technologies Corp パターン検査方法、パターン検査プログラム、電子デバイス検査システム
CN105699385A (zh) * 2016-02-01 2016-06-22 清华大学 空间光调制器的缺陷层别检测系统及检测方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3978098B2 (ja) * 2002-08-12 2007-09-19 株式会社日立製作所 欠陥分類方法及びその装置
JP2012063725A (ja) * 2010-09-17 2012-03-29 Sony Corp 欠陥修正装置及び欠陥修正方法
JP5437287B2 (ja) 2011-02-07 2014-03-12 オリンパス株式会社 レーザリペア装置
KR101565748B1 (ko) * 2013-05-31 2015-11-05 삼성에스디에스 주식회사 이미지에서 반복 패턴을 검출하는 방법 및 장치
JP2017156517A (ja) 2016-03-01 2017-09-07 凸版印刷株式会社 表示装置の欠陥モード分類システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991699A (en) * 1995-05-04 1999-11-23 Kla Instruments Corporation Detecting groups of defects in semiconductor feature space
JP2008188638A (ja) * 2007-02-05 2008-08-21 Sony Corp 欠陥修正装置、配線基板の製造方法、ディスプレイ装置の製造方法
JP2011165479A (ja) * 2010-02-09 2011-08-25 Hitachi High-Technologies Corp パターン検査方法、パターン検査プログラム、電子デバイス検査システム
CN105699385A (zh) * 2016-02-01 2016-06-22 清华大学 空间光调制器的缺陷层别检测系统及检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115144405A (zh) * 2022-09-02 2022-10-04 扬州中科半导体照明有限公司 基于光学检测的Mini LED晶圆外观缺陷检测方法

Also Published As

Publication number Publication date
US11953447B2 (en) 2024-04-09
US20220291136A1 (en) 2022-09-15
JP2021032629A (ja) 2021-03-01
CN114270179A (zh) 2022-04-01
KR20220044744A (ko) 2022-04-11
JP7287669B2 (ja) 2023-06-06

Similar Documents

Publication Publication Date Title
WO2021033417A1 (ja) 欠陥部認識装置及び欠陥部認識方法
WO2021161646A1 (ja) 欠陥検出装置、欠陥検出方法、欠陥修正装置
CN109642875B (zh) 用于原位工艺监测和控制的光谱反射测量法
KR102068950B1 (ko) 오버레이 계측의 콘트라스트 증강을 위한 구조화 조명
JP4778755B2 (ja) 欠陥検査方法及びこれを用いた装置
US20050280807A1 (en) Method and system for inspecting a wafer
US7355690B2 (en) Double inspection of reticle or wafer
WO2021005907A1 (ja) レーザ修正方法、レーザ修正装置
WO2020184024A1 (ja) レーザリペア方法、レーザリペア装置
US20110063621A1 (en) Pattern inspection apparatus and pattern inspection method
JP6574674B2 (ja) 塗装の検査装置及び検査方法
WO2020250685A1 (ja) レーザ修正方法、レーザ修正装置
WO2020250686A1 (ja) レーザ修正方法、レーザ修正装置
WO2020209004A1 (ja) レーザリペア方法、レーザリペア装置
JP5531405B2 (ja) 周期性パターンのムラ検査方法及び検査装置
WO2021145117A1 (ja) 表面分析方法、表面分析装置
WO2006019446A2 (en) Double inspection of reticle or wafer

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20854207

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20227004503

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20854207

Country of ref document: EP

Kind code of ref document: A1