KR102352697B1 - 컨투어 기반 결함 검출 - Google Patents

컨투어 기반 결함 검출 Download PDF

Info

Publication number
KR102352697B1
KR102352697B1 KR1020197033064A KR20197033064A KR102352697B1 KR 102352697 B1 KR102352697 B1 KR 102352697B1 KR 1020197033064 A KR1020197033064 A KR 1020197033064A KR 20197033064 A KR20197033064 A KR 20197033064A KR 102352697 B1 KR102352697 B1 KR 102352697B1
Authority
KR
South Korea
Prior art keywords
specimen
learning
based model
contour
design
Prior art date
Application number
KR1020197033064A
Other languages
English (en)
Other versions
KR20190128745A (ko
Inventor
아자이 굽타
모한 마하데반
산카르 벤카타라만
헤동 양
로렌트 카르센티
야이르 카르몬
노가 불키츠
유디 다니노
Original Assignee
케이엘에이 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 케이엘에이 코포레이션 filed Critical 케이엘에이 코포레이션
Publication of KR20190128745A publication Critical patent/KR20190128745A/ko
Application granted granted Critical
Publication of KR102352697B1 publication Critical patent/KR102352697B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8867Grading and classifying of flaws using sequentially two or more inspection runs, e.g. coarse and fine, or detecting then analysing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9501Semiconductor wafers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/20Sequence of activities consisting of a plurality of measurements, corrections, marking or sorting steps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Processing (AREA)

Abstract

시편 상에 형성된 패턴들 내의 결함들을 검출하기 위한 방법들 및 시스템들이 제공된다. 하나의 시스템은 하나 이상의 컴퓨터 서브시스템에 의해 실행되는 하나 이상의 컴포넌트를 포함하고, 컴포넌트(들)은 제1 및 제2 학습 기반 모델들을 포함한다. 제1 학습 기반 모델은 시편에 대한 디자인에 기초하여 패턴들에 대한 시뮬레이션된 컨투어들을 생성한다. 시뮬레이션된 컨투어들은 이미징 서브시스템에 의해 생성된 시편의 이미지들 내의 패턴들의 무결함 버전의 예상된 컨투어들이다. 제2 학습 기반 모델은 시편 상에 형성된 패턴들의 적어도 하나의 취득된 이미지 내의 패턴들에 대한 실제 컨투어들을 생성하도록 구성된다. 컴퓨터 서브시스템(들)은 실제 컨투어들을 시뮬레이션된 컨투어들과 비교하고 비교의 결과들에 기초하여 시편 상에 형성된 패턴들 내의 결함들을 검출하도록 구성된다.

Description

컨투어 기반 결함 검출
본 발명은 일반적으로 시편(specimen) 상에 형성된 패턴들 내의 결함들을 검출하기 위한 방법들 및 시스템들에 관한 것이다.
이하의 설명 및 예들은 이 섹션에 포함되어 있는 것으로 인해 종래 기술인 것으로 인정되지 않는다.
검사 프로세스들은 반도체 제조 프로세스 동안 다양한 단계들에서 웨이퍼들 상의 결함들을 검출하여 제조 프로세스에서의 보다 높은 수율, 따라서 보다 높은 수익을 주도(drive)하는 데 사용된다. 검사는 항상 반도체 디바이스들을 제조하는 것의 중요한 부분이었다. 그렇지만, 반도체 디바이스들의 치수들(dimensions)이 감소함에 따라, 수용가능한(acceptable) 반도체 디바이스들의 성공적인 제조에 검사가 훨씬 더 중요해지는데, 그 이유는 보다 작은 결함들이 디바이스들을 고장나게 할 수 있기 때문이다.
결함 검토는 전형적으로 검사 프로세스에 의해서와 같이 검출되는 결함들을 재검출하는 것(re-detecting) 및 고배율 광학 시스템 또는 스캐닝 전자 현미경(scanning electron microscope, SEM) 중 어느 하나를 사용하여 보다 고분해능으로 결함들에 관한 추가 정보를 생성하는 것을 수반한다. 따라서, 결함 검토는 결함들이 검사에 의해 검출되었던 웨이퍼 상의 이산 위치들(discrete locations)에서 수행된다. 결함 검토에 의해 생성된 결함들에 대한 보다 고분해능의 데이터는 프로파일, 거칠기, 보다 정확한 사이즈 정보 등과 같은 결함들의 어트리뷰트들(attributes)을 결정하는 데 보다 적합하다. 결함 검토가 검사에 의해 웨이퍼 상에서 검출된 결함들에 대해 수행되기 때문에, 검출된 결함의 위치에서의 결함 검토에 사용되는 파라미터들은 검사 프로세스에 의해 결정된 결함들의 어트리뷰트들에 기초하여 결정될 수 있다.
반도체 제조 프로세스 동안 다양한 단계들에서 프로세스를 모니터링 및 제어하는 데 계측 프로세스들이 또한 사용된다. 웨이퍼 상에서 결함들이 검출되는 검사 프로세스들과는 달리, 계측 프로세스들이 현재 사용되는 검사 툴들(inspection tools)을 사용하여 결정될 수 없는 웨이퍼의 하나 이상의 특성을 측정하는 데 사용된다는 점에서 계측 프로세스들은 검사 프로세스들과 상이하다. 예를 들어, 계측 프로세스들은, 프로세스의 성능이 하나 이상의 특성으로부터 결정될 수 있도록, 프로세스 동안 웨이퍼 상에 형성된 피처들의 치수(예컨대, 선 폭(line width), 두께 등)와 같은 웨이퍼의 하나 이상의 특성을 측정하는 데 사용된다. 그에 추가하여, 웨이퍼의 하나 이상의 특성이 수용가능하지 않은(unacceptable)(예컨대, 특성(들)에 대한 미리 결정된 범위를 벗어난) 경우, 프로세스에 의해 제조된 추가의 웨이퍼들이 수용가능한 특성(들)을 갖도록, 웨이퍼의 하나 이상의 특성의 측정치들이 프로세스의 하나 이상의 파라미터를 변경하는 데 사용될 수 있다.
검사에 의해 검출되는 결함들이 결함 검토에서 재방문되는 결함 검토 프로세스들과는 달리, 어떠한 결함도 검출되지 않았던 위치들에서 계측 프로세스들이 수행될 수 있다는 점에서 계측 프로세스들은 결함 검토 프로세스들과 또한 상이하다. 환언하면, 결함 검토와 달리, 계측 프로세스가 웨이퍼 상에서 수행되는 위치들은 웨이퍼 상에서 수행되는 검사 프로세스의 결과들과 무관할 수 있다. 특히, 계측 프로세스가 수행되는 위치들은 검사 결과들과 무관하게 선택될 수 있다. 그에 추가하여, 계측이 수행되는 웨이퍼 상의 위치들이 검사 결과들과 무관하게 선택될 수 있기 때문에, 결함 검토가 수행되어야 하는 웨이퍼 상의 위치들이, 웨이퍼에 대한 검사 결과들이 생성되어 사용 가능(available for use)할 때까지는, 결정될 수 없는 결함 검토와 달리, 계측 프로세스가 수행되는 위치들은, 웨이퍼 상에서 검사 프로세스가 수행되기 전에, 결정될 수 있다.
"키(key)" 구조물들의 임계 치수들(CD들)을 측정하는 것은 현재 및 차세대 노드들(예컨대, 7 nm 및 5 nm)에서의 프로세스 모니터링에 필수적(vital)이다. "키"의 결정은, 그 중에서도, 알려진 밀도 및 근접 규칙들, 시뮬레이션, 경험, 및 광학 근접 보정(optical proximity correction, OPC)과 같은 몇몇 소스들에 기인한다. 그렇지만, SEM 이미지는 이러한 선행사항들(priors)에 관계없이 패턴 충실도(pattern fidelity)를 볼 수 있으며 이러한 선행사항들에 대한 명시적 필요 없이 알려지지 않은 "핫 스팟들"을 식별하는 데 도움이 될 수 있는데, 이는 프로세스 제어에 극도로 유용할 뿐만 아니라 패턴 충실도들에 대한 새로운 특성화 방법론들을 잠재적으로 개척할 수 있다.
CD-SEM들에 현재 사용되는 방법들은, 이들이 느리고, 이들이 각각의 사이트(site)에 대한 주의깊은 셋업 및 어느 사이트들을 측정해야 하는지에 대한 지식을 요구하며, 이들의 결과들이 다운라인에서(downline) 추가로 해석될 필요가 있는 것과 같은 몇 가지 과제들을 가지고 있다. 이러한 충실도 응용분야를 커버하기 위해 상당히 빠른 검토 SEM들의 사용이 인기를 얻고 있다. 그에 추가하여, 이는 고객들이 이러한 플랫폼들을 감소시키는 자체 알고리즘 솔루션들을 개발하여 "이미지 테이커들(image takers)"로서 사용할 수 있게 해준다. 따라서, 사용자들을 위해 적절한 패턴 충실도 모니터링을 가능하게 해주기 위해 이러한 과제들을 극복할 필요가 있는 것은 명백하다.
전형적인 CD 측정 응용분야들은 다수의 모듈들을 포함한다. 하나의 그러한 모듈은 CD 측정치들이 취해져야 하는 구역들(areas)의 식별 및 마킹(marking)을 포함하는 관심 영역(region of interest, ROI) 정의이다. 다른 그러한 모듈은 예상된 SEM 컨투어들(SEM contours)을 프리-OPC 디자인(pre-OPC design)으로부터 생성하는 것을 포함하는 임의적 디자인 렌더링 단계를 포함한다. 추가의 모듈은 에지들(edges) 및/또는 컨투어들을 현재 SEM 이미지들로부터 생성하는 것을 포함하는 에지 추출을 포함한다. 추가의 그러한 모듈은 정의된 ROI 내에서 예상된 "에지들"과 현재 "에지들"을 비교하는 것을 포함하는 측정 알고리즘들을 포함한다.
이러한 단계들을 커버하기 위한 몇 번의 이전 시도가 있었다. 이러한 이전 시도들의 주요 과제들은 복잡한 패턴들 및 패턴 교차점들(pattern intersections)에 대해 실패할 수 있는 컨투어들의 휴리스틱 결정(heuristic determination)에 있다. 이러한 시도들은 또한 이미징 조건들에 대한 강건성(robustness)을 결여하고 노이즈 있는 소프트 이미지들(soft images)에 대해 파라미터 트위킹(parameter tweaking)을 요구한다. 따라서, 패턴 충실도를 위해 임의의 랜덤한 패턴을 전반적으로(generically) 조사(explore)하려면 임의의 방법이 이러한 제한들을 가능한 한 극복해야만 한다.
패턴 핫 스폿 검출을 위해, 현재 사용되는 방법들은 학습 및 비-학습 기반 방법들 둘 다를 이용한다(즉, 수작업 제작된 알고리즘들(hand crafted algorithms)을 사용함). 이러한 방법들 중 일부는 입력으로서 CAD 데이터만을 갖는(이미지들을 갖지 않는) 학습 기반 알고리즘들을 사용하여 주어진 패턴이 핫 스폿인지 여부를 예측/분류하려고 시도함으로써 핫 스폿들을 검출하려고 시도한다. 다른 방법들은 CAD 및 이미지(SEM 또는 광학) 데이터 둘 다를 사용하고, 검출된 결함이 핫 스폿인지 여부를 수동으로 또는 수작업 제작된 피처들(hand crafted features) 또는 학습 기반 피처들을 사용하여 예측/분류한다. 그렇지만, 이러한 방법들 중 어느 것도 사용자-정의 문턱치(user-defined threshold)에 기초하여 핫 스폿을 정확하게 결정하기 위해 요구되는 CD 메트릭을 보고하는 것에 의해 이러한 핫 스폿들을 정량화하지 않는다.
핫 스폿 검출을 위해 현재 사용되는 방법들은 다수의 단점들을 갖는다. 예를 들어, 현재 사용되는 방법들은 상이한 패턴 유형들(즉, 메모리 또는 로직)에 자동으로 적응하는 유연성을 갖지 않는다. 그에 추가하여, 현재 사용되는 방법들은 상이한 이미지 모달리티들(modalities)에 대한 일반화를 갖지 않는다. 추가의 예에서, 현재 사용되는 방법들은 패턴 변동(variation) 및 바이어스(bias)를 특성화하기 위해 이미지 모달리티들의 수작업 제작된(휴리스틱) 모델들을 요구한다. 추가의 예에서, 현재 사용되는 방법들은 정량적 패턴 특성화 및 핫 스폿 검출을 제공하지 않는다. 그 대신에, 현재 사용되는 방법들은 싱글 샷 측정(single shot measurement)으로부터 시야(field of view) 전체에 대한 CD 또는 다른 패턴 충실도 메트릭들을 보고한다. 또 다른 예에서, 현재 사용되는 방법들은 각각의 종류의 OPC 에러를 경험적으로(heuristically) 핸들링할 필요 없이 OPC 에러를 자연스럽게(naturally) 핸들링하는 능력을 제공하지 않는다.
그에 따라, 위에서 설명된 단점들 중 하나 이상을 갖지 않는, 시편 상에 형성된 패턴들 내의 결함들을 검출하기 위한 시스템들 및 방법들을 개발하는 것이 유리할 것이다.
다양한 실시예들에 대한 이하의 설명은 첨부된 청구항들의 주제(subject matter)를 제한하는 것으로 결코 해석되지 않아야 한다.
일 실시예는 시편 상에 형성된 패턴들 내의 결함들을 검출하도록 구성된 시스템에 관한 것이다. 이 시스템은 적어도 에너지 소스 및 검출기를 포함하는 이미징 서브시스템을 포함한다. 에너지 소스는 시편 쪽으로 지향되는 에너지를 생성하도록 구성된다. 검출기는 시편으로부터의 에너지를 검출하고 검출된 에너지에 응답하여 이미지들을 생성하도록 구성된다. 이 시스템은 시편 상에 형성된 패턴들의 이미지들을 취득하도록 구성된 하나 이상의 컴퓨터 서브시스템을 또한 포함한다. 그에 추가하여, 이 시스템은 하나 이상의 컴퓨터 서브시스템에 의해 실행되는 하나 이상의 컴포넌트를 포함한다. 하나 이상의 컴포넌트는 제1 학습 기반 모델 및 제2 학습 기반 모델을 포함한다. 제1 학습 기반 모델은 하나 이상의 컴퓨터 서브시스템에 의해 제1 학습 기반 모델에 입력된 시편에 대한 디자인에 기초하여 패턴들에 대한 시뮬레이션된 컨투어들(simulated contours)을 생성하도록 구성된다. 시뮬레이션된 컨투어들은 이미징 서브시스템에 의해 생성된 시편의 이미지들 내의 패턴들의 무결함(defect free) 버전의 예상된 컨투어들(expected contours)이다. 제2 학습 기반 모델은 하나 이상의 컴퓨터 서브시스템에 의해 제2 학습 기반 모델에 입력된 시편 상에 형성된 패턴들의 취득된 이미지들 중 적어도 하나의 이미지 내의 패턴들에 대한 실제 컨투어들(actual contours)을 생성하도록 구성된다. 하나 이상의 컴퓨터 서브시스템은 실제 컨투어들을 시뮬레이션된 컨투어들과 비교하고 비교의 결과들에 기초하여 시편 상에 형성된 패턴들 내의 결함들을 검출하도록 구성된다. 이 시스템은 또한, 본 명세서에 설명된 바와 같이 구성될 수 있다.
다른 실시예는 시편 상에 형성된 패턴들 내의 결함들을 검출하기 위한 컴퓨터-구현 방법(computer-implemented method)에 관한 것이다. 이 방법은 하나 이상의 컴퓨터 서브시스템을 이용하여 이미징 서브시스템에 의해 시편 상에 형성된 패턴들의 이미지들을 취득하는 단계를 포함한다. 이미징 서브시스템은 위에서 설명된 바와 같이 구성된다. 이 방법은 하나 이상의 컴퓨터 서브시스템에 의해 제1 학습 기반 모델에 입력된 시편에 대한 디자인에 기초하여 패턴들에 대한 시뮬레이션된 컨투어들을 생성하는 단계를 또한 포함한다. 시뮬레이션된 컨투어들은 위에서 설명된 것들이다. 그에 추가하여, 이 방법은 하나 이상의 컴퓨터 서브시스템에 의해 제2 학습 기반 모델에 입력된 시편 상에 형성된 패턴들의 취득된 이미지들 중 적어도 하나의 이미지 내의 패턴들에 대한 실제 컨투어들을 생성하는 단계를 포함한다. 하나 이상의 컴포넌트는 하나 이상의 컴퓨터 서브시스템에 의해 실행된다. 하나 이상의 컴포넌트는 제1 및 제2 학습 기반 모델들을 포함한다. 이 방법은 실제 컨투어들을 시뮬레이션된 컨투어들과 비교하고 비교의 결과들에 기초하여 시편 상에 형성된 패턴들 내의 결함들을 검출하는 단계를 또한 포함한다. 이 방법의 단계들은 하나 이상의 컴퓨터 시스템에 의해 수행된다.
위에서 설명된 방법의 단계들 각각은 본 명세서에 추가로 설명되는 바와 같이 추가로 수행될 수 있다. 그에 추가하여, 위에서 설명된 방법의 실시예는 본 명세서에 설명된 임의의 다른 방법(들)의 임의의 다른 단계(들)를 포함할 수 있다. 게다가, 위에서 설명된 방법은 본 명세서에 설명된 시스템들 중 임의의 것에 의해 수행될 수 있다.
다른 실시예는 시편 상에 형성된 패턴들 내의 결함들을 검출하기 위한 컴퓨터-구현 방법을 수행하기 위해 컴퓨터 시스템 상에서 실행가능한 프로그램 명령어들을 저장한 비일시적 컴퓨터 판독가능 매체에 관한 것이다. 컴퓨터-구현 방법은 위에서 설명된 방법의 단계들을 포함한다. 컴퓨터 판독가능 매체는 또한, 본 명세서에 설명된 바와 같이 구성될 수 있다. 컴퓨터-구현 방법의 단계들은 본 명세서에 추가로 설명된 바와 같이 수행될 수 있다. 그에 추가하여, 프로그램 명령어들이 실행가능한 컴퓨터-구현 방법은 본 명세서에 설명된 임의의 다른 방법(들)의 임의의 다른 단계(들)를 포함할 수 있다.
본 발명의 추가의 장점들은 바람직한 실시예들에 대한 이하의 상세한 설명 덕분에 그리고 첨부 도면을 참조하면 본 기술분야의 통상의 기술자에게 명백해질 것이다.
도 1 및 도 2는 본 명세서에 설명된 바와 같이 구성된 시스템의 실시예들의 측면도들을 예시한 개략 다이어그램들이다;
도 3 내지 도 5 및 도 7은 본 명세서에 설명된 다양한 실시예들에 의해 수행될 수 있는 단계들의 실시예들을 예시한 플로차트들이다;
도 6은 패턴들이 형성되는 시편에 대해 생성된 이미지들 및 이미지들에 대해 본 명세서에 설명된 실시예들에 의해 추출된 컨투어들을 예시한 개략 다이어그램이다;
도 8은 컴퓨터 시스템으로 하여금 본 명세서에 설명된 컴퓨터-구현 방법을 수행하게 하기 위한 프로그램 명령어들을 저장한 비일시적 컴퓨터 판독가능 매체의 일 실시예를 예시한 블록 다이어그램이다.
본 발명은 다양한 수정들 및 대안의 형태들을 허용하지만, 그의 특정 실시예들이 도면들에 예로서 도시되고, 본 명세서에서 상세하게 설명된다. 도면들이 축척대로 되어 있지 않을 수 있다. 그렇지만, 도면들 및 이에 대한 상세한 설명이 본 발명을 개시된 특정의 형태로 제한하는 것으로 의도되지 않으며, 반대로, 의도는 첨부된 청구항들에 의해 한정되는 바와 같은 본 발명의 사상 및 범위 내에 속하는 모든 수정들, 등가물들 및 대안들을 커버하는 것임이 이해되어야 한다.
용어들 "디자인(design)" 및 "디자인 데이터(design data)"는 본 명세서에서 사용되는 바와 같이 일반적으로 IC의 물리적 디자인(레이아웃) 및 복잡한 시뮬레이션 또는 간단한 기하학적 및 부울 연산들을 통해 물리적 디자인으로부터 도출된 데이터를 지칭한다. 물리적 디자인은 그래픽 데이터 스트림(graphical data stream, GDS) 파일, 임의의 다른 표준 머신 판독가능 파일(standard machine-readable file), 본 기술분야에 공지된 임의의 다른 적합한 파일, 및 디자인 데이터베이스와 같은 데이터 구조에 저장될 수 있다. GDSII 파일은 디자인 레이아웃 데이터의 표현을 위해 사용되는 한 부류의 파일들 중 하나이다. 그러한 파일들의 다른 예들은 GL1 및 OASIS 파일들과, 캘리포니아주 밀피타스 소재의 KLA-Tencor에 독점적인, RDF 데이터와 같은 독점적 파일 포맷들을 포함한다. 그에 추가하여, 레티클 검사 시스템에 의해 취득된 레티클의 이미지 및/또는 그 파생물들(derivatives)이 디자인을 위한 "프록시(proxy)" 또는 "프록시들(proxies)"로서 사용될 수 있다. 그러한 레티클 이미지 또는 그 파생물은 디자인을 사용하는 본 명세서에 설명된 임의의 실시예들에서 디자인 레이아웃에 대한 대체물(substitute)로서 역할할 수 있다. 디자인은 2009년 8월 4일자로 Zafar 등에게 등록된(issued) 공동 소유의 미국 특허 제7,570,796호 및 2010년 3월 9일자로 Kulkarni 등에게 등록된 공동 소유의 미국 특허 제7,676,077호에 설명된 임의의 다른 디자인 데이터 또는 디자인 데이터 프록시들을 포함할 수 있으며, 이들 둘 다는 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함된다. 그에 추가하여, 디자인 데이터는 표준 셀 라이브러리 데이터, 통합 레이아웃 데이터, 하나 이상의 층(layers)에 대한 디자인 데이터, 디자인 데이터의 파생물들, 및 전체 또는 부분 칩 디자인 데이터일 수 있다.
일부 경우들에서, 웨이퍼 또는 레티클로부터의 시뮬레이션된 또는 취득된 이미지들은 디자인을 위한 프록시로서 사용될 수 있다. 이미지 분석이 디자인 분석을 위한 프록시로서 또한 사용될 수 있다. 예를 들어, 웨이퍼 및/또는 레티클의 이미지가 디자인의 폴리곤들(polygons)을 적절히 이미징하기에 충분한 분해능으로 취득되는 것으로 가정하면, 웨이퍼 및/또는 레티클 상에 인쇄된 디자인의 이미지로부터 디자인 내의 폴리곤들이 추출될 수 있다. 그에 추가하여, 본 명세서에 설명된 "디자인" 및 "디자인 데이터"는 디자인 프로세스에서 반도체 디바이스 디자이너들에 의해 생성되고 따라서 디자인을 임의의 물리적 웨이퍼들 상에 인쇄하기 훨씬 전에 본 명세서에 설명된 실시예들에서 사용 가능한 정보 및 데이터를 지칭한다.
바람직하게는, "디자인" 또는 "물리적 디자인(physical design)"은, 그 용어들이 본 명세서에서 사용되는 바와 같이, 웨이퍼 상에 이상적으로 형성될 때의 디자인을 지칭한다. 이러한 방식으로, 본 명세서에 설명된 디자인 또는 물리적 디자인은 바람직하게는, 그 자체가 실제로 인쇄되지는 않으면서 웨이퍼 상에의 피처들의 인쇄를 향상시키기 위해 디자인에 추가되는, 광학 근접 보정(OPC) 피처들과 같은 웨이퍼 상에 인쇄되지 않을 디자인의 피처들을 포함하지 않을 것이다. 이러한 방식으로, 일부 실시예들에서, 본 명세서에서 추가로 설명되는 단계들에 사용되는 시편에 대한 디자인은 시편 상에 인쇄되지 않을 디자인의 피처들을 포함하지 않는다.
본 명세서에 설명된 "디자인" 및 "디자인 데이터"는, 위에서 설명된 다양한 유형들의 디자인 및 디자인 데이터 중 임의의 것을 포함할 수 있는, 웨이퍼 상에 형성되는 디바이스에 대한 물리적 의도에 관련된 데이터 및 정보를 포함할 수 있다. "디자인" 및 "디자인 데이터"는 또한 또는 대안적으로 웨이퍼 상에 형성되는 디바이스에 대한 전기적 의도에 관련된 데이터 및 정보를 포함할 수 있다. 그러한 정보 및 데이터는, 예를 들어, 넷리스트(netlist) 및 SPICE 명명법 및/또는 "주석 첨부된 레이아웃"(예컨대, 이 경우 디자인은 전기적 넷리스트 파라미터 라벨링을 포함함)을 포함할 수 있다. 그러한 데이터 및 정보는 레이아웃 또는 웨이퍼 이미지의 어느 부분들이 하나 이상의 전기적 측면에서 아주 중요(critical)한지를 결정하는 데 사용될 수 있다.
이제 도면을 살펴보면, 도면들이 축척대로 그려져 있지 않음에 유의한다. 특히, 도면들의 요소들 중 일부의 스케일은 요소들의 특성들을 강조하기 위해 크게 과장되어 있다. 도면들이 동일한 축척으로 그려져 있지 않음에 또한 유의한다. 유사하게 구성될 수 있는 하나 초과의 도면에 도시된 요소들은 동일한 참조 번호들을 사용하여 표시되었다. 본 명세서에서 달리 언급되지 않는 한, 설명되고 도시된 요소들 중 임의의 것은 임의의 적합한 상업적으로 이용가능한 요소들을 포함할 수 있다.
일 실시예는 시편 상에 형성된 패턴들 내의 결함들을 검출하도록 구성된 시스템에 관한 것이다. 일 실시예에서, 시편은 웨이퍼를 포함한다. 다른 실시예에서, 시편은 레티클을 포함한다. 웨이퍼 및 레티클은 본 기술분야에 공지된 임의의 웨이퍼 및 레티클을 포함할 수 있다.
일반적으로, 본 명세서에 설명된 실시예들은 딥 러닝(deep learning)을 사용하여 강건하고 일반화된 패턴 충실도 측정들을 할 수 있다. 예를 들어, 본 명세서에서 추가로 설명되는 바와 같이, 본 명세서에 설명된 실시예들은 확률적 프로세스 노이즈(stochastic process noise)를 무시하면서 반도체 웨이퍼들 및 다른 시편들 상에 인쇄된 패턴들을 자동으로 특성화하는 데이터 기반 접근법들(data driven approaches)을 제공한다. 그에 추가하여, 본 명세서에 설명된 실시예들은 광학, 스캐닝 전자 현미경(SEM) 등을 포함한 상이한 종류들의 모달리티들로부터 취득된 반도체 이미지들에 일반적으로 적용될 수 있는 데이터 기반, 학습 기반, 일반화된, 정량적 패턴 특성화 방법을 제공한다. 현재 및 차세대 노드들에 대한 반도체 프로세스 제어는 결함 기반 프로세스 제어의 통상 모드(usual mode)에 추가하여 패턴 충실도의 전례없는 모니터링을 요구한다. 임계 치수(CD) SEM들이 특정 유형들의 구조물들을 측정들을 할 수 있는 능력을 제공하지만, 이들은 몇 가지 과제들을 갖는다: (1) 이들은 상대적으로 느리다; (2) 이들은 각각의 사이트에 대해 주의깊은 셋업 및 어느 사이트들을 측정할지에 대한 지식을 요구한다; 그리고 (3) 이들의 결과들이 다운라인에서 추가로 해석될 필요가 있다. 게다가, SEM 이미지들에 대해 작업할 때 존재하는 다른 과제들은 표준 이미지 프로세싱 방법들을 벗어날(throw off) 수 있거나 이들을 다루는 데 휴리스틱(heuristics)을 요구할 수 있는 그 샷 노이즈(shot noise), 대전(charging), 스트리킹(streaking), 및 소프트 에지들이다.
본 명세서에 설명된 실시예들은 디자인을 기준으로서 이용하는 것 또는 다른 다이를 기준으로서 이용하는 것 중 어느 하나에 의해 SEM 이미지를 전반적으로 분석하고 2개의 주요 정보: (1) 이상치들(outliers)의 위치; 및 (2) 상대 편차(relative deviation)를 반환할 수 있는 딥 러닝 기반 접근법에, 적어도 부분적으로, 기초한다. 이 접근법은 최종 사용자에게 실질적으로 유용할 수 있는 OPC 에러들로 된 정량적 피드백을 또한 제공할 수 있다. 모델이 층들에 걸쳐 이송될(transported) 수 있어, 그에 의해 셋업 부담을 감소시킬 수 있는 것으로 예상된다(예컨대, 상이한 시편 또는 프로세스 층들에 대해 상이한 모델들이 생성될 필요가 없기 때문임). 실시예들은 프리-OPC 디자인 클립들(pre-OPC design clips)을 제공받을 때 포스트-OPC(post-OPC) SEM 컨투어들을 학습하기 위해 딥 러닝 기반 분류 모델을 또한 사용할 수 있다. 딥 러닝 모델은 SEM 이미지로부터 컨투어들을 추출하도록 또한 트레이닝될 수 있다. 이 2개의 모델은 유리하게도 다양한 응용분야들에 대한 빠르고 강건한 CD 측정들을 가능하게 해준다. 이 방법은 딥 러닝 기반 디자인 컨투어 렌더링, 딥 러닝 기반 분류, 및 딥 러닝 기반 단일 이미지 검출와 같은 다른 딥 러닝 응용분야들을 기반으로 하고 이들에 대해 사용될 수 있다.
본 명세서에 설명된 실시예들은 패턴 충실도를 특성화하기 위해 특정 위치들을 수신하는 것 또는 보다 일반적으로 정적 랜덤 액세스 메모리(SRAM) 구역 등과 같은 관심 구역에 대한 패턴 충실도를 특성화하기 위해 특정 위치들을 수신하는 것 중 어느 하나에 의존할 수 있는 방법을 제안한다. 본 명세서에 설명된 실시예들은 유리하게도 휴리스틱 및 파라미터 의존적 컨투어 생성 그리고 복잡한 패턴들 및 패턴 교차점들과 연관된 과제들을 극복한다. 본 명세서에 설명된 실시예들은 또한 유리하게도 정밀도(precision), 강건성, 및 사용 용이성(ease of use)에 결정적인(crucial) 디자인 렌더링 단계들 및 에지 추출 단계들 동안 관찰되는 전형적인 과제들을 해결한다.
그러한 시스템의 일 실시예가 도 1에 도시되어 있다. 이 시스템은 적어도 에너지 소스 및 검출기를 포함하는 이미징 서브시스템을 포함한다. 에너지 소스는 시편 쪽으로 지향되는 에너지를 생성하도록 구성된다. 검출기는 시편으로부터의 에너지를 검출하고 검출된 에너지에 응답하여 이미지들을 생성하도록 구성된다.
일 실시예에서, 시편 쪽으로 지향되는 에너지는 광을 포함하고, 시편으로부터 검출되는 에너지는 광을 포함한다. 예를 들어, 도 1에 도시된 시스템의 실시예에서, 이미징 서브시스템(10)은 광을 시편(14) 쪽으로 지향시키도록 구성된 조명 서브시스템을 포함한다. 조명 서브시스템은 하나 이상의 광 소스를 포함한다. 예를 들어, 도 1에 도시된 바와 같이, 조명 서브시스템은 광 소스(16)를 포함한다. 일 실시예에서, 조명 서브시스템은, 하나 이상의 경사각(oblique angles) 및/또는 하나 이상의 법선각(normal angles)을 포함할 수 있는, 하나 이상의 입사각(angles of incidence)으로 광을 시편 쪽으로 지향시키도록 구성된다. 예를 들어, 도 1에 도시된 바와 같이, 광 소스(16)로부터의 광은 광학 요소(18) 그리고 이어서 렌즈(20)를 통해 빔 스플리터(21) 쪽으로 지향되며, 빔 스플리터(21)는 광을 법선 입사각(normal angle of incidence)으로 시편(14) 쪽으로 지향시킨다. 입사각은, 예를 들어, 시편의 특성들 및 시편 상에서 검출될 결함들에 따라 변할 수 있는, 임의의 적합한 입사각을 포함할 수 있다.
조명 서브시스템은 상이한 때에 상이한 입사각들로 광을 시편 쪽으로 지향시키도록 구성될 수 있다. 예를 들어, 광이 도 1에 도시된 것과 상이한 입사각으로 시편 쪽으로 지향될 수 있도록, 이미징 서브시스템은 조명 서브시스템의 하나 이상의 요소의 하나 이상의 특성을 변경하도록 구성될 수 있다. 그러한 일 예에서, 광이 상이한 입사각으로 시편 쪽으로 지향되도록, 이미징 서브시스템은 광 소스(16), 광학 요소(18), 및 렌즈(20)를 이동시키도록 구성될 수 있다.
일부 경우들에서, 이미징 서브시스템은 동시에 하나 초과의 입사각으로 광을 시편 쪽으로 지향시키도록 구성될 수 있다. 예를 들어, 조명 서브시스템은 하나 초과의 조명 채널을 포함할 수 있고, 조명 채널들 중 하나는 도 1에 도시된 바와 같은 광 소스(16), 광학 요소(18), 및 렌즈(20)를 포함할 수 있으며, 조명 채널들 중 다른 것(도시되지 않음)은, 상이하게 또는 동일하게 구성될 수 있는, 유사한 요소들을 포함할 수 있거나, 또는 적어도 광 소스 및 어쩌면 본 명세서에 추가로 설명되는 것들과 같은 하나 이상의 다른 컴포넌트를 포함할 수 있다. 그러한 광이 다른 광과 동시에 시편 쪽으로 지향되는 경우, 상이한 입사각들로 시편을 조명하는 것으로부터 결과하는 광이 검출기(들)에서 서로 구별될 수 있도록, 상이한 입사각들로 시편 쪽으로 지향되는 광의 하나 이상의 특성(예컨대, 파장, 편광 등)이 상이할 수 있다.
다른 경우에, 조명 서브시스템은 단지 하나의 광 소스(예컨대,도 1에 도시된 소스(16))를 포함할 수 있고, 광 소스로부터의 광은 조명 서브시스템의 하나 이상의 광학 요소(도시되지 않음)에 의해 (예컨대, 파장, 편광 등에 기초하여) 상이한 광학 경로들로 분리될 수 있다. 상이한 광학 경로들 각각에서의 광은 이어서 시편 쪽으로 지향될 수 있다. 다수의 조명 채널들은 동시에 또는 상이한 때에(예컨대, 상이한 조명 채널들이 시편을 순차적으로 조명하는 데 사용될 때) 광을 시편 쪽으로 지향시키도록 구성될 수 있다. 다른 경우에, 동일한 조명 채널이 상이한 때에 상이한 특성들을 갖는 광을 시편 쪽으로 지향시키도록 구성될 수 있다. 예를 들어, 일부 경우들에서, 광학 요소(18)는 스펙트럼 필터로서 구성될 수 있고, 상이한 때에 상이한 파장들의 광이 시편 쪽으로 지향될 수 있도록, 스펙트럼 필터의 속성들(properties)이 다양한 상이한 방식들로(예컨대, 스펙트럼 필터를 교체(swapping out)하는 것에 의해) 변경될 수 있다. 조명 서브시스템은 상이한 또는 동일한 특성들을 갖는 광을 상이한 또는 동일한 입사각들로 순차적으로 또는 동시에 시편 쪽으로 지향시키기 위한 본 기술분야에 공지된 임의의 다른 적합한 구성을 가질 수 있다.
일 실시예에서, 광 소스(16)는 광대역 플라스마(broadband plasma, BBP) 광 소스를 포함할 수 있다. 이러한 방식으로, 광 소스에 의해 생성되어 시편 쪽으로 지향되는 광은 광대역 광을 포함할 수 있다. 그렇지만, 광 소스는 레이저와 같은 임의의 다른 적합한 광 소스를 포함할 수 있다. 레이저는 본 기술분야에 공지된 임의의 적합한 레이저를 포함할 수 있고 본 기술분야에 공지된 임의의 적합한 파장 또는 파장들로 광을 생성하도록 구성될 수 있다. 그에 추가하여, 레이저는 단색(monochromatic) 또는 거의 단색(nearly-monochromatic)인 광을 생성하도록 구성될 수 있다. 이러한 방식으로, 레이저는 협대역 레이저일 수 있다. 광 소스는 다수의 이산 파장들 또는 파장 대역들(wavebands)로 광을 생성하는 다색 광 소스(polychromatic light source)를 또한 포함할 수 있다.
광학 요소(18)로부터의 광은 렌즈(20)에 의해 빔 스플리터(21) 쪽으로 포커싱될 수 있다. 렌즈(20)가 단일 굴절 광학 요소로서 도 1에 도시되어 있지만, 실제로, 렌즈(20)가 다수의 굴절 및/또는 반사 광학 요소들을 포함할 수 있고 이들이 조합하여 광학 요소로부터의 광을 시편 쪽으로 포커싱시킨다는 것이 이해되어야 한다. 도 1에 도시되고 본 명세서에 설명된 조명 서브시스템은 임의의 다른 적합한 광학 요소들(도시되지 않음)을 포함할 수 있다. 그러한 광학 요소들의 예들은 편광 컴포넌트(들), 스펙트럼 필터(들), 공간 필터(들), 반사 광학 요소(들), 아포다이저(apodizer)(들), 빔 스플리터(들), 개구(aperture)(들), 및, 본 기술분야에 공지된 임의의 그러한 적합한 광학 요소들을 포함할 수 있는, 이와 유사한 것을 포함하지만, 이들로 제한되지 않는다. 그에 추가하여, 이 시스템은 이미징에 사용될 조명의 유형에 기초하여 조명 서브시스템의 요소들 중 하나 이상을 변경하도록 구성될 수 있다.
이미징 서브시스템은 광이 시편 위로 스캐닝되게 하도록 구성된 스캐닝 서브시스템(scanning subsystem)을 또한 포함할 수 있다. 예를 들어, 이미징 서브시스템은 이미징 동안 시편(14)가 배치되는 스테이지(22)를 포함할 수 있다. 스캐닝 서브시스템은 광이 시편 위로 스캐닝될 수 있도록 시편을 이동시키도록 구성될 수 있는 임의의 적합한 기계 및/또는 로봇 어셈블리(스테이지(22)를 포함함)를 포함할 수 있다. 그에 추가하여 또는 대안적으로, 이미징 서브시스템은 이미징 서브시스템의 하나 이상의 광학 요소가 시편 위로의 광의 일부 스캐닝을 수행하도록 구성될 수 있다. 광은 임의의 적합한 방식으로 시편 위로 스캐닝될 수 있다.
이미징 서브시스템은 하나 이상의 검출 채널을 추가로 포함한다. 하나 이상의 검출 채널 중 적어도 하나는 이미징 서브시스템에 의한 시편의 조명으로 인해 시편으로부터의 광을 검출하고 검출된 광에 응답하여 출력을 생성하도록 구성된 검출기를 포함한다. 예를 들어, 도 1에 도시된 이미징 서브시스템은 2개의 검출 채널을 포함하며, 하나는 수집기(collector)(24), 요소(26), 및 검출기(28)에 의해 형성되고, 다른 하나는 수집기(30), 요소(32), 및 검출기(34)에 의해 형성된다. 도 1에 도시된 바와 같이, 2개의 검출 채널은 상이한 수집 각도들에서 광을 수집 및 검출하도록 구성된다. 일부 경우들에서, 하나의 검출 채널은 경면 반사된 광(specularly reflected light)을 검출하도록 구성되고, 다른 검출 채널은 시편으로부터 경면 반사되지 않은(예컨대, 산란된, 회절된, 기타) 광을 검출하도록 구성된다. 그렇지만, 검출 채널들 중 2개 이상은 시편으로부터의 동일한 유형의 광(예컨대, 경면 반사된 광)을 검출하도록 구성될 수 있다. 도 1은 2개의 검출 채널을 포함하는 이미징 서브시스템의 실시예를 도시하지만, 이미징 서브시스템은 상이한 수의 검출 채널들(예컨대, 단지 하나의 검출 채널 또는 2개 이상의 검출 채널)을 포함할 수 있다. 수집기들 각각이 단일 굴절 광학 요소들로서 도 1에 도시되어 있지만, 수집기들 각각이 하나 이상의 굴절 광학 요소(들) 및/또는 하나 이상의 반사 광학 요소(들)를 포함할 수 있음이 이해되어야 한다.
하나 이상의 검출 채널은 본 기술분야에 공지된 임의의 적합한 검출기들을 포함할 수 있다. 예를 들어, 검출기들은 PMT들(photo-multiplier tubes), CCD들(charge coupled devices), 및 TDI(time delay integration) 카메라들을 포함할 수 있다. 검출기들은 본 기술분야에 공지된 임의의 다른 적합한 검출기들을 또한 포함할 수 있다. 검출기들은 비-이미징 검출기들 또는 이미징 검출기들을 또한 포함할 수 있다. 이러한 방식으로, 검출기들이 비-이미징 검출기들인 경우, 검출기들 각각은 강도와 같은 산란된 광의 특정한 특성들을 검출하도록 구성될 수 있지만, 그러한 특성들을 이미징 평면 내의 위치의 함수로서 검출하도록 구성되지 않을 수 있다. 그와 같이, 이미징 서브시스템의 검출 채널들 각각에 포함된 검출기들 각각에 의해 생성되는 출력은 신호들 또는 데이터일 수 있지만, 이미지 신호들 또는 이미지 데이터가 아닐 수 있다. 그러한 경우들에서, 이 시스템의 컴퓨터 서브시스템(36)과 같은 컴퓨터 서브시스템은 검출기들의 비-이미징 출력으로부터 시편의 이미지들을 생성하도록 구성될 수 있다. 그렇지만, 다른 경우들에서, 검출기들은 이미징 신호들 또는 이미지 데이터를 생성하도록 구성된 이미징 검출기들로서 구성될 수 있다. 따라서, 이 시스템은 본 명세서에 설명된 이미지들을 다수의 방식들로 생성하도록 구성될 수 있다.
도 1이 본 명세서에 설명된 시스템 실시예들에 포함될 수 있는 이미징 서브시스템의 구성을 전반적으로 예시하기 위해 본 명세서에 제공된다는 점에 유의한다. 분명하게도, 본 명세서에 설명된 이미징 서브시스템 구성은 상용 이미징 시스템을 디자인할 때 통상적으로 수행되는 바와 같이 이 시스템의 성능을 최적화하도록 변경될 수 있다. 그에 추가하여, 본 명세서에 설명된 시스템들은 KLA-Tencor로부터 상업적으로 이용가능한 SpectraShape 패밀리의 툴들 및 Archer 시리즈의 툴들과 같은 기존의 이미징 시스템을 사용하여(예컨대, 본 명세서에 설명된 기능을 기존의 이미징 시스템에 추가하는 것에 의해) 구현될 수 있다. 일부 그러한 시스템들의 경우, 본 명세서에 설명된 방법들은 이미징 시스템의 임의적 기능으로서(예컨대, 이 시스템의 다른 기능에 추가하여) 제공될 수 있다. 대안적으로, 본 명세서에 설명된 이미징 서브시스템은 완전히 새로운 시스템을 제공하도록 "맨 처음부터(from scratch)" 디자인될 수 있다.
컴퓨터 서브시스템이 시편의 스캐닝 동안 검출기들에 의해 생성된 출력을 수신할 수 있도록, 이 시스템의 컴퓨터 서브시스템(36)은 임의의 적합한 방식으로(예컨대, "유선" 및/또는 "무선" 전송 매체들을 포함할 수 있는, 하나 이상의 전송 매체를 통해) 이미징 서브시스템의 검출기들에 커플링될 수 있다. 컴퓨터 서브시스템(36)은 본 명세서에 설명된 바와 같은 검출기들 출력 및 본 명세서에 추가로 설명된 임의의 다른 기능들을 사용하여 다수의 기능들을 수행하도록 구성될 수 있다. 이 컴퓨터 서브시스템은 또한, 본 명세서에 설명된 바와 같이 구성될 수 있다.
이 컴퓨터 서브시스템(은 물론 본 명세서에 설명된 다른 컴퓨터 서브시스템들)은 본 명세서에서 컴퓨터 시스템(들)이라고도 지칭될 수 있다. 본 명세서에 설명된 컴퓨터 서브시스템(들) 또는 시스템(들) 각각이, 개인 컴퓨터 시스템, 이미지 컴퓨터, 메인프레임 컴퓨터 시스템, 워크스테이션, 네트워크 어플라이언스(network appliance), 인터넷 어플라이언스(internet appliance), 또는 다른 디바이스를 포함한, 다양한 형태들을 취할 수 있다. 일반적으로, 용어 "컴퓨터 시스템"은 메모리 매체로부터의 명령어들을 실행하는, 하나 이상의 프로세서를 가지는 임의의 디바이스를 포괄하도록 광의적으로 정의될 수 있다. 컴퓨터 서브시스템(들) 또는 시스템(들)은, 병렬 프로세서와 같은, 본 기술분야에 공지된 임의의 적합한 프로세서를 또한 포함할 수 있다. 그에 추가하여, 컴퓨터 서브시스템(들) 또는 시스템(들)은 고속 프로세싱 및 소프트웨어를 갖는 컴퓨터 플랫폼을, 독립형(standalone) 툴 또는 네트워크화된(networked) 툴 중 어느 하나로서 포함할 수 있다.
이 시스템이 하나 초과의 컴퓨터 서브시스템을 포함하는 경우, 이미지들, 데이터, 정보, 명령어들 등이 본 명세서에 추가로 설명된 바와 같이 컴퓨터 서브시스템들 사이에서 송신될 수 있도록 상이한 컴퓨터 서브시스템들이 서로 커플링될 수 있다. 예를 들어, 컴퓨터 서브시스템(36)은 본 기술분야에 공지된 임의의 적합한 유선 및/또는 무선 전송 매체들을 포함할 수 있는, 임의의 적합한 전송 매체들에 의해 (도 1에서 파선으로 도시된 바와 같이) 컴퓨터 서브시스템(들)(102)에 커플링될 수 있다. 그러한 컴퓨터 서브시스템들 중 2개 이상의 서브시스템은 또한 공유된 컴퓨터 판독가능 저장 매체(도시되지 않음)에 의해 효과적으로 커플링될 수 있다.
이미징 서브시스템이 광학 또는 광 기반 이미징 서브시스템인 것으로 위에서 설명되었지만, 이미징 서브시스템은 전자 빔 기반 이미징 서브시스템일 수 있다. 예를 들어, 일 실시예에서, 시편 쪽으로 지향되는 에너지는 전자들을 포함하고, 시편으로부터 검출되는 에너지는 전자들을 포함한다. 이러한 방식으로, 에너지 소스는 전자 빔 소스일 수 있다. 도 2에 도시된 하나의 그러한 실시예에서, 이미징 서브시스템은, 컴퓨터 서브시스템(들)(124)에 커플링되는, 전자 칼럼(electron column)(122)을 포함한다.
도 2에 또한 도시된 바와 같이, 전자 칼럼은 하나 이상의 요소(130)에 의해 시편(128) 쪽으로 포커싱되는 전자들을 생성하도록 구성된 전자 빔 소스(126)를 포함한다. 전자 빔 소스는, 예를 들어, 캐소드 소스 또는 이미터 팁(emitter tip)을 포함할 수 있고, 하나 이상의 요소(130)는, 예를 들어, 건 렌즈(gun lens), 애노드, 빔 제한 애퍼처(beam limiting aperture), 게이트 밸브(gate valve), 빔 전류 선택 애퍼처(beam current selection aperture), 대물 렌즈, 및 스캐닝 서브시스템을 포함할 수 있으며, 이들 모두는 본 기술분야에 공지된 임의의 그러한 적합한 요소들을 포함할 수 있다.
시편으로부터 되돌아오는 전자들(예컨대, 이차 전자들)은 하나 이상의 요소(132)에 의해 검출기(134) 쪽으로 포커싱될 수 있다. 하나 이상의 요소(132)는, 예를 들어, 스캐닝 서브시스템을 포함할 수 있으며, 이 스캐닝 서브시스템은 요소(들)(130)에 포함된 동일한 스캐닝 서브시스템일 수 있다.
전자 칼럼은 본 기술분야에 공지된 임의의 다른 적합한 요소들을 포함할 수 있다. 그에 추가하여, 전자 칼럼은 또한, 2014년 4월 4일자로 Jiang 등에게 등록된 미국 특허 제8,664,594호, 2014년 4월 8일자로 Kojima 등에게 등록된 미국 특허 제8,692,204호, 2014년 4월 15일자로 Gubbens 등에게 등록된 미국 특허 제8,698,093호, 및 2014년 5월 6일자로 MacDonald 등에게 등록된 미국 특허 제8,716,662호에 설명된 바와 같이 구성될 수 있으며, 이 미국 특허들은 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함된다.
전자 칼럼이 전자들이 경사 입사각(oblique angle of incidence)으로 시편 쪽으로 지향되고 다른 경사각으로 시편으로부터 산란되도록 구성되는 것으로 도 2에 도시되어 있지만, 전자 빔이 임의의 적합한 각도들로 시편 쪽으로 지향되고 시편으로부터 산란될 수 있음이 이해되어야 한다. 그에 추가하여, 전자 빔 기반 이미징 서브시스템은 (예컨대, 상이한 조명 각도들, 수집 각도들 등을 이용하여) 시편의 이미지들을 생성하기 위해 다수의 모드들을 사용하도록 구성될 수 있다. 전자 빔 기반 이미징 서브시스템의 다수의 모드들은 이미징 서브시스템의 임의의 이미지 생성 파라미터들이 상이할 수 있다.
컴퓨터 서브시스템(들)(124)은 위에서 설명된 바와 같이 검출기(134)에 커플링될 수 있다. 검출기는 시편의 표면으로부터 되돌아온 전자들을 검출하여, 그에 의해 시편의 전자 빔 이미지들을 형성할 수 있다. 전자 빔 이미지들은 임의의 적합한 전자 빔 이미지들을 포함할 수 있다. 컴퓨터 서브시스템(들)(124)은 검출기의 출력 및/또는 전자 빔 이미지들을 사용하여 본 명세서에 설명된 기능들 중 임의의 것을 수행하도록 구성될 수 있다. 컴퓨터 서브시스템(들)(124)은 본 명세서에 설명된 임의의 추가의 단계(들)를 수행하도록 구성될 수 있다. 도 2에 도시된 이미징 서브시스템을 포함하는 시스템은 또한, 본 명세서에 설명된 바와 같이 구성될 수 있다.
도 2가 본 명세서에 설명된 실시예들에 포함될 수 있는 전자 빔 기반 이미징 서브시스템의 구성을 전반적으로 예시하기 위해 본 명세서에 제공된다는 점에 유의한다. 위에서 설명된 광학 이미징 서브시스템에서와 같이, 본 명세서에 설명된 전자 빔 기반 이미징 서브시스템 구성은 상용 이미징 시스템을 디자인할 때 통상적으로 수행되는 바와 같이 이미징 서브시스템의 성능을 최적화하도록 변경될 수 있다. 그에 추가하여, 본 명세서에 설명된 시스템들은 KLA-Tencor로부터 상업적으로 이용가능한 eDR-xxxx 시리즈의 툴들과 같은 기존의 계측 또는 고분해능 결함 검토 시스템을 사용하여(예컨대, 본 명세서에 설명된 기능을 기존의 시스템에 추가하는 것에 의해) 구현될 수 있다. 일부 그러한 시스템들의 경우, 본 명세서에 설명된 방법들은 이 시스템의 임의적 기능으로서(예컨대, 이 시스템의 다른 기능에 추가하여) 제공될 수 있다. 대안적으로, 본 명세서에 설명된 이 시스템은 완전히 새로운 시스템을 제공하도록 "맨 처음부터" 디자인될 수 있다.
이미징 서브시스템이 광 기반 또는 전자 빔 기반 이미징 서브시스템인 것으로 위에서 설명되었지만, 이미징 서브시스템은 이온 빔 기반 이미징 서브시스템일 수 있다. 그러한 이미징 서브시스템은 전자 빔 소스가 본 기술분야에 공지된 임의의 적합한 이온 빔 소스로 대체될 수 있다는 것을 제외하고는 도 2에 도시된 바와 같이 구성될 수 있다. 그에 추가하여, 이미징 서브시스템은 상업적으로 이용가능한 FIB(focused ion beam) 시스템들, HIM(helium ion microscopy) 시스템들, 및 SIMS(secondary ion mass spectroscopy) 시스템들에 포함된 것들과 같은 임의의 다른 적합한 이온 빔 기반 이미징 서브시스템일 수 있다.
앞서 언급된 바와 같이, 이미징 서브시스템은 시편의 물리적 버전(physical version)에 걸쳐 에너지(예컨대, 광 또는 전자들)를 스캐닝하여, 그에 의해 시편의 물리적 버전에 대한 실제 이미지들(actual images)을 생성하도록 구성된다. 이러한 방식으로, 이미징 서브시스템은 "가상"툴("virtual" tool)이 아니라, "실제" 툴("actual" tool)로서 구성될 수 있다. 예를 들어, 도 1에 도시된 저장 매체(도시되지 않음) 및 컴퓨터 서브시스템(들)(102)은 "가상" 툴로서 구성될 수 있다. 특히, 저장 매체 및 컴퓨터 서브시스템(들)은 이미징 서브시스템(10)의 일부가 아니며 시편의 물리적 버전을 핸들링하기 위한 어떠한 능력도 갖지 않는다. 환언하면, 가상 툴들로서 구성된 툴들에서, 그의 하나 이상의 "검출기"의 출력은 실제 툴의 하나 이상의 검출기에 의해 이전에 생성되고 가상 툴에 저장된 출력일 수 있고, "스캐닝" 동안, 가상 툴은 마치 시편이 스캐닝되고 있는 것처럼 저장된 출력을 재생(replay)할 수 있다. 이러한 방식으로, 가상 툴을 이용하여 시편을 스캐닝하는 것은 물리적 시편이 실제 툴을 이용하여 스캐닝되고 있는 것과 동일한 것처럼 보일 수 있지만, 실제로는, "스캐닝"이 시편이 스캐닝될 수 있는 것과 동일한 방식으로 시편에 대한 출력을 단순히 재생하는 것을 수반한다. "가상" 검사 툴들로서 구성된 시스템들 및 방법들은 2012년 2월 28일자로 Bhaskarr 등에게 등록된 공동 소유의 미국 특허 제8,126,255호 및 2015년 12월 29일자로 Duffy 등에게 등록된 공동 소유의 미국 특허 제9,222,895호에 설명되어 있으며, 이들 둘 다는 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함된다. 본 명세서에 설명된 실시예들은 또한, 이 특허들에 설명된 바와 같이 구성될 수 있다. 예를 들어, 본 명세서에 설명된 하나 이상의 컴퓨터 서브시스템은 또한, 이 특허들에 설명된 바와 같이 구성될 수 있다. 그에 추가하여, 하나 이상의 가상 시스템을 CCS(central compute and storage) 시스템으로서 구성하는 것은 위에 참조된 Duffy의 특허에 설명된 바와 같이 수행될 수 있다. 본 명세서에 설명된 영구 저장 메커니즘들은 CCS 아키텍처와 같은 분산 컴퓨팅 및 저장(distributed computing and storage)을 가질 수 있지만, 본 명세서에 설명된 실시예들이 그 아키텍처로 제한되지 않는다.
앞서 추가로 언급된 바와 같이, 이미징 서브시스템은 다수의 모드들을 이용하여 시편의 이미지들을 생성하도록 구성될 수 있다. 일반적으로, "모드"는 시편의 이미지들을 생성하는 데 사용되는 이미징 서브시스템의 파라미터들의 값들 또는 시편의 이미지들을 생성하는 데 사용되는 출력에 의해 정의될 수 있다. 따라서, 상이한 모드들은 이미징 서브시스템의 이미징 파라미터들 중 적어도 하나에 대한 값들이 상이할 수 있다. 예를 들어, 광학 기반 이미징 서브시스템의 일 실시예에서, 다수의 모드들 중 적어도 하나의 모드는 다수의 모드들 중 적어도 하나의 다른 모드에 대해 사용되는 조명 광(light for illumination)의 적어도 하나의 파장과 상이한 적어도 하나의 파장의 조명 광을 사용한다. 모드들은 상이한 모드들에 대해 (예컨대, 상이한 광 소스들, 상이한 스펙트럼 필터들 등을 사용함으로써) 본 명세서에 추가로 설명된 바와 같이 조명 파장이 상이할 수 있다. 다른 실시예에서, 다수의 모드들 중 적어도 하나의 모드는 다수의 모드들 중 적어도 하나의 다른 모드에 사용되는 이미징 서브시스템의 조명 채널과 상이한 이미징 서브시스템의 조명 채널을 사용한다. 예를 들어, 앞서 언급된 바와 같이, 이미징 서브시스템은 하나 초과의 조명 채널을 포함할 수 있다. 그와 같이, 상이한 모드들에 대해 상이한 조명 채널들이 사용될 수 있다.
일 실시예에서, 이 시스템은 검사 툴로서 구성된다. 예를 들어, 본 명세서에 설명된 광학 및 전자 빔 이미징 서브시스템들은 검사 툴들로서 구성될 수 있다. 이러한 방식으로, 본 명세서에 설명된 딥 러닝 모델에 대한 이미지 입력들은 일부 실시예들에서 검사 툴에 의해 생성된다. 다른 실시예에서, 이 시스템은 계측 툴(metrology tool)로서 구성된다. 예를 들어, 본 명세서에 설명된 광학 및 전자 빔 이미징 서브시스템들은 계측 툴들로서 구성될 수 있다. 추가의 실시예에서, 이 시스템은 결함 검토 툴(defect review tool)로서 구성된다. 예를 들어, 본 명세서에 설명된 광학 및 전자 빔 이미징 서브시스템들은 결함 검토 응용분야들을 위해 구성될 수 있다. 특히, 본 명세서에 설명되고 도 1 및 도 2에 도시된 이미징 서브시스템들의 실시예들은 이들이 사용될 응용분야에 따라 상이한 이미징 능력을 제공하기 위해 하나 이상의 파라미터가 수정될 수 있다. 하나의 그러한 예에서, 도 1에 도시된 이미징 서브시스템은 검사보다는 계측에 사용되는 경우 보다 고분해능을 갖도록 구성될 수 있다. 환언하면, 도 1 및 도 2에 도시된 이미징 서브시스템의 실시예들은 상이한 응용분야들에 더 적합하거나 또는 덜 적합한 상이한 이미징 능력들을 갖는 이미징 서브시스템들을 생성(produce)하기 위해 본 기술분야의 통상의 기술자에게 명백할 다수의 방식들로 테일러링될 수 있는 이미징 서브시스템에 대한 일부 일반적이고 다양한 구성들을 설명한다.
하나 이상의 컴퓨터 서브시스템은 본 명세서에 설명된 이미징 서브시스템들에 의해 생성되는 시편 상에 형성된 패턴들의 이미지들을 취득하도록 구성된다. 이미지들을 취득하는 것은 본 명세서에 설명된 이미징 서브시스템들 중 하나를 사용하여(예컨대, 광 또는 전자 빔을 시편 쪽으로 지향시키고 시편으로부터, 제각기, 광 또는 전자 빔을 검출하는 것에 의해) 수행될 수 있다. 이러한 방식으로, 이미지들을 취득하는 것은 물리적 시편 자체 및 어떤 종류의 이미징 하드웨어를 사용하여 수행될 수 있다. 그렇지만, 이미지들을 취득하는 것이 이미징 하드웨어를 사용하여 시편을 이미징하는 것을 반드시 포함하는 것은 아니다. 예를 들어, 다른 시스템 및/또는 방법은 이미지들을 생성할 수 있고, 생성된 이미지들을 본 명세서에 설명된 바와 같은 가상 검사 시스템 또는 본 명세서에 설명된 다른 저장 매체와 같은 하나 이상의 저장 매체에 저장할 수 있다. 따라서, 이미지들을 취득하는 것은 이미지들이 저장된 저장 매체들로부터 이미지들을 취득하는 것을 포함할 수 있다.
시편 상에 형성된 패턴들은 본 명세서에 설명된 임의의 시편(예컨대, 레티클 및 웨이퍼) 상에 형성될 수 있는 임의의 패턴들을 포함할 수 있다. 예를 들어, 시편 상에 형성된 패턴들의 이미지들의 일부 예들이 본 명세서에 설명된 도면들에 도시되어 있지만, 그 예들은 임의의 실제 패턴들의 제한적인 예들 또는 특정의 예들인 것으로 의도되지 않는다. 시편 상에 형성되는 패턴들은 라인들, 공간들, 규칙적인 및 불규칙적인 폴리곤들, 콘택트들 등과 같은 상이한 유형들의 패턴들을 포함할 수 있다. 그에 추가하여, 시편 상에 형성되는 패턴들은 상이한 층 유형들(예컨대, 금속 층, 인터커넥트 층 등) 상에 형성될 수 있다. 게다가, 시편 상에 형성되는 패턴들은 리소그래피 프로세스들, 에칭 프로세스들, 화학 기계적 폴리싱 프로세스들 등과 같은 임의의 적합한 제조 프로세스들에서 형성될 수 있다. 환언하면, 본 명세서에 설명된 실시예들은 본 명세서에 설명된 단계들이 수행될 수 있는 임의의 특정 패턴들로 제한되지 않는다.
이 시스템은 하나 이상의 컴퓨터 서브시스템에 의해 실행되는 하나 이상의 컴포넌트를 또한 포함한다. 컴퓨터 서브시스템(들), 예컨대, 컴퓨터 서브시스템(36) 및/또는 컴퓨터 서브시스템(들)(102)에 의해 실행되는, 컴포넌트(들), 예컨대, 도 1에 도시된 컴포넌트(들)(100)는 제1 학습 기반 모델(104) 및 제2 학습 기반 모델(106)을 포함한다. 제1 학습 기반 모델은 하나 이상의 컴퓨터 서브시스템에 의해 제1 학습 기반 모델에 입력된 시편에 대한 디자인에 기초하여 패턴들에 대한 시뮬레이션된 컨투어들을 생성하도록 구성되고, 시뮬레이션된 컨투어들은 이미징 서브시스템에 의해 생성된 시편의 이미지들 내의 패턴들의 무결함 버전의 예상된 컨투어들이다. 제2 학습 기반 모델은 하나 이상의 컴퓨터 서브시스템에 의해 제2 학습 기반 모델에 입력된 시편 상에 형성된 패턴들의 취득된 이미지들 중 적어도 하나의 이미지 내의 패턴들에 대한 실제 컨투어들을 생성하도록 구성된다. 제1 및 제2 학습 모델들(104 및 106)은 본 명세서에 추가로 설명된 구성들 중 하나를 가질 수 있고, 본 명세서에 설명된 바와 같이, 제각기, 시뮬레이션된 컨투어들 및 실제 컨투어들을 생성하도록 구성될 수 있다.
패턴들이 공칭(nominal) 또는 무결함 방식으로 시편 상에 형성된 경우 본 명세서에 설명된 이미징 서브시스템에 의해 생성된 시편의 이미지(들)에서 컨투어들이 어떻게 나타날 것으로 예상되는지에 대해 컨투어들이 시뮬레이션된다는 점에서, 시뮬레이션된 컨투어들은 "예상된 컨투어들"이다. 환언하면, 제1 학습 기반 모델에 입력되는 디자인이 시편에 어떠한 결함들도 형성함이 없이 시편 상에 형성되고 이어서 이미징 서브시스템에 의해 이미징된 경우, 이미징 서브시스템에 의해 생성된 이미지들 내의 패턴들은 "예상된 컨투어들"을 가질 것이다. 따라서, "시뮬레이션된 컨투어들"은 디자인이 무결함 방식으로 형성되는 시편의 이미지들 내에 컨투어들이 어떻게 나타날 것인지를 근사화, 시뮬레이션, 또는 추정한다. 그와 같이, 시뮬레이션된 컨투어들을 생성하는 것은, 그것이 휴리스틱 또는 결정론적 방식으로 행해지고 있다면, 시편 상에 패터닝된 피처들의 형성은 물론 이미징 서브시스템에 의한 시편의 이미징 둘 다를 고려할 필요가 있다.
디자인 내의 패터닝된 피처들에 대한 시뮬레이션된 컨투어들이 디자인이 형성되는 시편의 이미지에서 나타날 때 디자인 내의 패터닝된 피처들에 대한 시뮬레이션된 컨투어들을 생성하는 것은 다수의 이유들로 간단하고 쉬운 작업이 아니다. 예를 들어, 시편 상에 구조물들을 형성하고 이어서 시편을 이미징하는 데 사용되는 툴들, 재료들, 및 프로세스들의 고유한 한계들로 인해, 구조물들이 디자인에 포함될 때 구조물들이 시편의 이미지들에 반드시 나타나는 것은 아니다. 하나의 그러한 예에서, 패턴들이 예리한 90도 코너들을 갖는 대신에, 패턴들이 적어도 약간 둥근 코너들을 가질 것이다. 그에 추가하여, 구조물들 중 임의의 것이 구조물들에 걸쳐 다양한 지점들에서의 폭과 같은 치수들의 변동들을 가질 수 있다. 예를 들어, 패턴들은 패턴들에 걸쳐 다수의 지점들에서 패턴들의 디자인 특성들과 비교하여 얼마간의 선 폭 변동들을 가질 수 있다. 종종, 패터닝된 피처들을 위한 디자인에 대한 제조 프로세스(들) 및 이미징 프로세스(들)의 영향은, 패턴들에 대해 생성된 이미지들에 영향을 미칠 수 있는 다른 다양한 가능한 노이즈 소스들에 추가하여, 관여된 많은 변수들 및 그 변수들이 시편마다(from specimen-to-specimen) 그리고/또는 시간에 따라 드리프트할 수 있는 방식들로 인해 모델링하기가 어렵다. 그렇지만, 본 명세서에 설명된 실시예들은 시뮬레이션된 컨투어들의 훨씬 더 정확한 추정들을 생성하는 데 사용될 수 있는 시뮬레이션된 컨투어들을 생성하기 위한 훨씬 더 간단하고 및/또는 더 강건한 방식들을 제공한다.
"실제 컨투어들"은, 그 용어가 본 명세서에서 사용되는 바와 같이, 패터닝된 피처들의 컨투어들이 이미징 서브시스템에 의해 생성된 시편의 이미지들에 나타날 때 패터닝된 피처들의 컨투어들로서 정의되는 것으로 의도된다. 이러한 방식으로, "예상된 컨투어들"과 달리, "실제 컨투어들"은, 시편의 물리적 버전 상에 실제로 형성되는 패터닝된 피처들이 시편의 물리적 버전을 사용하여 생성된 실제 이미지들에 나타날 때, 그 패터닝된 피처들에 대해 생성된 컨투어들이다. 따라서, "실제 컨투어들"은 "실제 컨투어들"이 시편의 물리적 버전의 실제 이미지들로부터 추출된다는 점에서 본 명세서에서 "추출된 컨투어들(extracted contours)"이라고도 지칭될 수 있다.
일 실시예에서, 제1 및 제2 학습 기반 모델들은 딥 러닝 기반 모델들이다. 이러한 방식으로, 본 명세서에 설명된 실시예들은 반도체 검사, 계측, 및 SEM 및 다른 이미지들로부터의 딥 러닝 기반 디자인 컨투어 렌더링 및 딥 러닝 기반 컨투어 추출을 포함한 다른 툴들을 위한 새로운 특징들을 제공한다. 일반적으로 말하면, "딥 러닝"(구조화된 딥 러닝(deep structured learning), 계층적 학습(hierarchical learning) 또는 딥 머신 러닝(deep machine learning)이라고도 함)은 데이터에서의 하이 레벨 추상화들을 모델링하려고 시도하는 알고리즘들의 세트에 기초하는 머신 러닝의 한 분야이다. 간단한 경우에, 2개의 뉴런 세트(sets of neurons): 입력 신호를 수신하는 뉴런들 및 출력 신호를 송신하는 뉴런들이 있을 수 있다. 입력 레이어(input layer)이 입력을 수신할 때, 입력 레이어는 수정된 버전의 입력을 다음 레이어로 전달한다. 딥 네트워크(deep network)에서는, 입력과 출력 사이에 많은 레이어들이 있으며(레이어들이 뉴런들로 이루어져 있지는 않지만 레이어를 그렇게 생각하는 것이 도움이 될 수 있음), 이는 알고리즘이 다수의 선형 및 비-선형 변환들로 구성된 다수의 프로세싱 레이어들을 사용할 수 있게 해준다.
딥 러닝은 데이터의 학습 표현들에 기초한 보다 넓은 패밀리의 머신 러닝 방법들의 일부이다. 관찰(예컨대, 이미지)이 픽셀당 강도 값들의 벡터와 같은 많은 방식들로, 또는 에지들, 특정의 형상의 영역들 등의 세트와 같은 보다 추상적인 방식으로 표현될 수 있다. 학습 태스크(learning task)(예컨대, 얼굴 인식 또는 얼굴 표정 인식)을 단순화할 때 일부 표현들이 다른 표현들보다 낫다. 딥 러닝의 장래성들(promises) 중 하나는 수작업 제작된 특징들을 비지도(unsupervised) 또는 준지도(semi-supervised) 특징 학습 및 계층적 특징 추출을 위한 효율적인 알고리즘들 대체하는 것이다.
이 분야에서의 연구는 보다 나은 표현들을 만들고 대규모의 라벨링되지 않은(unlabeled) 데이터로부터 이러한 표현들을 학습하기 위한 모델들을 생성하려고 시도한다. 표현들 중 일부는 신경 과학(neuroscience)의 진보들에 의해 영감을 얻었으며, 다양한 자극들과 뇌에서의 연관된 신경 반응들 사이의 관계를 정의하려고 시도하는 신경 코딩(neural coding)과 같은, 신경 시스템에서의 정보 프로세싱 및 통신 패턴들의 해석에 느슨하게(loosely) 기초하고 있다.
다른 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 머신 러닝 모델들이다. 머신 러닝은 명시적으로 프로그래밍됨이 없이 학습할 수 있는 능력을 컴퓨터들에 제공하는 한 유형의 인공 지능(AI)으로서 일반적으로 정의될 수 있다. 머신 러닝은 새로운 데이터에 노출될 때 성장하고 변화하도록 스스로를 가르칠 수 있는 컴퓨터 프로그램들의 개발에 중점을 두고 있다. 환언하면, 머신 러닝은 "명시적으로 프로그래밍됨이 없이 학습할 수 있는 능력을 컴퓨터들에 제공하는" 컴퓨터 과학의 하위 분야(subfield)로서 정의될 수 있다. 머신 러닝은 데이터로부터 학습하여 데이터에 대한 예측을 할 수 있는 알고리즘들의 연구와 구성을 탐구한다 - 그러한 알고리즘들은, 샘플 입력들로부터 모델을 구축함으로써, 데이터 기반 예측들 또는 결정들을 하는 것에 의해 엄격하게 정적인 프로그램 명령어들을 따르는 것을 극복한다.
본 명세서에 설명된 머신 러닝은, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, ["Introduction to Statistical Machine Learning," by Sugiyama, Morgan Kaufmann, 2016, 534 pages; "Discriminative, Generative, and Imitative Learning," Jebara, MIT Thesis, 2002, 212 pages; 및 "Principles of Data Mining (Adaptive Computation and Machine Learning)," Hand et al., MIT Press, 2001, 578 pages]에 설명된 바와 같이 추가로 수행될 수 있다. 본 명세서에 설명된 실시예들은 또한, 이 참고문헌들에 설명된 바와 같이 구성될 수 있다.
일부 실시예들에서, 제1 및/또는 제2 학습 기반 모델들은 생성 모델들(generative models)로서 구성된다. "생성" 모델은 본질적으로 확률론적(probabilistic)인 모델로서 일반적으로 정의될 수 있다. 환언하면, "생성" 모델은 전방향 시뮬레이션(forward simulation) 또는 규칙 기반(rule-based) 접근법들을 수행하는 모델이 아니다. 그 대신에, 본 명세서에서 추가로 설명되는 바와 같이, 생성 모델은 적합한 트레이닝 데이터 세트(training set of data)에 기초하여 (그의 파라미터들이 학습될 수 있다는 점에서) 학습될 수 있다. 일 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 딥 생성 모델들(deep generative models)로서 구성된다. 예를 들어, 모델들이, 다수의 알고리즘들 또는 변환들을 수행하는, 다수의 레이어들을 포함할 수 있다는 점에서 모델들은 딥 러닝 아키텍처(deep learning architecture)를 갖도록 구성될 수 있다.
다른 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 신경 네트워크들로서 구성된다. 추가의 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 딥 신경 네트워크들로서 구성되며, 각각은 자신을 트레이닝시키기 위해 피드받은 데이터에 따라 세계를 모델링하는 가중치들의 세트를 갖는다. 신경 네트워크들은 생물학적 뇌가 축삭들(axons)에 의해 연결된 생물학적 뉴런들의 상대적으로 큰 클러스터들을 이용하여 문제들을 해결하는 방식을 느슨하게 모델링하는 신경 유닛들(neural units)의 상대적으로 큰 컬렉션에 기초하는 계산 접근법으로서 일반적으로 정의될 수 있다. 각각의 신경 유닛은 다른 많은 신경 유닛들과 연결되며, 링크들(links)은 연결된 신경 유닛들의 활성화 상태에 대한 영향을 강화(enforcing) 또는 억제(inhibitory)할 수 있다. 이러한 시스템들은 명시적으로 프로그래밍됨이 없이 자가 학습하고(self-learning) 트레이닝되며, 전통적인 컴퓨터 프로그램에서 솔루션 또는 특징 검출(feature detection)이 표현하기 어려운 분야들에서 우수하다.
신경 네트워크들은 전형적으로 다수의 레이어들로 이루어져 있고, 신호 경로는 전방으로부터 후방으로 통과(traverse)한다. 신경 네트워크의 목표는 인간의 뇌와 동일한 방식으로 문제들을 해결하는 것이지만, 몇몇 신경 네트워크들은 훨씬 더 추상적이다. 최신의 신경 네트워크 프로젝트들은 전형적으로 수천에서 수백만개의 신경 단위 및 수백만개의 연결로 작동한다. 신경 네트워크는 본 기술분야에 공지된 임의의 적합한 아키텍처 및/또는 구성을 가질 수 있다.
일 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 AlexNet들로서 구성된다. 예를 들어, AlexNet는 이미지들을 분류하도록, 조합하여, 구성되고 트레이닝되는, 다수의 컨볼루션 레이어들(convolutional layers)(예컨대, 5) 및 그에 뒤이은 다수의 완전 연결 레이어들(fully connected layers)(예컨대, 3)을 포함한다. AlexNet들로서 구성된 신경 네트워크들의 예들은, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, ["ImageNet Classification with Deep Convolutional Neural Networks" by Krizhevsky et al., NIPS 2012]에 설명되어 있다. 본 명세서에 설명된 모델들은 또한, 이 참고문헌에 설명된 바와 같이 구성될 수 있다.
다른 이러한 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 GoogleNet들로서 구성된다. 예를 들어, GoogleNet는 이미지들을 분류하도록 구성되고 트레이닝되는 것으로 본 명세서에서 추가로 설명되는 것들과 같은 컨볼루션(convolutional), 풀링(pooling), 및 완전 연결 레이어들과 같은 레이어들을 포함할 수 있다. GoogleNet 아키텍처가 (특히 본 명세서에 설명된 일부 다른 신경 네트워크들과 비교하여) 상대적으로 많은 수의 레이어들을 포함할 수 있지만, 레이어들 중 일부는 병렬로 동작하고 있을 수 있으며, 서로 병렬로 기능하는 레이어들의 그룹들은 일반적으로 인셉션 모듈들(inception modules)이라고 지칭된다. 레이어들 중 다른 것들은 순차적으로 동작할 수 있다. 그러므로, GoogleNet들은 레이어들 전부가 순차적인 구조로 배열되는 것은 아니라는 점에서 본 명세서에 설명된 다른 신경 네트워크들과 상이하다. GoogleNet들로서 구성된 신경 네트워크들의 예들은, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, ["Going Deeper with Convolutions," by Szegedy et al., CVPR 2015]에 설명되어 있다. 본 명세서에 설명된 모델들은 또한, 이 참고문헌에 설명된 바와 같이 구성될 수 있다.
추가의 그러한 실시예에서, 제2 학습 기반 모델은 VGG 네트워크 아키텍처를 갖는다. 예를 들어, VGG 네트워크들은 아키텍처의 다른 파라미터들을 고정시키면서 컨볼루션 레이어들의 개수를 증가시키는 것에 의해 생성되었다. 깊이를 증가시키기 위해 컨볼루션 레이어들을 추가하는 것은 레이어들 전부에서 상당히 작은 컨볼루션 필터들을 사용함으로써 가능하게 된다. 본 명세서에 설명된 일부 다른 신경 네트워크들과 같이, 이미지들을 분류하기 위해 VGG 네트워크들이 생성되어 트레이닝되었다. VGG 네트워크들은 컨볼루션 레이어들 및 그에 뒤이은 완전 연결 레이어들을 또한 포함한다. VGG로서 구성된 신경 네트워크들의 예들은, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, ["Very Deep Convolutional Networks for Large-Scale Image Recognition," by Simonyan et al., ICLR 2015]에 설명되어 있다. 본 명세서에 설명된 모델들은 또한, 이 참고문헌에 설명된 바와 같이 구성될 수 있다.
다른 실시예에서, 제2 학습 기반 모델은 HED 모델(holistically-nested edge detection model)로서 구성된다. 에지 추출은 CD 측정들의 정밀도 및 강건성을 결정하는 필수적인 단계이다. 이 단계는 강건성 및 노이즈 핸들링을 위해 트위킹될(tweaked) 수 있는 파라미터들의 셋업 이후에 수행될 수 있다. 현재 사용되는 접근법들은 또한 복잡한 교차하는 패턴들을 핸들링하는 데 어려움을 겪는다. 본 명세서에 설명된 실시예들에서, HED(holistically-nested edge detection)라고 명명된 딥 러닝 기반 접근법은 시편 이미지에 의해 제공되는 컨투어들을 예측하는 데 사용될 수 있다. 이러한 딥 러닝 접근법은 새로운 레이어들(layers)로 확장가능하며, 사용자는 새로운 레이어 상에서 무엇이 컨투어인지를 모델에 "교수(teach)"하기 위해 몇 가지 예시적인 이미지들만을 필요로 한다.
이러한 방식으로, 딥 러닝 기반 SEM 이미지 컨투어 생성은 SEM 이미지들로부터 컨투어들을 추출하기 위해 HED(holistically-nested edge detection) 알고리즘(들)을 사용하여 수행될 수 있다. 그러한 알고리즘(들)을 사용하는 것은 현재 사용되는 컨투어 알고리즘들에서의 과제들을 극복할 것으로 예상된다. 그러한 알고리즘(들)에서, 사이드-출력 레이어들(side-output layers)이 컨볼루션 레이어들 이후에 삽입된다. 각각의 사이드-출력 레이어에 딥 지도(deep supervision)가 적용되어, 요망되는 특성들을 이용하여 에지 예측들을 향해 사이드-출력들을 유도(guide)한다. HED의 출력들은 다중 스케일(multi-scale) 및 다중 레벨(multi-level)이며, 사이드-출력-평면 사이즈(side-output-plane size)는 보다 작아지고 수용 필드 사이즈(receptive field size)는 보다 커진다. 다수의 스케일들로부터의 출력들을 어떻게 결합시킬지를 자동으로 학습하기 위해 하나의 가중 융합 레이어(weighted-fusion layer)가 추가된다. 네트워크 전체가 다수의 에러 전파 경로들을 이용하여 트레이닝될 수 있다. HED 알고리즘(들)은, 본 기술분야에서 이용가능한, BSDS500 데이터 세트에 대한 최근의(state of the art) 에지 추출 성능을 보여 주었다. 이는 또한 SEM 데이터에 대한 우수한 에지 추출 성능을 입증하였다. 본 명세서에 설명된 HED(holistically nested edge detection) 모델들은 또한, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, Xie 등의 ["Holistically Nested Edge Detection," arXiv: 1504.06375v2, 4 October 2015, 10 pages]에 설명된 바와 같이 구성될 수 있다. 본 명세서에 설명된 실시예들은 또한, 이 간행물(publication)에 설명된 바와 같이 구성될 수 있다. 그에 추가하여, 제2 학습 기반 모델은 단일 융합 출력(single fused output)을 갖는 (1, 2, 4, 8 및 16의 스트라이드들(strides))인, 본 명세서에 추가로 설명된 바와 같이 구성될 수 있는, VGG 네트워크 아키텍처의 처음 5개의 스테이지를 사용하여 다중 스케일 에지 검출을 위해 구성될 수 있다.
일부 그러한 실시예들에서, 제1 및/또는 제2 학습 기반 모델들은 딥 리지듀얼 네트워크들(deep residual networks)로서 구성된다. 예를 들어, 본 명세서에 설명된 일부 다른 네트워크들과 같이, 딥 리지듀얼 네트워크는, 이미지 분류를 위해, 조합하여, 구성되고 트레이닝되는, 컨볼루션 레이어들 및 그에 뒤이은 완전 연결 레이어들을 포함할 수 있다. 딥 리지듀얼 네트워크에서, 레이어들은, 참조되지 않은 함수들(unreferenced functions)을 학습하는 대신에, 레이어 입력들을 참조하여 리지듀얼 함수들(residual functions)을 학습하도록 구성된다. 특히, 각각의 몇몇 적층된 레이어들(stacked layers)이 원하는 기본 매핑(desired underlying mapping)을 직접 피팅하기를 기대하는 대신에, 이 층들은, 쇼트커트 연결들(shortcut connections)을 갖는 피드포워드 신경 네트워크들에 의해 실현되는, 리지듀얼 매핑(residual mapping)을 피팅하도록 명시적으로 허용된다. 쇼트커트 연결들은 하나 이상의 레이어를 스킵하는 연결들이다. 딥 리지듀얼 네트(deep residual net)는 컨볼루션 레이어들을 포함하는 일반 신경 네트워크 구조(plain neural network structure)를 취하고 쇼트커트 연결들을 삽입하여, 그에 의해 일반 신경 네트워크를 취하여 리지듀얼 학습 대응물로 바꾸는 것에 의해 생성될 수 있다. 딥 리지듀얼 네트들의 예들은, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, ["Deep Residual Learning for Image Recognition" by He et al., NIPS 2015]에 설명되어 있다. 본 명세서에 설명된 딥 러닝 모델들은 또한, 이 참고문헌에 설명된 바와 같이 구성될 수 있다.
추가의 그러한 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 하나 이상의 완전 연결 레이어를 포함한다. "완전 연결 레이어"는 노드들 각각이 이전 레이어에서의 노드들 각각에 연결되는 레이어로서 일반적으로 정의될 수 있다. 완전 연결 레이어(들)는, 본 명세서에 추가로 설명된 바와 같이 구성될 수 있는, 컨볼루션 레이어(들)에 의해 추출된 특징들에 기초하여 분류를 수행할 수 있다. 완전 연결 레이어(들)는 특징 선택 및 분류를 위해 구성된다. 환언하면, 완전 연결 레이어(들)는 특징 맵(feature map)으로부터 특징을 선택하고 이어서 선택된 특징들에 기초하여 이미지(들)에서의 속성들을 분류한다. 선택된 특징들은 특징 맵 내의 특징들 전부(적절한 경우) 또는 특징 맵 내의 특징들 중 일부만을 포함할 수 있다.
일부 실시예들에서, 제1 및/또는 제2 학습 기반 모델들에 의해 결정된 정보는 제1 및/또는 제2 학습 기반 모델들에 의해 추출된 이미지들의 특징들을 포함한다. 하나의 그러한 실시예에서, 제1 및/또는 제2 학습 기반 모델들은 하나 이상의 컨볼루션 레이어를 포함한다. 컨볼루션 레이어(들)는 본 기술분야에 공지된 임의의 적합한 구성을 가질 수 있고, 하나 이상의 필터를 사용하여 컨벌루션 함수를 입력 이미지에 적용하는 것에 의해 이미지에 대한 특징들을 이미지에 걸친 위치의 함수(즉, 특징 맵)로서 결정하도록 일반적으로 구성된다. 일 실시예에서, 제1 학습 기반 모델(또는 제1 학습 기반 모델의 적어도 일부)은 컨볼루션 신경 네트워크(convolution neural network, CNN)로서 구성된다. 예를 들어, 제1 학습 기반 모델은 국부 특징들을 추출하기 위해, 보통 컨볼루션 및 풀링 레이어들의 스택들(stacks)인, CNN으로서 구성될 수 있다. 본 명세서에 설명된 실시예들은 통상적으로 다루기 힘든 표현 반전 문제(representation inversion problem)를 해결하기 위해 CNN과 같은 딥 러닝 개념들을 이용할 수 있다. 제1 학습 기반 모델은 본 기술분야에 공지된 임의의 CNN 구성 또는 아키텍처를 가질 수 있다. 하나 이상의 풀링 레이어는 본 기술분야에 공지된 임의의 적합한 구성(예컨대, 맥스 풀링 레이어들(max pooling layers))을 또한 가질 수 있으며, 가장 중요한 특징들을 유지하면서 하나 이상의 컨볼루션 레이어에 의해 생성된 특징 맵의 차원(dimensionality)을 축소시키도록 일반적으로 구성된다.
추가의 실시예에서, 제1 학습 기반 모델은 변분 오토인코더들(variational auto-encoders)을 사용하여 딥 생성 모델로서 구성된다. 예를 들어, 본 명세서에 설명된 실시예들은 차별적 접근법들(discriminative approaches)인 다른 디자인 렌더링 접근법들 대신에 변분 오토인코더들(VAE)을 사용하는 딥 생성 모델을 사용할 수 있다. 그러한 제1 학습 기반 모델은 디자인 컨투어 생성과 함께 불확실성들을 추가하는 것을 가능하게 하며, 이는 차례로 거짓 양성들(false positives)에 대한 강건성을 더욱 개선시킬 수 있다. 변분 오토인코더는 딥 러닝 및 변분 추론(variational inference)의 장점들을 취하고 생성 모델링(generative modeling)에서 상당한 진보들을 가져오는 컴포넌트이다. 그에 추가하여 또는 대안적으로, GAN(generalative adversarial network) 또는 DGAN(deep generative adversarial network)과 결합된 VAE(variational autoencoder)는, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, ["Adversarial Autoencoders," Makhzani et al., arXiv: 1511.05644v2, May 25, 2016, 16 pages]에 설명된 바와 같이 구성될 수 있다. 본 명세서에 설명된 실시예들은 또한, 이 참고문헌에 설명된 바와 같이 구성될 수 있다.
제1 및/또는 제2 학습 기반 모델들에 의해 결정된 특징들은 본 명세서에 설명된 입력으로부터 추론될 수 있는(그리고 어쩌면 본 명세서에 추가로 설명된 다른 출력을 생성하는 데 사용될 수 있는) 본 명세서에 추가로 설명된 또는 본 기술분야에 공지된 임의의 적합한 특징들을 포함할 수 있다. 예를 들어, 특징들은 픽셀당 강도 값들의 벡터를 포함할 수 있다. 특징들은 본 명세서에 설명된 임의의 다른 유형들의 특징들, 예컨대, 스칼라 값들의 벡터들, 독립 분포들(independent distributions)의 벡터들, 결합 분포들(joint distributions), 또는 본 기술분야에 공지된 임의의 다른 적합한 특징 유형들을 또한 포함할 수 있다.
제1 및 제2 학습 기반 모델들은 또한, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, 2017년 5월 25일자로 공개된 Zhang 등의 미국 특허 출원 공개 제2017/0148226호, 2017년 7월 6일자로 공개된 Zhang 등의 미국 특허 출원 공개 제2017/0193680호, 2017년 7월 6일자로 공개된 Bhaskar 등의 미국 특허 출원 공개 제2017/0194126호, 2017년 7월 13일자로 공개된 Bhaskar 등의 미국 특허 출원 공개 제2017/0200260호, 2017년 7월 13일자로 공개된 Bhaskar 등의 미국 특허 출원 공개 제2017/0200265호, 2017년 11월 30일자로 공개된 Zhang 등의 미국 특허 출원 공개 제2017/0345140호, 그리고 2017년 9월 1일자로 출원된 Zhang 등의 미국 특허 출원 제15/694,719호, 및 2017년 9월 6일자로 출원된 He 등의 미국 특허 출원 제15/697,426호에 설명된 바와 같이 구성될 수 있다. 본 명세서에 설명된 실시예는 또한, 이 공보들 및 특허 출원들에 설명된 바와 같이 구성될 수 있다.
일 실시예에서, 제1 학습 기반 모델에 입력되는 디자인은 시편 상에 인쇄되지 않을 디자인의 피처들을 포함하지 않는다. 환언하면, 제1 학습 기반 모델에 입력되는 디자인의 피처들은 프리-OPC 피처들 및/또는 시편 상에 피처들이 어떻게 인쇄되는지에 영향을 미치지만 그 자체가 시편 상에 인쇄되지는 않는 디자인의 임의의 OPC 피처들을 포함하지 않는 디자인일 수 있다. 프리-OPC 디자인을 SEM 유사 컨투어들(SEM-like contours)로 정확하게 렌더링하는 것은 복잡한 시뮬레이션들을 이용하여 수행될 수 있지만 많은 컴퓨팅을 요구하며 파라미터들을 올바르게 가져올 필요가 있다. 그 대신에, SEM 렌더링에 대한 디자인이 프리-OPC 디자인 클립들로부터 디자인 컨투어들을 어떻게 렌더링할지를 학습하는 본 명세서에 추가로 설명된 것들 중 하나와 같은 학습 기반 회귀 모델을 이용하여 수행되는 경우, 결과들은 우수하고 상대적으로 낮은 초기 트레이닝 셋업 비용으로 행해질 수 있다. 렌더링은 이어서, 본 명세서에서 추가로 설명되는 바와 같이 수행될 수 있는, 패턴 충실도의 이상치들을 식별하는 데 사용하기 위한 기준 컨투어들을 제공한다.
일 실시예에서, 제1 및 제2 학습 기반 모델들은 상이한 패턴 유형들에 적응가능하다. 다른 실시예에서, 제1 및 제2 학습 기반 모델들은 상이한 패턴 밀도들에 적응가능하다. 추가의 실시예에서, 제1 및 제2 학습 기반 모델들은 상이한 레이어 유형들 내의 패턴들에 적응가능하다. 추가의 실시예에서, 제1 및 제2 학습 기반 모델들은 하나 이상의 상이한 이미징 파라미터를 이용하여 이미징 서브시스템에 의해 생성된 이미지들에 적응가능하다. 예를 들어, 본 명세서에 설명된 모델들은 강건하고 다양한 패턴 유형들, 패턴 밀도, 층 유형들(메모리 또는 로직) 및 이미지 모달리티들(광학, SEM, x-레이 등)로 일반화된다.
상이한 패턴 유형들은 상이한 폴리곤 형상들을 가지는 패턴들, 시편 상에 형성되는 디바이스들의 상이한 피처들에 대응하는 패턴들 등을 포함할 수 있다. 상이한 패턴 밀도들은 상대적으로 희박한 피처들 및 상대적으로 조밀한 피처들을 포함할 수 있고, 주어진 구역에서의 피처들의 계산된 밀도에 의해 정량적으로 정의될 수 있다. 상이한 층 유형들은 동일한 시편 상의 상이한 층 유형들(예컨대, 상이한 층들이 웨이퍼 상에 하나가 다른 하나 상에 형성됨) 및/또는 상이한 시편들 상에 형성된 상이한 층 유형들(예컨대, 디바이스들이 하나의 시편 상에 제1 층 유형들로 그리고 다른 시편 상에 제2 층 유형들로 제조됨)을 포함할 수 있다. 하나 이상의 상이한 이미징 파라미터는 이미징 서브시스템의 이미징 모드를 총괄적으로 정의하는 본 명세서에 설명된 이미징 파라미터들 중 임의의 것을 포함할 수 있다. 그에 추가하여, 위에서 설명된 바와 같이, 모델들은 상이한 이미지 모달리티들에 적응가능하다. 따라서, 하나 이상의 상이한 이미징 파라미터는 광학 이미징 파라미터들 및 전자 빔(또는 다른 비-광학) 이미징 파라미터들을 포함할 수 있다.
하나의 그러한 예에서, 리소그래피/에칭 프로세스를 학습한 후에 본 명세서에 설명된 학습 기반 모델들에 의해 디자인 컨투어들이 실질적으로 정확하게 렌더링될 수 있으며, 본 명세서에 추가로 설명되는 바와 같이 잠재적 OPC 에러들을 플래깅하기 위해 디자인 컨투어들이 이어서 이미지 컨투어들과 비교될 수 있다. 제1 학습 기반 모델을 트레이닝시키는 데 상대적으로 많은 수의 공칭 패턴들(즉, OPC 에러들을 갖지 않는 패턴들)의 이미지들이 이용가능할 때 제1 학습 기반 모델이 트레이닝될 수 있음으로써 제1 학습 기반 모델이 그에 의해 리소그래피/에칭 프로세스 및 이미징 프로세스를 "학습"한다. 새로운 레이어들에 대해, 제1 학습 기반 모델을 트레이닝시키는 데 사용되는 트레이닝 세트에 새로운 예제들이 추가될 수 있으며, 기존의 모델로부터의 초기 가중치들 및/또는 다른 파라미터들을 사용하여 제1 학습 기반 모델의 맨 처음부터의 리트레이닝(retraining) 또는 미세 튜닝(fine tuning) 중 어느 하나가 수행될 수 있다. 미세 튜닝은 모델 파라미터들의 초기 값들이 기존의 트레이닝된 모델로부터 로딩되고, 모델 파라미터들이 새로운 트레이닝 이미지들을 사용하여 리트레이닝된다는 것을 의미한다. 미세 조정은 전형적으로 유리하게도 맨 처음부터 트레이닝시키는 것보다 적은 수의 이미지들을 요구한다. 상이한 패턴 유형들, 패턴 밀도들, 이미징 파라미터(들) 등에 대해 제1 학습 기반 모델을 트레이닝시키기 위해 유사한 단계들이 수행될 수 있다. 제2 학습 기반 모델은 유사한 방식으로 그러한 변동들에 적응가능할 수 있다. 제1 및 제2 학습 기반 모델들은 본 명세서에 추가로 설명되는 바와 같이 트레이닝될 수 있다.
하나 이상의 컴퓨터 서브시스템은 또한, 실제 컨투어들을 시뮬레이션된 컨투어들과 비교하고 비교의 결과들에 기초하여 시편 상에 형성된 패턴들 내의 결함들을 검출하도록 구성된다. 예를 들어, 도 3에 도시된 바와 같이, 하나 이상의 컴퓨터 서브시스템은, 단계(300)에 도시된 바와 같이, 본 명세서에 추가로 설명되는 바와 같이 수행될 수 있는, 컨투어들의 디자인 렌더링을 위해 구성될 수 있다. 그에 추가하여, 도 3에 도시된 바와 같이, 하나 이상의 컴퓨터 서브시스템은, 단계(302)에 도시된 바와 같이, 본 명세서에 추가로 설명되는 바와 같이 수행될 수 있는, 이미지 컨투어 추출을 위해 구성될 수 있다. 게다가, 도 3에 도시된 바와 같이, 컴퓨터 서브시스템(들)은 렌더링된 디자인으로부터 결정된 컨투어들을 단계(304)에서의 패턴 충실도 검출을 위해 이미지로부터 추출된 컨투어들과 비교하도록 구성될 수 있다.
실제 컨투어들을 시뮬레이션된 컨투어들과 비교하는 것은 실제 컨투어들을 시뮬레이션된 컨투어들에 정렬시키는 것을 포함할 수 있다. 예를 들어, 렌더링된 디자인 및 이미지들 둘 다에 포함되는 디자인의 하나 이상의 피처는 (예컨대, 다른 근방/주변 패턴들에 대한 그들의 고유성(uniqueness)에 기초하여 그리고 이들을 x 및/또는 y에서의 정렬에 적합하게 만드는 이들의 특성들에 기초하여) 정렬에 적합한 것으로 식별될 수 있다. 렌더링된 디자인 및 이미지들은 그러면 피처(들)이 렌더링된 디자인 및 이미지들에 나타날 때 피처(들)을 사용하여 정렬될 수 있다. (1) 정렬된 렌더링된 디자인과 이미지들 사이; (2) 렌더링된 디자인에 대해 결정된 컨투어들과 렌더링된 디자인 사이; 및 (3) 이미지들로부터 추출된 컨투어들과 이미지들 자체 사이의 공간 관계들이 이어서 렌더링된 디자인으로부터 결정된 컨투어들을 이미지들로부터 추출된 컨투어들에 정렬시키는 데 사용될 수 있다. 컨투어들이 시뮬레이션된 컨투어들과 비교될 모든 이미지 프레임 또는 작업(job)에 대해 정렬이 수행될 수 있거나 또는 이미지 프레임들 또는 작업들 전부보다 적은 것들에 대해(예컨대, 하나의 이미지 프레임 또는 작업에 대해 결정된 정렬 오프셋과 같은 정렬 결과들이 다른 이미지 프레임들 또는 작업들을 정렬시키는 데 사용될 수 있을 때) 정렬이 수행될 수 있다. 렌더링된 디자인과 이미지들을 정렬시키는 것은, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, Kulkarni 등에 등록된 특허에 설명된 바와 같이 추가로 수행될 수 있다. 본 명세서에 설명된 실시예들은 또한, 이 특허에 설명된 바와 같이 구성될 수 있다.
컨투어들이 일단 정렬되면, 컨투어들이 비교될 수 있다. 일 실시예에서, 비교의 결과들은 실제 컨투어들과 시뮬레이션된 컨투어들 사이의 차이들에 기초하여 결정되는, 디자인 내의 패턴들 중 제1 패턴과 시편 상에 형성된 패턴들의 취득된 이미지들 중 적어도 하나의 이미지 내의 패턴들 중 그 제1 패턴의 치수들 사이의 정량적 차이들을 포함하고, 결함들을 검출하는 것은 치수들 사이의 정량적 차이들에 문턱치를 적용하는 것을 포함한다. 하나의 그러한 경우에, 비교들은 컨투어들의 위치들을 픽셀 단위로(on a pixel-by-pixel basis) 비교하고 컨투어들의 위치들의 차이들을 결정하는 것을 포함한다. 그 차이들은 이어서 패턴들의 치수들 사이의 정량적 차이들을 결정하는 데 사용될 수 있다. 결함들을 검출하는 것은 그러면 정량적 차이들에 문턱치를 적용하는 것을 포함할 수 있다. 문턱치 초과의 차이를 가지는 패턴들은 결함들로서 식별될 수 있는 반면, 문턱치 초과의 차이를 가지지 않는 패턴들은 결함들로서 식별되지 않을 수 있다. 이러한 방식으로, 컴퓨터 서브시스템(들)에 의해 검출되는 결함들은 패턴 충실도 결함들(즉, 이물질 미립자들(foreign particulates) 및 오염물(contamination), 스크래치들 및 다른 마크들 등과 같은 다른 결함들과 대조되는 패터닝된 피처들 자체에서의 결함들)일 수 있다.
다른 실시예에서, 비교의 결과들은 취득된 이미지들 중 적어도 하나의 이미지 내의 패턴들 각각의 픽셀들 각각에 대한 실제 컨투어들과 시뮬레이션된 컨투어들 사이의 정량적 차이들을 포함한다. 예를 들어, 반도체 제조는 전형적으로 의도된 디자인에 비해 상대적으로 고충실도 패턴 특성화 측정을 요구한다. 본 명세서에 설명된 실시예들은, 각각의 픽셀에 대한 정량적 측정치들을 반환하는 것을 제외하고는, 단일 샷에서 상대적으로 대면적 측정들을 수행할 수 있다(검출 알고리즘과 거의 유사함). 실제 컨투어들과 시뮬레이션된 컨투어들 사이의 정량적 차이들은 본 명세서에서 추가로 설명되는 바와 같이 픽셀들 각각에 대해 결정될 수 있다. 게다가, 본 명세서에 설명된 실시예들이 패턴들 각각에서 각각의 픽셀에 대한 컨투어들 사이의 차이들을 결정할 수 있기 때문에, 실시예들은 CD 측정들을 위한 타깃 구역들로서 사용될 수 있는 시야 전체 내의 잠재적 결함(패턴 결함들만) 위치들을 자동으로 플래깅하는 데 사용될 수 있다(그에 의해 측정들이 이루어지는 미리 결정된 관심 영역들에 대한 임의의 필요성을 제거함).
본 명세서에 설명된 실시예들은 개별 피처들에 대한, 피처들의 어떤 부분에 대한, 동일한 유형의 피처의 다수의 인스턴스들에 대한, 기타에 대한 임계 치수 균일도(critical dimension uniformity, CDU)를 결정하도록 또한 구성될 수 있다. CDU는 본 기술분야에 공지된 임의의 적합한 방식으로 결정될 수 있다. 그에 추가하여, 본 명세서에 설명된 실시예들은 로직 CDU(logic CDU) 사용 사례들에 사용될 수 있다. 예를 들어, 로직 CDU 사용 사례들은 알려진 핫 스폿들에서의 측정들, 구역 검사(area inspection) - 패턴 충실도 측정들 -, 및 결함 검출 및 측정들과 같은 단계들을 때때로 포함한다. 이러한 방식으로, 본 명세서에 설명된 실시예들은 구역 검사 - 패턴 충실도 측정들 단계 - 에서 사용될 수 있다.
이러한 방식으로, 본 명세서에 설명된 실시예들은 컨투어 기반 결함 검출 방법 및 시스템을 포함한, 반도체 검사, 계측, 및 다른 툴들을 위한 새로운 특징들을 제공한다. 컨투어 기반 패턴 충실도 검출은 패턴 충실도 검출을 위한 다른 방법들에서 수행되는 다른 비교들과 상이하다. 예를 들어, 렌더링된 이미지와 타깃 이미지의 비교들에서, 디자인으로부터 렌더링된 이미지는 물리적 시편으로부터 생성된 이미지와 비교될 수 있고, 비교의 결과들은 패턴 충실도 검출에 사용될 수 있다. 다른 예에서, 디자인과 데이터베이스 유형의 비교들에서, 디자인 클립과 물리적 시편 상에 형성되는 디자인 클립에 대응하는 디자인의 부분의 이미지가 비교될 수 있고, 비교의 결과들은 패턴 충실도 검출에 사용될 수 있다.
대조적으로, 컨투어 기반 패턴 충실도 검출에서, 디자인 렌더링으로부터 결정된 컨투어들과 물리적 시편에 대해 생성된 이미지들로부터 추출된 컨투어들이 비교되고, 비교의 결과들은 패턴 충실도 검출에 사용될 수 있다. 따라서, 위에서 설명된 다른 방법들과 달리, 컨투어 기반 접근법은 시뮬레이션된 이미지를 실제 이미지와 비교하는 것 및/또는 디자인 클립을 실제 이미지와 비교하는 것을 수반하지 않는다. 그 대신에, 본 명세서에 설명된 실시예들은 디자인 렌더링으로부터 결정된 컨투어들과 시편의 이미지들로부터 결정된 컨투어들을 비교하여, 그에 의해 시편 상에 형성된 패턴들 내의 결함들을 검출하는 것을 수반한다. 게다가, 시뮬레이션된 이미지를 실제 이미지와 비교하고 디자인의 일 부분을 실제 이미지와 비교하는 것은 이미지들을 서로 비교하거나 디자인을 이미지와 비교하는 것을 수반하며, 이는 특성들(즉, 이미지들 내의 패턴들의 컨투어들)이 서로 비교되는 본 명세서에 설명된 비교들과는 상이하다. 환언하면, 본 명세서에 설명된 비교들에서, 이미지들 자체가 서로 비교되지 않거나 또는 디자인과 비교되지 않는다. 그 대신에, 이미지들 및 디자인으로부터 도출되는 패터닝된 피처들의 특성들이 서로 비교된다. 컨투어 기반 접근법은 패턴 충실도 검출을 위한 정량적 메트릭을 제공한다. 그에 추가하여, 본 명세서에 추가로 설명되는 바와 같이, 컨투어 기반 접근법은 디자인 내의 핫 스폿들을 식별하는 데 사용될 수 있다.
본 명세서에 설명된 실시예들은 이하의 이점들을 갖는 단일 다이 측정 솔루션들을 또한 제공한다. 예를 들어, 본 명세서에 설명된 실시예들은, 디자인이 컨투어들을 렌더링하고 따라서 디자인이 기준으로서 사용되기 때문에, 하드 리피터들(hard repeaters)(즉, 시편 상의 모든 다이에서 발생하는 리피터들)을 검출할 수 있다. 그에 추가하여, 본 명세서에 설명된 실시예들은 기준 컨투어들을 추출하는 데 사용되는 다이-투-다이(die-to-die) 접근법과 비교하여 처리량(throughput) 이점들을 제공한다. 게다가, 본 명세서에 설명된 실시예들은 기준 컨투어들을 위한 기준 다이를 요구하지 않는다. 특히, 기준 다이 접근법에서, 일부 결함이 많은(highly defective) 웨이퍼들 또는 제로 프로세스 윈도(zero process window)를 갖는 일부 PWQ(process window qualification) 웨이퍼들 상에서 양품 공칭 기준 다이(good nominal reference die)를 찾는 것이 어려울 수 있다.
일부 실시예들에서, 하나 이상의 컴퓨터 서브시스템은 검출된 결함들에 기초하여 디자인 내의 핫 스폿들을 검출하도록 구성된다. 예를 들어, 본 명세서에 설명된 실시예들은 인쇄된 패턴이 의도된 디자인과 크게 상이한 "핫 스폿들"을 식별할 수 있다. 특히, 본 명세서에 설명된 실시예들은 핫 스폿 패턴 정량화를 위한 학습 기반 모델들을 사용하여 결정된 SEM 및 디자인 컨투어들을 비교할 수 있다. 본 명세서에 설명된 실시예들은 표준 리소그래피 핫 스폿들을 능가하는 일반화된 핫 스폿 발견 방법을 가능하게 해준다.
"핫 스폿들"은 시편 상에 인쇄될 때 디자인 내의 다른 위치들보다 결함들이 발생하기 더 쉬운 디자인 내의 위치들로서 일반적으로 정의될 수 있다. 예를 들어, 시편 상에 패터닝된 피처들을 형성하는 데 사용되는 제조 프로세스의 파라미터들이 공칭으로부터 보다 멀리(즉, 프로세스 윈도의 에지들을 향해) 드리프트할 때, 결함들이 시편 상의 다른 위치들보다 먼저 시편 상의 "핫 스폿들"의 위치들에 나타날 수 있다. 따라서, 시편 상의 대응하는 위치들이 결함들이 있는지 보다 면밀하게 모니터링되도록 디자인 내의 핫 스폿들을 식별하는 것이 유리할 수 있으며, 이는 프로세스 문제의 조기 검출을 가능하게 해줄 수 있다. 일부 경우들에서, (예컨대, 결함들을 검출하는 데 사용되는 문턱치 및/또는 시편 상에 디자인을 인쇄하는 데 사용되었던 프로세스 파라미터들에 따라) 시편 상에 형성되는 패터닝된 피처들에서 검출된 임의의 결함의 임의의 위치로서 핫 스폿을 식별하는 것이 유리할 수 있다. 핫 스폿들은 이어서 점점 더 많은 시편들이 검사됨에 따라 수정될 수 있다(예컨대, 핫 스폿들이 지속적으로 결함들을 나타내지 않을 때는 핫 스폿들이 삭제될 수 있고 새로운 핫 스폿들이 발견될 때는 핫 스폿들이 추가될 수 있다). 그에 추가하여, 시편 이미지들로부터 추출된 컨투어들을 디자인으로부터 렌더링된 컨투어들과 비교하는 것에 의해 본 명세서에 설명된 바와 같이 핫 스폿들이 식별될 수 있기 때문에, 본 명세서에 설명된 컨투어 비교들은 서로 비교되고 있는 양쪽 인스턴스들에서 하드 리피터들(동일한 다이내 위치들(within die locations) 각각에서, 동일한 레티클내 위치들(within reticle locations) 각각에서 반복되는 결함들)이 발생하기 때문에 하드 리피터들이 검출될 수 없는 다이-투-다이 방법들의 단점들을 겪지 않을 것이다. 핫 스폿들은 어떤 문턱치를 결함들에 적용하는 것에 의해 또한 식별될 수 있다(예컨대, 어떤 문턱치보다 큰 결함들은 핫 스폿들로서 식별된다).
일 실시예에서, 하나 이상의 컴퓨터 서브시스템은 적어도 하나의 트레이닝 시편에 대한 적어도 하나의 트레이닝 디자인의 상이한 부분들 및 실측 자료 방법(ground truth method)으로 적어도 하나의 트레이닝 시편의 트레이닝 이미지들로부터 추출된 대응하는 컨투어 정보를 포함하는 트레이닝 데이터 세트를 사용하여 제1 학습 기반 모델을 트레이닝시키도록 구성된다. 예를 들어, 트레이닝 동안, 시편의 이미지들(예컨대, SEM 이미지들)은 (예컨대, 사용자 또는 실측 자료 방법에 의해) 이미지들 내의 피처들의 컨투어들로 주석 첨부될 수 있다. 주석은 이진 실측 자료 이미지(binary ground truth image)를 생성할 수 있다. 컨투어 실측 자료는 사용자로부터 또는 기존의 에지 추출 알고리즘들을 사용하여 또는 둘 다의 조합으로 나올 수 있다. 주석은 실측 자료를 수동으로 마킹하는 것 또는 기존의 에지 추출 알고리즘들을 사용하여 추출된 에지들 상에서 터치업들(touch ups)을 행하는 것이다. 그 주석 첨부된 이미지들 및/또는 이미지들 내의 피처들에 대한 실측 자료 컨투어 정보는 피처들에 대한 대응하는 디자인 정보와 함께 디자인 렌더링 모델(즉, 제1 학습 기반 모델)이 트레이닝되는 디자인 렌더링 트레이닝에 사용될 수 있다.
트레이닝 데이터 세트는 적어도 하나의 트레이닝 디자인의 임의의 적힙한 수의 부분들을 포함할 수 있다. 적어도 하나의 트레이닝 디자인은 다수의 유사한 디자인들(예컨대, 동일한 층들 및 동일한 디바이스 유형들에 대한 디자인들) 또는 다수의 상이한 디자인들(예컨대, 임의의 유형의 디자인들)을 포함할 수 있다. 적어도 하나의 트레이닝 디자인은 제1 학습 기반 모델에 의해 생성된 시뮬레이션된 컨투어들을 사용하여 검사될 시편들에 대한 디자인을 또한 포함할 수 있다. 적어도 하나의 트레이닝 시편은 검사될 시편과 동일한 층 유형을 갖는 시편일 수 있지만, 다른 시편 유형들이 트레이닝 시편(들)으로서 또한 사용될 수 있다. 트레이닝 이미지들은 본 명세서에 설명된 이미징 서브시스템(들) 중 임의의 것을 사용하여 취득될 수 있으며, 트레이닝 시편(들)의 물리적 버전(들)에 대해 이미징 서브시스템(들)에 의해 생성된 실제 이미지들을 일반적으로 포함할 것이다.
하나의 그러한 예에서, 도 4에 도시된 바와 같이, 디자인 렌더링(400)은 2개의 상이한 페이즈(phases): 트레이닝(402) 및 추론(404)을 포함할 수 있다. 트레이닝(402) 동안, 디자인(406) 및 이미지 컨투어 실측 자료(408)가 트레이닝되지 않은(untrained) 제1 학습 기반 모델(410)에 입력될 수 있다. 트레이닝되지 않은 제1 학습 기반 모델에 의해 디자인(406)에 대해 생성되는 시뮬레이션된 컨투어들이 이미지 컨투어 실측 자료(408)와 매칭(match)할 때까지(여기서 "매칭"은 정확한 매치(match)가 발견되었음을 의미하거나 또는 일부 중지 기준들(stopping criteria)에 도달하였다면 가장 최상의 "매치"가 식별됨) 트레이닝되지 않은 제1 학습 기반 모델의 하나 이상의 파라미터가 변경될 수 있다. 환언하면, 디자인(406)이 트레이닝되지 않은 제1 학습 기반 모델(410)에 입력될 수 있다. 트레이닝되지 않은 제1 학습 기반 모델은 이어서 디자인에 대한 시뮬레이션된 컨투어들을 생성할 수 있다. 시뮬레이션된 컨투어들은 이미지 컨투어 실측 자료(408)와 비교될 수 있고, 시뮬레이션된 컨투어들과 이미지 컨투어 실측 자료(408) 사이에 차이들이 있는 경우, 모델의 하나 이상의 파라미터가 변경될 수 있으며 시뮬레이션된 컨투어들이 이미지 컨투어 실측 자료와 매칭할 때까지 위에서 설명된 단계들이 반복될 수 있다. 이어서, 디자인 렌더링(400)의 추론 페이즈(404) 동안, 디자인(412)이, 트레이닝 페이즈 동안 결정된, 트레이닝된 제1 모델 파라미터들(414)과 함께 트레이닝된 제1 학습 기반 모델(416)에 입력된다. 트레이닝된 제1 학습 기반 모델은 위에서 설명된 바와 같이 트레이닝된다. 트레이닝된 모델이 트레이닝된 파라미터들(414)을 이용하여 디자인(412)에 대한 시뮬레이션된 컨투어들을 생성하도록 트레이닝된 파라미터들이 디자인과 함께 입력될 수 있다. 트레이닝된 모델에 의해 생성되는 시뮬레이션된 컨투어들은 본 명세서에서 추가로 설명되는 바와 같이 패턴 충실도 검출에 사용될 수 있다.
디자인 컨투어 렌더링 모델(즉, 제1 학습 기반 모델)을 트레이닝시키는 다른 예에서, 첫 번째 단계는 트레이닝을 위한 실측 자료를 준비하는 것일 수 있다. 트레이닝을 위한 실측 자료를 준비하는 것은 실측 자료 컨투어 정보를 제공하기 위해 공칭 패턴들(즉, 무결함 패턴들, 공칭 프로세스 파라미터들을 이용하여 형성된 패턴들 등)의 이미지들에 대해 엣지 검출 알고리즘(예컨대, 캐니 검출기(canny detector))을 실행하는 것을 포함할 수 있다. 예를 들어, SEM 이미지와 같은 시편 이미지가 SEM 컨투어들 추출 단계에 입력되어, 그에 의해 실측 자료 SEM 컨투어들을 생성할 수 있다. 실측 자료 SEM 컨투어들이 패턴/배경 라벨들 생성 단계에 입력되어, 그에 의해 실측 자료 라벨들을 생성할 수 있다. 프리-OPC 디자인은 평범하게 렌더링된 이미지(trivially rendered image)로 렌더링되어 트레이닝되지 않은 제1 학습 기반 모델에 대한 입력으로서 제공될 수 있다. 예를 들어, 트레이닝을 위해, 디자인 클립이 "디자인 이미지 렌더링(render design image)" 단계에 입력되어, 그에 의해 CAD(computer-aided design) 이미지를 생성할 수 있다. 에지 검출기의 출력이 타깃 이미지로서 사용된다.
입력 및 출력 데이터가 동일한 좌표계에 있도록 보장하기 위해 시편 이미지와 디자인 클립이 이어서 서로 정렬된다. 예를 들어, SEM 이미지 및 CAD 이미지가 CAD에서 SEM 등록 단계에 입력되어, 그에 의해 정렬된 CAD 이미지를 산출(produce)할 수 있다. 간단한 CNN이 이어서 이 모델을 트레이닝시키는 데 사용될 수 있다. 예를 들어, CNN은 다수의 컨볼루션 레이어들(예컨대, 2개 이상의 컨볼루션 레이어) 및 그에 뒤이은 다수의 완전 연결 레이어들(예컨대, 2개 이상의 완전 연결 레이어)을 포함할 수 있다. CNN은 패턴들인 이미지들의 구역들과 배경인 이미지들의 구역들을 구별하기 위해 패턴 및 배경 스코어들을 갖는 출력을 생성할 수 있다. 간단함을 위해, 입력 이미지들은 절반으로 다운 샘플링될 수 있다. 정렬된 CAD 이미지 및 실측 자료 라벨들은 트레이닝 단계에 입력되어, 그에 의해 트레이닝된 제1 학습 기반 모델을 생성할 수 있다.
다른 실시예에서, 하나 이상의 컴퓨터 서브시스템은 적어도 하나의 트레이닝 디자인이 형성된 적어도 하나의 트레이닝 시편에 대해 이미징 서브시스템에 의해 생성된 상이한 트레이닝 이미지들 및 실측 자료 방법으로 상이한 트레이닝 이미지들로부터 추출된 대응하는 컨투어 정보를 포함하는 트레이닝 데이터 세트를 사용하여 제2 학습 기반 모델을 트레이닝하도록 구성된다. 예를 들어, 트레이닝 동안, 시편의 이미지들(예컨대, SEM 이미지들)은 (예컨대, 사용자 또는 실측 자료 방법에 의해) 이미지들 내의 피처들의 컨투어들로 주석 첨부될 수 있다. 주석은 이진 실측 자료 이미지를 생성할 수 있다. 그 주석 첨부된 이미지들 및/또는 이미지들 내의 피처들에 대한 실측 자료 컨투어 정보는 이미지들과 함께 이미지 컨투어 추출 모델이 트레이닝되는 이미지 컨투어 추출 트레이닝에 사용될 수 있다. 그에 추가하여, 이진 실측 자료 이미지(또는 본 명세서에 설명된 다른 실측 자료 컨투어 정보)는 컨투어 추출 및 디자인 렌더링 둘 다에 대해 학습 기반 모델을 트레이닝시키고 트레이닝 이후의 모델 파라미터들을 출력하는 데 사용될 수 있다.
이 트레이닝 데이터 세트는 임의의 적합한 수의 상이한 트레이닝 이미지들을 포함할 수 있다. 상이한 트레이닝 이미지들은 다수의 유사한 디자인들(예컨대, 동일한 층들 및 동일한 디바이스 유형들에 대한 디자인들) 또는 다수의 상이한 디자인들(예컨대, 임의의 유형의 디자인들)이 형성된 단일 시편 또는 다수의 트레이닝 시편들로부터 생성될 수 있다. 적어도 하나의 트레이닝 디자인 및 적어도 하나의 트레이닝 시편은 위에서 추가로 설명된 바와 같이 구성될 수 있다. 상이한 트레이닝 이미지들은 본 명세서에 설명된 이미징 서브시스템(들) 중 임의의 것을 사용하여 취득될 수 있으며, 트레이닝 시편(들)의 물리적 버전(들)에 대해 이미징 서브시스템(들)에 의해 생성된 실제 이미지들을 일반적으로 포함할 것이다.
하나의 그러한 예에서, 도 5에 도시된 바와 같이, 이미지 컨투어 추출(500)은 2개의 상이한 페이즈: 트레이닝(502) 및 추론(504)을 포함할 수 있다. 트레이닝(502) 동안, 이미지들(506) 및 이미지 컨투어 실측 자료(508)가 트레이닝되지 않은 제2 학습 기반 모델(510)에 입력된다. 이미지 컨투어 실측 자료는 임의의 적합한 방식으로 취득될 수 있다. 예를 들어, 방법들 및 시스템들의 사용자는 이미지들에 이미지 컨투어 실측 자료로 주석 첨부할 수 있으며, 이는 이미지들 상에 컨투어들을 그리는 것을 포함할 수 있다. 이러한 방식으로, 이미지들(506)에 대해 생성된 컨투어들이 이미지 컨투어 실측 자료(508)와 매칭할 때까지(여기서 "매칭"은 위에서 설명된 바와 동일한 방식으로 정의됨) 트레이닝되지 않은 제2 학습 기반 모델의 하나 이상의 파라미터가 변경될 수 있다. 환언하면, 이미지들(506)이 트레이닝되지 않은 제2 학습 기반 모델(510)에 입력될 수 있다. 트레이닝되지 않은 제2 학습 기반 모델은 이어서 이미지들에 대한 추출된 컨투어들을 생성할 수 있다. 추출된 컨투어들은 이미지 컨투어 실측 자료(508)와 비교될 수 있고, 추출된 컨투어들과 이미지 컨투어 실측 자료(508) 사이에 차이들이 있는 경우, 모델의 하나 이상의 파라미터가 변경될 수 있으며 추출된 컨투어들이 이미지 컨투어 실측 자료와 매칭할 때까지 위에서 설명된 단계들이 반복될 수 있다.
이미지 컨투어 추출(500)의 추론 페이즈(504) 동안, 이미지들(512)은 트레이닝된 제2 모델 파라미터들(514)과 함께 트레이닝된 제2 학습 기반 모델(516)에 입력될 수 있다. 트레이닝된 제2 학습 기반 모델은 위에서 설명된 바와 같이 트레이닝된다. 트레이닝된 모델이 트레이닝된 파라미터들(514)을 이용하여 이미지들(512)에 대한 추출된 컨투어들을 생성하도록 트레이닝된 파라미터들이 이미지들과 함께 입력될 수 있다. 트레이닝된 모델에 의해 생성되는 추출된 컨투어들은 본 명세서에서 추가로 설명되는 바와 같이 패턴 충실도 검출에 사용될 수 있다. 그에 추가하여, 딥 러닝 기반 이미지 추출된 컨투어들(deep learning based image extracted contours)은 (정밀도 요구사항들이 실질적으로 엄격한, 즉 1 픽셀 에러가 상당히 클 수 있는 일부 측정 사용 사례들에 중요할 수 있는) 서브-픽셀 컨투어/에지 위치들를 추출하기 위해 (상대적으로 작은 이웃 내에서의) 실질적으로 정밀한 에지 위치결정(edge localization)을 위한 시드 포인트들(seed points)로서 사용될 수 있다.
도 6은 본 명세서에 설명된 제2 학습 기반 모델에 입력될 수 있는 이미지들 및 이러한 이미지들에 대해 생성될 수 있는 추출된 컨투어들의 예들을 예시하고 있다. 예를 들어, 이미지(600)는, 이 예에서, 반도체 웨이퍼에 대해 생성된 SEM 이미지이다. 이미지는 본 명세서에 설명된 바와 같이 트레이닝된 파라미터들과 함께 트레이닝된 제2 학습 기반 모델에 입력될 수 있고, 트레이닝된 제2 학습 기반 모델은 추출된 컨투어들(602)을 출력할 수 있다. 그에 추가하여, 이 예에서 또한 반도체 웨이퍼에 대해 생성된 SEM 이미지인, 이미지(604)가 본 명세서에 설명된 같이 트레이닝된 파라미터들과 함께 트레이닝된 제2 학습 기반 모델에 입력될 수 있다. 트레이닝된 제2 학습 기반 모델은 이어서 추출된 컨투어들(606)을 출력할 수 있다. 도 6에 도시된 이미지들은 임의의 특정의 이미지 유형들 및/또는 임의의 특정의 디자인 또는 임의의 특정의 시편 상에 형성된 피처들을 나타내기 위해 본 명세서에 포함되어 있지 않다. 그 대신에, 이 이미지들 및 이들로부터 추출된 컨투어들은 이미지들에 보이는 다양한 패터닝된 피처들에 대한 실질적으로 정밀한 컨투어들을 추출하기 위한 제2 학습 기반 모델의 능력을 예시하기 위해 여기에 포함되어 있다. 그에 추가하여, 추출된 컨투어들(602 및 604)이 도 6에 이진 이미지들(binary images)로서 도시되어 있지만, 추출된 컨투어들(은 물론 디자인 렌더링된 컨투어들)은 임의의 다른 적합한 방식으로 표현될 수 있다.
디자인 렌더링 모델 및 이미지 컨투어 추출 모델(즉, 제1 및 제2 학습 기반 모델들) 둘 다가 트레이닝된 후에, 모델들은 본 명세서에서 추가로 설명되는 바와 같이 런타임 추론(runtime inference)에 사용될 수 있다. 컨투어 기반 이상치 검출 알고리즘 런타임 흐름의 하나의 그러한 실시예가 도 7에 도시되어 있다. 예를 들어, 디자인이 딥 러닝 기반 디자인 컨투어 렌더링을 위한 디자인 렌더링 모델에 입력되어, 그에 의해 렌더링된 디자인 컨투어들을 생성할 수 있다. 상세하게는, 도 7에 도시된 바와 같이, 디자인(700) 및 트레이닝된 제1 모델 파라미터들(702)이 트레이닝된 제1 학습 기반 모델(704)에 입력되어, 그에 의해 시뮬레이션된 컨투어들(706)을 생성할 수 있다. 제1 학습 기반 모델은 본 명세서에 설명된 디자인 렌더링 네트워크들 중 임의의 것을 포함할 수 있고, 시뮬레이션된 컨투어들은 본 명세서에 설명된 추가의 단계들에 대해 렌더링된 공칭 디자인 컨투어들로서 역할할 수 있다.
하나의 그러한 예에서, 런타임 동안, 이 모델은 패턴들의 존재의 예측에 대응하는 스코어들을 갖는 "히트 맵(heat map)"을 획득하기 위해 평범하게 렌더링된 프리-OPC 디자인 클립(trivially rendered pre-OPC design clip)을 제공받을 수 있다. 컨투어들을 획득하기 위해 "히트 맵"이 이어서 이진화될(thresholded) 수 있다. 보다 구체적으로, 스코어들 맵(scores map)을 획득하기 위해 제1 학습 기반 모델이 테스트 디자인 클립에 적용될 수 있다. 스코어들 맵은 이어서 0.5와 같은 문턱치를 사용하여 이진화되어, 그에 의해 패턴 및 배경 예측들을 생성할 수 있다. 패턴 및 배경 예측들은 이어서 경계들을 추출하여, 그에 의해 예측된 컨투어들을 생성하는 데 사용될 수 있다. 예측된 컨투어들은 이어서 하나 이상의 포스트-프로세싱(post-processing) 단계에 입력되어, 그에 의해 예측된 컨투어들을 생성할 수 있다.
본 명세서에 설명된 디자인 컨투어 렌더링에 의해 산출된 결과들은 본 명세서에 설명된 실시예들이 유리하게도 실질적으로 높은 정밀도로 디자인 컨투어들을 생성할 수 있음을 입증하였다. 예를 들어, 프리-OPC 디자인으로부터의 예측된 컨투어 렌더링의 정밀도는 이를 대응하는 SEM 이미지들로부터 추출된 에지들과 비교하는 것에 의해 측정되었다. 픽셀들의 90% 초과가 1.5 픽셀의 에러 내에 있는 것으로 밝혀졌다.
그에 추가하여, 시편의 이미지(예컨대, SEM 이미지)가 딥 러닝 기반 컨투어 추출을 위한 이미지 컨투어 추출 모델에 입력되어, 그에 의해 이미지 컨투어들을 생성할 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 이 예에서 SEM 이미지로서 도시된, 이미지(708), 및 트레이닝된 제2 모델 파라미터들(710)이 트레이닝된 제2 학습 기반 모델(712)에 입력되어, 그에 의해 추출된 컨투어들714)을 생성한다. 트레이닝된 제2 학습 기반 모델은 본 명세서에 설명된 이미지 컨투어 추출 네트워크들 중 임의의 것을 포함할 수 있다. 본 명세서에 설명된 바와 같이 에지 추출을 수행한 결과들은 SEM 데이터에 대한 우수한 에지 추출 성능을 입증하였다.
렌더링된 디자인 컨투어들 및 이미지 컨투어들은, 디자인 내의 잠재적인 핫 스폿들을 검출하기 위해 수행될 수 있는, 이미지 및 디자인 컨투어들 비교 단계에서 비교될 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 렌더링된 컨투어들(706) 및 추출된 컨투어들(714)은, 디자인으로부터 렌더링된 컨투어들이 이미지로부터 추출된 컨투어들과 비교되는, 디자인 및 이미지 컨투어들 비교 단계(716)에 입력될 수 있다. 하나 이상의 측정 알고리즘이 이어서 잠재적인 핫 스폿들의 위치들에서 CD 측정들을 수행하는 데 사용될 수 있다. 예를 들어, 이미지 전체에 걸쳐 CD들을 측정하기 위해 예측된 컨투어를 추출된 컨투어와 비교하기 위해 디자인 컨투어 렌더링 모듈과 SEM 컨투어 추출 모듈이 결합될 수 있다.
일부 경우들에서, 오버레이(718)에 의해 도시된 바와 같이 시뮬레이션된 컨투어들을 추출된 컨투어들로 오버레이하는 것에 의해 시뮬레이션된 컨투어들이 추출된 컨투어들과 비교될 수 있다. 시뮬레이션된 컨투어들과 추출된 컨투어들은 본 명세서에 설명된 바와 같이(예컨대, 본 명세서에 설명된 정렬 단계들을 통해) 오버레이될 수 있다. 시뮬레이션된 컨투어들과 추출된 컨투어들의 오버레이는 컨투어들 사이의 차이들의 측정들을 수행하는데 사용될 수 있다. 예를 들어, 오버레이의 부분(718a)에 의해 도시된 바와 같이, 시뮬레이션된 및 추출된 컨투어들의 부분들이 이 부분에서 서로 이격되어 있다. 그에 추가하여, 오버레이의 부분(718b)에 의해 도시된 바와 같이, 다른 시뮬레이션된 및 추출된 컨투어들의 부분들이 서로 이격되어 있다. 서로 상이한 시뮬레이션된 및 추출된 컨투어들의 부분들은 참조 번호(720)로 도시되어 있다.
일부 경우들에서, 비-오버랩하는 컨투어들(즉, 패턴 편차들)을 사용자-정의 문턱치와 비교하고 사용자-정의 문턱치를 초과하는 임의의 편차들을 플래깅하는 것에 의해 부분들(718a 및 718b)이 식별될 수 있다. 이러한 방식으로, 유의미한 비-공칭 패턴 편차들(significant non-nominal pattern deviations)이 식별되고 이어서 측정될 수 있다. 컨투어들의 이격된 비-오버랩하는 부분들 사이의 픽셀들의 수를 결정하는 것에 의해 시뮬레이션된 및 추출된 컨투어들의 이러한 비-오버랩하는 부분들의 위치들에서 측정들이 수행될 수 있다. (이미지들을 생성하는 데 사용된 이미징 서브시스템의 파라미터들로부터 결정된) 이미지들 내의 픽셀 사이즈에 기초하여, 비-오버랩하는 컨투어들 사이의 거리가 결정되어, 그에 의해 2개의 컨투어 사이의 거리의 척도 또는 측정치를 제공할 수 있다.
컨투어 비교 결과들에서, 예상된 컨투어들과 추출된 컨투어들 사이의 상이한 유클리드 거리들이 상이한 컬러들로 마킹될 수 있다. 예를 들어, 3개 초과의 픽셀만큼 상이한 예상된 컨투어들 및 추출된 컨투어들은 하나의 컬러로 마킹될 수 있고, 2개 초과의 픽셀만큼 상이한 예상된 컨투어들 및 추출된 컨투어들은 상이한 컬러로 마킹될 수 있다. 이 단계들 각각은 본 명세서에 추가로 설명되는 바와 같이 수행될 수 있다.
따라서, 위에서 설명된 실시예들은 다수의 장점들을 갖는다. 예를 들어, 위에서 설명된 실시예들은 패턴 충실도가 특성화되는 것을 강건하게 그리고 일반적으로 가능하게 해주기 위한 능력을 입증하였다. 유클리드 거리의 이진화는 상이한 레벨들에서 모니터링하는 유연성을 가능하게 해준다. 아마도 초기 연구 개발 페이즈들에서, 이 이진화는 느슨할 수 있고 고 가치 생산 페이즈(high value production phase) 동안 엄격해질 수 있다.
일부 실시예들에서, 하나 이상의 컴퓨터 서브시스템은 시편 상의 상이한 다이들에 형성된 동일한 패턴들에 대한 실제 컨투어들이 서로 비교되는 추가의 비교 단계를 수행하고 추가의 비교 단계의 결과들에 기초하여 동일한 패턴들 내의 결함들을 검출하도록 구성된다. 예를 들어, 본 명세서에 설명된 실시예들의 하나의 장점은 다이-투-다이 모드 또는 다이-투-디자인(die-to-design) 모드에서 사용될 수 있다는 것이다. 하나의 그러한 예에서, 디자인 렌더링된 컨투어들을 이미지 추출된 컨투어들과 비교하는 것은 본질적으로 컨투어 비교를 위한 다이-투-디자인 모드인데, 그 이유는 시편의 이미지로부터의 컨투어들이 디자인으로부터 렌더링된 컨투어들과 비교되기 때문이다. 그에 추가하여 또는 대안적으로, 본 명세서에 설명된 실시예들은 디자인의 동일한 부분들(예컨대, 동일한 다이 내 위치들, 동일한 레티클 내 위치들 등)에 대응하는 시편 상의 상이한 위치들로부터 생성된 상이한 이미지들로부터 추출된 컨투어들을 비교하도록 구성될 수 있다. 이러한 방식으로, 시편의 하나의 이미지로부터 추출된 컨투어들은 시편의 다른 이미지로부터 추출된 컨투어들과 비교될 수 있으며, 여기서 비교되는 컨투어들 전부는 본 명세서에 설명된 바와 같은 학습 기반 모델을 사용하여 추출된다. 상이한 유형들의 결함들을 검출하기 위해 그리고/또는 결함들에 관한 추가 정보를 결정하기 위해 동일한 시편에 대해 상이한 비교들이 또한 수행될 수 있다. 이러한 방식으로, 시편에 대한 다이-투-다이 모드 및 다이-투-디자인 모드에서 수행된 결함 검출의 결과들이 결합되어 시편에 대한 검사 결과들의 단일 세트를 생성할 수 있다.
일 실시예에서, 하나 이상의 컴퓨터 서브시스템은 검출된 결함들을 분류하도록 구성된다. 하나 이상의 컴퓨터 서브시스템은 본 기술분야에 공지된 임의의 적합한 분류 알고리즘 및/또는 방법을 사용하여 검출된 결함들을 분류하도록 구성될 수 있다. 다른 실시예에서, 하나 이상의 컴퓨터 서브시스템은 추가의 학습 기반 모델을 사용하여 검출된 결함들을 분류하도록 구성된다. 예를 들어, 본 명세서에 설명된 실시예들의 장점은 검출된 이벤트들의 출력이 사용자가 원하는 대로 검출된 이벤트들을 분류할 수 있는 분류 네트워크로 송신될 수 있다는 것이다. 시편 상에서 검출된 결함들은, 마치 본 명세서에 완전히 기재된 것처럼 참고로 포함되는, 참고 문헌들, 공보들, 및 특허 출원들에 설명된 학습 기반 모델들 중 임의의 것을 사용하여 분류될 수 있다.
본 명세서에 설명된 실시예들은 본 명세서에 추가로 설명된 것들에 추가하여 다수의 장점들을 제공한다. 예를 들어, 실시예들은 엔드-투-엔드 학습 기반 알고리즘들을 사용하여 1 픽셀 정확도 내에서 패턴 특성화 및 정량화를 제공한다. 그에 추가하여, 본 명세서에 설명된 실시예들은 하나의 픽셀의 정확도까지의 패턴 특성화, 정량화, 및 핫 스폿 발견을 위한 데이터 기반(data driven) 및 학습 기반(learning based) 방법들을 제공하고 OPC 에러들에 강건하다. 이것은 계측 및 검사에 대한 점점 더 중요한 요구사항이다.
본 명세서에 설명된 실시예들은 현재 사용되는 방법들에 의해 요구되는 다양한 패턴 유형들에 대한 임의의 휴리스틱 및/또는 수작업 제작된 알고리즘들을 또한 요구하지 않는다. 예를 들어, 본 명세서에 설명된 딥 러닝에 기초한 이미지 컨투어 추출은 비-딥 러닝(non-deep learning) 기반 컨투어 추출 알고리즘들에 비해 훨씬 더 강건하다. 특히, 딥 러닝은 트레이닝 예제들에서 제공되는 실측 자료 컨투어에 기초하여 (강건하지 않을 수 있는 수작업 제작된 특정들을 제시하는 대신에) 강건한 특징들을 자동으로 학습한다. 그에 추가하여, 본 명세서에 설명된 실시예들은, 에지 픽셀들이 항상 연결되는 것은 아니라는 것, 파라미터들의 주의깊은 수작업 트위킹(hand tweaking)을 요구한다는 것, 및 코너들 및 접합부들(junctions)에서 강건하지 않다는 것을 포함한, 현재 사용되는 방법들 및 시스템들의 과제들을 갖지 않는다.
게다가, 본 명세서에 설명된 실시예들은 강건하고 다양한 패턴 유형들, 패턴 밀도, 층 유형들(메모리 또는 로직) 및 이미지 모달리티들(예컨대, 광학, SEM, x-레이 등)로 일반화되는 알고리즘들을 사용한다. 예를 들어, 일부 실시예들이 SEM 이미지들과 관련하여 본 명세서에서 설명되지만, 실시예들은 전자 빔 이외의 이미지 모달리티들(즉, 광학, x-선 등)에 적용될 수 있다. 따라서 본 명세서에 설명된 실시예들은 많은 계측, 검사, 및 다른 툴 플랫폼들에 광범위하게 적용가능하다. 더욱이, 본 명세서에 설명된 실시예들은 동일하거나 또는 어쩌면 보다 나은 결과들을 산출할 수 있는 이미지 컨투어 추출 및 디자인 렌더링 둘 다를 위한 대안의 네트워크 토폴로지들을 이용할 수 있다.
본 명세서에 설명된 시스템의 실시예들 각각은 또한, 본 명세서에 설명된 바와 같이 구성될 수 있다(예컨대, 하나 초과의 실시예가 하나의 단일 실시예로 함께 결합될 수 있다).
다른 실시예는 시편 상에 형성된 패턴들 내의 결함들을 검출하기 위한 컴퓨터-구현 방법에 관한 것이다. 이 방법은 하나 이상의 컴퓨터 서브시스템을 이용하여 이미징 서브시스템에 의해 시편 상에 형성된 패턴들의 이미지들을 취득하는 단계를 포함한다. 이미징 서브시스템은 본 명세서에 추가로 설명되는 바와 같이 구성된다. 이 방법은 하나 이상의 컴퓨터 서브시스템에 의해 제1 학습 기반 모델에 입력된 시편에 대한 디자인에 기초하여 패턴들에 대한 시뮬레이션된 컨투어들을 생성하는 단계를 또한 포함한다. 시뮬레이션된 컨투어들은 이미징 서브시스템에 의해 생성된 시편의 이미지들 내의 패턴들의 무결함 버전의 예상된 컨투어들이다. 그에 추가하여, 이 방법은 하나 이상의 컴퓨터 서브시스템에 의해 제2 학습 기반 모델에 입력된 시편 상에 형성된 패턴들의 취득된 이미지들 중 적어도 하나의 이미지 내의 패턴들에 대한 실제 컨투어들을 생성하는 단계를 포함한다. 하나 이상의 컴포넌트는 하나 이상의 컴퓨터 서브시스템에 의해 실행된다. 하나 이상의 컴포넌트는 제1 및 제2 학습 기반 모델들을 포함한다. 하나 이상의 컴퓨터 서브시스템 및 하나 이상의 컴포넌트는 또한, 본 명세서에 설명된 바와 같이 구성된다. 이 방법은 실제 컨투어들을 시뮬레이션된 컨투어들과 비교하고 비교의 결과들에 기초하여 시편 상에 형성된 패턴들 내의 결함들을 검출하는 단계를 추가로 포함한다.
방법의 단계들 각각은 본 명세서에 추가로 기술되는 바와 같이 수행될 수 있다. 방법은 본 명세서에 설명된 이미징 서브시스템, 컴퓨터 서브시스템(들), 컴포넌트(들), 시스템(들) 등에 의해 수행될 수 있는 임의의 다른 단계(들)를 또한 포함할 수 있다. 방법의 단계들은 다양한 컴포넌트들(예컨대, 제1 및 제2 학습 기반 모델들) 및/또는 본 명세서에서 추가로 설명되는 바와 같고 본 명세서에 설명된 실시예들 중 임의의 것에 따라 구성될 수 있는 하나 이상의 컴퓨터 서브시스템들에 의해 수행된다. 그에 추가하여, 위에서 설명된 방법은 본 명세서에 설명된 시스템 실시예들 중 임의의 것에 의해 수행될 수 있다.
추가의 실시예는 시편 상에 형성된 패턴들 내의 결함들을 검출하기 위한 컴퓨터-구현 방법을 수행하기 위해 하나 이상의 컴퓨터 서브시스템 상에서 실행가능한 프로그램 명령어들을 저장한 비일시적 컴퓨터 판독가능 매체에 관한 것이다. 하나의 그러한 실시예는 도 8에 도시되어 있다. 특히, 도 8에 도시된 바와 같이, 비일시적 컴퓨터 판독가능 매체(800)는 컴퓨터 서브시스템(들)(804) 상에서 실행가능한 프로그램 명령어들(802)을 포함한다. 컴퓨터-구현 방법은 본 명세서에 설명된 임의의 방법(들)의 임의의 단계(들)를 포함할 수 있다.
본 명세서에 설명된 것들과 같은 방법들을 구현하는 프로그램 명령어들(802)은 컴퓨터 판독가능 매체(800) 상에 저장될 수 있다. 컴퓨터 판독가능 매체는 자기 또는 광학 디스크, 자기 테이프, 또는 본 기술분야에 공지된 임의의 다른 적합한 비일시적 컴퓨터 판독가능 매체와 같은 저장 매체일 수 있다.
프로그램 명령어들은, 그 중에서도, 프로시저 기반 기술들, 컴포넌트 기반 기술들, 및/또는 객체 지향 기술들을 포함한, 다양한 방식들 중 임의의 것으로 구현될 수 있다. 예를 들어, 프로그램 명령어들은, 원하는 바에 따라, ActiveX 컨트롤들, C++ 객체들, JavaBeans, "MFC"(Microsoft Foundation Classes), SSE(Streaming SIMD Extension), 또는 다른 기술들 또는 방법론들을 사용하여 구현할 수 있다.
컴퓨터 서브시스템(들)(804)이 본 명세서에 설명된 실시예들 중 임의의 것에 따라 구성될 수 있다.
본 명세서에 설명된 방법들 전부는 방법 실시예들의 하나 이상의 단계의 결과들을 컴퓨터 판독가능 저장 매체에 저장하는 단계를 포함할 수 있다. 결과들은 본 명세서에 설명된 결과들 중 임의의 것을 포함할 수 있고 본 기술분야에 공지된 임의의 방식으로 저장될 수 있다. 저장 매체는 본 명세서에 설명된 임의의 저장 매체 또는 본 기술분야에 공지된 임의의 다른 적합한 저장 매체를 포함할 수 있다. 결과들이 저장된 후에, 결과들은 저장 매체에서 액세스되어 본 명세서에 설명된 방법 또는 시스템 실시예들 중 임의의 것에 의해 사용되고, 사용자에게 디스플레이하기 위해 포맷팅되며, 다른 소프트웨어 모듈, 방법 또는 시스템 등에 의해 사용될 수 있다. 예를 들어, 패턴들 내에서 검출된 결함들은 시편 상에 패턴들을 형성하는 데 사용된 제조 프로세스를 제어 및/또는 변경하여, 그에 의해 제조 프로세스를 정정하고 그러한 패턴 결함들이 다른 시편들 상에서 발생하는 것을 방지하는 데 사용될 수 있다. 그러한 일 예에서, 패턴들 내에서 검출된 결함들에 대한 정보는 제조 프로세스가 어떻게 변경되어야 하는지를 결정하기 위해 본 명세서에 설명된 하나 이상의 컴퓨터 서브시스템, 다른 시스템(예컨대, 제조 시스템), 또는 다른 방법(예컨대, 제조 방법)에 의해 사용될 수 있다. 제조 프로세스가 어떻게 변경되어야 하는지를 결정하는 것은 프로세스가 수행되어야 하는 구역, 프로세스가 수행되어야 하는 시간 길이, 어느 화학물들(chemicals) 또는 가스들이 프로세스에서 사용되어야 하는지와 같은 그러한 프로세스의 하나 이상의 파라미터를 결정하는 것을 포함할 수 있다. 이러한 방식으로, 변경된 프로세스는 제조 프로세스에서 다른 시편들 상에 패턴들을 인쇄하는 데 사용될 수 있다. 변경된 제조 프로세스가 적절하게 정정되었는지(즉, 변경된 제조 프로세스가 시편들 상에 패턴 결함들을 인쇄하지 않았는지) 및/또는 추가의 정정이 필요한지를 결정하기 위해, 변경된 제조 프로세스를 사용하여 패터닝된 시편들이 본 명세서에 추가로 설명된 바와 같이 검사될 수 있다.
본 발명의 다양한 양태들의 추가의 수정들 및 대안의 실시예들이 이 설명을 고려하면 본 기술분야의 통상의 기술자에게 명백할 것이다. 예를 들어, 시편 상에 형성된 패턴들 내의 결함들을 검출하기 위한 방법들 및 시스템들이 제공된다. 그에 따라, 이 설명은 단지 예시적인 것으로 해석되어야 하며 본 기술분야의 통상의 기술자에게 본 발명을 수행하는 일반적인 방식을 교시하기 위한 것이다. 본 명세서에 도시되고 설명된 본 발명의 형태들이 현재 바람직한 실시예들로서 취해져야 한다는 것이 이해되어야 한다. 본 발명의 이 설명의 이점을 가진 후에 모두가 본 기술분야의 통상의 기술자에게 명백할 것인 바와 같이, 요소들 및 재료들이 본 명세서에 예시되고 설명된 것들을 대체할 수 있고, 부분들 및 프로세스들이 역전될 수 있으며, 본 발명의 특정한 특징들은 독립적으로 이용될 수 있다. 이하의 청구 범위에 설명된 바와 같은 본 발명의 사상 및 범위를 벗어나지 않으면서 본 명세서에 설명된 요소들에 변경들이 이루어질 수 있다.

Claims (28)

  1. 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템으로서,
    적어도 에너지 소스 및 검출기를 포함하는 이미징 서브시스템 - 상기 에너지 소스는, 시편 쪽으로 지향되는 에너지를 생성하도록 구성되고, 상기 검출기는, 상기 시편으로부터의 에너지를 검출하고 상기 검출된 에너지에 응답하여 이미지를 생성하도록 구성됨 - ;
    상기 시편 상에 형성되는 패턴의 이미지를 취득하도록 구성되는 하나 이상의 컴퓨터 서브시스템; 및
    상기 하나 이상의 컴퓨터 서브시스템에 의해 실행되는 하나 이상의 컴포넌트 - 상기 하나 이상의 컴포넌트는 제1 학습 기반 모델 및 제2 학습 기반 모델을 포함하고, 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델은 딥 러닝(deep learning) 기반 모델이고, 상기 제1 학습 기반 모델은, 상기 하나 이상의 컴퓨터 서브시스템에 의해 상기 제1 학습 기반 모델에 입력되는 상기 시편에 대한 디자인에 기초하여 상기 패턴에 대한 시뮬레이션된 컨투어(simulated contour)를 생성하도록 구성되고, 상기 시뮬레이션된 컨투어는, 상기 이미징 서브시스템에 의해 생성되는 상기 시편의 이미지 내의 패턴의 무결함 버전의 예상되는 컨투어이고, 상기 제2 학습 기반 모델은, 상기 하나 이상의 컴퓨터 서브시스템에 의해 상기 제2 학습 기반 모델에 입력되는 상기 시편 상에 형성되는 패턴의 상기 취득된 이미지 중 적어도 하나의 이미지 내의 패턴에 대한 실제 컨투어(actual contour)를 생성하도록 구성됨 - 를 포함하며;
    상기 하나 이상의 컴퓨터 서브시스템은 또한,
    상기 실제 컨투어를 상기 시뮬레이션된 컨투어에 비교하고;
    상기 비교의 결과에 기초하여, 상기 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되며,
    상기 하나 이상의 컴퓨터 서브시스템은 또한, 실측 자료 방법(ground truth method)으로, 적어도 하나의 트레이닝 시편에 대한 적어도 하나의 트레이닝 디자인의 상이한 부분 및 상기 적어도 하나의 트레이닝 시편의 트레이닝 이미지로부터 추출되는 대응하는 컨투어 정보를 포함하는 트레이닝 데이터 세트를 사용하여 상기 제1 학습 기반 모델을 트레이닝하도록 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  2. 제1항에 있어서, 상기 비교의 결과는, 상기 실제 컨투어와 상기 시뮬레이션된 컨투어 사이의 차이에 기초하여 결정되는, 상기 디자인 내의 패턴 중 제1 패턴의 치수와 상기 시편 상에 형성되는 패턴의 상기 취득된 이미지 중 적어도 하나의 이미지 내의 패턴 중 제1 패턴의 치수 사이의 정량적 차이를 포함하고, 상기 결함을 검출하는 것은, 상기 치수 사이의 정량적 차이에 문턱치를 적용하는 것을 포함하는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  3. 제1항에 있어서, 상기 비교의 결과는, 상기 취득된 이미지 중 적어도 하나의 이미지 내의 패턴 각각의 픽셀 각각에 대한 상기 실제 컨투어와 상기 시뮬레이션된 컨투어 사이의 정량적 차이를 포함하는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  4. 제1항에 있어서, 상기 하나 이상의 컴퓨터 서브시스템은 또한, 상기 검출된 결함에 기초하여 상기 디자인 내의 핫 스폿을 검출하도록 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  5. 제1항에 있어서, 상기 제1 학습 기반 모델에 입력되는 상기 디자인은, 상기 시편 상에 인쇄되지 않을 상기 디자인의 피처를 포함하지 않는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  6. 제1항에 있어서, 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델은, 상이한 패턴 유형에 적응가능한, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  7. 제1항에 있어서, 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델은, 상이한 패턴 밀도에 적응가능한, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  8. 제1항에 있어서, 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델은, 상이한 레이어 유형 내의 패턴에 적응가능한, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  9. 제1항에 있어서, 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델은, 하나 이상의 상이한 이미징 파라미터를 이용하여 상기 이미징 서브시스템에 의해 생성되는 이미지에 적응가능한, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  10. 삭제
  11. 제1항에 있어서, 상기 하나 이상의 컴퓨터 서브시스템은 또한, 실측 자료 방법으로, 적어도 하나의 트레이닝 디자인이 형성된 적어도 하나의 트레이닝 시편에 대해 상기 이미징 서브시스템에 의해 생성되는 상이한 트레이닝 이미지 및 상기 상이한 트레이닝 이미지로부터 추출되는 대응하는 컨투어 정보를 포함하는 트레이닝 데이터 세트를 사용하여 상기 제2 학습 기반 모델을 트레이닝하도록 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  12. 제1항에 있어서, 상기 제2 학습 기반 모델은 VGG 네트워크 아키텍처를 갖는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  13. 제1항에 있어서, 상기 제2 학습 기반 모델은 또한, HED 모델(holistically-nested edge detection model)로서 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  14. 제1항에 있어서, 상기 제1 학습 기반 모델은 또한, 컨볼루션 신경 네트워크(convolutional neural network)로서 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  15. 제1항에 있어서, 상기 제1 학습 기반 모델은 또한, 변분 오토인코더(variational auto-encoder)를 사용하는 딥 생성 모델(deep generative model)로서 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  16. 제1항에 있어서, 상기 하나 이상의 컴퓨터 서브시스템은 또한, 상기 시편 상의 상이한 다이 내에 형성되는 동일한 패턴에 대한 실제 컨투어가 서로 비교되는 추가적인 비교 단계를 수행하고 상기 추가적인 비교 단계의 결과에 기초하여 상기 동일한 패턴 내의 결함을 검출하도록 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  17. 제1항에 있어서, 상기 하나 이상의 컴퓨터 서브시스템은 또한, 상기 검출된 결함을 분류하도록 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  18. 제1항에 있어서, 상기 하나 이상의 컴퓨터 서브시스템은 또한, 추가적인 학습 기반 모델을 사용하여, 상기 검출된 결함을 분류하도록 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  19. 제1항에 있어서, 상기 시스템은 또한, 계측 툴(metrology tool)로서 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  20. 제1항에 있어서, 상기 시스템은 또한, 검사 툴로서 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  21. 제1항에 있어서, 상기 시스템은 또한, 결함 검토 툴(defect review tool)로서 구성되는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  22. 제1항에 있어서, 상기 시편은 웨이퍼를 포함하는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  23. 제1항에 있어서, 상기 시편은 레티클을 포함하는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  24. 제1항에 있어서, 상기 시편 쪽으로 지향되는 에너지는 광을 포함하고, 상기 시편으로부터 검출되는 에너지는 광을 포함하는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  25. 제1항에 있어서, 상기 시편 쪽으로 지향되는 에너지는 전자를 포함하고, 상기 시편으로부터 검출되는 에너지는 전자를 포함하는, 시편 상에 형성되는 패턴 내의 결함을 검출하도록 구성되는 시스템.
  26. 시편 상에 형성되는 패턴 내의 결함을 검출하기 위한 컴퓨터-구현 방법(computer-implemented method)을 수행하기 위해 하나 이상의 컴퓨터 서브시스템 상에서 실행가능한 프로그램 명령어를 저장한 비일시적 컴퓨터 판독가능 매체로서, 상기 컴퓨터-구현 방법은,
    상기 하나 이상의 컴퓨터 서브시스템을 이용하여, 이미징 서브시스템에 의해 생성되는 시편 상에 형성되는 패턴의 이미지를 취득하는 단계 - 상기 이미징 서브시스템은 적어도 에너지 소스 및 검출기를 포함하고, 상기 에너지 소스는, 상기 시편 쪽으로 지향되는 에너지를 생성하도록 구성되고, 상기 검출기는, 상기 시편으로부터의 에너지를 검출하고 상기 검출된 에너지에 응답하여 이미지를 생성하도록 구성됨 - ;
    상기 하나 이상의 컴퓨터 서브시스템에 의해 제1 학습 기반 모델에 입력되는 상기 시편에 대한 디자인에 기초하여 상기 패턴에 대한 시뮬레이션된 컨투어를 생성하는 단계 - 상기 시뮬레이션된 컨투어는, 상기 이미징 서브시스템에 의해 생성되는 상기 시편의 이미지 내의 패턴의 무결함 버전의 예상되는 컨투어임 - ;
    상기 하나 이상의 컴퓨터 서브시스템에 의해 제2 학습 기반 모델에 입력되는 상기 시편 상에 형성되는 패턴의 상기 취득된 이미지 중 적어도 하나의 이미지 내의 패턴에 대한 실제 컨투어를 생성하는 단계 - 상기 하나 이상의 컴퓨터 서브시스템에 의해 하나 이상의 컴포넌트가 실행되고, 상기 하나 이상의 컴포넌트는 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델을 포함하고, 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델은 딥 러닝 기반 모델임 - ;
    상기 실제 컨투어를 상기 시뮬레이션된 컨투어에 비교하는 단계; 및
    상기 비교의 결과에 기초하여, 상기 시편 상에 형성되는 패턴 내의 결함을 검출하는 단계를 포함하고,
    상기 컴퓨터-구현 방법은,
    상기 하나 이상의 컴퓨터 서브시스템을 사용하여, 실측 자료 방법(ground truth method)으로, 적어도 하나의 트레이닝 시편에 대한 적어도 하나의 트레이닝 디자인의 상이한 부분 및 상기 적어도 하나의 트레이닝 시편의 트레이닝 이미지로부터 추출되는 대응하는 컨투어 정보를 포함하는 트레이닝 데이터 세트를 사용하여 상기 제1 학습 기반 모델을 트레이닝하는 단계를 더 포함하는, 비일시적 컴퓨터 판독가능 매체.
  27. 시편 상에 형성되는 패턴 내의 결함을 검출하기 위한 컴퓨터-구현 방법으로서,
    하나 이상의 컴퓨터 서브시스템을 이용하여, 이미징 서브시스템에 의해 생성되는 시편 상에 형성되는 패턴의 이미지를 취득하는 단계 - 상기 이미징 서브시스템은 적어도 에너지 소스 및 검출기를 포함하고, 상기 에너지 소스는, 상기 시편 쪽으로 지향되는 에너지를 생성하도록 구성되고, 상기 검출기는, 상기 시편으로부터의 에너지를 검출하고 상기 검출된 에너지에 응답하여 이미지를 생성하도록 구성됨 - ;
    상기 하나 이상의 컴퓨터 서브시스템에 의해 제1 학습 기반 모델에 입력되는 상기 시편에 대한 디자인에 기초하여 상기 패턴에 대한 시뮬레이션된 컨투어를 생성하는 단계 - 상기 시뮬레이션된 컨투어는, 상기 이미징 서브시스템에 의해 생성되는 상기 시편의 이미지 내의 패턴의 무결함 버전의 예상되는 컨투어임 - ;
    상기 하나 이상의 컴퓨터 서브시스템에 의해 제2 학습 기반 모델에 입력되는 상기 시편 상에 형성되는 패턴의 상기 취득된 이미지 중 적어도 하나의 이미지 내의 패턴에 대한 실제 컨투어를 생성하는 단계 - 상기 하나 이상의 컴퓨터 서브시스템에 의해 하나 이상의 컴포넌트가 실행되고, 상기 하나 이상의 컴포넌트는 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델을 포함하고, 상기 제1 학습 기반 모델 및 상기 제2 학습 기반 모델은 딥 러닝 기반 모델임 - ;
    상기 실제 컨투어를 상기 시뮬레이션된 컨투어에 비교하는 단계; 및
    상기 비교의 결과에 기초하여, 상기 시편 상에 형성되는 패턴 내의 결함을 검출하는 단계를 포함하고,
    상기 컴퓨터-구현 방법은,
    상기 하나 이상의 컴퓨터 서브시스템을 사용하여, 실측 자료 방법(ground truth method)으로, 적어도 하나의 트레이닝 시편에 대한 적어도 하나의 트레이닝 디자인의 상이한 부분 및 상기 적어도 하나의 트레이닝 시편의 트레이닝 이미지로부터 추출되는 대응하는 컨투어 정보를 포함하는 트레이닝 데이터 세트를 사용하여 상기 제1 학습 기반 모델을 트레이닝하는 단계를 더 포함하는, 컴퓨터-구현 방법.
  28. 삭제
KR1020197033064A 2017-04-07 2018-03-30 컨투어 기반 결함 검출 KR102352697B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762483223P 2017-04-07 2017-04-07
US62/483,223 2017-04-07
US15/896,060 US10395362B2 (en) 2017-04-07 2018-02-14 Contour based defect detection
US15/896,060 2018-02-14
PCT/US2018/025307 WO2018187170A1 (en) 2017-04-07 2018-03-30 Contour based defect detection

Publications (2)

Publication Number Publication Date
KR20190128745A KR20190128745A (ko) 2019-11-18
KR102352697B1 true KR102352697B1 (ko) 2022-01-17

Family

ID=63709949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197033064A KR102352697B1 (ko) 2017-04-07 2018-03-30 컨투어 기반 결함 검출

Country Status (5)

Country Link
US (1) US10395362B2 (ko)
KR (1) KR102352697B1 (ko)
CN (1) CN110494894B (ko)
TW (1) TWI735774B (ko)
WO (1) WO2018187170A1 (ko)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11062174B2 (en) * 2017-02-28 2021-07-13 Nec Solution Innovators, Ltd. Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium
JP2019020292A (ja) * 2017-07-19 2019-02-07 株式会社ニューフレアテクノロジー パターン検査装置及びパターン検査方法
US11022966B1 (en) * 2017-12-15 2021-06-01 Synopsys, Inc. Method of modeling e-beam photomask manufacturing process using image-based artificial neural networks
JP7087397B2 (ja) 2018-01-17 2022-06-21 東京エレクトロン株式会社 基板の欠陥検査装置、基板の欠陥検査方法及び記憶媒体
US11151449B2 (en) * 2018-01-24 2021-10-19 International Business Machines Corporation Adaptation of a trained neural network
US11461996B2 (en) * 2018-03-05 2022-10-04 Omron Corporation Method, apparatus and system for determining feature data of image data, and storage medium
US10679333B2 (en) 2018-03-14 2020-06-09 Kla-Tencor Corporation Defect detection, classification, and process window control using scanning electron microscope metrology
WO2019183153A1 (en) 2018-03-21 2019-09-26 Kla-Tencor Corporation Training a machine learning model with synthetic images
US10670536B2 (en) 2018-03-28 2020-06-02 Kla-Tencor Corp. Mode selection for inspection
WO2019190566A1 (en) * 2018-03-30 2019-10-03 Intel Corporation Multilayer optical proximity correction (opc) model for opc correction
JP6675433B2 (ja) * 2018-04-25 2020-04-01 信越化学工業株式会社 欠陥分類方法、フォトマスクブランクの選別方法、およびマスクブランクの製造方法
US10621301B2 (en) * 2018-06-06 2020-04-14 International Business Machines Corporation Coordinates-based variational autoencoder for generating synthetic via layout patterns
JP7144244B2 (ja) * 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム
CN109543740B (zh) * 2018-11-14 2022-07-15 哈尔滨工程大学 一种基于生成对抗网络的目标检测方法
US10672588B1 (en) * 2018-11-15 2020-06-02 Kla-Tencor Corporation Using deep learning based defect detection and classification schemes for pixel level image quantification
CN109671084B (zh) * 2018-11-15 2023-05-30 华东交通大学 一种工件形状的测量方法
JP7119949B2 (ja) * 2018-11-28 2022-08-17 セイコーエプソン株式会社 判定装置及び判定方法
US10957035B2 (en) * 2018-11-30 2021-03-23 Kla Corporation Defect classification by fitting optical signals to a point-spread function
KR20240038156A (ko) 2018-12-31 2024-03-22 에이에스엠엘 네델란즈 비.브이. E-빔 이미지 향상을 위한 완전 자동화 sem 샘플링 시스템
US10957034B2 (en) * 2019-01-17 2021-03-23 Applied Materials Israel Ltd. Method of examination of a specimen and system thereof
CN109801375B (zh) * 2019-01-24 2021-02-09 电子科技大学 基于深度卷积对抗神经网络的多孔质材料三维重构方法
US10922808B2 (en) 2019-02-14 2021-02-16 KLA—Tencor Corp. File selection for test image to design alignment
US11263496B2 (en) * 2019-02-25 2022-03-01 D2S, Inc. Methods and systems to classify features in electronic designs
US11182929B2 (en) 2019-02-25 2021-11-23 Center For Deep Learning In Electronics Manufacturing, Inc. Methods and systems for compressing shape data for electronic designs
EP3705962A1 (de) * 2019-03-07 2020-09-09 Siemens Aktiengesellschaft Verfahren und system zur qualitätskontrolle in der industriellen fertigung
US11480868B2 (en) 2019-03-22 2022-10-25 International Business Machines Corporation Determination of optical roughness in EUV structures
CN109900711A (zh) * 2019-04-02 2019-06-18 天津工业大学 基于机器视觉的工件缺陷检测方法
JP2020183876A (ja) * 2019-04-26 2020-11-12 株式会社前川製作所 特徴点認識システムおよびワーク処理システム
KR20200137219A (ko) * 2019-05-29 2020-12-09 삼성에스디에스 주식회사 비지도 학습 기반 웨이퍼 불량 패턴 검출 방법 및 그 장치
US11619592B2 (en) 2019-07-09 2023-04-04 KLA Corp. Selecting defect detection methods for inspection of a specimen
US11430118B2 (en) 2019-07-12 2022-08-30 Bruker Nano, Inc. Methods and systems for process control based on X-ray inspection
US20210010953A1 (en) * 2019-07-12 2021-01-14 SVXR, Inc. Methods and Systems for Defects Detection and Classification Using X-rays
US11651492B2 (en) * 2019-07-12 2023-05-16 Bruker Nano, Inc. Methods and systems for manufacturing printed circuit board based on x-ray inspection
US11688067B2 (en) 2019-07-12 2023-06-27 Bruker Nano, Inc. Methods and systems for detecting defects in devices using X-rays
US11042981B2 (en) 2019-07-12 2021-06-22 SVXR, Inc. Methods and systems for printed circuit board design based on automatic corrections
US11615533B2 (en) 2019-07-12 2023-03-28 Bruker Nano, Inc. Methods and systems for product failure prediction based on X-ray image re-examination
US11340060B2 (en) * 2019-07-23 2022-05-24 Kla Corporation Automatic recipe optimization for overlay metrology system
CN110473179B (zh) * 2019-07-30 2022-03-25 上海深视信息科技有限公司 一种基于深度学习的薄膜表面缺陷检测方法、系统及设备
US10885683B1 (en) * 2019-08-07 2021-01-05 Adobe Inc. Detecting salient geometric constructs from raster representations of sketches
US20210073976A1 (en) * 2019-09-09 2021-03-11 Carl Zeiss Smt Gmbh Wafer inspection methods and systems
JP7383946B2 (ja) * 2019-09-12 2023-11-21 株式会社アイシン 画像復元装置、画像復元方法、画像復元プログラム、復元器生成装置、復元器生成方法、復元器生成プログラム、判定器生成装置、判定器生成方法、判定器生成プログラム、物品判定装置、物品判定方法、および物品判定プログラム
JP6896036B2 (ja) * 2019-09-30 2021-06-30 キヤノン株式会社 情報処理装置、判定方法、インプリント装置、リソグラフィシステム、物品の製造方法及びプログラム
US11580650B2 (en) 2019-10-01 2023-02-14 KLA Corp. Multi-imaging mode image alignment
US11087449B2 (en) 2019-10-24 2021-08-10 KLA Corp. Deep learning networks for nuisance filtering
CN111080622B (zh) * 2019-12-13 2023-11-07 熵智科技(深圳)有限公司 神经网络训练方法、工件表面缺陷分类与检测方法及装置
CN111076667B (zh) * 2019-12-23 2021-07-30 长春工程学院 一种金属表面划痕动态快速测量方法
CN111178424A (zh) * 2019-12-26 2020-05-19 中国石油大学(北京) 一种石油化工生产现场安全合规性实时检测系统及方法
US11449711B2 (en) * 2020-01-02 2022-09-20 Applied Materials Isreal Ltd. Machine learning-based defect detection of a specimen
US11256967B2 (en) * 2020-01-27 2022-02-22 Kla Corporation Characterization system and method with guided defect discovery
US11816411B2 (en) * 2020-01-29 2023-11-14 Taiwan Semiconductor Manufacturing Co., Ltd. Method and system for semiconductor wafer defect review
TWI750572B (zh) * 2020-01-30 2021-12-21 虹光精密工業股份有限公司 運用機器學習進行文件分類的文件處理系統及方法
EP3893057A1 (en) * 2020-04-10 2021-10-13 ASML Netherlands B.V. Aligning a distorted image
US11301977B2 (en) * 2020-04-10 2022-04-12 General Electric Company Systems and methods for automatic defect recognition
US20210343001A1 (en) * 2020-04-30 2021-11-04 Kla Corporation Training a machine learning model to generate higher resolution images from inspection images
CN111583223B (zh) * 2020-05-07 2023-12-19 上海闻泰信息技术有限公司 缺陷检测方法、装置、计算机设备及计算机可读存储介质
TWI803756B (zh) * 2020-06-12 2023-06-01 英業達股份有限公司 標記影像的方法
CN111693534B (zh) * 2020-06-12 2023-09-15 北京百度网讯科技有限公司 表面缺陷的检测方法、模型训练方法、装置、设备和介质
CN115698690A (zh) * 2020-06-16 2023-02-03 株式会社日立高新技术 图像处理方法、形状检查方法、图像处理系统以及形状检查系统
CN111968095B (zh) * 2020-08-19 2022-08-02 成都数之联科技股份有限公司 一种产品表面缺陷检测方法及系统及装置及介质
US11810284B2 (en) * 2020-08-21 2023-11-07 Kla Corporation Unsupervised learning for repeater-defect detection
CN112102268A (zh) * 2020-09-01 2020-12-18 北京航空航天大学 一种基于机器学习打磨超薄掩膜版的智能化激光抛光模块
TWI761948B (zh) * 2020-09-14 2022-04-21 倍利科技股份有限公司 由檢測影像取得輪廓的定位方法
US11670072B2 (en) 2020-10-02 2023-06-06 Servicenow Canada Inc. Systems and computer-implemented methods for identifying anomalies in an object and training methods therefor
CN112508862B (zh) * 2020-11-19 2022-03-25 电子科技大学 一种通过改进gan增强裂纹磁光图像的方法
EP4001902A1 (en) * 2020-11-23 2022-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and system for simulating an optical image of a photonic and/or electronic device
JP2022084041A (ja) * 2020-11-26 2022-06-07 株式会社日立ハイテク 荷電粒子ビーム装置
CN112541205B (zh) * 2020-12-01 2022-12-30 泉芯集成电路制造(济南)有限公司 一种建模方法
CN112557402B (zh) * 2020-12-04 2023-03-14 北京天科合达半导体股份有限公司 一种位错检测系统
CN112580540A (zh) * 2020-12-23 2021-03-30 安徽高哲信息技术有限公司 一种人工智能农作物处理系统和方法
CA3206604A1 (en) * 2021-01-26 2022-08-04 Saeed BAKHSHMAND System and method for manufacturing quality control using automated visual inspection
US20220301133A1 (en) * 2021-03-16 2022-09-22 Kla Corporation Segmentation of design care areas with a rendered design image
CN113020428B (zh) * 2021-03-24 2022-06-28 北京理工大学 级进模的加工监控方法、装置、设备及存储介质
US11983865B2 (en) * 2021-05-05 2024-05-14 KLA Corp. Deep generative model-based alignment for semiconductor applications
CN113298837B (zh) * 2021-07-27 2021-11-26 南昌工程学院 一种图像边缘提取方法、装置、存储介质及设备
CN113592828B (zh) * 2021-08-03 2023-06-30 南京市特种设备安全监督检验研究院 基于工业内窥镜的无损检测方法及系统
US11961221B2 (en) * 2021-10-07 2024-04-16 Applied Materials Israel Ltd. Defect examination on a semiconductor specimen
CN114235831B (zh) * 2022-02-28 2022-08-23 广东省科学院智能制造研究所 一种基于图像检测的注塑工件的缩痕检测方法及装置
CN116452621B (zh) * 2023-03-10 2023-12-15 广州市易鸿智能装备有限公司 一种基于强化学习的理想轮廓生成算法、装置及存储介质
CN116071360A (zh) * 2023-03-10 2023-05-05 苏州振畅智能科技有限公司 一种工件外观缺陷检测方法、电子设备及存储介质
CN117723564B (zh) * 2024-02-18 2024-04-26 青岛华康塑料包装有限公司 基于图像传输的包装袋印刷质量检测方法及检测系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013053986A (ja) * 2011-09-06 2013-03-21 Hitachi High-Technologies Corp パターン検査方法及びその装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7570796B2 (en) 2005-11-18 2009-08-04 Kla-Tencor Technologies Corp. Methods and systems for utilizing design data in combination with inspection data
US7676077B2 (en) 2005-11-18 2010-03-09 Kla-Tencor Technologies Corp. Methods and systems for utilizing design data in combination with inspection data
JP4943304B2 (ja) * 2006-12-05 2012-05-30 株式会社 Ngr パターン検査装置および方法
US8611637B2 (en) 2007-01-11 2013-12-17 Kla-Tencor Corporation Wafer plane detection of lithographically significant contamination photomask defects
US8698093B1 (en) 2007-01-19 2014-04-15 Kla-Tencor Corporation Objective lens with deflector plates immersed in electrostatic lens field
US8611639B2 (en) 2007-07-30 2013-12-17 Kla-Tencor Technologies Corp Semiconductor device property extraction, generation, visualization, and monitoring methods
US8126255B2 (en) 2007-09-20 2012-02-28 Kla-Tencor Corp. Systems and methods for creating persistent data for a wafer and for using persistent data for inspection-related functions
JP5156452B2 (ja) * 2008-03-27 2013-03-06 東京エレクトロン株式会社 欠陥分類方法、プログラム、コンピュータ記憶媒体及び欠陥分類装置
US8664594B1 (en) 2011-04-18 2014-03-04 Kla-Tencor Corporation Electron-optical system for high-speed and high-sensitivity inspections
US8692204B2 (en) 2011-04-26 2014-04-08 Kla-Tencor Corporation Apparatus and methods for electron beam detection
US8716662B1 (en) 2012-07-16 2014-05-06 Kla-Tencor Corporation Methods and apparatus to review defects using scanning electron microscope with multiple electron beam configurations
JP5921990B2 (ja) * 2012-08-23 2016-05-24 株式会社ニューフレアテクノロジー 欠陥検出方法
US9222895B2 (en) 2013-02-25 2015-12-29 Kla-Tencor Corp. Generalized virtual inspector
US9478019B2 (en) * 2014-05-06 2016-10-25 Kla-Tencor Corp. Reticle inspection using near-field recovery
US9965901B2 (en) 2015-11-19 2018-05-08 KLA—Tencor Corp. Generating simulated images from design information
US9916965B2 (en) 2015-12-31 2018-03-13 Kla-Tencor Corp. Hybrid inspectors
US10648924B2 (en) 2016-01-04 2020-05-12 Kla-Tencor Corp. Generating high resolution images from low resolution images for semiconductor applications
US10043261B2 (en) 2016-01-11 2018-08-07 Kla-Tencor Corp. Generating simulated output for a specimen
US10360477B2 (en) 2016-01-11 2019-07-23 Kla-Tencor Corp. Accelerating semiconductor-related computations using learning based models
US10395356B2 (en) 2016-05-25 2019-08-27 Kla-Tencor Corp. Generating simulated images from input images for semiconductor applications

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013053986A (ja) * 2011-09-06 2013-03-21 Hitachi High-Technologies Corp パターン検査方法及びその装置

Also Published As

Publication number Publication date
KR20190128745A (ko) 2019-11-18
WO2018187170A1 (en) 2018-10-11
TW201903391A (zh) 2019-01-16
US10395362B2 (en) 2019-08-27
CN110494894B (zh) 2022-02-15
TWI735774B (zh) 2021-08-11
CN110494894A (zh) 2019-11-22
US20180293721A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
KR102352697B1 (ko) 컨투어 기반 결함 검출
KR102321953B1 (ko) 다양한 모댈리티들로 획득된 이미지들의 정렬을 위한 학습 기반 접근 방식
KR102408319B1 (ko) 시료에 대한 시뮬레이팅된 출력 생성
US10346740B2 (en) Systems and methods incorporating a neural network and a forward physical model for semiconductor applications
KR102460050B1 (ko) 하이브리드 검사기
KR102390313B1 (ko) 저 분해능 이미지에서의 결함 검출을 위한 신경 네트워크의 트레이닝
US10186026B2 (en) Single image detection
TWI747967B (zh) 用於經組態用於半導體應用之深度學習模型之診斷系統及方法
TWI751376B (zh) 識別在一晶圓上偵測到之缺陷中之損害及所關注缺陷
US10648924B2 (en) Generating high resolution images from low resolution images for semiconductor applications
CN108475350B (zh) 使用基于学习的模型加速半导体缺陷检测的方法和系统
US10181185B2 (en) Image based specimen process control
KR20180090385A (ko) 반도체 애플리케이션을 위한 기계 학습 기반의 모델의 가속 트레이닝
US11983865B2 (en) Deep generative model-based alignment for semiconductor applications
TW202206800A (zh) 深度學習為基礎之缺陷偵測

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant