KR20220079699A - 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들 - Google Patents

기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들 Download PDF

Info

Publication number
KR20220079699A
KR20220079699A KR1020227018451A KR20227018451A KR20220079699A KR 20220079699 A KR20220079699 A KR 20220079699A KR 1020227018451 A KR1020227018451 A KR 1020227018451A KR 20227018451 A KR20227018451 A KR 20227018451A KR 20220079699 A KR20220079699 A KR 20220079699A
Authority
KR
South Korea
Prior art keywords
optical proximity
proximity correction
data
machine learning
image
Prior art date
Application number
KR1020227018451A
Other languages
English (en)
Other versions
KR102550350B1 (ko
Inventor
징 수
옌-웬 루
아 루오
Original Assignee
에이에스엠엘 네델란즈 비.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이에스엠엘 네델란즈 비.브이. filed Critical 에이에스엠엘 네델란즈 비.브이.
Publication of KR20220079699A publication Critical patent/KR20220079699A/ko
Application granted granted Critical
Publication of KR102550350B1 publication Critical patent/KR102550350B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70425Imaging strategies, e.g. for increasing throughput or resolution, printing product fields larger than the image field or compensating lithography- or non-lithography errors, e.g. proximity correction, mix-and-match, stitching or double patterning
    • G03F7/70433Layout for increasing efficiency or for compensating imaging errors, e.g. layout of exposure fields for reducing focus errors; Use of mask features for increasing efficiency or for compensating imaging errors
    • G03F7/70441Optical proximity correction [OPC]
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/705Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F1/00Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
    • G03F1/36Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/392Floor-planning or layout, e.g. partitioning or placement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/398Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N5/003
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • G06N5/047Pattern matching networks; Rete networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Abstract

트레이닝 디자인 패턴(5000)의 공간적으로 시프팅된 버전에 대한 광 근접 보정을 얻는 단계; 및 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 관한 데이터(5051; 5053) 및 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대한 광 근접 보정들에 기초한 데이터(5041; 5043)를 사용하여 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델(5200)을 트레이닝하는 단계를 포함하는 방법이 개시된다.

Description

기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들{TRAINING METHODS FOR MACHINE LEARNING ASSISTED OPTICAL PROXIMITY ERROR CORRECTION}
본 출원은 2017년 9월 8일에 출원된 미국 출원 62/556,246 및 2018년 8월 31일에 출원된 미국 출원 62/725,734의 우선권을 주장하며, 이는 본 명세서에서 그 전문이 인용참조된다.
본 발명은 리소그래피 장치들 및 공정들에 관한 것으로, 특히 디자인 레이아웃의 광 근접 오차 보정(optical proximity error correction)들을 수행하는 방법 및 툴에 관한 것이다.
리소그래피 장치는, 예를 들어 집적 회로(IC) 또는 다른 디바이스의 제조 시에 사용될 수 있다. 이러한 경우, 패터닝 디바이스(예를 들어, 마스크)는 디바이스의 개별층에 대응하는 패턴("디자인 레이아웃")을 포함하거나 제공할 수 있으며, 패터닝 디바이스 상의 패턴을 통해 타겟부를 조사(irradiate)하는 것과 같은 방법들에 의해, 이 패턴이 방사선-감응재("레지스트") 층으로 코팅된 기판(예를 들어, 실리콘 웨이퍼) 상의 (예를 들어, 1 이상의 다이를 포함하는) 타겟부 상으로 전사(transfer)될 수 있다. 일반적으로, 단일 기판은 리소그래피 장치에 의해 패턴이 한 번에 한 타겟부씩 연속적으로 전사되는 복수의 인접한 타겟부들을 포함한다. 일 형태의 리소그래피 장치에서는 전체 패터닝 디바이스 상의 패턴이 한 타겟부 상으로 한 번에 전사되며; 이러한 장치는 통상적으로 스테퍼(stepper)라 칭해진다. 통상적으로 스텝-앤드-스캔(step-and-scan) 장치라 칭해지는 대안적인 장치에서는 투영 빔이 주어진 기준 방향("스캐닝" 방향)으로 패터닝 디바이스에 걸쳐 스캐닝하는 한편, 동시에 이 기준 방향과 평행하게 또는 역-평행하게(anti-parallel) 기판이 이동된다. 패터닝 디바이스 상의 패턴의 상이한 부분들이 점진적으로 한 타겟부에 전사된다. 일반적으로, 리소그래피 장치가 배율 인자(M)(일반적으로 < 1)를 갖기 때문에, 기판이 이동되는 속력(F)은 투영 빔이 패터닝 디바이스를 스캐닝하는 속력의 인자(M) 배가 될 것이다.
디바이스 제조 공정의 패터닝 디바이스로부터 기판으로 패턴을 전사하는 디바이스 제작 절차에 앞서, 기판은 전처리(priming), 레지스트 코팅 및 소프트 베이크(soft bake)와 같은 디바이스 제조 공정의 다양한 디바이스 제작 절차들을 거칠 수 있다. 노광 이후, 기판은 노광-후 베이크(post-exposure bake: PEB), 현상, 및 하드 베이크(hard bake)와 같은 디바이스 제조 공정의 다른 디바이스 제작 절차들을 거칠 수 있다. 이 일련의 디바이스 제작 절차들은 디바이스, 예컨대 IC의 개별층을 구성하는 기초로서 사용된다. 그 후, 기판은 에칭, 이온-주입(도핑), 금속화(metallization), 산화, 화학-기계적 연마 등과 같은 디바이스 제조 공정의 다양한 디바이스 제작 절차들을 거칠 수 있으며, 이는 모두 디바이스의 개별층을 마무리하도록 의도된다. 디바이스에서 여러 층이 요구되는 경우, 각각의 층에 대해 전체 과정 또는 그 변형이 반복된다. 최후에는, 디바이스가 기판 상의 각 타겟부에 존재할 것이다. 복수의 디바이스들이 존재하는 경우, 이 디바이스들은 다이싱(dicing) 또는 소잉(sawing)과 같은 기술에 의해 서로 분리되며, 개개의 디바이스들은 핀에 연결되는 캐리어 등에 장착될 수 있다.
따라서, 반도체 디바이스들과 같은 디바이스들을 제조하는 것은 통상적으로 디바이스들의 다양한 피처들 및 다수 층들을 형성하기 위해 다수의 제작 공정들을 이용하여 기판(예를 들어, 반도체 웨이퍼)을 처리하는 것을 수반한다. 이러한 층들 및 피처들은 통상적으로, 예를 들어 증착, 리소그래피, 에칭, 화학-기계적 연마, 및 이온 주입을 이용하여 제조되고 처리된다. 다수 디바이스들은 기판의 복수의 다이들 상에 제작된 후, 개별적인 디바이스들로 분리될 수 있다. 이 디바이스 제조 공정은 패터닝 공정으로 간주될 수 있다. 패터닝 공정은 기판 상에 패턴을 제공하기 위해 리소그래피 장치를 이용하는 광학 또는 나노임프린트(nanoimprint) 리소그래피와 같은 패터닝 단계를 수반하며, 통상적이지만 선택적으로 현상 장치에 의한 레지스트 현상, 베이크 툴을 이용한 기판의 베이킹, 에칭 장치를 이용한 패턴의 에칭 등과 같은 1 이상의 관련 패턴 처리 단계를 수반한다. 또한, 1 이상의 메트롤로지 공정이 통상적으로 패터닝 공정에서 수반된다.
일 실시예에서, 트레이닝 디자인 패턴(training design pattern)의 공간적으로 시프팅된 버전에 대응하는 광 근접 보정을 포함하는 트레이닝 데이터 세트를 얻는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 관한 데이터 및 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대한 광 근접 보정에 기초한 데이터를 이용하여 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델(machine learning model)을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 디자인 패턴의 1 이상의 공간적으로 시프팅된 버전 및 1 이상의 시프팅된 디자인 패턴 각각에 대한 광 근접 보정 이미지의 대응하는 공간적으로 시프팅된 버전을 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 임계치를 넘거나 충족하는 공정 윈도우 메트릭(process window metric)을 갖는 1 이상의 시프팅된 디자인 패턴의 1 이상의 광 근접 보정 이미지를 선택하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 선택된 1 이상의 광 근접 보정 이미지에 관한 데이터 및 디자인 패턴의 1 이상의 공간적으로 시프팅된 버전에 관한 데이터를 포함하는 트레이닝 데이터를 사용하는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 디자인 패턴의 광 근접 보정의 구역에 또 다른 구역과 상이한 가중치를 할당하기 위한 가중 함수 또는 데이터를 얻는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 가중 데이터에 기초하여 디자인 패턴의 기준(benchmark) 광 근접 보정에 대해 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 디자인 패턴에 대한 기준 광 근접 보정을 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정을 생성하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 일부분에 비교적 높은 가중치를 할당하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 가중된 예측된 및/또는 기준 광 근접 보정을 평가하는 목적 함수를 사용하여 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 하드웨어 컴퓨터 시스템에 의해, 디자인 패턴의 기준 광 근접 보정 및/또는 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정의 이미지 데이터에 이진화 함수(binarization function)를 적용하여 그 각각의 이진화된 버전을 생성하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 이진화된 버전에 기초하여 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 디자인 패턴에 대한 기준 광 근접 보정 이미지를 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정 이미지를 생성하는 단계; 하드웨어 컴퓨터 시스템에 의해, 이진화 함수를 사용하여 예측된 및 기준 광 근접 보정 이미지들을 각각의 이진 이미지들로 변환하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 광 근접 보정 이미지의 이진 이미지의 데이터에 대해 기준 광 근접 보정 이미지의 이진 이미지의 데이터를 평가하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 평가에 기초하여 기계 학습 모델의 파라미터를 조정하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 하드웨어 컴퓨터 시스템에 의해, 디자인 패턴의 기준 광 근접 보정 및/또는 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정의 이미지 데이터를 처리하여 광 근접 보정의 에지 위치들을 식별하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 식별된 에지 위치들로부터의 데이터에 기초하여 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 디자인 패턴에 대한 기준 광 근접 보정 이미지를 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정 이미지를 생성하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 및 기준 광 근접 보정 이미지들 내의 피처들의 에지 위치들을 식별하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 광 근접 보정 이미지의 식별된 에지 위치들에서의 데이터에 대해 기준 광 근접 보정 이미지의 식별된 에지 위치들에서의 데이터를 평가하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 평가에 기초하여 기계 학습 모델의 파라미터를 조정하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 입력 디자인 패턴의 공간적으로 시프팅된 버전을 얻는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 페널티 항(penalty term)을 갖는 목적 함수를 사용하여 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공되며, 페널티 항은 입력 디자인 패턴에 대해 기계 학습 모델에 의해 이루어진 예측에 대응하는 값과 시프팅된 입력 디자인 패턴에 대해 기계 학습 모델에 의해 이루어진 예측의 역 시프팅된 버전에 대응하는 값 간의 비교를 수반하고, 역 시프트는 입력 디자인 패턴의 공간적으로 시프팅된 버전을 생성하기 위해 사용된 공간적 시프트에 대한 역(inverse)인 공간적 시프트이다.
일 실시예에서, 명령어들이 기록되어 있는 컴퓨터 판독가능한 매체를 포함하는 컴퓨터 프로그램 제품이 제공되고, 명령어들은 컴퓨터에 의해 실행될 때 본 명세서의 여하한의 방법 또는 그 여하한의 부분을 구현한다.
예시적인 구현들의 앞선 일반적인 설명 및 다음의 상세한 설명은 단지 본 발명의 교시의 예시적인 실시형태들이며, 제한적인 것은 아니다.
본 명세서에 통합되고 그 일부를 구성하는 첨부된 도면들은 1 이상의 실시예를 예시하고, 설명과 함께 이 실시예들을 설명한다. 첨부된 도면들은 반드시 일정한 비율로 도시되지는 않았다. 첨부된 그래프 및 도면에 예시된 여하한의 값 또는 치수는 단지 설명을 위한 것이며, 실제 또는 바람직한 값들 또는 치수들을 나타내거나 나타내지 않을 수 있다. 적용가능하다면, 일부 또는 모든 특징들이 기본 특징들의 설명을 돕기 위해 설명되지 않을 수 있다:
도 1은 본 발명의 예시적인 실시예에 따른 리소그래피 시스템의 다양한 서브시스템들의 블록 다이어그램;
도 2는 본 발명의 예시적인 실시예에 따른 리소그래피 셀(lithographic cell) 또는 클러스터(cluster)의 일 실시예를 개략적으로 도시하는 도면;
도 3은 본 발명의 예시적인 실시예에 따른 디자인 레이아웃에 어시스트 피처(assist feature)들(주 피처들에 연결되는 어시스트 피처들 또는 독립적인 어시스트 피처들)을 배치하는 방법을 개략적으로 도시하는 도면;
도 4a 및 도 4b는 본 발명의 예시적인 실시예에 따른 기계 학습 모델을 트레이닝하고 기계 학습 모델을 사용하는 것에 대한 각각의 개략적인 흐름도;
도 4c 및 도 4d는 본 발명의 예시적인 실시예에 따른 기준으로서 디자인 레이아웃의 에지를 사용한 픽셀화(pixelation)의 더 상세한 사항들을 개략적으로 나타내는 도면;
도 4e는 본 발명의 예시적인 실시예에 따른 피처의 픽셀화된 이미지가 피처의 에지들 각각에 정렬되는 기준을 사용하여 결정될 수 있음을 개략적으로 나타내는 도면;
도 5는 본 발명의 예시적인 실시예에 따른 기계 학습 모델을 트레이닝하는 방법에 대한 흐름도;
도 6은 본 발명의 예시적인 실시예에 따른 도 5의 기계 학습 모델을 사용하는 방법에 대한 흐름도;
도 7은 본 발명의 예시적인 실시예에 따른 기계 학습 모델의 트레이닝 및 트레이닝에 사용되는 데이터 타입의 일 예시;
도 8은 본 발명의 예시적인 실시예에 따른 기계 학습 모델을 트레이닝하는 데 사용되거나, 이에 의해 예측되는 예시적인 어시스트 피처 맵을 예시하는 도면;
도 9a는 본 발명의 예시적인 실시예에 따른 기계 학습 모델을 트레이닝하는 방법에 대한 흐름도;
도 9b는 본 발명의 예시적인 실시예에 따른 비용 함수에 기초하여 기계 학습 모델 파라미터들 중 1 이상을 조정하는 흐름도;
도 10은 본 발명의 예시적인 실시예에 따른 평균 제곱 오차(MSE)에 기초한 비용 함수의 예시적인 결과를 나타내는 도면;
도 11은 본 발명의 예시적인 실시예에 따른 가중 평균 제곱 오차에 기초한 비용 함수의 예시적인 결과를 나타내는 도면;
도 12a는 본 발명의 예시적인 실시예에 따른 이진화 기술의 예시적인 출력을 나타내는 도면;
도 12b는 본 발명의 예시적인 실시예에 따른 이진화 기술에 기초한 비용 함수의 예시적인 결과를 나타내는 도면;
도 13은 본 발명의 예시적인 실시예에 따른 에지 픽셀 향상 기술의 예시적인 출력을 나타내는 도면;
도 14는 본 발명의 예시적인 실시예에 따른 에지 포인트 향상 기술의 예시적인 출력을 나타내는 도면;
도 15는 본 발명의 예시적인 실시예에 따른 에지 배치 오차를 나타내는 예시적인 출력을 나타내는 도면;
도 16은 본 발명의 예시적인 실시예에 따른 뉴럴 네트워크(neural network)에 대한 예시적인 인셉션 블록(inception block)을 나타내는 도면;
도 17은 본 발명의 예시적인 실시예에 따른 뉴럴 네트워크에 대한 예시적인 잔차 블록(residual block)을 나타내는 도면;
도 18은 일 실시예에 따른, 도 3에 나타낸 바와 같이 트레이닝되는 예시적인 역 공정 모델을 사용하여 생성되는 예시적인 패터닝 디바이스 패턴을 나타내는 도면;
도 19는 본 발명의 예시적인 실시예에 따른 예시적인 컴퓨터 시스템의 블록 다이어그램;
도 20은 본 발명의 예시적인 실시예에 따른 리소그래피 투영 장치의 개략적인 다이어그램;
도 21은 본 발명의 예시적인 실시예에 따른 또 다른 리소그래피 투영 장치의 개략적인 다이어그램; 및
도 22는 본 발명의 예시적인 실시예에 따른 도 20의 장치의 더 상세한 도면이다.
첨부된 도면들과 관련하여 아래에서 설명되는 설명은 개시된 주제의 다양한 실시예들의 설명으로서 의도되며, 반드시 유일한 실시예(들)를 나타내도록 의도되지는 않는다. 어떠한 경우에, 설명은 개시된 실시예(들)의 이해를 제공하기 위한 특정한 세부사항을 포함한다. 하지만, 개시된 실시예(들)는 이러한 특정한 세부사항 없이도 실시될 수 있다는 것이 당업자에게 명백할 것이다. 일부 경우에, 잘-알려진 구조체들 및 구성요소들이 개시된 주제의 개념들을 모호하게 하지 않기 위해 블록 다이어그램 형태로 도시될 수 있다.
반도체 또는 다른 디바이스 제조 공정들이 계속해서 진보함에 따라, 통상적으로 "무어의 법칙"이라 칭하는 추세를 따라 기능 요소들의 치수들이 계속 감소되는 한편, 디바이스당 트랜지스터와 같은 기능 요소들의 양은 수십 년에 걸쳐 꾸준히 증가하였다. 현 기술 수준에서, 디바이스들의 층들은 심(deep)-자외선(예를 들어, 193 nm) 조명 소스 또는 극-자외선(예를 들어, 13.52 nm) 조명 소스로부터의 조명을 이용하여 기판 상으로 디자인 레이아웃을 투영하는 리소그래피 장치들을 사용하여 제조되어, 30 nm보다 훨씬 낮은 치수들을 갖는 개별적인 기능 요소들을 생성한다.
리소그래피 장치의 전형적인 분해능 한계보다 작은 치수들을 갖는 피처들이 프린트되는 이 공정은 통상적으로 분해능 공식 CD = k1×λ/NA에 따른 저(low)-k1 리소그래피로서 알려져 있으며, 이때 λ는 채택되는 방사선의 파장(통상적으로, 대부분의 경우 248 nm 또는 193 nm)이고, NA는 리소그래피 장치 내의 투영 광학기의 개구수(numerical aperture)이며, CD는 "임계 치수" -일반적으로, 프린트되는 최소 피처 크기- 이고, k1은 경험적인 분해능 인자이다. 일반적으로, k1이 작을수록, 특정한 전기적 기능 및 성능을 달성하기 위하여 회로 설계자에 의해 계획된 형상 및 치수들과 비슷한 패턴을 기판 상에 재현(reproduce)하기가 더 어려워진다. 이 어려움을 극복하기 위해, 정교한 미세조정(fine-tuning) 단계들이 리소그래피 장치 또는 디자인 레이아웃에 적용된다. 이들은, 예를 들어 NA 및 광 간섭성(optical coherence) 세팅들의 최적화, 맞춤 조명 방식(customized illumination schemes), 위상 시프팅 패터닝 디바이스들의 사용, 디자인 레이아웃에서의 광 근접 보정(optical proximity correction: OPC), 또는 일반적으로 "분해능 향상 기술들"(resolution enhancement techniques: RET)로 정의된 다른 방법들을 포함하며, 이에 제한되지는 않는다.
RET의 일 예시로서, OPC는 기판 상에 투영된 디자인 레이아웃의 이미지의 최종 크기 및 배치가 단순히 패터닝 디바이스 상의 디자인 레이아웃의 크기 및 배치에만 의존하거나 이와 동일하지 않을 것이라는 사실을 설명한다. "마스크", "레티클", "패터닝 디바이스"라는 용어들은 본 명세서에서 교환가능하게 이용된다는 것을 유의한다. 또한, RET의 맥락에서 물리적 패터닝 디바이스가 반드시 사용되는 것이 아니라 디자인 레이아웃이 물리적 패터닝 디바이스를 나타내도록 사용될 수 있기 때문에, 당업자라면 "마스크", "패터닝 디바이스" 및 "디자인 레이아웃"이라는 용어가 교환가능하게 이용될 수 있음을 인식할 것이다. 일부 디자인 레이아웃에 존재하는 작은 피처 크기들 및 높은 피처 밀도들에 대해, 주어진 피처의 특정 에지의 위치는 다른 인접한 피처들의 존재나 부재에 의해 어느 정도 영향을 받을 것이다. 이 근접 효과들은 한 피처에서 다른 피처로 커플링된 미세한 양의 방사선, 또는 회절 및 간섭과 같은 비-기하학적 광학 효과들로부터 일어난다. 이와 유사하게, 근접 효과들은 일반적으로 리소그래피에 따라오는 노광-후 베이크(PEB), 레지스트 현상, 및 에칭 시의 확산 및 다른 화학적 영향들로부터 일어날 수 있다.
디자인 레이아웃의 투영 이미지가 주어진 타겟 회로 디자인의 요건들에 부합될 가능성을 증가시키기 위해, 정교한 수치 모델, 디자인 레이아웃의 보정 또는 전치-왜곡(pre-distortion)을 이용하여 근접 효과들이 예측되고 보상될 수 있다. 논문 "Full-Chip Lithography Simulation and Design Analysis - How OPC Is Changing IC Design"(C. Spence, Proc. SPIE, Vol.5751, pp 1-14, 2005)은 현재 "모델-기반" 광 근접 보정 공정들의 개요를 제공한다. 전형적인 고성능(high-end) 디자인에서는, 타겟 디자인에 대한 투영 이미지의 고 충실도(high fidelity)를 달성하기 위해 디자인 레이아웃의 거의 모든 피처가 약간 수정된다. 이 수정들은 라인 폭 또는 에지 위치의 시프팅 또는 편향, 및 다른 피처들의 투영을 돕도록 의도되는 "어시스트" 피처들의 적용을 포함할 수 있다.
OPC의 가장 간단한 형태들 중 하나는 선택적 편향(selective bias)이다. CD 대 피치 곡선을 고려하면, 모든 상이한 피치들이 패터닝 디바이스 레벨에서 CD를 변화시킴으로써 적어도 최적 포커스 및 노광에서 동일한 CD를 생성하도록 강제될 수 있다. 따라서, 피처가 기판 레벨에서 너무 작게 프린트되는 경우, 패터닝 디바이스 레벨 피처가 공칭(nominal)보다 약간 크도록 편향될 것이며, 그 역도 마찬가지이다. 패터닝 디바이스 레벨로부터 기판 레벨로의 패턴 전사 공정이 비-선형이기 때문에, 편향의 양은 단순히 최적 포커스 및 노광에서의 측정된 CD 오차와 축소율의 곱이 아니며, 모델링 및 실험으로 적절한 편향이 결정될 수 있다. 선택적 편향은, 특히 이것이 단지 공칭 공정 조건에서 적용되는 경우, 근접 효과들의 문제에 대해 불완전한 해결책이다. 이러한 편향이 원칙적으로 최적 포커스 및 노광에서 균일한 CD 대 피치 곡선들을 제공하도록 적용될 수 있더라도, 일단 노광 공정이 공칭 조건으로부터 변동되면, 각각의 편향된 피치 곡선이 상이하게 반응하여 상이한 피처들에 대해 상이한 공정 윈도우들을 유도할 것이다. 공정 윈도우는 피처가 충분히 적절하게 생성되는 2 이상의 공정 파라미터들(예를 들어, 리소그래피 장치에서의 포커스 및 방사선 도즈)의 값들의 범위이다(예를 들어, 피처의 CD는 ±10 % 또는 ±5 %와 같은 소정 범위 내에 있음). 그러므로, 동일한 CD 대 피치를 제공하는 "최적" 편향은 심지어 전체 공정 윈도우에 부정적인 영향을 미쳐, 원하는 공정 공차 내에서 기판 상에 모든 타겟 피처들이 프린트되는 포커스 및 노광 범위를 확대하기보다는 축소할 수 있다.
앞선 1-차원 편향 예시를 넘어서는 적용을 위한 다른 더 복잡한 OPC 기술들이 개발되었다. 2-차원 근접 효과는 라인 단부 단축(line end shortening)이다. 라인 단부들은 노광 및 포커스의 함수로서 그들의 원하는 단부 지점 위치로부터 "풀백(pull back)"하는 경향이 있다. 많은 경우에, 긴 라인 단부의 단부 단축 정도는 대응하는 라인 좁힘(line narrowing)보다 수 배 클 수 있다. 이 타입의 라인 단부 풀백은 라인 단부가 소스-드레인(source-drain) 구역에 걸친 폴리실리콘 게이트 층과 같이, 덮도록 의도된 아래놓인 층에 걸쳐 완전히 교차하지 못하는 경우에 제조되고 있는 디바이스들의 파국 고장을 유도할 수 있다. 이 타입의 패턴은 포커스 및 노광에 매우 민감하므로, 단순히 라인 단부를 디자인 길이보다 길게 편향시키는 것은 최적 포커스 및 노광 또는 노출부족 상태에서의 라인이 지나치게 길어서 연장된 라인 단부가 근처 구조체들에 닿을 때 단락 회로를 유도하거나, 회로에서의 개별적인 피처들 사이에 더 많은 공간이 추가되는 경우에 불필요하게 큰 회로 크기들을 유도할 것이기 때문에 적당하지 않다. 집적 회로 디자인 및 제조의 목표들 중 하나는 칩당 필요한 영역을 최소화하면서 기능 요소들의 수를 최대화하는 것이므로, 과도한 간격을 추가하는 것은 바람직하지 않은 해결책이다.
2-차원 OPC 접근법들은 라인 단부 풀백 문제를 해결하도록 도울 수 있다. "해머헤드(hammerheads)" 또는 "세리프(serifs)"와 같은 여분의 구조체들("어시스트 피처들"로도 알려짐)이 라인 단부들에 추가되어, 이들을 제 자리에 효과적으로 고정하고 전체 공정 윈도우에 걸쳐 감소된 풀백을 제공할 수 있다. 심지어 최적 포커스 및 노광에서 이 여분의 구조체들이 분해되는 것이 아니라, 그 자체로 완전히 분해되지 않고 주 피처의 외형을 변경한다. 본 명세서에서 사용되는 바와 같은 "주 피처"는 공정 윈도우에서의 일부 또는 전체 조건들 하에 기판에 프린트되도록 의도되는 피처를 의미한다. 어시스트 피처들은, 패터닝 디바이스 상의 패턴이 더 이상 단순히 원하는 기판 패턴의 축소율로 업사이징된 것이 아닌 정도로, 라인 단부들에 추가된 단순한 해머헤드보다 훨씬 더 공격적인 형태들을 취할 수 있다. 세리프와 같은 어시스트 피처들은 단순히 라인 단부 풀백을 감소시키는 것보다 더 많은 상황에 대해 적용될 수 있다. 내측 또는 외측 세리프들이 여하한의 에지, 특히 2차원 에지들에 적용되어, 코너 라운딩(corner rounding) 또는 에지 돌출을 감소시킬 수 있다. 모든 크기 및 극성(polarity)의 충분한 선택적 편향 및 어시스트 피처들로, 패터닝 디바이스 상의 피처들은 기판 레벨에서 원하는 최종 패턴과의 유사점이 점점 적어진다. 일반적으로, 패터닝 디바이스 패턴은 기판-레벨 패턴의 전치-왜곡 버전이 되며, 이때 왜곡은 제조 공정 동안 발생할 패턴 왜곡을 반전시키거나 상쇄하도록 의도되어, 가능한 한 설계자에 의해 의도된 것과 가까운 기판 상의 패턴을 생성한다.
또 다른 OPC 기술은 주 피처들에 연결된 어시스트 피처들(예를 들어, 세리프) 대신에 또는 이에 추가하여, 완전히 독립적이고 비-분해가능한(non-resolvable) 어시스트 피처들을 이용하는 것을 수반한다. 여기에서 "독립적"이라는 용어는 이 어시스트 피처들의 에지들이 주 피처들의 에지들에 연결되지 않는다는 것을 의미한다. 이 독립적인 어시스트 피처들은 기판 상의 피처들로서 프린트되기를 원하거나 의도되지 않으며, 오히려 그 주 피처의 프린트가능성 및 공정 공차를 향상시키기 위해 인근 주 피처의 에어리얼 이미지를 수정하도록 의도된다. 이 어시스트 피처들[흔히 "산란 바아(scattering bars)" 또는 "SBAR"라고 함]은 주 피처들의 에지들 내부로부터 파내어진(scooped out) 피처들인 분해능-이하 인버스 피처(sub-resolution inverse features: SRIF) 및 주 피처들의 에지들 밖의 피처들인 분해능-이하 어시스트 피처(SRAF)를 포함할 수 있다. SBAR의 존재는 패터닝 디바이스 패턴에 또 다른 복잡한 층을 추가한다. 산란 바아의 간단한 사용예는, 포커스 및 노광 공차에서 조밀한 패턴에 훨씬 더 가까운 공정 윈도우를 유도하는 조밀한 라인들의 어레이 내의 단일 라인을 더 나타내도록 격리된 라인 피처의 양측에 비-분해가능한 산란 바아들의 규칙적인 어레이가 그려지는 경우 -이는 에어리얼 이미지 관점으로부터 격리된 라인이 나타나게 하는 효과를 가짐- 이다. 이러한 꾸며진 격리된 피처와 조밀한 패턴 간의 공통 공정 윈도우는 패터닝 디바이스 레벨에서 격리된 대로 그려진 피처보다 포커스 및 노광 변동들에 대해 더 큰 공통 공차를 가질 것이다.
어시스트 피처는 패터닝 디바이스 상의 피처들과 디자인 레이아웃 내의 피처들 간의 차이로 간주될 수 있다. "주 피처" 및 "어시스트 피처"라는 용어는 패터닝 디바이스 상의 특정 피처가 하나 또는 다른 것으로서 표시되어야 함을 의미하지는 않는다.
간략한 도입부로서, 도 1은 예시적인 리소그래피 투영 장치(10A)를 나타낸다. 주요 구성요소들은 (시그마로서 표시된) 부분 간섭성(partial coherence)을 정의하고, 방사선 소스(12A) -이는 심-자외선 엑시머 레이저 소스 또는 극자외선(EUV) 소스를 포함한 다른 형태의 소스일 수 있음(본 명세서에서 설명되는 바와 같이, 리소그래피 투영 장치 자체가 방사선 소스를 가질 필요는 없음)- 로부터의 방사선을 성형하는 광학기(14A, 16Aa 및 16Ab)를 포함할 수 있는 조명 광학기; 및 기판 평면(22A) 상으로 패터닝 디바이스(18A)의 패터닝 디바이스 패턴의 이미지를 투영하는 광학기(16Ac)를 포함한다. 투영 광학기의 퓨필 평면에서의 조정가능한 필터 또는 어퍼처(aperture: 20A)가 기판 평면(22A) 상에 부딪히는 빔 각도들의 범위를 제한할 수 있으며, 이때 가능한 최대 각도는 투영 광학기의 개구수 NA = sin(Θmax)를 정의한다.
리소그래피 투영 장치에서, 투영 광학기는 소스로부터 패터닝 디바이스를 통해 기판 상으로 조명을 지향하고 성형한다. 본 명세서에서, "투영 광학기"라는 용어는 방사선 빔의 파면을 변경할 수 있는 여하한의 광학 구성요소를 포함하는 것으로 폭넓게 정의된다. 예를 들어, 투영 광학기는 구성요소들(14A, 16Aa, 16Ab 및 16Ac) 중 적어도 일부를 포함할 수 있다. 에어리얼 이미지(AI)는 기판 레벨에서의 방사선 세기 분포이다. 기판 상의 레지스트 층이 노광되고, 그 안에 잠재적인 "레지스트 이미지"(RI)로서 에어리얼 이미지가 레지스트 층으로 전사된다. 레지스트 이미지(RI)는 레지스트 층에서 레지스트의 용해도(solubility)의 공간 분포로서 정의될 수 있다. 에어리얼 이미지로부터 레지스트 이미지를 계산하기 위해 레지스트 모델이 사용될 수 있다. 레지스트 모델은 레지스트 층의 속성들[예를 들어, 노광, 노광-후 베이크(PEB) 및 현상 시 일어나는 화학 공정들의 효과들]에만 관련된다. 리소그래피 투영 장치의 광학적 속성들(예를 들어, 조명, 패터닝 디바이스 및 투영 광학기의 속성들)은 에어리얼 이미지를 좌우하고, 광학 모델에서 정의될 수 있다. 리소그래피 투영 장치에서 사용되는 패터닝 디바이스는 바뀔 수 있기 때문에, 패터닝 디바이스의 광학적 속성들을, 적어도 소스 및 투영 광학기를 포함한 리소그래피 투영 장치의 나머지의 광학적 속성들과 분리하는 것이 바람직하다. 디자인 레이아웃을 다양한 리소그래피 이미지들(예를 들어, 에어리얼 이미지, 레지스트 이미지 등)로 변환하는 데 사용되는 기술들 및 모델들, 이 기술들 및 모델들을 이용한 OPC의 적용, 및 (예를 들어, 공정 윈도우에 관한) 성능의 평가의 세부사항들은 미국 특허 출원 공개공보 US 2008-0301620호, 2007-0050749호, 2007-0031745호, 2008-0309897호, 2010-0162197호, 및 2010-0180251호에 설명되어 있으며, 이들은 각각 본 명세서에서 그 전문이 인용참조된다.
도 2에 나타낸 바와 같이, 리소그래피 장치(LA)는 때때로 리소셀(lithocell) 또는 리소클러스터라고도 칭하는 리소그래피 셀(LC)의 일부분을 형성할 수 있으며, 이는 기판 상에 1 이상의 노광-전(pre-exposure) 및 노광-후 공정을 수행하는 장치를 포함한다. 통상적으로, 이들은 레지스트 층을 증착시키는 1 이상의 스핀 코터(spin coater: SC), 노광된 레지스트를 현상하는 1 이상의 디벨로퍼(developer: DE), 1 이상의 칠 플레이트(chill plate: CH) 및 1 이상의 베이크 플레이트(bake plate: BK)를 포함한다. 기판 핸들러 또는 로봇(RO)이 입력/출력 포트들(I/O1, I/O2)로부터 기판을 집어올리고, 이를 상이한 공정 디바이스들 사이에서 이동시키고, 리소그래피 장치의 로딩 베이(loading bay: LB)로 전달한다. 흔히 집합적으로 트랙이라고도 하는 이 디바이스들은, 리소그래피 제어 유닛(LACU)을 통해 리소그래피 장치를 제어하는 감독 제어 시스템(supervisory control system: SCS)에 의해 자체 제어되는 트랙 제어 유닛(TCU)의 제어를 받는다. 따라서, 스루풋(예를 들어, 단위 시간당 처리된 기판들)과 처리 효율성을 최대화하기 위해 상이한 장치가 작동될 수 있다. 리소그래피 셀(LC)은 기판을 에칭하는 1 이상의 에처(etcher) 및 기판의 파라미터를 측정하도록 구성되는 1 이상의 측정 디바이스를 더 포함할 수 있다. 측정 디바이스는 기판의 물리적 파라미터를 측정하도록 구성되는 광학 측정 디바이스, 예컨대 스케터로미터, 스캐닝 전자 현미경 등을 포함할 수 있다. 측정 디바이스는 리소그래피 장치(LA)에 통합될 수 있다. 본 발명의 일 실시예는 감독 제어 시스템(SCS) 또는 리소그래피 제어 유닛(LACU)에서, 또는 이들과 구현될 수 있다. 예를 들어, 감독 제어 시스템(SCS) 또는 리소그래피 제어 유닛(LACU)으로부터의 데이터가 본 발명의 일 실시예에 의해 사용될 수 있으며, 본 발명의 일 실시예로부터의 1 이상의 신호가 감독 제어 시스템(SCS) 또는 리소그래피 제어 유닛(LACU)에 제공될 수 있다.
도 3은 디자인 레이아웃에 광 근접 보정들을 수행하는 방법을 개략적으로 도시한다. 디자인 레이아웃은 RET의 적용 전 디자인 레이아웃 또는 RET의 적용 후 디자인 레이아웃일 수 있다. 디자인 레이아웃은 바이너리(binary) 또는 연속톤(continuous tone)일 수 있다. 본 발명에서는, 본 명세서의 기술들이 적용될 수 있는 예시적인 광 근접 보정으로서 디자인 레이아웃에 어시스트 피처들(주 피처들에 연결되는 어시스트 피처들 또는 독립적인 어시스트 피처들)을 배치하는 데 초점을 둔다. 이해하는 바와 같이, 본 명세서의 기술들은 (편향 등과 같이) 어시스트 피처들보다는 대안적인 광 근접 보정들에 적용되거나, 어시스트 피처들에 추가하여 광 근접 보정들(예를 들어, 편향 및 어시스트 피처들의 조합)에 적용될 수 있다.
1 이상의 어시스트 피처와 같은 1 이상의 광 근접 보정을 적용(예를 들어, 이의 존재, 위치, 타입, 형상 등과 같은 1 이상의 특성을 결정)하기 위해 전산(computational) 또는 경험적 모델(213)이 사용될 수 있다. 모델(213)은 디바이스 제조 공정의 1 이상의 특성(211)(처리 파라미터라고도 함), 또는 1 이상의 디자인 레이아웃 파라미터(212), 또는 둘 모두를 고려할 수 있다. 1 이상의 처리 파라미터(211)는 디바이스 제조 공정과 연계된 1 이상의 파라미터이며, 레이아웃과는 연계되지 않는다. 예를 들어, 1 이상의 처리 파라미터(211)는 조명의 특성(예를 들어, 세기, 퓨필 프로파일 등), 투영 광학기의 특성, 도즈, 포커스, 레지스트의 특성, 레지스트의 현상의 특성, 레지스트의 노광-후 베이킹의 특성, 또는 에칭의 특성을 포함할 수 있다. 1 이상의 디자인 레이아웃 파라미터(212)는 디자인 레이아웃 상의 다양한 피처들의 1 이상의 형상, 크기, 상대 위치, 또는 절대 위치, 및 상이한 디자인 레이아웃들 상의 피처들의 오버래핑을 포함할 수 있다. 경험적 모델에서, 이미지(예를 들어, 레지스트 이미지, 광학 이미지, 에칭 이미지)는 시뮬레이션되지 않는다; 대신에, 경험적 모델은 입력[예를 들어, 1 이상의 처리 파라미터(211) 및/또는 디자인 레이아웃 파라미터(212)]과 광 근접 보정 간의 상관관계에 기초하여 광학적 보정을 수행(예를 들어, 어시스트 피처를 배치)한다. 전산 모델에서는, 이미지의 특성 또는 부분이 계산되고, 계산된 이미지의 특성 또는 부분에 기초하여 광 근접 보정이 적용된다.
경험적 모델의 일 예시는 기계 학습 모델이다. 비지도(unsupervised) 기계 학습 및 지도(supervised) 기계 학습 모델들이 둘 다 광 근접 보정(예를 들어, 어시스트 피처들의 배치)을 수행하는 데 사용될 수 있다. 본 발명의 범위를 제한하지 않고, 지도 기계 학습 알고리즘들의 적용예들이 아래에서 설명된다.
지도 학습은 분류된(labeled) 트레이닝 데이터로부터 함수를 추론하는 기계 학습 작업이다. 트레이닝 데이터는 트레이닝 예시들의 세트를 포함한다. 지도 학습에서, 각각의 예시는 입력 객체(통상적으로, 벡터) 및 원하는 출력 값[감시 신호(supervisory signal)라고도 함]을 갖는 쌍이다. 지도 학습 알고리즘은 트레이닝 데이터를 분석하고, 추론된 함수를 생성하며, 이는 새로운 예시들을 매핑(map)하는 데 사용될 수 있다. 일 실시예에서, 최적 시나리오는 알고리즘으로 하여금 보이지 않는 인스턴스(unseen instance)들에 대한 클래스 라벨(class label)들을 올바르게 결정하게 할 것이다. 이는 학습 알고리즘이 "합리적인" 방식으로 트레이닝 데이터로부터 보이지 않는 상황들까지 일반화할 것을 요구한다.
xi가 i-번째 예시의 피처 벡터(feature vector)이고 yi가 그 라벨(즉, 클래스)이도록 {(x1,y1),(x2,y2),…,(xN,yN)} 형태의 N 개의 트레이닝 예시들의 세트가 주어지면, 학습 알고리즘이 함수
Figure pat00001
를 찾으며, 이때 X는 입력 공간이고 Y는 출력 공간이다. 피처 벡터는 일부 객체를 나타내는 수치적 피처(numerical feature)들의 n-차원 벡터이다. 기계 학습에서의 많은 알고리즘들이 객체들의 수치적 표현을 필요로 하는데, 이는 이러한 표현들이 처리 및 통계 분석을 용이하게 하기 때문이다. 이미지들을 나타내는 경우, 피처 값들은 이미지의 픽셀들에 대응할 수 있고, 텍스트들을 나타내는 경우에는 아마도 용어 발생 빈도(term occurrence frequency)에 대응할 수 있다. 이 벡터들과 연계된 벡터 공간은 흔히 피처 공간이라고 한다. 함수 g는 통상적으로 가설 공간이라고 하는 가능한 함수들 G의 일부 공간의 요소이다. 때로는, 최고 스코어를 제공하는 y 값을 반환하는 것으로서 g가 정의되도록 스코어링 함수(scoring function)
Figure pat00002
를 사용하여 g를 나타내는 것이 편리하며:
Figure pat00003
, 여기서 F가 스코어링 함수들의 공간을 나타낸다. G 및 F는 여하한의 함수들의 공간일 수 있지만, 많은 학습 알고리즘들은 확률적 모델들일 수 있으며, 이 경우 g가 조건부 확률 모델의 형태 g(x) = P(y|x)를 취하거나, f가 동시 확률 모델의 형태 f(x,y) = P(x,y)를 취한다. 예를 들어, 나이브 베이즈(naive Bayes) 및 선형 판별 분석이 동시 확률 모델들인 반면, 로지스틱 회귀가 조건부 확률 모델이다.
f 또는 g를 선택하기 위한 2 개의 기본 접근법들: 경험적 위험 최소화 및 구조적 위험 최소화가 존재한다. 경험적 위험 최소화는 트레이닝 데이터에 가장 적합한 함수를 찾는다. 구조적 위험 최소화는 편향/분산 트레이드오프를 제어하는 페널티 함수를 포함한다.
두 경우 모두, 트레이닝 세트는 독립적이고 동일하게 분포된 쌍들(xi,yi)의 샘플을 갖는 것으로 가정된다. 함수가 트레이닝 데이터에 얼마나 잘 맞는지를 측정하기 위해, 목적 함수가 통상적으로 정의된다. 또는, 비용 또는 손실 함수
Figure pat00004
가 정의될 수 있다. 이 상황에서, 트레이닝 예시 (xi,yi)에 대해, 값
Figure pat00005
을 예측하는 손실은 L(yi,
Figure pat00006
)이다. 함수 g의 위험 R(g)은 g의 예상 손실로서 정의된다. 이는 트레이닝 데이터로부터
Figure pat00007
로서 추산될 수 있다.
지도 학습의 예시적인 모델들은 의사결정 나무, 앙상블[배깅(bagging), 부스팅, 랜덤 포레스트(random forest)], k-NN, 선형 회귀, 나이브 베이즈, 뉴럴 네트워크, 로지스틱 회귀, 퍼셉트론, SVM(support vector machine), RVM(relevance vector machine), 및 딥 러닝을 포함한다.
SVM은 지도 학습 모델의 일 예시이며, 이는 데이터를 분석하고 패턴들을 인식하며, 분류 및 회귀 분석에 사용될 수 있다. 두 카테고리 중 하나에 속하는 것으로 각각 표시되는 트레이닝 예시들의 세트가 주어지면, SVM 트레이닝 알고리즘은 새로운 예시들을 한 카테고리 또는 다른 카테고리에 할당하는 모델을 구축하여, 이를 비-확률적 이진 선형 분류기로 만든다. SVM 모델은 별도의 카테고리들의 예시들이 가능한 한 넓은 클리어 갭(clear gap)으로 나누어지도록 매핑되는, 공간 내의 지점들로서의 예시들의 표현이다. 그 후, 새로운 예시들이 그 동일한 공간으로 매핑되고 이들이 갭의 어느 쪽에 있는지에 기초하여 카테고리에 속하는 것으로 예측된다. 선형 분류를 수행하는 것에 추가하여, SVM은 그 입력들을 고차원 피처 공간들로 암시적으로 매핑하는, 커널 방법(kernel method)들이라고 하는 것을 이용하는 비-선형 분류를 효율적으로 수행할 수 있다.
커널 방법들은 사용자-지정 커널, 즉 원시 표현의 데이터 지점들의 쌍들에 걸친 유사도 함수만을 수반한다. 커널 방법들은 그 이름이 커널 함수들의 사용으로 인한 것이며, 이는 그 공간 내의 데이터 좌표들을 연산하지 않고 단순히 피처 공간 내의 모든 데이터 쌍들의 이미지들 간의 내적들을 연산함으로써 이들이 고-차원의 암시적 피처 공간에서 작동할 수 있게 한다. 이 작업은 흔히 좌표들의 명시적 계산보다 계산 비용이 싸다. 이 접근법은 "커널 트릭(kernel trick)"이라고 한다.
SVM의 유효성은 커널의 선택, 커널 파라미터들, 및 소프트 마진 파라미터(C)에 의존한다. 통상적인 선택은 가우시안 커널이며, 이는 단일 파라미터 γ를 갖는다. C 및 γ의 가장 좋은 조합은 흔히 기하급수적으로 증가하는 시퀀스들의 C 및 γ, 예를 들어 C ∈ {2-5, 2-4, …, 215, 216}; γ ∈ {2-15, 2-14, …, 24, 25}로의 그리드 검색["파라미터 스윕(parameter sweep)"이라고도 함]에 의해 선택된다.
그리드 검색은 학습 알고리즘의 하이퍼파라미터(hyperparameter) 공간의 수동으로 지정된 서브세트를 통한 철저한 검색이다. 그리드 검색 알고리즘은, 통상적으로 트레이닝 세트에 대한 교차-검증 또는 보류된 검증 세트에 대한 평가에 의해 측정되는 일부 성능 메트릭에 의해 안내된다.
교차 검증을 이용하여 파라미터 선택들의 각각의 조합이 체크될 수 있으며, 가장 우수한 교차-검증 정확성을 갖는 파라미터들이 선택된다.
때로는 회전 추산(rotation estimation)이라 하는 교차-검증은 통계 분석의 결과들이 독립적인 데이터 세트로 일반화하는 방식을 평가하기 위한 모델 검증 기술이다. 이는 주로 목표가 예측인 설정들에서 사용되며, 예측 모델이 실제로 얼마나 정확하게 수행될지를 추산하려는 것이다. 예측 문제에서, 모델에는 통상적으로 트레이닝이 실행되는 알려진 데이터의 데이터세트(트레이닝 데이터세트) 및 모델이 테스트되는 알려지지 않은 데이터(또는 처음 본 데이터)의 데이터세트(테스팅 데이터세트)가 제공된다. 교차-검증의 목표는 오버피팅과 같은 문제들을 제한하고, 모델이 독립적인 데이터 세트(즉, 예를 들어 실제 문제로부터의 알려지지 않은 데이터세트)로 일반화하는 방식에 대한 통찰력을 제공하는 등을 위해 트레이닝 단계에서 모델을 "테스트"하는 데이터세트(즉, 검증 데이터세트)를 정의하는 것이다. 교차-검증의 한 라운드는 데이터의 샘플을 상보적인 서브세트(complementary subset)들로 분할하는 것, 한 서브세트(트레이닝 세트라고 함)에 대해 분석을 수행하는 것, 및 다른 서브세트(검증 세트 또는 테스팅 세트라고 함)에 대해 분석을 검증하는 것을 수반한다. 가변성을 감소시키기 위해, 교차-검증의 다수 라운드들이 상이한 분할들을 이용하여 수행되고, 검증 결과들은 라운드들에 걸쳐 평균된다.
그 후, 새로운 데이터를 테스트하고 분류하는 데 사용될 수 있는 최종 모델은 선택된 파라미터들을 사용하여 전체 트레이닝 세트에서 트레이닝된다.
지도 학습의 또 다른 예시는 회귀이다. 회귀는 종속 변수들의 값들 및 대응하는 독립 변수들의 값들의 세트로부터, 종속 변수와 1 이상의 독립 변수 간의 관계들을 추론한다. 회귀는 독립 변수들이 주어지는 종속 변수의 조건부 기댓값을 추산할 수 있다. 추론된 관계들은 회귀 함수라고 할 수 있다. 추론된 관계들은 확률적일 수 있다.
도 4a 및 도 4b는 일 실시예에 따른, (광 근접 보정의 일 예시로서) 어시스트 피처들을 배치하기 위해 기계 학습 모델을 트레이닝하는 방법 및 (광 근접 보정의 일 예시로서) 어시스트 피처들을 배치하기 위한 트레이닝된 기계 학습 모델의 사용에 대한 흐름들을 각각 개략적으로 나타낸다. 도 4a는 기계 학습 모델을 트레이닝하는 흐름을 개략적으로 나타낸다. 디자인 레이아웃의 부분(505)의 1 이상의 특성(510)의 1 이상의 값이 얻어진다. 디자인 레이아웃은 바이너리 디자인 레이아웃, 연속톤 디자인 레이아웃[예를 들어, 바이너리 디자인 레이아웃으로부터 렌더링(render)됨], 또는 또 다른 적절한 형태의 디자인 레이아웃일 수 있다. 1 이상의 특성(510)은 부분(505) 내의 1 이상의 패턴의 기하학적 특성(예를 들어, 절대 위치, 상대 위치, 또는 형상)을 포함할 수 있다. 1 이상의 특성(510)은 부분(505) 내의 1 이상의 패턴의 1 이상의 통계적 특성을 포함할 수 있다. 부분(505) 내의 패턴의 통계적 특성의 예시들은 1 이상의 패턴의 기하학적 치수의 평균 또는 분산을 포함할 수 있다. 1 이상의 특성(510)은 소정 기저 함수들에 대한 투영과 같은 부분(505)의 파라미터화[즉, 부분(505)의 함수의 1 이상의 값]를 포함할 수 있다. 1 이상의 특성(510)은 부분(505)으로부터 도출되는 [픽셀화된, 바이너리 맨해튼(binary Manhattan), 바이너리 곡선(binary curvilinear), 또는 연속톤] 이미지 또는 이미지 데이터(예를 들어, 연계된 위치들을 갖는 픽셀 값들)를 포함할 수 있다. 일반적으로, 이미지 데이터는 이미지와 연계되는 여하한의 데이터(예를 들어, 픽셀 값들, 위치들, 세기, RBG 값들 등)를 지칭할 수 있다.
절차(520)에서, 부분(505) 또는 그 1 이상의 특성(510)에 기초하여, 여하한의 적절한 방법을 이용하여 어시스트 피처들의 1 이상의 특성(530)이 결정된다. 예를 들어, 어시스트 피처들의 1 이상의 특성(530)은, 본 명세서에서 그 전문이 인용참조되는 미국 특허 제 9,111,062호에서 설명되거나, 또는 Y. Shen 외, Level-Set-Based Inverse Lithography For Photomask Synthesis, Optics Express, Vol. 17, pp. 23690-23701(2009)에서 설명되는 방법, 및/또는 본 명세서 또는 본 명세서에서 인용참조되는 여하한의 문서에서 설명되는 여하한의 다른 기술들을 이용하여 결정될 수 있다. 예를 들어, 1 이상의 특성(530)은 어시스트 피처들의 1 이상의 기하학적 특성(예를 들어, 절대 위치, 상대 위치, 또는 형상), 어시스트 피처들의 1 이상의 통계적 특성(예컨대, 어시스트 피처들의 기하학적 치수의 평균 또는 분산), 어시스트 피처들의 파라미터화(예를 들어, 소정 기저 함수들에 대한 투영과 같은 어시스트 피처들의 함수의 1 이상의 값), 또는 어시스트 피처들의 이미지 또는 이미지 데이터(예를 들어, 픽셀화된, 바이너리 맨해튼, 바이너리 곡선, 또는 연속톤 이미지 및/또는 연계된 위치들을 갖는 픽셀 값들)를 포함할 수 있다.
디자인 레이아웃의 부분의 1 이상의 특성(510) 및 어시스트 피처들의 1 이상의 특성(530)의 값들은 샘플로서 트레이닝 데이터(540)에 포함된다. 일 실시예에서, 1 이상의 특성(510)은 샘플의 피처 벡터(입력 벡터라고도 함)에 포함되고, 1 이상의 특성(530)은 샘플의 라벨(감시 신호 또는 응답 벡터라고도 함)에 포함된다. 절차(550)에서, 트레이닝 데이터(540)를 사용하여 기계 학습 모델(560)이 트레이닝된다. 앞서 언급된 바와 같이, 목적 함수(예를 들어, 손실 또는 비용 함수)가 트레이닝에서 사용될 수 있다.
도 4b는 1 이상의 어시스트 피처를 배치하기 위해 기계 학습 모델(560)을 사용하는 흐름을 개략적으로 나타낸다. 디자인 레이아웃(534)의 부분(533) 또는 부분의 1 이상의 특성(535)이 얻어진다. 부분(533)도 디자인 레이아웃(534)의 여하한의 다른 부분도 트레이닝 데이터의 일부일 필요는 없다. 부분(533)은 디자인 레이아웃(534)의 에지 부근의 부분일 수 있다. 1 이상의 특성(535)은 부분(533) 내의 1 이상의 패턴의 1 이상의 기하학적 특성(예를 들어, 절대 위치, 상대 위치, 또는 형상)을 포함할 수 있다. 1 이상의 특성(535)은 부분(533) 내의 1 이상의 패턴의 1 이상의 통계적 특성을 포함할 수 있다. 1 이상의 특성(535)은 소정 기저 함수들에 대한 투영과 같은 부분(533)의 파라미터화를 포함할 수 있다. 1 이상의 특성(535)은 부분(533)으로부터 도출되는 (픽셀화된, 바이너리 맨해튼, 바이너리 곡선, 또는 연속톤) 이미지 또는 이미지 데이터(예를 들어, 연계된 위치들을 갖는 픽셀 값들)를 포함할 수 있다. 예를 들어, 부분(533)이 디자인 레이아웃(534)의 에지 부근의 부분인 경우, 1 이상의 특성(535)은 기준으로서 에지에 대한 것(예를 들어, 기준으로서 에지를 사용하여 얻어진, 픽셀화된, 바이너리 맨해튼, 바이너리 곡선, 또는 그레이-스케일 이미지 또는 기저로의 투영)일 수 있으며, 이에 의해 도 4c, 도 4d 및 도 4e를 참조하여 아래에서 더 설명되는 바와 같이, 에지가 디자인 레이아웃에 고정된 기준에 대해 이동하더라도 1 이상의 특성(535)이 변하지 않는다.
절차(570)에서, 부분(534) 또는 1 이상의 특성(535)은 기계 학습 모델(560)로의 입력으로서 제공되고, 부분(533)에 대한 1 이상의 어시스트 피처의 1 이상의 특성(580)이 기계 학습 모델(560)로부터의 출력으로서 얻어진다. 1 이상의 특성(580)은 어시스트 피처들의 1 이상의 기하학적 특성(예를 들어, 절대 위치, 상대 위치, 또는 형상)을 포함할 수 있다. 1 이상의 특성(580)은 소정 기저 함수들에 대한 투영과 같은 어시스트 피처들의 파라미터화를 포함할 수 있다. 1 이상의 특성(580)은 어시스트 피처들의 (픽셀화된, 바이너리 맨해튼, 바이너리 곡선, 또는 연속톤) 이미지 또는 이미지 데이터(예를 들어, 연계된 위치들을 갖는 픽셀 값들)를 포함할 수 있다. 어시스트 피처들의 1 이상의 특성(580)은, 예를 들어 그 전문이 인용참조되는 미국 특허 출원 공개공보 2008/0301620호에서 설명되는 방법을 이용하여 이들 사이의 충돌을 회피하도록 조정될 수 있다.
선택적 절차(590)에서, 리소그래피 공정 시 디자인 레이아웃(534)의 부분(533) 및 어시스트 피처들을 사용하여 기판이 패터닝된다.
절차(570)에서, 기계 학습 모델(560)은 선택적으로 1 이상의 특성(580)의 신뢰성을 나타내는 신뢰 메트릭(585)을 연산할 수 있다. 예를 들어, 1 이상의 특성(580)이 어시스트 피처들의 바이너리 이미지(예를 들어, 바이너리 맨해튼 이미지, 바이너리 곡선 이미지)를 포함하는 경우, 신뢰 메트릭은 바이너리 이미지의 어느 한 톤에 대한 확률일 수 있다. 나이브 베이즈, 로지스틱 회귀 및 다층 퍼셉트론과 같은 일부 기계 학습 모델들은 (적절한 손실 함수 하에 트레이닝되는 경우) 자연히 확률적이다. 확률적 모델은 입력이 속해야 할 가능성이 가장 높은 클래스만 출력하기보다는 클래스들의 세트에 대한 확률 분포를 출력한다. 서포트 벡터 머신과 같은 일부 다른 기계 학습 모델들은 자연히 확률적이지 않지만, 이들을 확률적 분류기들로 바꾸는 방법들이 존재한다. 회귀 문제는 다수-클래스 분류 문제로 전환된 후 확률을 메트릭으로서 사용하거나, 부트스트랩 방법을 사용하여 많은 모델을 구축하고, 그 후 모델 예측들의 분산을 계산할 수 있다. 신뢰 메트릭(예를 들어, 엔트로피, GINI 인덱스 등)은 기계 학습 모델의 출력(예를 들어, 클래스들의 세트에 대한 확률 분포)에 기초하여 연산될 수 있다.
다른 형태의 신뢰 메트릭(585)이 가능할 수 있다. 예를 들어, 트레이닝 데이터에서의 부분들과 매우 상이한 디자인 레이아웃의 부분들에 대해, 기계 학습 모델은 상대적으로 문제가 될 가능성이 높다. 입력의 부분과 트레이닝 데이터의 부분들 사이의 유사도를 측정하는 신뢰 메트릭(585)은 적절한 방식으로 구성될 수 있다. 입력의 부분과 트레이닝 데이터의 부분들 각각 사이의 최대 유클리드 거리가 이러한 예시일 수 있다. 또 다른 예시에서, 트레이닝 데이터의 부분들은 수 개의 그룹들로 클러스터링될 수 있고, 각각의 그룹의 중심들까지의 입력 이미지의 유클리드 거리들이 신뢰 메트릭(585)으로서 사용될 수 있다.
신뢰 메트릭(585)이 [예를 들어, 1 이상의 특성(580)이 충분히 신뢰할 수 없음을 나타내기 위해] 조건을 만족시키지 못하는 경우, 1 이상의 특성(580)은 무시될 수 있고, 어시스트 피처들은 선택적 절차(586)에서 상이한 방법(예를 들어, 미국 특허 제 9,111,062호에서 설명되는 방법)을 이용하여 배치될 수 있거나, 또는 기계 학습 모델(560)은 선택적 절차(587)(예를 들어, 도 4a의 흐름을 이용함)에서 조건에 실패한 신뢰 메트릭(585)을 초래하는 입력의 1 이상의 특성(535)을 포함하는 트레이닝 데이터를 사용하여 재트레이닝(retrain)될 수 있다.
디자인 레이아웃(534)의 부분(533)과 조합하여 기계 학습 모델(570)에 의해 특성(580)이 생성되는 어시스트 피처는 OPC, 조명 및 패터닝 디바이스 패턴 최적화(때로는 SMO라고 함), 패터닝 디바이스 최적화(MO)와 같은 또 다른 RET에 대한 초기 조건으로서, 또는 엄격한 옵티마이저의 초기 조건으로서 사용되어 수렴 속도를 높일 수 있다. 이는 다른 사용 사례이다.
도 4c 및 도 4d는 픽셀화의 더 상세한 사항들을 개략적으로 나타낸다. 피처(600)의 픽셀화된 이미지는 기준의 선택에 의존할 수 있다. 예를 들어, 도 4c에 나타낸 바와 같이, 기준(601)을 사용하는 피처(600)의 픽셀화된 이미지는 픽셀화된 이미지(603)이지만, 기준(601)에 대해 단순히 시프트되는 기준(602)을 사용하는 동일한 피처(600)의 픽셀화된 이미지는 픽셀화된 이미지(603)와 상이한 픽셀화된 이미지(604)이다. 기준의 선택에 대한 픽셀화의 이러한 의존성을 피하기 위해, 예를 들어 피처(600)의 에지(예를 들어, 여기에서는 오른쪽 에지) 또는 피처(600)의 코너에 정렬되는 기준이 피처(600)의 픽셀화를 위해 사용될 수 있다. 상이한 피처들에 대한 기준들은 상이할 수 있다.
도 4e는 피처(700)의 픽셀화된 이미지(720)가 피처(700)의 에지들 각각에 정렬되는 기준(710)을 사용하여 결정될 수 있음을 개략적으로 나타낸다. 픽셀화된 이미지들(720) 각각이 도 4b의 흐름에서의 특성(535)으로서 사용되어, 어시스트 피처들의 1 이상의 특성(580)[예를 들어, 어시스트 피처들의 형상들(730)]을 얻을 수 있다. 즉, 각각의 에지에 대해, 어시스트 피처들의 1 이상의 특성(580)[예를 들어, 어시스트 피처들의 형상들(730)]의 세트가 얻어진다. 1 이상의 특성(580)[예를 들어, 어시스트 피처들의 형상들(730)]의 세트는 기준으로서 피처(700)를 사용하여 서로 정렬될 수 있고, 어시스트 피처의 1 이상의 특성의 병합된 세트[예를 들어, 어시스트 피처들의 병합된 형상들(740)]로서 함께 병합될 수 있다. 그 후, 어시스트 피처들의 1 이상의 특성의 병합된 세트에서의 충돌이 해결될 수 있다[예를 들어, 병합된 형상들(740)에서의 중첩이 제거됨]. 본 명세서에서는 에지에 대해 얻어진 1 이상의 특성(535)의 일 예시로서 픽셀화된 이미지(720)가 사용되지만, 에지에 대한 1 이상의 특성(535)은 기준으로서 에지를 사용하여 얻어진, 바이너리 또는 그레이-스케일 이미지 또는 기저로의 투영과 같은 1 이상의 다른 적절한 특성일 수 있다.
앞서 언급된 바와 같이, 광 근접 보정은 예를 들어 기판 상에 디자인 레이아웃을 형성하기에 충분한 공정 윈도우(PW)를 제공하는 것을 목적으로 (예를 들어, 고급 로직 디바이스의) 디자인 레이아웃을 수정한다. 예를 들어, (OPC의 일 예시로서) 어시스트 피처, 특히 SRAF는 격리된 피처들이 조밀하게 나타나는 방식으로 디자인 레이아웃의 격리된 주 피처들의 환경을 수정할 수 있으며, 이는 충분한 공정 윈도우(PW)를 제공함으로써 이러한 주 피처의 축소(scaling down)를 가능하게 할 수 있다. 따라서, 풀-칩에 걸쳐 충분하고 정확하며 일관되는 광 근접 보정이 요구된다. 하지만, 광 근접 보정의 실행 시간은 적시에 풀-칩에 광 근접 보정을 적용할 수 있도록 빨라야 한다.
광 근접 보정 기술들 중에서, 모델-기반 광 근접 보정 접근법이 우수한 정확성과 일관성으로 큰 공정 윈도우(PW)를 전달할 수 있지만, 흔히 속도를 희생한다. 예를 들어, SMO-MO는 큰 공정 윈도우(PW)를 전달할 수 있는 광 근접 보정 기술이다. 일 실시예에서, SMO-MO는 SMO 프로세스를 사용하여 최적 조명 및 패터닝 디바이스 패턴을 식별할 수 있고(이 최적화는 사용되는 OPC 보정들의 타입에 관하여, 예를 들어 어시스트 피처들의 적용없이 제약될 수 있음), 그 후 최적 조명이 사용되어 광 근접 보정(예를 들어, 어시스트 피처들의 적용)에 관하여 패터닝 디바이스 패턴을 더 최적화한다. 일 실시예에서, SMO-MO는 연계된 비용 함수가 최소화/최대화되도록 연속톤 패터닝 디바이스 패턴을 최적화하기 위해 그래디언트-기반(gradient-based) 반복 접근법을 사용한다. 각각의 반복에서, 패터닝 디바이스 패턴의 그래디언트 맵이 계산되고 그래디언트 맵은 최적화의 방향(예를 들어, 어시스트 피처들의 배치와 같은 OPC의 적용)을 안내하기 위해 더 사용된다. SMO-MO는 매우 정확할 수 있으며, 가장 큰 공정 윈도우를 산출할 수 있다; 하지만, 실행 시간은 풀-칩 적용들에 대해 엄청나게 높을 수 있다.
광 근접 보정을 위한 또 다른 모델-기반 접근법은 소위 SRAF 안내 맵(SGM)(예를 들어, 앞서 본 명세서에 인용참조된 미국 특허 출원 공개공보 US 2008-0301620호 참조)을 사용하는 것이며, 이는 다른 접근법들보다 비교적 빠르지만 최적 공정 윈도우를 제공하기에는 부족할 수 있다.
다른 풀-칩 광 근접 보정들은 SMO-MO보다 비교적 빠르지만, 각각 약간의 단점을 가질 수 있다. 예를 들어, 규칙-기반 광 근접 보정 접근법들은 (어시스트 피처들의 배치와 같은) 광 근접 보정들을 적용하기 위해 2-차원(2D) 규칙들의 적용을 수반한다. 하지만, 규칙들의 결정 및 포괄성(comprehensiveness)은 구현하기 어려울 수 있으며, 로직 적용들에 대한 2D 규칙들의 정확성을 보장하지 않을 수 있다.
어시스트 피처들과 관련하여, 이들의 배치는 전형적으로 이미지-기반 리소그래피 시뮬레이션에 사용되는 픽셀들의 크기보다 작은 정확성을 가져야 한다. 예를 들어, 바아 배치 정확성은 리소그래피 시뮬레이션들이 20 nm의 픽셀 크기를 사용하는 동안에 1 nm 또는 심지어 0.1 nm가 되어야 한다. 대안적으로 또는 추가적으로, 어시스트 피처들의 배치에서의 일관성 및/또는 대칭이 매우 요구된다. 일관성은 실질적으로 유사한 어시스트 피처 배치들을 갖는 패터닝 디바이스 패턴(예를 들어, 풀-칩 패터닝 디바이스 패턴)에서의 반복 패턴들을 지칭한다. 어시스트 피처 배치는 바람직하게는 패턴 대칭 및 조명 분포 형상 대칭을 따르는 대칭(예를 들어, 다이폴 또는 쿼드러폴 조명으로의 대칭)을 가져야 한다. 하지만, 기존 기술들은 풀-칩 레벨에서 이러한 정확성, 일관성 및/또는 대칭을 제공하지 않을 수 있다.
따라서, 일 실시예에서 그리고 도 3 및 도 4를 참조하여 앞서 어느 정도 이미 설명된 바와 같이, 기계 학습 프로세스는 (어시스트 피처들의 배치와 같은) 광 근접 보정의 정확하고 완전한 적용을 가능하게 하는 데 유리할 수 있고, 예를 들어 풀-칩 적용들에 대해 신속하게 수행할 수 있다.
기존의 딥 러닝 구조들은 이미지 인식과 같은 딥 러닝 작업에 이용가능하지만, 본 명세서의 기계 학습 기술들은 트레이닝 및 트레이닝된 기계 학습 모델의 사용을 위한 기계 학습 모델에 제공되는 입력들, 기계 학습 모델로부터의 출력, 원하는 분해능 및/또는 기계 학습 모델을 트레이닝하는 데 사용되는 목적 함수를 포함 -이에 제한되지는 않음- 하는 여러 측면들에서 이러한 이미지 인식과 상이하다.
예를 들어, 클립 레벨(풀-칩 패터닝 패턴의 부분을 지칭함)에서 풀-칩 패터닝 디바이스 패턴까지 (SMO-MO와 같은) 앞서 설명된 기술들 중 일부의 공정 윈도우 이점들을 전파하기 위해, 풀-칩 패턴과 같은 패터닝 디바이스 패턴에 관한 데이터에 기초하여 기계 학습 모델에 의한 광 근접 보정의 예측을 가능하게 하기 위해, 예를 들어 클립 레벨에서 이러한 다른 기술들로부터의 데이터를 트레이닝 데이터로서 취하는 기계 학습 기반 광 근접 보정 기술이 본 명세서에서 설명된다. 일 실시예에 따르면, 기계 학습 모델은 SMO-MO에 의해 생성되는 트레이닝 데이터를 사용하여 트레이닝되고, 후속하여 트레이닝된 모델은 광 근접 보정 적용을 위한 풀-칩 레이아웃에 적용된다.
도 5는 본 발명의 예시적인 실시예에 따라 트레이닝된 기계 학습 모델을 구축하기 위해 기계 학습 모델을 트레이닝하는 예시적인 흐름도이다. 도 5에서, 트레이닝 데이터(700)가 제공된다. 일 실시예에서, 트레이닝 데이터는 SMO-MO와 같은 광 근접 보정 기술, 규칙-기반 OPC 방법 등을 사용하여 생성되거나 이미 생성되었을 수 있다. 바람직하게는, 트레이닝 데이터는 매우 정확하고, 일관되며, 큰 공정 윈도우를 가능하게 한다. 일 실시예에서, 트레이닝 데이터(700)는 입력 디자인 패턴들(7000)에 관한 데이터(7000)(예를 들어, 풀-칩 패턴으로부터의 클립) 및 연계된 입력 디자인 패턴들(7000)의 광 근접 보정에 관한 데이터(7005)를 포함한다. 일 실시예에서, 데이터는 앞서 설명된 바와 같이 디자인 패턴 레이아웃에 관한 1 이상의 특성 및/또는 광 근접 보정(예를 들어, 어시스트 피처)에 관한 1 이상의 특성일 수 있다. 일 실시예에서, 데이터(7000) 및/또는 데이터(7005)는 이미지 또는 이미지의 픽셀 데이터를 포함한다. 일 실시예에서, 데이터(7000)는 (도 5에 예시된 바와 같이) 디자인 패턴의 이미지 또는 이미지의 픽셀 데이터를 포함한다. 일 실시예에서, 데이터(7005)는 SMO-MO 또는 역 OPC 프로세스와 같은 광 근접 보정 기술을 사용하여 생성되는 데이터(7000)의 디자인 패턴들 각각에 대응하는 연속 투과 마스크(CTM) 맵(도 5에 예시된 바와 같이, 어두운 피처들에 인접한 밝은 회색은 SRAF와 같은 어시스트 피처에 대응함)을 포함한다. 이해하는 바와 같이, 연속 투과 마스크 맵 또는 그 균등물이 (EUV 리소그래피를 위한 반사 마스크와 같은) 반사 패터닝 디바이스에 대해 생성될 수 있으며, 본 명세서에서는 편의상 연속 투과 마스크 맵이라고 칭해질 것이다. 일 실시예에서, 500 이상, 1000 이상, 1500 이상, 2000 이상, 2500 이상, 5000 이상, 10,000 이상, 100,000 이상, 1,000,000 이상의 데이터(7000) 및 데이터(7005)의 조합들이 트레이닝 데이터로서 제공된다. 일 실시예에서, 데이터(7000) 및 데이터(7005)의 조합들에 대응하는 패턴들은 풀-칩 패턴으로부터의 샘플들이다. 일 실시예에서, 샘플들은 임계 패턴들, 예를 들어 올바르게 형성되지 않을 평균 확률보다 높은 것으로 알려진 패턴들이다. 일 실시예에서, 패턴들은 사용자에 의해 대표로서(예를 들어, 칩 제조자에 의해) 식별될 수 있다. 일 실시예에서, 패턴 인식 기술이 사용되어 풀칩에서 패턴들을 식별하고 풀칩에서 패턴들의 발생을 식별하여 각각의 반복 발생 중 적어도 하나 및 비-반복 발생에 걸친 샘플링을 선택할 수 있다. 일 실시예에서, 기계 학습 기술은 유사한 패턴들의 클러스터들을 식별하고 적어도 클러스터들 각각으로부터 샘플링하기 위해 사용될 수 있다.
트레이닝 프로세스 S701에서, 새로운 또는 이전에 사용된 데이터(7000)로 입력될 때 트레이닝된 기계 학습 모델이 입력 데이터에 대응하는 광 근접 보정(예를 들어, 어시스트 피처들의 배치)을 정확하게 예측할 수 있도록 기계 학습 모델을 점진적으로 트레이닝하기 위해, 데이터(7000) 각각이 데이터(7005)로 평가된다. 즉, 일 실시예에서, 트레이닝된 기계 학습 모델은 데이터(7000)가 입력된 경우에 데이터(7005)와 유사한 데이터를 생성할 수 있다.
기계 학습 모델의 트레이닝은 단일 트레이닝 샘플, 수 개의 상이한 트레이닝 샘플들 또는 이용가능한 모든 샘플들을 사용할 수 있으며, 목적 함수에 기초하여 모델의 파라미터들을 반복적으로 업데이트할 수 있다. 일 실시예에서, 데이터(7000) 및 데이터(7500)를 사용한 트레이닝은 전형적으로 본 명세서에서 더 상세히 논의되는 1 이상의 비용 함수의 최소화와 같은 목적 함수의 평가를 수반할 것이다. 예를 들어, 트레이닝 프로세스의 제 1 인스턴스에서, 제 1 디자인 패턴에 관한 제 1 데이터(7001)가 기계 학습 모델에 입력되며, 이 모델은 제 1 디자인 패턴에 대응하는 광 근접 보정 데이터의 예측을 생성할 수 있다. 하지만, 예측된 데이터는 기준 또는 매우 정확한(예를 들어, "참") 것으로 간주되는 대응하는 제 1 데이터(7006)와 실질적으로 상이할 수 있다. 이러한 경우, 기준에 대한 예측의 평가를 수행하는 목적 함수가 기계 학습 모델의 1 이상의 파라미터를 정렬(예를 들어, 모델의 1 이상의 공식의 1 이상의 계수 변경, 모델의 1 이상의 공식에서의 1 이상의 항의 1 이상의 거듭제곱 변경, 1 이상의 공식의 추가 또는 제거, 모델의 1 이상의 공식의 1 이상의 항의 추가 또는 제거 등)하는 데 사용되어, 기계 학습 모델이 더 우수한 예측을 수행할 수 있게 한다. 예를 들어, 데이터(7001)와 대응하는 데이터(7006) 사이의 차이를 최소화하는 기계 학습 모델에 대한 손실/비용 함수가 기계 학습 모델을 조절하는 데 사용될 수 있다. 이해하는 바와 같이, 제 2 인스턴스에서, 제 2 디자인 패턴에 관한 제 2 데이터(7002)가 수정된 기계 학습 모델의 트레이닝 프로세스에 입력되며, 이 모델은 제 2 디자인 패턴에 대응하는 광 근접 보정 데이터를 예측할 수 있다. 또한, 그 예측은 대응하는 기준 제 2 데이터(7007)와 상이할 수 있다. 다시, 기계 학습 모델의 파라미터들은 목적 함수를 사용하여 [예를 들어, 예측과 기준 데이터(7006) 간의 차이의 평가에 기초하여] 조정될 수 있다. 기계 학습 모델 파라미터들의 평가 및 조정은 트레이닝된 기계 학습 모델(즉, 점진적으로 수정된 기계 학습 모델)이 주어진 디자인 패턴의 광 근접 보정의 실제 또는 예상 기준 데이터와 동일하거나 실질적으로 유사한 주어진 디자인 패턴에 대응하는 입력 데이터에 대한 광 근접 보정 예측을 발생시킬 때까지 계속될 수 있다. 따라서, 일 실시예에서, 목적 함수는 회귀 타입 분석을 수반할 수 있고, 기계 학습 모델 구성은 회귀 기술들을 사용하여 데이터에 대한 모델 파라미터들의 추적을 수반할 수 있다.
일 실시예에서, 기계 학습 트레이닝은 픽셀 단위로 작동한다. 즉, 일 실시예에서, 데이터(7000)는 픽셀화된 이미지 또는 이미지의 픽셀들에 관한 데이터를 포함하고, 유사하게 데이터(7005)는 픽셀화된 이미지 또는 이미지의 픽셀들에 관한 데이터를 포함한다. 따라서, 비용 함수 및 트레이닝은 기계 학습 모델이 입력 디자인 패턴의 픽셀 데이터로부터 광 근접 보정을 위한 픽셀 데이터를 예측하도록 픽셀 데이터를 평가한다. 일 실시예에서, 픽셀 데이터는 이미지 내의 픽셀과 관련된 값들을 지칭하며, 여기서 값들은 세기, 콘트라스트, RBG 값들, 이미지 내의 위치, 또는 다른 유사한 픽셀 관련 정보일 수 있다.
일단 기계 학습 모델이 트레이닝되면, 트레이닝된 기계 학습 모델은 도 6에 예시된 바와 같이 여하한의 디자인 패턴들에 대한 광 근접 보정 데이터를 예측하는 데 사용될 수 있다. 도 6에서, 트레이닝된 기계 학습 모델에 대한 입력 데이터(800)는 (예시된 바와 같이) 각각의 디자인 패턴들에 관한 데이터(8001, 8002 및 8003)와 같은 1 이상의 디자인 패턴에 관한 데이터일 수 있다. 트레이닝된 기계 학습 모델(705)은 본 발명의 예시적인 실시예에 따라, 데이터(8001, 8002 및 8003)에 각각 대응하는 데이터(8011, 8012 및 8013)와 같은 예측된 광 근접 보정 데이터(805)를 생성한다. 이해하는 바와 같이, 광 근접 보정 데이터(805)는 예를 들어 생산, 테스트 등을 위한 광 근접 보정 데이터에 따른 패턴을 갖는 마스크의 제조 및/또는 (동일하거나 상이한 기계 학습 모델을 사용한 추가 처리를 포함하는 추가 RET/OPC 기술들의 적용과 같은) 광 근접 보정에 따른 패턴의 추가 처리를 포함하는 다양한 목적으로 사용될 수 있다. 일 실시예에서, ML 예측들이 다른 엄격한 옵티마이저가 수렴 속도를 높이기 위한 초기 조건으로서 사용될 수도 있다.
도 7은 본 발명의 예시적인 실시예에 따른 기계 학습 모델을 트레이닝하는 일 예시 및 연계된 데이터이다. 도 7에서, 클립들(9001, 9002, 9003 및 9004)과 같은 1 이상의 클립이 풀칩 패턴(9000)으로부터의 샘플들일 수 있다. 이 예시에서, 클립들은 접촉홀 구성들에 대응한다. 풀칩 패턴(9000)에서 알 수 있는 바와 같이, 수십억은 아니더라도 수백만 개의 패턴들이 존재할 수 있고, 이에 따라 풀칩 패턴에 대해 광 근접 보정을 정확하고 일관되고 신속하게 수행하는 중요한 문제를 나타낸다. 앞서 설명된 바와 같이, 샘플들은 예를 들어 숙련된 칩 설계자의 휴리스틱, 주파수 또는 스펙트럼 분석, 기계 학습 기반 샘플링, 또는 이들의 조합에 기초할 수 있다.
일 실시예에서, 샘플 클립들(9001 내지 9004)은 렌더링된 클립들(9011, 9012, 9013 및 9014)과 같이 처리된 입력 데이터(9011, 9012, 9013 및 9014)로 렌더링될 수 있다. 일 실시예에서, 이 렌더링은 필요하지 않다. 여기서, 이진화된 클립들(9001, 9002, 9003 및 9004)은 그레이 레벨 클립들(9011, 9012, 9013 및 9014)로 변환된다. 렌더링에 대한 추가적인 또는 대안적인 가능성은 클립들에 적용되는 초기 RET, 예를 들어 SMO의 적용, 클립들 내의 1 이상의 피처의 편향 등을 포함할 수 있다.
또한, 트레이닝 프로세스는 샘플 클립들(9001 내지 9004)에 각각 대응하는 CTM 맵들(9021 내지 9024)(도 7에 예시된 바와 같이, 어두운 피처들에 인접한 밝은 회색은 SRAF와 같은 어시스트 피처들에 대응함)과 같이 샘플 클립들에 대응하는 광 근접 보정 데이터(9021, 9022, 9023 및 9024)를 얻는다. 그 후, 데이터(9011 내지 9014) 및 대응하는 데이터(9021 내지 9024)는 기계 학습 모델(705)을 트레이닝하는 데 사용된다.
일 실시예에서, 기계 학습 모델은 특정 패터닝 디바이스 패턴에 특정적일 수 있다. 다시 말해서, 기계 학습 모델은 상이한 패터닝 디바이스 패턴에 대해 재트레이닝될 수 있다. 일부 실시예들에서, 하나의 트레이닝된 기계 학습 모델이 유사한 클립 패턴들을 갖는 수 개의 상이한 패터닝 디바이스 패턴들에 사용될 수 있다.
일 실시예에서, 기계 학습 모델은 패터닝 디바이스 패턴에 사용되는 특정 디바이스 제조 공정에 특정적이다. 예를 들어, 디바이스 제조 공정은 사용되는 소정 조명 타입, 사용되는 소정 레지스트, 소정 투영 시스템 설정 등에 관하여 구성될 수 있다. 이러한 디바이스 제조 공정 파라미터들 중 1 이상이 "참" 데이터를 생성하는 데 사용될 수 있으므로, 기계 학습 모델은 디바이스 제조 공정의 특정 구성에 특정적일 수 있다. 이해하는 바와 같이, "참" 데이터의 생성은 1 이상의 공정 파라미터에 대한 섭동(perturbations)을 설명하는 시뮬레이션들을 수반할 수 있고, 따라서 기계 학습 모델은 디바이스 제조 공정의 특정 구성의 변화로 확장될 수 있다. 일 실시예에서, 디바이스 제조 공정의 특정 구성이 재료 측면에서 변경되는 경우, 새로운 기계 학습 모델이 트레이닝될 필요가 있거나, 또는 이전의 유사한 기계 학습 모델이 재트레이닝될 필요가 있을 수 있다.
도 8에서, 본 발명의 예시적인 실시예에 따른 디자인 패턴의 예시적인 입력 데이터(6000)(이 경우에는, 도 8에 예시된 바와 같은 디자인 패턴의 이미지)가 예측된 광 근접 보정 데이터(6005), 이 경우에는 SRAF가 적용된 입력 디자인 패턴의 예측된 맵(도 8에 예시된 바와 같이, SRAF는 어두운 피처에 인접한 밝은 회색으로 도시됨)를 생성하기 위해 트레이닝된 기계 학습 모델(705)에 입력될 수 있는 것으로 도시되어 있다. 대안적으로 또는 추가적으로, 데이터(6000)는 기계 학습 모델을 트레이닝하기 위한 입력 데이터일 수 있고, 데이터(6005)는 데이터(6000)의 디자인 패턴에 대한 기준 데이터에 대응한다.
이제, 기계 학습 모델을 위한 트레이닝 방법 및 기계 학습 모델 품질을 개선하는 방법들에 관한 추가 기술들이 설명된다. 이 기술들은 본 명세서에 설명된 기계 학습 방법들 및 흐름들 중 어느 것에도 적용될 수 있으며, 따라서 새로운 모델을 생성하거나 기존 모델들을 재트레이닝하는 데 사용될 수 있다. 바람직하게는, 이 추가 기술들은 정확하고 일관된 광 근접 보정(예를 들어, 어시스트 피처 배치) 예측을 제공할 수 있고, 및/또는 예를 들어 풀칩 적용에 대해 비교적 빠른 속도로 수행할 수 있는 고도로 트레이닝된 기계 학습 모델의 생성을 가능하게 한다.
도 9a는 본 발명의 예시적인 실시예에 따른 기계 학습 모델을 트레이닝하는 방법에 대한 흐름도이다. 이 방법에서, 트레이닝 데이터는 예를 들어 광 근접 보정의 개선된 정확성 및 일관성을 가능하게 하도록 보완된다. 기준 그리드 의존성은 기준 그리드 기반 시뮬레이션들로 인한 광 근접 보정(예를 들어, 어시스트 피처 배치)을 포함하는 전산 리소그래피에서 중요하다. 이는, 예를 들어 도 4a 내지 도 4e와 관련하여 앞서 설명되었다. 따라서, 그리드 의존성의 영향을 감소시키고, 및/또는 그리드 의존성의 관점에서 일관성을 개선하는 데 도움이 되는 기술들을 제공하는 것이 바람직하다. 따라서, 바람직하게는 기계 학습 모델의 출력의 공정 윈도우를 개선하는 것과 같이, 예를 들어 일관성을 개선하고 그리드 의존성을 감소시키는 것을 돕기 위해 트레이닝 데이터 증강을 가능하게 하는 방법이 이제 설명된다.
프로세스는 기계 학습 모델을 트레이닝하기 위한 입력으로서 디자인 패턴에 관한 데이터(5000)로 시작한다. 일 실시예에서, 기계 학습 모델이 어시스트 피처들을 배치하도록 트레이닝되고 있는 경우, 디자인 패턴은 타겟 디자인 패턴 또는 어시스트 피처들을 포함하지 않는 디자인 패턴의 부분이다. 일 실시예에서, 이전 OPC가 디자인 패턴에 수행되었을 수 있다.
일련의 프로세스들에서, 디자인 패턴(5000)은 기계 학습 모델의 트레이닝을 위해 디자인 패턴(5000)의 광 근접 보정된 입력 이미지들로 변환된다. 프로세스 S501에서, 디자인 패턴(5000)은 예를 들어 디자인 패턴을 시프팅하거나 기준 그리드를 시프팅함으로써 도 4c에 일반적으로 예시된 바와 같이 제 1 방향(예를 들어, X-축) 및/또는 제 2 방향(예를 들어, Y-축)으로 기준 그리드에 대해 시프팅된다. 프로세스 S501에서, 디자인 패턴(5000)은 1 이상의 시프팅된 디자인 패턴(5001)을 생성하기 위해 한 번 이상 시프팅될 수 있다. 예를 들어, 디자인 패턴(5000)은 픽셀의 치수의 크기보다 작은 스텝 크기로 일련의 픽셀들 사이에서 X 및/또는 Y 방향으로 시프팅되어[예를 들어, 20 nm 이하의 시프트(픽셀의 치수가 20 nm보다 큰 경우), 10 nm 이하의 시프트(픽셀의 치수가 10 nm보다 큰 경우), 5 nm 이하의 시프트(픽셀의 치수가 5 nm보다 큰 경우), 1 nm 이하의 시프트(픽셀의 치수가 1 nm보다 큰 경우)], 시프팅된 디자인 패턴들(5001)을 생성할 수 있고, 여기서 각각의 패턴은 픽셀들의 기준 그리드에 대해 상이한 서브 픽셀에(상이한 방위로) 놓인다. 예를 들어, 시프트들이 서브픽셀들 사이의 시프트들로 간주되는 경우, 각각의 패턴은 상이한 서브픽셀 그리드에 놓인다. 따라서, 서브픽셀들은 예를 들어 픽셀의 크기에 따라 픽셀을 더 작은 단위로 분할함으로써 얻어진다. 예를 들어, 10 nm x 10 nm의 픽셀 크기에 대해, 10 x 10의 서브픽셀 그리드가 형성될 수 있으며, 각각의 서브픽셀 크기는 1 nm x 1 nm이다. 이러한 것으로서, 시프팅된 디자인 패턴들(5001)의 10x10 어레이가 생성될 수 있다.
일 실시예에서, X 및 Y 방향들로의 시프트들이 모두 수행된다. 일 실시예에서, X 방향의 시프트 크기는 Y 방향의 시프트 크기와 동일할 필요는 없다. 또한, 동일한 방향으로의 상이한 시프트들에 대해 시프트 크기들의 상이한 조합들이 사용될 수 있다. 예를 들어, X 또는 Y 방향으로의 제 1 시프트는 1 nm일 수 있고, X 또는 Y 방향으로의 제 2 시프트는 2 nm일 수 있다.
프로세스 S503에서, 시프팅된 디자인 패턴들(5001)은 예를 들어 SMO-MO, 역 OPC(iOPC) 또는 다른 광 근접 기술을 사용하여 광 근접 보정들로 처리되어, 광 근접 보정된 이미지들(5003)을 생성한다. 일 실시예에서, 이미지들(5003)은 시프팅된 디자인 패턴들(5001) 각각으로부터 생성되는 CTM 맵들일 수 있다. 일 실시예에서, CTM 맵들을 생성하는 기술은 에지 배치 오차(EPE)에 기초하여 광 근접 보정들을 결정하고 수렴까지 다수의 반복을 수반한다. 따라서, 처리 시간이 비교적 길 수 있지만, CTM 맵들은 꽤 정확할 수 있다. 따라서, 기계 학습 모델을 트레이닝하기 위해 클립들의 CTM 맵들을 사용하는 것이 유용할 수 있지만, 예를 들어 SMO-MO를 사용하는 풀칩 OPC에 CTM 맵을 사용하는 것은 바람직하지 않다.
프로세스 S505에서, 이미지들(5003)은 평균 이상의 공정 윈도우를 갖는 1 이상의 이미지(5005)를 결정하고 선택하기 위해 분석된다. 공정 윈도우는 ASML의 Tachyon 및/또는 LMC 제품들과 같은 당업계에 알려진 기술들 및 툴들을 사용하여 결정될 수 있으며, 본 명세서에서 인용참조되는 문서들에 기재되어 있다. 평균 이상의 공정 윈도우는 이미지들(5003)의 최상의 공정 윈도우일 수 있다. 평균 이상의 공정 윈도우는 최상의 공정 윈도우의 20 % 내의 공정 윈도우일 수 있다. 공정 윈도우의 품질은 공정 윈도우를 나타내는 메트릭, 예를 들어 1 이상의 패턴 피처가 기준을 충족시키는 2 이상의 공정 파라미터들 하의 영역을 사용하여 평가될 수 있다. 일 실시예에서, 메트릭은 1 이상의 패턴 피처가 기준을 충족시키는 공정 윈도우의 파라미터들 중 1 이상의 범위(예를 들어, 도즈-포커스 공정 윈도우에 대한 포커스 범위)의 크기일 수 있다.
프로세스 S507에서, 1 이상의 방위지정된 이미지(oriented image: 5007)를 생성하기 위해 선택된 이미지들(5005)에 대해 1 이상의 방위지정 작업(orientation operation)이 수행될 수 있다. 예를 들어, 선택된 이미지들(5005)은 회전되거나(예를 들어, 각도가 45 ° 또는 90 °의 배수인 0 내지 360 °로부터 선택됨), 플립(flip)되거나(예를 들어, 미러링됨), 또는 회전 및 플립 모두 수행되어, 1 이상의 방위지정된 이미지(5007)를 생성할 수 있다. 일 실시예에서, 방위지정 작업의 타입은 리소그래피 장치에서 사용되는 조명의 형상의 대칭에 기초할 수 있다. 예를 들어, 환형 형상의 조명에 대해, 회전 및 미러 작업들이 둘 다 수행될 수 있다. 다이폴 형상의 조명에 대해, 플립 작업만이 수행될 수 있다. 또한, 방위지정 작업의 각도는 조명의 대칭에 의존할 수 있다. 예를 들어, X 축에 정렬된 극(pole)들을 갖는 다이폴이 X 및/또는 Y 축들을 걸쳐 플립 또는 미러링될 수 있다. 또 다른 예시로서, X 축에 대해 45 ° 라인 상에 정렬된 극들을 갖는 다이폴은 그 라인 또는 다이폴의 극들 사이의 중심부를 통과하는 라인과 수직인 라인에 걸쳐 플립 또는 미러링될 수 있다.
프로세스 S509에서, 방위지정된 이미지들(5007)은 프로세스 S501에서 논의된 것과 유사한 방식으로 X 및/또는 Y 방향들로 더 시프팅되어, 이미지들(5009)을 생성할 수 있다. 일 실시예에서, 프로세스 S501에서 적용된 것과 동일한 시프트들이 이미지들(5007)에 적용되어 이미지들(5009)을 생성한다.
또 다른 일련의 프로세스들에서, 디자인 패턴(5000) 자체는 기계 학습 모델의 트레이닝에 사용하기 위해 이미지들(5009) 각각에 대응하는 디자인 패턴(5000)의 입력 이미지들로 변환된다. 예를 들어, 5009의 각각의 이미지는 동일한 작업들로부터 생성되는 5012의 대응하는 이미지를 갖는다. 예를 들어, 5009의 이미지 A가 90 °의 회전 및 dx 및 dy에 의한 시프트에 의해 생성되는 경우, 유사한 회전 및 시프트 작업들이 디자인 패턴의 원래 입력 이미지에 적용되어 이미지 B를 형성한다. 프로세스 S511에서, 디자인 패턴(5000)은 선택적으로 렌더링되어, 렌더링된 디자인 패턴(5011)을 생성할 수 있다. 예를 들어, 렌더링된 디자인 패턴(5011)은 이진화된 디자인 패턴(500)의 그레이 스케일 이미지일 수 있다. 프로세스 S512에서, 패턴(5000) 또는 패턴(5011)은 프로세스 S507과 유사하게 플립 및/또는 회전되고, 프로세스 S509와 유사하게 X 및/또는 Y 방향들로 시프팅되어, 시프팅된 입력 디자인 패턴들(5012)을 생성할 수 있다. 일 실시예에서, 프로세스 S501에서 적용된 것과 동일한 시프트들이 패턴(5000) 또는 패턴(5011)에 적용되어 패턴들(5012)을 생성한다. 일 실시예에서, 프로세스 S512에서 적용된 것과 동일한 플립들 및/또는 회전들이 패턴(5000) 또는 패턴(5011)에 적용되어 패턴들(5012)을 생성한다.
프로세스 S520에서, 패턴들(5012) 및 이미지들(5009)[예를 들어, 이미지들(5009) 각각과 패턴들(5012) 각각 사이에 이미지 쌍이 존재하는 경우]은 기계 학습 모델을 트레이닝하고 트레이닝된 기계 학습 모델(5200)을 생성하는 데 사용된다. 트레이닝 프로세스는 반복적일 수 있으며, 트레이닝된 기계 학습 모델(5200)을 구축하기 위해 수 개의 트레이닝 데이터 포인트들을 취할 수 있다. 이해하는 바와 같이, 이 기술들은 상이한 입력 디자인 패턴들(5000)에 대한 패턴들(5012) 및 이미지들(5009)의 복수의 조합들을 제공하기 위해 다양한 디자인 패턴들에 적용될 수 있다. 일 실시예에서, 점선으로 나타낸 바와 같이, 패턴들(5011) 및 이미지들(5003)은 기계 학습 모델을 트레이닝하고 트레이닝된 기계 학습 모델(5200)을 생성하는 데 사용될 수 있다. 앞선 논의는 패턴들 및 이미지들에 초점을 두었지만, 조작된 데이터 및 결과적인 트레이닝 데이터는 패턴들(5012)의 1 이상의 특성 및 이미지들(5009)의 1 이상의 특성과 같은 더 일반적인 데이터일 수 있다. 일단 이 데이터로 트레이닝되면, 트레이닝된 기계 학습 모델(5200)은 도 6에 예시된 바와 같이 여하한의 입력 디자인 패턴으로부터 예측된 광 근접 보정(예를 들어, 어시스트 피처 배치)을 생성하는 데 사용될 수 있다.
본 명세서에서 논의되는 기계 학습 모델 트레이닝 프로세스들은 1 이상의 목적 함수, 예를 들어 "참" 데이터와 기계 학습 모델 예측 데이터 간의 차이를 최소화하는 1 이상의 비용/손실 함수의 평가를 수반한다. 이러한 목적 함수들은 두 데이터 세트들 간의 차이의 오차와 같은 1 이상의 소정 메트릭의 평가에 기초할 수 있다.
이제, 이 다른 평가 메트릭들 중 일부가 처음에 도 9b와 관련하여 논의될 것이다. 도 9b는 목적 함수에 기초하여 기계 학습 모델 파라미터들을 업데이트하는 방법에 대한 흐름도이다. 이는 도 9a의 프로세스 S520, 또는 그 일부와 함께 구현될 수 있다. 프로세스는 디자인 패턴(5000)과 같은 디자인 패턴을 얻음으로써 시작된다. 프로세스 S541에서, 기계 학습 모델은 디자인 패턴(5000)[또는 예를 들어, 패턴들(5011 또는 5012)]에 대한 예측된 광 근접 보정 데이터(5041)를 생성한다. 일 실시예에서, 예측된 데이터(5041)는 예를 들어 예측된 CTM 맵 또는 광 근접 보정(예를 들어, 어시스트 피처들의 배치)의 다른 이미지 표현을 포함한다.
프로세스 S551에서, 디자인 패턴(5000)에 대해 기준 데이터(5051)가 얻어진다(예를 들어, SMO-MO 또는 iOPC 기술을 사용하여 생성됨). 예를 들어, 이 데이터는 예를 들어 패턴들(5003 또는 5009) 또는 도 5의 데이터(7005) 또는 도 7의 데이터(9021 내지 9024)일 수 있다.
프로세스 S543 및/또는 프로세스 S553에서, 예측된 데이터(5041) 및/또는 기준 데이터(5051)는 각각 수정된 예측된 데이터(5043) 및/또는 수정된 기준 데이터(5053)를 생성하도록 더 처리된다. 프로세스 S543 및/또는 프로세스 S553의 처리의 일부 예시들은 도 10 내지 도 15와 관련하여 아래에서 더 설명된다.
프로세스 S520에서, 기준 데이터(5051) 또는 수정된 기준 데이터(5053)(일반적으로 다음 단락의 기준 데이터)가 기계 학습 모델의 파라미터들이 수정될 수 있는 목적 함수의 일부로서 예측된 데이터(5041) 또는 수정된 예측된 데이터(5043)(일반적으로 다음 단락의 예측된 데이터)와 평가될 수 있다. 예를 들어, 목적 함수는 기준 데이터(5051) 또는 수정된 기준 데이터(5053)와 예측된 데이터(5041) 또는 수정된 예측된 데이터(5043) 간의 차이를 이용하여 평가될 수 있다. 이해하는 바와 같이, 메트릭, 데이터 등에 적절하다면, 기준 데이터(5051)가 예측된 데이터(5041)와 평가될 수 있거나, 기준 데이터(5051)가 수정된 예측된 데이터(5043)와 평가될 수 있거나, 수정된 기준 데이터(5053)가 예측된 데이터(5041)와 평가될 수 있거나, 또는 수정된 기준 데이터(5053)가 수정된 예측된 데이터(5043)와 평가될 수 있다. 일 실시예에서, 기준 데이터에 대해 변환이 수행될 수 있고, 예측된 데이터에 대해 동일한 변환이 수행된 후, 변환된 기준 데이터와 대응하여 변환된 예측된 데이터 간의 차이가 얻어질 수 있다.
일 실시예에서, 평균 제곱 오차(MSE) 또는 x-도 오차의 평균(mean of x-degree error: MXE)(x는 2보다 클 수 있음)(예를 들어, 4 도 오차는 오차의 네제곱을 의미함) 메트릭이 모든 데이터, 예를 들어 기준 데이터 및 예측된 데이터의 모든 픽셀들에 동일한 중요성(예를 들어, 가중치)을 할당하는 목적 함수에서 사용될 수 있다. 이러한 것으로서, 도 10을 참조하면, 주 피처(1005)(예를 들어, 접촉홀) 및 어시스트 피처들(1008)이 도 10(및 도 11)에 예시되어 있다. 도 10에서, 기준 데이터(1000)와 기계 학습 모델 예측 데이터(1010) 간의 차이가, 예를 들어 차이(1020)로 표현된 바와 같이 연산된다. 도 10의 이 예시에서, 기준과 예측 간의 차이가 0보다 큰 경우, 밝은 스폿(예를 들어, 값이 1 이상인 픽셀)이 이미지에 나타나고; 반면에, 차이가 0인 경우, 어두운 스폿(예를 들어, 값이 0인 픽셀)이 이미지에 나타난다. 따라서, MSE 또는 MXE 메트릭은 연산된 차이에서 사용되고 비용 또는 손실 함수에서 평가되어, MSE 또는 MXE를 최소화하도록 기계 학습 모델 파라미터들을 조정할 수 있다. 예를 들어, 도 10의 예시에서, 기계 학습 모델 파라미터들은 차이 이미지(1020)가 도 10에 도시된 것과 비교하여 감소된 양의 밝은 스폿들을 갖도록 수정되어, 거의 완전히 어두운 구역이 존재하도록 할 수 있다. 이는 예측된 데이터(1010)와 기준 데이터(1000) 간의 강한 매칭을 나타낼 것이다. 더 논의되는 바와 같이, 추가적인 또는 대안적인 평가 메트릭이 유리할 수 있으며, MSE 또는 MXE보다 우수한 결과들을 트레이닝된 모델로부터 산출할 수 있다.
일 실시예에서, 예측된 데이터 및 기준(5051)의 처리는 예측된 데이터 및/또는 기준 데이터의 다른 데이터보다 예측된 데이터 및/또는 기준 데이터에서의 소정 광 근접 보정과 연계된 데이터에 더 높은 중요성(예를 들어, 가중치)을 할당하는 것을 수반할 수 있다. 예를 들어, 예측된 데이터 및/또는 기준 데이터에서 소정의 배치된 어시스트 피처에 더 높은 가중치가 할당될 수 있다.
일 실시예에서, 도 11을 참조하면, 목적 함수는 예측된 데이터 및/또는 기준 데이터에서 상이한 데이터(예를 들어, 픽셀들)에 상이한 가중치들이 할당될 수 있는 가중된 오차 메트릭(예를 들어, 가중된 MSE/MXE)을 평가할 수 있다. 예를 들어, 비교적 높은 가중치가 소정 광 근접 보정(예를 들어, 어시스트 피처) 구역, 즉 더 높은 가중된 광 근접 보정이 위치되는 구역과 연계된 데이터에 할당될 수 있다. 일 실시예에서, 그 구역은 적어도 주 피처에 가장 가까운 1 이상의 광 근접 보정(예를 들어, 어시스트 피처)을 포함하는 주 피처에 가장 가까운 구역일 수 있다. 또 다른 예시에서, 비교적 높은 가중치가 광 근접 보정의 에지 상의 부분들(예를 들어, 픽셀들)에 할당될 수 있다. 예를 들어, 산란 바아의 에지는 산란 바아의 내부보다(그리고 선택적으로 디자인 패턴의 다른 부분들보다) 높게 가중될 수 있다. 또 다른 예시에서, 가중치는 감쇠 함수(decaying function)에 기초하여 할당될 수 있으며, 여기서 가중치는 주 피처로부터의 거리가 증가함에 따라 감소한다. 따라서, 예를 들어, 주 피처에 더 가까운 픽셀들이 주 피처에서 멀리 떨어진 픽셀들보다 큰 가중치를 가질 것이다.
도 11에서, 기준 데이터(1100)와 예측된 데이터(1110) 사이의 차이가 차이(1120)를 생성한다. 일 실시예에서, (예를 들어, 프로세스 S553을 이용한) 기준 데이터(1100), (예를 들어, 프로세스 S543을 이용한) 예측된 데이터(1110) 및/또는 차이(1120)는 (예를 들어, 광 근접 보정들의 에지들의) 맵, 함수(예를 들어, 앞서 설명된 감쇠 함수), 데이터 세트(예를 들어, 디자인 패턴의 구역들 또는 에지의 위치들) 등에 따른 가중치(1130)와 조합된다. 도 11의 예시에서, 가중치는 차이(1120)와 곱해진다. 또한, 도 11의 예시에서, 가중치(1130)는 가중치 맵의 형태이며, 여기서 가중치 맵은 주 피처에 가까운 픽셀들[이미지(1130)의 밝은 스폿들]에 더 높은 가중치를 할당하고, 밝은 스폿들로부터 연장되는 비교적 어두운 음영으로 예시되는 주 피처로부터 떨어진 픽셀들에 더 낮은(예를 들어, 점차 감소하는) 가중치를 할당한다. 도 11의 이 예시에서, 가중치 맵(1130)은 추가 광 근접 보정(1008)을 갖는 구역을 포함하는 다른 구역들에 비해 소정 광 근접 보정(1009)으로 비교적 높은 가중치를 할당한다. 따라서, 이 경우에, 1 이상의 다른 광 근접 보정(예를 들어, 1 이상의 어시스트 피처의 추가 링)(1008)보다 소정 광 근접 보정(예를 들어, 어시스트 피처들의 링)(1009)이 선호된다.
일 실시예에서, 예측된 데이터 및 기준 데이터의 처리는 로지스틱 함수와 같은 이진화 함수를 이용하여, 예측된 데이터를 이미지 또는 픽셀 형태로 변환하고, 및/또는 기준 데이터를 이미지 또는 픽셀 형태로 변환하는 것을 수반할 수 있으며, 목적 함수의 메트릭이 그 처리된 예측 및/또는 기준 데이터를 사용한다. 일 실시예에서, 이진화 함수는 함수 변환을 통해 이미지를 반-이진(semi-binary)(즉, 0과 1 사이의 값들을 갖는 픽셀들) 또는 이진 이미지(즉, 0 또는 1의 값들을 갖는 픽셀들)로 전환/변환하는 여하한의 함수일 수 있으며, 이때 함수는 예를 들어 로지스틱 함수이다. 일 실시예에서, 이진화 함수를 이미지에 적용할 때, 반-이진의 픽셀 값들은 0 또는 1에 매우 근접(예를 들어, 극값 0 또는 1의 10 % 미만)할 수 있다. 예를 들어, 0에 매우 가까운 픽셀 값들은 0, 0.01, 0.05 등일 수 있으며, 1에 매우 가까운 값들은 0.9, 0.95, 1 등일 수 있다. 따라서, 본 발명은 이진 이미지에만 제한되지는 않는다.
일 실시예에서, 로지스틱 함수는 다음의 형태일 수 있다:
Figure pat00008
여기서, L은 곡선의 최대 값이고, k는 곡선의 첨도(steepness)이며, x0은 임계값(예를 들어, x의 중간점)이다. 일 실시예에서, 로지스틱 함수는 시그모이드 함수(sigmoid function)이다(즉, k=1, x0=0, 및 L=1).
도 12a를 참조하면, 목적 함수는 로지스틱 함수를 사용하여 이진화된 버전의 예측 및/또는 기준 데이터를 사용한 메트릭에 기초할 수 있다. 즉, 일 실시예에서, 시그모이드 함수와 같은 로지스틱 함수는 예측된 및/또는 기준 데이터의 그레이 스케일 이미지를 사용하여 이진 이미지로 전환(예를 들어, 적용가능하다면 프로세스 S543 및/또는 프로세스 S553)하기 위해 사용된다. 예를 들어, 기준 데이터 이미지(1200)는 기준 이진 데이터 이미지(1202)로 전환되고, 예측된 데이터 이미지(1210)는 이진 예측된 데이터 이미지(1212)로 전환된다.
이 이진화 기술에서, 광 근접 보정(예를 들어, 어시스트 피처)의 위치는 그 세기보다 중요하다. 다시 말해서, SRAF 맵들(예를 들어, 1200 또는 1210)은 주 피처 주위에 SRAF 다각형을 배치하기 위한 가이드 역할을 한다. SRAF 다각형 배치는 SRAF 맵의 형상(예를 들어, 피크 값들) 정보에 기초한다. 따라서, ML 예측 맵(예를 들어, 1210)이 기준 맵(예를 들어, 1200)보다 낮은 세기를 갖지만 형상 정보가 이용가능한 경우, (예를 들어, 기준 맵에서 이용가능한) 동일한 SRAF 다각형이 주 피처들 주위에 배치될 수 있다.
일 실시예에서, 이진화는 단일 단계 프로세스(예를 들어, 수학식 1을 적용함) 또는 2-단계 프로세스(예를 들어, 수학식 1 및 추가 임계치 기반 이진 전환을 적용함)일 수 있다. 예를 들어, 일 실시예에서, 이진화를 가능하게 하기 위해, 로지스틱 함수 기반 변환의 결과에 임계값이 할당될 수 있다. 예를 들어, 시그모이드 함수의 경우, 임계치는 대략 0.5보다 클 수 있으며, 이는 시그모이드 변환 후 대략 0.5보다 큰 값을 갖는 결과 이미지의 픽셀에 값 1이 할당되고, 그렇지 않으면 픽셀에 값 0이 할당됨을 나타낸다. 로지스틱 함수가 사용되는 경우, 이진 "1"은 X0에서의 로지스틱 함수 값보다 큰 로지스틱 함수 값을 갖는 입력 값들에 할당될 수 있고, 이진 "0"은 X0에서의 로지스틱 값보다 작은 로지스틱 함수 값을 갖는 입력 값들에 할당될 수 있다.
일 실시예에서, 이진 비용과 관련하여, 그레이-스케일 이미지를 이진 또는 반-이진 이미지로 전환하는 상이한 방식들이 채택될 수 있다. 예를 들어, 그레이-스케일 이미지를 이진화하기 위해 고정된 임계치, 즉 계단 함수를 사용한다. 또는, 이를 반-이진 이미지로 전환하기 위해 시그모이드 함수를 사용한다. 일 실시예에서, 이진화는 예를 들어 시그모이드 변환을 통한 1 단계 프로세스일 수 있다.
일 실시예에서, 이진화는 MSE, MXE, RMS 등과 같은 여하한의 목적 함수 메트릭과 사용될 수 있다. 일 실시예에서, 이진화는 미세조정 프로세스로서 정규 MSE/MXE 비용 함수와 함께 사용되어, 정규 MSE/MXE 비용 함수를 사용하여 트레이닝되는 기본 모델(baseline model)을 더 개선할 수 있다.
도 12b는 이진화된 기준 및 예측된 데이터를 사용한 비용 함수의 결과를 예시한다. 이진화된 기준 데이터(1250)와 이진화된 예측된 데이터(1255) 간의 차이가 연산된다. 결과는 예시된 바와 같은 차이(1260)이다. 따라서, 이진화된 기준 데이터(1250) 및 이진화된 예측된 데이터(1255)를 사용하는 목적 함수의 메트릭의 평가에 기초하여, 기계 학습 모델 파라미터들이 수정될 수 있다. 예를 들어, 일 실시예에서, RMS, MSE 또는 MXE와 같은 메트릭을 사용하는 비용 또는 손실 함수가 비용 또는 손실 함수의 최소화 프로세스를 통해 기계 학습 모델의 1 이상의 파라미터를 조정함으로써 차이(1260)를 감소시킬 수 있다.
일 실시예에서, 예측된 데이터 및 기준 데이터의 처리는 적어도 부분적으로 기준 및/또는 예측된 데이터를 구성하는 이미지 데이터에서 1 이상의 광 근접 보정 각각의 에지를 식별하는 것을 수반할 수 있다. 또한, 일 실시예에서, 광 근접 보정(들)의 다른 부분 및/또는 디자인 패턴의 다른 부분들보다 예측된 및/또는 기준 데이터의 1 이상의 식별된 에지에 더 높은 중요성(예를 들어, 가중치)이 할당될 수 있다.
일 실시예에서, 도 13을 참조하면, 목적 함수는 본 발명에 따른 에지 픽셀 향상 기술을 사용할 수 있다. 에지 픽셀 향상 기술에서, 1 이상의 주 피처 및/또는 1 이상의 광 근접 보정의 에지 픽셀들이 식별되어, 예를 들어 (예를 들어, 프로세스 S553 및/또는 S543을 사용하여) 원래 이미지(1300)를 기계 학습 모델의 트레이닝에 사용되는 수정된 이미지(1302)로 효과적으로 변환한다. 에지 픽셀 향상 기술에서, 원래 이미지(1300) 내의 모든 픽셀에 대해, 픽셀이 4 개의 이웃(위, 아래, 왼쪽, 오른쪽)에 대하여 (임계치, 예를 들어 픽셀 세기가 [0, 1]에 있는 경우에 적어도 0.5의 수치에 대해) 상이한 부호들을 갖는 경우, 픽셀은 에지 픽셀로 간주된다. 일 실시예에서, 에지 픽셀 식별은 다양한 인접 방향들과 관련하여 픽셀에 대한 그래디언트의 평가를 수반한다. 일단 에지 픽셀들이 식별되면, 이미지의 다른 부분들과는 상이한 중요성이 에지 픽셀들에 적용될 수 있다. 예를 들어, 주 피처 및/또는 광 근접 보정의 내부보다 에지 픽셀들에 더 높은 가중치가 적용될 수 있다. 일 실시예에서, 모든 다른 부분들보다 주 피처 및/또는 광 근접 보정의 에지 픽셀들에 더 높은 가중치가 적용될 수 있다. 그 후, 수정된 이미지(1302) 및/또는 가중된 이미지(1302)는 기계 학습 모델의 트레이닝의 일부로서 목적 함수의 평가 메트릭(예를 들어, MSE, MXE, RMS 등)과 사용될 수 있다. 일 실시예에서, 목적 함수의 공간 평가들은 에지 픽셀 정보에만 기초한다. 일 실시예에서, 에지 픽셀 향상 기술은 또 다른(예를 들어, MSE/MXE) 비용 함수를 사용하여 트레이닝되는 기본 모델을 더 개선하기 위해 미세조정 기술로서 사용될 수 있다.
일 실시예에서, 예측된 데이터 및 기준 데이터의 처리는 기준 및/또는 예측된 데이터를 적어도 부분적으로 구성하는 이미지 데이터에서의 1 이상의 주 피처 및/또는 1 이상의 광 근접 보정의 에지 포인트들의 향상을 수반할 수 있다. 그 후, 향상된 에지 포인트들을 갖는 이미지 데이터는 기계 학습 모델 트레이닝 방법의 목적 함수를 평가하는 데 사용될 수 있다.
일 실시예에서, 도 14를 참조하면, 목적 함수는 본 발명에 따른 에지 포인트 향상 기술을 사용할 수 있다. 에지 포인트 향상 기술에서, 기준 이미지로부터의 1 이상의 주 피처 및/또는 기준 및/또는 예측된 데이터의 1 이상의 광 근접 보정의 에지를 따라 윤곽이 추적(또는 추출)된다. 일 실시예에서, 윤곽들을 추적하기 위해 임계값(예를 들어, 0.5의 임계치와 같은 0과 1 사이의 픽셀 값)이 사용될 수 있다. 윤곽은 1 이상의 주 피처 및/또는 1 이상의 광 근접 보정의 에지 포인트들을 추적한다. 윤곽은 수 개의 포인트들(게이지 포인트라고도 함)을 포함하며, 각각의 게이지 포인트는 (예를 들어, 0과 1 사이의) 세기 값을 갖는다. 이 에지 포인트들은 ML 트레이닝 프로세스에서 게이지 역할을 한다. 트레이닝 단계에서, ML 모델이 이미지를 예측한 후, 이미지의 게이지 포인트 위치에서의 세기 값이 결정된다. 예를 들어, 보간 방법이 게이지 위치들에서 세기 값들을 결정하는 데 사용될 수 있다. 그 후, (예측된 이미지의) 예측된 세기 값을 진리값, 즉 임계치와 비교함으로써 비용 함수가 평가된다.
일 실시예에서, 에지 포인트 향상 기술은 기준 및/또는 예측된 데이터의 이미지(예를 들어, 그레이-스케일 이미지)를 여하한의 윤곽 식별 기술을 사용하여 1 이상의 주 피처 및/또는 1 이상의 광 근접 보정의 윤곽들(예를 들어, GDSII, OASIS 또는 다른 형식)로 전환하는 것을 수반한다. 예를 들어, 윤곽 식별 기술은 에지를 식별하고 임계치를 적용하여 윤곽을 식별(예를 들어, 에지에 수직인 라인을 따라 그레이-스케일 값들을 평가하고 에지를 통해 실행하여, 윤곽 위치로서 식별하기 위해 그레이-스케일 값이 소정 임계치를 통과하는 위치를 식별)하는 것을 수반할 수 있다. 일 실시예에서, 윤곽 식별 기술은 윤곽을 추출하기 위해 에지를 따르는 포인트들에서 그래디언트를 평가할 수 있다. 일 실시예에서, 이미지는 윤곽 식별을 위해 더 미세한 픽셀 그리드로 업스케일링(upscale)될 수 있다. 일 실시예에서, 이미지는 이진 픽셀들, 예를 들어 본 명세서에 설명된 기술을 사용하여 얻어진 이진화된 버전을 가질 수 있다. 일 실시예에서, 1 이상의 윤곽은 기준 데이터 및 예측 데이터의 이미지 데이터로부터 추출되고 목적 함수 평가에서 사용된다.
1 이상의 윤곽이 식별되면, 1 이상의 주 피처 및/또는 1 이상의 광 근접 보정의 1 이상의 윤곽으로부터 다수의 포인트들(예를 들어, 2 이상, 5 이상, 10 이상, 20 이상, 40 이상, 50 이상, 100 이상, 이는 윤곽마다 또는 디자인 패턴 전체에 대한 것일 수 있음)이 선택 될 수 있으며, 이 윤곽 포인트들은 기계 학습 모델 트레이닝의 일부로서 목적 함수 평가에서 사용될 것이다. 즉, 기계 학습 트레이닝은 타겟 이미지 값이 임계치와 동일하다고 알려지는 윤곽 포인트들에서 기계 학습 모델에 잘 맞도록 시행될 것이다(즉, 기준 데이터 및 예측된 데이터는 윤곽 상의 해당 위치들에서 잘 매칭되어야 한다). 따라서, 윤곽 포인트들의 평가에 초점을 둠으로써, 특히 광 근접 보정의 에지들에 더 높은 중요성이 주어진다. 예를 들어, SRAF 에지 포인트/픽셀만을 선택함으로써 SRAF에 강조(더 높은 중요성)가 배치될 수 있거나, 주 피처 에지 포인트/픽셀만을 선택함으로써 주 피처에 강조(더 높은 중요성)가 배치될 수 있거나, 또는 이들의 조합이 구성될 수 있다. 따라서, 일 실시예에서, 목적 함수의 공간 평가들은 윤곽 위치들에만 기초한다. 이제, 적용가능한 경우, 선택된 포인트들 중 1 이상이 이미지의 기준 픽셀 그리드로부터 벗어날 수 있으므로(즉, 효과적으로 서브픽셀에 있음), 국부적 보간 함수 또는 연산자가 이미지로부터의 그리드 데이터를 이용하여 1 이상의 선택된 포인트들에 대응하는 이미지 값을 연산하는 데 사용될 수 있다. 그 후, (보간에 의해 계산되든 아니든) 선택된 포인트들에서의 이미지 값들은 기계 학습 모델의 트레이닝 프로세스의 목적 함수의 여하한의 평가 메트릭(예를 들어, MSE, MXE 등)에서 사용될 수 있다. 일 실시예에서, 1 이상의 광 근접 보정의 선택된 에지 포인트들에는, 예를 들어 도 11과 관련하여 설명된 기술들을 사용하여 디자인 패턴의 다른 부분들 및/또는 연계된 광 근접 보정의 다른 부분들보다 더 높은 가중치가 더 할당될 수 있다. 일 실시예에서, 에지 포인트 향상 기술은 또 다른(예를 들어, MSE/MXE) 비용 함수를 사용하여 트레이닝되는 기본 모델을 더 개선하기 위해 미세조정 기술로서 사용될 수 있다. 일 실시예에서, 또 다른 메트릭(예를 들어, MSE, MXE)(정규화로서) 및 에지 포인트 기반 메트릭(예를 들어, 에지 포인트 MSE/MXE)이 하나의 목적 함수로 조합된다.
에지 포인트 향상 기술은 이미지로부터 피처들(예를 들어, 주 피처 및 SRAF)의 윤곽들을 추적하고 윤곽 데이터(즉, 피처의 윤곽을 따르는 포인트들)를 트레이닝 데이터(또는 트레이닝 게이지 포인트들)로서 사용하는 것을 수반한다. 예를 들어, 이미지(1400)에서, 피처들의 윤곽들이 추적되고, 이미지(1410)[또는 1410의 확대된 부분(1410A)]에 예시된 바와 같이 윤곽들을 따라 윤곽 포인트들이 중첩된다.
일 실시예에서, 기준 및 예측된 데이터로부터의 윤곽들이 기계 학습 모델 트레이닝 프로세스의 메트릭의 평가를 위한 데이터를 생성하는 기초로서 에지 배치 오차 방식으로 사용될 수 있다. 즉, 일 실시예에서, 에지 배치 오차는 기준 데이터 윤곽과 예측된 데이터 윤곽 사이에서 결정될 수 있으며, 이 에지 배치 오차는 목적 함수의 평가 메트릭(예를 들어, MSE, MXE)에서 사용될 수 있다. 도 15는 예시적인 실시예에 따른 기계 학습 프로세스의 목적 함수를 평가하는 데 사용되는 이러한 에지 배치 오차의 매우 개략적인 예시를 나타낸다. 도 15에서, 기준 데이터로부터의 패턴(1500)의 윤곽은 (기계 학습 모델에 의해 결정되는) 예측된 데이터로부터의 패턴(1510)의 윤곽과 함께 도시되어 있다(이 경우, 편의상 직사각형 다각형으로 도시되었지만 아주 곡선일 수 있음). 일 실시예에서, 패턴(1500) 및 패턴(1510)은 광 근접 보정(예를 들어, 어시스트 피처)에 대응한다. 나타낸 바와 같이, 패턴(1500) 및 패턴(1510)의 에지들의 소정 부분들에서, 예를 들어 거리 d1 및 d2만큼 오프셋된다. 목적 함수는 1 이상의 기계 학습 모델 파라미터의 조정을 통해 (모든 오프셋을 제거하지 않는 경우) 오프셋들 중 적어도 1 이상을 효과적으로 감소시키기 위한 목적 함수의 메트릭의 평가(예를 들어, 비용 함수의 MSE/MXE 메트릭의 최소화) 시 거리들(d1 및 d2)(및 다른 에지 배치 오차 거리들)일 수 있다.
일 실시예에서, 기계 학습 모델의 목적 함수는 기계 학습 모델에 의한 예측들의 일관성 및 대칭성을 개선하는 것을 돕는 페널티 항을 가질 수 있다. 특히, D(f(I), S-1(f(S(I))))의 형태와 같은 페널티 항이 목적 함수에 추가(및 목적 함수의 평가의 일부로서 평가)되어 일관성을 개선하는 데 도움이 될 수 있다. 이 예시에서, 함수 f는 기계 학습 모델을 사용한 입력 이미지 I의 예측에 대응한다. 이미지 I는 시프트 함수 S에 의해 이미지 I의 초기 위치로부터 시프팅되어 시프팅된 이미지 S(I)를 생성한다. 시프팅된 이미지 S(I)는 기계 학습 모델에 입력되어 예측된 시프팅된 입력 이미지 f(S(I))를 생성할 수 있다. 그 후, 예측된 시프팅된 입력 이미지 f(S(I))는 S의 역 시프트 함수 S-1에 의해 역 시프팅(즉, 도로 시프팅)되어 역 시프팅된 예측 이미지 S-1(f(S(I)))를 생성하고, 이에 따라 시프팅된 이미지를 다시 초기 위치로 효과적으로 시프팅할 수 있다. 또한, 입력 이미지 I는 예측된 이미지 f(I)를 생성하기 위해 시프팅 없이 기계 학습 모델에 바로 입력될 수 있다. 그 후, 역 시프팅된 예측 이미지 S-1(f(S(I))) 및 예측된 이미지 f(I)는 비교 함수 D를 사용하여 평가될 수 있다. 예를 들어, 함수 D는 예를 들어 차이를 찾기 위해 두 예측들 간의 거리를 식별하는 거리 함수일 수 있다. 일 실시예에서, 페널티 항 D(f(I), S-1(f(S(I))))은 일관성 및 대칭성을 개선하도록 돕기 위해, 예를 들어 0을 향하여 최소화된다. 시프트 함수 S는 일 예시로서 사용되며, 본 발명의 범위를 제한하지는 않는다. 일 실시예에서, 다른 이미지 작업이 단독으로 또는 이러한 회전, 플립 등과 조합하여 수행될 수도 있다. 따라서, 시프트 함수는 시프트, 회전, 플립, 다른 작업들, 또는 이들의 조합을 포함할 수 있다.
일 실시예에서, 본 명세서에 설명된 다양한 기술들은 여하한의 적절한 조합들로 조합될 수 있고, 한 기술의 1 이상의 측면이 또 다른 기술의 1 이상의 측면으로 통합되거나 대체될 수 있다. 예를 들어, 특정 목적 함수는 본 명세서에 설명된 메트릭들의 조합을 통합하거나 기술들의 조합을 사용하여 목적 함수의 평가를 위한 데이터를 생성할 수 있다. 또는, 또 다른 예시로서, 복수의 목적 함수들이 사용되어 상이한 메트릭들을 통합하거나 목적 함수의 평가를 위해 상이한 기술들에 의해 처리된 데이터를 사용할 수 있다.
따라서, 본 발명에 따른 기계 학습 모델의 트레이닝 프로세스 및 연계된 목적 함수 기술들은 1 이상의 이점을 가질 수 있다. 앞서 언급된 바와 같이, 본 명세서에 설명된 기술들 중 1 이상이 더 일관된 예측을 가능하게 하고, 개선된 정확성을 가능하게 하며, 및/또는 큰 패턴에 대해 더 빠른 광 근접 보정 예측을 가능하게 할 수 있다. 추가적으로 또는 대안적으로, 기계 학습 트레이닝 및 사용은 유리하게는 그레이-스케일 이미지를 입력 및/또는 출력으로서 사용할 수 있다. ML 입력으로서, 그레이-스케일 표현은 동일한 그리드 분해능이 주어진 경우에 종래의 이진 표현보다 훨씬 더 많은 정보를 포함할 수 있다. 예를 들어, ML 출력으로서, 기계 학습 모델을 트레이닝하는 데 사용되는 CTM 이미지들은 주어진 그리드 분해능에 대해 이진 패턴보다 비교적 많은 정보를 포함할 수 있다. 추가적으로 또는 대안적으로, Tachyon SMO 또는 역 OPC(iOPC)와 같은 모델-기반 광 근접 보정 기술들이 사용되어 기준 데이터를 생성하는 경우, 기계 학습 모델은 (최선이 아닌 경우) 유력한 공정 윈도우를 산출할 수 있는 데이터로 최적화될 수 있다. 이러한 것으로서, 트레이닝된 기계 학습 모델은 모델-기반 광 근접 보정 기술들의 공정 윈도우 이점을 클립 레벨에서 풀칩과 같은 더 큰 패턴으로 전파한다. 결과적으로, 예를 들어 본 명세서에 설명된 기술들 중 1 이상을 사용하는 트레이닝된 기계 학습 모델은 비교적 낮은 실행 시간으로 풀칩 광 근접 보정을 가능하게 하고, 비교적 우수한 공정 윈도우를 제공할 수 있다.
또한, 일 실시예에서, 딥 러닝이 광 근접 보정 예측(예를 들어, SRAF 배치 문제)에 적용될 수 있다. 통상적인 기계 학습 기술들과 비교하면, 딥 러닝은 예를 들어: 1) 수동 피처 엔지니어링을 필요로 하지 않으며, 2) 많은 양의 데이터를 학습할 수 있고, 3) 높은 정확성을 가질 수 있다.
일 실시예에서, 본 명세서의 기술들은 ASML Tachyon OPC 흐름과 같은 풀-칩 OPC 흐름으로 완벽하게 통합될 수 있다. 예를 들어, 예측된 광 근접 보정 맵(예를 들어, 어시스트 피처 맵)이 사용되어 디자인 패턴에 대한 광 근접 보정들(예를 들어, SRAF 추출)을 적용하고, 추가 OPC를 거칠 수 있다. 추가적으로, 사용자-정의 마스크 제약이 광 근접 보정들의 적용에 적용될 수 있으며, 및/또는 프린트 체크가 공정 조건들에서 (예를 들어, ASML의 LMC 툴을 사용하여) 수행될 수 있다.
일 실시예에서, 본 명세서의 기계 학습 기술들은 이미지 예측이 요구되는 OPC의 다른 적용예들, 예를 들어 고급 역계산 리소그래피 엔진의 초기화로 확장될 수 있다.
광 근접 보정 예측을 위해, 타겟 디자인 패턴(이는 클립 또는 풀칩일 수 있음)을 사용하여 그 타겟 디자인 패턴에 대한 (최적화된) 광 근접 보정 예측을 예측하는 것이 바람직하다. 하지만, 기계 학습 입력 및 출력에 대해 많은 상이한 옵션들이 존재한다. 일 실시예에서, 타겟 디자인 패턴 및 광 근접 보정된 디자인 패턴이 전형적으로, 예를 들어 제조를 위해 GDS(GDSII), OASIS 또는 다른 유사한 형식일 수 있으며, 이는 이들이 이진임을 의미한다. 기계 학습 프로세스에 대해, 광 근접 보정의 이미지를 예측하기 위해 이미지가 사용될 수 있다. 따라서, 일 실시예에서, GDS(GDSII), OASIS 또는 다른 유사한 포맷의 이진 타겟 디자인 패턴은 픽셀화된 이미지로 전환된다. 첫번째 가능성에서, 타겟 디자인 패턴은 이진 픽셀화된 이미지로 전환된다. 또 다른 가능성에서, 타겟 디자인 패턴은 그레이-스케일 픽셀화된 이미지로 전환된다. 앞서 언급된 바와 같이, 후자의 옵션 - 그레이-스케일 픽셀화된 이미지를 선택하는 것이 바람직할 수 있다. 이에 대한 이유들은, 예를 들어 다음을 포함한다: 1) 동일한 주어진 픽셀 크기(이미지 분해능)에 대해, 그레이-스케일 이미지가 그레이 레벨들의 수에 따른 "연속" 세기의 추가적인 자유도로 인해 이진 이미지보다 훨씬 더 많은 정보를 갖는다. 다시 말해서, 이진 픽셀화된 이미지와 동일한 양의 정보를 유지하기 위해, 그레이-스케일 이미지는 이진 픽셀화된 이미지보다 큰 픽셀 크기를 가질 수 있고, 이에 따라 계산 속도를 높일 수 있다; 및/또는 2) 고급 마스크 최적화 엔진(예를 들어, ASML의 Tachyon 소프트웨어와 같은 SMO 또는 iOPC 소프트웨어 툴)이 주어진 타겟 디자인 패턴에 대한 CTM 이미지를 직접 제공할 수 있으며, 이 CTM 이미지는 그레이 스케일이다.
따라서, 일 실시예에서, 기계 학습 입력 이미지에 대해, 이진 타겟 디자인 패턴을 그레이-스케일 타겟 디자인 패턴 이미지로 렌더링하기 위해 마스크 모델이 사용될 수 있다. 기계 학습 출력 이미지(기계 학습에 대한 기준 데이터 포함)에 대해, CTM 이미지가 사용될 수 있으며, 이는 기계 학습 모델 트레이닝을 위한 CTM 생성 소프트웨어 프로그램을 사용하여 생성될 수 있다.
하지만, 기계 학습 모델 입력 이미지에 대한 몇몇 다른 가능성들이 존재할 수 있다. 예를 들어, 그레이-스케일 타겟 디자인 패턴 이미지가 1 이상의 추가 신호 이미지를 생성하기 위해 1 이상의 광학 커널, 예를 들어 1 이상의 TCC 커널과 컨볼브(convolve)될 수 있다. 일 실시예에서, 모델에 다수의 광학 커널(예를 들어, TCC 커널들)이 존재할 수 있기 때문에, 단일 그레이-스케일 타겟 디자인 패턴 이미지가 1보다 많은 신호 이미지를 산출할 수 있다. 일 실시예에서, 모든 신호 이미지들이 기계 학습 모델 트레이닝에서 사용될 수 있거나, 1 이상의 신호 이미지의 선택이 사용될 수 있다. 다른 예시로서, 모델-기반 SGM 소프트웨어 엔진의 출력 이미지가 기계 학습 입력 이미지로서 사용될 수 있다. 대부분의 경우, 이러한 이미지는 마스크 모델에 의해 생성되는 그레이-스케일 타겟 디자인 패턴 이미지보다 CTM 이미지에 더 가깝다.
그 후, 기계 학습 모델은 이들 간의 차이(또는 오차)를 학습하기만 하면 되고, 이는 작업을 더 쉽게 만들 수 있다. 따라서, 요약하면, 기계 학습 입력에 대해, 1) 그레이-스케일 타겟 디자인 패턴 이미지, 2) 1 이상의 신호 이미지, 및/또는 3) SGM을 포함하는 수 개의 가능성들이 존재할 수 있다. 기계 학습은 하나의 입력과 동일한 크기를 갖는 이미지들을 몇 개 취할 수 있기 때문에, 기계 학습을 위한 입력으로서 이들 중 하나 또는 그 혼합이 선택될 수 있다.
수 개의 뉴럴 네트워크 구조들이 딥 러닝 작업들을 위해 설계되었다. 일 예시로서, 이미지 인식 작업들을 위해, 아키텍처들은 예를 들어 AlexNet[예를 들어, A. Krizhevsky 외, "ImageNet Classification with Deep Convolutional Neural Networks", Advances in Neural Information Processing Systems 25(NIPS 2012) 참조, 이는 본 명세서에서 그 전문이 인용참조됨], GoogLeNet[예를 들어, C. Szegedy 외, "Going Deeper with Convolutions", 2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR) 참조, 이는 본 명세서에서 그 전문이 인용참조됨], VGG[예를 들어, K. Simonyan 외, "Very Deep Convolutional Networks for Large-Scale Image Recognition", International Conference on Learning Representations(2015) 참조, 이는 본 명세서에서 그 전문이 인용참조됨], 및 ResNet[예를 들어, K. He 외, "Deep Residual Learning for Image Recognition", 2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR) 참조, 이는 본 명세서에서 그 전문이 인용참조됨]을 포함한다. 이 디자인들 각각은 자체 직관 및 강점을 갖는다. 하지만, 이들은 광 근접 보정 예측이 통상적인 딥 러닝 작업들과 상당히 상이하기 때문에, 본 명세서에 설명된 바와 같은 디자인 패턴에 대한 광 근접 보정들을 예측하는 데 반드시 직접 적용가능한 것은 아니다. 예를 들어, 전형적인 이미지 분류 문제는 고정된 입력 및 출력 크기를 갖지만, 광 근접 보정 예측을 위해서는 상이한 크기들을 갖는 이미지들에 대처하는 것이 바람직하다. 또 다른 예시로서, (1보다 큰 보폭을 갖는) 풀링 층(pooling layer)은 흔히 차원 축소를 제공하고 국부적 불변성을 개선하기 위해 사용된다. 하지만, 이는 입력 및 출력 이미지 쌍이 일반적으로 동일한 크기를 갖기 때문에 광 근접 보정 예측에 유용하지 않은 경향이 있다. 따라서, 일 실시예에서, 광 근접 보정 예측을 위한 기계 학습 모델로서 새로운 뉴럴 네트워크가 이후 설명된다.
이 뉴럴 네트워크의 일 실시예에서, 1 이상의 기본 빌딩 블록이 제공되고, 그 후 1 이상의 기본 블록의 인스턴스들을 쌓음으로써 딥 네트워크가 구성된다. 1 이상의 기본 블록에 대해, 수 개의 옵션들이 존재한다. 기본 블록의 제 1 타입은 당업계에 알려진 컨볼루션 층(covolutional layer)이다. 또 다른 타입의 기본 블록은 인셉션 블록이다. 인셉션 블록은 보폭이 1인 최대 하나의 풀링 층 및 상이한 필터 크기들을 갖는 2 이상의 컨볼루션 층으로 이루어진다. 예시적인 인셉션 블록이 도 16에 제시되어 있다. 도 16에서, 블록들(1610 내지 1650 및 1670)은 컨볼루션 층들을 나타낸다[예를 들어, 1x1 컨볼루션(1610, 1620, 1640, 1670), 3x3 컨볼루션(1630) 및 5x5 컨볼루션(1650)이지만, 상이한 구성들이 제공될 수 있음]. 또한, 블록(1660)은 하나의 풀링 층(예를 들어, 3x3 최대 풀링)을 나타내고, 블록(1680)은 연결(concatenation)[예를 들어, 층들(1610, 1620, 1650, 및 1670)로부터의 출력 이미지들의 연결]을 나타내며, 블록(1600)은 일반적으로 이전 층(예컨대, 또 다른 인셉션 블록)을 지칭한다. 다른 타입의 기본 블록은 잔차 블록이다. 잔차 블록은 2 개의 컨볼루션 층들 및 잔차 블록의 입력 및 출력을 직접 연결하기 위한 추가 경로를 갖는다. 잔차 블록의 일 예시가 도 17에 제시되어 있다. 블록들(1700 및 1710)은 컨볼루션 층들을 나타내며, 이는 이 경우에 일반적으로 입력 x의 함수 F일 수 있다. 라인(1730)은 잔차 블록의 입력 및 출력을 직접 연결하기 위한 추가 경로를 나타낸다. 이 예시에서, 경로는 값 x를 F(x)와 조합하도록 입력을 가산기에 연결하여, F(x) = F(x) + x를 산출한다. 따라서, 딥 뉴럴 네트워크를 생성하기 위해, 이 기본 블록들 중 1 이상의 1 이상의 인스턴스가 연결된다. 일 실시예에서, 기본 블록의 한 타입이 전체 뉴럴 네트워크에 사용될 수 있다. 일 실시예에서, 혼합된 상이한 기본 블록들이 뉴럴 네트워크에서 사용될 수 있다. 이 기본 블록들의 장점은, 본질적으로 컨볼루션 및 풀링 작업들만이 사용되기 때문에, 이들이 유연한 입력 이미지 크기들을 지원할 수 있다는 것이다. 따라서, 최종 딥 뉴럴 네트워크는 유연한 출력 이미지 크기도 지원한다.
도 18은 예시적인 트레이닝된 기계 학습 모델(1802)[본 발명의 도 5 및 도 7의 방법들에 따라 트레이닝된 ML 모델들(705, 5200)의 일 예시]을 사용하여 생성되는 예시적인 광 근접 보정(1810)을 나타낸다. 도 18에 나타낸 바와 같이, 디자인 타겟 또는 웨이퍼 타겟 레이아웃(1801)[예를 들어, 접촉홀들(1803 및 1805) 포함]이 컨볼루션 뉴럴 네트워크(CNN)(1802)[트레이닝된 모델(705, 5200) 등의 일 예시]에 입력으로서 제공되어, 1803 및 1805에 대응하는 피처들 주위의 어시스트 피처들을 포함한 광 근접 보정을 갖는 마스크 패턴(1810)(예를 들어, 곡선 패턴)을 유도한다. CNN(1802)은 수 개의 층들을 포함하고, 각각의 층은 고유의 가중치들, 및/또는 앞서 논의된 바와 같이 상이한 목적 함수들(예를 들어, RMS, MSE, MXE 등)을 사용하는, 예를 들어 도 5 및 도 7의 트레이닝 프로세스에 기초하여 결정되는 편향들을 갖는다. 입력, 즉 웨이퍼 타겟 레이아웃(1801)은 픽셀화된 이미지이고, 픽셀화된 이미지의 각 픽셀은 각각의 층을 통한 컨볼루션 작업에 따라 수정되어 출력, 즉 마지막 층에서 광 근접 보정들을 갖는 마스크 패턴(1810)을 생성할 수 있다. 마스크 패턴(1810)의 이러한 생성은, 예를 들어 종래의 OPC 프로세스의 반복 프로세스와 달리 단일 단계 프로세스이다.
일 실시예에서, 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대응하는 광 근접 보정을 포함하는 트레이닝 데이터 세트를 얻는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 관한 데이터 및 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대한 광 근접 보정에 기초한 데이터를 이용하여 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다. 일 실시예에서, 공간적 시프트는 트레이닝 디자인 패턴의 픽셀 그리드의 치수의 크기보다 작다. 일 실시예에서, 상기 방법은 트레이닝 디자인 패턴의 복수의 상이하게 공간적으로 시프팅된 버전들 및 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대한 대응하는 광 근접 보정을 포함하는 트레이닝 데이터 세트를 얻는 단계; 및 트레이닝 디자인 패턴의 복수의 상이하게 공간적으로 시프팅된 버전들에 관한 데이터 및 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대한 대응하는 광 근접 보정을 사용하여 기계 학습 모델을 트레이닝하는 단계를 포함한다. 일 실시예에서, 상기 방법은: 광 근접 보정의 복수의 상이하게 공간적으로 시프팅된 버전들 중에서 트레이닝 데이터 세트 내의 광 근접 보정의 1 이상의 다른 나머지 버전보다 평균 이상의 공정 윈도우를 나타내는 광 근접 보정 중 적어도 하나를 선택하는 단계; 및 광 근접 보정들 중 선택된 1 이상에 기초한 데이터를 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함한다. 일 실시예에서, 상기 방법은 광 근접 보정의 복수의 상이하게 공간적으로 시프팅된 버전들 중에서 최상의 공정 윈도우를 나타내는 광 근접 보정을 선택하는 단계를 포함한다. 일 실시예에서, 상기 방법은: 선택된 광 근접 보정에 대해 1 이상의 회전, 플립, 또는 둘 다의 작업을 수행하여, 선택된 광 근접 보정의 1 이상의 재-방위지정된 버전을 얻는 단계; 및 선택된 광 근접 보정의 1 이상의 재-방위지정된 버전에 기초한 데이터 및 대응하는 1 이상의 재-방위지정된 트레이닝 디자인 패턴을 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함한다. 일 실시예에서, 상기 방법은: 선택된 광 근접 보정의 1 이상의 상이하게 공간적으로 시프팅된 버전을 얻기 위해 선택된 광 근접 보정의 1 이상의 공간적 시프트를 수행하는 단계; 및 선택된 광 근접 보정의 1 이상의 상이하게 공간적으로 시프팅된 버전에 기초한 데이터, 및 트레이닝 디자인 패턴의 대응하는 1 이상의 상이하게 공간적으로 시프팅된 버전을 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함한다. 일 실시예에서, 얻는 단계 및 트레이닝하는 단계는 복수의 상이한 디자인 패턴들에 대해 반복된다. 일 실시예에서, 광 근접 보정들은 주어진 디자인 패턴의 주 피처 주위의 어시스트 피처의 배치 및/또는 주어진 디자인 패턴의 주 피처에 대한 수정을 포함한다. 일 실시예에서, 광 근접 보정들은 이미지들의 형태이고, 트레이닝은 이미지들 또는 이미지들의 픽셀 데이터에 기초한다. 일 실시예에서, 이미지들은 타겟 디자인 패턴 이미지로부터 렌더링된 그레이-스케일 이미지, 및/또는 분해능-이하 어시스트 피처 안내 맵(SGM) 맵, 및/또는 광학 커널과 타겟 디자인 패턴의 이미지를 컨볼브함으로써 얻어진 신호 이미지, 및/또는 타겟 디자인 패턴의 모델-기반 SGM 처리의 출력 이미지의 연속 투과 마스크이다.
일 실시예에서, 디자인 패턴의 1 이상의 공간적으로 시프팅된 버전 및 1 이상의 시프팅된 디자인 패턴 각각에 대한 광 근접 보정 이미지의 대응하는 공간적으로 시프팅된 버전을 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 임계치를 넘거나 충족하는 공정 윈도우 메트릭을 갖는 1 이상의 시프팅된 디자인 패턴의 1 이상의 광 근접 보정 이미지를 선택하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 선택된 1 이상의 광 근접 보정 이미지에 관한 데이터 및 디자인 패턴의 1 이상의 공간적으로 시프팅된 버전에 관한 데이터를 포함하는 트레이닝 데이터를 사용하여 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 상기 방법은 선택된 1 이상의 광 근접 보정 이미지를 재-방위지정하여, 재-방위지정된 1 이상의 광 근접 보정 이미지를 생성하는 단계; 재-방위지정된 1 이상의 광 근접 보정 이미지를 공간적으로 시프팅하여, 복수의 상이하게 시프팅된 재-방위지정된 1 이상의 광 근접 보정 이미지를 생성하는 단계; 복수의 상이하게 시프팅된 재-방위지정된 1 이상의 광 근접 보정 이미지에 대응하는 디자인 패턴의 복수의 상이하게 시프팅된 버전들을 얻는 단계; 및 복수의 상이하게 시프팅된 재-방위지정된 1 이상의 광 근접 보정 이미지에 관한 데이터 및 디자인 패턴의 복수의 상이하게 시프팅된 버전들에 관한 데이터를 포함하는 트레이닝 데이터를 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함한다. 일 실시예에서, 재-방위지정은: 플립 작업, 회전 작업, 및/또는 미러링 작업으로부터 선택되는 1 이상을 포함하며, 작업의 타입은 리소그래피 장치의 조명 형상에 기초한다. 일 실시예에서, 광 근접 보정 이미지는 연속 투과 마스크 이미지이다.
일 실시예에서, 디자인 패턴의 광 근접 보정의 구역에 또 다른 구역과 상이한 가중치를 할당하기 위한 가중 함수 또는 데이터를 얻는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 가중 데이터에 기초하여 디자인 패턴의 기준 광 근접 보정에 대해 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 가중 함수 또는 데이터는 예측된 광 근접 보정, 기준 광 근접 보정, 및/또는 예측된 및 기준 광 근접 보정들 간의 차이에 적용된다. 일 실시예에서, 가중 함수 또는 데이터는 디자인 패턴의 주 피처에 인접한 구역에 그 구역 외부의 구역보다 높은 가중치를 할당한다. 일 실시예에서, 구역은 주 피처에 대한 광 근접 보정을 포함하지만, 주 피처에 대한 또 다른 광 근접 보정을 배제한다. 일 실시예에서, 가중 함수 또는 데이터는 광 근접 보정의 내부 및/또는 디자인 패턴의 또 다른 부분보다 광 근접 보정의 에지에 더 높은 가중치를 할당한다. 일 실시예에서, 가중 함수 또는 데이터는 디자인 패턴의 주 피처로부터의 거리의 함수로서 가중치를 감쇠시키도록 구성되는 가중 함수를 포함한다.
일 실시예에서, 디자인 패턴에 대한 기준 광 근접 보정을 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정을 생성하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 일부분에 비교적 높은 가중치를 할당하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 가중된 예측된 및/또는 기준 광 근접 보정들을 평가하는 목적 함수를 사용하여 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 비교적 높은 가중치가 광 근접 보정의 에지에 할당된다. 일 실시예에서, 디자인 패턴의 주 피처에 대한 제 1 광 근접 보정에 주 피처에 대한 제 2 광 근접 보정과는 상이한 가중치가 할당된다.
일 실시예에서, 하드웨어 컴퓨터 시스템에 의해, 디자인 패턴의 기준 광 근접 보정 및/또는 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정의 이미지 데이터에 이진화 함수를 적용하여 그 각각의 이진화된 버전을 생성하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 이진화된 버전에 기초하여 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 이진화 함수는 시그모이드 함수이다.
일 실시예에서, 디자인 패턴에 대한 기준 광 근접 보정 이미지를 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정 이미지를 생성하는 단계; 하드웨어 컴퓨터 시스템에 의해, 이진화 함수를 사용하여 예측된 및 기준 광 근접 보정 이미지들을 각각의 이진 이미지들로 변환하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 광 근접 보정 이미지의 이진 이미지의 데이터에 대해 기준 광 근접 보정 이미지의 이진 이미지의 데이터를 평가하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 평가에 기초하여 기계 학습 모델의 파라미터를 조정하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 이진화 함수는 시그모이드 함수이다.
일 실시예에서, 하드웨어 컴퓨터 시스템에 의해, 디자인 패턴의 기준 광 근접 보정 및/또는 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정의 이미지 데이터를 처리하여 광 근접 보정의 에지 위치들을 식별하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 식별된 에지 위치들로부터의 데이터에 기초하여 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 식별된 에지 위치들은 식별된 에지 픽셀들이다. 일 실시예에서, 식별된 에지 위치들은 광 근접 보정을 위해 추출된 윤곽 상의 위치들이다. 일 실시예에서, 윤곽 상의 식별된 에지 위치로부터의 데이터는 디자인 패턴의 이미지의 픽셀 그리드 상의 데이터로부터의 보간에 의해 얻어진다. 일 실시예에서, 상기 방법은 광 근접 보정의 식별된 에지 위치들에 광 근접 보정의 다른 위치들과는 상이한 가중치를 적용하는 단계를 더 포함한다. 일 실시예에서, 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가하는 단계는 예측된 광 근접 보정 및 기준 광 근접 보정에 대한 식별된 에지 위치들 사이의 에지 배치 오차 값들을 결정하는 단계 및 에지 배치 오차 값들에 기초하여 기계 학습 모델을 트레이닝하는 단계를 포함한다.
일 실시예에서, 디자인 패턴에 대한 기준 광 근접 보정 이미지를 얻는 단계; 하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정 이미지를 생성하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 및 기준 광 근접 보정 이미지들 내의 피처들의 에지 위치들을 식별하는 단계; 하드웨어 컴퓨터 시스템에 의해, 예측된 광 근접 보정 이미지의 식별된 에지 위치들에서의 데이터에 대해 기준 광 근접 보정 이미지의 식별된 에지 위치들에서의 데이터를 평가하는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 평가에 기초하여 기계 학습 모델의 파라미터를 조정하는 단계를 포함하는 방법이 제공된다.
일 실시예에서, 식별하는 단계는 기준 및 예측된 광 근접 보정 이미지들의 피처들의 에지에 대한 윤곽을 추적하는 단계를 포함한다.
일 실시예에서, 입력 디자인 패턴의 공간적으로 시프팅된 버전을 얻는 단계; 및 하드웨어 컴퓨터 시스템에 의해, 페널티 항을 갖는 목적 함수를 사용하여 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법이 제공되며, 페널티 항은 입력 디자인 패턴에 대해 기계 학습 모델에 의해 이루어진 예측에 대응하는 값과 시프팅된 입력 디자인 패턴에 대해 기계 학습 모델에 의해 이루어진 예측의 역 시프팅된 버전에 대응하는 값 간의 비교를 수반하고, 역 시프트는 입력 디자인 패턴의 공간적으로 시프팅된 버전을 생성하기 위해 사용된 공간적 시프트에 대한 역인 공간적 시프트이다.
일 실시예에서, 비교는 거리 함수를 포함한다.
일 실시예에서, 공간적 시프트는 플립 및/또는 회전을 포함하는 작업들을 수반한다.
도 19는 본 명세서에 개시된 방법들 및 흐름들을 구현하는 데 도움이 될 수 있는 컴퓨터 시스템(100)을 나타내는 블록 다이어그램이다. 컴퓨터 시스템(100)은 정보를 전달하는 버스(102) 또는 다른 통신 기구, 및 정보를 처리하는 버스(102)와 커플링된 프로세서(104)[또는 다중 프로세서들(104 및 105)]를 포함한다. 또한, 컴퓨터 시스템(100)은 프로세서(104)에 의해 실행될 정보 및 명령어들을 저장하거나 공급하는 RAM(random access memory) 또는 다른 동적 저장 디바이스와 같은, 버스(102)에 커플링된 주 메모리(106)를 포함할 수 있다. 주 메모리(106)는 프로세서(104)에 의해 실행될 명령어들의 실행 시 임시 변수들 또는 다른 매개 정보(intermediate information)를 저장하거나 공급하는 데 사용될 수 있다. 또한, 컴퓨터 시스템(100)은 프로세서(104)에 대한 정적 정보 및 명령어들을 저장하거나 공급하는 버스(102)에 커플링된 ROM(read only memory: 108) 또는 다른 정적 저장 디바이스를 포함할 수 있다. 자기 디스크 또는 광학 디스크와 같은 저장 디바이스(110)가 제공되고 버스(102)에 커플링되어 정보 및 명령어들을 저장하거나 공급할 수 있다.
컴퓨터 시스템(100)은 버스(102)를 통해, 컴퓨터 사용자에게 정보를 보여주는 CRT(cathode ray tube) 또는 평판 또는 터치 패널 디스플레이(touch panel display)와 같은 디스플레이(112)에 커플링될 수 있다. 영숫자 및 다른 키들을 포함한 입력 디바이스(114)는 정보 및 명령 선택(command selection)들을 프로세서(104)로 전달하기 위해 버스(102)에 커플링될 수 있다. 또 다른 타입의 사용자 입력 디바이스는 방향 정보 및 명령 선택들을 프로세서(104)로 전달하고, 디스플레이(112) 상의 커서 움직임을 제어하기 위한 마우스, 트랙볼(trackball) 또는 커서 방향키들과 같은 커서 제어부(cursor control: 116)일 수 있다. 이 입력 디바이스는, 통상적으로 디바이스로 하여금 평면에서의 위치들을 특정하게 하는 2 개의 축선인 제 1 축선(예를 들어, x) 및 제 2 축선(예를 들어, y)에서 2 자유도를 갖는다. 또한, 입력 디바이스로서 터치 패널(스크린) 디스플레이가 사용될 수도 있다.
일 실시예에 따르면, 주 메모리(106)에 포함된 1 이상의 명령어들의 1 이상의 시퀀스를 실행하는 프로세서(104)에 응답하여 컴퓨터 시스템(100)에 의해 본 명세서에 설명된 공정의 부분들이 수행될 수 있다. 이러한 명령어들은 저장 디바이스(110)와 같은 또 다른 컴퓨터-판독가능한 매체로부터 주 메모리(106)로 읽혀질 수 있다. 주 메모리(106) 내에 포함된 명령어들의 시퀀스들의 실행은, 프로세서(104)가 본 명세서에 설명된 공정 단계들을 수행하게 한다. 주 메모리(106) 내에 포함된 명령어들의 시퀀스들을 실행하기 위해 다중 처리 구성(multi-processing arrangement)의 1 이상의 프로세서가 채택될 수 있다. 대안적인 실시예에서, 하드웨어에 내장된 회로(hard-wired circuitry)가 소프트웨어 명령어들과 조합하거나 그를 대신하여 사용될 수 있다. 따라서, 본 명세서의 기재내용은 하드웨어 회로와 소프트웨어의 여하한의 특정 조합에 제한되지 않는다.
본 명세서에서 사용된 "컴퓨터-판독가능한 매체"라는 용어는 실행을 위해 프로세서(104)에 명령어를 제공하는 데 관여하는 여하한의 매체를 칭한다. 이러한 매체는 비휘발성 매체(non-volatile media), 휘발성 매체 및 전송 매체를 포함하는 다수의 형태를 취할 수 있으며, 이에 제한되지는 않는다. 비휘발성 매체는, 예를 들어 저장 디바이스(110)와 같은 광학 또는 자기 디스크를 포함한다. 휘발성 매체는 주 메모리(106)와 같은 동적 메모리를 포함한다. 전송 매체는 버스(102)를 포함하는 와이어들을 포함하여, 동축 케이블(coaxial cable), 구리선 및 광섬유를 포함한다. 또한, 전송 매체는 무선 주파수(RF) 및 적외선(IR) 데이터 통신 시 발생되는 파장들과 같이 음파(acoustic wave) 또는 광파의 형태를 취할 수도 있다. 컴퓨터-판독가능한 매체의 보편적인 형태들은, 예를 들어 플로피 디스크(floppy disk), 플렉시블 디스크(flexible disk), 하드 디스크, 자기 테이프, 여하한의 다른 자기 매체, CD-ROM, DVD, 여하한의 다른 광학 매체, 펀치 카드(punch card), 종이 테이프(paper tape), 홀(hole)들의 패턴을 갖는 여하한의 다른 물리적 매체, RAM, PROM, 및 EPROM, FLASH-EPROM, 여하한의 다른 메모리 칩 또는 카트리지(cartridge), 이후 설명되는 바와 같은 반송파, 또는 컴퓨터가 판독할 수 있는 여하한의 다른 매체를 포함한다.
다양한 형태의 컴퓨터 판독가능한 매체는 실행을 위해 1 이상의 명령어들의 1 이상의 시퀀스를 프로세서(104)로 전달하는 데 관련될 수 있다. 예를 들어, 명령어들은 초기에 원격 컴퓨터의 디스크 또는 메모리 상에 저장되어 있을 수 있다(bear). 원격 컴퓨터는 그 동적 메모리로 명령어들을 로딩할 수 있으며, 통신 경로를 통해 명령어들을 보낼 수 있다. 컴퓨터 시스템(100)이 경로로부터 데이터를 수신할 수 있으며, 상기 데이터를 버스(102)에 놓을 수 있다. 버스(102)는, 프로세서(104)가 명령어들을 회수하고 실행하는 주 메모리(106)로 상기 데이터를 전달한다. 주 메모리(106)에 의해 수신된 명령어들은 프로세서(104)에 의한 실행 전이나 후에 저장 디바이스(110)에 선택적으로 저장될 수 있다.
컴퓨터 시스템(100)은 버스(102)에 커플링된 통신 인터페이스(118)를 포함할 수 있다. 통신 인터페이스(118)는 네트워크(122)에 연결되는 네트워크 링크(120)에 커플링하여 양방향(two-way) 데이터 통신을 제공한다. 예를 들어, 통신 인터페이스(118)는 유선 또는 무선 데이터 통신 연결을 제공할 수 있다. 여하한의 이러한 구현에서, 통신 인터페이스(118)는 다양한 타입의 정보를 나타내는 디지털 데이터 스트림들을 전달하는 전기적, 전자기적 또는 광학적 신호들을 송신하고 수신한다.
통상적으로, 네트워크 링크(120)는 1 이상의 네트워크를 통해 다른 데이터 디바이스에 데이터 통신을 제공한다. 예를 들어, 네트워크 링크(120)는 네트워크(122)를 통해 호스트 컴퓨터(host computer: 124), 또는 ISP(Internet Service Provider: 126)에 의해 작동되는 데이터 장비로의 연결을 제공할 수 있다. 차례로, ISP(126)는 이제 보편적으로 "인터넷"(128)이라고 칭하는 월드와이드 패킷 데이터 통신 네트워크를 통해 데이터 통신 서비스를 제공한다. 네트워크(122) 및 인터넷(128)은 둘 다 디지털 데이터 스트림들을 전달하는 전기적, 전자기적 또는 광학적 신호들을 사용한다. 다양한 네트워크를 통한 신호들, 및 컴퓨터 시스템(100)에 또한 그로부터 디지털 데이터를 전달하는 통신 인터페이스(118)를 통한 네트워크 링크(120) 상의 신호들은 정보를 전달하는 반송파의 예시적인 형태들이다.
컴퓨터 시스템(100)은 네트워크(들), 네트워크 링크(120) 및 통신 인터페이스(118)를 통해 메시지들을 송신하고, 프로그램 코드를 포함한 데이터를 수신할 수 있다. 인터넷 예시에서는, 서버(130)가 인터넷(128), ISP(126), 네트워크(122) 및 통신 인터페이스(118)를 통해 어플리케이션 프로그램에 대한 요청된 코드를 전송할 수 있다. 예를 들어, 하나의 이러한 다운로드된 어플리케이션은 본 발명을 구현하는 코드에 대해 제공될 수 있다. 수신된 코드는 수신될 때 프로세서(104)에 의해 실행될 수 있거나, 또는 추후 실행을 위해 저장 디바이스(110) 또는 다른 비휘발성 저장소에 저장될 수 있다. 이 방식으로, 컴퓨터 시스템(100)은 반송파의 형태로 어플리케이션 코드를 얻을 수 있다.
도 20은 예시적인 리소그래피 투영 장치를 개략적으로 도시한다. 상기 장치는:
- 방사선 빔(B)을 컨디셔닝(condition)하는 조명 시스템(IL) -이러한 특정한 경우, 조명 시스템은 방사선 소스(SO)도 포함함- ;
- 패터닝 디바이스(MA)(예를 들어, 레티클)를 유지하는 패터닝 디바이스 홀더가 제공되고, 아이템(PS)에 대하여 패터닝 디바이스를 정확히 위치시키는 제 1 위치설정기(PM)에 연결되는 제 1 대상물 테이블(예를 들어, 마스크 테이블)(MT);
- 기판(W)(예를 들어, 레지스트-코팅된 실리콘 웨이퍼)을 유지하는 기판 홀더가 제공되고, 아이템(PS)에 대하여 기판을 정확히 위치시키는 제 2 위치설정기(PW)에 연결되는 제 2 대상물 테이블(기판 테이블)(WT); 및
- 기판(W)의 (예를 들어, 1 이상의 다이를 포함하는) 타겟부(C) 상으로 패터닝 디바이스(MA)의 조사된 부분을 이미징하는 투영 시스템(PS)[예를 들어, 굴절, 카톱트릭(catoptric) 또는 카타디옵트릭(catadioptric) 광학 시스템]을 포함한다.
본 명세서에 도시된 바와 같이, 상기 장치는 투과형으로 구성된다(즉, 투과 마스크를 가짐). 하지만, 일반적으로 이는 예를 들어 (반사 마스크를 갖는) 반사형으로 구성될 수도 있다. 대안적으로, 상기 장치는 전형적인 마스크의 사용에 대한 대안예로서 또 다른 종류의 패터닝 디바이스를 채택할 수 있다; 예시들로는 프로그램가능한 거울 어레이 또는 LCD 매트릭스를 포함한다.
소스(SO)[예를 들어, 수은 램프 또는 엑시머 레이저(excimer laser)]는 방사선 빔을 생성한다. 이 빔은 곧바로 또는 빔 익스팬더(beam expander)와 같은 컨디셔너를 가로지른 후 조명 시스템(일루미네이터)(IL)으로 공급된다. 일루미네이터(IL)는 상기 빔 내의 세기 분포의 외반경 또는 내반경 크기(통상적으로, 각각 외측-σ 및 내측-σ라 함)를 설정하도록 구성되는 조정기(AD)를 포함할 수 있다. 또한, 이는 일반적으로 인티그레이터(IN) 및 콘덴서(CO)와 같은 다양한 다른 구성요소들을 포함할 것이다. 이러한 방식으로, 패터닝 디바이스(MA)에 입사하는 빔(B)은 그 단면에 원하는 균일성(uniformity) 및 세기 분포를 갖는다.
도 20과 관련하여, 소스(SO)는 [흔히 소스(SO)가, 예를 들어 수은 램프인 경우와 같이] 리소그래피 투영 장치의 하우징 내에 있을 수 있지만, 그것은 리소그래피 투영 장치로부터 멀리 떨어져 있을 수도 있으며, 그것이 생성하는 방사선 빔은 [예를 들어, 적절한 지향 거울들(BD)의 도움으로] 장치 내부로 들어올 수 있다는 것을 유의하여야 한다; 이 후자의 시나리오는 흔히 소스(SO)가 [예를 들어, KrF, ArF 또는 F2 레이징(lasing)에 기초한] 엑시머 레이저인 경우이다.
이후, 상기 빔(B)은 패터닝 디바이스 테이블(MT) 상에 유지되어 있는 패터닝 디바이스(MA)를 통과한다(intercept). 패터닝 디바이스(MA)를 가로질렀으면, 상기 빔(B)은 투영 시스템(PS)을 통과하며, 이는 기판(W)의 타겟부(C) 상에 상기 빔(B)을 포커스한다. 제 2 위치설정기(PW)[및 간섭계(IF)]의 도움으로, 기판 테이블(WT)은 예를 들어 상기 빔(B)의 경로 내에 상이한 타겟부(C)를 위치시키도록 정확하게 이동될 수 있다. 이와 유사하게, 제 1 위치설정기(PM)는 예를 들어 패터닝 디바이스 라이브러리(patterning device library)로부터의 패터닝 디바이스(MA)의 기계적인 회수 후에 또는 스캔하는 동안, 상기 빔(B)의 경로에 대해 패터닝 디바이스(MA)를 정확히 위치시키는 데 사용될 수 있다. 일반적으로, 대상물 테이블들(MT, WT)의 이동은 장-행정 모듈(long-stroke module)(개략 위치설정) 및 단-행정 모듈(short-stroke module)(미세 위치설정)의 도움으로 실현될 것이며, 이는 도 20에 명확히 도시되지는 않는다.
패터닝 디바이스(예를 들어, 마스크)(MA) 및 기판(W)은 패터닝 디바이스 정렬 마크들(M1, M2) 및 기판 정렬 마크들(P1, P2)을 이용하여 정렬될 수 있다. 비록, 예시된 기판 정렬 마크들은 지정된(dedicated) 타겟부들을 차지하고 있지만, 그들은 타겟부들 사이의 공간들 내에 위치될 수 있다[이들은 스크라이브-레인 정렬 마크(scribe-lane alignment mark)들로 알려져 있음]. 이와 유사하게, 패터닝 디바이스(예를 들어, 마스크)(MA) 상에 하나보다 많은 다이가 제공되는 상황들에서, 패터닝 디바이스 정렬 마크들은 다이들 사이에 위치될 수 있다. 또한, 디바이스 피처들 사이에서 다이들 내에 작은 정렬 마커들이 포함될 수도 있으며, 이 경우 마커들은 인접한 피처들과 상이한 여하한의 이미징 또는 공정 조건들을 필요로 하지 않고, 가능한 한 작은 것이 바람직하다.
도 21은 또 다른 예시적인 리소그래피 투영 장치(1000)를 개략적으로 도시한다. 리소그래피 투영 장치(1000)는:
- 소스 컬렉터 모듈(SO);
- 방사선 빔(B)(예를 들어, EUV 방사선)을 컨디셔닝하도록 구성되는 조명 시스템(일루미네이터)(IL);
- 패터닝 디바이스(예를 들어, 마스크 또는 레티클)(MA)를 지지하도록 구성되고, 패터닝 디바이스를 정확히 위치시키도록 구성된 제 1 위치설정기(PM)에 연결되는 지지 구조체(예를 들어, 마스크 테이블)(MT);
- 기판(예를 들어, 레지스트-코팅된 웨이퍼)(W)을 유지하도록 구성되고, 기판을 정확히 위치시키도록 구성된 제 2 위치설정기(PW)에 연결되는 기판 테이블(예를 들어, 웨이퍼 테이블)(WT); 및
- 기판(W)의 (예를 들어, 1 이상의 다이를 포함하는) 타겟부(C) 상으로 패터닝 디바이스(MA)에 의해 방사선 빔(B)에 부여된 패턴을 투영하도록 구성되는 투영 시스템(예를 들어, 반사 투영 시스템)(PS)을 포함한다.
본 명세서에 도시된 바와 같이, 상기 장치(1000)는 (예를 들어, 반사 마스크를 채택하는) 반사형으로 구성된다. 대부분의 재료들이 EUV 파장 범위 내에서 흡수성이기 때문에, 패터닝 디바이스는 예를 들어 몰리브덴 및 실리콘의 다수-스택을 포함한 다층 반사기를 가질 수 있다는 것을 유의하여야 한다. 일 예시에서, 다수-스택 반사기는 40 층의 몰리브덴 및 실리콘 쌍들을 갖는다. 훨씬 더 작은 파장들이 X-선 리소그래피로 생성될 수 있다. 대부분의 재료가 EUV 및 x-선 파장에서 흡수성이기 때문에, 패터닝 디바이스 토포그래피 상의 패터닝된 흡수성 재료의 박편(예를 들어, 다층 반사기 최상부 상의 TaN 흡수재)이 프린트되거나(포지티브 레지스트) 프린트되지 않을(네거티브 레지스트) 피처들의 위치를 정의한다.
도 21을 참조하면, 일루미네이터(IL)는 소스 컬렉터 모듈(SO)로부터 극자외(EUV) 방사선 빔을 수용한다. EUV 방사선을 생성하는 방법들은 EUV 범위 내의 1 이상의 방출선을 갖는 적어도 하나의 원소, 예를 들어 크세논, 리튬 또는 주석을 갖는 재료를 플라즈마 상태로 전환하는 단계를 포함하며, 반드시 이에 제한되는 것은 아니다. 흔히 레이저 생성 플라즈마("LPP")라고 칭하는 이러한 한 방법에서, 플라즈마는 선-방출 원소를 갖는 재료의 액적(droplet), 스트림 또는 클러스터와 같은 연료를 레이저 빔으로 조사함으로써 생성될 수 있다. 소스 컬렉터 모듈(SO)은 연료를 여기시키는 레이저 빔을 제공하는 레이저(도 21에 도시되지 않음)를 포함한 EUV 방사선 시스템의 일부분일 수 있다. 결과적인 플라즈마는 출력 방사선, 예를 들어 EUV 방사선을 방출하며, 이는 소스 컬렉터 모듈에 배치된 방사선 컬렉터를 이용하여 수집된다. 예를 들어, CO2 레이저가 연료 여기를 위한 레이저 빔을 제공하는 데 사용되는 경우, 레이저 및 소스 컬렉터 모듈은 별도의 개체일 수 있다.
이러한 경우, 레이저는 리소그래피 장치의 일부분을 형성하는 것으로 간주되지 않으며, 방사선 빔은 예를 들어 적절한 지향 거울들 또는 빔 익스팬더를 포함하는 빔 전달 시스템의 도움으로, 레이저로부터 소스 컬렉터 모듈로 통과된다. 다른 경우, 예를 들어 소스가 흔히 DPP 소스라고 칭하는 방전 생성 플라즈마 EUV 발생기인 경우, 소스는 소스 컬렉터 모듈의 통합부일 수 있다.
일루미네이터(IL)는 방사선 빔의 각도 세기 분포를 조정하도록 구성되는 조정기를 포함할 수 있다. 일반적으로, 일루미네이터의 퓨필 평면 내의 세기 분포의 적어도 외반경 또는 내반경 크기(통상적으로, 각각 외측-σ 및 내측-σ라 함)가 조정될 수 있다. 또한, 일루미네이터(IL)는 패싯 필드 및 퓨필 거울 디바이스들(facetted field and pupil mirror devices)과 같이, 다양한 다른 구성요소들을 포함할 수도 있다. 일루미네이터는 방사선 빔의 단면에 원하는 균일성 및 세기 분포를 갖기 위해, 방사선 빔을 컨디셔닝하는 데 사용될 수 있다.
방사선 빔(B)은 지지 구조체(예를 들어, 마스크 테이블)(MT) 상에 유지되어 있는 패터닝 디바이스(예를 들어, 마스크)(MA) 상에 입사되며, 패터닝 디바이스에 의해 패터닝된다. 패터닝 디바이스(예를 들어, 마스크)(MA)로부터 반사된 후, 방사선 빔(B)은 투영 시스템(PS)을 통과하며, 이는 기판(W)의 타겟부(C) 상으로 상기 빔을 포커스한다. 제 2 위치설정기(PW) 및 위치 센서(PS2)(예를 들어, 간섭계 디바이스, 리니어 인코더, 또는 용량성 센서)의 도움으로, 기판 테이블(WT)은 예를 들어 방사선 빔(B)의 경로 내에 상이한 타겟부(C)들을 위치시키도록 정확하게 이동될 수 있다. 이와 유사하게, 제 1 위치설정기(PM) 및 또 다른 위치 센서(PS1)는 방사선 빔(B)의 경로에 대해 패터닝 디바이스(예를 들어, 마스크)(MA)를 정확히 위치시키는 데 사용될 수 있다. 패터닝 디바이스(예를 들어, 마스크)(MA) 및 기판(W)은 패터닝 디바이스 정렬 마크들(M1, M2) 및 기판 정렬 마크들(P1, P2)을 이용하여 정렬될 수 있다.
도시된 장치는 다음 모드들 중 적어도 하나에서 사용될 수 있다:
1. 스텝 모드에서, 지지 구조체(예를 들어, 마스크 테이블)(MT) 및 기판 테이블(WT)은 기본적으로 정지 상태로 유지되는 한편, 방사선 빔에 부여되는 전체 패턴은 한 번에 타겟부(C) 상으로 투영된다[즉, 단일 정적 노광(single static exposure)]. 그 후, 기판 테이블(WT)은 상이한 타겟부(C)가 노광될 수 있도록 X 또는 Y 방향으로 시프트된다.
2. 스캔 모드에서, 지지 구조체(예를 들어, 마스크 테이블)(MT) 및 기판 테이블(WT)은 방사선 빔에 부여된 패턴이 타겟부(C) 상으로 투영되는 동안에 주어진 방향(소위 "스캔 방향")으로 동기적으로 스캐닝된다[즉, 단일 동적 노광(single dynamic exposure)]. 지지 구조체(예를 들어, 마스크 테이블)(MT)에 대한 기판 테이블(WT)의 속도 및 방향은 투영 시스템(PS)의 확대(축소) 및 이미지 반전 특성에 의하여 결정될 수 있다.
3. 또 다른 모드에서, 지지 구조체(예를 들어, 마스크 테이블)(MT)는 프로그램가능한 패터닝 디바이스를 유지하여 기본적으로 정지된 상태로 유지되며, 방사선 빔에 부여된 패턴이 타겟부(C) 상으로 투영되는 동안에 기판 테이블(WT)이 이동되거나 스캐닝된다. 이 모드에서는, 일반적으로 펄스화된 방사선 소스(pulsed radiation source)가 채택되며, 프로그램가능한 패터닝 디바이스는 기판 테이블(WT)의 매 이동 후, 또는 스캔 중에 계속되는 방사선 펄스 사이사이에 필요에 따라 업데이트된다. 이 작동 모드는 앞서 언급된 바와 같은 타입의 프로그램가능한 거울 어레이와 같은 프로그램가능한 패터닝 디바이스를 이용하는 마스크없는 리소그래피(maskless lithography)에 용이하게 적용될 수 있다.
또한, 리소그래피 장치는 2 이상의 테이블(예를 들어, 2 이상의 기판 테이블, 2 이상의 패터닝 디바이스 테이블, 또는 기판 테이블과 기판이 없는 테이블)을 갖는 타입으로 이루어질 수 있다. 이러한 "다수 스테이지" 디바이스에서는 추가적인 테이블들이 병행하여 사용될 수 있으며, 또는 1 이상의 테이블이 노광에 사용되고 있는 동안 1 이상의 다른 테이블에서는 준비 작업 단계들이 수행될 수 있다.
도 22는 소스 컬렉터 모듈(SO), 조명 시스템(IL), 및 투영 시스템(PS)을 포함하여 상기 장치(1000)를 더 상세히 나타낸다. 소스 컬렉터 모듈(SO)은 소스 컬렉터 모듈(SO)의 포위 구조체(enclosing structure: 220) 내에 진공 환경이 유지될 수 있도록 구성되고 배치된다. EUV 방사선 방출 플라즈마(210)가 방전 생성 플라즈마 소스에 의해 형성될 수 있다. EUV 방사선은 전자기 스펙트럼의 EUV 범위 내의 방사선을 방출하도록 초고온 플라즈마(very hot plasma: 210)가 생성되는 가스 또는 증기, 예를 들어 Xe 가스, Li 증기 또는 Sn 증기에 의해 생성될 수 있다. 초고온 플라즈마(210)는, 예를 들어 적어도 부분적으로 이온화된 플라즈마를 야기하는 전기적 방전에 의해 생성된다. 방사선의 효율적인 발생을 위해, Xe, Li, Sn 증기 또는 여하한의 다른 적절한 가스 또는 증기의, 예를 들어 10 Pa의 분압(partial pressure)이 필요할 수 있다. 일 실시예에서, EUV 방사선을 생성하기 위해 여기된 주석(Sn)의 플라즈마가 제공된다.
초고온 플라즈마(210)에 의해 방출된 방사선은, 소스 챔버(source chamber: 211)의 개구부(opening) 내에 또는 그 뒤에 위치되는 선택적인 가스 방벽 또는 오염물 트랩(contaminant trap: 230)(몇몇 경우에는, 오염물 방벽 또는 포일 트랩이라고도 함)을 통해, 소스 챔버(211)로부터 컬렉터 챔버(collector chamber: 212) 내로 통과된다. 오염물 트랩(230)은 채널 구조체를 포함할 수 있다. 또한, 오염물 트랩(230)은 가스 방벽, 또는 가스 방벽과 채널 구조체의 조합을 포함할 수 있다. 본 명세서에서 더 나타내는 오염물 트랩 또는 오염물 방벽(230)은 적어도 당업계에 알려진 바와 같은 채널 구조체를 포함한다.
컬렉터 챔버(212)는 소위 스침 입사 컬렉터(grazing incidence collector)일 수 있는 방사선 컬렉터(CO)를 포함할 수 있다. 방사선 컬렉터(CO)는 방사선 컬렉터 상류측(upstream radiation collector side: 251) 및 방사선 컬렉터 하류측(downstream radiation collector side: 252)을 갖는다. 컬렉터(CO)를 가로지르는 방사선은 격자 스펙트럼 필터(grating spectral filter: 240)로부터 반사되어, 점선 'O'로 나타낸 광학 축선을 따라 가상 소스점(virtual source point: IF)에 포커스될 수 있다. 가상 소스점(IF)은 통상적으로 중간 포커스라고 칭해지며, 소스 컬렉터 모듈은 중간 포커스(IF)가 포위 구조체(220)에서의 개구부(221)에, 또는 그 부근에 위치되도록 배치된다. 가상 소스점(IF)은 방사선 방출 플라즈마(210)의 이미지이다.
후속하여, 방사선은 조명 시스템(IL)을 가로지르며, 이는 패터닝 디바이스(MA)에서의 방사선 세기의 원하는 균일성뿐 아니라, 패터닝 디바이스(MA)에서의 방사선 빔(21)의 원하는 각도 분포를 제공하도록 배치된 패싯 필드 거울 디바이스(22) 및 패싯 퓨필 거울 디바이스(24)를 포함할 수 있다. 지지 구조체(MT)에 의해 유지되어 있는 패터닝 디바이스(MA)에서의 방사선 빔(21)의 반사 시, 패터닝된 빔(26)이 형성되고, 패터닝된 빔(26)은 투영 시스템(PS)에 의하여 반사 요소들(28, 30)을 통해 기판 테이블(WT)에 의해 유지되어 있는 기판(W) 상으로 이미징된다.
일반적으로, 나타낸 것보다 더 많은 요소가 조명 광학기 유닛(IL) 및 투영 시스템(PS) 내에 존재할 수 있다. 격자 스펙트럼 필터(240)는 리소그래피 장치의 타입에 따라 선택적으로 존재할 수 있다. 또한, 도면들에 나타낸 것보다 더 많은 거울이 존재할 수 있으며, 예를 들어 도 22에 나타낸 것보다 1 내지 6 개의 추가 반사 요소들이 투영 시스템(PS) 내에 존재할 수 있다.
도 22에 예시된 바와 같은 컬렉터 광학기(CO)가 단지 컬렉터(또는 컬렉터 거울)의 일 예시로서, 스침 입사 반사기들(253, 254 및 255)을 갖는 네스티드 컬렉터(nested collector)로서 도시된다. 스침 입사 반사기들(253, 254 및 255)은 광학 축선(O) 주위에 축대칭으로 배치되고, 이 타입의 컬렉터 광학기(CO)는 바람직하게는 흔히 DPP 소스라고 하는 방전 생성 플라즈마 소스와 조합하여 사용된다. 대안적으로, 소스 컬렉터 모듈(SO)은 LPP 방사선 시스템의 일부분일 수 있다.
본 명세서에서 사용되는 "투영 시스템"이라는 용어는, 사용되는 노광 방사선에 대하여, 또는 침지 액체의 사용 또는 진공의 사용과 같은 다른 인자들에 대하여 적절하다면, 굴절, 반사, 카타디옵트릭, 자기, 전자기 및 정전기 광학 시스템, 또는 여하한의 그 조합을 포함하는 여하한 타입의 투영 시스템을 내포하는 것으로서 폭넓게 해석되어야 한다.
본 실시예들은 다음 항목들을 이용하여 더 설명될 수 있다:
1. 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대응하는 광 근접 보정을 포함하는 트레이닝 데이터 세트를 얻는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 관한 데이터 및 트레이닝 디자인 패턴의 공간적으로 시프팅된 버전에 대한 광 근접 보정에 기초한 데이터를 사용하여 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
2. 1 항에 있어서, 공간적 시프트는 트레이닝 디자인 패턴의 이미지의 픽셀 그리드의 치수의 크기보다 작은 방법.
3. 1 항 또는 2 항에 있어서,
트레이닝 디자인 패턴의 복수의 상이하게 공간적으로 시프팅된 버전들 및 트레이닝 디자인 패턴의 상이하게 공간적으로 시프팅된 버전들의 대응하는 광 근접 보정을 포함하는 트레이닝 데이터 세트를 얻는 단계; 및
트레이닝 디자인 패턴의 복수의 상이하게 공간적으로 시프팅된 버전들에 관한 데이터 및 트레이닝 디자인 패턴의 상이하게 공간적으로 시프팅된 버전들의 대응하는 광 근접 보정을 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함하는 방법.
4. 3 항에 있어서,
광 근접 보정의 복수의 상이하게 공간적으로 시프팅된 버전들 중에서 트레이닝 데이터 세트 내의 광 근접 보정의 1 이상의 다른 나머지 버전보다 평균 이상의 공정 윈도우를 나타내는 광 근접 보정 중 적어도 하나를 선택하는 단계; 및
광 근접 보정들 중 선택된 1 이상에 기초한 데이터를 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함하는 방법.
5. 4 항에 있어서, 광 근접 보정의 복수의 상이하게 공간적으로 시프팅된 버전들 중에서 최상의 공정 윈도우를 나타내는 광 근접 보정을 선택하는 단계를 포함하는 방법.
6. 4 항 또는 5 항에 있어서,
선택된 광 근접 보정에 대해 1 이상의 회전, 플립, 또는 둘 다의 작업을 수행하여, 선택된 광 근접 보정의 1 이상의 재-방위지정된 버전을 얻는 단계; 및
선택된 광 근접 보정의 1 이상의 재-방위지정된 버전에 기초한 데이터 및 대응하는 1 이상의 재-방위지정된 트레이닝 디자인 패턴을 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함하는 방법.
7. 4 항 내지 6 항 중 어느 하나에 있어서,
선택된 광 근접 보정의 1 이상의 공간적 시프트를 수행하여, 선택된 광 근접 보정의 1 이상의 상이하게 공간적으로 시프팅된 버전을 얻는 단계; 및
선택된 광 근접 보정의 1 이상의 상이하게 공간적으로 시프팅된 버전에 기초한 데이터, 및 트레이닝 디자인 패턴의 대응하는 1 이상의 상이하게 공간적으로 시프팅된 버전을 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함하는 방법.
8. 1 항 내지 7 항 중 어느 하나에 있어서, 얻는 단계 및 트레이닝하는 단계는 복수의 상이한 디자인 패턴들에 대해 반복되는 방법.
9. 1 항 내지 8 항 중 어느 하나에 있어서, 광 근접 보정들은 주어진 디자인 패턴의 주 피처 주위의 어시스트 피처들의 배치 및/또는 주어진 디자인 패턴의 주 피처에 대한 수정을 포함하는 방법.
10. 1 항 내지 9 항 중 어느 하나에 있어서, 광 근접 보정들은 이미지들의 형태이고, 트레이닝은 이미지들 또는 이미지들의 픽셀 데이터에 기초하는 방법.
11. 10 항에 있어서, 이미지들은
타겟 디자인 패턴 이미지로부터 렌더링된 그레이-스케일 이미지, 및/또는
분해능-이하 어시스트 피처 안내 맵(SGM) 맵, 및/또는
광학 커널과 타겟 디자인 패턴의 이미지를 컨볼브함으로써 얻어진 신호 이미지, 및/또는
타겟 디자인 패턴의 모델-기반 마스크 최적화 처리의 출력 이미지의 연속 투과 마스크인 방법.
12. 디자인 패턴의 1 이상의 공간적으로 시프팅된 버전 및 1 이상의 시프팅된 디자인 패턴 각각에 대한 대응하는 광 근접 보정 이미지를 얻는 단계;
하드웨어 컴퓨터 시스템에 의해, 임계치를 넘거나 충족하는 공정 윈도우 메트릭을 갖는 1 이상의 시프팅된 디자인 패턴의 1 이상의 광 근접 보정 이미지를 선택하는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 선택된 1 이상의 광 근접 보정 이미지에 관한 데이터 및 디자인 패턴의 1 이상의 공간적으로 시프팅된 버전에 관한 데이터를 포함하는 트레이닝 데이터를 사용하여 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
13. 12 항에 있어서,
선택된 1 이상의 광 근접 보정 이미지를 재-방위지정하여, 재-방위지정된 1 이상의 광 근접 보정 이미지를 생성하는 단계;
재-방위지정된 1 이상의 광 근접 보정 이미지를 공간적으로 시프팅하여, 복수의 상이하게 시프팅된 재-방위지정된 1 이상의 광 근접 보정 이미지를 생성하는 단계;
복수의 상이하게 시프팅된 재-방위지정된 1 이상의 광 근접 보정 이미지에 대응하는 디자인 패턴의 복수의 상이하게 시프팅된 버전들을 얻는 단계; 및
복수의 상이하게 시프팅된 재-방위지정된 1 이상의 광 근접 보정 이미지에 관한 데이터 및 디자인 패턴의 복수의 상이하게 시프팅된 버전들에 관한 데이터를 포함하는 트레이닝 데이터를 사용하여 기계 학습 모델을 트레이닝하는 단계를 더 포함하는 방법.
14. 13 항에 있어서, 재-방위지정은: 플립 작업, 회전 작업, 및/또는 미러링 작업으로부터 선택되는 1 이상을 포함하며, 작업의 타입은 리소그래피 장치의 조명 형상에 기초하는 방법.
15. 12 항 내지 14 항 중 어느 하나에 있어서, 광 근접 보정 이미지는 연속 투과 마스크 이미지인 방법.
16. 디자인 패턴의 광 근접 보정의 구역에 또 다른 구역과 상이한 가중치를 할당하기 위한 가중 함수 또는 데이터를 얻는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 가중 데이터에 기초하여 디자인 패턴의 기준 광 근접 보정에 대해 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
17. 16 항에 있어서, 가중 함수 또는 데이터는 예측된 광 근접 보정, 기준 광 근접 보정, 및/또는 예측된 및 기준 광 근접 보정들 간의 차이에 적용되는 방법.
*18. 16 항 또는 17 항에 있어서, 가중 함수 또는 데이터는 디자인 패턴의 주 피처에 인접한 구역에 그 구역 외부의 구역보다 높은 가중치를 할당하는 방법.
19. 18 항에 있어서, 구역은 주 피처에 대한 광 근접 보정을 포함하지만, 주 피처에 대한 또 다른 광 근접 보정을 배제하는 방법.
20. 16 항 내지 19 항 중 어느 하나에 있어서, 가중 함수 또는 데이터는 광 근접 보정의 내부 및/또는 디자인 패턴의 또 다른 부분보다 광 근접 보정의 에지에 더 높은 가중치를 할당하는 방법.
21. 16 항 내지 20 항 중 어느 하나에 있어서, 가중 함수 또는 데이터는 디자인 패턴의 주 피처로부터의 거리의 함수로서 가중치를 감쇠시키도록 구성되는 가중 함수를 포함하는 방법.
22. 디자인 패턴에 대한 기준 광 근접 보정을 얻는 단계;
하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정을 생성하는 단계;
하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 일부분에 비교적 높은 가중치를 할당하는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 가중된 예측된 및/또는 기준 광 근접 보정들을 평가하는 목적 함수를 사용하여 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
23. 22 항에 있어서, 비교적 높은 가중치가 광 근접 보정의 에지에 할당되는 방법.
24. 22 항 또는 23 항에 있어서, 디자인 패턴의 주 피처에 대한 제 1 광 근접 보정에 주 피처에 대한 제 2 광 근접 보정과는 상이한 가중치가 할당되는 방법.
25. 하드웨어 컴퓨터 시스템에 의해, 디자인 패턴의 기준 광 근접 보정 및/또는 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정의 이미지 데이터에 이진화 함수를 적용하여 그 각각의 이진화된 버전을 생성하는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 이진화된 버전에 기초하여 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
26. 25 항에 있어서, 이진화 함수는 시그모이드 함수인 방법.
27. 디자인 패턴에 대한 기준 광 근접 보정 이미지를 얻는 단계;
하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정 이미지를 생성하는 단계;
하드웨어 컴퓨터 시스템에 의해, 이진화 함수를 사용하여 예측된 및 기준 광 근접 보정 이미지들을 각각의 이진 이미지들로 변환하는 단계;
하드웨어 컴퓨터 시스템에 의해, 예측된 광 근접 보정 이미지의 이진 이미지의 데이터에 대해 기준 광 근접 보정 이미지의 이진 이미지의 데이터를 평가하는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 평가에 기초하여 기계 학습 모델의 파라미터를 조정하는 단계를 포함하는 방법.
28. 27 항에 있어서, 이진화 함수는 시그모이드 함수인 방법.
29. 하드웨어 컴퓨터 시스템에 의해, 디자인 패턴의 기준 광 근접 보정 및/또는 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정의 이미지 데이터를 처리하여 광 근접 보정의 에지 위치들을 식별하는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 식별된 에지 위치들로부터의 데이터에 기초하여 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
30. 29 항에 있어서, 식별된 에지 위치들은 식별된 에지 픽셀들인 방법.
31. 29 항 또는 30 항에 있어서, 식별된 에지 위치들은 광 근접 보정을 위해 추출된 윤곽 상의 위치들인 방법.
32. 31 항에 있어서, 윤곽 상의 식별된 에지 위치로부터의 데이터는 광 근접 보정의 이미지의 픽셀 그리드 상의 데이터로부터의 보간에 의해 얻어지는 방법.
33. 29 항 내지 32 항 중 어느 하나에 있어서, 광 근접 보정의 식별된 에지 위치들에 광 근접 보정의 다른 위치들과는 상이한 가중치를 적용하는 단계를 더 포함하는 방법.
34. 29 항 내지 33 항 중 어느 하나에 있어서, 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가하는 단계는 예측된 광 근접 보정 및 기준 광 근접 보정에 대한 식별된 에지 위치들 사이의 에지 배치 오차 값들을 결정하고 에지 배치 오차 값들에 기초하여 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
35. 디자인 패턴에 대한 기준 광 근접 보정 이미지를 얻는 단계;
하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정 이미지를 생성하는 단계;
하드웨어 컴퓨터 시스템에 의해, 예측된 및 기준 광 근접 보정 이미지들 내의 피처들의 에지 위치들을 식별하는 단계;
하드웨어 컴퓨터 시스템에 의해, 예측된 광 근접 보정 이미지의 식별된 에지 위치들에서의 데이터에 대해 기준 광 근접 보정 이미지의 식별된 에지 위치들에서의 데이터를 평가하는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 평가에 기초하여 기계 학습 모델의 파라미터를 조정하는 단계를 포함하는 방법.
36. 35 항에 있어서, 식별하는 단계는 기준 및 예측된 광 근접 보정 이미지들의 피처들의 에지에 대한 윤곽을 추적하는 단계를 포함하는 방법.
37. 입력 디자인 패턴의 공간적으로 시프팅된 버전을 얻는 단계; 및
하드웨어 컴퓨터 시스템에 의해, 페널티 항을 갖는 목적 함수를 사용하여 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하며, 페널티 항은 입력 디자인 패턴에 대해 기계 학습 모델에 의해 이루어진 예측에 대응하는 값과 시프팅된 입력 디자인 패턴에 대해 기계 학습 모델에 의해 이루어진 예측의 역 시프팅된 버전에 대응하는 값 간의 비교를 수반하고, 역 시프트는 입력 디자인 패턴의 공간적으로 시프팅된 버전을 생성하기 위해 사용된 공간적 시프트에 대한 역인 공간적 시프트인 방법.
38. 37 항에 있어서, 비교는 거리 함수를 포함하는 방법.
39. 37 항 또는 38 항에 있어서, 공간적 시프트는 플립 및/또는 회전을 포함하는 작업들을 수반하는 방법.
40. 1 항 내지 39 항 중 어느 하나에 따라 트레이닝된 기계 학습 모델로 디자인 패턴을 입력시키는 단계;
하드웨어 컴퓨터 시스템에 의해 및 트레이닝된 기계 학습에 의해, 디자인 패턴에 대한 광 근접 보정의 예측을 연산하는 단계를 포함하는 방법.
41. 1 항 내지 40 항 중 어느 하나에 있어서, 기계 학습 모델은 1 이상의 기본 블록의 인스턴스들로 구성되는 뉴럴 네트워크를 포함하고, 1 이상의 기본 블록은 컨볼루션 층, 잔차 블록 및/또는 인셉션 블록을 포함하는 방법.
42. 41 항에 있어서, 인셉션 블록은 보폭이 1인 최대 하나의 풀링 층 및 상이한 필터 크기들을 갖는 2 이상의 컨볼루션 층으로 이루어지는 방법.
43. 41 항 또는 42 항에 있어서, 잔차 블록은 2 개의 컨볼루션 층들 및 잔차 블록의 입력 및 출력을 직접 연결하기 위한 추가 경로를 갖는 방법.
44. 41 항 내지 43 항 중 어느 하나에 있어서, 뉴럴 네트워크는: 컨볼루션 층, 잔차 블록 및/또는 인셉션 블록으로부터 선택되는 1 이상의 인스턴스로만 구성되는 방법.
45. 41 항 내지 44 항 중 어느 하나에 있어서, 뉴럴 네트워크는 본질적으로 컨볼루션 및 풀링 작업들만을 수반하는 방법.
46. 명령어들이 기록되어 있는 컴퓨터 판독가능한 매체를 포함하는 컴퓨터 프로그램 제품에 있어서, 명령어들은 컴퓨터에 의해 실행될 때 1 항 내지 45 항 중 어느 하나의 방법을 구현하는 컴퓨터 프로그램 제품.
본 명세서에 개시된 개념들은 리소그래피 장치를 수반하는 여하한의 디바이스 제조 공정에 적용가능할 수 있으며, 점점 더 작은 크기의 파장들을 생성할 수 있는 신흥 이미징 기술들과 특히 유용할 수 있다. 이미 사용중인 신흥 기술들로는 ArF 레이저를 사용하여 193 nm의 파장 또는 심지어 플루오린 레이저를 사용하여 157 nm의 파장을 생성할 수 있는 심자외(DUV) 리소그래피를 포함한다. 또한, EUV 리소그래피가 5 내지 20 nm 범위 내의 파장을 생성할 수 있다.
본 명세서에 개시된 개념들은 실리콘 웨이퍼와 같은 기판 상의 디바이스 제조를 위해 사용될 수 있지만, 개시된 개념들은 여하한 타입의 리소그래피 이미징 시스템들, 예를 들어 실리콘 웨이퍼들 이외의 기판들 상에 이미징하는 데 사용되는 것들과 사용될 수 있다는 것을 이해하여야 한다.
앞서 언급된 패터닝 디바이스는 디자인 레이아웃을 포함하거나 형성할 수 있다. 디자인 레이아웃은 CAD(computer-aided design) 프로그램을 사용하여 생성될 수 있다. 이 프로세스는 흔히 EDA(electronic design automation)라고 칭해진다. 대부분의 CAD 프로그램은 기능적인 디자인 레이아웃/패터닝 디바이스를 생성하기 위해 사전설정된 디자인 규칙들의 세트를 따른다. 이 규칙들은 처리 및 디자인 제한들에 의해 설정된다. 예를 들어, 디자인 규칙들은 회로 디바이스들 또는 라인들이 바람직하지 않은 방식으로 서로 상호작용하지 않을 것을 보장하기 위해, (게이트, 커패시터 등과 같은) 회로 디바이스들 또는 상호연결 라인들 사이의 간격 공차(space tolerance)를 정의한다. 디자인 규칙 제한들은 통상적으로 "임계 치수"(CD)라고 칭해진다. 회로의 임계 치수는 라인 또는 홀의 최소 폭, 또는 두 라인들 또는 두 홀들 간의 최소 간격으로서 정의될 수 있다. 따라서, CD는 디자인된 회로의 전체 크기 및 밀도를 결정한다. 물론, 집적 회로 제작에서의 목표들 중 하나는 원래 회로 디자인을 (패터닝 디바이스를 통해) 기판 상에 충실하게 재현하는 것이다.
본 명세서에서 채택된 "마스크" 또는 "패터닝 디바이스"라는 용어는 기판의 타겟부에 생성될 패턴에 대응하여 입사하는 방사선 빔에 패터닝된 단면을 부여하는 데 사용될 수 있는 일반적인 패터닝 디바이스를 언급하는 것으로 폭넓게 해석될 수 있다; 또한, "광 밸브(light valve)"라는 용어가 이러한 맥락에서 사용될 수도 있다. 전형적인 마스크[투과형 또는 반사형; 바이너리(binary), 위상-시프팅, 하이브리드(hybrid) 등] 이외에, 여타의 이러한 패터닝 디바이스의 예시들로 다음을 포함한다:
- 프로그램가능한 거울 어레이. 이러한 디바이스의 일 예시는 점탄성 제어층 및 반사 표면을 갖는 매트릭스-어드레서블 표면(matrix-addressable surface)이다. 이러한 장치의 기본 원리는, (예를 들어) 반사 표면의 어드레싱된 영역들은 입사 방사선을 회절 방사선(diffracted radiation)으로서 반사시키는 반면, 어드레싱되지 않은 영역들은 입사 방사선을 비회절 방사선으로서 반사시킨다는 것이다. 적절한 필터를 사용하면, 반사된 빔 중에서 상기 비회절 방사선을 필터링하여 회절 방사선만이 남게 할 수 있다; 이러한 방식으로 매트릭스-어드레서블 표면의 어드레싱 패턴에 따라 빔이 패터닝되게 된다. 필요한 매트릭스 어드레싱은 적절한 전자 수단을 이용하여 수행될 수 있다.
- 프로그램가능한 LCD 어레이.
본 명세서에서는, IC의 제조에 대하여 특히 언급되지만, 본 명세서의 기재내용은 다수의 다른 가능한 적용예들을 갖는다는 것을 명확히 이해하여야 한다. 예를 들어, 이는 집적 광학 시스템, 자기 도메인 메모리용 안내 및 검출 패턴, 액정 디스플레이 패널, 박막 자기 헤드 등의 제조 시에 채택될 수 있다. 당업자라면, 이러한 대안적인 적용예와 관련하여, 본 명세서의 "레티클", "웨이퍼" 또는 "다이"라는 용어의 어떠한 사용도 각각 "마스크", "기판" 및 "타겟부"라는 좀 더 일반적인 용어와 교환가능한 것으로 간주되어야 한다는 것을 이해할 것이다.
따라서, 언급된 바와 같이, IC와 같은 디바이스들의 제조에 있어서 마이크로리소그래피가 중요한 단계이며, 이때 기판들 상에 형성되는 패턴들이 마이크로프로세서, 메모리 칩 등과 같은 IC의 기능 요소들을 정의한다. 또한, 유사한 리소그래피 기술들이 평판 디스플레이, MEMS(micro-electro mechanical systems) 및 다른 디바이스들의 형성 시 사용된다.
본 명세서에서, "방사선" 및 "빔"이라는 용어는 (예를 들어, 365, 248, 193, 157 또는 126 nm의 파장을 갖는) 자외 방사선 및 EUV(예를 들어, 5 내지 20 nm 범위 내의 파장을 갖는 극자외 방사선)를 포함하는 모든 형태의 전자기 방사선을 포괄하는 데 사용된다.
본 명세서에서 사용되는 바와 같은 "최적화하는" 및 "최적화"라는 용어는 패터닝의 결과들 및/또는 공정들이 1 이상의 바람직한 특성, 예컨대 기판 상의 디자인 레이아웃의 더 높은 전사 정확성, 더 큰 공정 윈도우 등을 갖도록 패터닝 공정 장치, 패터닝 공정의 1 이상의 단계를 조정하는 것을 칭하거나 의미한다. 따라서, 본 명세서에서 사용되는 "최적화하는" 및 "최적화"라는 용어는 1 이상의 파라미터에 대한 1 이상의 값의 초기 세트에 비해, 적어도 하나의 관련 메트릭에서 개선, 예를 들어 국부적 최적을 제공하는 1 이상의 파라미터에 대한 1 이상의 값을 식별하는 공정을 칭하거나 의미한다. "최적" 및 다른 관련 용어들은 이에 따라 해석되어야 한다. 일 실시예에서, 최적화 단계들은 1 이상의 메트릭에서 추가 개선을 제공하도록 반복적으로 적용될 수 있다.
블록 다이어그램들에서, 예시된 구성요소들은 개별 기능 블록들로서 도시되어 있지만, 실시예들은 본 명세서에 설명된 기능이 예시된 바와 같이 구성되는 시스템들로 제한되지 않는다. 구성요소들 각각에 의해 제공되는 기능은 현재 도시된 것과 상이하게 구성되는 소프트웨어 또는 하드웨어 모듈들에 의해 제공될 수 있으며, 예를 들어 이러한 소프트웨어 또는 하드웨어는 (예를 들어, 데이터 센터 내에서 또는 지리적으로) 혼합, 결합, 복제, 분리, 분포, 또는 달리 상이하게 구성될 수 있다. 본 명세서에 설명된 기능은 유형의 비-일시적 기계 판독가능한 매체 상에 저장된 코드를 실행하는 1 이상의 컴퓨터의 1 이상의 프로세서에 의해 제공될 수 있다. 몇몇 경우, 타사의 콘텐츠 전송 네트워크가 네트워크를 통해 전달되는 정보의 일부 또는 전부를 호스팅할 수 있으며, 이 경우 정보(예를 들어, 콘텐츠)가 공급되거나 달리 제공되라고 하는 범위에 대하여, 정보는 콘텐츠 전송 네트워크로부터 그 정보를 검색하도록 명령어들을 송신함으로써 제공될 수 있다.
달리 특정적으로 명시되지 않는 한, 논의에서 명백한 바와 같이, 본 명세서 전반에 걸쳐 "처리", "연산", "계산", "결정" 등과 같은 용어를 사용한 설명들은 특수 목적 컴퓨터 또는 유사한 특수 목적 전자 처리/연산 디바이스와 같은 특정한 장치의 동작 또는 공정을 지칭한다는 것을 이해한다.
본 출원은 수 개의 발명들을 설명한다는 것을 이해하여야 한다. 이러한 발명들을 다수의 개별 특허 출원들로 분리하기보다는, 출원인은 이 발명들을 단일 문서로 그룹화하였는데, 이는 이들의 관련 대상이 출원 과정에서의 절약에 적합하기 때문이다. 하지만, 이러한 발명들의 별개의 장점들 및 측면들은 합쳐지지 않아야 한다. 몇몇 경우, 실시예들이 본 명세서에 명시된 결점들을 모두 해결하지만, 본 발명들은 독립적으로 유용하며, 몇몇 실시예들은 이러한 문제들의 서브세트만을 해결하거나 본 기재내용을 검토하는 당업자에게 명백할 언급되지 않은 다른 이점들을 제공한다는 것을 이해하여야 한다. 비용의 제약으로 인해, 본 명세서에 개시된 일부 발명들은 현재 청구되지 않을 수 있으며, 본 청구항을 보정함으로써 또는 계속 출원과 같이 추후 출원에서 청구될 수 있다. 유사하게, 공간 제약으로 인해, 본 문서의 초록(Abstract)이나 요약(Summary) 부분들은 이러한 발명들 전부의 포괄적인 목록 또는 이러한 발명들의 모든 실시형태들을 포함하는 것으로 간주되어서는 안 된다.
설명 및 도면들은 본 발명을 개시된 특정 형태로 제한하려는 것이 아니라, 반대로 첨부된 청구항에 의해 정의되는 본 발명의 기술사상 및 범위 내에 있는 모든 변형예, 균등물 및 대안예를 포함하기 위한 것임을 이해하여야 한다.
본 발명의 다양한 실시형태들의 변형예들 및 대안적인 실시예들은 이 설명을 고려하여 당업자에게 명백할 것이다. 따라서, 이 설명 및 도면들은 단지 예시적인 것으로서 해석되어야 하며, 본 발명을 수행하는 일반적인 방식을 당업자에게 교시하기 위한 것이다. 본 명세서에 도시되고 설명된 본 발명의 형태들은 실시예들의 예시들로서 취해진 것으로 이해되어야 한다. 본 명세서에 도시되고 기술된 것들을 대신하여 요소들 및 재료들이 대체될 수 있으며, 부품들 및 공정들은 역전되거나 생략될 수 있고, 소정 특징들은 독립적으로 이용될 수 있으며, 실시예들 또는 실시예들의 특징들은 조합될 수 있고, 이는 모두 이러한 설명의 이점을 가진 후에 당업자에게 명백할 것이다. 다음 청구항들에 기재된 본 발명의 기술사상 및 범위를 벗어나지 않고 본 명세서에 설명된 요소들이 변경될 수 있다. 본 명세서에 사용된 표제는 단지 편제의 목적만을 위한 것이며, 설명의 범위를 제한하는 데 사용되지는 않는다.
본 출원 전반에 걸쳐 사용된 바와 같이, 단어 "할 수 있다(may)"는 의무적인 의미(즉, 해야 함을 의미함)보다는 허용의 의미(즉, 가능성을 가짐을 의미함)로 사용된다. "포함한다" 및 "포함하는" 등의 단어는 포함하지만 이에 제한되지는 않는다는 것을 의미한다. 본 출원 전반에 걸쳐 사용된 바와 같이, 단수 형태 "a", "an" 및 "the"는 내용이 명시적으로 달리 지시하지 않는 한 복수의 대상을 포함한다. 따라서, 예를 들어 "하나"의 요소에 대한 언급은 "하나 또는 그 이상"과 같은 1 이상의 요소에 대한 다른 용어 및 어구의 사용에도 불구하고 2 이상의 요소들의 조합을 포함한다. "또는(or)"이라는 용어는 달리 명시되지 않는 한, 비-배타적이며, 즉 "및(and)"과 "또는(or)"을 모두 포괄한다. 예를 들어, "X에 응답하여, Y", "X 때, Y", "X라면, Y", "X의 경우, Y" 등과 같은 조건부 관계를 설명하는 용어는, 선행 조건이 필요 원인 조건이거나, 선행 조건이 충분 원인 조건이거나, 또는 선행 조건이 결과의 기여 원인 조건인 인과 관계들을 포괄하고, 예를 들어 "조건 Y를 얻을 때 상태 X가 발생한다"는 "X는 Y에서만 발생한다" 및 "X는 Y와 Z에서 발생한다"에 일반적이다. 이러한 조건부 관계들은 일부 결과가 지연될 수 있기 때문에 선행 조건을 얻은 바로 후의 결과들에 제한되지 않으며, 조건부 진술에서 선행 조건은 그 결과들에 연결되고, 예를 들어 선행 조건은 결과 발생의 가능성과 관련이 있다. 복수의 속성들 또는 기능들이 복수의 대상들(예를 들어, 단계 A, 단계 B, 단계 C 및 단계 D를 수행하는 1 이상의 프로세서)에 매핑된다는 언급은, 달리 지시되지 않는 한, 이러한 모든 대상에 매핑되는 이러한 모든 속성들 또는 기능들, 및 속성들 또는 기능들의 서브세트들에 매핑되는 속성들 또는 기능들의 서브세트들을 둘 다(예를 들어, 단계 A 내지 단계 D를 각각 수행하는 모든 프로세서들, 및 프로세서 1이 단계 A를 수행하고, 프로세서 2가 단계 B 및 단계 C의 일부를 수행하고, 프로세서 3이 단계 C의 일부와 단계 D를 수행하는 경우 둘 다) 포괄한다. 나아가, 달리 지시되지 않는 한, 하나의 값 또는 동작이 또 다른 조건 또는 값에 "기초한다"는 언급은, 조건 또는 값이 유일한 인자인 인스턴스들 및 조건 또는 값이 복수의 인자들 중 하나의 인자인 인스턴스들을 둘 다 포괄한다. 달리 지시되지 않는 한, 일부 집합의 "각각"의 인스턴스가 일부 속성을 갖는다는 언급들은, 더 큰 집합의 달리 동일하거나 유사한 일부 멤버들이 해당 속성을 갖지 않는 경우를 제외하는 것으로 읽혀서는 안 되며, 즉 각각(each)이 반드시 각각 및 모든 것(each and every)을 의미하는 것은 아니다.
앞선 설명에서, 흐름도에서의 여하한의 공정들, 설명들 또는 블록들은 모듈들, 세그먼트들 또는 공정에서의 특정한 논리 기능들 또는 단계들을 구현하기 위한 1 이상의 실행가능한 명령어를 포함하는 코드의 부분들을 나타내는 것으로 이해되어야 하며, 당업자라면 이해하는 바와 같이, 관련 기능에 따라 실질적으로 동시에 또는 역순으로 수행되는 것을 포함하여, 기능들이 도시되거나 논의된 순서를 벗어나 실행될 수 있는 대안적인 구현들이 본 발명의 예시적인 실시예들의 범위 내에 포함된다.
특정 실시예들이 설명되었지만, 이 실시예들은 단지 예시의 방식으로 제시되었으며, 본 발명의 범위를 제한하도록 의도되지 않는다. 실제로, 본 명세서에 기술된 신규한 방법들, 장치들 및 시스템들은 다양한 다른 형태들로 구현될 수 있다; 또한, 본 명세서에 기술된 방법들, 장치들 및 시스템들의 형태에서의 다양한 생략, 대체 및 변경이 본 발명의 기술사상을 벗어나지 않고 행해질 수 있다. 첨부된 청구항 및 그 균등물은 본 발명의 기술사상 및 범위 내에 속하는 이러한 형태 또는 변형예를 포함하도록 의도된다. 예를 들어, 이 기술은 단일 기능이 네트워크를 통해 복수의 장치들 사이에서 공유되고 협력하여 처리되는 클라우드 컴퓨팅(cloud computing)을 위한 구조일 수 있다.

Claims (13)

  1. 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법에 있어서,
    디자인 패턴(design pattern)의 광 근접 보정(optical proximity correction)의 구역에 또 다른 구역과 상이한 가중치를 할당하기 위한 가중 함수 또는 데이터를 얻는 단계; 및
    하드웨어 컴퓨터 시스템에 의해, 가중 데이터에 기초하여 디자인 패턴의 기준 광 근접 보정에 대해 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
  2. 제 1 항에 있어서, 가중 함수 또는 데이터는 예측된 광 근접 보정, 기준 광 근접 보정, 및/또는 예측된 및 기준 광 근접 보정들 간의 차이에 적용되는 방법.
  3. 제 1 항 또는 제 2 항에 있어서, 가중 함수 또는 데이터는 디자인 패턴의 주 피처에 인접한 구역에 그 구역 외부의 구역보다 높은 가중치를 할당하는 방법.
  4. 제 3 항에 있어서, 구역은 주 피처에 대한 광 근접 보정을 포함하지만, 주 피처에 대한 또 다른 광 근접 보정을 배제하는 방법.
  5. 제 1 항 또는 제 2 항에 있어서, 가중 함수 또는 데이터는 광 근접 보정의 내부 및/또는 디자인 패턴의 또 다른 부분보다 광 근접 보정의 에지에 더 높은 가중치를 할당하는 방법.
  6. 제 1 항 또는 제 2 항에 있어서, 가중 함수 또는 데이터는 디자인 패턴의 주 피처로부터의 거리의 함수로서 가중치를 감쇠시키도록 구성되는 가중 함수를 포함하는 방법.
  7. 디자인 패턴에 대한 기준 광 근접 보정을 얻는 단계;
    하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정을 생성하는 단계;
    하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 일부분에 비교적 높은 가중치를 할당하는 단계; 및
    하드웨어 컴퓨터 시스템에 의해, 가중된 예측된 및/또는 기준 광 근접 보정들을 평가하는 목적 함수를 사용하여 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
  8. 제 7 항에 있어서, 비교적 높은 가중치가 광 근접 보정의 에지에 할당되는 방법.
  9. 제 7 항 또는 제 8 항에 있어서, 디자인 패턴의 주 피처에 대한 제 1 광 근접 보정에 주 피처에 대한 제 2 광 근접 보정과는 상이한 가중치가 할당되는 방법.
  10. 하드웨어 컴퓨터 시스템에 의해, 디자인 패턴의 기준 광 근접 보정 및/또는 기계 학습 모델에 의한 디자인 패턴의 예측된 광 근접 보정의 이미지 데이터에 이진화 함수를 적용하여 그 각각의 이진화된 버전을 생성하는 단계; 및
    하드웨어 컴퓨터 시스템에 의해, 예측된 및/또는 기준 광 근접 보정의 이진화된 버전에 기초하여 기준 광 근접 보정에 대해 예측된 광 근접 보정을 평가함으로써 디자인 패턴들에 대한 광 근접 보정들을 예측하도록 구성되는 기계 학습 모델을 트레이닝하는 단계를 포함하는 방법.
  11. 제 10 항에 있어서, 이진화 함수는 시그모이드 함수인 방법.
  12. 디자인 패턴에 대한 기준 광 근접 보정 이미지를 얻는 단계;
    하드웨어 컴퓨터 시스템에 의해, 기계 학습 모델을 사용하여 디자인 패턴에 대한 예측된 광 근접 보정 이미지를 생성하는 단계;
    하드웨어 컴퓨터 시스템에 의해, 이진화 함수를 사용하여 예측된 및 기준 광 근접 보정 이미지들을 각각의 이진 이미지들로 변환하는 단계;
    하드웨어 컴퓨터 시스템에 의해, 예측된 광 근접 보정 이미지의 이진 이미지의 데이터에 대해 기준 광 근접 보정 이미지의 이진 이미지의 데이터를 평가하는 단계; 및
    하드웨어 컴퓨터 시스템에 의해, 평가에 기초하여 기계 학습 모델의 파라미터를 조정하는 단계를 포함하는 방법.
  13. 제 12 항에 있어서, 이진화 함수는 시그모이드 함수인 방법.
KR1020227018451A 2017-09-08 2018-09-05 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들 KR102550350B1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201762556246P 2017-09-08 2017-09-08
US62/556,246 2017-09-08
US201862725734P 2018-08-31 2018-08-31
US62/725,734 2018-08-31
KR1020207006806A KR102405686B1 (ko) 2017-09-08 2018-09-05 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들
PCT/EP2018/073914 WO2019048506A1 (en) 2017-09-08 2018-09-05 METHODS OF LEARNING OPTICAL CORRECTION OF PROXIMITY ERROR ASSISTED BY AUTOMATIC APPRENTICESHIP

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020207006806A Division KR102405686B1 (ko) 2017-09-08 2018-09-05 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들

Publications (2)

Publication Number Publication Date
KR20220079699A true KR20220079699A (ko) 2022-06-13
KR102550350B1 KR102550350B1 (ko) 2023-07-04

Family

ID=63528763

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020207006806A KR102405686B1 (ko) 2017-09-08 2018-09-05 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들
KR1020227018451A KR102550350B1 (ko) 2017-09-08 2018-09-05 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020207006806A KR102405686B1 (ko) 2017-09-08 2018-09-05 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들

Country Status (5)

Country Link
US (3) US11561477B2 (ko)
KR (2) KR102405686B1 (ko)
CN (2) CN111051993B (ko)
TW (3) TWI754308B (ko)
WO (1) WO2019048506A1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10522322B2 (en) 2017-04-13 2019-12-31 Fractilia, Llc System and method for generating and analyzing roughness measurements
US10176966B1 (en) 2017-04-13 2019-01-08 Fractilia, Llc Edge detection system
WO2019118639A1 (en) * 2017-12-12 2019-06-20 The Regents Of The University Of California Residual binary neural network
WO2019158682A1 (en) * 2018-02-18 2019-08-22 Asml Netherlands B.V. Binarization method and freeform mask optimization flow
TWI791196B (zh) * 2018-05-24 2023-02-01 荷蘭商Asml荷蘭公司 判定基板之堆疊組態之方法及其相關非暫時性電腦可讀媒體
KR102617197B1 (ko) 2018-12-28 2023-12-27 에이에스엠엘 네델란즈 비.브이. 프린트된 기판으로부터의 측정 피드백에 기초한 패턴 랭킹 결정
KR20210116613A (ko) * 2019-02-21 2021-09-27 에이에스엠엘 네델란즈 비.브이. 마스크에 대한 광학 근접 보정을 결정하기 위한 머신 러닝 모델의 트레이닝 방법
WO2020187578A1 (en) * 2019-03-21 2020-09-24 Asml Netherlands B.V. Training method for machine learning assisted optical proximity error correction
US20220351075A1 (en) * 2019-07-04 2022-11-03 Asml Netherlands B.V. Method and apparatus for determining feature contribution to performance
US11042981B2 (en) * 2019-07-12 2021-06-22 SVXR, Inc. Methods and systems for printed circuit board design based on automatic corrections
CN114207517A (zh) * 2019-08-13 2022-03-18 Asml荷兰有限公司 训练用于改善图案化过程的机器学习模型的方法
JP2022544585A (ja) 2019-08-16 2022-10-19 シノプシス, インコーポレイテッド 人工ニューラルネットワークによって予測される故障モードに基づくレチクル強化技術レシピの適用
US20210064977A1 (en) * 2019-08-29 2021-03-04 Synopsys, Inc. Neural network based mask synthesis for integrated circuits
KR20220038167A (ko) * 2019-08-30 2022-03-25 에이에스엠엘 네델란즈 비.브이. 반도체 디바이스 지오메트리 방법 및 시스템
US11593673B2 (en) * 2019-10-07 2023-02-28 Servicenow Canada Inc. Systems and methods for identifying influential training data points
KR20220058639A (ko) * 2019-10-17 2022-05-09 에이에스엠엘 네델란즈 비.브이. 측정 데이터를 모델에 근사화하고 성능 파라미터 분포를 모델링하는 방법 및 연관된 장치
US11762283B2 (en) * 2019-12-13 2023-09-19 Synopsys, Inc. Inverse lithography and machine learning for mask synthesis
US20210201205A1 (en) * 2019-12-26 2021-07-01 Wipro Limited Method and system for determining correctness of predictions performed by deep learning model
DE102020102863A1 (de) * 2020-02-05 2021-08-05 Festo Se & Co. Kg Parametrierung einer Komponente in der Automatisierungsanlage
CN115190985A (zh) * 2020-03-03 2022-10-14 Asml荷兰有限公司 基于机器学习的亚分辨率辅助特征放置
CN113537446A (zh) 2020-04-17 2021-10-22 富泰华工业(深圳)有限公司 深度学习算法的选择方法及深度学习算法的选择装置
TWI765250B (zh) * 2020-04-17 2022-05-21 鴻海精密工業股份有限公司 深度學習演算法的選擇方法及深度學習演算法的選擇裝置
CN113759657B (zh) * 2020-06-03 2024-05-03 中芯国际集成电路制造(上海)有限公司 光学邻近校正方法
WO2021259738A1 (en) * 2020-06-24 2021-12-30 Asml Netherlands B.V. Systems, methods, and products for determining printing probability of assist feature and its application
KR20220001262A (ko) 2020-06-29 2022-01-05 삼성전자주식회사 반도체 공정의 근접 보정 방법
US20230315027A1 (en) * 2020-07-09 2023-10-05 Asml Netherlands B.V. Motion control using an artificial neural network
KR20220014760A (ko) 2020-07-29 2022-02-07 삼성전자주식회사 심층 학습에 기반한 마스크 상의 형태 형성 방법, 및 그 형성 방법을 이용한 마스크 제조방법
US11869490B1 (en) * 2020-08-14 2024-01-09 Amazon Technologies, Inc. Model configuration
US20220121957A1 (en) * 2020-10-15 2022-04-21 Synopsys, Inc. Lithography simulation using machine learning
KR20220080768A (ko) * 2020-12-07 2022-06-15 삼성전자주식회사 Opc 모델의 에러 검증 방법
CN112578646B (zh) * 2020-12-11 2022-10-14 上海集成电路装备材料产业创新中心有限公司 一种基于图像的离线的光刻工艺稳定性控制方法
US20240119212A1 (en) * 2021-03-03 2024-04-11 Asml Netherlands B.V. Configuration of patterning process
CN113168086A (zh) * 2021-03-19 2021-07-23 长江存储科技有限责任公司 用于设计光掩模的系统和方法
CN113151989B (zh) * 2021-04-19 2022-10-18 山东大学 布料处理方法、系统及缝制机器人
WO2022233546A1 (en) * 2021-05-06 2022-11-10 Asml Netherlands B.V. Method for determining a stochastic metric relating to a lithographic process
WO2023158457A2 (en) * 2021-06-30 2023-08-24 Battelle Memorial Institute Automated circuit design validation
CN114898169B (zh) * 2022-03-10 2024-04-12 武汉大学 一种基于深度学习的光刻opc数据库建立方法
TWI812086B (zh) * 2022-03-18 2023-08-11 力晶積成電子製造股份有限公司 光學鄰近修正模型的產生方法
CN117192887A (zh) * 2022-05-30 2023-12-08 联华电子股份有限公司 光学邻近修正的执行装置与执行方法
CN115830201A (zh) * 2022-11-22 2023-03-21 光线云(杭州)科技有限公司 一种基于聚簇的粒子系统优化渲染方法和装置
CN116384257B (zh) * 2023-05-29 2023-09-29 浙江大学 一种空分整装冷箱装配误差预测与公差优化方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058452A (ja) * 2004-08-18 2006-03-02 Toshiba Corp マスクパターン補正方法、マスクパターン補正プログラム、フォトマスクの作製方法及び半導体装置の製造方法
KR20140030007A (ko) * 2012-08-30 2014-03-11 삼성전자주식회사 광근접보정 모델링 방법 및 시스템
KR20140075695A (ko) * 2011-09-13 2014-06-19 꼼미사리아 아 레네르지 아토미끄 에뜨 옥스 에너지스 앨터네이티브즈 확률론적 방법에 의해 노광될 패턴에 대하여 디콘볼루션을 사용하여 전자 근접 효과를 보정 하기 위한 방법
KR20170096018A (ko) * 2014-12-18 2017-08-23 에이에스엠엘 네델란즈 비.브이. 기계 학습에 의한 피처 검색

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3934719B2 (ja) * 1995-12-22 2007-06-20 株式会社東芝 光近接効果補正方法
WO2007019269A2 (en) 2005-08-08 2007-02-15 Brion Technologies, Inc. System and method for creating a focus-exposure model of a lithography process
US7695876B2 (en) 2005-08-31 2010-04-13 Brion Technologies, Inc. Method for identifying and using process window signature patterns for lithography process control
US7694267B1 (en) 2006-02-03 2010-04-06 Brion Technologies, Inc. Method for process window optimized optical proximity correction
EP1962138B1 (en) * 2007-02-23 2011-12-14 Imec Systems and methods for UV lithography
US7882480B2 (en) 2007-06-04 2011-02-01 Asml Netherlands B.V. System and method for model-based sub-resolution assist feature generation
US7707538B2 (en) 2007-06-15 2010-04-27 Brion Technologies, Inc. Multivariable solver for optical proximity correction
CN102224459B (zh) 2008-11-21 2013-06-19 Asml荷兰有限公司 用于优化光刻过程的方法及设备
NL2003699A (en) 2008-12-18 2010-06-21 Brion Tech Inc Method and system for lithography process-window-maximixing optical proximity correction.
US7979812B2 (en) * 2009-01-30 2011-07-12 Synopsys, Inc. Method and apparatus for correcting assist-feature-printing errors in a layout
US9129352B2 (en) 2012-08-30 2015-09-08 Samsung Electronics Co., Ltd. Optical proximity correction modeling method and system
TWI466173B (zh) * 2012-10-29 2014-12-21 Sidense Corp 反向光學鄰近校正的方法
US20140358830A1 (en) 2013-05-30 2014-12-04 Synopsys, Inc. Lithographic hotspot detection using multiple machine learning kernels
NL2013249A (en) 2013-08-20 2015-02-23 Asml Netherlands Bv Lithography system and a machine learning controller for such a lithography system.
WO2015090774A1 (en) * 2013-12-17 2015-06-25 Asml Netherlands B.V. Yield estimation and control
US9626459B2 (en) * 2014-01-24 2017-04-18 International Business Machines Corporation Detecting hotspots using machine learning on diffraction patterns
WO2016096309A1 (en) 2014-12-15 2016-06-23 Asml Netherlands B.V. Optimization based on machine learning
CN106777829B (zh) * 2017-02-06 2019-04-12 深圳晶源信息技术有限公司 一种集成电路掩模设计的优化方法及计算机可读的存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058452A (ja) * 2004-08-18 2006-03-02 Toshiba Corp マスクパターン補正方法、マスクパターン補正プログラム、フォトマスクの作製方法及び半導体装置の製造方法
KR20140075695A (ko) * 2011-09-13 2014-06-19 꼼미사리아 아 레네르지 아토미끄 에뜨 옥스 에너지스 앨터네이티브즈 확률론적 방법에 의해 노광될 패턴에 대하여 디콘볼루션을 사용하여 전자 근접 효과를 보정 하기 위한 방법
KR20140030007A (ko) * 2012-08-30 2014-03-11 삼성전자주식회사 광근접보정 모델링 방법 및 시스템
KR20170096018A (ko) * 2014-12-18 2017-08-23 에이에스엠엘 네델란즈 비.브이. 기계 학습에 의한 피처 검색

Also Published As

Publication number Publication date
KR20200035303A (ko) 2020-04-02
TW201921151A (zh) 2019-06-01
TWI699627B (zh) 2020-07-21
WO2019048506A1 (en) 2019-03-14
US11561477B2 (en) 2023-01-24
CN115185163A (zh) 2022-10-14
US20240012335A1 (en) 2024-01-11
TW202219657A (zh) 2022-05-16
KR102405686B1 (ko) 2022-06-07
US11768440B2 (en) 2023-09-26
CN111051993A (zh) 2020-04-21
US20200356011A1 (en) 2020-11-12
US20230137097A1 (en) 2023-05-04
TWI808592B (zh) 2023-07-11
TWI754308B (zh) 2022-02-01
CN111051993B (zh) 2022-06-28
TW202046026A (zh) 2020-12-16
KR102550350B1 (ko) 2023-07-04

Similar Documents

Publication Publication Date Title
KR102405686B1 (ko) 기계 학습 보조 광 근접 오차 보정을 위한 트레이닝 방법들
US11029605B2 (en) Optimization based on machine learning
KR102644214B1 (ko) 컴퓨테이션 리소그래피를 위한 머신 러닝 모델을 트레이닝시키기 위한 방법
TWI681250B (zh) 獲得輔助特徵之特性的方法及電腦程式產品
US20220277116A1 (en) Identification of hot spots or defects by machine learning
KR102048918B1 (ko) 기계 학습에 의한 피처 검색
US11815820B2 (en) Training method for machine learning assisted optical proximity error correction
EP4165471A1 (en) Aberration impact systems, models, and manufacturing processes

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant