KR20220154198A - 임퓨터 모델의 구성 기술 - Google Patents

임퓨터 모델의 구성 기술 Download PDF

Info

Publication number
KR20220154198A
KR20220154198A KR1020227035617A KR20227035617A KR20220154198A KR 20220154198 A KR20220154198 A KR 20220154198A KR 1020227035617 A KR1020227035617 A KR 1020227035617A KR 20227035617 A KR20227035617 A KR 20227035617A KR 20220154198 A KR20220154198 A KR 20220154198A
Authority
KR
South Korea
Prior art keywords
data
model
imputed
imputor
list
Prior art date
Application number
KR1020227035617A
Other languages
English (en)
Inventor
레자 사라이안
바히드 바스타니
디미트라 흐코라우
산토스 구첼라 티아고 도스
Original Assignee
에이에스엠엘 네델란즈 비.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP20175361.3A external-priority patent/EP3913435A1/en
Application filed by 에이에스엠엘 네델란즈 비.브이. filed Critical 에이에스엠엘 네델란즈 비.브이.
Publication of KR20220154198A publication Critical patent/KR20220154198A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/705Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/70525Controlling normal operating mode, e.g. matching different apparatus, remote control or prediction of failure
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70633Overlay, i.e. relative alignment between patterns printed by separate exposures in different layers, or in the same layer in multiple exposures or stitching
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

제 2 파라미터를 임퓨테이션하기 위한 임퓨터 모델을 구성하는 장치 및 방법. 이러한 방법은, 제 1 파라미터의 값을 포함하는 제 1 데이터 세트를 임퓨터 모델에 입력하는 단계, 및 제 2 파라미터의 임퓨테이션된 값을 포함하는 제 2 데이터 세트를 획득하도록 상기 임퓨터 모델을 평가하는 단계를 포함한다. 이러한 방법은, 제 3 파라미터의 측정된 값을 포함하는 제 3 데이터 세트를 획득하는 단계 - 상기 제 3 파라미터는 제 2 파라미터에 상관됨 -; 상기 제 2 파라미터의 입력 값에 기반하여 상기 제 3 파라미터의 값을 추론하도록 구성된 예측 모델을 획득하는 단계; 상기 제 2 데이터 세트를 예측 모델에 입력하는 단계, 및 상기 제 3 파라미터의 추론된 값을 획득하도록 상기 예측 모델을 평가하는 단계; 및 상기 제 3 파라미터의 추론된 값 및 측정된 값의 비교에 기반하여 상기 임퓨터 모델을 구성하는 단계를 더 포함한다.

Description

임퓨터 모델의 구성 기술
관련 출원에 대한 상호 참조
본원은 2020 년 4 월 20 일에 출원된 EP 출원 제 20170366.7, 2020 년 5 월 19 일에 출원된 EP 출원 제 20175361.3, 및 2020 년 7 월 23 일에 출원된 EP 출원 제 20187387.4에 대한 우선권을 주장하는데, 이들은 그 전체 내용이 원용되어 본원에 통합된다.
본 발명은 파라미터를 임퓨테이션하기 위한 임퓨터 모델을 구성하는 장치 및 방법에 관한 것이다. 구체적으로 설명하면, 이러한 모델은 제 1 파라미터에 기반하여 제 2 파라미터를 임퓨테이션할 수 있고, 모델의 구성은 제 2 파라미터에 상관된 제 3 파라미터를 고려한다.
리소그래피 장치는 원하는 패턴을 기판에 적용하도록 구성된 기계이다. 리소그래피 장치는 예컨대 집적회로(IC)의 제조 시에 사용될 수 있다. 리소그래피 장치는 예를 들어 패터닝 디바이스(예를 들어 마스크)에서의 패턴("디자인 레이아웃" 또는 "디자인"이라고도 불림)을 기판(예를 들어, 웨이퍼) 위에 제공된 방사선-감응 재료(레지스트)의 층에 투영시킬 수 있다.
기판에 패턴을 투영하기 위하여, 리소그래피 장치는 전자기 방사선을 사용할 수 있다. 이러한 방사선의 파장이 기판 상에 형성될 수 있는 피쳐의 최소 크기를 결정한다. 현재 사용되는 통상적인 파장은 365 nm(i-라인), 248 nm, 193 nm 및 13.5 nm이다. 4 - 20 nm의 범위, 예를 들어 6.7 nm 또는 13.5 nm에 속하는 파장을 가지는 극자외(EUV) 방사선을 사용하는 리소그래피 장치는, 예를 들어 193 nm의 파장을 가지는 전자기 방사선을 사용하는 리소그래피 장치보다 더 작은 피쳐를 기판 위에 형성하기 위해 사용될 수 있다.
리소그래피 장치의 전통적인 분해능 한계보다 작은 치수의 피쳐를 처리하기 위하여 저-k1 리소그래피가 사용될 수 있다. 이러한 프로세스에서, 분해능 공식은 CD = k1×λ/NA로 표현될 수 있는데, λ는 채용된 방사선의 파장이고, NA는 리소그래피 장치 내의 투영 광학기의 개구수이며, CD는 "임계 치수"(일반적으로 인쇄된 최소 피쳐 크기이지만 이러한 경우에는 하프-피치임)이고, k1은 경험적 분해능 인자이다. 일반적으로, k1이 더 작을수록 특정한 전기적 기능성과 성능을 얻기 위해서 회로 디자이너에 의하여 계획된 형상과 치수를 닮은 패턴을 기판 상에 재현하는 것은 더 어려워진다. 이러한 문제점을 해결하기 위하여, 복잡한 미세-튜닝 단계들이 리소그래피 투영 장치 및/또는 설계 레이아웃에 적용될 수 있다. 예를 들어, 이것은 NA, 맞춤화된 조명 방식, 위상 시프트 패터닝 디바이스의 사용, 설계 레이아웃에서의 광학 근접 정정(optical proximity correction; OPC, 가끔 "광학 및 프로세스 정정"이라고도 불림)의 설계 레이아웃의 다양한 최적화, 또는 일반적으로 "분해능 향상 기법(resolution enhancement techniques; RET)"이라고 규정되는 다른 방법을 포함하지만, 이들로 한정되는 것은 아니다. 또는, 리소그래피 장치의 안정성을 제어하기 위한 엄격 제어 루프가 낮은 k1에서 패턴의 재현을 개선하기 위하여 사용될 수 있다.
리소그래피 프로세스는 많은 데이터를 생성할 수 있고, 이것은 장치를 모니터링 및/또는 제어하기 위해서 분석될 수 있다. 데이터는, 예를 들어 리소그래피 장치 자체 내의 센서, 또는 리소그래피 장치에 의해 패터닝된 기판에 수행된 측정의 계측 데이터에 의해서 생성될 수 있다. 복잡한 프로세스에 관련된 이렇게 많은 양의 데이터를 처리하는 것은 모델을 사용하는 것을 수반할 수 있다. 모델들은 머신 러닝 모델, 예를 들어 신경망일 수 있다. 모델은 제공된 입력에 기반하여 출력을 추정할 수 있다. 출력을 제공할 수 있기 이전에, 모델은 리소그래피 프로세스에 대해서 학습해야 한다. 이를 수행하기 위해서, 머신 러닝 모델은 훈련될 필요가 있다. 훈련은 훈련 데이터 세트에서 수행될 수 있다. 훈련 데이터 세트는 모델의 입력 및 출력 양자 모두의 알려진 (이력) 값을 포함할 수 있다. 훈련 데이터 세트를 얻는 것은 어려울 수 있는데, 그 이유는 출력의 데이터 값이 일반적으로 이용가능하지 않을 수 있고, 및/또는 출력 데이터가 이용가능한 입력 데이터 세트가 완성되지 않을 수 있기 때문이다(예를 들어 일부 입력 데이터 값이 누락될 수 있다). 본 명세서에서 설명되는 방법 및 장치는 적절한 훈련 데이터를 찾는 어려움을 해결하는 것을 목적으로 한다.
본 발명의 목적은 제 2 파라미터를 임퓨테이션하기 위한 임퓨터 모델을 구성하기 위한 방법 및 장치를 제공하는 것이다.
본 발명의 제 1 양태에 따르면, 제 2 파라미터를 임퓨테이션하기 위한 임퓨터 모델을 구성하는 방법이 제공된다. 상기 방법은 제 1 파라미터의 값을 포함하는 제 1 데이터 세트를 상기 임퓨터 모델에 입력하는 단계를 포함한다. 상기 임퓨터 모델은 제 2 파라미터의 임퓨테이션된 값을 포함하는 제 2 데이터 세트를 획득하도록 평가된다. 제 3 파라미터의 측정된 값을 포함하는 제 3 데이터 세트가 획득되는데, 제 3 파라미터는 제 2 파라미터에 상관된다. 제 2 파라미터의 입력 값에 기반하여 제 3 파라미터의 값을 추론하도록 구성된 예측 모델이 획득된다. 제 2 데이터 세트가 상기 예측 모델에 입력되고, 상기 예측 모델은 제 3 파라미터의 추론된 값을 획득하도록 평가된다. 임퓨터 모델은 제 3 파라미터의 추론된 값 및 측정된 값의 비교에 기반하여 구성된다.
선택적으로, 상기 방법은 수신된 입력 값이 임퓨테이션되거나 알려져 있는지 여부를 추정하는 마스크 벡터를 출력하도록 구성된 분석 모델을 획득하는 단계를 더 포함할 수 있다. 적어도 제 2 데이터 세트는 분석 모델에 입력될 수 있다. 분석 모델은 제 2 데이터 세트가 임퓨테이션된 데이터를 포함하는지 여부의 추정을 가지는 마스크 벡터를 획득하도록 평가될 수 있다. 임퓨터 모델을 분석하는 단계는 분석 모델의 출력에 더 기반할 수 있다.
선택적으로, 적어도 상기 제 2 데이터 세트를 상기 분석 모델 입력하는 단계는, 상기 제 1 데이터 세트 및 상기 제 3 데이터 세트 중 적어도 하나를 입력하는 것을 더 포함할 수 있다.
선택적으로, 제 1 데이터 세트는 복수 개의 파라미터를 포함할 수 있다.
선택적으로, 제 1, 제 2, 및 제 3 파라미터는 리소그래피 패터닝 프로세스에 관련될 수 있다.
선택적으로, 제 1 데이터 세트는 레벨링 데이터, 정렬 데이터, 및/또는 오버레이 데이터 중 적어도 하나를 포함할 수 있다.
선택적으로, 제 2 파라미터는 오버레이 또는 임계 치수 중 하나일 수 있다.
선택적으로, 제 3 파라미터는 수율일 수 있다.
선택적으로, 상기 임퓨터 모델은 계산적 계측(computational metrology) 및 수율 인식 예측(yield aware prediction) 중 적어도 하나에 대하여 상기 제 2 데이터 세트를 추정하도록 구성될 수 있다.
선택적으로, 예측 모델 및 임퓨터 모델은 동시에 훈련될 수 있다.
선택적으로, 모델들 중 적어도 하나는 머신 러닝 모델일 수 있다.
선택적으로, 머신 러닝 모델은 심층 신경망을 포함할 수 있다.
본 발명의 다른 실시형태에 따르면, 리소그래피 장치에 대한 조절을 결정하는 방법이 제공된다. 이러한 방법은 전술된 바와 같은 방법을 사용하여 구성된 임퓨터 모델을 획득하는 단계를 포함한다. 리소그래피 장치에 의한 이전의 리소그래피 노광에 관련된 제 1 데이터 세트가 임퓨터 모델에 입력되고, 임퓨터 모델은 제 2 파라미터의 추정된 값을 포함하는 제 2 데이터 세트를 획득하도록 평가된다. 제 2 데이터 세트가 목표 예측 모델에 입력되고, 목표 예측 모델은 제 3 파라미터의 추론된 값을 포함하는 제 3 데이터 세트를 획득하도록 평가된다. 리소그래피 장치에 대한 조절은 제 3 파라미터의 추론된 값에 기반하여 결정된다.
선택적으로, 상기 방법은, 상기 리소그래피 장치에 대한 결정된 조절을 후속 리소그래피 노광에 대하여 구현하는 단계를 더 포함할 수 있다.
목표 예측 모델은 임퓨터 모델을 구성하는 방법에서 사용된 예측 모델과 동일한 모델일 수 있고, 또는 별개의 모델일 수도 있다.
본 발명의 다른 양태에 따르면, 제 2 파라미터를 추정하기 위한 임퓨터 모델을 구성하기 위한 장치가 제공된다. 이러한 장치는 하나 이상의 프로세서 및 실행될 때 프로세서가 전술된 방법을 수행하게 하는 명령을 포함하는 비-일시적 저장 매체를 포함한다.
본 발명의 다른 양태에 따르면, 전술된 방법을 사용하여 구성된 임퓨터 모델을 포함하는 장치가 제공된다.
본 발명의 다른 양태에 따르면, 전술된 바와 같은 장치를 포함하는 계측 장치가 제공된다.
본 발명의 다른 양태에 따르면, 전술된 바와 같은 장치를 포함하는 리소그래피 셀이 제공된다.
본 발명의 다른 양태에 따르면, 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서, 상기 컴퓨터 판독가능 명령은, 임퓨터 모델(imputer model)에 대한 입력 데이터를 수신하고 - 상기 임퓨터 모델은 머신 러닝 모델이고 임퓨테이션된 데이터를 제공하도록 구성됨 -, 상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하며, 예측된 데이터를 획득하도록 상기 임퓨테이션된 데이터를 예측 모델에 입력하고, 상기 예측된 데이터와 상기 목표 데이터 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키도록 구성된, 컴퓨터 프로그램 제품이 제공된다.
본 발명의 다른 양태에 따르면, 임퓨터 모델에 대한 입력 데이터를 수신하는 단계 - 상기 임퓨터 모델은 머신 러닝 모델이고 임퓨테이션된 데이터를 제공하도록 구성됨 -; 상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하는 단계; 예측된 데이터를 획득하도록 상기 임퓨테이션된 데이터를 예측 모델에 입력하는 단계; 및 상기 예측된 데이터와 상기 목표 데이터 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키는 단계를 포함하는, 방법이 제공된다.
본 발명의 다른 양태에 따르면 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서, 상기 컴퓨터 판독가능 명령은, 임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하고 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -, 상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하며, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하고, 상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하도록 구성된, 컴퓨터 프로그램 제품이 제공된다.
본 발명의 다른 양태에 따르면, 임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하는 단계 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -; 상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하는 단계; 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하는 단계; 및 상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 포함하는, 방법이 제공된다.
본 발명의 실시형태는 첨부된 개략적인 도면을 참조하여 이제 예시하는 방식으로만 설명될 것이다:
- 도 1은 리소그래피 장치의 개략적인 개요를 도시한다;
- 도 2는 리소그래피 셀의 개략적인 개요를 도시한다;
- 도 3은 반도체 제조를 최적화하는 데에 중요한 세 가지 기술들 사이의 협력을 나타내는, 홀리스틱 리소그래피의 개략적인 표현을 도시한다;
- 도 4는 임퓨터 모델을 구성하는 방법의 단계들의 흐름도를 도시한다;
- 도 5는 수율 예측을 위한 임퓨터 모델의 예시적인 애플리케이션의 개략도를 도시한다;
- 도 6은 예측 모델을 포함하는 임퓨터 모델의 훈련 구성의 개략도를 도시한다;
- 도 7은 예측 모델 및 분석 모델을 포함하는 임퓨터 모델의 훈련 구성의 개략도를 도시한다;
- 도 8a는 본 명세서에서 설명되는 수율-인식 훈련 방법을 사용한 예측된 수율 및 측정된 수율 사이의 비교를 보여주는 그래프를 도시한다;
- 도 8b는 수율-인식 훈련이 없이 훈련된 임퓨터 모델을 사용한 예측된 수율 및 측정된 수율 사이의 비교를 보여주는 그래프를 도시한다.
본 명세서에서, "방사선" 및 "빔"이라는 용어는 자외 방사선(예를 들어 365, 248, 193, 157 또는 126 nm의 파장을 가지는 방사선) 및 EUV(예를 들어 약 5-100 nm 범위의 파장을 가지는 극자외 방사선)를 포함하는 모든 타입의 전자기 방사선을 망라하도록 사용된다.
"레티클", "마스크" 또는 "패터닝 디바이스"라는 용어는 본 명세서에서 채용될 때, 인입하는 방사선 빔에 기판의 타겟부 내에 생성될 패턴에 대응하여 패터닝된 단면을 부여하기 위하여 사용될 수 있는 일반적 패터닝 디바이스를 지칭하는 것으로 넓게 해석될 수 있다. "광 밸브"라는 용어도 이러한 콘텍스트에서 사용될 수 있다. 전통적인 마스크(투과성 또는 반사형; 이진, 페이즈-시프트, 하이브리드 등) 외에, 다른 이러한 패터닝 디바이스들의 예에는 프로그램가능 미러 어레이 및 프로그램가능(LCD) 어레이가 포함된다.
도 1은 리소그래피 장치(LA)를 개략적으로 묘사한다. 리소그래피 장치(LA)는 방사선 빔(B)(예를 들어, UV 방사선 또는 DUV 방사선 또는 EUV 방사선)을 조절하도록 구성되는 조명 시스템(조명기(IL)라고도 불림), 패터닝 디바이스(예를 들어, 마스크)(MA)를 지지하도록 구성되고 특정 파라미터에 따라서 패터닝 디바이스(MA)를 정확하게 위치설정하도록 구성되는 제 1 위치설정기(PM)에 연결되는 마스크(예를 들어, 마스크 테이블)(MT), 기판(예를 들어, 레지스트-코팅된 웨이퍼)(W)을 홀딩하도록 구성되고 특정 파라미터에 따라서 기판 지지대를 정확하게 위치설정하도록 구성되는 제 2 위치설정기(PW)에 연결되는 기판 지지대(예를 들어, 웨이퍼 테이블)(WT), 및 패터닝 디바이스(MA)에 의하여 방사선 빔(B)에 부여된 패턴을 기판(W)의 타겟부(C)(예를 들어, 하나 이상의 다이를 포함) 상에 투영하도록 구성되는 투영 시스템(예를 들어, 굴절성 투영 렌즈 시스템)(PS)을 포함한다.
동작 시에, 조명 시스템(IL)은 방사선 빔을 빔 전달 시스템(BD)을 통해 방사선 소스(SO)로부터 수광한다. 조명 시스템(IL)은 방사선을 지향시키고, 성형(shaping)하며, 또는 제어하기 위한 다양한 유형의 광 컴포넌트, 예컨대 굴절식, 반사, 자기적, 전자기, 정전기 및/또는 다른 유형의 광 컴포넌트, 및/또는 이들의 임의의 조합을 포함할 수도 있다. 조명기(IL)는 방사선 빔(B)이 패터닝 디바이스(MA)의 평면 상에 그 단면에서 원하는 공간 및 각도 세기 분포를 가지도록 조정하기 위하여 사용될 수도 있다.
본 명세서에서 사용되는 "투영 시스템(PS)"이라는 용어는, 이용되고 있는 노광 방사선(exposure radiation)에 대해 적합하거나 또는 침지액(immersion liquid)의 사용 또는 진공의 사용과 같은 다른 요인들에 대해 적합한, 굴절식, 반사식, 반사 굴절식(catadioptric), 애너모픽(anamorphic), 자기식, 전자기식, 및/또는 정전식 광학 시스템, 및/또는 이들의 임의의 조합을 포함하는 다양한 타입의 투영 시스템도 포함하는 것으로 넓게 해석되어야 한다. 본 명세서에서 "투영 렌즈"라는 용어의 모든 사용은 더 일반적인 용어인 "투영 시스템(PS)"과 같은 의미인 것으로 간주될 수도 있다.
리소그래피 장치(LA)는, 투영 시스템(PS)과 기판(W) 사이의 공간을 채우기 위해 기판의 적어도 일부분이 상대적으로 높은 굴절률을 가진 액체, 예컨대 물에 의해 커버될 수 있는 유형일 수 있으며 이것은 침지 리소그래피라고도 불린다. 침지 기법에 대한 더 많은 정보가 본 명세서에서 원용에 의해 통합되는 US6952253에 제공된다.
리소그래피 장치(LA)는 두 개 이상의 기판 지지대(WT)를 가지는 타입일 수도 있다("듀얼 스테이지"라고도 불림). 이러한 "다중 스테이지" 머신에서, 기판 지지대(WT)는 병렬적으로 사용될 수 있고, 및/또는 기판(W)의 후속 노광을 준비하는 단계들이 기판 지지대(WT) 중 하나 상에 위치될 수 있는 반면에, 다른 기판 지지대(WT) 상의 다른 기판(W)은 다른 기판(W) 상에 패턴을 노광시키기 위해서 사용되고 있다.
기판 지지대(WT)에 추가하여, 리소그래피 장치(LA)는 측정 스테이지를 포함할 수 있다. 측정 스테이지는 센서 및/또는 세정 디바이스를 홀딩하도록 구성된다. 센서는 투영 시스템(PS)의 속성 또는 방사선 빔(B)의 속성을 측정하도록 구성될 수 있다. 측정 스테이지는 다수의 센서를 홀딩할 수 있다. 세정 디바이스는 리소그래피 장치의 부분, 예를 들어 투영 시스템(PS)의 부분 또는 침지액을 제공하는 시스템의 부분을 세정하도록 구성될 수 있다. 측정 스테이지는, 기판 지지대(WT)가 투영 시스템(PS)으로부터 멀어질 때 투영 시스템(PS) 아래에서 이동할 수 있다.
동작 시에, 방사선 빔(B)은 패터닝 디바이스, 예를 들어 지지 구조체(MT) 상에 홀딩되는 마스크(MA) 상에 입사하고, 그리고 패터닝 디바이스(MA) 상에 있는 패턴(디자인 레이아웃)에 의하여 패터닝된다. 패터닝 디바이스(MA)를 가로지르면, 방사선 빔(B)은 기판(W)의 타겟부(C) 상에 빔을 포커싱하는 투영 시스템(PS)을 통과한다. 제 2 위치설정기(PW) 및 위치 측정 시스템(IF)의 도움을 받아, 예를 들어 방사선 빔(B)의 경로에 있는 상이한 타겟부들(C)을 포커싱되고 정렬된 위치에 위치설정하기 위하여, 기판 지지대(WT)가 정확하게 이동될 수 있다. 이와 유사하게, 제 1 위치설정 디바이스(PM) 및 가능하게는 다른 위치 센서(도 1에는 명확하게 묘사되지 않음)가, 방사선 빔(B)의 경로에 대하여 패터닝 디바이스(MA)를 정확하게 위치설정하기 위하여 사용될 수 있다. 패터닝 디바이스(MA) 및 기판(W)은 마스크 정렬 마크(M1, M2) 및 기판 정렬 마크(P1, P2)를 이용하여 정렬될 수 있다. 비록 도시된 바와 같이 기판 정렬 마크들(P1, P2)이 전용 타겟부들 점유하지만, 이들은 타겟부들 사이의 공간에 위치될 수도 있다. 기판 정렬 마크(P1, P2)는 타겟부들(C) 사이에 위치되면 스크라이브 레인 정렬 마크라고 알려져 있다.
도 2에 도시된 것처럼, 리소그래피 장치(LA)는 리소셀 또는 (리소)클러스터라고도 지칭되는 리소그래피 셀(LC)의 일부를 형성할 수 있고, 이는 또한 기판(W) 상에서 노광 전 그리고 노광 후 프로세스를 수행하기 위한 장치를 포함한다. 통상적으로, 이러한 장치는, 예를 들어 레지스트층 내의 솔벤트를 조절하기 위해서 예를 들어 기판(W)의 온도를 조절하기 위하여, 레지스트층을 증착하기 위한 스핀 코터(spin coater; SC), 노광된 레지스트를 현상하기 위한 현상기(DE), 냉각 플레이트(chill plate; CH), 및 베이크 플레이트(bake plate; BK)를 포함한다. 기판 핸들러 또는 로봇(RO)이 입력/출력 포트(I/O1, I/O2)로부터 기판(W)을 픽업하여, 이들을 상이한 공정 장치 간에 이동시키며, 기판(W)을 리소그래피 장치(LA)의 로딩 베이(loading bay; LB)에 전달한다. 통칭하여 트랙으로도 지칭되는, 리소셀 내의 디바이스는 통상적으로 감독 제어 시스템(supervisory control system; SCS)에 의해 제어될 수 있는 트랙 제어 유닛(TCU)의 제어 하에 있게 되며, 감독 제어 시스템은 또한 리소그래피 제어 유닛(LACU)을 통해 리소그래피 장치(LA)를 제어할 수 있다.
리소그래피 장치(LA)에 의해 노광되는 기판이 정확하고 일정하게 노광되도록 하기 위해서는, 기판을 검사하여 후속 층들 사이의 오버레이 오차, 라인 두께, 임계 치수(CD) 등과 같은, 패터닝된 구조체의 속성을 측정하는 것이 바람직할 수 있다. 이러한 목적을 위해, 검사 툴(미도시)이 리소셀(LC) 내에 포함될 수 있다. 오차가 검출되면, 특히 검사가 동일한 배치 또는 로트의 다른 기판(W)이 여전히 노광되거나 처리되어야 하기 전에 이루어진다면, 예를 들어 후속 기판의 노광에 또는 기판(W) 상에서 수행될 다른 프로세스 단계에 조절이 이루어질 수 있다.
계측 장치라고도 불릴 수 있는 검사 장치가, 기판(W)의 속성, 및 구체적으로 상이한 기판(W)의 속성이 또는 동일 기판(W)의 상이한 층과 연관된 속성이 층에 따라 어떻게 변화하는지를 결정하기 위해 사용된다. 또는, 검사 장치는 기판(W) 상의 결점을 식별하도록 구성될 수 있고, 예를 들어 리소셀(LC)의 일부일 수 있으며, 또는 리소그래피 장치(LA)에 통합될 수 있고, 또는 심지어 독립형 디바이스일 수도 있다. 검사 장치는 잠상(노광 후의 레지스트 층 내의 이미지), 또는 반-잠상(노광후 베이크 단계(PEB) 후의 레지스트 층 내의 이미지), 또는 현상된 레지스트 이미지(레지스트의 노광되거나 비노광된 부분이 제거되었음), 또는 심지어 에칭된 이미지(에칭과 같은 패턴 전사 단계 이후)의 속성을 측정할 수 있다.
통상적으로, 리소그래피 장치(LA) 내에서의 패터닝 프로세스는, 기판(W) 상의 구조체의 높은 치수 및 배치 정확도를 요구하는, 처리 중 가장 중요한 단계들 중 하나이다. 이러한 높은 정확도를 보장하기 위하여, 개략적으로 도 3에서 도시되는 것과 같은 소위 "홀리스틱" 제어 환경에서 세 가지 시스템이 통합될 수 있다. 이러한 시스템 중 하나는 계측 툴(MT)(제 2 시스템) 및 컴퓨터 시스템(CL)(제 3 시스템)에 (가상적으로) 연결되는 리소그래피 장치(LA)이다. 이러한 "홀리스틱" 환경의 중요한 점은, 전체 프로세스 윈도우를 개선하고 리소그래피 장치(LA)에 의해 수행되는 패터닝이 프로세스 윈도우 내에 유지되도록 보장하기 위한 엄격 제어 루프를 제공하기 위하여, 이러한 세 개의 시스템들 사이의 협력을 최적화하는 것이다. 프로세스 윈도우는 그 안에서 특정한 제조 프로세스가 규정된 결과(예를 들어 기능성 반도체 디바이스)를 제공하는 프로세스 파라미터(예를 들어 선량, 초점, 오버레이)의 범위를 규정한다 - 통상적으로 리소그래피 프로세스 또는 패터닝 프로세스의 프로세스 파라미터는 그 안에서 변할 수 있다.
컴퓨터 시스템(CL)은, 사용할 분해능 향상 기법을 예측하기 위하여 패터닝될 디자인 레이아웃(또는 그 일부)을 사용하고, 어떤 마스크 레이아웃 및 리소그래피 장치 설정이 패터닝 프로세스의 최대 전체 프로세스 윈도우를 획득하는지를 결정하기 위하여(도 3에서 제 1 스케일(SC1)에서의 이중 화살표로 도시됨) 계산적 리소그래피 시뮬레이션 및 연산을 수행할 수 있다. 통상적으로, 분해능 향상 기법은 리소그래피 장치(LA)의 패터닝 가능성과 매칭되도록 구현된다. 컴퓨터 시스템(CL)은, 예를 들어 최적에 미달하는 처리에 기인하여 결함이 존재할 수 있는지 여부를 예측하기 위해서, 프로세스 윈도우 내의 어디에서 리소그래피 장치(LA)가 현재 동작하고 있는지를 검출(예를 들어 계측 툴(MT)로부터의 입력을 사용함)하기 위해서도 사용될 수 있다(도 3에서 제 2 스케일(SC2)에서 "0" 을 가리키는 화살표에 의해 표현됨).
계측 툴(MT)은 정확한 시뮬레이션 및 예측을 가능하게 하는 입력을 컴퓨터 시스템(CL)에 제공할 수 있고, 예를 들어 리소그래피 장치(LA)의 교정 상태에 있을 수 있는 드리프트(도 3에서 제 3 스케일(SC3)에서 여러 화살표로 표시됨)를 식별하기 위한 피드백을 리소그래피 장치(LA)에 제공할 수 있다.
계측 툴(MT)은 리소그래피 패터닝 프로세스의 상이한 스테이지들 도중에 기판을 측정할 수 있다. 기판의 계측은 상이한 목적들을 위해서 사용될 수 있다. 기판의 측정은, 예를 들어 리소그래피 프로세스 설정, 오차 검출, 시간이 지남에 따른 장치의 분석, 품질 제어 등을 모니터링 및/또는 업데이트하기 위해서 사용될 수 있다. 일부 측정치는 다른 측정치보다 획득하기가 더 쉽다. 예를 들어, 일부 측정은 기판 상에 존재하는 특정한 목표 구조체를 요구할 수 있다. 일부 측정은 다른 측정과 비교하여 상대적으로 긴 시간이 걸릴 수 있다. 측정이 길어지면 고가의 계측 툴(MT) 안에서 많은 시간이 걸릴 수 있다. 그 때문에 그러한 측정들이 장비 사용 및 시간의 관점에서 고비용이 될 수 있다. 결과적으로, 이러한 측정은 덜 빈번하게 수행될 수 있다. 이것은, 일부 파라미터에 대해서 성긴 측정 데이터만이 이용가능하고, 및/또는 측정이 모든 기판에 수행되지 않을 수 있다는 것을 의미할 수 있다.
일부 파라미터에 대한 측정 데이터의 이용가능성이 제한되면 문제가 될 수 있다. 이러한 측정 데이터는 전술된 목적들 중 일부에 대해서 유용할 수 있다. 일 예로서, 오버레이에 대한 계측 데이터를 획득하는 것은 비용이 많이 `들 수 있다. 그러므로, 오버레이는 일부 또는 모든 패터닝된 기판에 대해서 개략적으로만 이용가능할 수 있다. 오버레이는 리소그래피 프로세스 설정에 대한 품질 표시자로서의 역할을 하고, 및/또는 기판에 대한 수율을 예측하기 위한 유용한 파라미터일 수 있다. 특히, 오버레이는, 예를 들어 레벨링 데이터의 이용가능한 계측 데이터로부터 얻기가 더 쉬울 수 있는 일부 다른 파라미터보다 품질 또는 수율의 더 양호한 표시자일 수 있다.
파라미터, 예컨대 오버레이의 제한된 이용가능성을 해결하기 위하여, 해당 파라미터의 값을 다른 이용가능한 계측 데이터에 기반하여 추정하기 위하여 모델이 사용될 수 있다. 일 예에서, 기판 상의 오버레이는 레벨링 데이터 및/또는 정렬 데이터에 기반하여 추정될 수 있다. 파라미터 값을 추정하기 위한 모델은 데이터에 의해 구동될 수 있다. 데이터 구동 모델(data driven model)은 기판의 파라미터 값 및 다른 속성(예를 들어 수율) 및 리소그래피 패터닝 프로세스의 다른 양태를 추정 및/또는 예측하기 위해서 사용될 수 있다. 모델들은, 예를 들어 리소그래피 장치(LA)의 계산적 계측, 수율 인식 제어, 및/또는 기판 레벨 제어에서 사용될 수 있다. 모델은 측정 데이터를 입력으로서 사용할 수 있다. 측정 데이터는, 예를 들어 오버레이(OVL), 레벨링(LVL), 정렬(AL), 두께, 임계 치수(CD), 선량 맵, 초점 맵, 및/또는 프로세스 콘텍스트 데이터 중 하나 이상을 포함할 수 있다. 측정의 예는 오버레이 및/또는 레벨링의 현상후 검사(ADI), 에칭 후검사(AEI) 및/또는 세척후 검사(ACI) 측정을 포함한다.
전술된 모델들의 문제점은, 이들이 입력 파라미터의 이용가능성에 의존한다는 것일 수 있다. 모델들은 각각의 평가에 대해서 유사한 양 및 타입의 입력을 기대할 수 있다. 그러나, 상이한 타입 및 밀도의 측정들이 상이한 기판에 대해서 이용가능할 수도 있다. 예를 들어, 생산량이 증가함에 따라서, 기판별 측정 용량이 감소될 수 있다. 일부 경우에, 일부 측정은, 쓰루풋의 샘플을 테스트하기 위해서, 패터닝된 모든 기판들의 서브세트에 대해서만 수행될 수도 있다. 결과적으로, 상이한 양 및/또는 타입의 측정 데이터가 상이한 기판에 대해서 이용가능할 수 있다. 파라미터 데이터의 이용가능성에 있어서의 차이를 다루기 위해서 여러 방법들이 알려져 있다. 첫 번째 옵션은 요구된 데이터 값들 모두를 가지지 않는 기판을 무시하는 것이다. 대안적으로 또는 추가적으로, 더 많은 기판에 대한 데이터 세트에 적용가능하기 위하여, 모델은 더 많은 기판 데이터 세트가 해당 모델에 대한 요구된 입력 데이터를 포함하도록 더 작은 양의 입력 데이터를 수신하도록 설계될 수 있다. 그러나, 이것은 일부 기판에 대한 많은 양의 이용가능한 데이터가 사용되지 않은 상태로 남겨진다는 것을 의미할 수 있고, 이것은 정확성이 떨어지는 예측/추정을 초래할 수 있다. 모델들이 일부 기판에 대한 이용가능한 데이터에서의 한계를 다룰 수 있는 두 번째 옵션은, 통계 또는 모델을 사용하여 누락 데이터를, 예를 들어 세트 내의 이용가능한 데이터에 기반하여 추정하는 것이다. 이것은, 예를 들어 계산적 계측에서의 경우일 수 있다. 예를 들어, 레벨링 데이터, 정렬 데이터, 및 개략적 오버레이 데이터 중 하나 이상을 포함하는 다른 이용가능한 데이터에 기반하여 기판에 걸친 조밀한 오버레이를 추정하기 위한 모델이 제공될 수 있다. 통계 및 모델링 이후에, 증가된 밀도의 파라미터 값들을 추정하기 위하여 보간도 역시 사용될 수 있다. 또 다른 예에서, 예를 들어 이전에 노광된 기판으로부터 얻어진 파라미터의 이력 데이터가 현재의 기판에 대한 파라미터의 근사값으로서 사용될 수도 있다.
일 예에서, 리소그래피 패터닝 프로세스의 목표, 예를 들어 수율 손실을 목표 예측 모델, 예를 들어 수율 예측 모델을 사용하여 예측하는 것이 목적일 수 있다. 오버레이(OVL)는 수율 손실 예측이 기초로 삼기 위한 양호한 표시자일 수 있다. 임계 치수(CD)가 기판의 수율에 높은 상관성을 가질 수 있기 때문에, 이것도 역시 사용될 수 있다. 기판에 대한 정밀하고 정확한 예측을 하기 위해서, 수율 예측 모델은 해당 기판에 대한 오버레이 데이터 및 임계 치수 데이터 양자 모두를 요구할 수 있다. 더 정확한 예측을 제공하기 위하여, 기판 상의 적어도 일부 층에 대해서는 조밀한 오버레이 데이터가 요구될 수 있다. 그러나, 오버레이 측정은 기판 상의 요구된 층들 모두에 대해서 이용가능하지 않을 수도 있다. 더욱이, 임계 치수(CD) 데이터는 개략적으로 및/또는 거친 분해능으로만 이용가능할 수도 있다. 상이한 기판에 대해서 상이한 파라미터에 대한 상이한 양의 측정 데이터가 이용가능할 수 있다. 수율 예측 모델이 모든 평가에 대하여 동일한 타입 및 양의 입력 파라미터 데이터(예를 들어, 특정 밀도의 오버레이 및 임계 치수 데이터)를 예측하는 경우, 파라미터 데이터 중 일부만이 이용가능한 기판은 이러한 수율 예측 모델에 의해서 평가될 수 없다. 그러므로, 데이터 값이 모든 기판에 대해서 이용가능하지 않을 수 있는 하나 이상의 파라미터의 값을 추론하기 위한 별개의 모델이 제공될 수 있다. 이러한 별개의 모델은 누락 파라미터의 값을 하나 이상의 다른 파라미터의 공지된 값에 기반하여 추론하도록 구성된 임퓨터 모델일 수 있다. 소정 애플리케이션에 대한 누락 파라미터를 추론하기 위한 임퓨터 모델의 성능을 개선하면, 해당 애플리케이션에 대하여 개선된 결과가 얻어질 수 있다.
모델 출력의 성능은 해당 모델에 제공된 입력의 품질에 의존할 수 있다. 출력의 품질은 모델 자체의 품질에도 의존할 수 있다. 모델의 품질은 모델의 훈련에 의해서 영향받을 수 있다. 다시 말해서, 모델은 훈련 데이터 세트에 기반하여 구성될 수 있다. 모델은 훈련 프로세스를 사용하여, 출력을 입력에 기반하여 예측하도록 학습할 수 있다. 훈련용 세트는 입력의 데이터 값 및 출력의 데이터 값을 포함할 수 있다. 훈련하는 동안에 모델은 출력을 추정할 수 있고, 이것이 출력의 공지된 데이터 값과 비교될 수 있다. 추정된 값과 공지된 출력 값의 비교는 출력의 품질의 표시자라고 여겨질 수 있다. 비교의 결과는 피드백으로서 모델에 제공될 수 있고, 모델은 업데이트될 수 있다. 이러한 프로세스가 모델을 훈련시키기 위하여 반복될 수 있다. 모델의 훈련을 개선시키면 출력을 추정하는 모델의 성능이 개선될 수 있다.
임퓨터 모델을 전술된 훈련 방법을 사용하여 훈련시키는 것의 문제점은, 모델이 목표에 대하여 알 수 없다(agnostic)는 것일 수 있다. 다시 말해서, 임퓨터 모델은 목표를 예측하는 프로세스 내의 단계에서 사용되지만, 이러한 목표는 훈련하는 동안에 고려되지 않는다. 임퓨터 모델의 출력이 목표 예측을 위하여 사용되기 때문에, 출력 및 목표는 상관될 수 있다. 발명자들은 출력 및 목표 사이의 상관이 관련성을 가지고 정보성이 있을 수 있다는 것을 깨달았다. 임퓨터 모델의 훈련 프로세스에서 이러한 상관으로부터 얻어진 이용가능한 정보를 사용하면 훈련 프로세스가 개선될 수 있다. 더욱이, 출력 파라미터(들) 및 목표 파라미터(들) 사이의 상관은 부분적인 것에 그칠 수도 있다. 다시 말해서, 출력 파라미터(들)에 대한 일부 양태는 목표 파라미터(들)에 영향을 미치지 않거나 제한된 영향만을 줄 수 있다. 예를 들어, 기판의 일부 층 또는 영역 내의 오버레이는 기판 상의 다른 층 또는 영역 내의 오버레이보다 덜 중요할 수도 있다. 임퓨터 모델이 그 뒤에 목표를 추정하기 위해서 사용되는 출력을 결정하도록 구성되는 경우, 임퓨터 모델의 용량을 사용하여 목표에 상관되고 및/또는 영향을 주는 출력 파라미터(들)의 그러한 양태를 추정하는 것이 유익할 수 있다.
전술된 바와 같이 임퓨터 모델을 훈련시키고 사용하는 것의 다른 문제점은, 일부 파라미터는 공지된 파라미터 값에 기반하여 추정하기가 어려울 수 있다는 것이다. 예를 들어, 임계 치수(CD)는 기판의 수율에 강하게 상관될 수 있다. 그러나, 이것은 공지된 파라미터 값에 약하게만 의존할 수도 있다. 그러므로, 이용가능한 입력 파라미터에 기반하여 임계 치수(CD)를 추정하도록 임퓨터 모델을 훈련시키는 것이 어려울 수 있다.
본 명세서에서 설명되는 임퓨터 모델은 리소그래피 프로세스의 동작 중에 사용될 수 있다. 출력을 제공하는 것은 시간에 예민할 수 있고, 예를 들어 현재의 리소그래피 패터닝된 기판에 대한 출력을 다음 리소그래피 기판의 패터닝의 시작 이전에 획득하는 것이 바람직할 수 있다. 예를 들어 출력의 결과가 장래의 리소그래피 노광을 개선하기 위하여 사용될 수 있도록, 임퓨터 모델 출력을 가능한 한 빠르게 획득하는 것이 바람직할 수 있다. 그러나, 모델의 훈련 도중에, 이러한 시간-한정된 데이터 요소는 존재하지 않는다. 시간에 예민한 요소를 제거하는 것이 훈련 프로세스 도중에 활용될 수 있다. 이것은, 기판의 모델의 정규적인 사용 도중에 입력으로서 이용될 수 없는 기판의 측정 데이터를 모델의 훈련 중에 사용함으로써 달성될 수 있다. 모델의 출력 및 모델의 입력에 포함되지 않은 파라미터 사이의 상관을 모델을 훈련시키기 위하여 사용하는 방법이 설명된다.
도 4는 임퓨터 모델을 훈련/구성하는 방법의 단계들을 보여주는 흐름도를 도시한다. 임퓨터 모델은 모델의 출력으로서 제공될 파라미터를 임퓨테이션하기 위한 것일 수 있다. 단계 400에서, 제 1 파라미터의 값을 포함하는 제 1 데이터 세트가 임퓨터 모델에 입력된다. 제 1 파라미터는 입력 파라미터라고도 불릴 수 있다. 단계 402에서, 임퓨터 모델은 출력 파라미터의 임퓨테이션된 값을 포함하는 제 2 데이터 세트를 획득하도록 평가된다. 그 결정이 제 1 파라미터에 기반하기 때문에, 출력 파라미터는 제 2 파라미터라고도 불릴 수 있다. 유사하게, 제 2 데이터 세트는 출력 데이터 세트라고 불릴 수 있다. 단계 404에서 제 3 데이터 세트가 획득될 수 있다. 제 3 데이터 세트는 제 3 파라미터의 측정된 값을 포함한다. 제 3 파라미터는 제 2 파라미터에 상관된다. 단계 406에서 예측 모델이 획득된다. 예측 모델은 임퓨터 모델과 다르다. 예측 모델은 제 2 파라미터의 값을 입력으로서 수신하도록 구성될 수 있다. 수신된 입력에 기반하여, 예측 모델은 제 3 파라미터의 추론된 값을 출력으로서 제공할 수 있다. 단계 408에서 제 2 데이터 세트가 예측 모델에 입력되고, 예측 모델은 제 3 파라미터의 추론된 값을 획득하도록 평가된다. 단계 410에서, 임퓨터 모델은 제 3 파라미터의 추론된 값 및 측정된 값의 비교에 기반하여 구성된다.
도 4와 관련하여 설명된 방법의 장점은, 이것이 제 3 파라미터 내에 포함된 정보를 사용하여 임퓨터 모델을 훈련시킬 수 있다는 것이다. 이것은 출력 파라미터 및 제 3 파라미터 사이의 존재하는 상관을 활용해서, 출력 파라미터의 값을 제 3 파라미터의 공지된 값을 사용하여 추정할 수 있다. 출력 파라미터 및 제 3 파라미터 사이의 상관에 기인하여, 임퓨터 모델의 훈련이 개선될 수 있는데, 그 이유는 출력 파라미터에 관련된 더 많은 데이터가 훈련 프로세스에서 사용되기 때문이다.
출력 파라미터를 추정하기 위하여 제 3 파라미터에 포함된 정보에 의존할 수 있는 것의 장점은, 더 적은 이용가능한 데이터 값을 가지는 입력 데이터 세트가 사용될 수 있다는 것이다. 예를 들어, 더 성긴 데이터 값 분포를 가지는 입력 데이터 세트가 훈련을 위해서 사용될 수 있는데, 그 이유는 이들이 제 2 파라미터의 추정을 제공하기 위하여 제 3 데이터 세트와 조합된 충분한 정보를 포함할 수 있기 때문이다. 그러면 더 큰 데이터 세트를 사용하여 임퓨터 모델을 훈련시키는 것이 가능해진다. 대안적으로 또는 추가적으로, 이용가능한 입력 데이터의 밀도에 대한 요구조건의 엄밀함이 적어지기 때문에, 임퓨터 모델을 구성하기 위한 훈련 데이터 세트를 획득하는 것이 더 쉬워질 수 있다.
제 3 파라미터는 임퓨터 모델로의 입력으로서 제공되지 않는 파라미터일 수도 있다. 제 3 파라미터는 임퓨터 모델에 대한 입력으로서 이용될 수 없을 수도 있다. 이것은, 예를 들어 제 3 파라미터가 정상적인 사용 도중에 임퓨터 모델을 평가하는 시점에 용이하게 이용가능하지 않을 수 있기 때문이다. 제 3 파라미터는 출력 파라미터의 목표 파라미터일 수 있다. 다시 말해서, 임퓨터 모델의 정상적인 의도된 사용 도중에, 출력 파라미터의 목적은 제 3 파라미터를 추정하는 것일 수 있다.
임퓨터 모델은 측정 데이터가 이용가능하지 않거나 성긴 측정 데이터만이 이용가능한 파라미터의 값을 임퓨테이션하기 위해서 사용될 수 있다. 입력 파라미터는 많은 데이터 값들이 이용가능한 파라미터일 수 있다. 데이터는 복수 개의 기판에 대하여, 각 기판에 걸쳐 조밀한 분포로 이용가능할 수 있다. 출력 파라미터는 누락 파라미터라고 불릴 수 있는데, 그 이유는 이것이 계측 데이터 내의 파라미터의 제한된 이용가능성을 해결하기 위해서 임퓨테이션될 수 있기 때문이다.
도 4에서 도시되는 바와 같은 방법은,
1) 입력 파라미터(제 1 파라미터)의 값을 포함하는 입력 데이터를 임퓨터 모델에 입력함으로써 임퓨테이션된 데이터(제 2 파라미터의 값을 포함함)를 획득하고, 2) 목표 데이터(제 3 파라미터의 값을 포함함)를 획득하며 - 목표 데이터는, 예를 들어 임퓨테이션된 데이터에 상관된 수율 데이터임 -, 3) 예측된 데이터를 획득하도록, 임퓨테이션된 데이터를 예측 모델에 입력하고, 4) 예측된 데이터를 목표 데이터에 비교한 것에 기반하여 임퓨터 모델을 구성시키도록
구성된 컴퓨터 프로그램에 의해서 구현될 수 있다.
이러한 방법은 이제 기판의 리소그래피 패터닝 프로세스에 관련하여 더 상세하게 설명될 것이다. 그러나, 이러한 방법은 전술된 바와 같은 관련성 및 상관성을 가지는 파라미터 데이터 세트들이 이용가능한 다른 프로세스 및 필드에도 적용될 수 있다. 도 5는 본 명세서에서 설명되는 임퓨터 모델이 사용될 수 있는 예시적인 애플리케이션의 도면을 도시한다. 예시적인 애플리케이션은 리소그래피 장치(LA)를 사용하여 패터닝된 기판의 수율을 예측하는 것을 포함할 수 있다. 하나 이상의 입력 파라미터(502)의 값을 포함하는, 제 1 데이터 세트라고도 불리는 입력 데이터 세트가 임퓨터 모델에 제공될 수 있다(500). 입력 파라미터(502)는 리소그래피 패터닝 프로세스의 제조 프로세스 파라미터일 수 있다. 임퓨터 모델(500)은, 하나 이상의 출력 파라미터(504)의 추정된 값을 포함하는, 제 2 데이터 세트라고도 불리는 출력 데이터 세트를 제공할 수 있다. 출력 데이터 세트(504)는 수율 예측 모델이라고도 불리는 목표 예측 모델(506)에 입력으로서 제공된다. 수율 예측 모델(506)은 하나 이상의 목표 파라미터(508)의 제 3 데이터 세트라고도 불리는 목표 데이터 세트를 예측할 수 있다. 목표 파라미터(들)는, 예를 들어 기판의 수율을 포함할 수 있다. 제 1, 제 2, 및 제 3 데이터 세트는 리소그래피 장치(LA), 계측 툴(MT), 또는 리소그래피 패터닝 프로세스에 관련된 다른 장치 또는 프로세스의 파라미터의 값을 포함할 수 있다. 목표 예측 모델은 임퓨터 모델을 구성하기 위하여 사용되는 예측 모델과 동일한 모델일 수 있다. 목표 예측 모델은 임퓨터 모델을 구성하기 위하여 사용되는 예측 모델과 다른 모델일 수도 있다.
목표 예측 모델은 임퓨터 모델의 하나 이상의 출력 파라미터를 사용하는 것을 선호할 수 있는데, 그 이유는 이들이 목표 파라미터의 양호한 표시이기 때문이다. 특정한 예에서, 입력 파라미터(502)는 레벨링 데이터, 정렬 데이터, 및/또는 성긴 오버레이 데이터를 포함할 수 있다. 출력 파라미터(504)는 조밀한 오버레이 데이터를 포함할 수도 있다. 파라미터(504)는 임계 치수(CD)를 포함할 수 있다. 목표 예측 모델(506)은 수율 예측 모델일 수 있다. 수율 예측 모델의 입력은 임퓨터 모델(500)에 의해서 추정된 조밀한 오버레이(OVL) 및/또는 임계 치수(CD)를 포함할 수 있다. 수율 예측 모델의 입력은, 예를 들어 임계 선량 데이터 값을 더 포함할 수 있다. 수율 예측 모델의 출력은 입력 데이터(502)가 제공되었던 기판 상의 마감된 다이의 추정된 수율을 포함할 수 있다.
일 실시형태에서, 입력 데이터 세트는 하나 이상의 출력 파라미터의 값들의 성긴 분포를 포함할 수 있다. 다른 실시형태에서, 입력 데이터 세트는 출력 파라미터의 값을 포함하지 않을 수도 있다. 양자의 실시형태들에서, 출력 파라미터의 값들은 누락된 것으로 여겨진다. 하나 이상의 출력 파라미터 다음에, 목표 예측 모델의 입력은 다른 데이터 값을 포함할 수 있다. 모델 출력은 애플리케이션에서 사용되기 위한 누락 파라미터의 추정된 값을 제공할 수 있다.
도 6은 본 발명의 일 실시형태에 따르는 훈련 구성의 개략적인 개요를 도시한다. 훈련하는 도중에 입력 데이터(602)의 제 1 데이터 세트가 임퓨터 모델(600)에 제공될 수 있다. 임퓨터 모델은 제 2 파라미터(604)의 제 2 데이터 세트를 포함하는 출력을 추정할 수 있다. 모델을 표준적으로 훈련함에 따라서, 추정된 출력(604)이 제 2 파라미터의 공지된 훈련 값과 비교될 수 있다. 비교의 결과가 임퓨터 모델(600)을 업데이트하기 위하여 임퓨터 모델(600)로 피드백될 수 있다. 제 2 데이터 세트(604)를 포함하는 임퓨터 모델(600)의 출력이 예측 모델(606)의 입력으로서 더 제공될 수 있다. 예측 모델(606)은 입력 데이터 세트(602)를 입력으로서 더 취할 수 있다. 수신된 제 2 데이터 세트(604)에 기반하여, 예측 모델은 제 3 파라미터의 값을 포함하는 제 3 데이터 세트(608)를 추론할 수 있다. 위에서 언급된 바와 같이, 제 3 파라미터 및 제 2 파라미터는 상관된다. 그러면, 추정된 제 3 파라미터가 제 3 파라미터(610)의 공지된 측정 값과 비교될 수 있고, 이것들도 훈련 프로세스 도중에 예측 모델과 함께 제공된다. 비교는 예측 모델(606)에 제공된 추정된 제 2 파라미터의 품질의 척도로서 여겨질 수 있다. 추론된 그리고 측정된 제 3 파라미터 값들 사이의 비교의 결과가 피드백(612)으로서 임퓨터 모델(600)에 제공될 수 있다. 예측 모델로부터의 이러한 피드백이 임퓨터 모델을 업데이트하기 위해서, 공지된 출력에 대한 추정된 출력의 결과와 함께 사용될 수 있다. 이러한 프로세스가 여러 회 반복되어 임퓨터 모델(600)을 구성할 수 있다.
전술된 바와 같이, 훈련될 임퓨터 모델(600)의 출력은 예측 모델(606)에 의해서 테스트될 수 있다. 예측 모델은 임퓨터 모델(600)에 의해 출력된 제 2 파라미터(604) 및 제 3 파라미터 사이의 상관을 사용한다. 예측 모델(606)에 제공된 제 2 데이터 세트(604)의 품질의 평가를 피드백함으로써(612), 제 2 파라미터 및 제 3 파라미터 사이의 상관이 임퓨터 모델(600)의 훈련 프로세스에 도입된다. 그러면 임퓨터 모델(600)이, 제 3 파라미터가 임퓨터 모델 자체 내에 포함되지 않은 상태로, 제 2 및 제 3 파라미터 사이의 상관을 사용하여 훈련될 수 있게 된다.
일부 경우에, 임퓨터 모델(600) 및 예측 모델(608)은 동시에 훈련될 수 있다. 다른 경우에, 예측 모델은 임퓨터 모델(600)의 훈련 프로세스에서 사용되기 이전에 별개로 훈련될 수도 있다. 예측 모델(606)의 별개의 훈련 프로세스는 임퓨터 모델(600)에 영향을 줄 수 있다. 훈련 예측 모델(606) 및 임퓨터 모델(600)을 함께 훈련시키면 이러한 잠재적으로 부정적인 영향을 피하는 장점을 가질 수 있다. 이것은 예측 모델(606)의 훈련이 임퓨터 모델(600)을 최적화하기 위하여 피드백 프로세스에 포함되어 있기 때문이다.
예측 모델의 훈련은 임퓨터 모델을 구성하는 콘텍스트에서 앞서 설명된 바와 같이 컴퓨터 프로그램에 의해서 구현될 수 있다. 이전에 설명된 컴퓨터 프로그램은, 예측된 데이터를 목표 데이터에 비교한 것에 기반하여 예측 모델을 구성하기 위한 추가적인 명령을 포함하도록 확장될 수 있다.
예측 모델 이외에 또는 그 대신에, 분석 모델이 임퓨터 모델의 구성 프로세스의 일부로서 제공될 수 있다. 분석 모델은 입력으로서 복수 개의 데이터 값을 수신할 수 있다. 분석 모델은 데이터 값이 임퓨테이션되거나 공지되는지(예를 들어 측정되는지) 여부의 추정을 가지는 마스크 벡터를 포함하는 출력을 제공할 수 있다. 복수 개의 데이터 값은 하나 이상의 파라미터에 관련된 하나 이상의 데이터 세트의 값일 수 있다. 도 7은 분석 모델(707)이 포함되는 훈련 구성의 개략적인 개관을 보여준다. 많은 셋업이 도 6의 셋업과 유사하다. 입력 데이터(702)의 제 1 데이터 세트가 훈련되기 위한 임퓨터 모델(700)에 제공될 수 있다. 임퓨터 모델(700)은 제 2 파라미터(704)의 추정된 값을 가지는 제 2 데이터 세트를 출력할 수 있다. 이러한 출력(704)은 입력으로서 입력 데이터(702)와 함께 예측 모델(706)에 제공될 수 있다. 전술된 바와 같이, 제 3 데이터 세트(708)는 추론되고 제 3 파라미터의 공지된 값(710)에 비교될 수 있다. 제 2 데이터 세트(704)도 입력으로서 분석 모델(707)에 제공될 수 있다. 분석 모델(707)은 제 1 데이터 세트(702)를 입력으로서 더 수신할 수 있다. 분석 모델(707)은 공지된 제 3 파라미터 값(710)을 입력으로서 더 수신할 수 있다. 분석 모델은 수신된 데이터 세트 내의 값들이 임퓨테이션되거나 공지되는지 여부에 대한 추정이 있는 마스크 벡터를 제공하도록 평가될 수 있다. 이러한 출력이 공지된 훈련 데이터와 비교될 수 있다. 다시 말해서, 제 2 데이터 값이 임퓨테이션되는지 여부를 분석 모델(707)이 정확하게 추정했는지 여부가 평가될 수 있다. 분석 모델(707)이 제 2 데이터 세트 값(704)이 임퓨테이션되는지 여부를 인식할 수 있는지 여부는, 추정된 제 2 데이터 세트의 품질의 표시로서 여겨질 수 있다. 분석 모델의 성능이 열악해질수록, 임퓨터 모델(700)의 성능을 좋아진다. 이것은, 예측 모델(706)의 더 양호한 성능이 임퓨터 모델(700)의 더 양호한 성능을 표시할 수 있는 예측 모델(706)과 반대이다. 예측 모델(706) 및 분석 모델(707)의 출력(708, 709)은 피드백(712)으로서 임퓨터 모델(700)에 제공될 수 있다.
예측 모델(706)의 경우에서와 같이, 일부 실시형태들에서 분석 모델(707)은 임퓨터 모델(700)과 동시에 훈련될 수 있다. 다른 경우에, 분석 모델은 임퓨터 모델(700)의 구성 프로세스에서 사용되기 이전에 구성 프로세스 훈련되었을 수도 있다. 임퓨터 모델(700), 예측 모델(706), 및 분석 모델(707) 모두는 별개로 훈련될 수 있고, 또는 임퓨터(700), 예측(706), 및 분석(707) 모델 중 두 개 이상이 동시에 함께 훈련될 수 있다. 전술된 바와 같이, 훈련 분석 모델(707) 및 예측 모델(706)을 임퓨터 모델(700)과 함께 훈련시키는 것은 그들의 훈련이 임퓨터 모델(700)의 최적화 프로세스에 포함된다는 장점을 가질 수 있다. 그러면 예측(706) 및/또는 분석(707) 모델의 별개의 훈련 프로세스의 잠재적으로 부정적인 영향을 피할 수 있다. 결과적으로, 모델들을 함께 훈련시키면 임퓨터 모델(700)의 성능이 더 양호해질 수 있다.
제 1 데이터 세트(602, 702)는 하나 이상의 파라미터의 데이터 값을 포함할 수 있다. 예를 들어, 제 1 데이터 세트는 레벨링 데이터, 정렬 데이터 및/또는 개략적 오버레이 데이터 중 적어도 하나의 값을 포함할 수 있다. 제 2 데이터 세트(604, 704)는 하나 이상의 파라미터의 데이터 값을 포함할 수 있다. 예를 들어, 제 2 데이터 세트는 조밀한 오버레이 데이터, 및/또는 임계 치수 데이터 중 적어도 하나의 값을 포함할 수 있다. 제 3 데이터 세트(610, 710)는 하나 이상의 파라미터의 데이터 값을 포함할 수 있다. 예를 들어, 제 3 데이터 세트는 수율 데이터 및/또는 초점 데이터 중 적어도 하나의 데이터 값을 포함할 수 있다.
임퓨터 모델(600, 700), 예측 모델(606, 706), 및 분석 모델(707) 중 일부 또는 전부는 머신 러닝 모델일 수 있다. 머신 러닝 모델들 중 하나 이상은 신경망, 예컨대 심층 신경망을 포함할 수 있다. 임퓨터 모델(600, 700) 및 분석 모델(606, 707)은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성될 수 있는데, 임퓨터 모델(600, 700)은 생성 신경망(generative network)으로서의 역할을 하고 분석 모델(606, 707)은 구별 신경망(discriminative network)으로서의 역할을 수행한다. 다시 말해서, 임퓨터 모델(600, 700)은 제 2 데이터 세트를 생성할 수 있고, 분석 모델(707)은 생성된 제 2 데이터 세트를 평가할 수 있다. 평가는 훈련을 위하여 임퓨터 모델(600, 700)에 대한 피드백으로서 제공될 수 있다. 예측 모델(606, 706)은 파라메트릭 모델일 수 있다. 분석 모델(707)은 파라메트릭 모델일 수 있다.
일 실시형태에서, 이전에 설명된 바와 같은 임퓨터 모델을 구성하기 위한 컴퓨터 프로그램은:
1) 임퓨테이션된 데이터 세트 내의 엔트리의 상태(임퓨테이션됨 또는 임퓨테이션되지 않음이고, 임퓨테이션되지 않았다는 것은 엔트리가 원본 입력 데이터 세트 내에 포함된다는 것을 의미함)에 관련된 제 1 정보(예를 들어 제 1 목록)를 획득하고, 2) 임퓨테이션된 데이터를 분석기 모델에 입력하여, 분석기 모델의 출력에 따라서 임퓨테이션된 데이터 세트 내의 엔트리의 상태에 관련된 제 2 정보(예를 들어 제 2 목록으로서 구현됨)를 획득하며, 3) 제 1 및 제 2 정보를 비교함으로써 임퓨터 모델을 구성
하도록 구성된 추가적인 명령을 포함하도록 확장된다.
임퓨터 모델이 순전히 자신의 분석기 모델과의 상호작용에만 기반하여 구성된다면(예를 들어, 예측 모델이 이용가능하지 않음), 임퓨터 모델을 구성하는 방법은: 1) 임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하고, 2) 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 정보(제 1 목록)를 획득하며, 3) 분석기 모델에 따라서 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 정보(제 2 목록)를 ??득하도록 임퓨테이션된 데이터를 분석기 모델에 입력하고, 4) 임퓨터 모델을 제 1 정보를 제 2 정보에 비교한 것에 기반하여 구성하도록
구성된 명령을 포함하는 컴퓨터 프로그램에 의해서 구현될 수 있다.
전술된 바와 같이, 훈련되면, 임퓨터 모델은 리소그래피 패터닝 프로세스의 분석 및 제어에 관련된 애플리케이션에서 사용될 수 있다. 임퓨터 모델에 의하여 출력되는 데이터 세트는 계산적 계측에서 사용될 수 있다. 예를 들어, 임퓨터 모델은 오버레이 데이터 세트를 출력할 수 있는데, 이것은 계산적 계측을 사용하여 기판 수율을 예측하기 위해서 사용될 수 있다. 예를 들어, 실시형태들은 수율-인식 예측(yield-aware prediction)에서 사용될 수 있다. 패터닝된 기판의 수율의 추정 또는 예측에 추가하여, 리소그래피 패터닝 프로세스의 하나 이상의 설정은 후속 노광을 위하여 조절될 수 있다.
오버레이 및/또는 임계 치수를 부분적으로 입력 파라미터 및 모델 입력의 일부가 아닌 수율 데이터에 기반하여 추정하기 위한 임퓨터 모델의 구성은 임퓨터 모델의 목표-인식 훈련, 또는 수율-인식 훈련이라고 불릴 수 있다. 임퓨터 모델의 수율-인식 훈련은, 임퓨터 모델이 사용되는 수율 예측 애플리케이션이 전체적으로 더 양호한 성능을 내게 할 수 있다. 도 8a 및 8b는 기판의 시간이 지남에 따른 측정된 수율 및 예측된 수율의 비교가 있는 그래프를 도시한다. 구체적으로 설명하면, 그래프들은 시간이 지남에 따른 수율 손실을 보여준다. 측정된 수율(하단 곡선)은 도 8a 및 8b의 양자 모두의 그래프에서 동일하다. 도 8a에는 추정된 수율이 표시되는데, 여기에서 수율은 수율-인식 임퓨터 모델이 있는 방법을 사용하여 추정되었다. 도 8b에는 수율-인식 임퓨터 모델을 사용하지 않는 방법을 통해서 얻어진, 추정된 수율이 표시된다. 두 그래프로부터, 목표-인식 임퓨터 모델을 사용하는 수율 예측의 방법이 더 양호한 예측 결과를 가져온다는 것이 분명해진다.
다른 실시형태들은 아래의 번호가 매겨진 절들의 목록에서 개시된다:
1. 제 2 파라미터를 임퓨테이션하기 위한 임퓨터 모델을 구성하는 방법으로서,
제 1 파라미터의 값을 포함하는 제 1 데이터 세트를 상기 임퓨터 모델에 입력하고, 제 2 파라미터의 임퓨테이션된 값을 포함하는 제 2 데이터 세트를 획득하도록 상기 임퓨터 모델을 평가하는 단계;
제 3 파라미터의 측정된 값을 포함하는 제 3 데이터 세트를 획득하는 단계 - 상기 제 3 파라미터는 상기 제 2 파라미터에 상관됨 -;
상기 제 2 파라미터의 입력 값에 기반하여 상기 제 3 파라미터의 값을 추론하도록 구성된 예측 모델을 획득하는 단계;
상기 제 2 데이터 세트를 상기 예측 모델에 입력하고, 상기 제 3 파라미터의 추론된 값을 획득하도록 상기 예측 모델을 평가하는 단계; 및
상기 제 3 파라미터의 추론된 값 및 측정된 값의 비교에 기반하여 상기 임퓨터 모델을 구성하는 단계를 포함하는, 임퓨터 모델 구성 방법.
2. 제 1 절에 있어서,
상기 방법은,
수신된 입력 값이 임퓨테이션되거나 알려져 있는지 여부를 추정하는 마스크 벡터를 출력하도록 구성된 분석 모델을 획득하는 단계; 및
적어도 상기 제 2 데이터 세트를 상기 분석 모델에 입력하고, 상기 제 2 데이터 세트가 임퓨테이션된 데이터를 포함하는지 여부의 추정을 가지는 마스크 벡터를 획득하도록 상기 분석 모델을 분석하는 단계를 더 포함하고,
상기 임퓨터 모델을 구성하는 단계는 상기 분석 모델의 출력에 더 기반하는, 임퓨터 모델 구성 방법.
3. 제 2 절에 있어서,
적어도 상기 제 2 데이터 세트를 상기 분석 모델 입력하는 것은, 상기 제 1 데이터 세트 및 상기 제 3 데이터 세트 중 적어도 하나를 입력하는 것을 더 포함하는, 임퓨터 모델 구성 방법.
4. 제 1 절 내지 제 3 절 중 어느 한 절에 있어서,
상기 제 1 데이터 세트는 복수 개의 파라미터를 포함하는, 임퓨터 모델 구성 방법.
5. 제 1 절 내지 제 4 절 중 어느 한 절에 있어서,
상기 제 1, 제 2, 및 제 3 파라미터는 리소그래피 패터닝 프로세스에 관련된, 임퓨터 모델 구성 방법.
6. 제 5 절에 있어서,
상기 제 1 데이터 세트는 레벨링 데이터, 정렬 데이터, 및/또는 오버레이 데이터 중 적어도 하나를 포함하는, 임퓨터 모델 구성 방법.
7. 제 5 절 또는 제 6 절에 있어서,
상기 제 2 파라미터는 오버레이 또는 임계 치수 중 하나인, 임퓨터 모델 구성 방법.
8. 제 5 절 내지 제 7 절 중 어느 한 절에 있어서,
상기 제 3 파라미터는 수율인, 임퓨터 모델 구성 방법.
9. 제 5 절 내지 제 8 절 중 어느 한 절에 있어서,
상기 임퓨터 모델은 계산적 계측(computational metrology) 및 수율 인식 예측(yield aware prediction) 중 적어도 하나에 대하여 상기 제 2 데이터 세트를 추정하도록 구성된, 임퓨터 모델 구성 방법.
10. 제 1 절 내지 제 9 절 중 어느 한 절에 있어서,
상기 예측 모델 및 상기 임퓨터 모델은 동시에 훈련되는, 임퓨터 모델 구성 방법.
11. 제 1 절 내지 제 10 절 중 어느 한 절에 있어서,
상기 모델들 중 적어도 하나는 머신 러닝 모델인, 임퓨터 모델 구성 방법.
12. 제 11 절에 있어서,
상기 머신 러닝 모델은 심층 신경망을 포함하는, 임퓨터 모델 구성 방법.
13. 리소그래피 장치에 대한 조절을 결정하는 방법으로서,
제 1 절 내지 제 12 절 중 어느 한 절에 따른 방법을 사용하여 구성된 임퓨터 모델을 획득하는 단계;
리소그래피 장치에 의한 이전의 리소그래피 노광에 관련된 제 1 데이터 세트를 상기 임퓨터 모델에 입력하고, 제 2 파라미터의 추정된 값을 포함하는 제 2 데이터 세트를 획득하도록 상기 임퓨터 모델을 평가하는 단계;
상기 제 2 데이터 세트를 목표 예측 모델에 입력하고, 제 3 파라미터의 추론된 값을 포함하는 제 3 데이터 세트를 획득하도록 상기 목표 예측 모델을 평가하는 단계; 및
상기 리소그래피 장치에 대한 조절을 상기 제 3 파라미터의 추론된 값에 기반하여 결정하는 단계를 포함하는, 조절 결정 방법.
14. 제 13 절에 있어서,
상기 방법은,
상기 리소그래피 장치에 대한 결정된 조절을 후속 리소그래피 노광에 대하여 구현하는 단계를 더 포함하는, 조절 결정 방법.
15. 제 2 파라미터를 추정하기 위한 임퓨터 모델을 구성하기 위한 장치로서,
하나 이상의 프로세서; 및
실행될 때, 프로세서가 제 1 절 내지 제 14 절 중 어느 한 절에 따른 방법을 수행하게 하는 명령을 포함하는 비-일시적 저장 매체를 포함하는, 임퓨터 모델 구성 장치.
16. 제 1 절 내지 제 14 절 중 어느 한 절에 따른 방법을 사용하여 구성된 임퓨터 모델을 포함하는 장치.
17. 제 15 절 또는 제 16 절에 따른 장치를 포함하는 계측 장치.
18. 제 15 절 또는 제 16 절에 따른 장치를 포함하는 리소그래피 셀.
19. 제 2 절에 있어서,
상기 분석 모델 및 상기 임퓨터 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성되고, 상기 임퓨터 모델은 생성 신경망(generative network)으로서 구성되며, 상기 분석 모델은 구별 신경망(discriminative network)으로서 구성되는, 임퓨터 모델 구성 장치.
20. 제 2 절에 있어서,
상기 예측 모델 및 상기 분석 모델은 파라메트릭 모델인, 임퓨터 모델 구성 장치.
21. 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서,
상기 컴퓨터 판독가능 명령은,
임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하고,
상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하며,
예측된 데이터를 획득하도록 임퓨테이션된 데이터를 예측 모델에 입력하고,
상기 예측된 데이터를 상기 목표 데이터에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하도록
구성된, 컴퓨터 프로그램 제품.
22. 제 21 절에 있어서,
상기 컴퓨터 프로그램 제품은 상기 비교한 것에 기반하여 상기 예측 모델을 구성하기 위한 명령을 더 포함하는, 컴퓨터 프로그램 제품.
23. 제 21 절 또는 제 22 절에 있어서,
상기 컴퓨터 프로그램 제품은,
상기 임퓨테이션된 데이터 내의 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 1 목록을 획득하고,
임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 구별하고 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하며,
상기 제 1 목록을 상기 제 2 목록과 비교한 것에 기반하여 상기 임퓨터 모델을 구성하도록
구성된 명령을 더 포함하는, 컴퓨터 프로그램 제품.
24. 제 23 절에 있어서,
상기 컴퓨터 프로그램 제품은,
상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 분석기 모델을 구성하기 위한 명령을 더 포함하는, 컴퓨터 프로그램 제품.
25. 제 24 절에 있어서,
상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 컴퓨터 프로그램 제품.
26. 제 23 절 내지 제 25 절 중 어느 한 절에 있어서,
상기 분석 모델에 임퓨테이션된 데이터를 입력하는 것은, 상기 입력 데이터 세트 및 상기 목표 데이터 중 적어도 하나를 입력하는 것을 더 포함하는, 컴퓨터 프로그램 제품.
27. 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서,
상기 컴퓨터 판독가능 명령은,
임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하고 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -,
상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하며,
상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하고,
상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하기 위한 것인, 컴퓨터 프로그램 제품.
28. 제 27 절에 있어서,
상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 컴퓨터 프로그램 제품.
29. 제 21 절 내지 제 28 절 중 어느 한 절에 있어서,
상기 입력 데이터는 복수 개의 파라미터를 포함하는, 컴퓨터 프로그램 제품.
30. 제 21 절 내지 제 29 절 중 어느 한 절에 있어서,
상기 입력 데이터, 임퓨테이션된 데이터, 및 목표 데이터는 리소그래피 패터닝 프로세스에 관련된, 컴퓨터 프로그램 제품.
31. 제 30 절에 있어서,
상기 입력 데이터는 레벨링 데이터, 정렬 데이터, 및/또는 오버레이 데이터 중 적어도 하나를 포함하는, 컴퓨터 프로그램 제품.
32. 제 31 절에 있어서,
상기 임퓨테이션된 데이터는, 오버레이, 임계 치수, 에지 배치 오차 중 하나 이상을 포함하는, 컴퓨터 프로그램 제품.
33. 제 32 절에 있어서,
상기 목표 데이터는 수율 데이터를 포함하는, 컴퓨터 프로그램 제품.
34. 제 21 절 내지 제 33 절 중 어느 한 절에 있어서,
상기 임퓨터 모델은 가상/하이브리드/계산적 계측(virtual/hybrid/computational metrology) 및 수율 인식 예측(yield aware prediction) 중 적어도 하나에 대하여 상기 임퓨테이션된 데이터를 추정하도록 구성된, 컴퓨터 프로그램 제품.
35. 임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하는 단계;
상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하는 단계;
예측된 데이터를 획득하도록 임퓨테이션된 데이터를 예측 모델에 입력하는 단계; 및
상기 예측된 데이터를 상기 목표 데이터에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 포함하는, 방법.
36. 제 35 절에 있어서,
상기 방법은,
상기 비교에 기반하여 상기 예측 모델을 구성하는 단계를 더 포함하는, 방법.
37. 제 35 절 또는 제 36 절에 있어서,
상기 방법은,
상기 임퓨테이션된 데이터 내의 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 1 목록을 획득하는 단계;
임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 구별하고 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하는 단계;
상기 제 1 목록을 상기 제 2 목록과 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 더 포함하는, 방법.
38. 제 37 절에 있어서,
상기 방법은,
상기 제 1 목록을 상기 제 2 목록과 비교한 것에 기반하여 상기 분석기 모델을 구성하는 단계를 더 포함하는, 방법.
39. 제 38 절에 있어서,
상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 방법.
40. 임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하는 단계 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -;
상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하는 단계;
상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하는 단계; 및
상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 포함하는, 방법.
41. 제 40 절에 있어서,
상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 방법.
42. 제 37 절 내지 제 39 절 중 어느 한 절에 있어서,
상기 분석 모델에 임퓨테이션된 데이터를 입력하는 단계는, 상기 입력 데이터 및 상기 목표 데이터 중 적어도 하나를 입력하는 것을 더 포함하는, 방법.
43. 제 34 절 내지 제 42 절 중 어느 한 절에 있어서,
상기 입력 데이터는 복수 개의 파라미터를 포함하는, 방법.
44. 제 34 절 내지 제 43 절 중 어느 한 절에 있어서,
상기 입력 데이터, 임퓨테이션된 데이터, 및 목표 데이터는 리소그래피 패터닝 프로세스에 관련된, 방법.
45. 제 44 절에 있어서,
상기 입력 데이터는 레벨링 데이터, 정렬 데이터, 및/또는 오버레이 데이터 중 적어도 하나를 포함하는, 방법.
46. 제 45 절에 있어서,
상기 임퓨테이션된 데이터는, 오버레이, 임계 치수, 에지 배치 오차 중 하나 이상을 포함하는, 방법.
47. 제 46 절에 있어서,
상기 목표 데이터는 수율 데이터를 포함하는, 방법.
48. 제 34 절 내지 제 47 절 중 어느 한 절에 있어서,
상기 임퓨터 모델은 가상/하이브리드/계산적 계측(virtual/hybrid/computational metrology) 및 수율 인식 예측(yield aware prediction) 중 적어도 하나에 대하여 상기 임퓨테이션된 데이터를 추정하도록 구성된, 방법.
49. 임퓨터 모델을 구성하는 방법으로서,
제 1 파라미터에 대한 임퓨테이션된 값을 상기 임퓨터 모델을 사용하여 획득하는 단계;
상기 제 1 파라미터에 상관된 제 2 파라미터의 측정된 값을 획득하는 단계;
상기 제 1 파라미터의 값으로부터 상기 제 2 파라미터의 값을 예측하도록 구성된 예측 모델을 획득하는 단계;
예측된 값을 획득하도록 상기 예측 모델에 임퓨테이션된 값을 입력하는 단계; 및
예측된 값의 측정된 값에 대한 비교에 기반하여 상기 임퓨터 모델을 구성하는 단계를 포함하는, 임퓨터 모델 구성 방법.
50. 제 49 절에 있어서,
상기 방법은,
상기 비교에 기반하여 상기 예측 모델을 구성하는 단계를 더 포함하는, 임퓨터 모델 구성 방법.
51. 제 50 절에 있어서,
상기 예측 모델을 구성하는 단계 및 상기 임퓨터 모델을 구성하는 단계는 동시에 수행되는, 임퓨터 모델 구성 방법.
52. 제 49 절 내지 제 51 절 중 어느 한 절에 있어서,
상기 방법은,
입력된 값이 임퓨테이션되는지 여부를 추정하도록 구성된 분석 모델을 획득하는 단계; 및
임퓨테이션된 값이 임퓨테이션되는지 여부의 추정을 획득하도록, 상기 분석 모델에 상기 임퓨테이션된 값을 입력하는 단계를 더 포함하고,
상기 임퓨터 모델을 구성하는 단계는, 입력된 값이 임퓨테이션되는지 여부의 추정에 더 기반하는, 임퓨터 모델 구성 방법.
53. 제 52 절에 있어서,
상기 임퓨터 모델 및 상기 분석 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 임퓨터 모델 구성 방법.
54. 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서,
상기 컴퓨터 판독가능 명령은,
임퓨터 모델(imputer model)에 대한 입력 데이터를 수신하고 - 상기 임퓨터 모델은 머신 러닝 모델이고 임퓨테이션된 데이터를 제공하도록 구성됨 -,
상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하며,
예측된 데이터를 획득하도록 상기 임퓨테이션된 데이터를 예측 모델에 입력하고,
상기 예측된 데이터와 상기 목표 데이터 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키도록
구성된, 컴퓨터 프로그램 제품.
55. 제 54 절에 있어서,
상기 컴퓨터 프로그램 제품은 상기 비교에 기반하여 상기 예측 모델을 구성하기 위한 명령을 더 포함하는, 컴퓨터 프로그램 제품.
56. 제 55 절에 있어서,
상기 예측 모델을 구성하기 위한 명령은 상기 비교에 기반한 상기 예측 모델의 훈련을 제공하는, 컴퓨터 프로그램 제품.
57. 제 54 절에 있어서,
상기 컴퓨터 프로그램 제품은,
상기 임퓨테이션된 데이터 내의 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 1 목록을 획득하고,
임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 구별하고 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하며,
상기 제 1 목록과 상기 제 2 목록 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키기 위한
명령을 더 포함하는, 컴퓨터 프로그램 제품.
58. 제 57 절에 있어서,
상기 컴퓨터 프로그램 제품은,
상기 제 1 목록과 상기 제 2 목록 사이의 비교에 기반하여 상기 분석기 모델을 구성하기 위한 명령을 더 포함하는, 컴퓨터 프로그램 제품.
59. 제 57 절 또는 제 58 절에 있어서,
상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 컴퓨터 프로그램 제품.
60. 제 57 절에 있어서,
상기 분석 모델에 임퓨테이션된 데이터를 입력하도록 구성된 명령은, 상기 입력 데이터 세트 및 상기 목표 데이터 중 적어도 하나를 입력하도록 구성된 명령을 더 포함하는, 컴퓨터 프로그램 제품.
61. 임퓨터 모델에 대한 입력 데이터를 수신하는 단계 - 상기 임퓨터 모델은 머신 러닝 모델이고 임퓨테이션된 데이터를 제공하도록 구성됨 -;
상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하는 단계;
예측된 데이터를 획득하도록 상기 임퓨테이션된 데이터를 예측 모델에 입력하는 단계; 및
상기 예측된 데이터와 상기 목표 데이터 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키는 단계를 포함하는, 방법.
62. 제 61 절에 있어서,
상기 방법은,
상기 비교에 기반하여 상기 예측 모델을 구성하는 단계를 더 포함하는, 방법.
63. 제 61 절 또는 제 62 절에 있어서,
상기 방법은,
상기 임퓨테이션된 데이터 내의 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 1 목록을 획득하는 단계;
임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 구별하고 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하는 단계; 및
상기 제 1 목록을 상기 제 2 목록과 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 더 포함하는, 방법.
64. 제 63 절에 있어서,
상기 방법은,
상기 제 1 목록을 상기 제 2 목록과 비교한 것에 기반하여 상기 분석기 모델을 구성하는 단계를 더 포함하는, 방법.
65. 제 61 절에 있어서,
상기 입력 데이터, 임퓨테이션된 데이터, 및 목표 데이터는 리소그래피 패터닝 프로세스에 관련된, 방법.
66. 제 65 절에 있어서,
상기 입력 데이터는 레벨링 데이터, 정렬 데이터, 및/또는 오버레이 데이터 중 적어도 하나를 포함하는, 방법.
67. 제 66 절에 있어서,
상기 임퓨테이션된 데이터는, 오버레이, 임계 치수, 에지 배치 오차 중 하나 이상을 포함하는, 방법.
68. 제 67 절에 있어서,
상기 목표 데이터는 수율 데이터를 포함하는, 방법.
69. 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서,
상기 컴퓨터 판독가능 명령은,
임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하고 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -,
상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하며,
상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하고,
상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하도록
구성된, 컴퓨터 프로그램 제품.
70. 제 69 절에 있어서,
상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 컴퓨터 프로그램 제품.
71. 임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하는 단계 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -;
상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하는 단계;
상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하는 단계;
상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 포함하는, 방법.
72. 제 71 절에 있어서,
상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 방법.
73. 제 71 절에 있어서,
상기 분석 모델에 임퓨테이션된 데이터를 입력하는 단계는, 상기 입력 데이터 및 상기 목표 데이터 중 적어도 하나를 입력하는 단계를 더 포함하는, 방법.
본 명세서에서 설명되는 방법은 프로세서에 의하여 액세스가능한 메모리 내에 저장된 명령을 수행하는 하나 이상의 프로세서를 사용하여 실행될 수 있다. 프로세서는 홀리스틱 리소그래피 시스템의 일부를 형성하는 컴퓨터 시스템(CL)의 일부를 형성할 수 있다. 대안적으로 또는 추가적으로, 이러한 방법은 리소그래피 시스템과 별개인 컴퓨터 시스템에서 수행될 수도 있다.
본 명세서에서 IC를 제조하는 분야에 리소그래피 장치를 이용하는 것에 대해 특히 언급될 수 있지만, 본원에서 기술된 리소그래피 장치는 다른 응용예를 가질 수 있음이 이해돼야 한다. 가능한 다른 적용예는 집적 광학 시스템, 자기 도메인 메모리(magnetic domain memory) 용 가이드 및 검출 패턴(guidance and detection pattern), 평판 디스플레이, LCD(Liquid Crystal Display), 박막 자기 헤드 등의 제조를 포함한다.
비록 본 명세서에서 리소그래피 장치의 맥락에서 본 발명의 실시형태가 특정하게 참조되었지만, 본 발명의 실시형태는 다른 장치에서도 사용될 수 있다. 본 발명의 실시형태는 마스크 검사 장치, 계측 장치, 또는 웨이퍼(또는 다른 기판) 또는 마스크(또는 다른 패터닝 디바이스)와 같은 대상물을 측정하거나 처리하는 임의의 장치의 일부가 될 수 있다. 이러한 장치는 일반적으로 리소그래피 툴이라고 지칭될 수 있다. 이러한 리소그래피 툴은 진공 조건 또는 주변(비-진공) 조건을 사용할 수 있다.
비록 특정한 참조가 위에서 광 리소그래피의 콘텍스트에서의 본 발명의 실시형태의 사용에 대하여 이루어졌지만, 콘텍스트가 허용하는 경우 본 발명은 광학 리소그래피로 한정되지 않고, 다른 애플리케이션, 예를 들어 임프린트(imprint) 리소그래피에서 사용될 수도 있다는 것이 인정될 것이다.
비록 본 발명의 특정한 실시형태가 위에서 설명되었지만, 본 발명은 설명된 것과 다르게 실시될 수 있다는 것이 이해될 것이다. 위의 설명은 한정적인 것이 아니라 예시적인 의도로 제공된다. 따라서, 다음 진술되는 청구항의 범위로부터 벗어나지 않으면서, 설명된 바와 같은 본 발명에 변경이 이루어질 수 있다는 것이 당업자에게는 명백할 것이다.

Claims (20)

  1. 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 판독가능 명령은,
    임퓨터 모델(imputer model)에 대한 입력 데이터를 수신하고 - 상기 임퓨터 모델은 머신 러닝 모델이고 임퓨테이션된 데이터를 제공하도록 구성됨 -,
    상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하며,
    예측된 데이터를 획득하도록 상기 임퓨테이션된 데이터를 예측 모델에 입력하고,
    상기 예측된 데이터와 상기 목표 데이터 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키도록
    구성된, 컴퓨터 프로그램 제품.
  2. 제 1 항에 있어서,
    상기 컴퓨터 프로그램 제품은 상기 비교에 기반하여 상기 예측 모델을 구성하기 위한 명령을 더 포함하는, 컴퓨터 프로그램 제품.
  3. 제 2 항에 있어서,
    상기 예측 모델을 구성하기 위한 명령은 상기 비교에 기반한 상기 예측 모델의 훈련을 제공하는, 컴퓨터 프로그램 제품.
  4. 제 1 항에 있어서,
    상기 컴퓨터 프로그램 제품은,
    상기 임퓨테이션된 데이터 내의 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 1 목록을 획득하고,
    임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 구별하고 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하며,
    상기 제 1 목록과 상기 제 2 목록 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키기 위한
    명령을 더 포함하는, 컴퓨터 프로그램 제품.
  5. 제 4 항에 있어서,
    상기 컴퓨터 프로그램 제품은,
    상기 제 1 목록과 상기 제 2 목록 사이의 비교에 기반하여 상기 분석기 모델을 구성하기 위한 명령을 더 포함하는, 컴퓨터 프로그램 제품.
  6. 제 4 항 또는 제 5 항에 있어서,
    상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 컴퓨터 프로그램 제품.
  7. 제 4 항에 있어서,
    상기 분석 모델에 임퓨테이션된 데이터를 입력하도록 구성된 명령은, 상기 입력 데이터 및 상기 목표 데이터 중 적어도 하나를 입력하도록 구성된 명령을 더 포함하는, 컴퓨터 프로그램 제품.
  8. 임퓨터 모델에 대한 입력 데이터를 수신하는 단계 - 상기 임퓨터 모델은 머신 러닝 모델이고 임퓨테이션된 데이터를 제공하도록 구성됨 -;
    상기 임퓨테이션된 데이터에 상관된 목표 데이터를 수신하는 단계;
    예측된 데이터를 획득하도록 상기 임퓨테이션된 데이터를 예측 모델에 입력하는 단계; 및
    상기 예측된 데이터와 상기 목표 데이터 사이의 비교에 기반하여 상기 임퓨터 모델을 훈련시키는 단계를 포함하는, 방법.
  9. 제 8 항에 있어서,
    상기 방법은,
    상기 비교에 기반하여 상기 예측 모델을 구성하는 단계를 더 포함하는, 방법.
  10. 제 8 항 또는 제 9 항에 있어서,
    상기 방법은,
    상기 임퓨테이션된 데이터 내의 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 1 목록을 획득하는 단계;
    임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 구별하고 임퓨테이션된 엔트리 및 임퓨테이션되지 않은 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하는 단계;
    상기 제 1 목록을 상기 제 2 목록과 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 더 포함하는, 방법.
  11. 제 10 항에 있어서,
    상기 방법은,
    상기 제 1 목록을 상기 제 2 목록과 비교한 것에 기반하여 상기 분석기 모델을 구성하는 단계를 더 포함하는, 방법.
  12. 제 8 항에 있어서,
    상기 입력 데이터, 임퓨테이션된 데이터, 및 목표 데이터는 리소그래피 패터닝 프로세스에 관련된, 방법.
  13. 제 12 항에 있어서,
    상기 입력 데이터는 레벨링 데이터, 정렬 데이터, 및/또는 오버레이 데이터 중 적어도 하나를 포함하는, 방법.
  14. 제 13 항에 있어서,
    상기 임퓨테이션된 데이터는, 오버레이, 임계 치수, 에지 배치 오차 중 하나 이상을 포함하는, 방법.
  15. 제 14 항에 있어서,
    상기 목표 데이터는 수율 데이터를 포함하는, 방법.
  16. 컴퓨터 판독가능 명령을 포함하는 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 판독가능 명령은,
    임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하고 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -,
    상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하며,
    상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하고,
    상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하도록
    구성된, 컴퓨터 프로그램 제품.
  17. 제 16 항에 있어서,
    상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 컴퓨터 프로그램 제품.
  18. 임퓨테이션된 데이터를 획득하도록 임퓨터 모델에 대한 입력 데이터를 수신하는 단계 - 상기 임퓨테이션된 데이터는 적어도 상기 입력 데이터의 서브세트를 포함함 -;
    상기 임퓨테이션된 데이터 내의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 1 목록을 획득하는 단계;
    상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 구별하고, 상기 임퓨테이션된 데이터의 임퓨테이션된 데이터 엔트리 및 임퓨테이션되지 않은 데이터 엔트리를 식별하는 제 2 목록을 출력하도록 구성된 분석기 모델에 상기 임퓨테이션된 데이터를 입력하는 단계;
    상기 제 1 목록을 상기 제 2 목록에 비교한 것에 기반하여 상기 임퓨터 모델을 구성하는 단계를 포함하는, 방법.
  19. 제 18 항에 있어서,
    상기 임퓨터 모델 및 상기 분석기 모델은 생성적 대립 신경망(Generative Adversarial Network; GAN)으로서 구성된, 방법.
  20. 제 18 항에 있어서,
    상기 분석 모델에 임퓨테이션된 데이터를 입력하는 단계는, 상기 입력 데이터 및 목표 데이터 중 적어도 하나를 입력하는 단계를 더 포함하는, 방법.
KR1020227035617A 2020-04-20 2021-03-22 임퓨터 모델의 구성 기술 KR20220154198A (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
EP20170366 2020-04-20
EP20170366.7 2020-04-20
EP20175361.3A EP3913435A1 (en) 2020-05-19 2020-05-19 Configuration of an imputer model
EP20175361.3 2020-05-19
EP20187387.4 2020-07-23
EP20187387 2020-07-23
PCT/EP2021/057211 WO2021213746A1 (en) 2020-04-20 2021-03-22 Configuration of an imputer model

Publications (1)

Publication Number Publication Date
KR20220154198A true KR20220154198A (ko) 2022-11-21

Family

ID=74947483

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227035617A KR20220154198A (ko) 2020-04-20 2021-03-22 임퓨터 모델의 구성 기술

Country Status (6)

Country Link
US (1) US20230153582A1 (ko)
EP (1) EP4139749A1 (ko)
KR (1) KR20220154198A (ko)
CN (1) CN115427894A (ko)
TW (1) TWI804839B (ko)
WO (1) WO2021213746A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568328B2 (en) * 2021-04-21 2023-01-31 Collibra Nv Systems and methods for predicting correct or missing data and data anomalies

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100470367C (zh) 2002-11-12 2009-03-18 Asml荷兰有限公司 光刻装置和器件制造方法
US8682466B2 (en) * 2007-05-04 2014-03-25 Taiwan Semiconductor Manufacturing Company, Ltd. Automatic virtual metrology for semiconductor wafer result prediction
WO2016086138A1 (en) * 2014-11-25 2016-06-02 Stream Mosaic, Inc. Improved process control techniques for semiconductor manufacturing processes
CN115220311A (zh) * 2017-05-05 2022-10-21 Asml荷兰有限公司 用于预测器件制造工艺的良率的方法
EP3441819A1 (en) * 2017-08-07 2019-02-13 ASML Netherlands B.V. Computational metrology
US20200380362A1 (en) * 2018-02-23 2020-12-03 Asml Netherlands B.V. Methods for training machine learning model for computation lithography
US10713769B2 (en) * 2018-06-05 2020-07-14 Kla-Tencor Corp. Active learning for defect classifier training

Also Published As

Publication number Publication date
US20230153582A1 (en) 2023-05-18
CN115427894A (zh) 2022-12-02
TW202143084A (zh) 2021-11-16
EP4139749A1 (en) 2023-03-01
WO2021213746A1 (en) 2021-10-28
TWI804839B (zh) 2023-06-11

Similar Documents

Publication Publication Date Title
CN110622069B (zh) 用于预测器件制造工艺的良率的方法
KR102649158B1 (ko) 반도체 제조 공정의 수율을 예측하는 방법
KR20220154198A (ko) 임퓨터 모델의 구성 기술
EP3767392A1 (en) Method and apparatus for determining feature contribution to performance
EP3913435A1 (en) Configuration of an imputer model
CN114008535B (zh) 用于确定特征对性能的贡献的方法和设备
US20220050391A1 (en) Methods and apparatus for estimating substrate shape
TWI803186B (zh) 預測半導體製程之度量衡偏移之方法及電腦程式
US11579535B2 (en) Method of determining the contribution of a processing apparatus to a substrate parameter
TWI791321B (zh) 用於組態採樣架構產生模型之方法及電腦程式
EP4194952A1 (en) Method for determing a measurement recipe and associated apparatuses
EP3796088A1 (en) Method and apparatus for lithographic process performance determination

Legal Events

Date Code Title Description
A201 Request for examination