KR20210013600A - 포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 효과를 평가하기 위한 방법 및 장치 - Google Patents

포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 효과를 평가하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20210013600A
KR20210013600A KR1020207036616A KR20207036616A KR20210013600A KR 20210013600 A KR20210013600 A KR 20210013600A KR 1020207036616 A KR1020207036616 A KR 1020207036616A KR 20207036616 A KR20207036616 A KR 20207036616A KR 20210013600 A KR20210013600 A KR 20210013600A
Authority
KR
South Korea
Prior art keywords
image
model
design data
training
defects
Prior art date
Application number
KR1020207036616A
Other languages
English (en)
Other versions
KR102533520B1 (ko
Inventor
알렉산더 프라이타크
크리스토프 우즈만
디르크 자이들
카스튼 슈미트
Original Assignee
칼 짜이스 에스엠티 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칼 짜이스 에스엠티 게엠베하 filed Critical 칼 짜이스 에스엠티 게엠베하
Publication of KR20210013600A publication Critical patent/KR20210013600A/ko
Application granted granted Critical
Publication of KR102533520B1 publication Critical patent/KR102533520B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/705Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F1/00Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
    • G03F1/68Preparation processes not covered by groups G03F1/20 - G03F1/50
    • G03F1/82Auxiliary processes, e.g. cleaning or inspecting
    • G03F1/84Inspecting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06K9/0063
    • G06K9/6202
    • G06K9/6256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Preparing Plates And Mask In Photomechanical Process (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)

Abstract

본 발명은 포토리소그래피 프로세스의 요소(450)의 결함(650, 660)의 적어도 하나의 알려지지 않은 효과(250)를 결정하는 방법 및 장치에 관한 것이다. 방법(1000)은: (a) 이미지(600), 상기 이미지(600)와 관련된 설계 데이터(240) 및 이미지(600)로부터 발생하는 포토리소그래피 프로세스의 요소(450)의 결함(650, 660)의 적어도 하나의 효과(250) 간의 관계에 대한 기계 학습의 모델(200, 300)을 제공하는 단계; (b) 트레이닝 목적으로 사용되는 다수의 이미지(830), 트레이닝 목적으로 사용되는 이미지(830)와 관련된 설계 데이터(240) 및 결함(650, 660)의 대응 효과(250)를 사용하여 기계 학습의 모델(800)을 트레이닝하는 단계; 및 (c) 트레이닝된 기계 학습의 모델(200, 300)을 측정된 이미지(600) 및 측정된 이미지(600)와 관련된 설계 데이터(240)에 적용하여 결함(650, 660)의 적어도 하나의 알려지지 않은 효과(250)를 결정하는 단계를 포함한다.

Description

포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 효과를 평가하기 위한 방법 및 장치
본 출원은 2018년 5월 18일에 출원된 독일 특허 출원 DE 10 2018 207 880.7에 대한 우선권을 주장하며, 그 전체 내용은 여기에 참조로 포함된다.
본 발명은 포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 영향을 평가하기 위한 방법 및 장치에 관한 것이다. 특히, 본 발명은 이미지, 상기 이미지와 관련된 설계 데이터와 이미지로부터 발생한 결함의 효과 사이의 관계를 설정하는, 기계 학습의 모델을 적용함으로써 포토리소그래피 프로세스의 하나 이상의 요소에 대한 결함의 알려지지 않은 효과를 평가하기 위한 방법 및 장치에 관한 것이다.
반도체 산업의 집적 밀도가 증가함에 따라 나노임프린트 리소그래피용 포토리소그래피 마스크 또는 템플릿은 점점 더 작은 구조를 웨이퍼에 이미징해야 한다. 반도체 웨이퍼의 구조 소형화와 이에 따른 포토리소그래피 마스크, 포토마스크 또는 웨이퍼를 노출하는 데 사용되는 단순 마스크의 발전은 포토리소그래피 마스크 검사, 포토마스크 계측 및 마스크 결함 분석에 광범위한 영향을 미친다. 일반적으로, 포토마스크는 마스크 부분의 에어리얼 이미지를 측정하고 후자를 마스크 부분의 기준 에어리얼 이미지와 비교함으로써 분석된다. 전문 분야에서는 이 절차를 다이 대 다이 방법(die-to-die method)이라고 한다. 이 비교에 기초하여 마스크 부분의 결함에 대한 결함 확률 맵, 결함 맵 또는 결함 효과 맵을 확인할 수 있다.
예를 들어 광학 근접 보정(OPC)의 더 빈번한 적용에 의해 증폭되는 포토마스크 구조의 복잡성이 증가하면 포토마스크의 특정 구조가 더 이상 반복되지 않거나 여전히 드물게 반복될 수 있다(소위 단일 다이 마스크). 따라서, 이러한 마스크의 품질 평가(예를 들어, 결함 검사 또는 결함 검토)는 더 이상 가능하지 않거나 더 많은 비용으로만, 즉, 상기 설명된 다이 대 다이 방법을 사용하여 적절한 기준 위치를 더 오래 검색한 후에만 가능하다.
이러한 경우에 (또한 그에 독립적으로) 사용할 수 있는 방법은, 설계 데이터로부터, 예를 들어 레이아웃 데이터로부터 광학 이미징 시뮬레이션(렌더링)을 통해 기준 에어리얼 이미지를 얻는 소위 다이-투-데이터베이스 방법이다. 마스크의 디자인 데이터로부터 기준 이미지를 생성하는 방법은 전술한 문제와는 독립적으로 사용될 수 있다.
시뮬레이션을 통해 마스크의 기준 에어리얼 이미지를 먼저 2개의 방법으로 생성될 수 있었다. 첫째, 아브이니시토(ab-initio) 또는 엄격한 시뮬레이션을 사용하여 기준 에어리얼 이미지를 계산할 수 있다. 그러나 맥스웰의 방정식을 수치적으로 해결하는 아브이니시토 시뮬레이션을 기반으로 결함을 분석하고 그리고/또는 결함을 수정하기 위한 기준 에어리얼 이미지를 생성하는 것은 시간이 많이 걸리므로 현재는 물론 가까운 미래에 제조 환경에서 거의 실용적이지 않다.
둘째로, 시뮬레이션에 의해 설계 데이터로부터 기준 에어리얼 이미지를 생성하려는 목적으로 "키르히호프(kirchhoff) 모델" 또는 "스칼라(scalar) 이미징 모델"로 알려진, 마스크 구조가 2차원이 되는 것 그리고 회절파가 자유롭게 전파하는 것을 가정하는 간략화된 모델이 사용될 수 있다. 키르히호프 모델을 기초로 기준 에어리얼 이미지의 시뮬레이션은 엄격한 시뮬레이션보다 훨씬 빠르되; 모든 마스크 효과를 충분히 정확하게 이미징할 수 없다. 따라서 키르히호프 모델을 사용하여 생성된 기준 에어리얼 이미지의 품질은 많은 경우에 충분하지 않다.
새롭고 추가적인 접근 방식에서, 기계 학습(ML) 모델의 도움을 받아 포토마스크의 품질 평가에 대한 수많은 과제에 접근하려는 시도가 현재 이루어지고 있다. 다음 문서들은 이 절차에 대한 예시적인 방식으로 지정된다: WO 2017/087 653 A1, WO 2017/117 568 A1, WO 2017/120 253 A1, WO 2017/123 555 A1, WO 2017/123 561 A1, WO 2017/117 573 A1, WO 2017/123 555 A1 및 WO 2017/205 537 A1.
위에서 설명한 바와 같이, 포토리소그래피 마스크를 위한 기준 에어리얼 이미지의 생성은 측정과 시뮬레이션을 통한 복잡한 프로세스일 수 있다.
따라서, 본 발명은 포토리소그래피 마스크의 품질을 평가할 때 전술한 단점을 적어도 부분적으로 회피하는 방법 및 장치를 특정하는 목적에 기초한다.
본 발명의 일 측면에 있어서, 이러한 문제는 청구항 1에 따른 방법에 의해 해결된다.
포토리소그래피 프로세스의 요소의 결함의 적어도 하나의 알려지지 않은 효과를 결정하는 방법은: (a) 이미지, 상기 이미지와 관련된 설계 데이터 및 이미지로부터 발생하는 포토리소그래피 프로세스의 요소의 결함의 적어도 하나의 효과 간의 관계에 대한 기계 학습의 모델을 제공하는 단계; (b) 트레이닝 목적으로 사용되는 다수의 이미지, 트레이닝 목적으로 사용되는 이미지와 관련된 설계 데이터 및 결함의 대응 효과를 사용하여 기계 학습의 모델(800)을 트레이닝하는 단계; 및 (c) 트레이닝된 기계 학습의 모델을 측정된 이미지 및 측정된 이미지와 관련된 설계 데이터에 적용하여 결함의 적어도 하나의 알려지지 않은 효과를 결정하는 단계를 포함할 수 있다.
본 발명에 따른 방법은 포토리소그래피 마스크 및/또는 웨이퍼의 품질을 평가할 수 있도록 기준 이미지의 복잡한 제조를 회피한다. 또한, 본 발명에 따른 방법은 기준 이미지를 갖는 비교를 불필요하게 만든다.
예시로서, 기계 학습의 모델 또는 ML 모델의 복잡한 트레이닝 프로세스는 에어리얼 이미지를 생성하는 특정 광학 측정 시스템 및 특정 마스크 타입에 대하여 한번 수행될 수 있다. 예시로서, 트레이닝 프로세스는 이러한 오브젝트에 대하여 최적으로 준비된 중앙 위치에서 수행될 수 있다. 상이한 마스크 타입의 트레이닝된 ML 모델은 제조 환경에서 광학 측정 또는 이미징 시스템 및 설계 데이터와 함께 제공될 수 있다. 측정된 에어리얼 이미지에 트레이닝된 ML 모델을 적용하고 관련된 설계 데이터를 제공함으로써, 직접적으로 또는 최소 피팅 후에 측정된 에어리얼 이미지에 의해 제시되는 마스크의 일부의 결함의 먼저 알려지지 않은 효과를 결정하는 것이 가능하다.
기계 학습의 모델은 경험으로부터 지식을 생성한다. 기계 학습의 모델은 학습 또는 트레이닝 페이즈(phase)에서 트레이닝 또는 학습 데이터의 형태인 모델에 제공되는 예시로서 학습한다. 이를 이용하여, 모델의 내부 변수, 예를 들어 파라메트릭 매핑의 파라미터는 트레이닝 데이터의 관계를 설명할 수 있도록 적절한 값에 의해 채워질 수 있다. 결과적으로, 트레이닝 페이즈의 ML 모델은 원칙적으로 메모화에 의해 트레이닝 데이터를 학습하는 것이 아니라, 트레이닝 데이터의 패턴 및/또는 규칙을 식별한다. 학습된 관계의 품질은 새로운 데이터, 즉, 트레이닝 동안 알려지지 않은 데이터의 일반화가능성을 평가하도록 검증 데이터를 기초로 평가된다. 트레이닝된 ML 모델은 ML 모델에 알려지지 않은 이미지의 결함의 잠재적 효과를 예측하여 관련된 설계 데이터를 제공하도록 포토리소그래피 프로세스의 요소에 적용될 수 있다. 트레이닝 페이즈의 완료 후에, 성공적으로 트레이닝된 ML 모델, 즉, 우수한 일반화 가능성을 갖는 트레이닝 ML 모델은, 관련된 설계 데이터가 제공될 경우 그에 알려지지 않은 데이터, 즉, 알려지지 않은 이미지를 평가할 수 있다.
이미지는: 광학 측정 시스템에 의해 기록되는 이미지, 스캐닝 입자 현미경에 의해 기록되는 이미지 및 스캐닝 프로브 현미경에 의해 기록되는 이미지를 포함하는 그룹으로부터의 적어도 하나의 요소를 포함할 수 있다.
광학적 측정 시스템은 AIMSTM, PROVE® 및/또는 WLCD 툴을 포함할 수 있다. 스캐닝 입자 현미경은 스캐닝 전자 현미경(SEM) 및/또는 스캐닝 이온 현미경을 포함할 수 있다. 스캐닝 프로브 현미경은, 스캐닝 터널링 현미경, 스캐닝력 현미경, 자기력 현미경, 근접장 스캐닝 광학 현미경 및 스캐닝 근접장 초음파 현미경을 포함하는 그룹으로부터 요소를 포함할 수 있다.
본 발명에 따른 방법의 적용은 광학 측정 시스템에 의해 기록되는 이미지에 제한되지 않는다. 그보다, 본 발명에 따른 방법은 상이한 이미징 방식(imaging modality)에 의해 생성되는 이미지에 대하여 사용될 수 있다.
설계 데이터는 레이아웃 데이터 및 CAD(computer-aided design) 데이터를 포함하는 그룹들로부터 적어도 하나의 요소를 포함할 수 있다. 설계 데이터는 픽셀 데이터 및/또는 다각형 또는 다각형 체인의 형태로 이용가능할 수 있다.
기계 학습의 모델은 서브-심볼릭(sub-symbolic) 시스템을 포함할 수 있다.
지식, 즉, 트레이닝 데이터 및 유도된 규칙은 심볼릭 시스템의 경우에 명확하게 제시된다. 그러나 서브 심볼릭 시스템의 경우, 계산 가능한 거동은 학습된 해답 경로에 대한 상세한 도면을 갖지 않고 모델이 교육된다.
기계 학습 모델은, 파라메트릭 매핑, 인공 신경망(ANN), 심층 신경망(DNN), 시간 지연 신경망, 컨볼루션 신경망(CNN), 순환 신경망(RNN), 장단기 기억(LSTM)망 및/또는 생성 모델을 포함하는 그룹으로부터의 적어도 하나의 요소를 포함할 수 있다.
식별 모델은 입력 데이터로부터 출력 데이터를 생성할 수 있고; 생성 모델은 입력 데이터로부터 출력 데이터를 생성할 수 있으며 추가적으로 입력 데이터를 재현한다.
기계 학습 모델은: (a) 이미지 및 이미지와 관련된 설계 데이터의 정보를 소지하고 있는 특징을 결정하기 위한 적어도 하나의 인코더 블록; 및 (b) 결정된 정보를 소지하고 있는 특징으로부터 결함의 적어도 하나의 효과를 생성하기 위한 적어도 하나의 디코더 블록을 포함할 수 있다.
또한, 기계 학습의 모델은: (a) 이미지 및 이미지와 관련된 설계 데이터의 정보를 소지하고 있는 특징을 결정하기 위한 적어도 하나의 인코더 층; 및 (b) 결정된 정보를 소지하고 있는 특징으로부터 결함의 적어도 하나의 효과를 제조하기 위한 적어도 하나의 디코더 층 - 결함의 효과는 기준 이미지와 이미지의 오버레이가 어떻게 생겼는지를 보여줌 - 을 포함할 수 있다.
기계 학습의 모델은 적어도 2개, 바람직하게는 10개 내지 1500개, 더 바람직하게는 15개 내지 1000개 그리고 더 바람직하게는 30개 내지 100개의 층을 포함할 수 있다.
기계 학습의 모델의 층은 다양한 파라미터화된 그리고 파라미터화되지 않은 기능을 실현할 수 있다. 따라서, 인공 신경망은 2개 이상의 콘볼루션 층 및 2개 이상의 디콘볼루션 층을 포함할 수 있다. 여기서, 콘볼루션 필터의 사이즈는 특히 더 작은 수의 콘볼루션 층에 대하여 더 크도록 선택되어서, 프로세싱 동안 충분히 다수의 데이터에 의존할 수 있다. 또한, 인공 신경망은 2개 이상의 풀링 층 및 2개 이상의 디풀링 층을 포함할 수 있다. 또한, 기계 학습의 모델은 복잡한 관계를 실현하기 위한 2개 이상의 비선형 활성화 함수, 예를 들어, 하이퍼볼릭(hyperbolic) 탄젠트, 시그모이드(sigmoid) 및/또는 구간적 선형 함수를 포함할 수 있다. 그에 독립적으로, 기계 학습의 모델은 하나 이상의 적응적 정규화 층, 예를 들어, 배치 정규화를 포함할 수 있다.
본 발명에 따른 방법은: 에어리얼 이미지의 미리 결정된 또는 요구된 정확도에 대한 기계 학습의 모델의 다수의 층을 피팅하는 단계를 더 포함할 수 있다. 특히, 본 발명에 따른 방법은: 이미지의 미리 결정된 정확도에 복수의 인코더 층 및/또는 디코더 층을 피팅하는 단계를 더 포함할 수 있다.
인공 신경망(ANN)은 복수의 층의 연결로 구성되고, 이는 결과적으로 예를 들어 출력으로의 입력의 순차적인 변형을 실현한다. 네트워크의 토폴로지, 즉, 층들의 수, 각 층의 함수의 선택, 각 층의 파라미터 또는 모델 파라미터(필터 커넬의 수 및 사이즈) 및 개별적인 층들 간의 연결은 달성될 오브젝트에 따라 선택된다. 여기서, ANN의 하나의 층의 출력은 후속하는 층뿐만 아니라 입력으로서 제공될 수 있다.
포토리소그래피 프로세스의 요소는: 포토리소그래피 마스크, 나노임프린트 기술에 대한 탬플릿 및 웨이퍼를 포함하는 그룹으로부터의 적어도 하나의 요소를 포함할 수 있다. 포토리소그래피 마스크는 전송 또는 반사 마스크를 포함할 수 있다.
본 발명에 따른 방법은 포토리소그래피 마스크의 결함의 배열을 결정하는 것에 제한되지 않는다. 그보다, 나노임프린트 기술 및 웨이퍼의 필드로부터 탬플릿을 분석하기 위하여 사용될 수도 있다.
결함은, 포토리소그래피 프로세스의 요소의 하나 이상의 패턴 요소의 배치 에러; 포토리소그래피 프로세스의 요소의 하나 이상의 패턴 요소의 임계 치수 에러; 및 포토리소그래피 프로세스의 요소의 재료 결함을 포함하는 그룹으로부터의 적어도 하나의 요소를 포함할 수 있다.
결함의 적어도 하나의 효과를 결정하는 단계는: 이하의 질문들, 결함의 효과는 미리 결정된 스레스홀드 이하인가? 웨이퍼 상에서 결함이 보이는가? 웨이퍼 상에서 보이는 결함이 교정가능한가? 중 하나에 대한 적어도 하나의 대답을 포함할 수 있다.
광학 이미징 시스템에 의해 기록되는 이미지는 에어리얼 이미지를 포함할 수 있고, 그리고/또는 에어리얼 이미지는 에어리얼 이미지 초점 스택을 포함할 수 있다.
동일한 설계 데이터는 초점 스택의 다양한 에어리얼 이미지의 기초가 된다. 포토리소그래피 프로세스의 요소의 결함의 효과의 예측의 정확도는 개별적인 에어리얼 이미지 대신 에어리얼 이미지 초점 스택을 사용하는 ML 모델의 적어도 부분적인 트레이닝에 의해 증가될 수 있다. 이를 위해 요구되는 ML 모델은 예를 들어 입력으로서 에어리얼 이미지 초점 스택 또는 개별적인 에어리얼 이미지로부터의 데이터를 수용하는 공통 모델로서 실현가능하다.
기계 러닝의 모델을 트레이닝하는 단계는: 트레이닝 목적에 사용되는 복수의 에어리얼 이미지 및 입력 데이터로서 트레이닝 목적에 사용되는 에어리얼 이미지와 관련된 복수의 설계 데이터를 제공하고, 기계 학습의 모델의 출력 데이터에 대한 비교 데이터로서 트레이닝 목적으로 사용되는 이미지에 대응하는 결함의 복수의 효과를 제공하는 단계를 포함할 수 있다.
트레이닝 페이즈 동안 그리고 사용 페이즈 동안 각 경우에 ML 모델에 2개의 데이터 소스로부터의 데이터가 제시되고, 상기 데이터 소스가 서로에 대한 연결을 갖는 것이 본 발명의 특성이다.
트레이닝 목적으로 사용되는 에어리얼 이미지는 측정된 에어리얼 이미지 및/또는 시뮬레이션된 에어리얼 이미지를 포함할 수 있다.
본 발명에 따른 방법의 장점은 트레이닝 목적에 요구되는 에어리얼 이미지가 모두 측정될 필요는 없다는 점이다.
본 발명에 따른 방법은 시뮬레이션된 이미지를 생산하려는 목적으로 포토리소그래피 프로세스의 요소의 수정된 설계 데이터 및/또는 설계 데이터를 시뮬레이션하는 단계를 더 포함할 수 있다. 또한, 본 발명에 따른 방법은 시뮬레이션된 에어리얼 이미지를 생산하려는 목적으로 포토리소그래피 마스크의 수정된 설계 데이터 및/또는 설계 데이터를 시뮬레이션하는 단계를 포함할 수 있다.
트레이닝 데이터 기록은 결함을 갖지 않는 이미지 또는 에어리얼 이미지, 즉, 개별적으로 기준 이미지 및 기준 에어리얼 이미지로서 사용될 수 있는 이미지 또는 에어리얼 이미지를 포함해야 한다. 그러나, 추가적으로, 트레이닝 데이터 기록은 포토마스크의 경우에 알려진 관련 마스크 결함의 또는 포토리소그래피 프로세스의 요소의 복수의 알려진 관련된 결함을 갖는 이미지/에어리얼 이미지를 또한 포함해야 한다. 트레이닝 목적에 사용되는 이미지/에어리얼 이미지가 시뮬레이션 툴의 도움으로 부분적으로 또는 전체적으로 생성될 경우, 시뮬레이션된 이미지/에어리얼 이미지가 포토리소그래피 프로세스의 요소의 알려진 관련 결함, 예를 들어, 알려진 관련 마스크 결함을 보이는 방식으로 시뮬레이션된 이미지/에어리얼 이미지를 기초로 하는 설계 데이터가 변경되거나 수정될 수 있다.
시뮬레이션된 이미지/에어리얼 이미지를 생성하는 것은, 맥스웰 방정식을 수치적으로 풀어서 엄격한 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소의 수정된 설계 데이터 및/또는 설계 데이터가 입력 데이터로서 사용됨 - , 키르히호프 모델의 도움으로 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소의 수정된 설계 데이터 및/또는 설계 데이터가 입력 데이터로서 사용됨 - , 입자 빔 기반 이미징 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소의 수정된 설계 데이터 및/또는 설계 데이터가 입력 데이터로서 사용됨 - , 및 스캐닝 프로브 기반 이미징 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소의 수정된 설계 데이터 및/또는 설계 데이터가 입력 데이터로서 사용됨 - 을 포함하는 그룹으로부터의 적어도 하나의 요소를 포함할 수 있다.
기게 학습의 모델을 트레이닝 하는 것은 기계 학습의 모델의 학습가능한 파라미터를 결정하는 것을 포함할 수 있다. 콘볼루션 층의 경우, 기계 학습의 모델의 트레이닝은 필터 마스크의 중량을 결정하는 것을 포함할 수 있다.
콘볼루션 및 디콘볼루션 층의 경우, 학습가능한 파라미터는 통상적으로 개별적인 콘볼루션 층의 필터 마스크의 중량이다. 모델 복잡도를 증가시키기 위하여, 층의 콘볼루션 결과는 통상적으로 추가적으로 선형 방식으로 변형된다. 이를 위하여, 상기 이미 참조된 바와 같이, 별개의 콘볼루션에 의해 확인되는 각 뉴런의 입력은 활성화 함수의 도움으로, 즉, 예를 들어 시그모이드 함수
Figure pct00001
또는 정류 선형 유닛
Figure pct00002
의 적용에 의해 콘볼루션 층에서 입력으로 전환된다. 활성화 함수를 각각 포함하는 복수의 콘볼루션 층의 연쇄는 지각 목표에 대하여 그리고 다양한 데이터 형식들 사이에서 변형하기 위하여(예를 들어, 설계 데이터와 이미지 데이터 사이에서) 복잡한 패턴이 제공된 데이터로부터 학습되는 것을 허용한다.
이러한 적용에서 이용된 ML 모델은, ML 모델이 2개의 입력 데이터 기록, 구체적으로 이미지 및 설게 데이터를 기초로 출력, 포토리소그래피 프로세스의 요소의 적어도 하나의 결함의 적어도 하나의 효과를 예측하는 특성을 갖는다. 제 1 실시예에서, 2개의 입력 데이터 기록은 단일 입력을 형성하도록 연쇄될 수 있다. 이러한 실시에에서, ML 모델의 아키텍쳐는 종래의 예시적인 실시예와는 상이하지 않다.
그러나, 제 2 실시 예에서, ML 모델이 ML 모델 내에서 결합된 두 개의 이미지 및 디자인 데이터 입력에 대해 입력 측에 두 개의 개별 브랜치 또는 입력 브랜치를 갖는 것도 가능하다. 이 제 2 실시 예는 ML 모델의 하나 이상의 공통층에서 공통 처리를 위해 표적화된 방식으로 이들을 준비하기 위해 2개의 입력의 개별 처리를 용이하게 한다. ML 모델의 두 개의 개별 입력 브랜치는 동일한 수의 층을 가질 수 있다. 그러나 현재 ML 모델의 두 입력 브랜치의 층 수를 각 입력 데이터의 세부 사항에 맞추는 것이 선호된다. 2개의 개별 입력 브랜치의 개별 층은 서로 연결될 수 있다.
위에서 설명한 ML 모델의 제 2 실시 예는 다양한 방법으로 학습될 수 있다: 초기 모델 파라미터(I)는 무작위로 선택될 수 있고, (II)는 이미 유사한 목표를 수행한 ML 모델에서 채택될 수 있고 그리고/ 또는 (III) 감독되지 않은 방식으로 사전 학습될 수 있다.
(I)에 관하여: 모델 파라미터의 초기 수치가 무작위로 선택되는 경우, ML 모델의 두 입력 브랜치에 대해 동일한 무작위 분포 또는 상이한 무작위 분포가 선택 될 수 있다.
(II)에 관하여: 트레이닝에서 ML 모델의 두 입력 브랜치와 동일하거나 유사한 아키텍처를 갖는 다른 ML 모델이 이미 사용된 경우, 해당 모델 파라미터를 트레이닝 페이즈를 위한 초기 모델 파라미터로 사용할 수 있다. 결과적으로 트레이닝 프로세스에 대한 모델 파라미터의 초기 수치 값은 ML 모델의 두 개의 개별 입력 브랜치에 대해 별도로 설정할 수 있다. ML 모델의 트레이닝 프로세스는 초기 모델 파라미터의 모듈식 결정을 통해 단순화 할 수 있다.
(III)에 관하여: ML 모델의 두 개의 입력 브랜치가 자동 인코더로 구현되어야하는 경우, 즉 입력 브랜치의 입력 데이터는 예를 들어 입력 브랜치가 엔코더-디코더 아키텍쳐의 형태로 실현될 경우, 입력 데이터의 재생산에서 결정된 모델 파라미터를 ML 모델의 시작 파라미터로 사용할 수 있는 경우와 마찬가지로 그 출력에서 재현될 수 있다. 따라서 트레이닝된 두 입력 브랜치의 모델 파라미터는 트레이닝 단에서 전체 ML 모델을 초기화하는 데 종종 도움이 된다.
기계 학습 모델을 트레이닝 하기 위한 결함의 대응하는 효과를 제공하는 단계는 트레이닝 목적에 사용되는 이미지를 이미지에 대응하는 결함의 적어도 하나의 효과를 생성하기 위한 기준 이미지와 오버레이하는 단계를 더 포함할 수 있다.
기계 학습의 모델을 트레이닝하는 목적으로 결함의 대응하는 효과를 제공하는 단계는, 측정된 이미지의 영역과 동일한 패턴 요소를 갖는 포토리소그래피 프로세스의 요소의 실질적으로 결함이 없는 영역을 이미징하고 그리고/또는 포토리소그래피 프로세스의 요소의 측정된 이미지의 영역에 대하여 설계 데이터를 시뮬레이션함으로써 기준 이미지를 결정하는 단계를 더 포함할 수 있다. 기계 학습의 모델을 트레이닝하는 목적으로 결함의 대응하는 효과를 제공하는 단계는, 측정된 에어리얼 이미지의 영역과 동일한 패턴 요소를 갖는 포토리소그래피 마스크의 실질적으로 결함이 없는 영역을 이미징하고 그리고/또는 포토리소그래피 마스크의 측정된 에어리얼 이미지의 영역에 대하여 설계 데이터를 시뮬레이션함으로써 기준 에어리얼 이미지를 결정하는 단계를 더 포함할 수 있다.
기준 이미지와 이미지를 오버레이 하는 단계는 이미지와 기준 이미지 사이의 차이를 형성하는 단계를 포함할 수 있다. 또한, 기준 에어리얼 이미지와 에어리얼 이미지를 오버레이 하는 단계는 에어리얼 이미지와 기준 에어리얼 이미지 사이의 차이를 형성하는 단계를 포함할 수 있다.
차이를 형성하는 단계는, 임계 치수(CD)의 편차를 결정하는 것, 콘트라스트 편차를 결정하는 것, 및 하나 이상의 패턴 요소의 배치 편차를 결정하는 것을 포함하는 그룹으로부터의 적어도 하나의 요소를 포함할 수 있다.
일반적으로 측정된 이미지는 기준 이미지와 마찬가지로 2차원 픽셀 배열의 형태로 제공된다. 각 픽셀은 일반적으로 특정 비트 심도와 연관되어 후자가 그레이 스케일 값 단계로 표시될 수 있다. 결함의 효과를 나타내는 이미지 차이는 기준 에어리얼 이미지와 에어리얼 이미지의 오버레이에 의해 발생한다.
포토리소그래피 프로세스의 요소, 예를 들어 포토마스크의 결함의 효과는 결함 효과 맵에서 포착될 수 있다. 결함 효과 맵은 위에서 설명한 것처럼 기준 이미지와 관련하여 측정된 이미지의 편차 효과를 설명한다. 예를 들어, 인쇄 가능한 결함의 배열, 즉 마스크상의 웨이퍼 또는 마스크 부분에서 보이는 결함은 하나 이상의 스레스홀드 조건을 미리 결정함으로써 결함 효과 맵으로부터 직접 확인될 수 있다. 또한 결함의 예측 효과 외에도 ML 모델을 트레이닝하여 인쇄 가능한 결함을 수정할 수 있는지 여부를 추가로 예측할 수 있다.
트레이닝하는 단계는: 트레이닝 목적으로 사용된 이미지로부터 트레이닝에서 기계 학습 모델에 의해 결정된 결함의 적어도 하나의 효과를 트레이닝 목적으로 사용된 이미지에 대응하는 결함의 적어도 하나의 효과와 비교하는 단계를 포함할 수 있다.
기계 학습 모델의 훈련은 감독된 학습을 포함할 수 있다. 감독된 학습은 C.M, Bishop의 책 "패턴 인식 및 기계 학습(Springer 2006, ISBN-10: 0-387-31073-8)"에 설명되어 있다.
기계 학습의 모델을 트레이닝하는 단계는: (a) 제 1 수의 시뮬레이션된 이미지, 시뮬레이션된 이미지와 관련된 설계 데이터 및 제 1 페이즈에서 결함의 대응 효과를 사용하여 기계 학습의 모델을 트레이닝하는 단계; 및 (b) 제 2 수의 측정된 이미지, 측정된 이미지와 관련된 설계 데이터 및 제 2 페이즈에서 결함의 대응 효과를 사용하여 기계 학습 모델을 트레이닝하는 단계 - 제 1 페이즈는 제 2 페이즈 전에 수행됨 - 을 포함할 수 있다. 시뮬레이션된 이미지의 제 1 수는 측정된 이미지의 제 2 수보다 클 수 있다. 시뮬레이션된 이미지의 제 1 수는 측정된 이미지의 제 2 수보다 10의 인수만큼 더 클 수 있다.
기계 학습의 모델의 트레이닝하는 단계는 미리 결정된 단계 (a) 및 단계 (b)를 적어도 두 번에 걸쳐서 진행하는 단계를 더 포함할 수 있다.
ML 모델을 트레이닝하는데 필요한 에어리얼 이미지와 같은 수천 개의 이미지와 같이 많은 수의 이미지를 측정하는 것은 복잡할 수 있다. 본 발명에 따른 방법은 제 1 단계에서 시뮬레이션된 이미지 및 관련 설계 데이터에 기초하여 ML 모델을 트레이닝하는 것을 가능하게 한다. 시뮬레이션 툴을 사용하여 시뮬레이션된 이미지를 대량으로 생성할 수 있다. 제 2 단계에서는 시뮬레이션된 이미지를 통해 사전 트레이닝된 ML 모델이 제한된 수의 측정된 이미지를 사용하여 사용을 위해 최종적으로 준비된다.
컴퓨터 프로그램은, 컴퓨터 시스템에 의해 실행될 때, 상기 컴퓨터 시스템으로 하여금, 상기 명시된 방법 단계들을 수행하도록 프롬프팅하는 명령들을 포함할 수 있다.
본 발명의 추가 측면에 있어서, 상기 명시된 문제는 청구항 18에 따른 장치에 의해 해결된다.
포토리소그래피 프로세스의 요소의 결함의 적어도 하나의 알려지지 않은 효과를 결정하기 위한 장치는: (a) 이미지, 상기 이미지와 관련된 설계 데이터 및 이미지로부터 발생하는 결함의 적어도 하나의 효과 간의 관계에 대한 기계 학습의 모델을 제공하는 수단; (b) 트레이닝 목적으로 사용되는 다수의 이미지, 트레이닝 목적으로 사용되는 이미지와 관련된 설계 데이터 및 결함의 대응 효과를 사용하여 기계 학습의 모델을 트레이닝하는 수단; 및 (c) 트레이닝된 기계 학습의 모델을 측정된 이미지 및 측정된 이미지와 관련된 설계 데이터에 적용하여 결함의 알려지지 않은 효과를 결정하는 수단을 포함할 수 있다.
장치는 포토리소그래피 프로세스의 요소를 위한 노광 시스템 및 광 감지기 상에 포토리소그래피 프로세스의 요소의 일부를 이미징하도록 구현되는 확대 렌즈를 포함할 수 있다. 장치는 AIMSTM 툴을 포함할 수 있다.
다음의 상세한 설명은 도면을 참조하여 본 발명의 현재 바람직한 예시적인 실시 예를 설명한다.
도 1은 포토리소그래피 프로세스의 요소의 품질을 평가하기 위해 현재 빈번하게 사용되는 워크플로우를 개략적으로 재현한다.
도 2는 입력 층, 출력 층 및 관련된 입력 데이터 및 출력 데이터를 갖는 기계 학습의 모델의 예시를 개략적으로 도시한다.
도 3은 2개의 별개의 입력 브랜치를 갖는 기계 학습의 모델의 제 2 예시의 섹션을 개략적으로 도시한다.
도 4는 이러한 적용이 기재된 방법이 수행될 수 있는 장치의 단면을 개략적으로 도시한다.
도 5는 포토리소그래피 프로세스의 요소의 일부의 기준 에어리얼 이미지를 개략적으로 도시한다.
도 6은 포토리소그래피 프로세스의 요소의 일부의 에어리얼 이미지를 개략적으로 도시한다.
도 7은 결함 확률 맵(defect probability map)의 일부를 개략적으로 제시한다.
도 8은 기계 학습의 모델의 트레이닝 페이즈의 트레이닝 주기를 개략적으로 설명한다.
도 9는 트레이닝 모델이 이를 위해 사용될 때 포토리소그래피 프로세스의 요소의 품질을 평가하기 위한 워크플로우를 개략적으로 재현하고, 상기 트레이닝된 모델은 측정된 에어리얼 이미지와 관련된 설계 데이터 사이의 관계를 설정하여, 포토리소그래피 프로세스의 요소의 결함 분포의 예측을 가능하게 한다.
도 10은 포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 배열을 결정하기 위한 방법의 흐름도를 마지막으로 도시한다.
본 발명에 따른 방법 및 본 발명에 따른 장치의 현재 바람직한 실시 예는 포토리소그래피 마스크의 결함의 알려지지 않은 효과를 결정하는 것에 기초하여 아래에서 더 상세히 설명된다. 그러나, 본 발명에 따른 방법 및 본 발명에 따른 장치의 적용은 포토마스크에 제한되지 않는다. 오히려, 상기 장치 및 방법은 포토리소그래피 프로세스의 추가 요소, 예를 들어 포토마스크 대신 사용될 수 있는 나노임프린트 리소그래피의 템플릿 또는 몰드에 적용될 수 있다. 또한, 본 발명에 따른 방법 및 본 발명에 따른 장치는 웨이퍼의 처리 동안 웨이퍼의 품질을 평가하는데 사용될 수 있다. 일반적으로 이러한 응용 프로그램에 설명된 방법을 사용하여 설계 데이터가 있고 결함을 이미징할 수 있는 오브젝트의 품질을 평가할 수 있다.
도 1은 포토마스크의 품질을 평가하기 위해 현재 선호되는 워크 플로우를 개략적으로 보여준다. 포토리소그래피 마스크에 대한 결함 효과 맵을 확인하기 위해 현재 자주 사용되는 방법은 제 1 단계에서 검사할 마스크 영역에 대한 기준 에어리얼 이미지의 결정을 제공한다. 마스크가 동일한 배열의 패턴 요소를 포함하는 많은 영역 또는 부분 영역 또는 적어도 복수개의 이러한 영역을 포함하는 경우, 마스크의 결함이 없는 영역을 선택하여 기준 에어리얼 이미지를 기록할 수 있다. 에어리얼 이미지를 측정하고 기준 에어리얼 이미지를 측정하기 위해, 예를 들어 AIMS TM(에어리얼 이미지 계측 시스템) 툴 및/또는 배치 오류를 결정하기 위한 PROVE ® 툴 또는 임계 치수(CD)를 결정하기위한 WLCD가 사용될 수 있다.
반도체 및 마이크로 시스템 기술에서 임계 치수에 대한 "CD"라는 용어는 테스트 구조에서 정의된 크기를 나타내며 측정을 통해 프로세스 단계의 제조 품질에 대한 설명이 이뤄질 수 있다.
동일한 패턴 요소 배열을 가진 영역 또는 일부 영역이 마스크에서 반복되지 않거나 매우 긴 간격으로만 반복되는 경우, 상기 설명한 기준 에어리얼 이미지를 결정하는 방법(소위 다이 대 다이 방법)은 사용될 수 없거나 상당한 비용을 부담해야만, 즉, 적절한 기준 위치에 대한 비교적 긴 검색 이후에 사용될 수 있다. 기준 에어리얼 이미지를 생성하기 위해 이러한 경우(또한 독립적으로) 사용할 수 있는 방법은 설계 데이터, 예를 들어 레이아웃 데이터로부터 (렌더링하는) 광학 이미징 시뮬레이션에 의해 기준 에어리얼 이미지가 얻어지는 소위 다이 대 데이터베이스 방법이다.
마스크의 이상적 기준 에어리얼 이미지는 아브이니시오(ab initio) 또는 엄밀한 시뮬레이션을 이용하여 계산된다. 아브이니시오 시뮬레이션은, 포토마스크의 구조를 갖는 광학적 이미징 시스템의 조명 방사선의, 즉, 포토마스크 상에 입사하는 전자기파의 광학적 상호작용(산란, 회절, 흡수, 반사) 및 맥스웰의 방정식을 기초로 수치적으로 엄밀한 방식으로 광학적 분석 시스템의 감지기의 평면내에 마스크의 업스트림 또는 다운스트림의 전송되고 그리고/또는 반사된 전자기장의 후속 전파를 고려한다. 이것이 의미하는 점은 맥스웰 방정식이 적절한 수치 방법에 의해 각각의 경계 조건에 대해 3차원에서 풀어진다는 점이다. 이것은, 특히 포토마스크의 상이한 재료로 인해 조명 방사선에 3차원으로 보이는 구조나 패턴을 갖는 마스크의 경우에, 특정한 도전이 된다.
마스크 구조가 2차원이며 회절파가 자유롭게 전파중임을 가정하는 간략화된 모델은 "키르히호프의 모델" 또는 "스칼라 이미징 모델"이라고 칭한다. 키르히호프의 모델을 기초로 한 기준 에어리얼 이미지의 시뮬레이션은 훨씬 빨리 시뮬레이트될 수 있지만, 마스크의 모든 결함을 충분히 정확하게 이미징하지 않을 수도 있다.
(시뮬레이션에 의해 또는 결함이 없는 마스크 부분을 측정하여) 기준 에어리얼 이미지를 결정한 후, 포토마스크 또는 일반적으로 포토리소그래피 프로세스 요소의 분석 대상 영역의 에어리얼 이미지가 제 2 단계에서 측정된다. 다시 한 번, 위에서 지정한 대로 이 측정은 예를 들어 앞서 언급한 툴 중 하나를 사용하여 구현할 수 있다.
그 후, 세 번째 단계에서, 각각의 패턴 요소 또는 CD 데이터의 위치는 예를 들어 2개의 이미지, 즉 측정된 에어리얼 이미지와 기준 에어리얼 이미지로부터 추출된다.
그 후, 두 이미지에서 추출된 두 데이터 레코드를 비교하여 검사할 영역 또는 포토마스크의 전체 활성 표면에 대해 제 4 단계에서 결함 효과 맵이 생성된다. 여기서, 두 이미지에서 추출된 두 데이터 레코드의 비교는 차이를 형성하여 구현할 수 있다.
마지막으로, 필요한 경우 결함의 효과, 예를 들어, 인쇄 가능한 결함은 하나 이상의 스레스홀드를 기반으로 결함 효과 맵에서 마스크의 일부 또는 전체 마스크에서 확인할 수 있다(도 1에 미도시).
도 2의 다이어그램(290)은 에어리얼 이미지(230), 에어리얼 이미지(230)와 연관된 설계 데이터(240) 및 에어리얼 이미지(230)로부터 발생한 포토리소그래피 프로세스의 요소의 결함의 하나 이상의 효과(250) 사이의 관계를 설명하는 기계 학습 모델(200) 또는 ML 모델(200)을 개략적으로 도시한다. ML 모델(200)은 인공 신경망(ANN)을 포함할 수 있다. ANN은 심층 신경망을 구성할 수 있다. 기계 학습의 모델(200)을 필요한 예측 정확도에 맞추는 것이 편리하다. 예를 들어, 모델(200)의 피팅은 적절한 수의 층을 선택함으로써 구현될 수 있다. 대안으로서 또는 그에 추가하여, ML 모델(200)의 기능적 설명을 달성할 오브젝트, 구체적으로 결함의 하나 이상의 효과(250)의 예측, 또는 포토리소그래피 마스크의 결함 효과 맵(250)에 맞추는 것이 유리하다.
ML 모델(200)은 입력층(210)을 갖는다. 입력 데이터(230, 240)는 동작 중에 입력층(210)을 통해 트레이닝된 ML 모델(200)에 제공된다. 여기에 설명된 애플리케이션에서, 작동 중 입력 데이터(230, 240)는 첫째로 측정된 이미지 또는 에어리얼 이미지(230)이고, 둘째로, 측정된 이미지 또는 에어리얼 이미지(230)와 연관된 설계 데이터(240)이다. 예시로서, 설계 데이터(240)는 마스크의 레이아웃 데이터 또는 CAD(computer-aided design) 데이터일 수 있고, 예를 들어 픽셀 데이터의 형태로 또는 예를 들어 다각형 또는 다각형 체인으로 존재할 수 있다. 디자인 데이터를 다각형으로 사용할 수 있는 경우 다각형 체인을 픽셀 데이터로 변환해야 한다.
또한, ML 모델(200)은 기계 학습의 트레이닝된 모델(200)이 출력 데이터(250), 특히 결함 효과 맵(250)을 출력에 제공하는 출력층(220)을 갖는다. 도 2에 예시된 예에서, 이것은 포토리소그래피 마스크의 하나 이상의 결함 또는 포토마스크의 일부의 효과(들)(250)의 예측이다.
도 3의 다이어그램(390)은 기계 학습의 모델(300)을 개략적으로 도시하며, 그 아키텍처는 달성될 오브젝트에 구체적으로 피팅된다. 도 3의 예시적인 ML 모델(300)은 6개의 층(310, 320, 330, 340, 350, 360)를 갖는 제 1 입력 브랜치(380)를 가지며, 여기서 제 1 층(310)은 입력 층으로서 구성되며, 이에 의해 에어리얼 이미지(230)는 ML 모델(300)에 제공된다. ML 모델(300)의 제 1 입력 브랜치(380)의 층(310 내지 360)은 에어리얼 이미지(230)를 전처리하여, 제 1 입력 브랜치(380)의 출력이 ML 모델(300)의 주요 부분(370)의 제 1 공통 층(375)에 대하여 입력으로서 제공될 수 있다.
또한, 도 3의 예시적인 방식으로 예시된 ML 모델(300)은 4개의 층(315, 325, 335, 345)를 갖는 제 2 입력 브랜치(385)를 갖는다. 제 1 입력 브랜치(380)와 유사한 방식으로, 제 2 입력 브랜치(385)의 제 1 층(315)은 ML 모델(300)에 디자인 데이터(240)를 제공하는 역할을 하는 입력 층으로 구현된다. ML 모델(300)의 제 2 입력 브랜치(385)의 층(315 내지 345)은 디자인 데이터(240)를 처리하여 제 2 입력 브랜치(385)의 출력은 ML 모델(300)의 주요 부분(370)의 제 1 공통 층(375)에 대해 제 1 입력 브랜치(380)의 입력과 병렬로 입력으로 제공될 수 있다. ML 모델(200)과 마찬가지로, ML 모델(300)은 주요 부분(370)의 출력 층(395)을 통해, 그 출력 데이터(250), 구체적으로 결함 효과 맵(250)을 출력한다.
ML 모델(200, 300)을 예측 목적으로 사용할 수 있으려면, 가능한 한 포괄적인 데이터 기록을 사용하여 트레이닝해야 한다. 도 4는 에어리얼 이미지(230)를 측정하는 데 사용될 수 있는 장치(490)를 통한 단면을 개략적으로 도시한다. 또한, 장치(490)는 모델(200, 300)을 트레이닝하기 위한 트레이닝 데이터 기록의 일부로 사용되는 에어리얼 이미지를 측정하는데 사용될 수 있다.
장치(490)는 연결(410)을 통해 측정 장치(420)에 연결되는 컴퓨터 시스템(400)을 포함한다. 연결(410)은 유선 또는 무선 방식으로 구현될 수 있다. 도 4에 예시된 예에서, 측정 장치(420)는 상호 작용(430)에 의해 포토리소그래피 마스크(450)를 검사한다. 마스크(450)는 투과 또는 반사 마스크일 수 있다. 도 4의 포토마스크(450)는 포토리소그래피 프로세스의 요소(450)의 예이다. 측정 장치(420)는 이미징 측정 장치(420)일 수 있다. 측정 장치(420)는 AIMSTM 또는 AIMSTM EUV, 즉 극자외선 파장 범위용 AIMS일 수 있다. 또한, 측정 장치(420)는 PROVE® 툴 및/또는 WLCD 툴을 포함할 수 있다. 측정 장치(420)는 초점면을 변화시킴으로써 에어리얼 이미지 초점 스택을 생성하는 데 사용될 수 있다. 그 결과, 측정 장치(420)는 마스크(450)의 에어리얼 이미지 초점 스택의 측정을 용이하게 한다.
그러나, 마스크(450)를 분석하고 포토닉 상호 작용에 의해 에어리얼 이미지(230)를 생성하는 광학 측정 장치(420)에 더하여, 측정 장치(420)는 또한 중성 또는 하전된 입자 빔에 의해 마스크(450)와 상호작용(330)할 수 있으며 반사된 그리고/또는 전송된 중성 그리고/또는 전하 입자를 기초로, 샘플, 즉 포토리소그래피 마스크(450)의 이미지를 생성할 수 있다. 측정 장치(420)는 특히 포토리소그래피 프로세스의 요소가 웨이퍼(도 4에 미도시)를 설명하는 경우 주사 전자 현미경을 포함할 수 있다.
그러나, 측정 장치(420)는 또한 마스크(450)의 표면을 탐침하고 결과적으로 마스크(450)의 또는 더욱 구체적으로 포토리소그래피 프로세스의 요소(450)의 표면 윤곽의 이미지를 생성하는 스캐닝 탐침 현미경을 포함할 수 있다(도 4에 미도시). 스캐닝 프로브 현미경은 예를 들어 스캐닝력 현미경을 포함할 수 있다. 또한, 측정 장치(420)는 예를 들어 이미징 측정 장치 및 추가적으로 스캐닝 프로브 현미경을 포함할 수 있다. 마스크(450)의 3차원 이미지는 이미징 측정 장치 및 스캐닝 프로브 현미경의 측정 데이터를 기반으로 생성될 수 있다.
컴퓨터 시스템(400)은 연결(410)을 통해 측정 장치(420)를 제어한다. 또한, 컴퓨터 시스템(400)은 연결(410)을 통해 측정 장치(420)의 측정 데이터를 수신한다. 도 4의 컴퓨터 시스템(400)은 측정 장치(420)의 측정 데이터로부터 에어리얼 이미지(230)를 생성할 수 있다. 또한, 도 4에 예시된 예에서, 컴퓨터 시스템(400)은 ML 모델(200, 300)을 포함한다. 컴퓨터 시스템(400)은 트레이닝된 ML 모델(200, 300)을 실행하도록 설계된다. 또한, 컴퓨터 시스템(400)은 후술하는 ML 모델(200, 300)의 트레이닝을 수행할 수 있도록 구성된다. 그래픽 프로세서(GPU, 그래픽 프로세서 유닛)는 기계 학습 모델(200, 300)을 실행하는 데 특히 적합하다. 따라서 컴퓨터 시스템(400)이 하나 이상의 가능한 그래픽 프로세서 또는 다른 객관적으로 최적화된 컴퓨터 하드웨어, 예를 들어, Google의 텐서 처리 장치(TPU)(도 4에는 미도시)를 포함할 경우 유리하다.
또한, 컴퓨터 시스템(400)은 인터페이스(460)를 포함한다. 컴퓨터 시스템(400)은 인터페이스(460)를 통해 측정 장치(420)에 의해 분석되는 마스크(450)에 속하는 설계 데이터(240) 또는 레이아웃 데이터(240)를 수신할 수 있다. 인터페이스(460)는 인트라넷 또는 인터넷에 대한 무선 또는 유선 통신 인터페이스일 수 있다. 또한, 인터페이스(460)는 데이터 매체 드라이브를 포함할 수 있다.
도 2 및 도 3의 ML 모델(200, 300)의 트레이닝은 이하에서 도 5 내지 도 8을 기초로 예시적인 방식으로 설명된다. 모델(200, 300)은 도 4의 장치(490)의 도움으로 트레이닝될 수 있다. 그러나, ML 모델(200, 300)의 트레이닝을 수행하기 위해 특별히 설계된 컴퓨터 시스템을 제공하는 것도 가능하고, 입력 데이터(230, 240) 및 대응 출력 데이터가 상기 컴퓨터 시스템에 제공된다.
도 5는 포토리소그래피 마스크(450)의 일부에 대한 기준 에어리얼 이미지(500)의 평면도를 개략적으로 도시한다. 예시적인 방식으로 도 5에 도시된 기준 에어리얼 이미지(500)는 4개의 스트립(510, 520, 530, 540)을 갖는 수직 스트립 구조를 나타내고, 이는 포토리소그래피 마스크(450)의 화학 파장을 흡수하는 재료를 갖는다. 도 5의 기준 에어리얼 이미지(500)의 스트립 구조는 실질적으로 결함이 없다. 여기서, 본 출원의 다른 지점에서와 같이, "실질적으로"라는 표현은 측정을 위해 종래 기술에 따른 측정 기구를 사용하는 경우 소정의 설계와 관련하여 감지할 수 있는 변화가 없는 측정을 의미한다.
예를 들어, 도 5의 기준 에어리얼 이미지(500)는 장치(490)의 측정 장치(420)에 의해 측정될 수 있다. 이를 위해, 도 5에 재현된 스트립 구조(510, 520, 530)를 포함하고 마스크(450)가 결함을 갖지 않는 위치로 알려진 마스크(450)상의 위치가 선택된다.
그러나, 마스크(450)가 검사할 마스크(450)의 영역 부근에 결함이 없는 스트립 구조(510, 520, 530, 540)를 갖지 않거나 기준 에어리얼 이미지(500)에서 재현 된 스트립 구조가 포토마스크(450) 상에서 한 번만 존재해야 하는 경우, 기준 에어리얼 이미지(500)는 시뮬레이션 툴의 도움으로 기준 에어리얼 이미지(500)에 대응하는 마스크(450)의 설계 데이터(240)로부터 생성된다. 이미 위에서 설명한 바와 같이, 기준 에어리얼 이미지(500)를 생성하기 위한 시뮬레이션은 기준 에어리얼 이미지(500)에 의해 재현되는 포토마스크(500)의 일부에 대한 맥스웰의 방정식의 수치 솔루션을 통해 설계 데이터(240)의 엄격한 또는 아브이니시오 시뮬레이션을 기반으로 수행될 수 있다. 엄격한 시뮬레이션을 수행하는 것은 고정밀 기준 에어리얼 이미지(500)를 제공하고; 그러나 이것은 종종 시간이 많이 걸리는 프로세스이다.
따라서 기준 에어리얼 이미지(500)에 의해 요구되는 정확도에 따라, 소위 "키르히호프 모델" 또는 "스칼라 이미징 모델"에 기초하여 기준 에어리얼 이미지(500)를 구현하는 것이 대안일 수 있다. 이 시뮬레이션 프로세스는 엄격한 시뮬레이션에 비해 훨씬 적은 비용을 요한다.
도 6은 도 5에서와 같이 마스크(450)의 동일한 부분에 대한 포토마스크(450)의 측정된 에어리얼 이미지(600)를 도시한다. 도 6에 도시된 예에서, 스트립(520)은 누락된 흡수 물질의 결함(650)을 갖는다. 더욱이, 제 3 스트립(530)은 측정된 예시적인 에어리얼 이미지(600)에서 과잉 흡수 재료의 결함(660)을 갖는다. 측정된 에어리얼 이미지(600)는 트레이닝 데이터 기록의 일부일 수 있다. 그러나 측정된 에어리얼 이미지(600)는 결함(650, 660)의 효과(250)를 예측하기 위해 연관된 설계 데이터(240)와 함께 트레이닝된 모델(200, 300)에 입력될 수도 있다. 마지막으로, 시뮬레이션 툴의 도움에 의해 수정된 설계 데이터를 기초로 생성되는 트레이닝 데이터 기록의 시뮬레이션된 에어리얼 이미지는 측정된 에어리얼 이미지(600)와 유사하게 보일 수 있다.
도 7은 결함 효과 맵(700)의 특별한 표현의 부분(710)을 나타낸다. 결함 효과 맵(700)의 부분(710)은 기준 에어리얼 이미지(500)를 측정된 에어리얼 이미지(600)와 비교함으로써 형성된다. 구체적으로, 결함 효과 맵(700)의 부분(710)은 기준 에어리얼 이미지(500)와 측정된 에어리얼 이미지(600)의 차이를 형성함으로써 형성될 수 있다. 앞서 설명한 바와 같이, 차이 이미지는 기준 에어리얼 이미지(500)와 측정된 에어리얼 이미지(600)의 그레이 스케일 값을 기반으로 구현된다. 차이 이미지는 기준 에어리얼 이미지(500) 및 측정된 에어리얼 이미지(600)보다 더 높은 비트 심도를 갖기 때문에, 누락된 흡수체 재료(650) 및 초과 흡수체 재료(660)의 결함(650, 660)은 결함 효과 맵(700)의 부분(710)에서 구별될 수 있다. 전체 마스크(450) 또는 마스크(450)의 모든 관련 영역에 걸쳐 결정되는 결함 효과 맵(700)의 부분(710)에 의해, 포토리소그래피 마스크(450) 또는 일반적으로 포토리소그래피 프로세스의 요소(450)에 대한 결함 효과 맵(700)을 생성할 수 있다. 결함 효과 맵(700)의 부분(710)은 결함(650, 660)의 대응 효과로서 모델(200, 300)에 대한 트레이닝 데이터 기록에 통합될 수 있다.
트레이닝 프로세스에서 ML 모델(200, 300)의 내부 모델 파라미터를 결정하려면 일관되고 대표적인 트레이닝 데이터의 충분한 가용성이 중요하다. 도 8은 모델(800)에 대한 트레이닝 주기의 예를 개략적으로 보여준다. 디자인 및 기능적 특성과 관련하여, 도 8의 모델(800)은 도 2 및 도 3의 모델(200, 300)과 동일하다. 그러나, 모델(200, 300), 모델(800)은 아직 트레이닝되지 않았다. 도 8에 예시된 예에서, 측정된 에어리얼 이미지(600) 및 관련 설계 데이터(240)는 트레이닝 시퀀스의 입력 데이터로서 기계 학습의 모델(800)의 입력층(210)에 제공된다. 출력층(220)에서 모델(800)은 트레이닝에서 이러한 입력 데이터로부터 결함(850 및 860)을 갖는 결함 효과 맵의 부분(810)을 예측한다. 결함 효과 맵의 부분(810)은 도 7의 결함 효과 맵(700)의 부분(710)과 비교된다. 도 8에서, 비교는 양방향 화살표(870)로 표시된다.
선택된 ML 모델(800)에 따라, 트레이닝 페이즈 동안 ML 모델(800)의 모델 파라미터를 결정하는 다양한 방법이 있다. 예를 들어, "확률적 경사 하강" 반복 기술 또는 해당 변형이 심층 신경망의 형태로 이용 가능한 ML 모델(800)에 대해 확립되었다. 이 트레이닝 방법에서, 트레이닝 데이터, 즉, 트레이닝 목적으로 사용되는 에어리얼 이미지(830), 예를 들어 측정된 에어리얼 이미지(600) 및 관련 설계 데이터(240)는 반복적으로 모델(800)에 제시되고, 즉 후자는 현재 모델 파라미터를 사용하여 결함 효과 맵의 부분(810)을 계산하고 계산된 부분(810)을 결함 효과 맵(700)의 측정된 부분(710)과 비교한다. ML 모델(800)의 모델 파라미터는 두 부분(710, 810) 사이의 편차가 있는 경우 수정된다. 일반적으로, 입력 데이터 기록에 대한 트레이닝 페이즈는 부분(810)이 (로컬) 최적에 도달하면 종료되고, 부분(710)과 부분(810) 사이의 편차가 모든 이미지 쌍에 걸쳐서 또는 미리 결정된 시간 간격이 만료되거나 미리 결정된 수의 트레이닝 단계가 실행된 후에 거의 변경되지 않음을 의미한다. 대안으로, ML 모델(800)의 트레이닝 과정은 별도의 검증 데이터 레코드를 사용할 때 검증 정확도가 크게 증가할 때 완료될 수 있으며, 이는 ML 모델(800)의 오버피팅(overfitting)에 대한 표시이다.
모델(800)은 두 단계로 트레이닝할 수 있다. 첫 번째 단계에서, 트레이닝 목적으로 사용되는 시뮬레이션된 에어리얼 이미지 형태의 에어리얼 이미지(830)는 연관된 설계 데이터(240)와 함께 모델(800)의 입력 층(210)에 제공될 수 있다. 두 번째 단계에서, 측정된 에어리얼 이미지(600)가 대응 설계 데이터(240)와 함께 트레이닝 목적으로 사용되는 에어리얼 이미지(830)로서 모델(800)에 후속하여 제시된다.
트레이닝된 ML 모델(200, 300)이 사용되기 전에, 검증 단계의 도움으로 트레이닝된 모델(200, 300)의 예측력이 분석될 수 있다. 트레이닝된 모델(200, 300)을 검증할 때, 트레이닝된 모델(200, 300)에 대한 예측의 정밀도는 독립적인 검증 데이터 레코드를 기반으로 분석된다.
도 9의 다이어그램(900)은 기준 에어리얼 이미지(500)를 측정된 에어리얼 이미지(600)와 비교하는 대신 트레이닝된 모델(200, 300)이 프로세스에 사용되는 경우 포토리소그래피 프로세스의 요소(450)의 품질을 평가하기 위한 워크 플로우를 보여준다. 먼저, 포토리소그래피 마스크(450)의 에어리얼 이미지(600)가 단계(910)에서 측정된다. 그 후, 측정된 에어리얼 이미지(600)에 속하는 설계 데이터(240)가 단계(920)에서 기계 학습(200, 300)의 트레이닝된 모델에 제공된다. 트레이닝된 ML 모델(200, 300)은 측정된 에어리얼 이미지(600) 및 관련 설계 데이터(240)에 기초하여 단계(930)에서 에어리얼 이미지(600)의 결함(650, 660)의 영향(250)을 직접 확인한다. 도 9에 재현된 워크 플로우는 기준 에어리얼 이미지(500)의 결정을 피한다.
마지막으로, 도 10의 흐름도(1000)는 포토리소그래피 프로세스의 요소(450)의 결함(650, 660)의 적어도 하나의 알려지지 않은 효과를 결정하기 위한 방법의 워크 플로우를 제시한다. 방법은 단계(1010)에서 시작된다. 단계(1020)에서, 에어리얼 이미지(600), 에어리얼 이미지(600)와 관련된 설계 데이터(240) 및 에어리얼 이미지(600)로부터 발생하는 포토리소그래피 프로세스의 요소(450)의 결함(650, 660)의 효과 사이의 관계에 대한 기계 학습 모델(200, 300)이 제공된다.
다음 단계(1030)에서, 기계 학습 모델(200, 300)은 트레이닝 목적으로 사용되는 다수의 에어리얼 이미지(830), 트레이닝 목적으로 사용되는 에어리얼 이미지(830)와 연관된 설계 데이터(240) 및 결함(650, 660)의 대응 효과(710)를 사용하여 트레이닝 된다.
그 후, 단계(1040)에서, 트레이닝된 모델(200, 300)을 측정된 에어리얼 이미지(600) 및 측정된 에어리얼 이미지(600)와 관련된 설계 데이터(240)에 적용함으로써 결함(650, 660)의 알려지지 않은 효과가 결정된다. 마지막으로, 방법은 단계(1050)에서 종료한다.

Claims (19)

  1. 포토리소그래피 프로세스의 요소(450)의 결함(650, 660)의 적어도 하나의 알려지지 않은 효과(250)를 결정하는 방법(1000)으로서, 상기 방법(1000)은:
    a. 이미지(600), 상기 이미지(600)와 관련된 설계 데이터(240) 및 이미지(600)로부터 발생하는 포토리소그래피 프로세스의 요소(450)의 결함(650, 660)의 적어도 하나의 효과(250) 간의 관계에 대한 기계 학습의 모델(200, 300)을 제공하는 단계;
    b. 트레이닝 목적으로 사용되는 다수의 이미지(830), 트레이닝 목적으로 사용되는 이미지(830)와 관련된 설계 데이터(240) 및 결함(650, 660)의 대응 효과(250)를 사용하여 기계 학습의 모델(800)을 트레이닝하는 단계; 및
    c. 트레이닝된 기계 학습의 모델(200, 300)을 측정된 이미지(600) 및 측정된 이미지(600)와 관련된 설계 데이터(240)에 적용하여 결함(650, 660)의 적어도 하나의 알려지지 않은 효과(250)를 결정하는 단계를 포함하고,
    이미지(600)는 광학 이미징 시스템(420)에 의해 기록되는 이미지를 포함하고, 그리고
    광학 이미징 시스템(420)에 의해 기록된 이미지(600)는 에어리얼(aerial) 이미지(600)를 포함하고 그리고/또는 에어리얼 이미지(600)는 에어리얼 이미지 초점 스택을 포함하는, 방법(1000).
  2. 청구항 1에 있어서, 이미지(600)는 스캐닝 입자 현미경에 의해 기록되는 이미지 및 스캐닝 프로브 현미경에 의해 기록되는 이미지를 포함하는 그룹으로부터의 적어도 하나의 요소를 더 포함하는, 방법(1000).
  3. 청구항 1 또는 청구항 2에 있어서, 기계 학습 모델(200, 300)은, 파라메트릭 매핑, 인공 신경망, 심층 신경망, 시간 지연 신경망, 컨볼루션 신경망, 순환 신경망, 장단기 기억망 및/또는 생성 모델을 포함하는 그룹으로부터의 적어도 하나의 요소를 포함하는, 방법(1000).
  4. 청구항 3에 있어서, 기계 학습의 모델(200, 300)은:
    a. 이미지(600) 및 상기 이미지(600)와 연관된 설계 데이터(240)의 정보를 소지하고 있는 특징을 결정하기 위한 적어도 하나의 인코더 블록; 및
    b. 결정된 정보를 소지하고 있는 특징으로부터 결함(650, 660)의 적어도 하나의 효과(250)를 생성하기 위한 적어도 하나의 디코더 블록 - 결함(650, 660)의 적어도 하나의 효과(250)는 기준 이미지(500)와 이미지(600)의 오버레이가 어떻게 생겼는지를 보여줌 - 을 포함하는, 방법(1000).
  5. 청구항 1 내지 청구항 4 중 어느 한 항에 있어서, 결함(650, 660)은, 포토리소그래피 프로세스의 요소의 하나 이상의 패턴 요소의 배치 에러(placement error); 포토리소그래피 프로세스의 요소의 하나 이상의 패턴 요소의 임계 치수 에러; 및 2개 이상의 포토리소그래피 마스크(450)의 오버레이 에러를 포함하는 그룹으로부터의 적어도 하나의 요소를 포함하는, 방법(1000).
  6. 청구항 1 내지 청구항 5 중 어느 한 항에 있어서, 기계 학습의 모델(800)을 트레이닝하는 단계는: 트레이닝 목적에 사용되는 복수의 이미지(600) 및 입력 데이터로서 트레이닝 목적에 사용되는 이미지(600)와 관련된 복수의 설계 데이터(240)를 제공하는 단계와, 기계 학습의 모델(800)의 출력 데이터에 대한 비교 데이터로서 트레이닝 목적으로 사용되는 이미지에 대응하는 결함(650, 660)의 복수의 효과(250)를 제공하는 단계를 포함하는, 방법(1000).
  7. 청구항 1 내지 청구항 6 중 어느 한 항에 있어서, 트레이닝 목적을 위하여 사용되는 이미지(600)는 측정된 이미지(600) 및/또는 시뮬레이션된 이미지를 포함하는, 방법(1000).
  8. 청구항 7에 있어서, 시뮬레이션된 이미지를 생성할 목적으로 포토리소그래피 프로세스를 위한 요소(450)의 수정된 설계 데이터 및/또는 설계 데이터(240)를 시뮬레이션하는 단계를 더 포함하는, 방법(1000).
  9. 청구항 8에 있어서, 시뮬레이션된 이미지를 생성하는 것은, 맥스웰 방정식(Maxwell's equations)을 수치적으로 풀어서 엄격한 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소(450)의 수정된 설계 데이터 및/또는 설계 데이터(240)가 입력 데이터로서 사용됨 - , 키르히호프(kirchhoff) 모델에 의해 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소(450)의 수정된 설계 데이터 및/또는 설계 데이터(240)가 입력 데이터로서 사용됨 - , 입자 빔 기반 이미징 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소(450)의 수정된 설계 데이터 및/또는 설계 데이터(240)가 입력 데이터로서 사용됨 - , 및 스캐닝 프로브 기반 이미징 시뮬레이션을 수행하는 것 - 포토리소그래피 프로세스의 요소(450)의 수정된 설계 데이터 및/또는 설계 데이터(240)가 입력 데이터로서 사용됨 - 을 포함하는 그룹으로부터의 적어도 하나의 요소를 포함하는, 방법(1000).
  10. 청구항 1 내지 청구항 9 중 어느 한 항에 있어서, 기계 학습의 모델(800)을 트레이닝하는 목적으로 결함(650, 660)의 대응하는 효과(250)를 제공하는 단계는, 이미지(600)에 대응하는 결함(650, 660)의 적어도 하나의 효과(250)를 생성하기 위한 기준 이미지(500)와 트레이닝 목적으로 사용되는 이미지(600)를 오버레이하는 단계를 더 포함하는, 방법(1000).
  11. 청구항 1 내지 청구항 10 중 어느 한 항에 있어서, 기계 학습의 모델(800)을 트레이닝하는 목적으로 결함(650, 660)의 대응하는 효과(250)를 제공하는 단계는, 측정된 이미지(600)의 영역과 동일한 패턴 요소(510, 520, 530, 540)를 갖는 포토리소그래피 프로세스의 요소(450)의 실질적으로 결함이 없는 영역을 이미징하는 것 그리고/또는 포토리소그래피 프로세스의 요소(450)의 측정된 이미지(600)의 영역에 대하여 설계 데이터(240)를 시뮬레이션 하는 것에 의해 기준 이미지(500)를 결정하는 단계를 더 포함하는, 방법(1000).
  12. 청구항 10 또는 청구항 11에 있어서, 기준 이미지(500)와 이미지(600)를 오버레이하는 단계는 이미지(600)와 기준 이미지(500) 사이의 차이를 형성하는 단계를 포함하는, 방법(1000).
  13. 청구항 12에 있어서, 차이를 형성하는 단계는, 임계 치수의 편차를 결정하는 것, 콘트라스트 편차를 결정하는 것, 및 하나 이상의 패턴 요소(510, 520, 530, 540)의 배치 편차(placement deviation)를 결정하는 것을 포함하는 그룹으로부터의 적어도 하나의 요소를 포함하는, 방법(1000).
  14. 청구항 1 내지 청구항 13 중 어느 한 항에 있어서, 기계 학습의 모델(800)을 트레이닝하는 단계는:
    a. 제 1 수의 시뮬레이션된 이미지(500), 시뮬레이션된 이미지(500)와 관련된 설계 데이터(240) 및 제 1 페이즈(phase)에서 결함(650, 660)의 대응 효과(250)를 사용하여 기계 학습의 모델(800)을 트레이닝하는 단계; 및
    b. 제 2 수의 측정된 이미지(600), 측정된 이미지(600)와 관련된 설계 데이터(240) 및 제 2 페이즈에서 결함(650, 660)의 대응 효과(250)를 사용하여 기계 학습 모델(800)을 트레이닝하는 단계 - 제 1 페이즈는 제 2 페이즈 전에 수행됨 - 을 포함하는, 방법(1000).
  15. 청구항 14에 있어서, 시뮬레이션된 이미지의 제 1 수는 측정된 이미지(600)의 제 2 수 보다 큰, 방법(1000).
  16. 청구항 14 또는 청구항 15에 있어서, 단계 a. 및 단계 b.는 적어도 2번에 걸쳐 진행되는, 방법(1000).
  17. 컴퓨터 시스템에 의해 실행될 때, 상기 컴퓨터 시스템에게, 청구항 1 내지 청구항 16 중 어느 한 항에 기재된 방법 단계들을 수행하게 하도록 프롬프팅하는 명령들을 포함하는, 컴퓨터 프로그램.
  18. 포토리소그래피 프로세스의 요소(450)의 결함(650, 660)의 적어도 하나의 알려지지 않은 효과(250)를 결정하기 위한 장치(490)로서, 상기 장치는:
    a. 이미지(600), 상기 이미지(600)와 관련된 설계 데이터(240) 및 이미지(600)로부터 발생하는 결함(650, 660)의 적어도 하나의 효과(250) 간의 관계에 대한 기계 학습의 모델(200, 300)을 제공하는 수단;
    b. 트레이닝 목적으로 사용되는 다수의 이미지(830), 트레이닝 목적으로 사용되는 이미지(830)와 관련된 설계 데이터(240) 및 결함(650, 660)의 대응 효과(250)를 사용하여 기계 학습의 모델(200, 300)을 트레이닝하는 수단; 및
    c. 트레이닝된 기계 학습의 모델(200, 300)을 측정된 이미지(600) 및 측정된 이미지(600)와 관련된 설계 데이터(240)에 적용하여 결함(650, 660)의 알려지지 않은 효과(250)를 결정하는 수단을 포함하고,
    이미지(600)는 광학 이미징 시스템(420)에 의해 기록되는 이미지를 포함하고, 그리고
    광학 이미징 시스템(420)에 의해 기록되는 이미지(600)는 에어리얼 이미지(600)를 포함하고 그리고/또는 에어리얼 이미지(600)는 에어리얼 이미지 초점 스택을 포함하는, 장치(490).
  19. 청구항 18에 있어서, 장치(490)는 포토리소그래피 프로세스의 요소(450)를 위한 노광 시스템 및 광 감지기 상에 포토리소그래피 프로세스의 요소(450)의 일부를 이미징하도록 구현되는 확대 렌즈를 포함하는, 장치(490).

KR1020207036616A 2018-05-18 2019-05-16 포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 효과를 평가하기 위한 방법 및 장치 KR102533520B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018207880.7 2018-05-18
DE102018207880.7A DE102018207880A1 (de) 2018-05-18 2018-05-18 Verfahren und Vorrichtung zum Bewerten einer unbekannten Auswirkung von Defekten eines Elements eines Photolithographieprozesses
PCT/EP2019/062646 WO2019219826A1 (en) 2018-05-18 2019-05-16 Method and apparatus for evaluating an unknown effect of defects of an element of a photolithography process

Publications (2)

Publication Number Publication Date
KR20210013600A true KR20210013600A (ko) 2021-02-04
KR102533520B1 KR102533520B1 (ko) 2023-05-17

Family

ID=66597594

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207036616A KR102533520B1 (ko) 2018-05-18 2019-05-16 포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 효과를 평가하기 위한 방법 및 장치

Country Status (7)

Country Link
US (2) US11774859B2 (ko)
JP (1) JP7100198B2 (ko)
KR (1) KR102533520B1 (ko)
CN (1) CN112189169B (ko)
DE (1) DE102018207880A1 (ko)
TW (1) TWI717737B (ko)
WO (1) WO2019219826A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182929B2 (en) * 2019-02-25 2021-11-23 Center For Deep Learning In Electronics Manufacturing, Inc. Methods and systems for compressing shape data for electronic designs
DE102019117558B4 (de) 2019-06-28 2022-08-18 Carl Zeiss Smt Gmbh Verfahren und Computerprogramm zum Bestimmen einer Qualität einer Maske einer Fotolithographie-Vorrichtung
DE102020112496A1 (de) 2020-05-08 2021-11-11 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zur Inspektion der Oberfläche eines optischen Elements
JP2022018203A (ja) * 2020-07-15 2022-01-27 キヤノン株式会社 情報処理装置、判定方法、検査装置、成形装置、および物品の製造方法
CN112561873B (zh) * 2020-12-11 2022-11-25 上海集成电路装备材料产业创新中心有限公司 一种基于机器学习的cdsem图像虚拟测量方法
CN112686892A (zh) * 2021-03-10 2021-04-20 北京妃灵科技有限公司 手表成色智能评估方法、装置、设备和存储介质
CN112712524B (zh) * 2021-03-29 2022-06-21 北京妃灵科技有限公司 基于深度学习模型的箱包品质检测方法、装置及存储介质
CN113049607B (zh) * 2021-03-30 2024-04-26 上海华力微电子有限公司 监控特殊形貌颗粒缺陷的方法
DE102022125479A1 (de) * 2022-10-04 2024-04-04 Pva Tepla Analytical Systems Gmbh Verfahren zur automatisierten Defekt-Klassifikation bei akustischer Ultraschallmikroskopie, Softwareprogrammprodukt sowie Ultraschallmikroskop

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030086081A1 (en) * 1998-09-17 2003-05-08 Applied Materials, Inc. Reticle design inspection system
JP2004354251A (ja) * 2003-05-29 2004-12-16 Nidek Co Ltd 欠陥検査装置
WO2017073604A1 (ja) * 2015-10-27 2017-05-04 株式会社ニューフレアテクノロジー 検査方法および検査装置
US20170140524A1 (en) * 2015-11-17 2017-05-18 Kla-Tencor Corporation Single image detection
JP2017514294A (ja) * 2014-03-06 2017-06-01 ケーエルエー−テンカー コーポレイション オーバーレイエラーのフィードフォワードおよびフィードバック修正、根本原因分析および工程の制御の統計的オーバーレイエラーの予測
WO2017123561A1 (en) * 2016-01-11 2017-07-20 Kla-Tencor Corporation Image based specimen process control
WO2017123553A1 (en) * 2016-01-11 2017-07-20 Kla-Tencor Corporation Accelerating semiconductor-related computations using learning based models
WO2017194281A1 (en) * 2016-05-12 2017-11-16 Asml Netherlands B.V. Identification of hot spots or defects by machine learning

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0368845A (ja) * 1989-08-09 1991-03-25 Hitachi Ltd はんだ付け検査方法およびその装置
US7379924B1 (en) * 2004-12-01 2008-05-27 Advanced Micro Devices, Inc. Quantifying and predicting the impact of line edge roughness on device reliability and performance
DE102011079382B4 (de) * 2011-07-19 2020-11-12 Carl Zeiss Smt Gmbh Verfahren und Vorrichtung zum Analysieren und zum Beseitigen eines Defekts einer EUV Maske
US9222895B2 (en) * 2013-02-25 2015-12-29 Kla-Tencor Corp. Generalized virtual inspector
US9430824B2 (en) * 2013-05-14 2016-08-30 Kla-Tencor Corporation Machine learning method and apparatus for inspecting reticles
KR101924487B1 (ko) * 2013-12-17 2018-12-03 에이에스엠엘 네델란즈 비.브이. 수율 추산 및 제어
WO2016096309A1 (en) * 2014-12-15 2016-06-23 Asml Netherlands B.V. Optimization based on machine learning
JP2016145887A (ja) * 2015-02-06 2016-08-12 株式会社ニューフレアテクノロジー 検査装置および検査方法
US9965901B2 (en) 2015-11-19 2018-05-08 KLA—Tencor Corp. Generating simulated images from design information
KR20180090385A (ko) * 2015-12-31 2018-08-10 케이엘에이-텐코 코포레이션 반도체 애플리케이션을 위한 기계 학습 기반의 모델의 가속 트레이닝
US9916965B2 (en) 2015-12-31 2018-03-13 Kla-Tencor Corp. Hybrid inspectors
US10648924B2 (en) 2016-01-04 2020-05-12 Kla-Tencor Corp. Generating high resolution images from low resolution images for semiconductor applications
US10043261B2 (en) * 2016-01-11 2018-08-07 Kla-Tencor Corp. Generating simulated output for a specimen
US20170256465A1 (en) 2016-03-01 2017-09-07 Asml Netherlands B.V. Method and apparatus to determine a patterning process parameter
US10395356B2 (en) * 2016-05-25 2019-08-27 Kla-Tencor Corp. Generating simulated images from input images for semiconductor applications
US10282509B2 (en) * 2016-10-28 2019-05-07 Toshiba Memory Corporation Non-transitory computer readable storage medium, mask evaluation method and inspection apparatus
US10395358B2 (en) * 2016-11-10 2019-08-27 Kla-Tencor Corp. High sensitivity repeater defect detection

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030086081A1 (en) * 1998-09-17 2003-05-08 Applied Materials, Inc. Reticle design inspection system
JP2004354251A (ja) * 2003-05-29 2004-12-16 Nidek Co Ltd 欠陥検査装置
JP2017514294A (ja) * 2014-03-06 2017-06-01 ケーエルエー−テンカー コーポレイション オーバーレイエラーのフィードフォワードおよびフィードバック修正、根本原因分析および工程の制御の統計的オーバーレイエラーの予測
WO2017073604A1 (ja) * 2015-10-27 2017-05-04 株式会社ニューフレアテクノロジー 検査方法および検査装置
US20170140524A1 (en) * 2015-11-17 2017-05-18 Kla-Tencor Corporation Single image detection
WO2017123561A1 (en) * 2016-01-11 2017-07-20 Kla-Tencor Corporation Image based specimen process control
WO2017123553A1 (en) * 2016-01-11 2017-07-20 Kla-Tencor Corporation Accelerating semiconductor-related computations using learning based models
WO2017194281A1 (en) * 2016-05-12 2017-11-16 Asml Netherlands B.V. Identification of hot spots or defects by machine learning

Also Published As

Publication number Publication date
CN112189169B (zh) 2023-06-06
US11774859B2 (en) 2023-10-03
CN112189169A (zh) 2021-01-05
WO2019219826A1 (en) 2019-11-21
KR102533520B1 (ko) 2023-05-17
TW202012919A (zh) 2020-04-01
JP7100198B2 (ja) 2022-07-12
DE102018207880A1 (de) 2019-11-21
US20210073969A1 (en) 2021-03-11
TWI717737B (zh) 2021-02-01
US20230408929A1 (en) 2023-12-21
JP2021523425A (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
KR102533520B1 (ko) 포토리소그래피 프로세스의 요소의 결함의 알려지지 않은 효과를 평가하기 위한 방법 및 장치
CN108431937B (zh) 光学裸片对数据库检查
JP6893514B2 (ja) ハイブリッドインスペクタ
JP6853273B2 (ja) ニューラルネットワークと順物理モデルを半導体用途に組み込んだシステムおよび方法
CN108475351B (zh) 用于训练基于机器学习的模型的系统和计算机实施方法
TWI713672B (zh) 為樣品產生模擬輸出之系統,非暫時性電腦可讀媒體及電腦實施方法
CN107454980B (zh) 光学裸片到数据库检验
CN102918464B (zh) 衬底上结构的测量
KR20190072569A (ko) 반도체 애플리케이션을 위해 구성된 심층 학습 모델을 위한 진단 시스템 및 방법
KR20180091940A (ko) 반도체 적용들을 위한 저해상도 이미지들로부터 고해상도 이미지들의 생성
KR20170005054A (ko) 근접장 복원을 이용한 레티클 검사
JP7344203B2 (ja) マイクロリソグラフィのためのマスクの認定のための方法
KR102522444B1 (ko) 트레이닝된 뉴럴 네트워크 제공 및 물리적 시스템의 특성 결정
TWI807563B (zh) 用於製造程序參數估計之模組自動編碼器模型
EP4075340A1 (en) Modular autoencoder model for manufacturing process parameter estimation
EP4075341A1 (en) Modular autoencoder model for manufacturing process parameter estimation
EP4075339A1 (en) Modular autoencoder model for manufacturing process parameter estimation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right