KR20240027069A - 반도체 웨이퍼 보우를 감소시키기 위한 교정 필름 패턴을 결정하기 위한 방법 - Google Patents
반도체 웨이퍼 보우를 감소시키기 위한 교정 필름 패턴을 결정하기 위한 방법 Download PDFInfo
- Publication number
- KR20240027069A KR20240027069A KR1020247003096A KR20247003096A KR20240027069A KR 20240027069 A KR20240027069 A KR 20240027069A KR 1020247003096 A KR1020247003096 A KR 1020247003096A KR 20247003096 A KR20247003096 A KR 20247003096A KR 20240027069 A KR20240027069 A KR 20240027069A
- Authority
- KR
- South Korea
- Prior art keywords
- wafer
- film pattern
- model
- calibration film
- creating
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000004065 semiconductor Substances 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000004519 manufacturing process Methods 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 claims description 27
- 238000005457 optimization Methods 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 15
- 238000004088 simulation Methods 0.000 claims description 11
- 238000000844 transformation Methods 0.000 claims description 7
- 235000012431 wafers Nutrition 0.000 description 146
- 239000010408 film Substances 0.000 description 106
- 238000013459 approach Methods 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 15
- 238000010801 machine learning Methods 0.000 description 15
- 238000010200 validation analysis Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 230000008901 benefit Effects 0.000 description 11
- 239000000463 material Substances 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000000151 deposition Methods 0.000 description 9
- 238000009826 distribution Methods 0.000 description 9
- 230000008021 deposition Effects 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 239000000758 substrate Substances 0.000 description 7
- 230000006872 improvement Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005530 etching Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000013078 crystal Substances 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 229910021419 crystalline silicon Inorganic materials 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000001459 lithography Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 229910052581 Si3N4 Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009501 film coating Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- HQVNEWCFYHHQES-UHFFFAOYSA-N silicon nitride Chemical compound N12[Si]34N5[Si]62N3[Si]51N64 HQVNEWCFYHHQES-UHFFFAOYSA-N 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 238000000427 thin-film deposition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/091—Active learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L21/00—Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
- H01L21/67—Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
- H01L21/67005—Apparatus not specifically provided for elsewhere
- H01L21/67242—Apparatus for monitoring, sorting or marking
- H01L21/67288—Monitoring of warpage, curvature, damage, defects or the like
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Manufacturing & Machinery (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Power Engineering (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
- Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
Abstract
반도체 웨이퍼 제조 공정에서 웨이퍼 보우를 감소시키기 위해 교정 필름 패턴을 생성하기 위한 방법이 개시된다. 본 방법은 미리 정해진 반도체 제조 단계를 위한 웨이퍼 보우 시그니처[152]를 뉴럴 네트워크[150]에 입력한다. 뉴럴 네트워크[150]는 웨이퍼 보우 시그니처에 대응하는 교정 필름 패턴[154]을 입력으로부터 생성한다. 뉴럴 네트워크는 웨이퍼 형상 변형들[104]의 훈련 데이터세트 및 대응하는 교정 필름 패턴들[106]로 훈련된다.
Description
본 발명은 일반적으로 반도체 웨이퍼 제조 방법들에 관한 것이다. 더 구체적으로는, 본 발명은 웨이퍼 보우(waferbow)를 감소시키기 위한 기술들에 관한 것이다.
반도체 제조에서, 복잡한 구조물들은 박막 증착, 포토리소그래피, 및 식각의 순서들을 사용하여 제조된다. 복잡한 구조물들은 작은 피처 크기들을 갖는 리소그래피 및 식각 마스크들을 사용하고 다양한 재료들에 대해 이러한 단계들을 여러 번 반복하여 제조된다. 각각의 처리 단계에서, 리소그래피 및 식각 마스크들은 웨이퍼 상의 각각의 디바이스를 위한 절대 좌표 시스템과 정확하게 정렬되어야한다. 디바이스 치수들이 더 작아짐에 따라, 마스크 정렬시에 공간 편차들에 대한 공차가 더 엄격해진다. 2개 이상의 처리 단계들에서 공간 오프셋(또는 “오버레이 오차(overlay error)”)이 너무 크다면, 디바이스는 작동하지 않을 것이다. 오버레이 오차로 이어지는 한 가지 현상은 공정 중 웨이퍼 휘어짐(bowing)과 뒤틀림(warping)이다[1-3]. 동일하지 않은 열 팽창 계수들을 갖는 별개의 재료 필름들이 처리 동안에 온도 변화를 겪을 때 웨이퍼 보우이 발생한다. 많은 상이한 박막 재료들 및 복잡한 디바이스 패턴들을 갖는 경우들에서, 웨이퍼 보우 시그니처들은 복잡할 수 있으며 그리고 보우 시그니처로 인해 발생하는 인-플레인 비틀림은 용이하게 결정되지 않는다[1,4].
웨이퍼 휘어짐을 감소시키거나 제거하기 위해 교정 필름을 적용하는 것은 오버레이 오차를 최소화하고 디바이스 수율을 증가시키기 위한 하나의 루트이다. 이러한 해결책으로 발생하는 하나의 기술적인 과제는, 보우 시그니처를 효과적으로 제거하고 오버레이 오차를 적합하게 감소시킬 것인 어떤 보정 막 패턴을 웨이퍼에 적용할지를 결정하는 것이다. 웨이퍼 보우 문제는 선형 탄성 문제로서 모델링될 수 있고 (유한 요소 방법을 사용하여) 수치적 접근법을 사용하여 해결될 수 있지만, 아직 이러한 접근법을 위한 계산 시간은 온라인 반도체 제조 환경에서 실제적이기에는 너무 길다.
반도체 제조에서 웨이퍼 보우를 감소시키는 주제는 매우 광범위하며 웨이퍼 보우를 제어하거나 감소시키기 위한 특정 재료 및 공정 변경과 관련된 많은 특허 발명들이 있었다[5-7]. 이러한 부류의 발명들은 공장에서 사용되는 물리적인 재료들 및 공정들에 관한 것이며, 모델링, 기계 학습(ML), 또는 소프트웨어 컴포넌트들을 수반하지 않는다.
응력을 감소시키기 위해 반도체 웨이퍼 상에 질화규소 막을 추가하는 개념은, 1998년 Micron 특허에 의해 입증되는 바와 같이, 20년 초과 동안 실시되고 노출되어 왔다[8]. 최근 수년간, Tokyo Electron은 다양한 기술들로 웨이퍼 보우를 수정하고 오버레이(overlay) 오차를 최소화하는 것에 관한 많은 발명들을 보호해 왔다[9-13]. 아마도 가장 적절한 특허는 수정 패턴 최적화 문제[9]에 대한 Austin 그룹의 해결책에 관한 특허일 것이다. Hoogeet al. 미국 특허(문헌)(문헌[9])는, 웨이퍼 휘어짐(bow)을 감소시키고, 웨이퍼를 평탄화하며, 그리고 오버레이 에러(overlay error)를 최소화하는 것을 목표로 반도체 웨이퍼의 후면 상에 교정 필름의 특별한 패턴(specific pattern)을 인쇄하는 것에 대해 논의한다[9]. 저자들은 적용할 최고의 후방 패턴을 결정하는 데 사용될 수 있는 3개의 별개의 시스템들을 설명한다. 이들 시스템들 각각에서, “화소 합” 접근법이 사용되며, 이는 단일 픽셀의 응력 영향을 결정하며, 그 후, (일부 경험적인 보정 인자들을 사용하여) 전체적인 응력 보정을 얻기 위해 모든 픽셀들의 총 응력 보정과 합산된다(sum). 하나의 시스템(그들의 도 2에 도시됨)에서, 이들은 단일 픽셀의 등이축 응력(equibiaxial stress)을 결정하기 위해 유한 요소 방법(FEM)을 사용하지만, 아직 이들은 아래에서 설명되는 바와 같이 전체적인 FEM 접근법을 채택하지 않는다. 추가적으로, 이들의 본 발명에 대한 대체 모델 또는 기계 학습 컴포넌트는 존재하지 않는다. 유사한 응용 분야에 관한 다른 Tokyo Electron 특허는, 보우 측정을 개선하기 위한 기판 고정 장치[11], 오버레이를 제어하기 위한 위치별 응력 조정(일반 개념)[12], 공간적으로 패턴화된 입자 폭격을 사용하여 웨이퍼 보우 및 오버레이를 수정하는 방법[13]을 포함한다.
또한, 첫 번째 원칙 모델을 향상시키거나 속도를 높이는 대체 기계 학습 모델의 개념은 새로운 것이 아니며 다양한 산업의 다른 문제 영역에 적용되었다 [14-17].
마지막으로, 자율적인 대리 모델 프레임워크(autonomous surrogate modelframework)의 개념이 특허 출원되었고[18], 반도체 도메인에서의 사용을 언급한다. 그러나, 이는 대체 모델들의 생성의 프레임워크(framework)에 관한 것이며, 그리고 이는 반도체 공정 단계를 최적화하기 위해 대리 모델을 사용하기 위해 공정을 교시하거나 제안하지 않는다.
아래에서 설명되는 본 발명은 이러한 기술적인 과제를 극복하고 그리고 기계 학습 대체 모델 접근법을 사용함으로써 웨이퍼 보우 수정 문제에 대한 해결책을 제공한다. 우리의 서로 게이트 모델은 유한 요소 방법 접근법보다 더 적은 약 3 차수(orders)의 계산 시간으로 일반적인 웨이퍼 보우 시그니처를 역전시키기 위해 교정 필름 패턴을 성공적으로 제안한다. 우리의 해결책의 상세들 및 관련 작업의 개요가 하기에 제시된다.
일 양태에서, 본 발명은 반도체 웨이퍼 제조 공정에서 웨이퍼 보우(waferbow)를 감소시키기 위한 보정 필름 패턴을 생성하기 위한 방법을 제공하며, 상기 방법은, 미리 정해진 반도체 제조 단계를 위한 웨이퍼 보우 시그니처(wafer bow signal)를 뉴럴 네트워크에 입력하는 단계; 뉴럴 네트워크에 의해, 웨이퍼 보우 시그니처에 대응하는 보정 필름 패턴을 생성하는 단계; 제1 항에 있어서, 뉴럴 네트워크는 웨이퍼 형상 변형들의 훈련 데이터세트 및 대응하는 교정 필름 패턴들로 훈련된다.
훈련 데이터세트는 미리 정해진 반도체 제조 단계를 위한 웨이퍼 형상 변형들로부터 교정 필름 패턴들을 계산하기 위해 시뮬레이션을 사용하여 생성될 수 있다. 훈련 데이터세트는 웨이퍼 형상 변형들에 대응하는 교정 필름 패턴들을 실험적으로 결정함으로써 생성될 수 있다. 훈련 데이터세트는 선형 탄성 문제를 해결하기 위해 유한 요소 방법을 사용하고 비용 함수를 최소화하는 웨이퍼 형상 변환들을 선택하기 위해 최적화 프레임워크를 사용하여 생성될 수 있다.
이 방법은 뉴럴 네트워크를 정제하기 위해 능동식 학습 피드백을 수행하는 단계를 더 포함할 수 있다. 뉴럴 네트워크는 컨볼루션(convolutional) U-Net, Zernike 컨볼루션 뉴럴 네트워크, 조건부 변동 오토인코더(conditional Variational autoencoder), 또는 조건적 생성 적대 네트워크(conditional generative adversarial network)로서 구현될 수 있다. 조건적 생성 적대 네트워크(conditional generative adversarial network)는 스킵 연결들을 갖는 U-넷(U-Net)으로서 구현되는 생성기 또는 컨벌루션 분류기(convolutional classifier)로서 구현되는 식별기를 포함할 수 있다.
도 1a, 도 1b, 도 1c는 본 발명의 일 실시예의 처리 흐름 선도들을 도시한다. 상이한 화살표 스타일들은 상이한 정보 흐름을 나타낸다. 두꺼운 실선 화살표들은 반도체 팹에서 물리적인 웨이퍼들의 움직임을 나타낸다. 얇은 실선 화살표들은, 예컨대 필름 패턴들의 데이터세트들 및 웨이퍼 형상 변형들과 같은 2D 어레이 데이터의 전달을 나타낸다. 파선 화살표들은 Zernike 계수들(Zernike coefficients) 또는 기계 학습 모델 중량들 및 편향들(bias)과 같은 모델 매개 변수 정보의 전달을 나타낸다.
도 2는 본 발명의 일 실시예에 따른 FEM을 사용하여 해결되는 바와 같은 선형 탄성 문제를 예시한다.
도 3은 본 발명의 일 실시예에 따른 막 패턴 최적화로부터의 예시적인 결과들을 도시한다.
도 4는 본 발명의 일 실시예에 따라 확인 오차에 대한 훈련 데이터세트 크기의 영향을 도시한다.
도 5는 본 발명의 일 실시예에 따른 대리 모델 아키텍처의 세부사항들을 도시한다.
도 6은 본 발명의 일 실시예에 따른 서로게이트 모델의 순방향 컴포넌트의 UNet 아키텍처를 도시한다.
도 7은 본 발명의 일 실시예에 따른 Zernike CNN 역 모델 구조를 도시한다.
도 8은, 본 발명의 일 실시예에 따라, 입력된 웨이퍼 보우 시그니처를 취하고 웨이퍼를 평탄화하는 태스크를 위한, 필름 패턴 및 잔여 보우 예측의 일 예를 도시한다.
도 2는 본 발명의 일 실시예에 따른 FEM을 사용하여 해결되는 바와 같은 선형 탄성 문제를 예시한다.
도 3은 본 발명의 일 실시예에 따른 막 패턴 최적화로부터의 예시적인 결과들을 도시한다.
도 4는 본 발명의 일 실시예에 따라 확인 오차에 대한 훈련 데이터세트 크기의 영향을 도시한다.
도 5는 본 발명의 일 실시예에 따른 대리 모델 아키텍처의 세부사항들을 도시한다.
도 6은 본 발명의 일 실시예에 따른 서로게이트 모델의 순방향 컴포넌트의 UNet 아키텍처를 도시한다.
도 7은 본 발명의 일 실시예에 따른 Zernike CNN 역 모델 구조를 도시한다.
도 8은, 본 발명의 일 실시예에 따라, 입력된 웨이퍼 보우 시그니처를 취하고 웨이퍼를 평탄화하는 태스크를 위한, 필름 패턴 및 잔여 보우 예측의 일 예를 도시한다.
2.3 용어들의 정의
웨이퍼 보우 시그니처(waferbow signal): 웨이퍼 상의 각각의 수평 포지션에 대한 반도체 웨이퍼의 높이(z). 웨이퍼는 제조 동안 누적되는 다양한 응력들로 인해 구부러진다. 웨이퍼 보우 시그니처를 규정하기 위한 좌표 시스템은 고유한 설명을 제공하기 위해 표준화된다. 우선적으로, 미가공 형상 메트롤로지 데이터가 획득되며, 이는 (x, y) = (0, 0)의 중심을 갖는 웨이퍼를 가로질러 z 포지션을 규정한다. 그 후, z 데이터는 (하기에서 설명되는 바와 같이) Zernike 다항식들을 사용하여 피팅되며, 그 후, 경사는 형상으로부터 및 모드들을 뺌으로써 제거된다. 그 후, 모든 z 값들이 0의 최소 높이와 함께 양수가 되도록 최소 z를 뺌 본 문헌 전체에 걸쳐서, 우리는 수정 필름 패턴의 증착 이전의 웨이퍼 보우를 지칭하기 위해 “웨이퍼 보우 시그니처(waferbow signal)”를 사용한다.
교정 필름 패턴: 교정 필름 패턴은 웨이퍼 보우 시그니처를 수정하기 위해 웨이퍼 상에 적용되는 교정 필름의 패턴이다. 패턴(pattern)은 균일하게 두꺼운 필름의 증착(deposition)에 의해, 그리고 그 후, 필름의 많은 작은 영역들을 선택적으로 식각하여(etch away), 원래의 필름의 부분들을 제자리에 유지함으로써 달성된다. 국부적인 영역들에서 필름에 의해 커버되는 평균 면적(%)은 필름의 표면 상의 포지션의 함수이다. 예를 들어, 표면 상의 하나의 포지션의 1mm 정사각형 영역은, 20㎛ 정사각형들의 절반이 식각되고 절반이 유지되는 체커보드(checkerboard)를 형성하기 위해 영역 내에서 20㎛ 정사각형들을 식각함으로써 50% 커버리지를 가질 수 있다. 표면 상의 다른 포지션의 다른 1 ㎜ 정사각형 영역은 정사각형들의 1/4을 식각함으로써 75% 적용 범위를 가질 수 있다.
웨이퍼 형상 변형: 교정 필름 패턴을 위한 증착으로 인한 웨이퍼 보우 시그니처(wafer bow signal)에서의 요망되는 변화. 통상적으로, 웨이퍼 형상 변형은 웨이퍼를 평탄하게 할 형상 변형이며, 이는 교정 필름 패턴의 증착 이전의 웨이퍼 보우 시그니처의 네거티브(negative)이다. 다른 가능성은, 더 높은 차수의 보우(bow)를 감소시키고 그리고/또는 오버레이 오차를 최소화하기 위한 특정 웨이퍼 형상 변형이 직접적으로 채택될 수 있다는 것이다.
레지듀얼 보우(Residual Bow): 웨이퍼 보우를 변조하기 위한 교정 필름 패턴의 증착 후에 웨이퍼 상의 각각의 수평 포지션에 대한 반도체 웨이퍼의 높이(z). 고유한 형상을 획득하기 위한 데이터 사전처리는 웨이퍼 보우 시그니처에 대해 설명된 것과 유사하다.
선형 탄성 문제: 선형 탄성 수학적 모델이 가정되는, 즉, 탄성 물체의 변형(변형)이 인가된 응력에 비례하는 구조 분석 문제. 탄성적인 물체는 (항복과 대조적으로) 응력이 제거된다면, 그의 원래 형상으로 복귀할 물체이다.
뉴럴 네트워크(Neural network): 입력들과 출력들 사이의 비선형 기능을 학습할 수 있는 노드들 및 활성화 기능들의 배열에 의해 형성되는 기계 학습 모델(section 3.3 참조)
유한 요소 방법(Finite element method): 많은 공학 영역들에서 사용되는 2D 및 3D 문제들을 위한 편미분 방정식들을 풀기 위한 수치적 근사(numerical approximation) 방법(섹션 3.2 참조)
최적화 프레임워크: Zernike 다항식들(Zernike polynomials)로 교정 필름 패턴을 매개변수화함으로써(섹션 3.4 참조), 그리고 적합한 필름 패턴을 식별하기 위해 최적화 알고리즘(섹션 4.3 참조)을 사용함으로써 FEM 시뮬레이션의 역에 대한 해결책을 찾기 위한 전략
능동식 학습 피드백: 라벨링된 경우에 뉴럴 네트워크에 최대 개선을 제공할 라벨링되지 않은 데이터 지점들의 배치를 선택하기 위해 기계 학습 모델을 사용하는 단계. 그 후, 이러한 데이터 지점들을 (시뮬레이터 또는 실험들을 사용하여) 라벨링하고, 개선을 위해 뉴럴 네트워크에 결과들을 제공하는 단계(섹션 4.6 참조)
3. 이론적인 배경
3.1 선형 탄성 및 웨이퍼 보우
일부 힘을 웨이퍼에 인가하면, 이는 변형될 것이며, 그리고 변형은 인가된 힘들의 방향 및 크기뿐만 아니라 웨이퍼의 기하학적 형상 및 재료 특성들에 의존할 것이다. 우리의 고려를 극소 변형들로 제한하고 그리고 응력과 변형률 사이의 선형 관계를 가정한다면, 웨이퍼 구성 방정식은 다음과 같다:
여기서, σ는 코시 응력 텐서(Caucy stress tensor), ε는 스트레인 텐서, 그리고 C는 4차 강성 텐서이다. 변형률-변위 관계는 다음과 같이 표현된다.
여기서 u는 응력으로 인한 위치 변화를 설명하는 변위 벡터입니다. 웨이퍼가 정상 상태에 있다면, 운동 방정식은 다음과 같이 주어진다.
여기서 F는 단위 체적당 본체력이다. 등방성 재료들에 대해, 응력(σ) 및 변형률(ε)에 관한 구성 방정식은 간소화되고 2개의 스칼라 재료 특성들, 영률(Young's modulus)(E) 및 푸아송비(Poisson's ratio)에 의존한다. 이는 3차원들에서의 선형, 2차, 타원 부분 미분 방정식이며, 그리고 단지 스토니 방정식이 유효한 간단한 시나리오와 같은 매우 간단한 시나리오들에서만 웨이퍼 보우 문제를 위한 해석적인 해결책이 존재한다.
스토니 방정식 [19]은 다음의 가정들을한다:
필름 및 기판은, 동일한 반경 및 균일한 두께를 가지며, 여기서 hf<< hs<< R
변형률 및 회전이 극도로 작음
필름 및 기재는 균질하고, 등방성이며, 그리고 선형 탄성
필름 응력 상태가 면내 등방성 또는 등축인 경우
시스템의 곡률 성분들은 등축이다(equibiaxial).
모든 0이 아닌 응력 및 곡률 구성 요소는 시스템 표면에 걸쳐 일정하다.
이러한 가정들로, 선형 탄성 문제에 대한 해는 변형으로부터 시스템 만곡부를 갖는 교정 필름에서의 응력의 크기를 관련시키는 스토니(Stoney) 방정식을 산출한다:
여기서, σf는 막 응력, Es는 기판의 영률(Young's modulus), γ_s는 기판의 푸아송 비이며, hf 및 hs는 각각 막 및 기판의 두께이며, 그리고 κ는 시스템의 곡률이다. 위의 가정들 중 일부를 완화하는 스토니(Stoney) 모델에 대한 몇 개의 보다 복잡한 확장들이 공개되었지만[4, 19, 20], 어느 것도 불균일한 필름의 실제 웨이퍼 보우 문제에 대해 유효할 정도로 충분히 복잡하지 않다. 스토니 방정식 및 그의 확장들은, 필름이 웨이퍼 기판에 어떻게 응력을 가하고 그리고 휘게 할 것인지에 대한 정성적인 관점을 구축하기 위한 편리한 분석적 도구들을 제공하지만, 실제 웨이퍼 보우 문제는 유효하고, 이러한 모델들에 대해 요구되는 많은 가정들을 위배하며, 그리고 따라서 전산 계산(computational) 위의 편미분 방정식에 대한 해를 근사화하기 위한 접근법이 요구된다.
3.2 FEM을 사용한 선형 탄성 문제 해결
휘어진 웨이퍼 문제의 복잡한 경우에 대해 위의 편미분 방정식을 풀 수 없기 때문에, 우리는 근사적인 해를 발생시키기 위해 전산 방법들에 의존한다. FEM(유한 요소 방법)은 임의의 영역 형상에 대해 3차원으로 편미분 방정식을 풀기 위한 강력한 도구입니다. 여기서, 우리는 FEM 근사해(approximate solution)의 이면에 있는 이론을 간단히 검토한다. 위의 편미분 방정식의 기본 형태를 고려한다.
우리는 이제 이러한 미분(강) 형태를 적분(약) 형태로 변환하기 위해 검사 함수 v
우리는 더 나아가, 문제가 2개의 경계 조건들, ∂ΩD 상의 Dirichlet 경계 조건 u=r 및 경계 ΔΩ_N 상의 노이만 조건(Neumann condition)을 가지는 것을 명시한다. 그린의 법칙(부분들에 의한 적분) 및 경계 조건들을 적용함으로써 우리는 등식(6)을 다음과 같이 다시 쓸 수 있다.
검사 기능(v) 및 해(u)는 힐베르트 공간들(무한 차원 함수 공간)에 속하며, 그리고 취약 공식의 중요한 컴포넌트는, 이 취약 공식이 힐베르트 공간에서의 모든 검사 기능들에 대해 유지되어야한다는 점이다. 갈레르킨(Galerkin) 방법 공식화에 따라, 해(u)가 테스트 함수들과 동일한 힐베르트 공간에 속하는 것으로 가정하며, 그 후, 힐베르트 공간의 유한-차원 부분공간(finite-dimensional 부분공간)에서 근사 해(uh u)를 찾는다. 우리의 근사적인 해결책은 그 부분 공간에서 기초 함수들(φi)의 세트의 선형 조합으로서 표현될 수 있다.
상기 적분 방정식의 이산화된 버전은 모든 테스트 함수 φj에 대해 아래와 같이 된다.
n개의 수의 검사 기능들로, 근사 해(uh)를 획득하는데 필요한 n개의 미지의 계수들(ui)이 존재한다. 시스템이 이산화되고 경계 조건들이 적용된 후에, 상기 방정식은 Aui=b로 간소화되며, 여기서 A는 n x n 매트릭스이고, b는 길이 n을 갖는 벡터이며, 여기서, 둘 모두는 다음과 같이 이산화된 등식(9)을 간소화함으로써 결정된다. n 검사 함수들 및 n ui 계수들. Aui=b 형태는 선형 또는 비선형 문제들에 대해 적합한 솔버로 해결될 수 있다.
요약하면, 유한 요소 해석은 우리가 편미분 방정식(여기서, 3차원들에서의 선형 탄성)에 의해 통제되는 시스템을 취하고, 그 후, 방정식들의 선형 세트를 해결함으로써 근사적인 해결책을 찾기 위해 문제를 요소들로 이산화할 수 있게한다. 메쉬가 보다 미세할수록, 기초 함수들의 수는 보다 더 커지며, 그리고 근사해는 실제 해에 더 근접할 것이다.
3.3 뉴럴 네트워크 배경
뉴럴 네트워크들은 입력들과 출력들 사이에 복잡한 비선형 관계를 생성하기 위해 미리 규정된 구조로 유닛들 또는 노드들을 배열하는 일반적인 프레임워크이다. 각각의 뉴럴 네트워크는 입력 및 출력 층 양자 모두를 가지며, 여기서 층 형상은 입력 및 출력 유형에 의해 지시된다. 뉴럴 네트워크의 가장 일반적인 예는 입력 층 및 출력 층들 이외에도 히든 층들을 갖는 완전 연결형, 피드-포워드 네트워크(multi-layer perceptron)이다. 각각의 노드에서의 값들은, 중량들 및 편향들로 매개 변수화되는 활성화 함수로 후속하는 층들의 노드들로 전파된다. 히든 층들은 입력들 및 출력들에 직접적으로 연결되지 않지만, 출력 결정을 돕는 입력 층으로부터 특징들을 자동으로 추출하도록 포함된다. 훈련의 과정에서, 뉴럴 네트워크는 많은 라벨링된 예들, 또는 정확한 출력이 공지된 입력 예들에 노출된다. 훈련 반복에서, 경사 계산들 및 역전파는 미리 정해진 손실 함수를 개선시키기 위해 각각의 노드의 중량들 및 편향들을 변조한다. 훈련 후에, 가중치들 및 편향들은 통상적으로 고정된 상태를 유지하며, 그리고 네트워크는 훈련에서 학습된 비선형 함수를 사용하여 보지 않은 데이터에 대한 추론을 수행할 수 있다.
특정 입력 및 출력 유형들은 간단한 다층 퍼셉트론보다 더 복잡한 네트워크 구조들로부터 이익을 얻는다. 예를 들어, (예컨대, 이미지) 입력 데이터의 2차원 어레이로, 컨볼루션들은 특징들을 추출하기 위해 통상적으로 사용된다. 컨볼루션 뉴럴 네트워크에서, 필터들은 2D 입력 데이터를 다양한 채널들을 갖는 특징 맵들로 변환시키는 데 사용된다. 통상적으로, 다수의 컨볼루션 층들은 이전의 피처 맵들로부터 피처 맵들을 만들기 위해 활용되며, 그리고 종종, 완전 연결형 출력 구조(fully connected output structure)는 최종 피처 맵 층으로부터의 출력들을 결정하는 데 사용된다. 컨볼루션 뉴럴 네트워크는 정형화된 다층 퍼셉트론(regularized multi-layer perceptron)으로서 생각될 수 있으며; 각각의 입력 픽셀이 다음 층의 모든 노드에 완전히 연결되는 대신에, 컨볼루션들은 이웃하는 픽셀들을 갖는 픽셀의 배열로부터 피처들을 추출하는 데 사용된다. 다층 퍼셉트론 및 컨볼루션 뉴럴 네트워크들로부터의 개념들은 이 작업에서 채택된 보다 복잡한 뉴럴 네트워크 구조들을 위한 프레임워크를 제공한다.
3.4 Zernike 다항식들
Zernike 다항식들은 원래 광학 분야[21]에서의 적용들을 위해 개발된, 원형 도메인(circular region)에서 표면들을 설명하는데 사용되는 다항식들의 시퀀스(sequence polynomials)이다. 짝수 및 홀수 Zernike 다항식들이 존재하며, 여기서 짝수 다항식들은
그리고 홀수 Zernike 다항식들은 다음과 같이 주어진다:
여기서,
r은 단위 디스크 상의 반경 포지션이며(0 ≤ r ≤ 1), θ는 방위각 각도이며, m 및 n은 특정 Zernike 다항식에 대해 고유한 음이 아닌 정수들이며, 그리고 이다. 여기서, 우리는 웨이퍼 휘(bow) 시그니처들, 요망되는 웨이퍼 형상 변환들, 또는 잔여 보우(residual bore)를 설명하기 위해 일반적인 웨이퍼 형상을 매개변수화하기 위해 Zernike 다항식들을 활용한다. 일반적인 웨이퍼 형상은 다음과 같이 규정된다.
여기서, 각각의 Zernike 다항식의 인덱스이며, 즉, a는, 즉, 0, 1, 2, 3, 4, 5는 (n, m) = (0, 0), (-1,1), (1,1), (-2,2), (0,2), (2,2)... 각각에 대응한다. 계수(ca)는 각각의 다항식에 대한 Zernike 계수를 나타낸다. 따라서, 임의의 웨이퍼 형상은 위의 일반적인 등식을 사용하여 표현될 수 있으며, 그리고 N이 더 커짐에 따라, 실제 형상과 Zernike 표현 사이의 오차는 감소할 것이다. Zernike 표현을 사용하여, 일반적인 웨이퍼 형상은 N개의 계수들(ca)로 파라미터화된 방식으로 표현될 수 있다. 일반적으로, 웨이퍼 형상들은 매끄럽고, 그리고 N = 20 내지 50으로 충분한 형상 근사가 획득될 수 있다.
4. 바람직한 실시예들에 대한 설명
4.1 상위 레벨 개요
본 발명의 실시예들은 온라인 전개에 관한 계산 시간으로 교정 필름 패턴을 최적화하기 위해 기계 학습과 함께 유한 요소 방법(FEM)을 활용하는 공정을 제공한다. 도 1a에서 개략적으로 설명되는 바와 같이, FEM 모델 솔버(100)는 특정한 반도체 제조 공정 단계에서 사용되는 필름 기하학적 형상 및 적합한 웨이퍼를 위한 선형 탄성 문제를 해결하도록 구성된다. 교정 필름 패턴 최적화 프레임워크(receptor)(102)는 웨이퍼 휘어짐에서의 가장 큰 감소를 초래하는 교정 필름 패턴을 위해 최적화하기 위해 이러한 FEM 모델 솔버(100)의 최상부 상에 구축된다. 이러한 FEM 모델 및 최적화 프레임워크(framework)는 대응하는 요망되는 웨이퍼 형상 변형들(104)의 데이터세트로부터 교정 필름 패턴들(106)을 생성하는 데 사용된다. 데이터세트 생성은 통상적으로 표준 중앙 처리 유닛(standard central processing unit)을 사용하여 시뮬레이션 기술자에 의해 성취된다. 데이터세트 생성은 원하는 경우에 병렬화될 수 있다.
데이터세트(106)는 기계 학습 대체 모델(108)에서 뉴럴 네트워크를 훈련하기 위해 요망되는 웨이퍼 형상 변환(104)의 데이터세트와 함께 사용된다. 이는 통상적으로 기계 학습 기술자에 의해 수행된다. 이들은 또한 생산 현장에서의 전개를 위해 모델을 포장할 것이다. 대리 모델을 훈련시키는 것은 그래픽 처리 장치 가속으로부터 이익을 얻을 것이므로, 그래픽 처리 장치로 딥 학습을 지원하는 하드웨어가 권장된다. 대리 모델(108)은 일반적인 모델 구조, 층 형상들, 및 하이퍼파라미터들을 규정하는 반면, 훈련된 모델(112)은 (정방향 모델에 대한) 예측된 웨이퍼 형상 변환과 실제 웨이퍼 형상 변환들 사이의 차이를 최소화하는 특정 모델 중량들을 갖는 대리 모델의 예를 나타낸다. 또는 (편집된 모델을 위한) 잔여 웨이퍼 보우를 최소화하도록 구성될 수 있다.
그 후, 이러한 훈련된 모델(112)은 반도체 제조 시설(110)로 전달되고 이 시설에서 전개되며, 여기서 이 훈련된 모델은 최적화 프레임워크와 동일한 최적화 업무를 수행하지만, 계산 시간의 작은 부분으로 사용된다. 통상적으로, 공정 기술자는 기계 학습 기술자와 협력하여 패키징된 모델을 사용할 것이다. 이러한 마지막 단계를 위해 사용되는 컴퓨팅 시스템은 공장에서 툴들과 통합될 수 있고 재훈련 단계들을 위한 그래픽 처리 유닛 능력들을 가질 수 있는 하드웨어를 포함해야한다. 이해당사자들은 반도체 팹들을 운영하는 회사들, 반도체 팹에 장비를 제공하는 회사들, 및 장비 또는 팹 회사들 중 임의의 것에 소프트웨어를 제공하는 회사들을 포함한다.
요망된다면, 훈련된 모델(112)은 시뮬레이션된 웨이퍼 형상 변형과 실제 웨이퍼 형상 변형 사이의 임의의 데이터 분포 이동을 학습하기 위해 물리적인 웨이퍼들(시뮬레이션되지 않음)의 확인 데이터세트를 사용하여 전개 동안 재훈련될 수 있다. 전문화된 능동식 학습 접근법은 이러한 재훈련 단계를 위한 확인 샘플 지점들을 최적으로 선택하는 데 사용될 수 있다. 마지막으로, 온라인 리훈련 스켐(on-line retraining scheme)은, 웨이퍼 보우(waferbow) 또는 오버레이(overlay) 에러를 추가적으로 감소시키고 임의의 데이터 드리프트(datadrift)를 설명하는데 사용될 수 있다.
우리는 이제 유한 요소 솔버(100) 및 교정 필름 패턴 최적화 프레임워크(102)의 세부들로 전환한다. 이러한 단계들은 그림 1b에서 자세히 설명되어 있다.
4.2 웨이퍼 보우를 위한 FEM 시뮬레이션
방정식들의 선형 탄성 편미분 시스템은 FEM을 사용하여 해결된다. FEM 모델 솔버(100)의 역할은, 이러한 교정 필름을 적용하는 것이 웨이퍼 상에 가지는 응력들을 결정하기 위해 불균일한 필름 패턴(120)을 취하고, 선형 탄성 부분 미분 방정식들(122)을 해결하고, 그 후, 거친 웨이퍼 형상 변형(124)을 결정하는 것이다. 이는, 이들의 응력들에 기인한다. 웨이퍼 및 교정 필름은 불균일한 필름을 갖는 디스크로서 모델링되며, 그리고 필름 응력은 스토니(Stoney) 방정식을 사용하여 온도 변화를 규정하고 그리고 교정함으로써 오프셋된 열 팽창 계수를 공지된 균일한 필름 응력으로 설정함으로써 모델링된다. 시뮬레이션에서의 최대 필름 두께는 인쇄된 교정 필름의 전체 두께를 사용하여 설정되며, 그리고 시뮬레이션에서 웨이퍼에 걸친 교정 필름의 두께 패턴은 인쇄된 교정 필름의 퍼센트 커버리지 패턴을 복제하도록 규정된다. 필름은 매트릭스를 사용하여 이산화되며, 그리고 매끄러운 입방 보간 함수는 FEM 시뮬레이션에서 각각의 노드에서 정확한 두께를 결정하기 위해 이러한 이산화된 패턴 상에 사용된다. 매트릭스 치수들은 원하는 공간 분해능에 기초하여 선택될 수 있으며; 100 내지 1000 정도의 가능한 치수들이 적합할 것이다.
위에서 논의된 바와 같이, 유한 요소 해석(FEA)에서, 편미분 방정식에 대한 근사 해결책은 영역을 유한 요소들로 이산화시킴으로써 획득된다. 메쉬는 들로네(Delaunay) 삼각형 분할을 사용하여 획득되며, 그리고 2차(2차) 요소들이 사용된다(노드들은 각각의 사면체의 정점들 및 에지 중간점들 둘 모두에 위치된다). 목표 최대 및 최소 요소 길이들은 ~10,000개의 요소들을 갖는 구조물을 획득하도록 설정된다. 요소들의 수는, 사용되는 하드웨어의 메모리 제약(memoryconstraint)까지, 근사 오차를 감소시키기 위해 증가될 수 있다.
도 2는 박막 코팅을 갖는 웨이퍼 디스크의 메쉬형 표현(meshedre프리젠테이션)(200)을 예시한다. 예시적인 웨이퍼 보우 시그니처(1000x에 의한 Z)를 위한 포지션(202)에 따른 면내 변위(z=0 평면에서의 포지션 변화의 크기)의 플롯이 또한 도시된다.
FEA 시스템은 3.1 절에서 설명된 편미분 방정식 시스템을 사용하여 지정된다. 단일 디리클레 경계 조건이 점 ux(0,0)=0에서 제공된다; uy(0,0)=0; uz(0,0)=0이며, 그리고 노이만 조건은 (웨이퍼와 교정 필름 사이의 열 팽창 계수 오프셋을 규정함으로써) 열 경계 하중으로부터 결정된다. 가우스-뉴턴 반복 방식을 채택하는 비선형 솔버는 대략적인 결과를 주기 위해 FEM 시스템을 해결한다. 해결책이 임의의 방향으로 경사질 수 있기 때문에, 점 Dirichlet 조건만을 특정하는 것은 무한 해결책 세트로 이어지는 것을 유의해야한다. 우리는 이것을 설명하고, 및 모드들에 대한 ca 계수들이 정확하게 0일 때까지 해결책을 경사지게 함으로써 독특한 해결책을 제공한다.
FEM 모델은 사용되는 특정한 실리콘 웨이퍼로부터의 지식 및 교정 필름에 대한 정보를 포함한다. 강성 텐서(C)는 관심 있는 실리콘 결정 구조,(예컨대, c-Si(100) 또는 c-Si(111))[4]를 위해 공개된 재료 특성들을 사용한다. 웨이퍼 결정 구조가 입방체이고, 따라서 등방성 구조적 거동을 가지며, 그리고 강성 텐서는 (등방성 재료들에서와 같이 단순히 탄성 계수 및 푸아송 비보다는) 3개의 매개변수들로 설명될 수 있는 것을 유의해야한다. 웨이퍼 치수들(두께 및 반경)은 관심 공정에서 사용되는 웨이퍼에 기초하여 특정된다. 또한, 교정 필름 응력 값은 공정에서 관심 교정 필름을 사용하여 특정된다. 통상적으로, 응력 값은 수개의 공지된 두께들에서 균일한 필름의 증착과 함께 간단한 실험을 사용하고 그리고 측정된 웨이퍼 보우를 달성하는 온도 차이-열 팽창 계수 제품을 규정하는 것을 사용하여 교정된다. 최종적으로, 인쇄가능한 영역은 교정 필름 증착 툴의 제한들을 사용하여 특정된다(통상적으로, 교정 필름을 증착하는 것이 실행가능하지 않은 웨이퍼의 주변부에 가까운 영역이 존재한다).
4.3 교정 필름 패턴 최적화 프레임워크
교정 필름 패턴 최적화 프레임워크(102)는 도 1b에서 도시되는 바와 같이 FEM 솔버(100)의 최상부 상에 구축된다. 최적화 프레임워크는 웨이퍼 형상들(104)의 데이터세트를 입력으로서 취한다. 데이터세트(104)에서의 각각의 요망된 웨이퍼 형상 변형(128)을 위해, 최적화 프레임워크는 이러한 형상 변형을 달성할 FEM 솔버(100)에 의해 예측되는 바와 같이 (Zernike 계수들(126)에 의해 매개변수화되는) 최고의 교정 필름 패턴을 발견한다. 이러한 방식으로, 최적화 프레임워크는 웨이퍼 형상 변형들의 데이터세트(104)로부터 대응하는 교정 필름 패턴들의 데이터세트(106)를 생성한다. 요망되는 웨이퍼 형상 변형(128)은 통상적으로 총 웨이퍼 보우(교정 필름 증착 이전의 웨이퍼 보우 시그니처에 음의 값)를 최소화할 변형, 또는 오버레이 오차를 최소화하도록 공지된 형상 변형이다. 보정 필름 패턴은 규정된 수의 Zernike 다항식들(126)을 사용하여 파라미터화되며, 여기서 c_a 계수들은 보정 필름 패턴을 규정하는 파라미터들이다. 골격은 FEM 솔버(100)로부터의 현재 예측된 웨이퍼 형상 변형(124)이 요망되는 형상 변형(128)에 충분히 가깝게 수렴했는지를 블록(132)에서 확인한다. 최적화 동안 최소화하기 위한 비용 함수는 바람직하게는, 요망되는 형상 변형(128)과 예측된 웨이퍼 형상 변형(124)으로 달성되는 형상 변형 사이의 절대 차이로서 규정된다. FEM 솔버(100)에 입력된 Zernike 계수들은 Levenburg-Marquardt 알고리즘(130)을 사용하여 최적화된다. 알고리즘의 각각의 반복 후에, 결과적인 웨이퍼 형상 변형 차이 비용 함수가 현재의 필름 패턴을 사용하여 평가된다. 비용 함수가 허용가능한 기준 내로 수렴했다면, 최적화기는 정지하였고, 현재 막 패턴(126)은 104의 웨이퍼 형상에 대응하는 인덱스로 교정 필름 패턴들(106)의 데이터세트로 저장된다. 그렇지 않으면, Zernike 계수들은 Levenberg-Marquardt 알고리즘에 의해 지시되는 바와 같이 수정되고, 최적화기는 계속된다. 예시적인 결과가 도 3에 제시되며, 이는 초기의 요망되는 웨이퍼 형상 변형(300), 공제된 1차 보우 컴포넌트(302)를 갖는 입력 웨이퍼 형상 변형, 및 필름 패턴 최적화(304)에 의해 복귀된 필름 패턴 해결책(304)을 도시한다.
4.4 훈련 데이터 세트 생성
최적화 프레임워크(102)는 대리 모델(108)을 훈련하는 데 사용되는 데이터세트를 생성하기 위한 하나의 전략이다. 더 일반적으로, 훈련 데이터세트는 a) 실제 웨이퍼 측정들로부터 생성되고, b) FEM 웨이퍼 보우 시뮬레이션들로부터 생성되고, 그리고/또는 c) 교정 필름 최적화 프레임워크(102)를 사용하여 생성될 수 있다. (a) 및 (b)를 위해, 막 패턴들의 리스트가 생성되며, 여기서 막 패턴들은 Zernike 계수 기초를 사용하여 무작위로 생성될 수 있고 그리고 제조 동안 가장 이용될 가능성이 있는 막 패턴들을 향한 일부 편향을 가질 수 있다. (a)의 이점은 데이터 분배가 제조의 분배와 보다 근접하게 유사할 것이라는 점이다. 그러나, 실험 데이터만을 사용하여 딥 대리 모델을 처음부터 학습시키기에 충분히 큰 데이터 세트를 얻는 것은 실행 불가능할 수 있으므로, 전략(b)이 바람직할 수 있다.
데이터세트 생성 전략들(a) 및 (b)는 가능한 웨이퍼 형상 변환들의 공간을 직접적으로 열거하지 않는 단점을 가지며; 대신에, 가능성들은 “역 공간”에서, 또는 필름 패턴 공간에서 샘플링된다. 전략(c)은 요망되는 웨이퍼 형상 변형들이 직접적으로 특정되는 것을 허용하며, 이는 또한, 제조에서 요구될 가능성이 가장 큰 형상 변형들을 향하는 편향(bias)을 갖는 Zernike 계수들의 무작위 분포를 사용하여 성취될 수 있다. 20 개의 Zernike 다항식들이 사용되고 Levenberg-Marquardt 알고리즘이 수렴하기 위해 평균 10 번의 반복이 소요된다면, 전략 c)는 전략 b)와 동일한 크기의 데이터세트를 생성하는데 ~200배만큼 오래 걸릴 것이다.
기차-확인-검사 분할 전략(train-validation-test split scheme)은 보이지 않는 데이터에 대한 대리 모델의 성능을 추정하는 데 사용될 수 있다. 우리는 이러한 부류의 모델을 훈련시키는 데 필요한 데이터의 규모를 이해하기 위해 우리의 대리 모델 확인 오류가 데이터 세트 크기에 어떻게 의존하는지를 조사하기 위한 연구들을 수행하였다. 전방 모델(필름 패턴으로부터 웨이퍼 보우를 예측함)에 대한 결과들이 도 4에 도시된다. 그래프들(400, 402, 404, 406, 408, 410)은 각각 125, 250, 500, 1000, 2000, 4000의 훈련 크기들에 대한 에포크(epoch)에 대한 확인 오차를 도시한다. 이러한 업무를 위해, ~4000의 훈련 데이터세트는 1% 미만의 평균 절대 백분율 오차를 허용하는 반면, <1000의 데이터세트 크기가 사용될 때 대리 모델은 훈련 데이터에 오버피팅된다(overfit). 기차-확인 전략은 모델이 본적이 없는 데이터에 대해 잘 일반화될 것이라는 신뢰를 준다. 그러나, 훈련 데이터세트는, 제조에서 관찰될 것으로 예상되는 모든 예들이 동일한 분포로부터 나올 것이도록 주의하여 선택되어야한다. 훈련 세트가, 100 내지 500㎛의 1차 보우 및 0 내지 30㎛의 최대 절대 고차 보우를 갖는 웨이퍼들을 포함한다면, 이는, (정확한 형상이 이전에 관찰되지 않은 경우에도) 범위들 내의 웨이퍼 예들에서 잘 수행될 것이며, 그러나, 이는 이러한 범위들을 잘 벗어나는 보우 시그니처들을 가지는 웨이퍼들에 대한 보정들에 대해 열악하게 수행할 가능성이 있다.
실제로, 위의 모든 접근법들을 조합하는 데이터세트 생성 전략이 바람직할 수 있다. (전략 b 또는 c 에서) 시뮬레이션으로부터의 교정 필름 패턴들 및 대응하는 웨이퍼 형상 변형들을 포함하는 데이터세트는 처음에 대리 모델을 처음부터 훈련시키는 데 사용될 수 있다. 그 후, 실제 웨이퍼들의 보다 작은 “확인 데이터세트”는 실제 시나리오와 시뮬레이팅된 시나리오 사이의 차이들을 이해하는 데 사용될 수 있다. 제한된 데이터세트에 대한 성능을 최대화하기 위해 확인 데이터세트가 어떻게 선택될 수 있는지에 대한 더 많은 상세들이 섹션 4.6.1에서 제공된다.
4.5 기계 학습 대체 모델
도 1c는 기계 학습 대체 모델 훈련(108) 및 제조에서의 그 훈련된 모델(112)의 전개(110)의 상세들을 도시한다. 웨이퍼 보우 문제에 대해 여기서 채택된 서로 게이트 모델은 섹션 3.3에서 논의된 컨볼루션 뉴럴 네트워크(convolutional neural network) 구조에 기초한 딥 뉴럴 네트워크(deep neural network)이다. 제조(110)에서, 입력은 웨이퍼 보우 형상(wafer bow shape)(152)이며, 그리고 모델(148)은 오버레이 에러를 최소화할 새로운 형상으로 웨이퍼 형상을 변형시키기 위해 인쇄하기 위해 최고의 교정 필름(154)을 추정하는(150) 데 사용된다. 예를 들어, 하나의 목적은 웨이퍼를 가능한 한 평탄하게 만드는 것이며, 이는 오버레이 오차를 감소시킬 것이다. FEM 시뮬레이션이 교정 필름에 기초하여 웨이퍼 형상 변형을 예측할 수 있기 때문에, 요망되는 웨이퍼 형상 변형으로부터 교정 필름을 결정하는 것은 역 문제로 고려될 수 있다. 우리는, 요망되는 웨이퍼 형상 변형을 입력할 수 있고, 그 후, 교정 필름 패턴뿐만 아니라 예측된 실제 형상 변형( 비록 일부 경우들에서, 웨이퍼를 완벽하게 평탄하게 하는 것이 가능하지 않을 수 있음)을 출력할 수 있는 모델을 요망한다. 따라서, 우리의 모델은 역 모델-정방향 모델 구조를 가지며, 여기서 역 모델(140)은 웨이퍼 형상 변환 입력에 기초하여 출력으로서 필름 패턴을 결정하며, 그리고 정방향 모델(142, 144)은 필름 패턴 입력에 기초하여 출력되는 웨이퍼 형상 변환을 결정한다. 도 5는 대리 모델 구조의 추가의 상세들을 제공한다. 역 모델(500)은 웨이퍼 형상 변환(504)에 기초하여 보정 필름 패턴(508)을 출력하기 위해 컨볼루션 뉴럴 네트워크(convolutional Neural network)(506)를 사용한다. 순방향 모델(502)은 보정 필름 패턴(508)에 기초하여 웨이퍼 형상 변환(512)을 출력하기 위해 컨볼루션 뉴럴 네트워크(convolutional Neural network)(510)를 사용한다.
도 1c로 돌아가면, (제조 시에), 추정하는 동안, 요망되는 웨이퍼 형상 변형은 서로 게이트 모델(150)로 입력되며, 여기서 요망되는 웨이퍼 형상 변형은 단순히, 목적이 웨이퍼 플랫을 제조하는 것이라면, 152로부터 측정된 웨이퍼 보우 시그니처의 네거티브(negative)이다. 그 후, 모델은 추천된 교정 필름 패턴 및 그 교정 필름 패턴의 적용 시에 예측되는 결과적인 형상 변형을 복귀시킨다. 그 후, 교정 필름 패턴은 교정 필름(154)을 인쇄하기 위해 반도체 공정에서 사용된다(도 8 참조). 교정 필름의 증착 후에 예측된 잔여 보우는 입력 형상과 출력 형상 사이의 차이이다.
정방향 모델(142, 144)은 컨벌루션 UNet을 사용하며, 그리고 역 모델(140)은 Zernike CNN을 사용한다. 둘 모두는 하기에서 상세히 설명된다.
4.5.1 포워드 모델 상세들
포워드 모델(142, 144)(막 패턴으로부터 웨이퍼 형상 변형을 예측함)을 위해 사용되는 아키텍처는 컨볼루션 UNet(convolutional UNet)(도 5, 502)이다. 이러한 구조는, 인코더가 병목 상태로 다운-샘플링하고 그리고 인코더가 결과적인 출력 어레이로 업-샘플링하는 인코더-디코더 모델의 특정한 경우이다. 인코더 부분은 입력들로부터 특징들을 추출하기 위한 일련의 컨볼루션 조작들을 갖는 전형적인 컨볼루션 뉴럴 네트워크(convolutional Neural network)(CNN)와 유사하게 기능한다. 도 6은 대리 모델에서의 전방 모델의 UNet 아키텍처를 상세히 도시한다. 이는, 낮은 주파수 정보가 입력으로부터 출력으로 통과할 수 있게 하는 각각의 층에서 대칭적인 스킵 연결들을 포함한다. 인코더/다운-샘플링 섹션에서, 처음의 3개의 층들에서, 피처들의 수는 각각의 층을 배가시킨다. 인코더 섹션에서, 각각의 단계는 피처 맵(feature map)을 업샘플링한 후, 피처 채널들의 수를 감소시키기 위해 업-컨볼루션(up-convolution)이 뒤따르고, 그리고 그 후, 인코더 섹션에서 그의 시블링 층으로부터 스킵 연결로 연결한다(concatenation). 총괄적으로, UNet 아키텍처는 이미지 대 이미지 변환(image-to-image Translation) 및 이미지 분할(image segmentation)를 포함한 많은 작업에서 대안 아키텍처보다 더 작은 데이터 세트로 더 빠른 훈련과 더 나은 성능을 산출하는 것으로 입증되었다 [22-24].
도 6에서 도시되는 바와 같이, 각각의 인코더 및 디코딩 유닛은 아래 첨자 "e" 및 "d"로 각각 표시된다. 인코더 유닛(Ce64)은 (각각의 차원에서) 64개의 필터들, 4x4의 커널 크기, 2의 스트라이드 길이(각각의 차원에서), 이음에 따라 배치 정규화 및 리키 ReLU 활성화를 갖는 2D 컨볼루션 층을 나타낸다. 배치 정규화(훈련 동안 미니-배치(mini-batch)들에 의한 층에 대한 입력들의 표준화)는 딥 뉴럴 네트워크들에 대해 유용한데, 왜냐하면 그것이 훈련을 가속시키고(내부 공변량 이동(internal covariate shift)을 방지함), 일부 정규화를 제공하기 때문이다(제1 인코더 층들이 배치 정규화를 채택하지 않는다는 것에 유의함). 인코더 유닛(Cd512)이 다음에 오는 512 필터들, 4 x 4의 커널 크기, 2의 스트라이드 길이(stride length), 그리고 배치 정규화(batchnormalization) 및 ReLU 활성화가 있는 전치된(transposed) 2D 컨볼루션 층을 나타낸다. 처음의 수개의 인코더 층들은 또한, 추가의 규칙화를 위해 드롭아웃(dropout)을 채택한다. B 층은 병목 현상[심플 컨벌루션 층(simple convolution layer)]을 나타내고 A는 출력에 대한 탄(tanh) 활성화를 나타낸다. 모든 층들은 무작위 정규 분포로 초기화된 중량들을 갖는다.
실제로, 위의 일반적인 아키텍처가 사용되지만, 특정 하이퍼파라미터들은 분할된 기차-확인 데이터세트로 많은 실험들을 실행하고 그리고 확인 세트 오차를 최소화하는 하이퍼파라미터들의 세트를 선택함으로써 조정된다. 통상적으로, 평균 제곱 오차의 평균은 네트워크 훈련(예상 형상과 실제 형상 사이의 차이를 취하고, 이를 제곱한 것, 형상 전체에 걸친 평균을 취하고, 그 후 샘플들에 걸쳐 평균을 취함)에서 사용되는 메트릭이다. 아담 최적화기는 네트워크를 최적화하기 위해 전형적으로 사용된다. 확인 에러 검사에 의해 조정될 수 있는 것보다 일부 하이퍼파라미터들은 인코더 층들의 수, 각각의 층에서의 필터들의 수, 드롭아웃 층들에서의 드롭아웃 분율, 리키 ReLU의 리키 슬로프, 배치(batch) 크기, 및 아담 최적화기에 대한 학습 속도 및 베타 파라미터들을 포함한다.
추론 시간에서 편집된 서로게이트 모델(146)은 입력들을 역 모델(140), 그리고 그 다음에 정방향 모델(144)로 전송한다. 그러나, 전체 대체 모델을 훈련할 때, 제1 단계는 요망되는 데이터세트를 전방 모델에 제공하는 것이며, 여기서 필름 패턴은 UNet에 대한 입력이고 그리고 웨이퍼 형상은 출력이다. 그 후, 하이퍼파라미터들은 조정될 수 있고, 그리고 전방 모델 성능이 만족스러울 때까지, 전방 모델은 훈련될 수 있다. 그 후, 전방 모델의 중량들이 고정될 수 있으며, 그리고 모델은 아래에서 설명되는 바와 같이 역 및 편집된 모델들을 훈련하는 데 사용될 수 있다.
4.5.2 역 모델의 상세들
전방 모델(142)은 먼저, 입력으로서 필름 패턴 및 출력으로서 웨이퍼 형상 변형을 사용하여 훈련된다(trained). 그 후, 역(140) 및 편집된(146) 모델은 사전-훈련된 전방 모델을 로딩하고, 전방 모델 층들(144)에서 중량들을 고정시키고, 그 후, 입력 및 출력 둘 모두로서 웨이퍼 형상 변환을 사용하여 편집된 모델을 훈련함으로써 훈련된다. 역 모델로 Zernike CNN이 사용된다. 기본적으로, 이는 완전히 연결된 출력을 갖는 다수의 컨벌루션 층들을 갖는 CNN이며, 이는 이미지 분류를 위해 사용될 수 있는 CNN과 유사하다. 차이는, 완전히 연결된 출력에서의 마지막 조밀한 층에서의 유닛들이 위의 방정식 13에 따른 필름 패턴 형상을 구축하는 데 사용되는 Zernike 계수들을 제공하는 것이다. Zernike CNN 전략은 실제적으로 달성가능한 매끄러운 막 패턴들을 향하여 바이어싱하기 위해 출력되는 막 패턴의 규칙화를 허용한다.
Zernike CNN 역 모델의 세부사항들은 도 7에 도시된다. 입력된 웨이퍼 형상 변환은 피처 맵들을 생성하기 위해 일련의 컨볼루션 층들로 전송되며, 여기서 C64는, ReLU 활성화 및 2D와 함께, 64개의 필터들, 3x3의 커널 크기, (각각의 차원에서) 1의 스트라이드 길이를 갖는 2D 컨볼루션 층 및 2의 풀 크기를 갖는 2D 최대 풀링을 나타낸다. 마지막 컨볼루션 층 후에, 출력은 평탄화되며, 그 후, 조밀한 층에 완전히 연결되며, 여기서 D64는 64 유닛들 및 드랍아웃(dropout)을 갖는 조밀한 층을 나타낸다. D64는 N개의 Zernike 계수들(N Zernike coefficients)(등식 13에서의 ca 계수들)을 포함하는 제2 조밀한 층에 완전히 연결된다. “Z” 층은 이전 층으로부터의 cas로 등식(13)을 사용하여 웨이퍼 형상 변형을 구성한다. 결과는 tanh 활성화 및 출력으로 전송된다.
Zernike CNN은 주어진 웨이퍼 형상 변형(wafer shape transformation)이 주어진 필름 패턴을 반환한다. 훈련 동안, 각각의 입력 웨이퍼 형상 변환에 대해, 그 후, 결과적인 필름 패턴은 사전-훈련된 전방 모델(이는 주어진 필름 패턴으로 웨이퍼 형상 변형을 복귀시킴)으로 전송된다. 편집된 모델은 역 모델의 입력 형상과 전방 모델로부터의 출력 형상 사이의 차이를 최소화함으로써 훈련된다(다시 평균 제곱 오차의 평균이 오차 함수로서 통상적으로 사용됨). 전방 모델 중량들은, 단지 역 모델에서의 중량들이 변조되도록, 편집된 모델의 훈련 동안 고정된다. 역/컴파일된 모델은 또한, 훈련-확인 분할을 사용하여 확인 에러를 최소화하기 위해 초매개변수들의 세트를 선택한다. 역 모델에서 최적화될 수 있는 일부 하이퍼파라미터들은 컨볼루션 층들의 수, 각각의 층에서의 컨볼루션 필터들의 수, 조밀한 층들 및 유닛들의 수, 완전히 연결된 층들에서의 드롭아웃 분율, Zernike 모드들의 수(이는 다음의 유닛들의 수를 결정함)를 포함한다. 마지막 조밀한 층), 그리고 아담 최적화기에 대한 학습 속도 및 베타 매개변수들을 포함한다.
도 8은 웨이퍼 보우 시그니처(800) 입력 및 대리 모델에 의해 생성된 교정 필름 패턴(802) 및 예측된 잔여 선수 출력(804)의 일 예를 예시한다. 여기서, 단일의 경우에 대한 대리 모델 예측 시간은 ~0.1초(FEM보다 수십 배 더 빠름)이며, 그리고 많은 웨이퍼 형상 변형들이 동시에 처리될 때 예측 시간은 더욱 더 빠르다.
4.5.3. 대안적인 모델 구조들
섹션 4.5.1 및 4.5.2의 자세한 모델 설명은 이 작업에 대한 탁월한 성능을 입증한 단 하나의 대리 모델 개념을 제공한다. 대안적인 UNet/Zernike-CNN 설계들, 제너레이티브 adversarial 네트워크들, 또는 확률론적 인코더-디코더 네트워크들(probabilistic 인코더-디코더 네트워크들)을 포함하는, 웨이퍼 보우 교정 필름 패턴 결정을 위한 대리 모델로서 또한 사용될 수 있는 수개의 다른 모델 개념들이 존재한다.
상기에서, 우리는 전방 모델로서 UNet을 사용하고 그리고 역 모델로서 Zernike CNN을 사용하는 것을 설명하지만, 또 다른 유망한 전략들은 전방 및 역 모델 둘 모두로서 UNet을 사용하는 것, 전방 및 역 모델 둘 모두로서 Zernike CNN을 사용하는 것, 또는 역 모델로서 UNet 및 정방향 모델로서 Zernike CNN. 일반적으로, Zernike CNN은 더 큰 형상 정규화(부드러운 형상들을 향한 편향)를 제공하는 반면, UNet은 2D 함수를 더 높은 분산/노이즈로 피팅하기 위해 보다 다용도이다. 일반적으로, 실험들은, UNet 및 Zernike-CNN 둘 모두가 출력이 네트워크 비용 함수에 직접적으로 영향을 주는 전방 모델뿐만 아니라 양호하게 수행할 것임을 나타내며, 그리고 따라서, 최고의 선택은 훈련 데이터세트 크기 및 컴퓨팅 자원들에 의존할 것이다. 일반적으로, 데이터세트 크기 및 컴퓨팅 자원들이 제한하지 않는다면, UNet은 아마도 보다 다양한 웨이퍼 형상 변형들에 대한 보다 근접한 피팅을 허용할 것이다. 이에 반해, 역 모델이 훈련되는 모드(여기서, 역 모델 출력은 비용 함수에 직접적으로 영향을 미치지 않음)에서, Zernike CNN이 제공하는 매끄러운 2D 함수들을 향한 정규화 및 편향은 유익한 것으로 보이지만, 이는 또한 정확한 데이터세트에 의존할 수 있다.
다른 모델 개념은 pix2pix 모델[24]과 같은 cGAN(conditional Generative adversarial network)[25]이다. GAN 모델은, 발생기 및 식별기 모델이 서로를 속이는 것을 시도하고, 그리고 둘 모두가 시간에 걸쳐 더 나아지는 상이한 훈련 전략을 갖는다. 여기서 발생기 모델의 업무는 일부 입력 이미지에 대한 사실적인 쌍인 이미지를 생성하는 것이며, 반면에, 판별기의 업무는 입력 이미지 쌍들을 실제 또는 위조(여기서, 위조 쌍들이 발생기에 의해 제공됨)로서 분류하는 것이다. 생성기는 UNet 아키텍처를 가질 수 있으며, 그리고 판별기는 이진 분류(실제 또는 가식)를 위한 간단한 CNN 아키텍처를 가질 수 있다. 다른 전략은 전체 이미지 쌍이 실제인지 위조인지를 결정하는 대신에, 이미지를 가로지르는 작은 패치들에서 이루어지도록 패치들을 사용하는 것이다[24]. cGAN 전략은 이미지-이미지-투-이미지 병진운동 업무들(여기서, 이미지-투-이미지 병진운동은 필름 패턴에서 웨이퍼 형상으로의 변형 또는 웨이퍼 형상 변형에서 필름 패턴으로의 병진운동을 의미할 수 있음)을 위한 많은 이점들을 갖는다. 높은 주파수 정보를 블러링하는(blur) 평균 제곱 오차를 사용하여 훈련되는 모델들과는 대조적으로, 적대적 손실(adversarial loss)은 이미지들에서 높은 주파수 “날카로움(sharpness)”을 보존한다. 다른 이점은, (아마도 웨이퍼 역 보우 문제의 경우에서와 같이) 동등하게 유효한 다수의 타당한 결과 이미지들이 존재하는 경우들에서, cGAN이 다양한 가능한 양호한 해결책들의 평균보다는 하나의 구별되는 양호한 해결책을 제공할 것이라는 점이다. 이러한 이론적인 이점들에도 불구하고, 우리의 실험들은, 평균 제곱 오차로 훈련된 UNet 및 Zernike CNN 모델들이 cGAN 접근법들보다 더 양호한 결과들을 제공하고 더 안정한 훈련을 갖는다는 것을 보여준다.
다른 모델 개념은 확률론적 인코더-디코더(probabilistic encoder-decoder)이다. 이러한 전략들의 예들은 조건부 변동 오토인코더(conditional variational autoencoder) [26,27]와 확률론적 UNet [28]을 포함한다. 이러한 접근법들에서, 결과는 정확한 형상보다는 오히려 결과적인 2D 어레이 상의 각각의 포지션에서의 확률 분포이다. 우리는, 편집된 모델 전략이 필름 패턴 및 웨이퍼 형상 변형 계산들의 예상된 값을 취하는 것을 포함하며, 그래서 확률론적 접근법의 이익이 직접적으로 명백하지 않다는 것을 발견하였다. 그러나, 확률 모델을 사용하는 것은 후술하는 능동 학습 및 온라인 리훈련 단계들에서의 이점들을 가능하게 할 수 있다.
4.6 추가의 웨이퍼 보우 감소를 위한 능동식 학습
편집된 대리 모델이 FEM 데이터세트를 사용하여 처음으로부터 훈련된 후에, 모델은 실제 웨이퍼들로부터의 데이터를 사용하여 재훈련을 통해 추가적으로 개선될 수 있다. 이러한 개선들은 확인 데이터세트를 사용하여 사전-제작 또는 제작에서의 온라인으로 실현될 수 있다.
4.6.1 확인 데이터세트를 갖는 능동 학습을 사용하는 모델 개선들
섹션 4.3에서 논의되는 바와 같이, 물리적인 웨이퍼들 상의 계측을 포함하는 2차 데이터세트는 시뮬레이팅된 웨이퍼 보우 거동과 실제 웨이퍼들의 거동 사이의 임의의 차이들을 학습하는 데 사용될 수 있다. 이러한 모드에서, 데이터세트는, 샘플당 비용이 훨씬 더 크기 때문에, 시뮬레이팅된 데이터세트보다 훨씬 더 작을 수 있다. 따라서, 전문화된 능동식 학습 접근법은 확인 데이터세트에서 소량의 예들에 대한 가장 큰 모델 개선을 얻기 위해 최고의 필름 패턴들을 선택하는 데 사용된다.
능동 학습은 라벨링되지 않은 데이터가 풍부하지만 라벨링된 예들이 거의 없는 기계 학습 분야이다. 불확도 추정기는 최대 불확도를 갖는 라벨링되지 않은 예들을 결정하는데 사용되며, 그리고 이들은 이러한 예들들이 모델에 최대 이익을 제공할 것이라는 가정으로 신탁에 의해 라벨링되도록 선택된다. 그러나, 우리의 경우는 전형적인 능동식 학습 문제와 약간 상이한데, 왜냐하면 a) 데이터의 분포가 오라클(oracle)로부터의 본래 훈련과 새로운 라벨들 사이에서 상이하며, 그리고 b) 편집된 대리 모델이 결정론적이기 때문이다(이용가능한 확률 분포가 없음). 따라서, 우리는 배치 모드 “보조 모델” 접근법을 채택하며, 여기서 확률적 보조 모델이 확인 데이터 세트의 오차에 대해 훈련되며, 그 후, 샘플들은 높은 오차 및 높은 불확실성의 조합을 사용하여 다음 배치를 위해 선택된다. 실제로, 능동 학습 모델은 확인을 위해 인쇄할 필름 패턴들의 배치들을 제안하고, 그 후, 대체 모델을 이러한 새로운 확인 데이터로 업데이트하고, 그 후, 확인을 위한 새로운 배치를 제안한다. 이러한 프로세스는 확인 데이터에 대한 모델 성능이 만족스러울 때까지 반복된다.
4.6.2 제조 동안의 온라인 모델 개선들
제조시에, 대리 모델 재훈련(158)에는 웨이퍼들의 서브셋(subset)으로부터의 하류 메트롤로지 결과들(156)의 형태의 일관된 피드백이 제공될 것이다. 이러한 데이터는 대리 모델 성능을 감시하고 그리고 필요에 따라 제조 모델(150)을 재훈련하고 그리고 업데이트하는 데 사용될 수 있다. 배치(batch) 크기, 샘플 중량, 및 모델 훈련 하이퍼파라미터들(예를 들어, 최적화기 학습 속도, 훈련 에포크들의 수, 모델 프리즈 층들 등)을 특정하는 리훈련 정책이 구현될 것이다. 계측 데이터가 모델로 전송됨에 따라, 재훈련 정책에 따라 재훈련이 발생할 것이며, 새로운 데이터 내의 훈련-확인-검사 분할들은 현재 전개된 모델들에 대한 이익을 결정하는데 사용될 것이다(여기서, 확인은 최고의 재훈련을 결정하는데 사용되며, 그 후, 검사 세트는 본적이 없는 데이터에 대한 새로운 모델의 성능을 추정하는데 사용됨). 상당한 이익이 검출될 때, 처리 소유자에게는, 새로운 모델이 이용가능하고 업데이트를 배치할 때를 결정할 수 있는 것이 경보될 것이다. 이러한 프로세스는 동적 제조 환경에서 데이터세트 표류에 견고한 대리 모델을 가능하게 한다.
문헌들
(1) Brunner, T. A.; Menon, V. C.; Wong, C. W.; Gluschenkov, O.; Belyansky, M. P.; Felix, N. M.; Ausschnitt, C. P.; Vukkadala, P.; Veeraraghavan, S.; Sinha, J. K. Characterization of Wafer Geometry and Overlay Error on Silicon Wafers with Nonuniform Stress. Journal of Micro/Nanolithography, MEMS, and MOEMS. 2013, p 043002. https://doi.org/10.1117/1.jmm.12.4.043002.
(2) Brunner, T.; Menon, V.; Wong, C.; Felix, N.; Pike, M.; Gluschenkov, O.; Belyansky, M.; Vukkadala, P.; Veeraraghavan, S.; Klein, S.; Hoo, C. H.; Sinha, J. Characterization and Mitigation of Overlay Error on Silicon Wafers with Nonuniform Stress. Optical Microlithography XXVII. 2014. https://doi.org/10.1117/12.2045715.
(3) Veeraraghaven, S.; Turner, K. T.; Sinha, J. Simulation of Non-Uniform Wafer Geometry and Thin Film Residual Stress on Overlay Errors. Metrology, Inspection, and Process Control for Microlithography XXV. 2011. https://doi.org/10.1117/12.879493.
(4) Janssen, G. C. A. M.; Abdalla, M. M.; van Keulen, F.; Pujada, B. R.; van Venrooy, B. Celebrating the 100th Anniversary of the Stoney Equation for Film Stress: Developments from Polycrystalline Steel Strips to Single Crystal Silicon Wafers. Thin Solid Films 2009, 517 (6), 1858-1867.
(5) Chen, C.-M.; Yu, C.-Y.; Tsai, C.-S.; Hwang, H.-Y. D. Reducing Wafer Distortion through a Low CTE Layer. 8476146, July 2, 2013.
(6) O'rourke, S.; Loy, D.; Jiang, H. Assemblies and Methods for Reducing Warp and Bow of a Flexible Substrate during Semiconductor Processing, 2014.
(7) Storck, P.; Sachs, G.; Rothammer, U.; Thapa, S. B.; Schwenk, H.; Dreier, P.; Muemmler, F.; Mayrhuber, R. Layered Semiconductor Substrate with Reduced Bow Having a Group III Nitride Layer and Method for Manufacturing It. 10192739, January 29, 2019.
(8) Moore, J. T.; Deboer, S. J.; Fischer, M. Semiconductor Wafer Assemblies Comprising Silicon Nitride, Methods of Forming Silicon Nitride, and Methods of Reducing Stress on Semiconductive Wafers. 5985771, November 16, 1999.
(9) Hooge, J.; Ip, N.; Estrella, J.; deVilliers, A. Amelioration of Global Wafer Distortion Based on Determination of Localized Distortions of a Semiconductor Wafer. 10622233, April 14, 2020.
(10) Devilliers, A. J.; Mathews, T. A. Systems and Methods for Generating Backside Substrate Texture Maps for Determining Adjustments for Front Side Patterning, 2015.
(11) Kang, H.; deVilliers, A. J. Substrate Holding Apparatus and Method for Shape Metrology. 20190283218:A1, September 19, 2019.
(12) Devilliers, A. J.; Fulford, D. Location-Specific Tuning of Stress to Control Bow to Control Overlay in Semiconductor Processing, 2019.
(13) Devilliers, A. J. Method for Correcting Wafer Bow from Overlay, 2017.
(14) Wallace, J. M.; Hommema, J. A.; Searles, K. H.; Hsu, S.-Y.; Wan, J.; Grueschow, E. R. Space-Time Surrogate Models of Subterranean Regions. 9043189, May 26, 2015.
(15) Lam, K. P.; Lee, Y. M.; Liu, F.; Snowdon, J. L.; Yang, J.; Zhang, R. Optimal Selection of Building Components Using Sequential Design via Statistical Based Surrogate Models. 20140365180:A1, December 11, 2014.
(16) Itu, L. M.; Passerini, T.; Sharma, P. Method and System for Personalized Non-Invasive Hemodynamic Assessment of Renal Artery Stenosis from Medical Images. 10595790, March 24, 2020.
(17) Usadi, A.; Li, D.; Parashkevov, R.; Terekhov, S. A.; Wu, X.; Yang, Y. Methods and Systems for Machine-Learning Based Simulation of Flow. 9187984, November 17, 2015.
(18) Tallman, J. A.; Tucker, E.; Zacharias, R.; Gallo, A.; Russo, V. Autonomous Surrogate Model Creation Platform. 20200042659:A1, February 6, 2020.
(19) Feng, X.; Huang, Y.; Rosakis, A. J. On the Stoney Formula for a Thin Film/Substrate System With Nonuniform Substrate Thickness. J. Appl. Mech. 2007, 74 (6), 1276-1281.
(20) Pureza, J. M.; Lacerda, M. M.; De Oliveira, A. L.; Fragalli, J. F.; Zanon, R. A. S. Enhancing Accuracy to Stoney Equation. Appl. Surf. Sci. 2009, 255 (12), 6426-6428.
(21) Zernike, von F. Beugungstheorie Des Schneidenver-Fahrens Und Seiner Verbesserten Form, Der Phasenkontrastmethode. Physica 1934, 1 (7), 689-704.
(22) Ronneberger, O.; Fischer, P.; Brox, T. U-Net: Convolutional Networks for Biomedical Image Segmentation. In Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015; Springer International Publishing, 2015; pp 234-241.
(23) Jansson, A.; Humphrey, E.; Montecchio, N.; Bittner, R.; Kumar, A.; Weyde, T. Singing Voice Separation with Deep U-Net Convolutional Networks; openaccess.city.ac.uk, 2017.
(24) Isola, P.; Zhu, J.-Y.; Zhou, T.; Efros, A. A. Image-to-Image Translation with Conditional Adversarial Networks. In Proceedings of the IEEE conference on computer vision and pattern recognition; openaccess.thecvf.com, 2017; pp 1125-1134.
(25) Goodfellow, I. J.; Pouget-Abadie, J.; Mirza, M.; Xu, B. Generative Adversarial Networks. arXiv preprint arXiv 2014.
(26) Kingma, D. P.; Welling, M. Auto-Encoding Variational Bayes. arXiv [stat.ML], 2013.
(27) Rezende, D. J.; Mohamed, S.; Wierstra, D. Stochastic Backpropagation and Approximate Inference in Deep Generative Models. In Proceedings of the 31st International Conference on Machine Learning; Xing, E. P., Jebara, T., Eds.; Proceedings of Machine Learning Research; PMLR: Bejing, China, 2014; Vol. 32, pp 1278-1286.
(28) Kohl, S. A. A.; Romera-Paredes, B.; Meyer, C.; De Fauw, J.; Ledsam, J. R.; Maier-Hein, K. H.; Ali Eslami, S. M.; Rezende, D. J.; Ronneberger, O. A Probabilistic U-Net for Segmentation of Ambiguous Images. arXiv [cs.CV], 2018.
Claims (9)
- 반도체 웨이퍼 제조 공정에서 웨이퍼 보우(wafer bow)를 감소시키기 위한 보정 필름 패턴(corrective film pattern)을 생성하기 위한 방법으로서, 상기 방법은,
미리 정해진 반도체 제조 단계를 위한 웨이퍼 보우 시그니처(wafer bow signature)를 뉴럴 네트워크(neural network)에 입력하는 단계;
상기 뉴럴 네트워크에 의해, 상기 웨이퍼 보우 시그니처에 대응하는 보정 필름 패턴을 생성하는 단계;
상기 뉴럴 네트워크는 웨이퍼 형상 변환들 및 대응하는 교정 필름 패턴들의 훈련 데이터세트로 훈련되는,
보정 필름 패턴을 생성하기 위한 방법. - 제1 항에 있어서,
상기 훈련 데이터세트는 상기 미리 정해진 반도체 제조 단계를 위한 웨이퍼 형상 변환들로부터 상기 교정 필름 패턴들을 계산하기 위해 시뮬레이션(simulation)을 사용하여 생성되는,
보정 필름 패턴을 생성하기 위한 방법. - 제1 항에 있어서,
상기 훈련 데이터세트는 상기 웨이퍼 형상 변형들에 대응하는 상기 교정 필름 패턴들을 실험적으로 결정함으로써 생성되는,
보정 필름 패턴을 생성하기 위한 방법. - 제1 항에 있어서,
상기 훈련 데이터세트는 선형 탄성 문제를 해결하기 위해 유한 요소 방법을 사용하여, 그리고 비용 함수를 최소화하는 상기 웨이퍼 형상 변환들을 선택하기 위해 최적화 프레임워크(optimization framework)를 사용하여 생성되는,
보정 필름 패턴을 생성하기 위한 방법. - 제1 항에 있어서,
상기 뉴럴 네트워크를 리파인하기(refine) 위해 능동 학습 피드백(active learning feedback)을 수행하는 단계를 더 포함하는,
보정 필름 패턴을 생성하기 위한 방법. - 제1 항에 있어서,
상기 뉴럴 네트워크는 조건부 변동 오토인코더(conditional variational autoencoder)로서 구현되는,
보정 필름 패턴을 생성하기 위한 방법. - 제1 항에 있어서,
상기 뉴럴 네트워크는 조건적인 생성 적대 네트워크(conditional generative adversarial network)로서 구현되는,
보정 필름 패턴을 생성하기 위한 방법. - 제7 항에 있어서,
상기 조건적인 생성 적대 네트워크는 스킵 연결들을 갖는 U-네트(Net)으로서 구현되는 생성기를 포함하는,
보정 필름 패턴을 생성하기 위한 방법. - 제7 항에 있어서,
상기 조건적 생성 적대 네트워크(conditional generative adversarial network)는 컨볼루션 분류기(convolutional classifier)로서 구현되는 구별기(discriminator)를 포함하는,
보정 필름 패턴을 생성하기 위한 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/359,626 | 2021-06-27 | ||
US17/359,626 US20220415683A1 (en) | 2021-06-27 | 2021-06-27 | Method for determining corrective film pattern to reduce semiconductor wafer bow |
PCT/US2022/034138 WO2023278190A1 (en) | 2021-06-27 | 2022-06-20 | Method for determining corrective film pattern to reduce semiconductor wafer bow |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240027069A true KR20240027069A (ko) | 2024-02-29 |
Family
ID=84542491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020247003096A KR20240027069A (ko) | 2021-06-27 | 2022-06-20 | 반도체 웨이퍼 보우를 감소시키기 위한 교정 필름 패턴을 결정하기 위한 방법 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220415683A1 (ko) |
EP (1) | EP4364190A1 (ko) |
JP (1) | JP2024528486A (ko) |
KR (1) | KR20240027069A (ko) |
WO (1) | WO2023278190A1 (ko) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003087746A2 (en) * | 2002-04-09 | 2003-10-23 | The Board Of Trustees Of The University Of Illinois | Methods and systems for modeling material behavior |
US20080182344A1 (en) * | 2007-01-30 | 2008-07-31 | Steffen Mueller | Method and system for determining deformations on a substrate |
US8024188B2 (en) * | 2007-08-24 | 2011-09-20 | Robert Bosch Gmbh | Method and system of optimal selection strategy for statistical classifications |
US10346740B2 (en) * | 2016-06-01 | 2019-07-09 | Kla-Tencor Corp. | Systems and methods incorporating a neural network and a forward physical model for semiconductor applications |
JP7164289B2 (ja) * | 2016-09-05 | 2022-11-01 | 東京エレクトロン株式会社 | 半導体プロセッシング中のオーバレイを制御するための湾曲を制御する応力の位置特定チューニング |
US20190279043A1 (en) * | 2018-03-06 | 2019-09-12 | Tazi AI Systems, Inc. | Online machine learning system that continuously learns from data and human input |
US11263737B2 (en) * | 2019-01-10 | 2022-03-01 | Lam Research Corporation | Defect classification and source analysis for semiconductor equipment |
US11042981B2 (en) * | 2019-07-12 | 2021-06-22 | SVXR, Inc. | Methods and systems for printed circuit board design based on automatic corrections |
US11676007B2 (en) * | 2019-07-29 | 2023-06-13 | Autodesk, Inc. | Defect removal from manufactured objects having morphed surfaces |
WO2021100184A1 (ja) * | 2019-11-21 | 2021-05-27 | 日本電信電話株式会社 | 学習装置、推定装置、学習方法および学習プログラム |
-
2021
- 2021-06-27 US US17/359,626 patent/US20220415683A1/en active Pending
-
2022
- 2022-06-20 EP EP22833915.6A patent/EP4364190A1/en active Pending
- 2022-06-20 JP JP2023579408A patent/JP2024528486A/ja active Pending
- 2022-06-20 WO PCT/US2022/034138 patent/WO2023278190A1/en active Application Filing
- 2022-06-20 KR KR1020247003096A patent/KR20240027069A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
EP4364190A1 (en) | 2024-05-08 |
US20220415683A1 (en) | 2022-12-29 |
WO2023278190A1 (en) | 2023-01-05 |
JP2024528486A (ja) | 2024-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI632627B (zh) | 程序引入失真之預測以及疊對誤差之前饋及反饋校正 | |
Takeishi et al. | Learning Koopman invariant subspaces for dynamic mode decomposition | |
CN107908071B (zh) | 一种基于神经网络模型的光学邻近校正方法 | |
Nabian et al. | A deep neural network surrogate for high-dimensional random partial differential equations | |
CN108535952B (zh) | 一种基于模型驱动卷积神经网络的计算光刻方法 | |
CN101751502B (zh) | 用于光刻过程窗口最大化光学邻近效应校正的方法和系统 | |
US9638994B2 (en) | Method and system for optical proximity correction (OPC) | |
CN112445131A (zh) | 一种线性系统自适应最优跟踪控制方法 | |
CN108490735A (zh) | 全芯片掩模图案生成的方法、装置及计算机可读介质 | |
TW202101111A (zh) | 製造半導體元件之方法 | |
US20060009957A1 (en) | Method for determining a matrix of transmission cross coefficients in an optical proximity correction of mask layouts | |
JP7074090B2 (ja) | 深度超解像装置、深度超解像方法、及びプログラム | |
CN111310407A (zh) | 基于机器学习进行逆向光刻最优特征向量设计的方法 | |
CN108228981A (zh) | 基于神经网络的opc模型生成方法及实验图案的预测方法 | |
CN110244523A (zh) | 一体化光刻方法及光刻系统 | |
KR20240027069A (ko) | 반도체 웨이퍼 보우를 감소시키기 위한 교정 필름 패턴을 결정하기 위한 방법 | |
Baldi et al. | Assessment of h-refinement procedure for global digital image correlation | |
US20230141388A1 (en) | Device and method for generating photomasks | |
Shi et al. | Physics based feature vector design: a critical step towards machine learning based inverse lithography | |
Wu et al. | Attitude estimation based on robust information cubature quaternion filter | |
Yang et al. | Non-linearity corrections of tapered baw transducers for accurate fft computation using ultrasonic wavefront computing | |
Jia et al. | Stochastic gradient descent for robust inverse photomask synthesis in optical lithography | |
Shamsuddin et al. | Three term backpropagation algorithm for classification problem | |
KR20160003644A (ko) | 레벨 세트를 이용한 막 성장 모델 | |
WO2020003450A1 (ja) | データ処理システムおよびデータ処理方法 |