KR20230162770A - 탐색 장치 및 탐색 방법 그리고 반도체 장치 제조 시스템 - Google Patents
탐색 장치 및 탐색 방법 그리고 반도체 장치 제조 시스템 Download PDFInfo
- Publication number
- KR20230162770A KR20230162770A KR1020237021079A KR20237021079A KR20230162770A KR 20230162770 A KR20230162770 A KR 20230162770A KR 1020237021079 A KR1020237021079 A KR 1020237021079A KR 20237021079 A KR20237021079 A KR 20237021079A KR 20230162770 A KR20230162770 A KR 20230162770A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- model
- processing
- learning
- learning model
- Prior art date
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims description 159
- 239000004065 semiconductor Substances 0.000 title claims description 24
- 238000012545 processing Methods 0.000 claims abstract description 297
- 238000013526 transfer learning Methods 0.000 claims abstract description 95
- 238000010801 machine learning Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 119
- 238000004088 simulation Methods 0.000 claims description 31
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 4
- 230000001172 regenerating effect Effects 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 description 36
- 238000005530 etching Methods 0.000 description 30
- 238000012795 verification Methods 0.000 description 17
- 150000002500 ions Chemical class 0.000 description 15
- 238000011165 process development Methods 0.000 description 13
- 238000012360 testing method Methods 0.000 description 11
- 238000005457 optimization Methods 0.000 description 8
- 238000013400 design of experiment Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000002790 cross-validation Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000013524 data verification Methods 0.000 description 2
- 238000001312 dry etching Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010894 electron beam technology Methods 0.000 description 2
- 238000005468 ion implantation Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000010884 ion-beam technique Methods 0.000 description 1
- 238000004093 laser heating Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000001459 lithography Methods 0.000 description 1
- 230000003647 oxidation Effects 0.000 description 1
- 238000007254 oxidation reaction Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000005240 physical vapour deposition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000004544 sputter deposition Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000004506 ultrasonic cleaning Methods 0.000 description 1
- 238000007740 vapor deposition Methods 0.000 description 1
- 238000001039 wet etching Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L21/00—Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
- H01L21/02—Manufacture or treatment of semiconductor devices or of parts thereof
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Power Engineering (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Drying Of Semiconductors (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
유저는 기계 학습의 전문적인 지식을 필요로 하지 않고, 축적된 많은 참조 처리 데이터 중에서 목표 처리 조건을 탐색하기 위해서 최적의 참조 처리 데이터를 활용할 수 있도록 하기 위하여, 반도체 제조 장치의 원하는 처리 결과에 대응하는 제조 조건이 학습 모델을 이용하여 예측되는 것에 의해 원하는 처리 결과에 대응하는 제조 조건이 탐색되는 탐색 장치에 있어서, 제1 데이터와 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 생성되고, 생성된 학습 모델에 의해 소정의 판정 기준이 만족되지 않는 경우, 제1 데이터와, 추가된 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 재생성 되도록 구성했다.
Description
본 발명은, 원하는 처리 결과를 실현하는 제조 조건을 탐색하는 탐색 장치 및 탐색 방법 그리고 반도체 장치 제조 시스템에 관한 것이다.
반도체 제조에서는 원하는 처리 결과를 얻기 위하여 적절한 처리 조건이 설정될 필요가 있다. 계속적인 반도체 디바이스의 미세화·처리 제어 파라미터 증가에 수반하여, 향후 원하는(기차(機差) 억제 또는 고정밀도)의 처리 결과를 얻기 위한 처리 조건은 기계 학습에 의해 도출될 것으로 생각된다. 여기에서 처리 조건은, 처리 장치의 적어도 하나 이상의 제어 파라미터의 항목으로 이루어진다.
최근, 신재료의 도입이나 디바이스 구조의 복잡화에 수반하는 처리 장치의 제어 범위의 확대에 의해, 처리 조건에 새로운 항목이 다수 추가되고 있다. 처리 장치의 성능을 충분히 이끌어내기 위해서는 처리 조건의 최적화가 불가피하다. 이 때문에, 프로세스 개발자가 요구하는 양호한 처리 결과를 실현하는 처리 조건을 기계 학습에 의해 도출하는 방법이 주목되고 있다. 여기에서 처리 결과는, 처리가 실시된 시료의 형상이나 성질 등을 나타내는, 적어도 하나 이상의 항목으로 이루어진다. 이하, 이 양호한 처리 결과를 「목표 처리 결과」라고 한다.
목표 처리 결과에 대하여, 실리콘(Si) 웨이퍼(11) 상의 피(被)에칭재에 대한 에칭 프로세스의 예를 이용하여 설명한다. 도 1에 웨이퍼 전체 및 에칭 프로세스 후에 있어서의 Si 웨이퍼(11) 표면의 중앙 부근(12) 및 에지 부근(13)에 있어서의 2개소의 단면(斷面)도를 나타낸다. Si 웨이퍼(11)의 표면에 형성된 피에칭재(14)를 에칭에 의해 제거하고, 파선으로 나타낸 에칭 전 표면(16)의 높이와의 차분(差分)을 계측함으로써, 그 부위에 있어서의 에칭량(15)을 견적할 수 있다.
에칭량(15)의 면내 분포 데이터나 에칭에 요한 시간으로부터, 에칭 속도나 에칭 속도의 면내 균일성 등을 산출할 수 있다. 이제, 에칭 속도가 처리 결과의 항목이라고 하면, 목표 처리 결과는, 「50nm/min의 에칭 속도」, 「면내 불균일 5% 이내로 20nm의 에칭량」이라 하는 소정의 값 또는 소정의 값의 범위로 정의된다. 이와 같은 목표 처리 결과를 실현하는 처리 조건을 「목표 처리 조건」이라 한다.
목표 처리 조건을 기계 학습에 의해 도출하는 방법은, 일반적으로는 이하의 수순으로 실시된다. 우선, 목표 처리 결과를 설정한다. 한편, 복수의 기초 처리 조건을 결정하여 시료에 대해서 기초 처리 조건에 의거한 처리를 실행하고, 기초 처리 조건과 그 처리 결과로 이루어지는 처리 데이터를 취득하여, 초기 처리 데이터베이스를 구축한다. 초기 처리 데이터베이스에 의거한 기계 학습에 의해, 기초 처리 조건과 그 처리 결과 사이의 상관관계를 기술하는 모델을 추정한다. 이하, 이와 같은 모델에 대하여, 처리 조건을 입력 x, 그 처리 결과를 출력 y라고 하면, 입출력 관계 y=f(x)를 기술하는 모델이므로, 입출력 모델이라 한다. 추정한 입출력 모델에 의거하여, 목표 처리 결과를 만족하는 처리 조건(「예측 처리 조건」이라 함)을 예측한다.
이어서, 얻어진 예측 처리 조건을 사용하여 검증 실험을 실시한다. 즉, 예측 처리 조건에 의거한 처리를 실행하고, 얻어진 처리 결과가 목표 처리 결과인지의 여부를 판별한다. 목표 처리 결과가 얻어졌을 경우는 예측 처리 조건을 목표 처리 조건으로 하여, 검증 실험을 종료한다. 이것에 대해서, 목표 처리 결과가 얻어지지 않았을 경우는, 검증 실험에서 얻어진 처리 데이터를 데이터베이스에 추가하여 입출력 모델을 갱신하고, 목표 처리 결과가 얻어질 때까지 처리 조건의 예측과 검증 실험을 반복한다.
이와 같은 목표 처리 조건의 도출법에서는, 목표 처리 조건의 예측에 사용하는 입출력 모델의 정밀도가 중요해진다. 도 2는, 처리 조건과 처리 결과의 상관관계(입출력 관계)를 나타내는 그래프이다. 여기에서, 파선(21)이 참(眞)의 입출력 관계인 것에 대해, 실선(22), 일점 쇄선(23)은 각각 입출력 모델(A), 입출력 모델(B)의 나타내는 입출력 관계인 것으로 한다. 입출력 모델의 정밀도는, 파선으로 나타낸 참의 입출력 관계와의 유사도로서 평가할 수 있다. 이 경우, 입출력 모델(A)(실선(22))의 입출력 관계는 참의 입출력 관계(파선(21))와 유사하고 있어, 입출력 모델(A)의 정밀도는 높다. 한편, 입출력 모델(B)(일점 쇄선(23))의 입출력 관계는 참의 입출력 관계(파선(21))와 괴리하고 있어, 입출력 모델(B)의 정밀도는 낮다.
정밀도가 낮은 입출력 모델에 의거하여 얻어지는 예측 처리 조건에 의한 처리 결과는, 목표 처리 결과와 괴리한 결과가 될 가능성이 높다. 따라서 목표 처리 조건이 얻어질 때까지의 검증 실험의 횟수가 증가한다. 이것에 의해 프로세스 개발 기간, 및 실험비나 인건비 등의 프로세스 개발 코스트가 증가한다. 이와 같은 사태를 피하기 위해서는, 입출력 모델의 정밀도를 향상시킬 필요가 있다.
입출력 모델의 정밀도를 향상시키기 위하여, 미리 대규모의 초기 처리 데이터베이스를 구축해 두는 방법이 생각된다. 그러나, 이 방법에서는, 초기 처리 데이터베이스의 구축 때문에 다수 처리를 반복하는 것이 필요하며, 프로세스 개발 기간 및 프로세스 개발 코스트를 삭감하는 근본적인 해결이 되지 않는다.
초기 처리 데이터베이스를 구축하기 위한 처리 데이터의 취득 수를 억제하면서, 입출력 모델의 정밀도를 향상시키는 방법으로서, 처리 조건을 도출하려고 하는 프로세스(「대상 프로세스」라고 함)와는 다른 프로세스에서 취득한 처리 데이터를 활용하는 방법이 있다. 구체적으로는, 대상 프로세스와는 다른 프로세스(「참조 프로세스」라고 함)에서 취득한 처리 데이터(「참조 처리 데이터」라고 함)의 데이터베이스(「참조 처리 데이터베이스」라고 함)에 의거하여, 참조 프로세스에 있어서의 입출력 관계를 기술하는 입출력 모델(「참조 입출력 모델」이라 함)을 추정하고, 추정된 참조 입출력 모델을 대상 프로세스에서의 예측을 위하여 참조한다.
특허문헌 1에는, 「시료에 대해서 행해지는 처리의 제어 파라미터를 결정하는 계산기로서, 처리가 행해진, 제조에 이용되는 제1 시료를 계측함에 의해서 얻어지는 제1 처리 출력과, 처리가 행해진, 제1 시료보다 계측이 용이한 제2 시료를 계측함에 의해서 얻어지는 제2 처리 출력 사이의 상관관계를 나타내는 제1 모델, 및 제2 시료에 대해서 행해진 처리의 제어 파라미터와, 제2 처리 출력 사이의 상관관계를 나타내는 제2 모델을 저장하는 기억부와, 목표가 되는 상기 제1 처리 출력인 목표 처리 출력, 제1 모델, 및 제2 모델에 의거하여, 제1 시료에 대해서 행해지는 처리의 목표 제어 파라미터를 산출하는 해석부를 구비함」으로써, 「프로세스 개발에 드는 코스트를 억제하여, 최적의 제어 파라미터를 산출할 수 있음」이 기재되어 있다. 또한 특허문헌 1에서는, 제2 시료인 대용 시료의 처리 출력의 변수를 A로 하고, 제1 시료인 실제 시료의 처리 출력의 변수를 B로 했을 때, 「B가 클수록 A도 크다는 정성적인 실제 시료 - 대용 시료 관계 모델」을 제1 모델로서 사용하는 것이 실시예로서 기재되어 있다.
특허문헌 2에는, 「대상 프로세스의 처리 조건을 탐색하는 처리 조건 탐색 장치로서, 상기 대상 프로세스에 있어서의 목표 처리 결과를 설정하는 목표 처리 결과 설정부와, 상기 대상 프로세스에 있어서의 처리 조건과 처리 결과의 조합인 대상 처리 데이터를 저장하는 처리 데이터베이스와, 참조 프로세스에 있어서의 처리 조건과 처리 결과의 조합인 참조 처리 데이터를 저장하는 참조 처리 데이터베이스를 포함하는 학습 데이터베이스와, 상기 대상 처리 데이터 이용하여, 상기 대상 처리 데이터의 처리 조건을 대상 설명 변수, 처리 결과를 대상 목적 변수로 하고, 상기 대상 설명 변수와 상기 대상 목적 변수 사이의 입출력 모델인 상기 대상 프로세스의 입출력 모델을 추정하는 교사 있음 학습 실행부와, 상기 참조 처리 데이터의 처리 조건을 참조 설명 변수, 처리 결과를 참조 목적 변수로 하고, 상기 참조 설명 변수와 상기 참조 목적 변수 사이의 참조 입출력 모델 및 상기 대상 처리 데이터를 이용하여 상기 대상 프로세스의 입출력 모델을 추정하는 전이(轉移) 학습 실행부와, 상기 교사 있음 학습 실행부와 상기 전이 학습 실행부 중 어느 것에 의해서 상기 대상 프로세스의 입출력 모델을 추정할 것인지를 판단하는 전이 가부 판단부와, 상기 대상 프로세스의 입출력 모델을 이용하여, 상기 목표 처리 결과를 실현하는 처리 조건을 예측하는 처리 조건 예측부를 갖는」것으로, 「프로세스 개발 기간이나 프로세스 개발 코스트를 억제하면서, 목표 처리 조건을 탐색하는 것」이 기재되어 있다.
또한 특허문헌 2에서는, 참조 처리 데이터로서 처리 장치에 의해 실제로 처리하여 얻어진 데이터가 아니라, 대상 프로세스에 대한 시뮬레이션에 의해 취득한 시뮬레이션 결과와 시뮬레이션 조건의 조합을 참조 처리 데이터베이스로서 사용하는 것이 실시예로서 기재되어 있다.
특허문헌 1에 기재된 처리의 제어 파라미터를 결정하는 방법에 있어서는, 제2 시료의 처리 데이터를 참조 처리 데이터로서 활용하여, 참조 입출력 모델을 추정한다. 참조 입출력 모델을 참조함으로써, 제1 시료의 처리 조건을 결정한다. 이와 같이 참조 입출력 모델을 참조하여, 대상 프로세스에서의 처리를 예측하는 방법이 효과적이기 위해서는, 몇가지 조건을 만족할 필요가 있다고 생각된다.
도 3a는, 대상 프로세스에 대해서 복수의 기초 처리 조건을 설정하여 취득한 처리 결과로 이루어지는 처리 데이터에 의거하여, 추정한 입출력 모델의 입출력 관계(실선(30))와 대상 프로세스의 참의 입출력 관계(파선(20))를 나타낸 그래프이다. 이 예에서는, 설정한 기초 처리 조건이 적고(검은 점이 처리 데이터를 나타냄, 이하 도 3b, c도 마찬가지임), 입출력 모델의 정밀도는 낮다.
도 3b는, 참조 프로세스에 대해서 참조 처리 데이터베이스에 저장된 참조 처리 데이터에 의거하여, 추정한 참조 입출력 모델의 입출력 관계(실선(31))와 참조 프로세스의 참의 입출력 관계(파선(21))를 나타낸 그래프이다. 이 예에서는, 참조 처리 데이터베이스가 대규모이기 때문에, 참조 입출력 모델의 정밀도는 높다.
도 3c는, 도 3b에 나타낸 참조 입출력 모델을 참조하는 전이 학습을 행하여 추정한 입출력 모델의 입출력 관계(실선(32))와 대상 프로세스의 참의 입출력 관계(파선(20))를 나타낸 그래프이다. 전이 학습에 이용한 대상 프로세스의 처리 데이터는 도 3a와 마찬가지지만, 대상 프로세스의 참의 입출력 관계(파선(20))와 참조 프로세스의 참의 입출력 관계(파선(21))가 유사하기 때문에, 전이 학습을 행하여 추정한 입출력 모델의 정밀도는, 도 3a에 나타낸 입출력 모델의 정밀도보다도 향상하고 있다.
여기에서, 참의 입출력 관계(f와 g)가 유사하다는 것은, 그들이 대략 일치하는 경우뿐만 아니라, 입출력 관계가 정수나 계수의 차를 제외하고 대략 일치하는 경우도 포함한다. 즉, f≒g나, f≒ag+b가 성립하는 경우이다. 예를 들면, 대상 프로세스와 참조 프로세스가 동시에 같은 시료에 대한 에칭 처리이고, 처리 시간만이 각각 10초, 100초로 서로 다를 경우, 처리 결과에 거의 10배의 차이가 있다고 해도, 기본적인 함수 특성은 공통이다. 즉, 참의 입출력 관계에 대해서 f≒10g가 성립하고, 전이 학습의 적용 효과가 기대된다.
이와 같이, 참조 프로세스의 참조 처리 데이터를 활용하는 방법(전이 학습)은, 예를 들면, 대상 프로세스와 참조 프로세스의 참의 입출력 관계가 유사하거나, 혹은 대상 처리 데이터만으로부터 추정되는 입출력 모델에 비하여, 참조 입출력 모델이 고정밀도인, 경우 등에 효과적인 한편, 이들의 조건이 만족되지 않는 경우에는 반드시 효과적이지 않다고 생각된다.
반도체 프로세스에서는 시료, 처리 장치, 처리 프로세스의 종류가 다양하기 때문에, 일반적으로 참조 처리 데이터의 후보는 수많게 존재한다. 그러나, 참조 처리 데이터의 선택에 의해서는, 기대한 만큼, 입출력 모델의 정밀도 향상을 얻을 수 없는 경우가 있다.
예를 들면, 대상 프로세스와 참조 프로세스가 같은 에칭 프로세스이고, 또한 어느 프로세스에서도 처리 결과의 항목은 에칭량이어도, 가공 대상으로 하는 시료의 피에칭막의 재료가 다를 경우는, 처리 조건에 대한 에칭 레이트의 특성이 현저히 다르다. 이 때문에 참의 입출력 관계가 애초부터 유사하지 않을 우려가 있다.
또한, 참조 입출력 모델을 추정하기 위하여 참의 입출력 관계가 유사한 참조 처리 데이터를 선택하더라도, 참조 처리 데이터가 현저히 적고, 충분히 정밀도가 높은 참조 입출력 모델을 얻을 수 없는 것이면, 참조 입출력 모델을 참조함에 의한 정밀도 향상을 얻을 수 없는 경우도 있을 수 있다.
이와 같은 부적절한 참조 처리 데이터를 활용하게 되면 예측 대상의 입출력 모델의 정밀도의 향상은 기대할 수 없고, 프로세스 개발 기간 및 프로세스 개발 코스트의 증대로 이어질 가능성이 있다.
또한, 일반적으로 기계 학습에서는 기지(旣知)의 입력 데이터와 출력 데이터를 기초로 하여 모델이 학습을 행하기 때문에, 한번 학습을 마친 모델을 전이 학습 등에 의해 재사용할 때, 모델에 입력하는 입력 데이터의 설명 변수는 학습 시에 입력했던 것과 값은 다르더라도 동등한 설명 변수가 입력될 필요가 있다. 예를 들면, 「온도」「압력」「처리 시간」의 3개의 입력 조건에 의해「에칭량」을 예측하는 학습 완료 모델이 있었을 경우, 이 모델에 「전력」을 입력하여 「에칭량」을 예측할 수 없다. 또한 「온도」가 빠진 데이터를 부여할 수도 없고, 무언가의 값을 입력해야 한다.
특허문헌 2에서는 전이 학습 실행부가, 참조 입출력 모델 및 대상 처리 데이터를 이용하여 학습을 행하고 있다. 이 경우, 기본적으로는 참조 입출력 모델의 입력과 대상 처리 데이터의 설명 변수는 대응하고 있는 경우가 많다고 생각되지만, 상기 「참조 처리 데이터로서 처리 장치에서 실제로 처리하여 얻어진 데이터가 아니라, 대상 프로세스에 대한 시뮬레이션에 의해 취득한 시뮬레이션 결과와 시뮬레이션 조건의 조합을 참조 처리 데이터베이스로서 사용하는 경우」의 전이 학습에서는, 항상 참조 입출력 모델의 입력과 대상 처리 데이터의 설명 변수를 정렬할 수 있는 것은 아니다.
예를 들면, 실제의 처리 조건에서는 「온도」 「압력」 「처리 시간」을 실험 조건으로서 입력하고 있지만, 그것을 물리 시뮬레이터로 모의했을 때에 온도의 항은 시뮬레이션 모델의 상황에 의해 취급할 수 없는 경우 등을 들 수 있다. 그 밖에도, 마이크로초 이하에서의 시간 스케일로의 시간 발전을 취급하는 시뮬레이션에 주기(周期) 수밀리초 이상의 펄스에 대한 응답의 물리를 도입하는 경우나, 처리 일시 등의 메타데이터를 취급하고 싶은 경우 등 시뮬레이터로 취급하는 것이 용의하지 않을 경우가 다수 생각할 수 있다. 또한, 반대로 시뮬레이션에 이용한 계산 조건 등, 참조 처리 데이터에 영향을 미치지만 대상 처리 데이터의 설명 변수에는 포함되지 않는 파라미터가 존재할 경우가 있는 것도 상정된다.
상기 입력 데이터 형식의 차이는, 상기와 같이 대상 처리 데이터가 실처리 결과, 참조 처리 데이터가 시뮬레이션 결과의 경우뿐만 아니라, 반대로 대상 처리 데이터가 시뮬레이션 결과에 의해 참조 처리 데이터가 실처리 결과인 경우에도 마찬가지이며, 추가로 말하면, 둘 다 실처리 결과였다고 해도, 처리 장치의 약간의 시스템 상태 변경 등에 의해, 한쪽에서 취급할 수 있던 파라미터가 다른 쪽의 장치에서는 취급할 수 없는 경우 등에서도 일어날 수 있다.
이와 같이 설명 변수가 서로 다른 2개의 데이터를 이용하여 전이 학습을 행하고 싶은 경우, 한쪽에 없는 설명 변수를 삭제하거나 대신에 무언가의 일정값·예측값을 넣는 등 데이터의 전처리를 행하여 대응하거나, 뉴럴 네트워크 모델(neural network model)에 있어서의 모델의 네트워크 구조를 변경하여 대응할 수 있다.
전자의 설명 변수를 삭제하거나 일정값·예측값을 넣는 방법에서는, 데이터의 처리가 필요하며, 삭제·일정값을 입력된 설명 변수는 고려할 수 없는 모델이 되버려서 정밀도가 저하한다. 후자의 네트워크 구조의 변경은, 그 방법 자체에 자유도가 있음과 동시에, 과(過)학습이나 음(負)의 전이라는 문제를 피할 필요가 있어, 기계 학습에 익숙하지 않은 유저가 자력으로 행하는 것은 곤란하다. 또한, 과학습이나 음의 전이라는 문제를 피하기 위하여, 다량의 참조 처리 데이터베이스 중에서 목표 처리 조건을 탐색하기 위한 적절한 데이터를 선정하는 것도 곤란하다.
본 발명은, 상기한 종래 기술의 과제를 해결하기 위해서, 참조 처리 데이터를 계속적으로 자동 축적함과 동시에, 유저는 기계 학습의 전문적인 지식을 필요로 하지 않고, 축적된 많은 참조 처리 데이터 중에서 목표 처리 조건을 탐색하기 위하여 최적의 참조 처리 데이터를 활용하기 위한 제조 조건을 탐색하는 탐색 장치 및 검색 방법 그리고 반도체 장치 제조 시스템을 제공하는 것이다.
상기한 과제를 해결하기 위해서, 본 발명에서는, 반도체 제조 장치의 원하는 처리 결과 결과에 대응하는 제조 조건이 학습 모델을 이용하여 예측되는 것에 의해 원하는 처리 결과에 대응하는 제조 조건이 탐색되는 탐색 장치에 있어서, 제1 데이터와 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 생성되고, 생성된 학습 모델에 의해 소정의 기준이 만족되지 않는 경우, 제1 데이터와, 추가된 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 재생성되도록 구성했다.
또한, 상기한 과제를 해결하기 위해서, 본 발명에서는, 반도체 제조 장치의 원하는 처리 결과에 대응하는 제조 조건을 학습 모델을 이용하여 예측하는 것에 의해 상기 원하는 처리 결과에 대응하는 제조 조건을 탐색하는 탐색 방법에 있어서, 제1 데이터와 제2 데이터를 이용한 전이 학습에 의해 학습 모델을 생성하는 공정과, 생성된 학습 모델에 의해 소정의 판정 기준이 만족되지 않는 경우, 제1 데이터와, 추가된 제2 데이터를 이용한 전이 학습에 의해 학습 모델을 재생성하는 공정을 갖도록 했다.
또한, 상기한 과제를 해결하기 위해서, 본 발명에서는, 반도체 제조 장치가 네트워크를 통해서 접속되고, 반도체 제조 장치의 원하는 처리 결과에 대응하는 제조 조건을 학습 모델을 이용하여 예측하기 위한 애플리케이션이 실장된 플랫폼을 구비한 반도체 장치 제조 시스템에 있어서, 제1 데이터와 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 생성되는 스텝과, 생성된 학습 모델에 의해 소정의 판정 기준이 만족되지 않는 경우, 제1 데이터와, 추가된 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 재생성되는 스텝이 애플리케이션에 의해 실행되도록 구성했다.
본 발명에 따르면, 프로세스 개발 기간이나 프로세스 개발 코스트를 억제하면서, 목표 처리 조건을 탐색할 수 있다. 또한, 대상 프로세스의 실처리를 행하지 않는 기간에 있어서도, 참조 처리 데이터 취득 자동 실행부에 의해 계속적인 예측 정밀도 향상을 자동으로 행할 수 있다.
도 1은 웨이퍼의 사시도와 웨이퍼 중심 부근 및 단(端) 부근에 있어서의 표면의 단면의 확대도.
도 2는 본 발명의 배경을 설명하는 도면이고, 처리 조건과 처리 결과의 상관관계(입출력 관계)를 나타내는 그래프.
도 3a는 본 발명의 과제를 설명하기 위한 처리 조건(입력)과 처리 결과(출력)의 관계를 나타내는 그래프이고, 설정한 기초 처리 조건이 적고 입출력 모델의 정밀도가 낮은 경우의 추정한 입출력 모델의 입출력 관계와, 대상 프로세스의 참의 입출력 관계를 나타낸다.
도 3b는 본 발명의 과제를 설명하기 위한 처리 조건(입력)과 처리 결과(출력)의 관계를 나타내는 그래프이고, 참조 처리 데이터에 의거하여 추정한 참조 입출력 모델의 입출력 관계와 참조 프로세스의 참의 입출력 관계를 나타낸다.
도 3c는 본 발명의 과제를 설명하기 위한 처리 조건(입력)과 처리 결과(출력)의 관계를 나타내는 그래프이고, 참조 입력 모델을 참조하는 전이 학습을 행하여 추정한 입출력 모델의 입출력 관계와 대상 프로세스의 참의 입출력 관계를 나타낸다.
도 4는 본 발명의 실시예 1에 따른 처리 조건 탐색 시스템의 개략의 구성을 나타내는 블록도.
도 5는 본 발명의 실시예 1에 따른 뉴럴 네트워크를 이용한 전이 학습 모델의 개념을 나타내는 블록도.
도 6은 본 발명의 실시예 1에 따른 모델 설명부가 유저에게 제공하는 GUI(ROI 데이터 선택 매니저)의 일례를 나타내는 화면의 정면도.
도 7은 본 발명의 실시예 1에 따른 전이 학습 모델 평가부(45)가 유저에게 제공하는 GUI(모델 최적화 종료 판정 기준 설정)의 일례를 나타내는 화면의 정면도.
도 8은 본 발명의 실시예 1에 따른 조작 개시로부터 목표 처리 조건의 예측까지를 나타내는 플로차트.
도 9는 본 발명의 실시예 2에 따른 처리 조건 탐색의 조작이 없는 기간에 계산기가 자동으로 참조 프로세스 데이터베이스를 확장하는 수순을 나타내는 플로차트.
도 2는 본 발명의 배경을 설명하는 도면이고, 처리 조건과 처리 결과의 상관관계(입출력 관계)를 나타내는 그래프.
도 3a는 본 발명의 과제를 설명하기 위한 처리 조건(입력)과 처리 결과(출력)의 관계를 나타내는 그래프이고, 설정한 기초 처리 조건이 적고 입출력 모델의 정밀도가 낮은 경우의 추정한 입출력 모델의 입출력 관계와, 대상 프로세스의 참의 입출력 관계를 나타낸다.
도 3b는 본 발명의 과제를 설명하기 위한 처리 조건(입력)과 처리 결과(출력)의 관계를 나타내는 그래프이고, 참조 처리 데이터에 의거하여 추정한 참조 입출력 모델의 입출력 관계와 참조 프로세스의 참의 입출력 관계를 나타낸다.
도 3c는 본 발명의 과제를 설명하기 위한 처리 조건(입력)과 처리 결과(출력)의 관계를 나타내는 그래프이고, 참조 입력 모델을 참조하는 전이 학습을 행하여 추정한 입출력 모델의 입출력 관계와 대상 프로세스의 참의 입출력 관계를 나타낸다.
도 4는 본 발명의 실시예 1에 따른 처리 조건 탐색 시스템의 개략의 구성을 나타내는 블록도.
도 5는 본 발명의 실시예 1에 따른 뉴럴 네트워크를 이용한 전이 학습 모델의 개념을 나타내는 블록도.
도 6은 본 발명의 실시예 1에 따른 모델 설명부가 유저에게 제공하는 GUI(ROI 데이터 선택 매니저)의 일례를 나타내는 화면의 정면도.
도 7은 본 발명의 실시예 1에 따른 전이 학습 모델 평가부(45)가 유저에게 제공하는 GUI(모델 최적화 종료 판정 기준 설정)의 일례를 나타내는 화면의 정면도.
도 8은 본 발명의 실시예 1에 따른 조작 개시로부터 목표 처리 조건의 예측까지를 나타내는 플로차트.
도 9는 본 발명의 실시예 2에 따른 처리 조건 탐색의 조작이 없는 기간에 계산기가 자동으로 참조 프로세스 데이터베이스를 확장하는 수순을 나타내는 플로차트.
본 발명은, 반도체 제조 장치의 원하는 제조 조건을 기계 학습에 의해 탐색하는 탐색 시스템에 있어서, 물리 시뮬레이터에 의한 데이터의 전이 학습에 의해 구축된 모델을 이용하여 반도체 제조 장치의 원하는 제조 조건을 예측하도록 한 것이다.
일반적으로 물리 시뮬레이션에서는 실처리 조건에서의 모든 파라미터를 고려할 수 없어서, 뉴럴 네트워크를 이용한 종래의 기계 학습에서는 특징량이나 라벨이 서로 다른 태스크의 데이터를 단일(單一)의 모델로 학습할 수 없었던 것을, 본 발명에서는, 전이 학습을 이용한 네트워크 구조에 의해 해결하도록 했다.
즉, 본 발명에서는, 음의 전이를 일으키지 않도록 미리 모델의 특징을 "모델 설명부"에 의해 설정하고, 전이 학습의 결과 얻어진 모델을 "전이 학습 모델 평가부"에 의해 평가하고, 모델 평가의 결과, 평가값이 임계값을 초과하지 않으면, 전이 학습 모델의 정밀도를 높이기 위해 필요한 조건의 시뮬레이션 데이터가 부속의 계산기("참조 프로세스 데이터 취득 자동 실행부")로부터 자동 생성되며, 다시 전이 학습이 이루어지도록 했다.
이 결과, 유저가 설정한 목표 처리 결과를 예측하기 위해서 최적의 전이 학습 모델이 항상 자동으로 구축·갱신되어, 실처리보다도 저(低)코스트의 시뮬레이션에 의한 다량의 교사 데이터를 활용한, 기차/부품차 저감을 위한 레시피 최적화 기간의 단축·삭감을 도모하는 것을 가능하게 한 것이다.
이하, 본 발명의 실시예를, 도면을 이용하여 설명한다. 단, 본 발명은 이하에 나타내는 실시형태의 기재 내용에 한정하여 해석되는 것이 아니다. 본 발명의 사상 내지 취지로부터 일탈하지 않는 범위에서, 그 구체적인 구성을 변경할 수 있다는 것은 당업자라면 용이하게 이해할 수 있다. 또한, 본 명세서에 있어서의 도면 등에 있어서 나타내는 각 구성의 위치, 크기, 및 형상 등은, 발명의 이해를 용이하게 하기 위하여, 실제의 위치, 크기, 및 형상 등을 나타내지 않는 경우가 있다. 따라서, 본 발명은, 도면 등에 개시된 위치, 크기, 형상 등에 한정되지 않는다.
[실시예 1]
본 실시예에서는, 프로세스 개발 기간이나 프로세스 개발 코스트를 억제하면서, 목표 처리 조건을 탐색할 수 있도록 하기 위해서, 대상 프로세스의 처리 조건을 탐색하는 처리 조건 탐색 장치를, 대상 프로세스에 있어서의 목표 처리 결과를 설정하는 목표 처리 결과 설정부와, 대상 프로세스에 있어서의 처리 조건과 처리 결과의 조합인 대상 처리 데이터를 저장하는 대상 처리 데이터베이스와, 참조 프로세스에 있어서의 처리 조건과 처리 결과의 조합인 참조 처리 데이터를 저장하는 참조 처리 데이터베이스를 포함하는 학습 데이터베이스와, 참조 처리 데이터를 이용하여, 처리 조건을 참조 설명 변수, 처리 결과를 참조 목적 변수로 하여, 참조 설명 변수와 참조 목적 변수 사이의 참조 입출력 모델의 특징을 설명하는 모델 설명부와, 대상 처리 데이터를 이용하여, 대상 처리 데이터의 처리 조건을 대상 설명 변수, 처리 결과를 대상 목적 변수로 하여, 대상 설명 변수와 대상 목적 변수 및 참조 입출력 모델을 이용하여, 대상 프로세스의 입출력 모델을 추정하는 전이 학습 실행부와, 이 전이 학습 실행부에 의해 추정된 대상 프로세스 입출력의 모델인 전이 학습 모델을 평가하는 전이 학습 모델 평가부와, 전이 학습 모델 평가부의 평가에 의거하여, 새로운 참조 처리 데이터를 상기 참조 처리 데이터베이스에 추가하는 참조 처리 데이터 취득 자동 실행부와, 전이 학습 모델을 이용하여 목표 처리 결과를 실현하는 처리 조건을 예측하는 처리 조건 예측부를 구비하여 구성한 예에 대하여 설명한다.
도 4는 실시예 1의 처리 조건 탐색 시스템(40)의 구성예를 나타내는 블록도이다.
처리 조건 탐색 시스템(40)은, 대상 프로세스의 데이터나 참조 프로세스의 데이터를 저장하는 데이터베이스부(410)와, 데이터베이스부(410)에 저장된 데이터를 이용하여 전이 학습을 행하여 작성한 학습 모델을 평가하는 전이 학습 실행·평가부(420)와, 전이 학습 실행·평가부(420)에서 평가한 전이 학습 모델이 목표를 클리어하고 있지 않은 경우에 참조 프로세스 데이터를 취득하는 참조 프로세스 데이터 취득 자동 실행부(46), 처리 조건 예측부(47), 목표 처리 결과 설정부(48), 출력부(49)를 구비하고 있다.
데이터베이스부(410)는, 대상 프로세스 데이터베이스(41)와 참조 프로세스 데이터베이스(42)를 구비하여 구성되고, 전이 학습 실행· 평가부(420)는, 모델 설명부(43), 전이 학습 실행부(44) 및 전이 학습 모델 평가부(45)를 구비하고 있다. 각각 구성 요소는 직접 또는 네트워크를 통해서 서로 접속된다.
대상 프로세스 데이터베이스(41)에는 대상 처리 장치에 있어서의 과거의 처리 조건 Xp와 처리 결과 Yp의 조합인, 대상 처리 결과 데이터가 저장되어 있다. 여기에서의 처리 장치가 실시하는 처리의 종별 및 내용은 한정되지 않는다. 처리 장치에는, 예를 들면 리소그래피 장치, 제막 장치, 패턴 가공 장치, 이온 주입 장치, 가열 장치, 세정 장치 등이 포함된다.
리소그래피 장치에는, 노광 장치, 전자선 묘화 장치, 및 X선 묘화 장치 등이 포함된다. 제막 장치에는, CVD, PVD, 증착 장치, 스퍼터링 장치, 열산화 장치 등이 포함된다. 패턴 가공 장치에는, 웨트 에칭 장치, 드라이 에칭 장치, 전자 빔 가공 장치, 레이저 가공 장치 등이 포함된다. 이온 주입 장치에는, 플라스마 도핑 장치, 이온 빔 도핑 장치 등이 포함된다. 가열 장치에는, 저항 가열 장치, 램프 가열 장치, 레이저 가열 장치 등이 포함된다. 세정 장치에는, 액체 세정 장치, 초음파 세정 장치 등이 포함된다.
실시예 1에서는 처리 장치로서 「드라이 에칭 장치」, 처리 조건으로서「온도」 「압력」 「가스 A의 유량」 「가스 B의 유량」 「전력」 「처리 시간」의 항목과 대응하는 실제로 실시한 값, 처리 결과로서 「에칭량」을 가정하여 설명한다. 처리 조건 Xp의 항목인 「온도」 「압력」 「가스 A의 유량」 「가스 B의 유량」 「투입 전력」 「처리 시간」은 설명 변수라고 불리며, 처리 결과 Yp의 항목인 「에칭량 」은 목적 변수라고 불린다.
참조 프로세스 데이터베이스(42)에는, 타겟 프로세스를 모의(模擬)한 시뮬레이션에 있어서의, 시뮬레이션 조건 Xs와 시뮬레이션 결과 Ys의 조합인, 참조 처리 결과 데이터가 저장되어 있다. 여기에서 시뮬레이션의 종류나 내용은 한정되지 않는다. 실시예 1에서는 시뮬레이션 내용으로서는 「유한요소법(有限要素法)을 이용한 플라스마 중의 전자계 계산」, 시뮬레이션 조건으로서 「압력」 「가스 A의 유량」 「가스 B의 유량」 「전력」의 항목과 대응하는 실제로 실시한 값, 시뮬레이션 결과로서 「A 이온량」 「B 이온량」을 가정하여 설명하지만, 참조 프로세스 데이터베이스에는 보다 많은 설명 변수나 목적 변수가 들어 있다.
이와 같이 대상 프로세스 데이터베이스(41)의 처리 조건 Xp와 참조 프로세스 데이터베이스(42)의 시뮬레이션 조건 Xs의 설명 변수와 그 수는 일치할 필요는 없으며, 또한 처리 결과 Yp와 시뮬레이션 결과 Ys의 목적 변수와 그 수도 일치할 필요는 없다. 실시예 1에서는 Xs의 설명 변수의 항목은 Xp의 설명 변수의 부분 집합이 되어 있다. 이와 같은 경우의 전형적인 뉴럴 네트워크를 이용한 전이 학습 모델(50)을 도 5에 나타냈다.
도 5에 나타낸 예에 있어서는, 전이 학습 모델(50)에 파선으로 둘러싸인 참조 모델(51)이 내포되어 있으며, 전이 학습 모델(50)의 학습에 있어서는 이 참조 모델(51)의 부분의 가중치를 고정하거나, 혹은 초기값으로서 재학습(파인 튜닝)할 수 있다.
도 5에 있어서 참조 모델(51)의 출력부는 A 이온량(A+)(511)과 B 이온량(B+)(512)으로 되어 있지만, 이것은 유저가 최종적으로 예측 정밀도를 올리고 싶은 대상 프로세스의 목적 변수(여기에서는 「에칭량」)(52)에 맞춰, 처리 장치를 취급하는 유저의 지견에 의거하여 종류나 수를 자유롭게 변경할 수 있다.
예를 들면, 이 대상 프로세스에 있어서는, 「전력을 사용하여 가스 A와 가스 B로부터 A 이온과 B 이온이 생성되고, 이들 이온이 웨이퍼를 에칭한다」라고 하는 현상을 유저가 상정하고 있기 때문에, 출력에 「A 이온량」「B 이온량」을 설정함으로써 「에칭량」을 정밀도 좋게 예측할 수 있다고 생각한다.
실시예 1에서는 참조 프로세스 데이터가 시뮬레이션에 의하는 것이기 때문에, 안전상의 장치의 제약·인터록, 코스트 조건 등에 구애받지 않고 비교적 자유롭게 설명 변수의 값을 부여하는 것이 가능하다(예를 들면 장치의 내압 성능을 초과한 고(高)전압 조건이나, 코스트를 무시한 냉각 기능에 의한 저온 조건 등). 이 때문에, 참조 프로세스 데이터베이스(42)에는 다양한 파라미터를 망라적으로 부여한 많은 데이터가 포함될 수 있다.
참조 프로세스 데이터베이스(42)에 축적된 모든 참조 프로세스 데이터를 이용하여 전이 학습 모델을 구축하는 것도 가능하지만, 여기에서는 유저가 요구하는 대상 프로세스에 의해 특화된, 보다 정밀도가 높은 모델을 이용하는 것을 생각한다. 전이 학습에 이용하는 데이터군은, 참조 프로세스 데이터베이스(42)에 축적된 참조 프로세스 데이터군 중에서 적절한 판단에 의거하여 취사 선택함으로써, 보다 높은 예측 정밀도의 전이 학습 모델을 구축할 수 있다.
도 6은 모델 설명부(43)가 유저에게 제공하는 GUI(ROI 데이터 선택 매니저)(430)의 예이다. 이 GUI(430)는, 출력부(49)의 화면 상에 표시된다. 모델 설명부(43)는, 참조 프로세스 데이터베이스(42)에 축적된 참조 프로세스 데이터로부터 만들어지는 참조 모델에 대해서, XAI 설정 버튼(437)에서 선택되어 설정되는 XAI(Explainable AI: 설명 가능한 AI) 방법에 의해서 모델의 특징을 GUI(430)에 표시할 수 있다. XAI로서는 다양한 방법이 존재하지만, 여기에서는 PFI(Permutation Feature Importance) 방법에 의한 참조 모델의 PFI 값을 산출하여, GUI(430)에 그 값을 막대 그래프(433, 434)에 의해서 랭킹 표시하고 있다. 실시예 1에서는 참조 프로세스 데이터베이스(42)의 시뮬레이션 조건 Xs(4330)에 「압력」(4331), 「가스 A의 유량」(4332), 「가스 B의 유량」(4333), 「전력」(4334)의 4개의 파라미터가 존재하기 때문에, 4개의 요소의 PFI 랭킹 표시가 되어 있다.
PFI 값이란, 모델의 예측 정밀도에 각각의 설명 변수가 그 단체(單體)로 얼마나 기여하고 있는지의 비율로 표시된다. 이 PFI 값은 모델의 네트워크 구조, 또한 특히 학습에 이용하는 데이터군에 의해 크게 영향을 받는다.
도 6의 「ROI 데이터 선택 매니저 모델 설명부」 윈도우(431)의 좌측의 그래프(432)에서 데이터 공간에 있어서의 데이터점(點)(4321)의 위치와 분산을 보면서, 「새로운 참조 데이터를 작성」버튼(435)을 클릭하여 새로운 참조 데이터를 작성하거나, 「모델 상세 설정」버튼(436)을 클릭하여 모델 선택의 상세 조건을 설정하는 등에 의해 임의의 방법으로, 전이 학습에 이용하는 참조 모델의 학습에 이용하는 데이터 세트의 취사 선택을 행한다.
도 6의 그래프(432)는 「전력」(4324)과 「압력」(4323)에 관한 2차원 데이터 분포에 있어서, ROI 직사각형 선택에 의해 121개의 참조 모델용 학습 데이터 세트(4322)가 선택되어 있는 상태이다. 여기에서 제공된 PFI 값은 데이터량 등에 의해서 그 계산에 다소 시간이 걸리지만, 계산을 기다리는 동안에 다음으로 행하는 2번째의 ROI 선택을 행하는 등, 유저는 작업을 계속할 수 있다.
도 6과 같은 GUI(430)에 의해서 유저는 「어떠한 데이터를 선택하면, 어떠한 모델이 전이 학습에 의해 얻어지는지」를 확인하면서 전이 학습 실행부(44)에 있어서 전이 학습에 이용되는 참조 모델의 최적화를 행할 수 있지만, 이와 같이 반드시 GUI(430)를 표시하여 유저 판단시키는 것이 아니라, 참조 프로세스 데이터베이스(42)에 축적된 모든 데이터를 이용하여 자동으로 전이 학습을 행해도 일정의 정밀도는 제공할 수 있기 때문에 GUI(430)는 필수가 아니다.
또한, 사전에, 예를 들면 PFI의 값 등에 의해 판단 기준을 설정해 두면, 모델 설명부(43)에서 유저 조작을 수반하지 않고 자동으로 전이 학습에 이용하는 참조 모델의 최적화를 행하는 것도 가능하다.
단, 실시예 1에 있어서의 이 모델 설명부(43)가 설명하는 PFI 값은 어디까지나 단순히「A 이온량·B 이온량을 예측하는 참조 모델의 예측 정밀도에 각각의 설명 변수가 그 단체로 얼마나 기여하고 있는지」이며, 「A 이온량·B 이온량의 결정에는 각각의 설명 변수가 얼마나 기여하고 있는지」라는 본질이 아닌 것에 주의가 필요하다. 또한, 「참조 모델 출력의 「A 이온량」 「B 이온량」이 「에칭량」을 예측하는데 유용하다」(도 5)고 판단하는 것도 유저가 임의로 설정할 수 있으며, 환언하면, 「참조 모델의 예측 정밀도가 높으면, 대상 모델의 예측 정밀도가 높다」고 확실히 말할 수 있는 것이 아닌 것에도 주의할 필요가 있다. 다만, 이들을 주의한 후에 모델 설명부(43)를 이용할 수 있으면, 단시간에 정밀도가 높은 전이 학습에 이용하는 참조 모델의 최적화를 행하는 것이 가능하다.
최종적으로 유저가 도 6 우측 아래의 「전이 실행」버튼(438)을 누르는 것에 의해서 전이 학습 실행부(44)에 의한 전이 학습이 실행된다.
전이 학습 모델 평가부(45)에서는 전이 학습 실행부(44)에 의해서 만들어진 모델을 평가하고, 평가 결과가 일정의 기준을 만족하지 않으면 그 원인을 모델의 네트워크 구조 및 참조 프로세스 데이터에 있다고 판단하여, 참조 프로세스 데이터의 자동 취득·추가를 참조 프로세스 데이터 취득 자동 실행부(46)에 명령한다.
참조 프로세스 데이터 취득 자동 실행부(46)에서 참조 프로세스 데이터의 자동 취득·추가가 실행되어서, 새로운 참조 프로세스 데이터가 참조 프로세스 데이터베이스(42)에 추가되면, 재차, 모델 설명부(43), 전이 학습 실행부(44)를 거쳐 전이 학습 모델 평가부(45)에 의한 판정이 되고, 이후, 전이 학습 모델 평가부(45)의 판정 기준이 만족될 때까지 이것을 루프(loop)한다.
기본적으로 참조 프로세스 데이터는 많을수록 예측 정밀도 향상을 기대할 수 있기 때문에, 참조 프로세스 데이터 취득 자동 실행부(46)는 전이 학습 모델 평가부(45)에 데이터의 자동 취득이 명령되어 있지 않을 때에도 실험계획법(DoE)에 따른 시뮬레이션 조건에서 계산을 계속하여, 데이터를 계속 축적하는 것이 좋다.
도 7은 전이 학습 모델 평가부(45)가 유저에게 제공하는 GUI(모델 최적화 종료 판정 기준 설정)(450)의 예이다. 유저는 우선, GUI(450)의 참조 프로세스 데이터 취득 자동 실행 영역(451)에서, 참조 처리 데이터 취득 자동 실행에 관한 설정을 행한다. 유효 버튼(4511), 수동 설정 버튼(4512), 무효 버튼(4513) 중 어느 하나를 선택함으로써, 참조 프로세스 데이터 취득 자동 실행부(46)를 이용하여 참조 프로세스 데이터를 추가함으로써 전이 학습 모델을 개선하는 루프를 돌릴지의 여부를 지정한다. 이때, 참조 프로세스 데이터 취득 자동 실행부(46)가 제안하는 실험계획법(DoE)에 따른 시뮬레이션 조건에 자동으로 맡기는 것이 아니라, 유저가 스스로 조건의 수동 지정을 하는 것도 가능하다.
유효 버튼(4511)을 클릭하여 참조 프로세스 데이터 취득 자동 실행을 유효로 했을 경우, GUI(450)의 종료 판정 기준 설정 영역(452)에서, 종료 판정 기준의 설정을 행한다. 종료 시각 설정 영역(4531)에 종료 시각을 입력하고 「종료 시각 설정 있음」의 버튼(4521)을 클릭하여 종료 시각 설정을 하면, 설정한 기준이 만족되지 않을 경우여도, 종료 시각까지는 참조 프로세스 데이터 취득 자동 실행을 반복하여 가장 검증 결과가 양호한 전이 학습 모델이 처리 조건 예측부(47)로 보내진다. 설정한 기준이 만족되면, 종료 시각을 맞이하지 않고 전이 학습 모델을 처리 조건 예측부(47)로 보낸다.
도 7에 있어서의 종료 판정 기준 설정 영역(452)에 설정하는 종료 판정 기준에 대하여 설명한다.
(1) 「테스트 데이터 검증」이란, 유저가 사전에 준비해 둔, 몇 가지의 대상 프로세스에 있어서의 처리 조건 Xp와 처리 결과 Yp의 조합인, 테스트용 데이터를 이용하여 모델의 평가를 행하는 검증 방법이다. 이 테스트 데이터는, 모델이 학습에 이용한 대상 프로세스 데이터베이스에 포함되어 있는 데이터가 아니어야 하며, 별도로 준비할 필요가 있지만, 가장 타당한 모델 평가 방법이다. 예를 들면, 「에칭량」을 예측하는 모델에 있어서 「테스트 데이터로 검증한, 실제 에칭량과 예측 에칭량의 상대 오차<5%」를 판정 조건으로 한다. 검증 데이터 세트명 입력 영역(4532)에 검증 데이터 세트명을 입력하고 「테스트 검증 데이터」의 버튼(4522)을 클릭함으로써, 지정한 테스트 데이터가 선택된다.
(2) 「XAI」란, XAI 방법에 의해 모델을 평가한 결과 얻어진 값을 이용하여 판단하는 검증 방법이다. 예를 들면, 상기 PFI 방법을 전이 학습 모델에 대해서 사용하여, 얻어진 PFI 값이 일정의 값 이상/이하 등의 조건을 만족하는지의 여부를 판단한다. 이것은 유저가, 예를 들면 대상 프로세스에 대한 화학·물리학적 지견을 가지고 있고, 「이 프로세스의 경우, 「에칭량」을 결정하는 것은「압력」보다도 「전력」의 영향이 클 것이다」고 생각한다면, 「전력의 PFI 값>압력의 PFI 값」을 판정 조건으로 한다. 상세 설정 영역(4533)에 검증 조건(판정 조건)을 설정하고「XAI」의 버튼(4523)을 클릭함으로써, 설정한 검증 조건(판정 조건)이 적용되어서 평가 결과가 판정된다.
(3)「교차(交差) 검증」이란, 여기에서는 K-분할 교차 검증을 가리킨다. 학습에 이용한 학습 데이터 전체를 K개로 분할하고, 그 중 하나를 테스트 데이터로서 취출해 놓고 나머지를 학습용 데이터로서 (1)과 마찬가지의 평가를 행한다. 마찬가지로 K개로 분할된 학습 데이터군의 각각이 1회씩 테스트 데이터가 되도록, 총 K회 평가를 행하고, K회의 평균값을 취한 것으로 (1)과 같은 형식의 판정 기준을 마련한다. 평가 방법의 정밀도로서는 (1)과 비교하면 학습 데이터가 줄어든 만큼 다소 뒤떨어지고, 계산량이 증대하여 평가 시간이 연장되지만, 유저는 사전에 테스트용 데이터를 준비할 필요가 없다. 검증 조건 설정 영역(4534)에 조건을 설정하고 「교차 검증」의 버튼(4524)을 클릭함으로써, 교차 검증의 조건이 설정된다.
(4)「매번 상세 표시」란, 보다 전이 학습 방법에 지견이 있는 유저가, 상기 전이 학습 모델의 XAI 평가 결과나 교차 검증 결과뿐만 아니라, 추가로 학습 곡선이나 파라미터 튜닝 결과 등을 세밀하게 확인하여, 매번 유저 판단하는 선택지이다. 버튼(4525)을 클릭하면 도시하지 않은 설정 화면으로 전환되어, 유저가 상세를 설정한다.
「종료 시각 설정 없음(1회만)」의 버튼(4526)을 클릭했을 경우는, 종료 시각이 설정되지 않고, 전이 학습 모델 평가부(45)의 판정 기준이 만족될 때까지 모델 최적화의 처리가 실행된다.
마지막으로, 「결정」버튼(454)을 클릭하면, GUI(450)의 화면 상에서 설정된 각 조건이 처리 조건 탐색 시스템(40)으로 보내지며, 새로운 조건으로서 처리 조건 탐색 시스템(40)에 세트된다.
유저는 본 실시예에 따른 처리 조건 검색 시스템(40)을 이용함에 있어서, 우선 첫째로, 목표 처리 결과 설정부(48)에서, 대상 프로세스에 있어서 어떠한 처리 결과를 얻고 싶은지를 입력 지정한다. 예를 들면, 「에칭량」으로서 「40nm」 등으로 지정한다. 이 항목은 복수여도 동작에 문제는 없지만, 적은 쪽이 높은 정밀도를 기대할 수 있다. 또한 얻고 싶은 처리 결과는 「30nm 내지 50nm」등으로 범위 지정해도 된다.
유저가 지정한 목표 처리 결과는, 전이 학습 모델 평가부(45)의 기준을 만족한 전이 학습 모델이 처리 조건 예측부(47)로 보내진 후, 처리 조건 예측부(47)에 의해 취입된다. 처리 조건 예측부(47)에서는, 예를 들면 뉴턴법 등의 구근 알고리즘(root finding algorithm)에 의해, 목표 처리 결과 설정부(48)에서 설정된 목표 처리 결과에 가장 가까운 예측 처리 결과를 나타내는 처리 조건을 최적화한다. 최적화된 처리 조건은 출력부(49)의 화면에 GUI 표시 또는 csv 파일 저장 등의 수단에 의해 유저에게 제공된다.
도 8은, 실시예 1에 있어서, 유저에 의한 조작 개시로부터, 목표 처리 조건의 예측까지 S1∼S11을 설명하는 플로차트이다.
S1: 목표 처리 조건을 예측하고자 하는 대상 장치에서 이미 취득 완료된 대상 프로세스 데이터베이스(41)에 기억되어 있는 학습 데이터를 설정한다. 전이 학습 모델 평가부(45)에 있어서, 종료 판정 기준에 「테스트 데이터 검증」을 실시하고 싶은 경우는 이 타이밍에서 별도 테스트 데이터도 설정한다.
S2: 대상 장치에서 달성하고자 하는, 목표 처리 결과를 목표 처리 결과 설정부(48)로부터 설정한다.
S3: 참조 프로세스 데이터베이스를 기초로 학습해서 만들어져 있는 최신의 참조 모델의 특징을 모델 설명부(43)에서 몇 가지의 XAI 방법에 의해 확인한다. S2에서 S3으로 진행된 시점에서 확인할 수 있는 모델은, (1) 전체 참조 처리 데이터, (2) 사전에 선택된 참조 처리 데이터, (3) 전회(前回) 사용 시에 선택한 참조 처리 데이터 중 어느 하나를 기초로 학습한 참조 모델이다. S4에서 S3으로 되돌아간 시점에서는, 참조 모델을 학습하기 위해서 사용하는 학습용 참조 처리 데이터를, 예를 들면 도 6과 같은 GUI(430)의 「새로운 참조 데이터를 작성」버튼(435)을 클릭함으로써 도시하고 있지 않은 새로운 참조 데이터를 작성하는 화면 상에서 취사 선택할 수 있다. 이 시점에서 모델·학습 데이터의 특징을 확인할 수 있는 XAI 방법으로는 예를 들면 PFI(Permutation Feature Importance)나, SHAP(Shapley Additive exPlanation)나, PD(Partial Dependence)나, ICE(Individual Conditio nal Expectation) 등을 들 수 있지만 이들에 한정되는 것은 아니다.
S4: S3에 있어서 구한 PFI 랭킹은 S2에서 설정한 값에 대하여 타당한지 여부를 판정한다. Yes인 경우는 S5로 진행되고, No인 경우에는 S3으로 되돌아간다.
S5: 전이 학습을 실행하여, 전이 학습 모델을 출력한다.
S6: 도 7에 나타낸 GUI, 전이 학습 모델 평가부의 모델 최적화 종료 판정 기준 설정에 있어서, 「종료 시각 설정 있음」을 설정하였는지를 체크한다.
S7:「종료 시각 설정 있음」을 설정했을 경우(S6에서 Yes인 경우), 종료 시각에 도달해 있는지 여부를 판정한다.
S8: 종료 시각에 도달해 있는 경우(S7에서 Yes인 경우), 처리 조건 예측부(47)에 의해서, 목표 처리 결과에 가장 가까운 예측 처리 결과를 나타내는 것으로 기대할 수 있는 처리 조건을 출력한다. 여기에서 일련의 유저 조작은 종료된다.
S9: 종료 시각에 도달해 있지 않을 경우(S7에서 No인 경우), 전이 학습 모델 평가부(45)에서 모델의 정밀도의 평가를 행한다. 본 실시예에 있어서는, 도 7에 나타낸 GUI(450)의, 전이 학습 모델 평가부(45)의 종료 판정 기준 설정 영역(452)에 있어서, 「교차 검증(4525)」을 설정했기 때문에, 모델의 교차 검증 결과가 목표 처리 결과 설정부(48)에 의해 유저가 설정한 임계값을 초과했는지 아닌지의 여부에 의해 판정한다. 유저가 설정한 임계값 이상의 정밀도가 나타나고 있으면(S9에서 Yes인 경우) S8로, 나타나고 있지 않으면(S9에서 No인 경우) S10으로 진행한다.
S10: 참조 프로세스 데이터 취득 자동 실행부(46)에 있어서, DoE 혹은 유저 정의에 의해 새로운 참조 프로세스 데이터를 계산하여 참조 프로세스 데이터베이스(42)에 추가한다. 또한 여기에서는, 후술하는 도 9에 있어서의 처리 플로와는 달리, GUI(450)의, 전이 학습 모델 평가부의 종료 판정 기준 설정 영역(452)에 있어서 「XAI(4523)」를 선택함으로써, XAI 방법에 의해 확장되는 데이터 공간의 시사를 얻을 수도 있다. 예를 들면, 유저가 「「에칭량」에는 「가스 A」의 영향이 크다」는 지견을 가짐에도 불구하고, PFI 방법에 의해 산출한 가스 A의 PFI 값이 작을 경우, 가스 A의 파라미터를 중점적으로 부여한 데이터 공간에 있어서의 참조 처리 데이터를 얻으려고 하는 것은 유용하다.
S11: 새로운 참조 처리 데이터를 더한 새로운 학습용 데이터 세트를 이용하여, 다시 참조 모델의 재학습으로부터 행한다. 얻어진 모델을 기초로 다시 S3으로 진행한다.
이상으로 설명한 바와 같이, 본 실시예에서는, 음의 전이를 일으키지 않도록 미리 모델의 특징을 "모델 설명부"에 의해 평가하고, 전이 학습의 결과 얻어진 모델을 전이 학습 모델 평가부에서 평가하고, 모델 평가의 결과, 평가값이 임계값을 초과하지 않으면, 전이 학습 모델의 정밀도를 높이기 위해서 필요한 조건의 시뮬레이션 데이터가 참조 프로세스 데이터 취득 자동 실행부에 의해 자동 생성되고, 다시 전이 학습이 이루어지도록 했다.
이것에 의해, 유저가 설정한 목표 처리 결과를 예측하기 위해서 최적의 전이 학습 모델이 항상 자동으로 구축·갱신되어, 실처리보다도 저코스트의 시뮬레이션에 의한 다량의 교사 데이터를 활용한, 기차/부품차 저감을 위한 레시피 최적화 기간의 단축·삭감을 도모하는 것을 가능하게 했다.
본 발명에 따르면, 반도체 제조 장치의 원하는 제조 조건을 기계 학습에 의해 탐색하는 탐색 시스템에 있어서, 일반적으로 물리 시뮬레이션에서는 실처리 조건에 있어서의 모든 파라미터를 고려할 수 없기 때문에 뉴럴 네트워크를 이용한 종래의 기계 학습에서는 특징량이나 라벨이 서로 다른 태스크의 데이터를 단일의 모델로 학습할 수 없었던 것을, 물리 시뮬레이터에 의한 데이터의 전이 학습을 이용한 네트워크 구조에 의해 구축된 모델을 이용하여 반도체 제조 장치의 원하는 제조 조건을 예측할 수 있게 되었다.
[실시예 2]
본 발명의 제2 실시예를, 도 9를 이용해서 설명한다.
본 실시예는, 실시예 1에서 설명한 처리에 더하여, 실시예 1에 있어서 도 8을 이용하여 설명한 S1 내지 S3과 같은 유저에 의한 장치·방법의 조작이 없는 기간에 있어서, 처리 조건 탐색 시스템(40)이 자동으로 도 9에 나타낸 플로차트와 같이 참조 프로세스 데이터베이스를 확장하는 처리를 행하도록 한 것이다.
본 실시예에 따른 참조 프로세스 데이터베이스를 확장하는 처리의 수순을, 도 9에 나타낸 플로차트에 따라서 설명한다.
S91: 항상 유저에 의한 조작을 우선하기 때문에, 유저 조작이 없는지를 확인한다. 즉, 도 6에 나타낸「이전 실행」버튼(438), 또는 도 7에 나타낸「결정」버튼(454)이 눌려지지 않았는지를 체크하고, Yes인 경우(유저 조작이 있는/예상되는 경우)에는, 실시예 1에 있어서 도 8을 이용하여 설명한 유저 조작 처리로 진행하며, S1∼S11의 스텝을 실행한다. No인 경우에는, S92로 진행한다.
S92: DoE 혹은 유저 정의에 따라 새로운 참조 처리 데이터를 계산하여 참조 프로세스 데이터베이스에 추가한다.
S93: 참조 처리 데이터가 데이터베이스에 추가될 때마다, 새롭게 추가한 참조 처리 데이터를 포함하는 학습 데이터를 이용하여 참조 모델의 학습, 즉, 참조 처리 데이터 전체를 이용한 모델 학습을 행한다.
S94: 학습한 참조 모델의 각종 XAI 방법에 의한 평가(모델 해석 계산)를 행한다. 또, 여기에서 평가한 결과와 학습 모델은 시스템에 저장되며, 유저가 도 8에서 설명한 S3에 있어서의 처리의 타이밍에서 로드(load)할 수도 있다.
본 실시예에 따르면, 실시예 1에서 설명한 효과에 더하여, 유저에 의한 장치·방법의 조작이 없는 기간에 있어서 계산기가 자동으로 참조 프로세스 데이터베이스의 확장을 행할 수 있으므로, 전이 학습 모델의 정밀도를 보다 높일 수 있고, 시뮬레이션에 의한 다량의 교사 데이터를 활용한, 기차/부품차 저감을 위한 레시피 최적화 기간을 보다 단축하는 것을 가능하게 했다.
또한, 실시예 1 및 2에 따른 발명은, 플랫폼에 실장된 애플리케이션으로서 실시할 수도 있다. 플랫폼은, 클라우드 상에 구축되어 있고, OS, 미들웨어 상에서 처리를 실행하는 애플리케이션이 가동한다. 유저는, 단말로부터 네트워크를 통해서 플랫폼에 액세스하여, 플랫폼에 구축된 애플리케이션의 기능을 이용할 수 있다. 플랫폼은, 데이터베이스를 구비하여, 애플리케이션의 실행에 필요한 데이터가 저장된다. 또한 반도체 제조 장치도 플랫폼과 네트워크에 의해 데이터의 교환이 가능하게 접속되어 있다.
이상, 본 발명자에 의해서 이루어진 발명을 실시예에 의거하여 구체적으로 설명했지만, 본 발명은 상기 실시예에 한정되는 것이 아니며, 그 요지를 일탈하지 않는 범위에서 여러 가지 변경이 가능하다는 것은 물론이다. 즉, 상기 실시예에서 설명한 구성(스텝)의 일부를 그와 동등한 기능을 가지는 스텝 또는 수단으로 치환한 것도, 또는, 실질적이지 않은 기능의 일부를 생략한 것도 본 발명에 포함된다.
40: 처리 조건 탐색 시스템
41: 대상 프로세스 데이터베이스
42: 참조 프로세스 데이터베이스 43: 모델 설명부
44: 전이 학습 실행부 45: 전이 학습 모델 평가부
46: 참조 프로세스 데이터 취득 자동 실행부
47: 처리 조건 예측부 48: 목표 처리 결과 설정부
49: 출력부 51: 참조 모델
430, 450: GUI
451: 참조 프로세스 데이터 취득 자동 실행 영역
452: 종료 판정 기준 설정 영역
42: 참조 프로세스 데이터베이스 43: 모델 설명부
44: 전이 학습 실행부 45: 전이 학습 모델 평가부
46: 참조 프로세스 데이터 취득 자동 실행부
47: 처리 조건 예측부 48: 목표 처리 결과 설정부
49: 출력부 51: 참조 모델
430, 450: GUI
451: 참조 프로세스 데이터 취득 자동 실행 영역
452: 종료 판정 기준 설정 영역
Claims (8)
- 반도체 제조 장치의 원하는 처리 결과에 대응하는 제조 조건이 학습 모델을 이용하여 예측되는 것에 의해 상기 원하는 처리 결과에 대응하는 제조 조건이 탐색되는 탐색 장치에 있어서,
제1 데이터와 제2 데이터를 이용한 전이(轉移) 학습에 의해 학습 모델이 생성되고,
상기 생성된 학습 모델에 의해 소정의 판정 기준이 만족되지 않는 경우, 상기 제1 데이터와, 추가된 상기 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 재생성되는 것을 특징으로 하는 탐색 장치. - 제1항에 있어서,
상기 제1 데이터는, 상기 반도체 제조 장치의 제조 조건과, 상기 반도체 제조 장치의 제조 조건에 따른 처리 결과의 조합 데이터를 포함하고,
상기 제2 데이터는, 시뮬레이션에 의해 얻어진 데이터를 포함하는 것을 특징으로 하는 탐색 장치. - 제1항에 있어서,
상기 학습 모델은, 상기 제1 데이터 및 참조 모델을 기초로 생성되고,
상기 참조 모델은, 상기 제2 데이터의 설명 변수 및 상기 제2 데이터의 목적 변수를 기초로 생성된 모델인 것을 특징으로 하는 탐색 장치. - 제3항에 있어서,
PFI 또는 SHAP를 포함하는 기계 학습 모델 해석 방법에 의한 상기 참조 모델의 해석 결과가 유저 인터페이스에 표시되는 것을 특징으로 하는 탐색 장치. - 제1항에 있어서,
상기 제1 데이터와 상기 제2 데이터는, 설명 변수의 종류 혹은 설명 변수의 개수에 대해 다르거나, 또는 포함 관계에 있는 것을 특징으로 하는 탐색 장치. - 제1항에 있어서,
상기 제2 데이터에 있어서의, 상기 전이 학습에 이용되는 데이터군의 데이터 공간의 위치 및 분산이 유저 인터페이스에 표시되는 것을 특징으로 하는 탐색 장치. - 반도체 제조 장치가 네트워크를 통해서 접속되고, 반도체 제조 장치의 원하는 처리 결과에 대응하는 제조 조건을 학습 모델을 이용하여 예측하기 위한 애플리케이션이 실장된 플랫폼을 구비하는 반도체 장치 제조 시스템에 있어서,
제1 데이터와 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 생성되는 스텝과,
상기 생성된 학습 모델에 의해 소정의 판정 기준이 만족되지 않는 경우, 상기 제1 데이터와, 추가된 상기 제2 데이터를 이용한 전이 학습에 의해 학습 모델이 재생성되는 스텝이 상기 애플리케이션에 의해 실행되는 것을 특징으로 하는 반도체 장치 제조 시스템. - 반도체 제조 장치의 원하는 처리 결과에 대응하는 제조 조건을 학습 모델을 이용하여 예측하는 것에 의해 상기 원하는 처리 결과에 대응하는 제조 조건을 탐색하는 탐색 방법에 있어서,
제1 데이터와 제2 데이터를 이용한 전이 학습에 의해 학습 모델을 생성하는 공정과,
상기 생성된 학습 모델에 의해 소정의 판정 기준이 만족되지 않는 경우, 상기 제1 데이터와, 추가된 상기 제2 데이터를 이용한 전이 학습에 의해 학습 모델을 재생성하는 공정을 갖는 것을 특징으로 하는 탐색 방법.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/020930 WO2023223535A1 (ja) | 2022-05-20 | 2022-05-20 | 探索装置および探索方法並びに半導体装置製造システム |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230162770A true KR20230162770A (ko) | 2023-11-28 |
Family
ID=88834918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020237021079A KR20230162770A (ko) | 2022-05-20 | 2022-05-20 | 탐색 장치 및 탐색 방법 그리고 반도체 장치 제조 시스템 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JPWO2023223535A1 (ko) |
KR (1) | KR20230162770A (ko) |
CN (1) | CN117441175A (ko) |
TW (1) | TW202347188A (ko) |
WO (1) | WO2023223535A1 (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019047100A (ja) | 2017-08-31 | 2019-03-22 | 株式会社日立製作所 | 計算機、処理の制御パラメータの決定方法、代用試料、計測システム、及び計測方法 |
JP2021182182A (ja) | 2020-05-18 | 2021-11-25 | 株式会社日立製作所 | 処理条件探索装置および処理条件探索方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6516531B2 (ja) * | 2015-03-30 | 2019-05-22 | 株式会社メガチップス | クラスタリング装置及び機械学習装置 |
EP3398123A4 (en) * | 2015-12-31 | 2019-08-28 | KLA - Tencor Corporation | ACCELERATED TRAINING OF A MODEL BASED ON AUTOMATIC LEARNING FOR SEMICONDUCTOR APPLICATIONS |
JP7396117B2 (ja) * | 2020-02-27 | 2023-12-12 | オムロン株式会社 | モデル更新装置、方法、及びプログラム |
JP2021182329A (ja) * | 2020-05-20 | 2021-11-25 | 株式会社日立製作所 | 学習モデル選択方法 |
-
2022
- 2022-05-20 WO PCT/JP2022/020930 patent/WO2023223535A1/ja active Application Filing
- 2022-05-20 CN CN202280008606.2A patent/CN117441175A/zh active Pending
- 2022-05-20 KR KR1020237021079A patent/KR20230162770A/ko unknown
- 2022-05-20 JP JP2023530599A patent/JPWO2023223535A1/ja active Pending
-
2023
- 2023-02-13 TW TW112104950A patent/TW202347188A/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019047100A (ja) | 2017-08-31 | 2019-03-22 | 株式会社日立製作所 | 計算機、処理の制御パラメータの決定方法、代用試料、計測システム、及び計測方法 |
JP2021182182A (ja) | 2020-05-18 | 2021-11-25 | 株式会社日立製作所 | 処理条件探索装置および処理条件探索方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2023223535A1 (ja) | 2023-11-23 |
JPWO2023223535A1 (ko) | 2023-11-23 |
CN117441175A (zh) | 2024-01-23 |
TW202347188A (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7020312B2 (ja) | 画像特徴学習装置、画像特徴学習方法、画像特徴抽出装置、画像特徴抽出方法、及びプログラム | |
CN110995858B (zh) | 一种基于深度q网络的边缘网络请求调度决策方法 | |
CN113261003A (zh) | 使用神经网络生成集成电路平面图 | |
CN111325416A (zh) | 预测叫车平台的用户流失的方法和装置 | |
CN113392971B (zh) | 策略网络训练方法、装置、设备及可读存储介质 | |
US11605026B2 (en) | Methods and systems for support policy learning | |
US10534874B2 (en) | Particle etching or depositing evolutionary simulation method and device and computer readable medium | |
CN110471768B (zh) | 一种基于fastPCA-ARIMA的负载预测方法 | |
CN109558898B (zh) | 一种基于深度神经网络的高置信度的多选择学习方法 | |
EP3828783A1 (en) | Parallelised training of machine learning models | |
CN113822173A (zh) | 基于节点归并和路径预测的行人属性识别训练加速方法 | |
Müller et al. | Accelerating noisy VQE optimization with Gaussian processes | |
CN109074348A (zh) | 用于对输入数据集进行迭代聚类的设备和迭代方法 | |
JP6453785B2 (ja) | 回帰分析装置、回帰分析方法および回帰分析プログラム | |
JP6743902B2 (ja) | マルチタスク関係学習システム、方法およびプログラム | |
KR20230162770A (ko) | 탐색 장치 및 탐색 방법 그리고 반도체 장치 제조 시스템 | |
JP6721535B2 (ja) | Lle計算装置、lle計算方法及びlle計算プログラム | |
WO2018168695A1 (ja) | 分散機械学習装置、分散機械学習方法および分散機械学習記録媒体 | |
JP5126694B2 (ja) | 学習システム | |
CN113807014A (zh) | 一种考虑统计性、经济性的非参数自适应动态ewma控制图多目标优化设计方法 | |
Galdino | Interval-valued Data Clustering Based on the Range City Block Metric | |
KR102265361B1 (ko) | 스무딩을 이용한 딥러닝 방법 및 장치 | |
Drugan et al. | Adaptive Multi-operator MetaHeuristics for quadratic assignment problems | |
CN112486584A (zh) | 一种利用强化学习进行大数据平台调参的方法和系统 | |
Hanselmann et al. | Optimal parametric density estimation by minimizing an analytic distance measure |