TW202349275A - 與處理裝備相關聯的合成時間序列資料 - Google Patents

與處理裝備相關聯的合成時間序列資料 Download PDF

Info

Publication number
TW202349275A
TW202349275A TW112108087A TW112108087A TW202349275A TW 202349275 A TW202349275 A TW 202349275A TW 112108087 A TW112108087 A TW 112108087A TW 112108087 A TW112108087 A TW 112108087A TW 202349275 A TW202349275 A TW 202349275A
Authority
TW
Taiwan
Prior art keywords
data
machine learning
learning model
time series
series data
Prior art date
Application number
TW112108087A
Other languages
English (en)
Inventor
約書華湯瑪士 瑪爾
Original Assignee
美商應用材料股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 美商應用材料股份有限公司 filed Critical 美商應用材料股份有限公司
Publication of TW202349275A publication Critical patent/TW202349275A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Neurology (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Cold Air Circulating Systems And Constructional Details In Refrigerators (AREA)

Abstract

一種方法包括以下步驟:向第一經訓練的機器學習模型提供隨機輸入或偽隨機輸入,該第一經訓練的機器學習模型被訓練為為處理腔室產生合成感測器時間序列資料。該方法進一步包括以下步驟:向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料。該方法進一步包括以下步驟:從該第一經訓練的機器學習模型接收一輸出。該輸出包括與該處理腔室相關聯的合成感測器時間序列資料。該輸出是根據表明該一個或多個屬性的該第一資料產生的。

Description

與處理裝備相關聯的合成時間序列資料
本揭示內容涉及與機器學習模型相關聯的方法。更詳細而言,本揭示內容涉及用於用與處理裝備(equipment)相關聯的機器學習模型產生和利用合成資料的方法。
產品可以藉由使用製造裝備(equipment)執行一個或多個製造過程來生產。例如,半導體製造裝備可以用來經由半導體製造過程來生產基板。生產的產品要有特定的性質,適合於目標應用。機器學習模型被用於與製造裝備相關聯的各種製程控制和預測功能。機器學習模型是使用與製造裝備相關聯的資料來訓練的。
以下是本揭示內容的簡化概要,以提供對本揭示內容的一些態樣的基本理解。這個概要並不是對本揭示內容的廣泛概述。它並不旨在識別本揭示內容的關鍵或重要元素,也不旨在劃定本揭示內容的特定實施例的任何範圍或請求項的任何範圍。它的唯一目的是以簡化的形式呈現本揭示內容的一些概念以作為後面呈現的更詳細描述的前奏。
一種方法包括以下步驟:向第一經訓練的機器學習模型提供隨機輸入或偽隨機輸入,該第一經訓練的機器學習模型被訓練為為處理腔室產生合成感測器時間序列資料。該方法進一步包括以下步驟:向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料。該方法進一步包括以下步驟:從該第一經訓練的機器學習模型接收一輸出。該輸出包括與該處理腔室相關聯的合成感測器時間序列資料。該輸出是根據表明該一個或多個屬性的該第一資料產生的。
在本揭示內容的另一個態樣中,揭露了一種系統,該系統包括記憶體和與該記憶體耦合的處理設備(device)。該處理設備被配置為執行操作。該等操作包括以下步驟:向第一經訓練的機器學習模型提供隨機輸入或偽隨機輸入。該第一經訓練的機器學習模型被訓練為為處理腔室產生合成感測器時間序列資料。該等操作進一步包括以下步驟:向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料。該等操作進一步包括以下步驟:從該第一經訓練的機器學習模型接收一輸出。該輸出包括與該處理腔室相關聯的合成感測器時間序列資料。該輸出是根據表明一個或多個屬性的該第一資料產生的。
在另一個態樣中,揭露了一種非暫時性機器可讀取儲存媒體。該非暫時性機器可讀取儲存媒體儲存有指令,該等指令當被執行時,導致處理設備執行操作。該等操作包括以下步驟:向第一經訓練的機器學習模型提供隨機輸入或偽隨機輸入,該第一經訓練的機器學習模型被訓練為為處理腔室產生合成感測器時間序列資料。該等操作進一步包括以下步驟:向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料。該等操作進一步包括以下步驟:從該第一經訓練的機器學習模型接收輸出。該輸出包括與該處理腔室相關聯的合成感測器時間序列資料。該輸出是根據表明一個或多個屬性的該第一資料產生的。
本文描述的是與產生合成時間跟蹤資料有關的技術,該資料例如可以用於訓練機器學習模型。製造裝備被用來生產產品,例如基板(例如晶圓、半導體)。製造裝備可以包括製造或處理腔室,以將基板與環境分開。所生產的基板的性質要滿足目標值,以促進特定功能性的實現。要選擇製造參數,以生產出滿足目標性質值的基板。許多製造參數(如硬體參數、製程參數等)對經處理基板的性質有貢獻。製造系統可以藉由為性質值指定設定點並從設置在製造腔室內的感測器接收資料,對製造裝備作出調整直到感測器讀數與該設定點匹配,來控制參數。在一些實施例中,利用經訓練的機器學習模型來改進製造裝備的性能。
可以以與處理腔室和/或製造裝備相關聯的幾種方式應用機器學習模型。機器學習模型可以接收感測器資料、處理腔室中的性質的測量值作為輸入。機器學習模型可以被配置為預測製程結果,例如成品的計量結果。機器學習模型可以接收與工件或基板相關聯的原位資料(例如蝕刻製程期間半導體晶圓的反射光譜)作為輸入。機器學習模型可以被配置為預測和控制製程結果,例如可以預測蝕刻製程何時完成,並向處理腔室發送指令以停止蝕刻操作。在一些實施例中,機器學習模型可以接受成品的計量資料作為輸入。機器學習模型可以被配置為產生對產品異常的根本原因(例如處理錯失(fault))的預測作為輸出。這些是與製造裝備聯合使用機器學習的幾個代表性例子,還有許多其他例子。
在一些實施例中,大量的時間跟蹤資料被用來訓練機器學習模型,例如,與數百次處理運行相關聯的資料。資料可以包括許多時間蹤跡,例如,與數百個感測器相關聯的時間蹤跡,與一個處理運行的多個處理操作相關聯的時間蹤跡,等等。
在一些實施例中,製造裝備的性能隨時間變化。在一些製程中,隨著產品被處理,材料可能會沉積在腔室部件(component)上,例如基板支撐件、閥門和致動器、蓮蓬頭等,可能會累積層層的各種處理材料或副產物。在一些製程中,可以從各種腔室部件移除材料,例如藉由腐蝕性氣體或電漿來移除。隨著製造系統的部件逐漸變化,工件(如基板、半導體晶片等)所經歷的條件可能會受到影響。成品的性質(例如,基板計量)也可能隨著條件的變化而偏移。
為了避免不可預知的腔室條件,對處理裝備執行維護。在一些情況下,一個或多個部件被替換。在一些情況下,執行調理操作。一些維護操作是作為規劃的維護事件(例如依據排程來執行以保持裝備性能可接受的維護事件)的一部分執行的。一些維護操作是作為計劃外維護事件(例如響應於系統錯失、意外的系統或部件故障等而啟動的維護事件)的一部分執行的。
緩慢的漂移和突然的變化(例如,維護、部件替換等)可能會改變處理腔室中設定點與性質值之間的關係。例如,隨著腔室的老化或如果加熱元件(element)被替換,針對加熱器的設定點(例如向加熱器提供的功率)可能導致在基板的位置出現不同的溫度曲線。在一些實施例中,感測器資料與基板附近的條件之間的關係可能會受到處理腔室的變化的影響。為執行與處理裝備相關聯的功能(例如,產生預測資料)而訓練的機器學習模型可能會隨著腔室條件的變化而提供不太可靠的功能性。
機器學習模型可以被配置為識別、分類或利用跟蹤資料中的罕見特徵,例如,基於感測器資料輸入對製造裝備的錯失進行分類。在一些實施例中,大多數處理運行並不表明裝備的錯失——利用正常功能的部件,大多數處理運行都產生正常的處理條件。
訓練機器學習模型可能很昂貴。機器學習模型一般要用大量的資料樣本進行訓練,以使機器學習模型準確。例如,機器學習模型可以被配置為接收感測器資料作為輸入,並產生對成品的計量的預測作為輸出。在訓練機器學習模型時,可以向機器學習模型提供許多(例如數百個)產品(例如基板)的計量資料和相關聯的感測器資料。經訓練的機器學習模型可能只為狹窄範圍的情況提供有用(例如準確)的資料。例如,經訓練的機器學習模型可能只適用於一個處理腔室、一個基板設計、一個製程配方等。產生足以訓練機器學習模型的資料可能涉及大量的支出,例如在原料、處理時間、能源、試劑、裝備磨損、產生計量資料的支出等方面。在產生訓練資料的同時,處理裝備可能在沒有來自一個或多個機器學習模型的預測資料的保護的情況下操作。處理裝備可能在沒有預測性機器學習資料的情況下在增加部件磨損的條件下操作。部件的壽命可能會因為在次優的條件下操作而縮短。
產生足以產生具有可觀預測能力的經訓練的機器學習模型的訓練資料的費用,會因為不斷變化的腔室品質(其例如由漂移、維護等引起)而變得更加複雜。隨著腔室品質的變化(例如,隨著部件經歷漂移、被替換等),與處理腔室相關聯的機器學習模型的預測能力可能會惡化。為了保持足夠的預測能力,機器學習模型可以被再訓練。來自進一步的產品處理、計量等方面的資料可以用於訓練機器學習模型。這樣的策略涉及為改變的處理腔室產生大量的訓練資料。在產生新的訓練資料時,腔室可能處於離線狀態(例如,可能不生產供使用、供銷售等的產品)。處理系統可能會規律地發生變化。離線時間(例如,產生訓練資料的停機時間)可能會變得不方便或昂貴。
產生足夠的訓練資料的費用也可能因機器學習模型的預期功能(例如,異常偵測、錯失根本原因分類等)而加重。可操作的製造系統中的錯失往往是罕見的。在錯失發生之前,可以執行許多處理運行。在一些實施例中,在錯失被改正之前,可以執行少量的處理運行。在正常操作下,收集足夠的錯失表明資料可能需要不合理的時間量。在一些情況下,製造裝備可以故意在有錯失(例如故障或老化的部件)的情況下操作,以收集訓練資料。在一些情況下,操作有錯失的製造設備可能會增加製造系統的壓力。壓力的增加可能會降低製造系統的壽命,增加部件、維修、停機時間、零件快遞運輸等方面的費用。
本揭示內容的方法和設備可以解決傳統解決方案的這些缺陷中的一者或多者。在一些實施例中,與處理腔室相關聯的一個或多個機器學習模型要被訓練。在一些實施例中,訓練資料包括時間跟蹤資料,例如感測器資料。在一些實施例中,可用的訓練資料量有限。在一些實施例中,可用的一種或多種類型的訓練資料(例如表明各種子系統即將發生的錯失的資料等)量有限。在一些實施例中,一個或多個機器學習模型(例如包括並行的幾個模型的系集模型)可以用於產生合成時間跟蹤訓練資料。
合成時間跟蹤資料可以使用機器學習模型來產生。在一些實施例中,相對少量的真實資料(例如在處理運行期間由感測器收集的資料、測得的感測器時間序列資料)可以用於訓練模型以產生合成時間跟蹤資料。產生器模型可以被配置為產生與真實資料的分佈相匹配(即統計上與真實資料相似)的合成資料。
在一些實施例中,用於訓練產生器模型的資料可以被標記有一個或多個屬性。屬性可以包括識別資料來源的標籤,例如,感測器類型、感測器位置、關於處理配方或操作的資訊等。屬性可以包括識別製造系統的狀態的標籤,例如,處理裝備中存在的錯失的標籤,對自製造裝備的安裝或維護以來的時間的指示,等等。
在一些實施例中,合成資料的產生可以包括使用生成對抗網路(GAN)。GAN是一種無監督式的(例如,在訓練操作期間,將訓練輸入提供給模型,而不提供目標輸出)機器學習模型。一個基本的GAN包括兩個部分:產生器和鑒別器。產生器產生合成資料,例如,時間跟蹤感測器資料。然後向鑒別器提供合成資料和真實資料(例如,在處理運行期間由感測器收集的資料)。鑒別器試圖將資料標記為真實資料或合成資料(例如,將合成資料與真實資料區分開來),而產生器試圖產生無法被鑒別器區分為合成資料的合成資料。一旦產生器達到目標效率(例如,達到鑒別器不分類為是合成的閾值輸出部分),產生器就可以用於產生合成資料,供其他應用使用。
在一些實施例中,產生器可以被配置為依據某些屬性產生輸出,例如,可以被配置為產生與在製造裝備中存在錯失時截取的訓練資料有關的輸出。以這種方式,相對較少量的訓練資料可以用於訓練GAN,而產生器可以產生大量具有表明製造裝備中錯失的特徵的資料(例如,用於訓練配置為預測錯失的機器學習模型)。在一些實施例中,有足夠數量的訓練資料可以用於訓練機器學習模型,而且資料是在良好控制的處理條件下收集的。在一些實施例中,良好控制的處理條件可以在許多處理運行中產生捕捉條件的小變化的資料集。在一些實施例中,在相似資料上訓練的機器學習模型可能會缺乏強健性,例如,即使條件發生相對較小的變化,也可能表現不佳。在一些實施例中,產生器可以被配置為產生嘈雜輸出。嘈雜輸出可以用於訓練機器學習模型。與嚴格按照真實資料訓練的機器學習模型相比,使用嘈雜的合成資料訓練的機器學習模型可能對製造裝備的變化條件更具強健性。
與傳統的解決方案相比,本揭示內容的態樣產生了技術優勢。本揭示內容的各態樣導致機器學習模型的訓練和資料產生/收集更高效。機器學習模型的訓練可以用大量的資料來執行。在實施例中,用於訓練機器學習模型的資料的一部分(例如可選地,一大部分)是依據本文所述的實施例產生的合成資料。用於訓練腔室的資料量大的情況可能會因腔室條件的變化(如老化和漂移、部件替換、維護等)、目標罕見事件(如錯失或異常偵測)等而進一步加劇。在傳統的系統中,可以執行大量的處理運行以產生訓練資料。這可能會導致大量的材料浪費,大量的腔室停機時間,耗費能源,等等。在一些實施例中,處理腔室控制系統可以由機器學習模型執行或部分執行。在產生訓練資料時,這些處理腔室可能在理想條件之外操作(例如在沒有相關聯的控制模型的協助下操作)。利用本揭示內容中提出的產生訓練資料的方法,在產生用於訓練(或再訓練)機器學習模型的資料時,可以減少材料支出、時間支出、能源支出、不受控制的腔室使用等。在一些實施例中,可以故意在有錯失的情況下操作腔室,以產生表明錯失的訓練資料。這種做法可能會給製造系統的部件帶來額外的壓力,減少部件的壽命,增加維護的頻率,等等。藉由利用機器學習模型來產生合成資料,這種支出可以減少。產生的訓練資料可以提供額外的強健性,防止過度擬合,並且可以針對特定的應用(例如,具有特定一組屬性的資料)。
本揭示內容的態樣描述了一種方法,該方法包括以下步驟:向第一經訓練的機器學習模型提供隨機輸入或偽隨機輸入,該第一經訓練的機器學習模型被訓練為為處理腔室產生合成感測器時間序列資料。該方法進一步包括以下步驟:向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料。該方法進一步包括以下步驟:從該第一經訓練的機器學習模型接收輸出。該輸出包括與該處理腔室相關聯的合成感測器時間序列資料。該輸出是根據表明該一個或多個屬性的該第一資料產生的。
在本揭示內容的另一個態樣中,揭露了一種系統,該系統包括記憶體和與該記憶體耦合的處理設備(device)。該處理設備被配置為執行操作。該等操作包括以下步驟:向第一經訓練的機器學習模型提供隨機輸入或偽隨機輸入。該第一經訓練的機器學習模型被訓練為為處理腔室產生合成感測器時間序列資料。該等操作進一步包括以下步驟:向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料。該等操作進一步包括以下步驟:從該第一經訓練的機器學習模型接收輸出。該輸出包括與該處理腔室相關聯的合成感測器時間序列資料。該輸出是根據表明一個或多個屬性的該第一資料產生的。
在另一個態樣中,揭露了一種非暫時性機器可讀取儲存媒體。該非暫時性機器可讀取儲存媒體儲存有指令,該等指令當被執行時,導致處理設備執行操作。該等操作包括以下步驟:向第一經訓練的機器學習模型提供隨機輸入或偽隨機輸入,該第一經訓練的機器學習模型被訓練為為處理腔室產生合成感測器時間序列資料。該等操作進一步包括以下步驟:向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料。該等操作進一步包括以下步驟:從該第一經訓練的機器學習模型接收輸出。該輸出包括與該處理腔室相關聯的合成感測器時間序列資料。該輸出是根據表明一個或多個屬性的該第一資料產生的。
圖1是依據一些實施例,說明示例性系統100(示例性系統架構)的方塊圖。系統100包括客戶端設備120、製造裝備124、感測器126、計量裝備128、預測伺服器112和資料儲存器140。預測伺服器112可以是預測系統110的一部分。預測系統110可以進一步包括伺服器機器170和180。
感測器126可以提供與製造裝備124相關聯(例如與製造裝備124生產對應的產品(例如基板)相關聯)的感測器資料142。感測器資料142可以用於確定裝備的健康和/或產品的健康(例如產品的品質)。製造裝備124可以按照配方生產產品或在一段時間內執行作業。在一些實施例中,感測器資料142可以包括以下一個或多個項目的值:光學感測器資料、光譜資料、溫度(例如加熱器溫度)、間隔(SP)、壓力、高頻射頻(HFRF)、射頻(RF)匹配電壓、射頻匹配電流、射頻匹配電容器位置、靜電卡盤(ESC)的電壓、致動器位置、電流、流量、功率、電壓等。感測器資料142可以包括歷史感測器資料144和當前感測器資料146。當前感測器資料146可以與當前正在處理的產品、一個最近處理的產品、一些最近處理的產品等相關聯。當前感測器資料146可以用作對經訓練的機器學習模型的輸入,以例如產生預測資料168。歷史感測器資料144可以包括與先前生產的產品相關聯的儲存資料。歷史感測器資料144可以用於訓練機器學習模型,例如模型190。歷史感測器資料144和/或當前感測器資料146可以包括屬性資料,例如製造裝備ID或設計、感測器ID、類型和/或位置的標籤,製造裝備的狀態的標籤,例如當前的錯失、服務壽命,等等。
感測器資料142可以關聯於或表明製造參數,例如製造裝備124的硬體參數(例如硬體設定或經安裝的部件,例如尺寸、類型等)或製造裝備124的製程參數(例如加熱器設定、氣體流量等)。與一些硬體參數和/或製程參數相關聯的資料可以替代性地或附加性地被儲存為製造參數150,其中可以包括歷史製造參數(其例如與歷史處理作業相關聯)和當前製造參數。製造參數150可以表明對製造裝備的輸入設定(例如加熱器功率、氣體流量等)。感測器資料142和/或製造參數150可以在製造裝備124正在執行製造過程時提供(例如處理產品時的裝備讀數)。每個產品(例如每個基板)的感測器資料142可能是不同的。基板可以具有由計量裝備128測得的性質值(薄膜厚度、薄膜應變等)。計量資料160可以是資料儲存器140的部件。
在一些實施例中,感測器資料142、計量資料160或製造參數150可以被處理(例如由客戶端設備120和/或預測伺服器112處理)。對感測器資料142的處理可以包括產生特徵。在一些實施例中,特徵是感測器資料142、計量資料160和/或製造參數150中的模式(例如斜率、寬度、高度、峰值等)或來自感測器資料142、計量資料和/或製造參數的數值組合(例如根據電壓和電流導出的功率等)。感測器資料142可以包括特徵,並且這些特徵可以由預測部件114所使用,以執行訊號處理和/或獲得用於執行改正動作的預測資料168。
感測器資料142的每個實例(例如組)可以與產品(例如基板)、一組製造裝備、由製造裝備所生產的一種類型的基板等對應。計量資料160和製造參數150的每個實例可以同樣與產品、一組製造裝備、由製造裝備所生產的一種類型的基板等對應。資料儲存器可以進一步儲存關聯各組不同資料類型的資訊,例如表明一組感測器資料、一組計量資料和一組製造參數全都與同一產品、製造裝備、基板類型等相關聯的資訊。
在一些實施例中,處理設備(例如經由機器學習模型)可以用於產生合成的感測器資料162。合成的感測器資料可以以上面結合感測器資料142描述的任何方式處理,例如產生特徵、組合值、連結來自特定配方、腔室或基板的資料,等等。合成的感測器資料162可以與感測器資料142共用特徵,例如可以與當前感測器資料146、歷史感測器資料144等具有共同的特徵。
在一些實施例中,預測系統110可以使用監督式機器學習來產生預測資料168(例如預測資料168包括來自一個機器學習模型的輸出,該機器學習模型是使用有標籤的資料(例如標有計量資料的感測器資料等)來訓練的)。在一些實施例中,預測系統110可以使用無監督式機器學習來產生預測資料168(例如預測資料168包括來自一個機器學習模型的輸出,該機器學習模型是使用未標記的資料來訓練的,輸出可以包括聚類結果、主成分分析、異常偵測等)。在一些實施例中,預測系統110可以使用半監督式學習來產生預測資料168(例如訓練資料可以包括有標籤和無標籤的資料的混合,等等)。
客戶端設備120、製造裝備124、感測器126、計量裝備128、預測伺服器112、資料儲存器140、伺服器機器170和伺服器機器180可以經由網路130彼此耦合,以產生預測資料168,執行改正動作。在一些實施例中,網路130可以提供對基於雲端的服務的存取。由客戶端設備120、預測系統110、資料儲存器140等執行的操作可以由虛擬的基於雲端的設備來執行。
在一些實施例中,網路130是公用網路,它向客戶端設備120提供對預測伺服器112、資料儲存器140和其他可公用的計算設備的存取。在一些實施例中,網路130是私用網路,它向客戶端設備120提供對製造裝備124、感測器126、計量裝備128、資料儲存器140和其他可私用的計算設備的存取。網路130可以包括一個或多個廣域網路(WAN)、區域網路(LAN)、有線網路(例如乙太網路)、無線網路(例如802.11網路或Wi-Fi網路)、蜂巢式網路(例如長期演進(LTE)網路)、路由器、集線器、交換機、伺服器電腦、雲端計算網路和/或上述項目的組合。
客戶端設備120可以包括計算設備,例如個人電腦(PC)、膝上型電腦、行動電話、智慧型手機、平板電腦、隨身型易網機電腦、網路連接的電視(「智慧型TV」)、網路連接的媒體播放器(例如藍光播放器)、機上盒、過頂(OTT)串流設備、營運商盒子(operator box)等。客戶端設備120可以包括改正動作部件122。改正動作部件122可以接收與製造裝備124相關聯的指示的使用者輸入(例如經由客戶端設備120顯示的圖形使用者介面(GUI)接收)。在一些實施例中,改正動作部件122向預測系統110傳輸指示,從預測系統110接收輸出(例如預測資料168),基於輸出來決定改正動作,並導致改正動作被實施。在一些實施例中,改正動作部件122獲得與製造裝備124相關聯的感測器資料142(例如當前感測器資料146)(例如從資料儲存器140等獲得),並向預測系統110提供與製造裝備124相關聯的感測器資料142(例如當前感測器資料146)。在一些實施例中,改正動作部件122將感測器資料142儲存在資料儲存器140中,預測伺服器112從資料儲存器140擷取感測器資料142。在一些實施例中,預測伺服器112可以將經訓練的模型190的輸出(例如預測資料168)儲存在資料儲存器140,客戶端設備120可以從資料儲存器140擷取輸出。在一些實施例中,改正動作部件122從預測系統110接收對改正動作的指示,並導致該改正動作被實施。每個客戶端設備120包括作業系統,該作業系統允許使用者進行產生、檢視或編輯資料(例如與製造裝備124相關聯的指示、與製造裝備124相關聯的改正動作等)的一個或多個操作。
在一些實施例中,計量資料160與產品(其例如是使用與歷史感測器資料144和製造參數150的歷史製造參數相關聯的製造參數來生產的)的歷史性質資料對應,預測資料168與經預測的性質資料(例如要生產的產品或已經在由當前感測器資料146和/或當前製造參數所記錄的條件下生產的產品的預測性質資料)相關聯。在一些實施例中,預測資料168是要生產的產品或已經依據作為當前感測器資料146和/或當前製造參數記錄的條件來生產的產品的預測計量資料(例如虛擬計量資料)。在一些實施例中,預測資料168是對異常(例如異常的產品、異常的部件、異常的製造裝備124、異常的能源使用量等)和異常的一個或多個原因的指示。在一些實施例中,預測資料168是對製造裝備124、感測器126、計量裝備128等的某個部件隨時間的變化或漂移的指示。在一些實施例中,預測資料168是對製造裝備124、感測器126、計量裝備128等的部件的壽命結束的指示。在一些實施例中,預測資料168是對正在執行的處理操作(其例如用於製程控制)的進度的指示。
執行導致有缺陷的產品的製造過程可能在時間、能源、產品、部件、製造裝備124、識別缺陷和丟棄有缺陷的產品的成本等方面都會造成損失。藉由將感測器資料142(例如正在用來或要用來製造產品的製造參數)輸入到預測系統110中,接收預測資料168的輸出,並基於預測資料168來執行改正動作,系統100可以具有避免生產、識別和丟棄有缺陷的產品的成本的技術優勢。
執行導致製造裝備124的部件出現故障的製造過程可能會造成停機時間、產品損壞、裝備損壞、快遞訂購替換部件等方面的損失。藉由輸入感測器資料142(例如正在用來或要用來製造產品的製造參數),接收預測資料168的輸出,並基於預測資料168來執行改正動作(例如預測的操作維護,例如對部件進行替換、處理、清潔等),系統100可以具有避免意外部件故障、計劃外停機時間、生產力損失、意外設備故障、產品報廢等情況中的一者或多者的成本的技術優勢。監測部件(例如製造裝備124、感測器126、計量裝備128和類似物)隨時間變化的性能可以提供對劣化部件的指示。
製造參數對於生產產品而言可能是次優的,這可能造成資源(如能源、冷卻劑、氣體等)消耗增加、生產產品的時間量增加、部件故障增加、有缺陷的產品的數量增加等代價高昂的結果。藉由將感測器資料142輸入到經訓練的模型190中,接收預測資料168的輸出,並執行(例如基於預測資料168來執行)更新製造參數(例如設定最佳的製造參數)的改正動作,系統100可以具有使用最佳製造參數(例如硬體參數、製程參數、最佳設定)以避免次優製造參數的代價高昂的結果的技術優勢。
改正動作可以與以下項目中的一者或多者相關聯:計算製程控制(CPC)、統計製程控制(SPC)(例如對電子部件進行SPC以決定控制的製程,進行SPC以預測部件的有用壽命,進行SPC以與3-西格馬(sigma)的圖表進行比較等)、高級製程控制(APC)、基於模型的製程控制、預防性操作維護、設計最佳化、更新製造參數、更新製造配方、反饋控制、機器學習修改等。
在一些實施例中,改正動作包括提供警報(例如如果預測資料168表明預測到異常,例如產品、部件或製造裝備124的異常,則提供停止或不執行製造過程的警報)。在一些實施例中,機器學習模型被訓練為監測處理作業的進度(例如監測原位感測器資料,以預測製造過程是否已經達到完成)。在一些實施例中,當模型決定製程完成時,機器學習模型可以發送結束處理作業的指令。在一些實施例中,改正動作包括提供反饋控制(例如響應於預測資料168表明預測到異常而修改製造參數)。在一些實施例中,改正動作的執行包括導致對一個或多個製造參數的更新。在一些實施例中,改正動作的執行可以包括再訓練與製造裝備124相關聯的機器學習模型。在一些實施例中,改正動作的執行可以包括訓練與製造裝備124相關聯的新的機器學習模型。
製造參數150可以包括硬體參數(例如表明哪些部件被安裝在製造裝備124中、表明部件的替換、表明部件的年齡、表明軟體的版本或更新等的資訊)和/或製程參數(例如溫度、壓力、流量、速率、電流、電壓、氣體流量、提升速度等)。在一些實施例中,改正動作包括導致預防性操作維護(例如對製造裝備124的部件進行替換、處理、清潔等)。在一些實施例中,改正動作包括導致設計最佳化(例如為最佳化的產品更新製造參數、製造過程、製造裝備124等)。在一些實施例中,改正動作包括更新配方(例如改變製造子系統進入閒置或活動模式的定時,改變各種性質值的設定點,等等)。
預測伺服器112、伺服器機器170和伺服器機器180可以各自包括一個或多個計算設備,例如機架式伺服器、路由器電腦、伺服器電腦、個人電腦、大型電腦、膝上型電腦、平板電腦、桌上型電腦、圖形處理單元(GPU)、加速器特定應用積體電路(ASIC)(例如張量處理單元(TPU))等。預測伺服器112、伺服器機器170、伺服器機器180、資料儲存器140等的操作可以由雲端計算服務、雲端資料儲存服務等執行。
預測伺服器112可以包括預測部件114。在一些實施例中,預測部件114可以接收當前感測器資料146和/或當前製造參數(例如從客戶端設備120接收、從資料儲存器140擷取),並基於當前資料來產生用於執行與製造裝備124相關聯的改正動作的輸出(例如預測資料168)。在一些實施例中,預測部件114可以使用一個或多個經訓練的機器學習模型190基於當前資料來決定用於執行改正動作的輸出。
在一些實施例中,製造裝備124可以具有與之相關聯的一個或多個機器學習模型。與製造裝備124相關聯的機器學習模型可以執行各種功能。機器學習模型可以被配置為接受時間跟蹤感測器資料作為輸入,並產生經預測的計量資料作為輸出。時間跟蹤感測器資料可以包括在處理操作發生時由與製造過程相關聯的感測器測得的值,例如在順序的時間點截取的資料。在一些實施例中,時間跟蹤資料可以包括每秒一次、每秒十次、每秒一百次或其他間隔測量的值。在一些實施例中,時間跟蹤感測器資料可以不以均勻(例如,相等)的間隔收集。時間跟蹤感測器資料可以進一步稱為時間序列資料、感測器時間序列資料等。時間跟蹤感測器資料可以包括對感測器附近的溫度、處理腔室中的壓力、諸如反射率測量、透射率測量等光譜資料、諸如電壓或電流之類的電氣性質、射頻波長或振幅等的有序測量(例如,時間上的順序)。機器學習模型可以被配置為接受時間跟蹤感測器資料(例如晶圓的光譜資料)作為輸入,並產生對製程進度的估計作為輸出。接受與製造裝備124相關聯的時間跟蹤資料作為輸入的其他機器學習模型是可能的,並在本揭示內容的範圍內。機器學習模型(例如機器學習模型190)的輸出可以作為預測資料168儲存在資料儲存器140中。
製造裝備124可以與一個或多個機器傾側模型(例如模型190)相關聯。與製造裝備124相關聯的機器學習模型可以執行許多任務,包括製程控制、分類、性能預測等。模型190可以使用與製造裝備124或由製造裝備124處理的產品相關聯的資料來訓練,例如感測器資料142(其例如由感測器126收集)、製造參數150(其例如與製造裝備124的製程控制相關聯)、計量資料160(其例如由計量裝備128產生)等。可以用於執行上述的一些任務或所有任務的一種機器學習模型是人工神經網路,如深度神經網路。人工神經網路通常包括具有將特徵映射到目標輸出空間的分類器或迴歸層的特徵表示部件。例如,卷積神經網路(CNN)包含多層卷積過濾器。在較低層處,池化被執行,並且非線性問題可以被解決,在這些較低層上通常附加有多層感知器,將由卷積層所抽取的頂層特徵映射到決策(例如分類輸出)。遞歸神經網路(RNN)是另一種類型的機器學習模型。遞歸神經網路模型被設計為解釋一系列的輸入,其中輸入相互有著固有的聯繫,例如,時間跟蹤資料、順序資料等。RNN的感知器的輸出被反饋到感知器作為輸入,以產生下一個輸出。深度學習是一類機器學習演算法,它使用多層非線性處理單元的級聯進行特徵抽取和變換。每個連續的層使用來自前一層的輸出作為輸入。深度神經網路可以以監督式(如分類)和/或無監督式(如模式分析)的方式進行學習。深度神經網路包括層的分層結構,不同的層學習與不同的抽象層次對應的不同的表示層次。在深度學習中,每個層次都會學習將其輸入資料變換成略微更加抽象和綜合的表示。在影像辨識應用中,例如,原始輸入可能是一個像素矩陣;第一代表層(representational layer)可以將像素抽象化並對邊緣進行編碼;第二層可以對邊緣的佈置進行編製(compose)和編碼;第三層可以對更高層次的形狀(如牙齒、嘴唇、牙齦等)進行編碼;第四層可以辨識掃描作用。值得注意的是,深度學習過程可以自行學習哪些特徵要最佳地放置在哪個層次。「深度學習」中的「深度」指的是變換資料所通過的層數。更確切地說,深度學習系統有相當大的信用分配路徑(CAP)深度。CAP是從輸入到輸出的變換鏈。CAP描述了輸入與輸出之間潛在的因果關係。對於前饋神經網路,CAP的深度可以是網路的深度,並且可以是隱藏層的數量加1。對於訊號可以通過一個層傳播超過一次的遞歸神經網路來說,CAP深度可能是無限的。
在一些實施例中,預測部件114接收當前感測器資料146和/或當前製造參數154,執行訊號處理以將當前資料分解成各個當前資料集,提供當前資料集作為對經訓練的模型190的輸入,並且從該經訓練的模型190獲得表明預測資料168的輸出。在一些實施例中,預測資料表明計量資料(例如對基板品質的預測)。在一些實施例中,預測資料表明部件的健康。在一些實施例中,預測資料表明處理進度(其例如用於結束處理操作)。
在一些實施例中,結合模型190討論的各種模型(例如監督式機器學習模型、無監督式機器學習模型等)可以被結合在一個模型(例如系集模型)中,或者可以是單獨的模型。預測部件114可以接收當前感測器資料146和當前製造參數154,向經訓練的模型190提供資料,並接收表明製造腔室中的幾個部件相對於它們以前的性能有多大的漂移的資訊。資料可以在包括在模型190和預測部件114中的幾個相異的模型之間來回傳遞。在一些實施例中,這些操作中的一些或全部可以替代地由不同的設備執行,例如客戶端設備120、伺服器機器170、伺服器機器180等。本領域的普通技術人員將理解,資料流程的變化、哪些部件執行哪些過程、哪些模型被提供哪些資料等都在本揭示內容的範圍內。
資料儲存器140可以是記憶體(例如隨機存取記憶體)、驅動器(例如硬碟機、快閃碟)、資料庫系統、雲端可存取的記憶體系統,或能夠儲存資料的另一種類型的部件或設備。資料儲存器140可以包括可以跨越多個計算設備(例如多個伺服器電腦)的多個儲存部件(例如多個驅動器或多個資料庫)。資料儲存器140可以儲存感測器資料142、製造參數150、計量資料160、合成的感測器資料162和預測資料168。感測器資料142可以包括歷史感測器資料144和當前感測器資料146。感測器資料可以包括製造過程的持續時間內的感測器資料時間蹤跡,資料與實體感測器的關聯,經預處理的資料(例如平均數和複合資料),以及表明感測器性能隨時間(即許多製造過程)變化的資料。製造參數150和計量資料160可以包含類似的特徵。歷史感測器資料144和歷史製造參數可以是歷史資料(例如這些資料的至少一部分可以用於訓練模型190)。當前感測器資料146可以是當前資料(例如在歷史資料之後,至少有一部分要被輸入到學習模型190中),預測資料168要為該當前資料產生(例如用於執行改正動作)。合成的感測器資料162可以包括一種資料,該資料包括幾個不同資料的代表性特徵,例如可以包括舊的感測器資料148(例如在訓練模型190之前產生的感測器資料)的特徵和新的感測器資料149(例如在訓練模型190之後產生的感測器資料)的特徵。
在一些實施例中,預測系統110進一步包括伺服器機器170和伺服器機器180。伺服器機器170包括資料集產生器172,它能夠產生資料集(例如一組資料輸入和一組目標輸出)以訓練、驗證和/或測試模型190,包括一個或多個機器學習模型。下面關於圖2A-B和4A詳細描述了資料集產生器172的一些操作。在一些實施例中,資料集產生器172可以將歷史資料(例如儲存在資料儲存器140中的歷史感測器資料144、歷史製造參數、合成的感測器資料162)劃分成訓練集(例如百分之六十的歷史資料)、驗證集(例如百分之二十的歷史資料)和測試集(例如百分之二十的歷史資料)。在一些實施例中,預測系統110(例如經由預測部件114)產生多組特徵。例如,第一組特徵可以與第一組類型的感測器資料(其例如來自第一組感測器、來自第一組感測器的第一值組合、來自第一組感測器的值中的第一模式)對應,該第一組類型的感測器資料與資料集(例如訓練集、驗證集和測試集)中的每一者對應,並且第二組特徵可以與第二組類型的感測器資料(其例如來自與第一組感測器不同的第二組感測器、與第一組合不同的第二值組合、與第一模式不同的第二模式)對應,該第二組類型的感測器資料與資料集中的每一者對應。
伺服器機器170可以包括合成資料產生器174。合成資料產生器174可以包括一個或多個經訓練的機器學習模型。合成資料產生器174可以使用感測器資料142(其例如由感測器126收集)來訓練。合成資料產生器174可以被配置為產生合成的感測器資料,例如合成的時間跟蹤感測器資料。合成的感測器資料162可以類似於歷史感測器資料144。合成的感測器資料162可以用於訓練機器學習模型190,例如用於產生用於執行改正動作的預測資料168。資料集產生器172可以結合感測器資料142和合成的感測器資料162,以產生訓練集、測試集、驗證集等資料集。
在一些實施例中,機器學習模型190被提供歷史資料作為訓練資料。在一些實施例中,機器學習模型190被提供合成的感測器資料168作為訓練資料。在一些實施例中,歷史感測器資料和/或合成的感測器資料可以是或包括時間跟蹤資料。所提供的資料類型將取決於機器學習模型的預期用途而有所不同。例如,機器學習模型可以藉由向該模型提供歷史感測器資料144作為訓練輸入和對應的計量資料160作為目標輸出來訓練。在一些實施例中,大量的資料被用於訓練模型190,例如可以使用數百個基板的感測器和計量資料。在一些實施例中,可以用於訓練模型190的資料量相當小,例如,模型190要被訓練來識別諸如裝備故障之類的罕見事件,模型190要被訓練來產生對新季化或維護的腔室的預測,等等。可以產生合成資料以增廣訓練模型190中可用的真實資料(例如由感測器126產生的資料)。
伺服器機器180包括訓練引擎182、驗證引擎184、選擇引擎185和/或測試引擎186。引擎(例如訓練引擎182、驗證引擎184、選擇引擎185和測試引擎186)可以指硬體(例如電路系統、專用邏輯、可程式化邏輯、微代碼、處理設備等)、軟體(例如運行於處理設備、通用電腦系統或專用機器上的指令)、韌體、微代碼或其組合。訓練引擎182能夠使用與來自資料集產生器172的訓練集相關聯的一組或多組特徵來訓練模型190。訓練引擎182可以產生多個經訓練的模型190,其中每個經訓練的模型190與訓練集中相異的一組特徵(例如來自相異的一組感測器的感測器資料)對應。例如,第一經訓練的模型可以使用所有特徵(例如X1-X5)來訓練,第二經訓練的模型可以使用第一特徵子集(例如X1、X2、X4)來訓練,第三經訓練的模型可以使用第二特徵子集(例如X1、X3、X4和X5)來訓練,該第二特徵子集可以與該第一特徵子集部分重疊。資料集產生器172可以接收經訓練的模型(例如來自合成資料產生器174的合成的感測器資料162)的輸出,將該資料收集到訓練資料集、驗證資料集和測試資料集中,並使用這些資料集來訓練第二模型(例如配置為輸出預測資料、改正動作等的機器學習模型)。
驗證引擎184能夠使用來自資料集產生器172的驗證集的對應的一組特徵來驗證經訓練的模型190。例如,使用訓練集的第一特徵集合來訓練的第一經訓練的機器學習模型190可以使用驗證集的第一特徵集合來驗證。驗證引擎184可以基於驗證集的對應的該組特徵來決定每個經訓練的模型190的準確度。驗證引擎184可以丟棄準確度不滿足閾值準確度的經訓練的模型190。在一些實施例中,選擇引擎185能夠選擇準確度滿足閾值準確度的一個或多個經訓練的模型190。在一些實施例中,選擇引擎185能夠選擇具有經訓練的模型190中最高的準確度的經訓練的模型190。
測試引擎186能夠使用來自資料集產生器172的測試集的對應的一組特徵來測試經訓練的模型190。例如,使用訓練集的第一特徵集合來訓練的第一經訓練的機器學習模型190可以使用訓練集的第一特徵集合來測試。測試引擎186可以基於測試集來決定具有所有經訓練的模型中最高的準確度的經訓練的模型190。
在機器學習模型的情況下,模型190可以指由訓練引擎182使用訓練集所創建的模型工件,該訓練集包括資料輸入和對應的目標輸出(相應的訓練輸入的正確答案)。可以找出資料集中將資料輸入映射到目標輸出(正確答案)的模式,並且向機器學習模型190提供捕捉這些模式的映射。機器學習模型190可以使用支援向量機(SVM)、放射狀基底函數(RBF)、聚類、監督式機器學習、半監督式機器學習、無監督式機器學習、k最近鄰域演算法(k-NN)、線性迴歸、隨機森林、神經網路(例如人工神經網路、遞歸神經網路)等中的一者或多者。合成資料產生器174可以包括一個或多個機器學習模型,這些機器學習模型可以包括一個或多個相同類型的模型(例如人工神經網路)。
在一些實施例中,一個或多個機器學習模型190可以使用歷史資料(例如歷史感測器資料144)來訓練。在一些實施例中,模型190可能已經使用合成的感測器資料162,或歷史資料和合成資料的組合來訓練。在一些實施例中,合成資料產生器174可以使用歷史資料來訓練。例如,合成資料產生器174可以使用歷史感測器資料144來訓練,以產生合成的感測器資料162。在一些實施例中,合成資料產生器174可以包括生成對抗網路(GAN)。GAN至少包括產生器和鑒別器。產生器試圖產生與輸入資料(例如真實的感測器資料)類似的資料(例如時間跟蹤感測器資料)。鑒別器試圖將真實資料與合成資料區分開來(例如將合成感測器時間序列資料與測得的感測器時間序列資料區分開來)。訓練GAN包括產生器變得更善於產生類似於真實感測器資料的資料,而鑒別器變得更善於將真實資料與合成資料區分開來。經訓練的GAN包括配置為產生合成資料的產生器,該合成資料包括用於訓練該GAN的真實資料的許多特徵。在一些實施例中,輸入資料可以標記有一個或多個屬性,例如關於與輸入資料相關聯的工具、感測器或產品的資訊。在一些實施例中,產生器可以被配置為產生具有特定一組屬性的合成資料,例如與目標感測器、目標處理操作和目標處理裝備錯失相關聯的合成資料。
將合成的感測器資料162用於訓練機器學習模型190,與其他方法相比具有顯著的技術優勢。
在一些實施例中,大量的資料(例如,數百個基板)可以用於訓練機器學習模型。產生這樣的資料量可能很昂貴,例如,在消耗的原料、製程氣體、能源、時間、裝備磨損等方面很昂貴。相對較少的資料量(例如,比用於訓練模型190的資料量少)可能隨時可以用於訓練。藉由向合成資料產生器174供應較少量的真實資料,並使用合成的感測器資料162來訓練機器學習模型190,可以避免與執行額外處理運行有關的費用。可以產生並供應與一組屬性相關聯的大量資料,以訓練機器學習模型190。在一些實施例中,可以產生比真實感測器資料有更多變異的合成的感測器資料162。在一些實施例中,處理腔室中的條件可以被複製得如此一致,以至於只使用真實的感測器資料來訓練機器學習模型可能會對機器學習模型考慮輸入資料變化的能力產生負面影響。提供相對更嘈雜的資料(例如,合成的感測器資料162)以訓練機器學習模型190,可以使機器學習模型能夠對製造裝備的處理操作的自然變化更加強健。
預測部件114可以向模型190提供當前資料,並且可以對輸入運行模型190以獲得一個或多個輸出。例如,預測部件114可以向模型190提供當前感測器資料146,並且可以對輸入運行模型190以獲得一個或多個輸出。預測部件114能夠根據模型190的輸出決定(例如抽取)預測資料168。預測部件114可以根據輸出決定(例如抽取)置信度資料,該置信度資料表明對於使用或要使用製造裝備124以當前感測器資料146和/或當前製造參數來生產的產品,預測資料168是對與輸入資料相關聯的製程的準確預測器的置信度位準。預測部件114或改正動作部件122可以使用置信度資料來決定是否基於預測資料168引起與製造裝備124相關聯的改正動作。
置信度資料可以包括或表明預測資料168是對與輸入資料的至少一部分相關聯的產品或部件的準確預測的置信度位準。在一個例子中,置信度位準是0與1之間的實數(包括0和1),其中0表明對預測資料168是對依據輸入資料來處理的產品或製造裝備124的部件的部件健康的準確預測沒有信心,1表明對預測資料168準確地預測了依據輸入資料來處理的產品的性質或製造裝備124的部件的部件健康有絕對的信心。響應於針對預定的實例數量(例如實例百分比、實例頻率、實例總數等)表明置信度位準低於閾值位準的置信度資料,預測部件114可以導致經訓練的模型190被再訓練(例如基於當前感測器資料146、當前製造參數等來再訓練)。在一些實施例中,再訓練可以包括利用歷史資料和/或合成資料產生一個或多個資料集(例如經由資料集產生器172產生)。
出於說明而不是限制的目的,本揭示內容的態樣描述了使用歷史資料(例如歷史感測器資料144、歷史製造參數)來訓練一個或多個機器學習模型190,並將當前資料(例如當前感測器資料146、當前製造參數和當前計量資料)輸入到該一個或多個經訓練的機器學習模型中,以決定預測資料168。在其他的實施例中,使用試探(heuristic)模型、基於物理學的模型或基於規則的模型來決定預測資料168(例如在不使用經訓練的機器學習模型的情況下)。在一些實施例中,這種模型可以使用歷史資料和/或合成資料來訓練。在一些實施例中,這些可以利用真實歷史資料和合成資料的組合來再訓練。預測部件114可以監測歷史感測器資料144、歷史製造參數和計量資料160。就圖2的資料輸入210所描述的任何資訊都可以在試探模型、基於物理學的模型或基於規則的模型中被監測或以其他方式使用。
在一些實施例中,客戶端設備120、預測伺服器112、伺服器機器170和伺服器機器180的功能可以由較少數量的機器提供。例如,在一些實施例中,伺服器機器170和180可以被整合成單個機器,而在一些其他的實施例中,伺服器機器170、伺服器機器180和預測伺服器112可以被整合成單個機器。在一些實施例中,客戶端設備120和預測伺服器112可以被整合成單個機器。在一些實施例中,客戶端設備120、預測伺服器112、伺服器機器170、伺服器機器180和資料儲存器140的功能可以由基於雲端的服務來執行。
一般而言,在一個實施例中被描述為由客戶端設備120、預測伺服器112、伺服器機器170和伺服器機器180所執行的功能也可以視情況在其他的實施例中在預測伺服器112上執行。此外,歸因於特定部件的功能性還可以由一起操作的不同部件或多個部件所執行。例如,在一些實施例中,預測伺服器112可以基於預測資料168來決定改正動作。在另一個例子中,客戶端設備120可以基於來自經訓練的機器學習模型的輸出來決定預測資料168。
此外,特定部件的功能還可以由一起操作的不同部件或多個部件所執行。預測伺服器112、伺服器機器170或伺服器機器180中的一者或多者可以作為通過適當的應用程式設計介面(API)提供給其他系統或設備的服務被存取。
在實施例中,「使用者」可以被表示為單個個人。然而,本揭示內容的其他實施例包含是由複數個使用者和/或自動來源控制的實體的「使用者」。例如,聯合作為管理員群組的一組個人使用者可以被視為「使用者」。
本揭示內容的實施例可以應用於資料品質評估、特徵增強、模型評估、虛擬計量(VM)、預測性維護(PdM)、極限最佳化、製程控制等。
圖2A-B描述了依據一些實施例,用於創建資料集以對模型(例如圖1的模型190)進行訓練、測試、驗證等的示例資料集產生器272A-B(例如圖1的資料集產生器172)的方塊圖。每個資料集產生器272可以是圖1的伺服器機器170的一部分。在一些實施例中,與製造裝備124相關聯的幾個機器學習模型可以被訓練、使用和維護(例如,在製造設施內)。每個機器學習模型可以與一個資料集產生器272相關聯,多個機器學習模型可以共用一個資料集產生器272,等等 。
包含資料集產生器272A(例如圖1的資料集產生器172)的系統200A為一個或多個無監督式機器學習模型(例如圖1的合成資料產生器174)創建資料集。資料集產生器272A可以使用歷史資料創建資料集(例如資料輸入210A)。示例資料集產生器272A被配置為為機器學習模型產生資料集,該機器學習模型被配置為採取感測器資料作為輸入,並產生合成的感測器資料作為輸出(例如用於訓練另一個機器學習模型)。類似的資料集產生器(或資料集產生器272A的類似操作)可以用於配置為執行不同功能的機器學習模型,例如配置為接收感測器資料作為輸入並產生聚類操作、對異常的預測等作為輸出的機器學習模型。
資料集產生器272A可以產生資料集來訓練、測試和驗證機器學習模型。機器學習模型被提供一組歷史感測器資料244A(例如,基板處理運行的歷史感測器資料)作為資料輸入210A。機器學習模型可以包括兩個或更多個單獨的模型(例如機器學習模型可以是系集模型)。機器學習模型可以被配置為產生類似於訓練輸入的合成資料。在一些實施例中,訓練可以不包括向機器學習模型提供目標輸出。機器學習模型可以包括一個或多個資料產生器和一個或多個鑒別器。在訓練操作期間,產生器可以產生與輸入感測器資料相似的資料。鑒別器可以被提供輸入資料和合成資料,並試圖區分它們。隨著訓練的進行,鑒別器變得更善於識別合成資料,而產生器變得更善於產生與輸入感測器資料相似的資料(例如變得更善於「欺騙」鑒別器)。
在一些實施例中,資料集產生器272A產生包括一個或多個資料輸入210A(例如訓練輸入、驗證輸入、測試輸入)的資料集(例如訓練集、驗證集、測試集)。資料輸入210A也稱為「特徵」、「屬性」或「資訊」。在一些實施例中,資料集產生器272A可以向訓練引擎182、驗證引擎184或測試引擎186提供資料集,其中資料集用來訓練、驗證或測試機器學習模型(例如圖1的合成資料產生器174)。就圖4A進一步描述了產生訓練集的一些實施例。
在一些實施例中,資料輸入210A可以包括一組或多組資料。作為一個例子,系統200A可以產生多組感測器資料,這些感測器資料可以產生以下一項或多項:來自一種或多種類型的感測器的感測器資料,來自一種或多種類型的感測器的感測器資料的組合,來自來自一種或多種類型的感測器的感測器資料的模式,來自一個或多個製造參數的製造參數組合,一些製造參數資料和一些感測器資料的組合,等等,來自來自一種或多種類型的感測器的感測器資料的模式,來自一個或多個製造參數的製造參數組合,一些製造參數資料和一些感測器資料的組合,等等。
在一些實施例中,資料集產生器272A可以產生與第一組歷史感測器資料244A對應的第一資料輸入,以訓練、驗證或測試第一機器學習模型,並且資料集產生器272A可以產生與第二組歷史感測器資料244B對應的第二資料輸入,以訓練、驗證或測試第二機器學習模型。
用於訓練、驗證或測試機器學習模型的資料輸入210A可以包括針對特定製造腔室(例如針對特定基板製造裝備)的資訊。在一些實施例中,資料輸入210A可以包括針對特定類型的製造裝備(例如共用特定特性的製造裝備)的資訊。基於裝備類型來訓練機器學習模型,可以使經訓練的模型能夠為一組製造裝備產生似真的合成感測器資料。
在一些實施例中,在產生資料集並使用該資料集訓練、驗證或測試機器學習模型之後,該模型可以被進一步訓練、驗證或測試或調整(例如調整與該模型的輸入資料相關聯的權重或參數,例如神經網路中的連接權重)。
圖2B描述了系統200B,該系統包括用於為一個或多個監督式機器學習模型(例如圖1的模型190)創建資料集的資料集產生器272B。資料集產生器272B可以使用歷史資料和/或合成的感測器資料(例如來自圖1的合成資料產生器174的輸出)創建資料集(例如資料輸入210B、目標輸出220)。在一些實施例中,可以利用合成的感測器資料來訓練無監督式機器學習模型,例如目標輸出220可以不由資料集產生器272B產生。資料集產生器272B可以與資料集產生器272A共用許多特徵和功能。
資料集產生器272B可以產生資料集來訓練、測試和驗證機器學習模型。機器學習模型被提供一組歷史感測器資料245A和/或一組合成的感測器資料262A作為資料輸入210B。機器學習模型可以被配置為接受當前感測器資料作為輸入資料,並產生預測資料、聚類資料、異常偵測資料等作為輸出。在一些實施例中,歷史感測器資料的產生可能很昂貴。可以產生包括合成的感測器資料的資料集,這可以減少產生訓練資料的成本。
資料集產生器272B可以用於為將感測器跟蹤資料作為輸入的任何類型的機器學習模型產生資料。資料集產生器272B可以用於為產生基板的經預測的計量資料的機器學習模型產生資料。資料集產生器272B可以用於為配置為提供製程控制指令的機器學習模型產生資料。資料集產生器272B可以用於為配置為識別產品異常和/或處理裝備錯失的機器學習模型產生資料。
在一些實施例中,資料集產生器272B產生包括一個或多個資料輸入210B(例如訓練輸入、驗證輸入、測試輸入)的資料集(例如訓練集、驗證集、測試集)。資料輸入210B可以提供給訓練引擎182、驗證引擎184或測試引擎186。資料集可以用於訓練、驗證或測試機器學習模型(例如圖1的模型190)。
在一些實施例中,資料輸入210B可以包括一組或多組資料。作為一個例子,系統200B可以產生多組感測器資料,這些感測器資料可以包括以下一項或多項:來自一種或多種類型的感測器的感測器資料,來自一種或多種類型的感測器的感測器資料的組合,來自來自一種或多種類型的感測器的感測器資料的模式,和/或其合成版本。
在一些實施例中,資料集產生器272B可以產生與第一組歷史感測器資料245A和/或第一組合成的感測器資料262A對應的第一資料輸入,以訓練、驗證或測試第一機器學習模型。資料集產生器272B可以產生與第二組歷史感測器資料245B和/或第二組合成的感測器資料262B對應的第二資料輸入,以訓練、驗證或測試第二機器學習模型。
在一些實施例中,資料集產生器272B產生資料集(例如訓練集、驗證集、測試集),該資料集包括一個或多個資料輸入210B(例如訓練輸入、驗證輸入、測試輸入),並且可以包括與資料輸入210B對應的一個或多個目標輸出220。該資料集也可以包括將資料輸入210B映射到目標輸出220的映射資料。在一些實施例中,資料集產生器272B可以藉由產生包括輸出預測資料268的資料集,產生用於訓練配置為作出預測的機器學習模型的資料。資料輸入210B也稱為「特徵」、「屬性」或「資訊」。在一些實施例中,資料集產生器272B可以向訓練引擎182、驗證引擎184或測試引擎186提供資料集,在那裡,資料集被用於訓練、驗證或測試模型190(例如包括在模型190中的其中一個機器學習模型,系集模型190,等等)。
圖3是依據一些實施例,說明用於產生輸出資料(例如圖1的合成的感測器資料162)的系統300的方塊圖。在一些實施例中,系統300可以與配置為產生合成跟蹤感測器資料的機器學習模型(例如圖1的合成資料產生器174)結合使用。在一些實施例中,系統300可以與機器學習模型結合使用,以決定與製造裝備相關聯的改正動作。在一些實施例中,系統300可以與機器學習模型結合使用,以決定製造裝備的錯失。在一些實施例中,系統300可以與機器學習模型結合使用,以對基板進行聚類或分類。系統300可以與具有與所列出的機器學習模型不同的功能的、與製造系統相關聯的機器學習模型結合使用。
在方塊310處,系統300(例如圖1的預測系統110的部件)對要用於訓練、驗證和/或測試機器學習模型的資料執行資料劃分(例如經由圖1的伺服器機器170的資料集產生器172)。在一些實施例中,訓練資料364包括歷史資料,例如歷史感測器時間跟蹤資料、歷史計量資料、歷史分類資料(例如產品是否滿足性能閾值的分類)等。在一些實施例中,訓練資料364可以包括合成的感測器資料,其例如由圖1的合成資料產生器174產生。訓練資料364可以在方塊310處進行資料劃分,以產生訓練集302、驗證集304和測試集306。例如,訓練集可以是60%的訓練集,驗證集可以是20%的訓練資料,測試集可以是20%的訓練資料。
訓練集302、驗證集304和測試集306的產生可以為特定的應用定制。例如,訓練集可以是60%的訓練集,驗證集可以是20%的訓練資料,測試集可以是20%的訓練資料。系統300可以為訓練集、驗證集和測試集中的每一者產生複數組特徵。例如,如果訓練資料364包括感測器資料,包括根據來自20個感測器(例如圖1的感測器126)的感測器資料和10個製造參數(例如與來自那20個感測器的感測器資料對應的製造參數)導出的特徵,那麼感測器資料可以被分成包括感測器1-10的第一組特徵和包括感測器11-20的第二組特徵。製造參數也可以分為幾組,例如包括參數1-5的第一組製造參數,和包括參數6-10的第二組製造參數。目標輸入、目標輸出或兩者可以被分組,或可以都不被分組。可以在不同組資料上訓練多個模型。
在方塊312處,系統300使用訓練集302來執行模型訓練(例如經由圖1的訓練引擎182執行)。對機器學習模型和/或基於物理學的模型(例如數位孿生體)的訓練可以以監督式的學習方式來實現,這涉及將包括有標籤的輸入的訓練資料集提供到模型中,觀察其輸出,定義誤差(藉由測量輸出與標籤值之間的差異來定義),並使用諸如深度梯度下降和反向傳播之類的技術來調整模型的權重,使得該誤差最小化。在許多應用中,對訓練資料集中的許多有標籤的輸入重複這一過程會產生一個模型,當出現與存在於訓練資料集中的輸入不同的輸入時,該模型可以產生正確的輸出。在一些實施例中,機器學習模型的訓練可以以無監督式的方式實現,例如在訓練期間可以不供應標籤或分類。無監督式的模型可以被配置為進行異常偵測、結果聚類等。
對於訓練資料集中的每個訓練資料項目,可以將該訓練資料項目輸入到模型中(例如輸入到機器學習模型中)。然後,模型可以處理輸入的訓練資料項目(例如來自歷史處理作業的製程配方)以產生輸出。該輸出可以包括例如合成的感測器讀數。該輸出可以與訓練資料項目的標籤(例如測得的實際感測器讀數)進行比較。
然後,處理邏輯可以將所產生的輸出(例如合成的感測器讀數)與包括在訓練資料項目中的標籤(例如實際的感測器讀數)進行比較。處理邏輯基於輸出與標籤之間的差異決定誤差(即分類誤差)。處理邏輯基於該誤差調整模型的一個或多個權重和/或值。
在訓練神經網路的情況下,可以為人工神經網路中的每個節點決定一個誤差項或差量(delta)。基於這個誤差,人工神經網路調整其一個或多個節點的一個或多個參數(節點的一個或多個輸入的權重)。參數可以以反向傳播的方式進行更新,使得最高層處的節點先被更新,然後是下一層處的節點,以此類推。人工神經網路包含多層「神經元」,其中每一層都從上一層處的神經元接收作為輸入值。每個神經元的參數包括與從上一層處的每個神經元收到的值相關聯的權重。因此,調整參數可以包括調整分配給人工神經網路中一個或多個層的一個或多個神經元的每個輸入的權重。
系統300可以使用訓練集302的多組特徵(例如訓練集302的第一組特徵、訓練集302的第二組特徵等)來訓練多個模型。例如,系統300可以訓練模型,以使用訓練集中的第一組特徵(例如來自感測器1-10的感測器資料)產生第一經訓練的模型,並使用訓練集中的第二組特徵(例如來自感測器11-20的感測器資料)產生第二經訓練的模型。在一些實施例中,第一經訓練的模型和第二經訓練的模型可以結合以產生第三經訓練的模型(它例如可以是比第一經訓練的模型或第二經訓練的模型本身更好的預測器或合成資料產生器)。在一些實施例中,用於比較模型的各組特徵可以重疊(例如第一組特徵是來自感測器1-15的感測器資料,第二組特徵是感測器5-20)。在一些實施例中,可以產生數百個模型,包括具有各種特徵的排列組合的模型和模型組合。
在方塊314處,系統300使用驗證集304來執行模型驗證(例如經由圖1的驗證引擎184執行)。系統300可以使用驗證集304中對應的一組特徵來驗證每個經訓練的模型。例如,系統300可以使用驗證集中的第一組特徵(例如來自感測器1-10的感測器資料)驗證第一經訓練的模型,並使用驗證集中的第二組特徵(例如來自感測器11-20的感測器資料)驗證第二經訓練的模型。在一些實施例中,系統300可以驗證在方塊312處產生的數百個模型(例如具有各種特徵的排列組合的模型、模型組合等)。在方塊314處,系統300可以決定該一個或多個經訓練的模型中的每一者的準確度(例如經由模型驗證來決定),並且可以決定該等經訓練的模型中的一者或多者是否具有滿足閾值準確度的準確度。響應於決定經訓練的模型都不具有滿足閾值準確度的準確度,流程返回方塊312,在該方塊處,系統300使用訓練集的不同組特徵來執行模型訓練。響應於決定經訓練的模型中的一者或多者具有滿足閾值準確度的準確度,流程繼續到方塊316。系統300可以丟棄具有小於閾值準確度(例如基於驗證集)的準確度的經訓練的模型。
在方塊316處,系統300執行模型選擇(例如經由圖1的選擇引擎185執行)以決定滿足閾值準確度的該一個或多個經訓練的模型中的哪一者具有最高的準確度(例如基於方塊314的驗證為所選的模型308)。響應於決定滿足閾值準確度的經訓練的模型中的兩者或更多者具有相同的準確度,流程可以返回方塊312,在該方塊處,系統300使用與進一步細化的各組特徵對應的進一步細化的訓練集來執行模型訓練,以決定具有最高準確度的經訓練的模型。
在方塊318處,系統300使用測試集306來執行模型測試(例如經由圖1的測試引擎186來執行),以測試所選的模型308。系統300可以使用測試集中的第一組特徵(例如來自感測器1-10的感測器資料)測試第一經訓練的模型,以決定第一經訓練的模型滿足閾值準確度(例如基於測試集306的第一組特徵來決定)。響應於所選的模型308的準確度不滿足閾值準確度(例如所選的模型308對訓練集302和/或驗證集304過度擬合,並且不適用於諸如測試集306之類的其他資料集),流程繼續到方塊312,在該方塊處,系統300使用與不同組的特徵對應的不同訓練集(例如來自不同感測器的感測器資料)來執行模型訓練(例如再訓練)。響應於基於測試集306決定所選的模型308具有滿足閾值準確度的準確度,流程繼續到方塊320。至少在方塊312中,模型可以學習訓練資料中的模式以作出預測或產生合成資料,並且在方塊318中,系統300可以將模型應用於其餘資料(例如測試集306)以測試這些預測。
在方塊320處,系統300使用經訓練的模型(例如所選的模型308)來接收當前資料322(例如圖1的當前感測器資料146),並根據經訓練的模型的輸出決定(例如抽取)輸出資料324(例如圖1的預測資料168)。與圖1的製造裝備124相關聯的改正動作可以根據輸出資料324來執行。在一些實施例中,當前資料322可以與用於訓練機器學習模型的歷史資料中相同類型的特徵對應。在一些實施例中,當前資料322與跟歷史資料中用於訓練所選模型308的各類型特徵的一個子集同一類型的特徵對應。
在一些實施例中,在方塊320處使用經訓練的模型的操作可以不包括向所選的模型308提供當前資料322。在一些實施例中,所選的模型308可以被配置為產生合成跟蹤感測器資料。訓練可以包括向機器學習模型提供真實跟蹤感測器資料。訓練資料(例如訓練集302)可以包括屬性資料。屬性資料包括標記訓練資料的資訊,例如對資料與哪個工具相關聯的指示,感測器的類型和ID,對工具的服務壽命的指示(例如自工具安裝以來經過的時間,自先前維護事件以來經過的時間,等等),對製造裝備中可能反映在訓練資料中的錯失或待定錯失的指示,等等。使用所選的模型308可以包括向模型提供指令,以產生合成跟蹤感測器資料。使用所選的模型308可以包括提供一個或多個屬性。產生的資料可以符合該一個或多個屬性,例如產生的合成資料可以與來自特定感測器的資料、在製造裝備出現錯失時收集的資料等相似。
在一些實施例中,由系統300訓練、驗證和測試的機器學習模型的性能可能會惡化。例如,與經訓練的機器學習模型相關聯的製造系統可能會發生逐漸的變化或突然的變化。製造系統的變化可能會導致經訓練的機器學習模型的性能下降。可以產生新的模型來替換性能下降的機器學習模型。該新的模型可以藉由通過再訓練改變舊模型來產生,藉由產生新的模型來產生,等等。在一些實施例中,幾種類型的資料的組合可以用於再訓練。在一些實施例中,當前資料322和額外的訓練資料346的組合可以用於訓練。額外的訓練資料可以包括許多與訓練資料364相同類型的資料,例如歷史資料、合成資料等。
在一些實施例中,動作310-320中的一者或多者可以以各種順序發生和/或與本文未提出和描述的其他動作一起發生。在一些實施例中,可以不執行動作310-320中的一者或多者。例如,在一些實施例中,可以不執行方塊310的資料劃分、方塊314的模型驗證、方塊316的模型選擇或方塊318的模型測試中的一者或多者。
圖3描述了配置為用於訓練、驗證、測試和使用一個或多個機器學習模型的系統。機器學習模型被配置為接受資料(例如提供給製造裝備的設定點、感測器資料、計量資料等)作為輸入,並提供資料(例如預測資料、改正動作資料、分類資料等)作為輸出。在一些實施例中,模型可以接收製造參數和感測器資料,並被配置為輸出預測會導致製造系統中出現錯失的部件列表。劃分、訓練、驗證、選擇、測試和使用系統300的各方塊的操作,可以類似地執行,以利用不同類型的資料訓練第二模型。也可以利用當前資料322和/或額外的訓練資料346進行再訓練。
圖4A-C是依據某些實施例,與訓練和利用機器學習模型相關聯的方法400A-C的流程圖。方法400A-C可以藉由處理邏輯來執行,該處理邏輯可以包括硬體(例如電路系統、專用邏輯、可程式化邏輯、微代碼、處理設備等)、軟體(例如運行於處理設備、通用電腦系統或專用機器上的指令)、韌體、微代碼或其組合。在一些實施例中,方法400A-C可以部分地由預測系統110執行。方法400A可以部分地由預測系統110(例如圖1的伺服器機器170和資料集產生器172、圖2A-B的資料集產生器272A-B)執行。依據本揭示內容的實施例,預測系統110可以使用方法400A來產生資料集以進行訓練、驗證或測試機器學習模型中的至少一個操作。方法400B-C可以由預測伺服器112(例如預測部件114)和/或伺服器機器180執行(例如訓練、驗證和測試操作可以由伺服器機器180執行)。在一些實施例中,非暫時性儲存媒體儲存有指令,該等指令當由處理設備(例如預測系統110的處理設備、伺服器機器180的處理設備、預測伺服器112的處理設備等)執行時,導致處理設備執行方法400A-C中的一者或多者。
為便於解釋,方法400A-C被描繪和描述成一系列的操作。然而,依據本揭示內容的操作可以以各種順序和/或並行地發生,並且與本文未提出和描述的其他操作一起發生。此外,不執行所有示出的操作也能實施依據所揭露的主題的方法400A-C。此外,本領域的技術人員將瞭解並理解,方法400A-C可以替代性地經由狀態圖或事件被表示為一系列相互關聯的狀態。
圖4A是依據一些實施例,用於為機器學習模型產生資料集的方法400A的流程圖。參照圖4A,在一些實施例中,在方塊401處,實施方法400A的處理邏輯將訓練集T初始化為空集合。
在方塊402處,處理邏輯產生第一資料輸入(例如第一訓練輸入、第一驗證輸入),其中可以包括感測器、製造參數、計量資料等中的一者或多者。在一些實施例中,第一資料輸入可以包括各類型資料的第一組特徵,第二資料輸入可以包括各類型資料的第二組特徵(例如就圖3的描述)。在實施例中,輸入資料可以包括歷史資料和/或合成資料。
在一些實施例中,在方塊403處,處理邏輯可選地為一個或多個資料輸入(例如第一資料輸入)產生第一目標輸出。在一些實施例中,第一目標輸出是預測資料。在一些實施例中,輸入資料可以呈感測器資料的形式,目標輸出可以是可能有錯失的部件的列表,如在機器學習模型被配置為識別故障製造系統的情況下。在一些實施例中,不產生目標輸出(例如能夠對輸入資料進行分組或尋找其中的相關性,而不要求提供目標輸出的無監督式機器學習模型)。在一些實施例中,無監督式的機器學習模型可以被配置為產生合成跟蹤感測器資料。
在方塊404處,處理邏輯可選地產生表明輸入/輸出映射的映射資料。輸入/輸出映射(或映射資料)可以指資料輸入(例如本文所述的一個或多個資料輸入)、針對資料輸入的目標輸出,以及資料輸入與目標輸出之間的關聯。在一些實施例(其例如與沒有提供目標輸出的機器學習模型相關聯)中,可以不執行方塊404。
在方塊405處,在一些實施例中,處理邏輯將在方塊404處產生的映射資料添加到資料集T。
在方塊406處,處理邏輯基於資料集T對於進行訓練、驗證和/或測試機器學習模型(例如圖1的合成資料產生器174或模型190)中的至少一個操作而言是否充分來進行分支。如果是,則執行繼續進行到方塊407,否則,執行繼續回到方塊402處。應注意,在一些實施例中,資料集T的充分性可以僅基於資料集中在一些實施例中映射到輸出的輸入數量來決定,而在一些其他的實施例中,資料集T的充分性可以附加於或替代於輸入數量基於一個或多個其他的準則(例如資料例的多樣性的度量、準確度等)來決定。
在方塊407處,處理邏輯提供資料集T(例如向伺服器機器180提供)以訓練、驗證和/或測試機器學習模型190。在一些實施例中,資料集T是訓練集,並且被提供給伺服器機器180的訓練引擎182以執行訓練。在一些實施例中,資料集T是驗證集,並且被提供給伺服器機器180的驗證引擎184以執行驗證。在一些實施例中,資料集T是測試集,並且被提供給伺服器機器180的測試引擎186以執行測試。在神經網路的情況下,例如,給定輸入/輸出映射的輸入值(例如與資料輸入210B相關聯的數值)被輸入到神經網路,並且輸入/輸出映射的輸出值(例如與目標輸出220相關聯的數值)被儲存在神經網路的輸出節點中。然後,依據學習演算法(例如反向傳播法等)來調整神經網路中的連接權重,並且對資料集T中其他的輸入/輸出映射重複這個程序。在方塊407之後,模型(例如模型190)的條件可以是下列中的至少一者:是使用伺服器機器180的訓練引擎182來訓練的,是使用伺服器機器180的驗證引擎184來驗證的,或是使用伺服器機器180的測試引擎186來測試的。經訓練的模型可以由預測部件114(預測伺服器112的預測部件)所實施,以產生預測資料168,用於執行訊號處理,產生合成的感測器資料162,或用於執行與製造裝備124相關聯的改正動作。
圖4B是依據一些實施例,用於產生合成時間序列感測器資料(例如合成時間跟蹤資料)的方法400B的流程圖。在方塊400B的方塊410處,處理邏輯向經訓練的機器學習模型提供隨機輸入或偽隨機輸入。經訓練的機器學習模型被配置為為處理腔室產生合成感測器時間序列資料。隨機或偽隨機數的種子被提供給經訓練的機器學習模型,以允許產生不同的合成時間蹤跡。在一些實施例中,隨機數不具有物理意義,例如不與時間蹤跡的一些點的資料值對應。在一些實施例中,經訓練的機器學習模型包括一個或多個產生器和一個或多個鑒別器。在一些實施例中,經訓練的機器學習模型是生成對抗網路(GAN)。GAN模型的示例架構將結合圖5A-B更詳細地呈現。在一些實施例中,隨機數輸入被提供給產生器。
在方塊412處,處理邏輯向經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的資料。屬性資料可以表明目標合成感測器時間序列的一個或多個條件。屬性資料可以表明製造系統、產品設計、感測器ID、系統錯失、服務壽命等。在一些實施例中,合成資料要用於訓練機器學習模型,以辨識特定的情況。向產生器提供屬性資料能夠產生與該情況(例如特定的系統錯失)相關聯的大量資料。
在方塊414處,處理邏輯從經訓練的機器學習模型接收輸出。該輸出包括與該處理腔室相關聯的合成跟蹤感測器資料。該輸出是根據該一個或多個屬性產生的。在一些實施例中,合成資料輸出可以用於訓練第二機器學習模型。
圖4C是依據一些實施例,用於產生和使用合成感測器跟蹤資料的方法400C的流程圖。在方塊420處,處理邏輯提供包括跟蹤感測器資料(例如時間序列資料)的歷史資料作為訓練輸入,以訓練第一機器學習模型。第一機器學習模型可以是GAN。輸入資料可以與一個或多個相關聯的屬性一起提供,例如表明工具ID、感測器ID、製程配方、服務壽命等的資料。GAN可以利用鑒別器模型訓練產生器模型。跟蹤感測器資料可以包括來自與製造系統、處理腔室等相關聯的許多類型的感測器的資料。在一些實施例中,時間跟蹤感測器資料可以包括對提供給處理腔室的射頻部件(例如射頻電漿產生部件)的能量的測量。時間跟蹤感測器資料可以包括供應給這種部件的頻率、功率、電壓或電流。在一些實施例中,時間跟蹤感測器資料可以包括對供應給加熱器的功率、電壓或電流中的一者或多者的測量。在一些實施例中,時間跟蹤感測器資料可以包括供應給基板支撐件的功率、電壓或電流。在一些實施例中,時間跟蹤感測器資料可以包括壓力或溫度。
在方塊421處,處理邏輯向第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的資料。所提供的屬性可以反映感興趣的一個或多個時間蹤跡,例如要產生大量合成的感測器資料的一個或多個條件。一組隨機或偽隨機數可以提供給經訓練的第一機器學習模型。隨機輸入可以用作用於產生合成資料的種子。在方塊422處,處理邏輯從經訓練的第一機器學習模型接收輸出。該輸出包括合成跟蹤感測器資料。該輸出資料還可以包括表明一個或多個相關聯的屬性的資料。方塊421和422的操作可以與圖4B的操作共用特徵。
在方塊423處,處理邏輯提供來自經訓練的第一機器學習模型的輸出作為訓練輸入,以訓練第二機器學習模型。在一些實施例中,所提供的輸出資料具有歷史感測器資料,例如在一個或多個處理運行期間收集的真實感測器資料。處理邏輯提供表明該一個或多個屬性中的至少一者的資料作為目標輸出,以訓練第二機器學習模型。在一些實施例中,合成資料要被產生為用於訓練模型,以預測錯失、異常或預測已投入使用一定時間的製造裝備的性能。在一些實施例中,產生的合成資料可以與特定的工具、感測器、產品設計等相關聯。可以提供這種資訊作為屬性資料以訓練第二機器學習模型。
在方塊424處,處理邏輯向經訓練的第二機器學習模型提供當前感測器資料。經訓練的第二機器學習模型可以被配置為接受感測器資料作為輸入,並產生預測資料作為輸出,例如經預測的計量資料、產品中經預測的異常、製造系統中經預測的錯失、經預測的處理操作進度等。在方塊425處,從經訓練的第二機器學習模型接收預測資料輸出。在方塊426處,根據來自經訓練的第二機器學習模型的輸出執行改正動作。改正動作可以包括排定處理裝備的維護、更新製程配方、向使用者發送警報等。
圖5A-B是依據一些實施例,對訓練和操作生成對抗網路的過程和架構的描述。圖5A描述了一個簡單的GAN 500A。在訓練時,輸入資料502被提供給鑒別器508。鑒別器508被配置為區分輸入資料502是否是真實資料還是合成資料。訓練鑒別器508,直到它實現可接受的準確度。準確度參數可以基於應用來調整,例如可用的訓練資料量。
在一些實施例中,可以向產生器506提供輸入資料502(其例如是從與用於訓練鑒別器508的資料相同的資料集抽取的),以訓練產生器506產生似真的合成資料。向產生器506提供雜訊504,例如隨機輸入,例如偽隨機值的固定長度向量。產生器506使用隨機輸入作為種子,以產生合成資料。產生器506向鑒別器508提供合成資料。進一步的輸入資料502(例如從與用於訓練鑒別器508的資料相同的集合抽取的真實資料)也被提供給鑒別器508。鑒別器508試圖將輸入資料502與由產生器506提供的合成資料區分開來。
鑒別器508向分類驗證模組510提供分類結果(例如供應給鑒別器508的每個資料集是否已被標記為真實或合成)。分類驗證模組510決定一個或多個資料集是否已被鑒別器508正確標記。表明標記準確度的反饋資料被提供給鑒別器508和產生器506兩者(例如表明鑒別器將合成感測器時間序列資料與測得的感測器時間序列資料區分開來的準確度的反饋資料)。根據從分類驗證模組510接收的資訊更新產生器506和鑒別器508兩者。產生器506被更新,以產生在複製輸入資料502的特徵方面更成功的合成資料,例如產生更常被鑒別器508標記為真實資料的合成資料。鑒別器508被更新,以改進將真實資料與合成資料區分開來的準確度。訓練過程可以重複,直到產生器506達到準確度閾值,例如直到產生器506產生足夠大的、沒有被鑒別器508正確分類的資料部分。
圖5B是描述依據一些實施例,用於產生合成跟蹤資料的示例GAN 500B的操作過程的方塊圖。在一些實施例中,示例GAN 500B可以包括與圖5A結合討論的許多特徵。
在一些實施例中,GAN 500B包括一組產生器520和一組鑒別器530。在一些實施例中,鑒別器530是藉由向它們供應輸入資料536來訓練的。鑒別器530被配置為區分真實資料和合成資料。產生器520可以被配置為產生合成資料。產生器520可以用雜訊512(例如隨機輸入或偽隨機輸入)作為種子。
在一些實施例中,GAN 500B可以包括多個產生器520和/或多個鑒別器530。鑒別器530可以被配置為從不同的產生器或產生器組接受輸出資料。在一些實施例中,產生器520可以被配置為經由屬性產生器522產生屬性資料,並經由特徵產生器526產生相關聯的資料(例如合成感測器時間跟蹤資料)。在一些實施例中,特徵產生器526被配置為產生正規化的資料(例如具有從零到一變化的值的合成的感測器資料),最小值/最大值產生器524被配置為為該資料產生最小值和最大值。在一些實施例中,將最小值/最大值產生器524與特徵產生器526分開的方法可以改進產生器520的性能。
在一些實施例中,雜訊512可以提供給屬性產生器522和最小值/最大值產生器524。在一些實施例中,可以向產生器520中的每個產生器提供不同的一組雜訊(例如不同的一組隨機輸入)。在一些實施例中,屬性產生器522和最小值/最大值產生器524的輸出(例如合成的屬性資料和合成的最小值/最大值資料)可以提供給輔助鑒別器532。輔助鑒別器532可以決定屬性和最小值/最大值的組合是否可能與真實資料相關聯。可以執行初步決定,從而節省從特徵產生器526產生和/或鑒別合成資料的處理能力。產生器520的輸出可以全部提供給鑒別器534。鑒別器534可以將真實資料與合成資料區分開來,包括屬性資料、最小值/最大值資料、跟蹤感測器資料等。在一些實施例中,最小值/最大值產生器524可以是可選的特徵,例如GAN 500B可以被配置為對來自特徵產生器526的資料進行正規化,或被配置為經由特徵產生器526產生資料值。
在一些實施例中,特徵產生器526可以包括設計為產生順序資料或時間跟蹤(例如時間序列)資料的機器學習產生器模型。在一些實施例中,特徵產生器526可以包括遞歸神經網路。遞歸神經網路將神經元的至少一些輸出(例如產生的時間跟蹤資料)路由到另一個神經元(例如與後來的時間點相關聯的神經元)的輸入。在一些實施例中,遞歸神經網路可以基本上包括單一神經元,其輸出循環回來作為輸入,以產生一連串的合成資料。遞歸神經網路能夠學習取決於當前輸入和過去輸入兩者的輸入-輸出映射。以這種方式,後來的資料點可以取決於較早的資料點,並且可以產生順序資料或時間序列資料。
在一些實施例中,目標形狀或圖案可以被包括在合成資料中。例如,可以模擬由感測器記錄的資料值的尖峰。在一些實施例中,特徵產生器526可以接受指令,以促進包括目標形狀或圖案的合成資料的產生。位置(例如時間上)、值、形狀等的範圍或分佈可以提供給特徵產生器526。特徵產生器526可以產生具有依據性質分佈表達的目標形狀或圖案的資料,例如,一個尖峰可能出現在許多組合成跟蹤感測器資料中的一系列位置,達到一系列的高度,具有一系列的寬度。
在一些實施例中,可以利用合成資料(例如,從產生器520輸出的資料)來訓練一個或多個機器學習模型。在一些實施例中,可以利用合成資料來訓練配置為用於事件偵測(例如配置為決定跟蹤資料是否在正常變化範圍內或表明系統異常)的機器學習模型。在一些實施例中,可以利用合成資料來產生一個強健的模型——產生的合成資料的雜訊位準可以比真實資料高,並且用合成資料訓練的機器學習模型可以比只在真實資料上訓練的模型能夠為更多樣的輸入提供有用的輸出。在一些實施例中,可以利用合成資料來測試模型的強健性。在一些實施例中,可以利用合成資料來產生用於異常偵測和/或分類的模型。在一些實施例中,可以提供合成資料作為訓練輸入來訓練機器學習模型,並且可以提供一個或多個屬性資料(例如,表明系統錯失的屬性資料)作為目標輸出來訓練機器學習模型。在一些實施例中,屬性資料可以包括對製造系統的服務壽命的指示,例如,自系統安裝以來的時間、自系統安裝以來生產的產品數量、自上次維護事件以來的時間或生產的產品數量等。
圖6是依據一些實施例,說明電腦系統600的方塊圖。在一些實施例中,電腦系統600可以與其他的電腦系統連接(例如經由網路連接,例如區域網路(LAN)、內部網路、外部網路或網際網路)。電腦系統600可以以客戶端-伺服器環境中的伺服器或客戶端電腦的身份操作,或作為同級間或分散式網路環境中的同級電腦操作。電腦系統600可以由個人電腦(PC)、平板PC、機上盒(STB)、個人數位助理(PDA)、蜂巢式電話、網頁設備(web appliance)、伺服器、網路路由器、交換機或橋接器,或能夠執行一組指令(依序執行或以其他方式執行)的任何設備所提供,該等指令指定要由該設備所採取的動作。進一步地,術語「電腦」應包括單獨地或聯合地執行一組(或多組)指令以執行本文所述的任何一個或多個方法的電腦的任何集合。
在另一個態樣中,電腦系統600可以包括處理設備602、揮發性記憶體604(例如隨機存取記憶體(RAM))、非揮發性記憶體606(例如唯讀記憶體(ROM)或可電抹除的可程式化ROM(EEPROM))和資料儲存設備618,上述設備可以經由匯流排608彼此通訊。
處理設備602可以由諸如通用處理器(例如複雜指令集計算(CISC)微處理器、精簡指令集計算(RISC)微處理器、超長指令字(VLIW)微處理器、實施其他類型指令集的微處理器或實施各類型指令集的組合的微處理器)或專門處理器(例如特定應用積體電路(ASIC)、現場可程式化邏輯閘陣列(FPGA)、數位訊號處理器(DSP)或網路處理器)之類的一個或多個處理器所提供。
電腦系統600可以進一步包括網路介面設備622(其例如與網路674耦合)。電腦系統600也可以包括視訊顯示單元610(例如LCD)、文數字輸入設備612(例如鍵盤)、游標控制設備614(例如滑鼠)和訊號產生設備620。
在一些實施例中,資料儲存設備618可以包括非暫時性電腦可讀取儲存媒體624(例如非暫時性機器可讀取媒體),其上可以儲存指令626,這些指令對本文所述的方法或功能中的任一者或多者進行編碼,包括對圖1的部件(例如預測部件114、改正動作部件122、模型190等)進行編碼和用於實施本文所述的方法的指令。
指令626也可以在其被電腦系統600執行的期間完全地或部分地駐留在揮發性記憶體604和/或處理設備602內,因此揮發性記憶體604和處理設備602也可以構成機器可讀取儲存媒體。
雖然在說明性例子中將電腦可讀取儲存媒體624示為單個媒體,但術語「電腦可讀取儲存媒體」也應包括儲存該一組或多組可執行指令的單個媒體或多個媒體(例如集中式或分散式資料庫和/或相關聯的快取記憶體和伺服器)。術語「電腦可讀取儲存媒體」也應包括能夠對一組指令進行儲存或編碼的任何有形媒體,該組指令用於由電腦執行,導致該電腦執行本文所述的任何一個或多個方法。術語「電腦可讀取儲存媒體」應包括但不限於固態記憶體、光學媒體和磁性媒體。
本文所述的方法、部件和特徵可以由分立的硬體部件所實施,也可以整合在諸如ASICS、FPGA、DSP或類似設備之類的其他硬體部件的功能性中。此外,方法、部件和特徵還可以由硬體設備內的韌體模組或功能電路系統所實施。進一步地,方法、部件和特徵可以以硬體設備與電腦程式部件的任何組合或以電腦程式來實施。
除非另有具體陳述,否則諸如「接收」、「執行」、「提供」、「獲得」、「導致」、「存取」、「決定」、「添加」、「使用」、「訓練」、「縮減」、「產生」、「改正」等術語指的是由電腦系統執行或實施的動作和過程,該等動作和過程將在電腦系統暫存器和記憶體內表示為物理(電子)量的資料操控並變換成在電腦系統記憶體或暫存器或者其他這樣的資訊儲存、傳輸或顯示設備內類似地表示為物理量的其他資料。並且,本文所使用的術語「第一」、「第二」、「第三」、「第四」等是作為區分不同元素的標籤,並且可以不具有依據它們數字標記的順序意義。
本文所述的例子還涉及一種用於執行本文所述的方法的裝置。這個裝置可以被專門建構為用於執行本文所述的方法,或它可以包括選擇性地由儲存在電腦系統中的電腦程式來程式化的通用電腦系統。可以將這種電腦程式儲存在電腦可讀取有形儲存媒體中。
本文所述的方法和說明性例子與任何特定的電腦或其他的裝置沒有固有的關聯性。可以依據本文所述的教示來使用各種通用系統,或者可以證明建構更專門的裝置來執行本文所述的方法和/或該等方法的單獨功能、常式、子常式或操作中的每一者是方便的。上面的描述中闡述了用於各種這些系統的結構的例子。
以上描述旨在是說明性的,而非限制性的。雖然已經參考具體的說明性例子和實施例來描述本揭示內容,但將認識到,本揭示內容不限於所述的例子和實施例。將參考以下請求項以及這些請求項所賦予的等效物的全部範圍來決定本揭示內容的範圍。
100:系統 110:預測系統 112:預測伺服器 114:預測部件 120:客戶端設備 122:改正動作部件 124:製造裝備 126:感測器 128:計量裝備 130:網路 140:資料儲存器 142:感測器資料 144:歷史感測器資料 146:當前感測器資料 150:製造參數 160:計量資料 162:合成的感測器資料 168:預測資料 170:伺服器機器 172:資料集產生器 174:合成資料產生器 180:伺服器機器 182:訓練引擎 184:驗證引擎 185:選擇引擎 186:測試引擎 190:模型 220:目標輸出 268:預測資料 300:系統 302:訓練集 304:驗證集 306:測試集 308:所選的模型 310:方塊 312:方塊 314:方塊 316:方塊 318:方塊 320:方塊 322:當前資料 324:輸出資料 346:額外的訓練資料 364:訓練資料 401:方塊 402:方塊 403:方塊 404:方塊 405:方塊 406:方塊 407:方塊 410:方塊 412:方塊 414:方塊 420:方塊 421:方塊 422:方塊 423:方塊 424:方塊 425:方塊 426:方塊 502:輸入資料 504:雜訊 506:產生器 508:鑒別器 510:分類驗證模組 512:雜訊 520:產生器 522:屬性產生器 524:最小值/最大值產生器 526:特徵產生器 530:鑒別器 532:輔助鑒別器 534:鑒別器 536:輸入資料 600:電腦系統 602:處理設備 604:揮發性記憶體 606:非揮發性記憶體 608:匯流排 610:視訊顯示單元 612:文數字輸入設備 614:游標控制設備 618:資料儲存設備 620:訊號產生設備 622:網路介面設備 624:電腦可讀取儲存媒體 626:指令 674:網路 200A:系統 200B:系統 210A:資料輸入 210B:資料輸入 244A:一組歷史感測器資料 244Z:一組歷史感測器資料 245A:一組歷史感測器資料 245Z:一組歷史感測器資料 262A:一組合成的感測器資料 262Z:一組合成的感測器資料 272A:資料集產生器 272B:資料集產生器 400A:方法 400B:方法 400C:方法 500A:GAN 500B:GAN
藉由示例的方式而非限制的方式在附圖的圖式中示出本揭示內容。
圖1是依據一些實施例,說明示例性系統架構的方塊圖。
圖2A-B描述依據一些實施例,用於為模型創建資料集的示例資料集產生器的方塊圖。
圖3是依據一些實施例,說明用於產生輸出資料的系統的方塊圖。
圖4A-C是依據一些實施例,與產生用於產生預測資料的一個或多個機器學習模型相關聯的方法的流程圖。
圖5A-B是依據一些實施例,用於產生合成資料的示例機器學習架構的方塊圖。
圖6是依據一些實施例,說明電腦系統的方塊圖。
國內寄存資訊 (請依寄存機構、日期、號碼順序註記) 無
國外寄存資訊 (請依寄存國家、機構、日期、號碼順序註記) 無
410:方塊
412:方塊
414:方塊
400B:方法

Claims (20)

  1. 一種方法,包括以下步驟: 向一第一經訓練的機器學習模型提供一隨機輸入或偽隨機輸入,該第一經訓練的機器學習模型被訓練為為一處理腔室產生合成感測器時間序列資料; 向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料;以及 從該第一經訓練的機器學習模型接收一輸出,其中該輸出包括與該處理腔室相關聯的合成感測器時間序列資料,其中該輸出是根據表明該一個或多個屬性的該第一資料產生的。
  2. 如請求項1所述的方法,進一步包括以下步驟: 訓練該第一機器學習模型,其中訓練該模型的步驟包括以下步驟: 導致該第一機器學習模型產生合成感測器時間序列資料; 向一第二機器學習模型提供該合成感測器時間序列資料; 向該第二機器學習模型提供測得的感測器時間序列資料,其中該第二機器學習模型被配置為區分合成感測器時間序列資料和測得的感測器時間序列資料; 向該第一機器學習模型提供反饋資料,該反饋資料表明該第二機器學習模型將合成感測器時間序列資料與測得的感測器時間序列資料區分開來的準確度;以及 更新該第一機器學習模型以產生合成感測器時間序列資料,該第二機器學習模型將該合成感測器時間序列資料與測得的感測器時間序列資料區分開來的準確度較低。
  3. 如請求項1所述的方法,其中該第一經訓練的機器學習模型包括一生成對抗網絡的一產生器。
  4. 如請求項1所述的方法,其中該第一經訓練的機器學習模型包括一遞歸神經網路模型。
  5. 如請求項1所述的方法,其中該合成感測器時間序列資料包括與以下一項或多項對應的資料: 向該處理腔室的一部件供應的功率、電壓或電流; 壓力;或 溫度。
  6. 如請求項1所述的方法,進一步包括以下步驟: 訓練一第二機器學習模型,其中訓練該第二機器學習模型的步驟包括以下步驟: 向該第二機器學習模型提供該輸出的合成感測器時間序列資料作為訓練輸入;以及 向該第二機器學習模型提供表明與該輸出的合成感測器時間序列資料相關聯的一個或多個屬性的第一資料作為目標輸出,其中該第二機器學習模型被配置為基於該處理腔室的測得的感測器時間序列資料預測該處理腔室的屬性。
  7. 如請求項6所述的方法,其中該第二機器學習模型被配置為偵測與該處理腔室的測得的感測器時間序列資料相關聯的一個或多個異常。
  8. 如請求項1所述的方法,其中目標合成感測器時間序列資料的一屬性包括以下一項或多項: 自安裝該處理腔室以來的時間; 自該處理腔室的一先前維護事件以來的時間;或 存在於該處理腔室中的一錯失。
  9. 一種系統,包括記憶體和與該記憶體耦合的一處理設備,其中該處理設備被配置為: 向一第一經訓練的機器學習模型提供一隨機輸入或偽隨機輸入,其中該第一經訓練的機器學習模型被訓練為為一處理腔室產生合成感測器時間序列資料; 向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料;以及 從該第一經訓練的機器學習模型接收一輸出,其中該輸出包括與該處理腔室相關聯的合成感測器時間序列資料,其中該輸出是根據表明該一個或多個屬性的該第一資料產生的。
  10. 如請求項9所述的系統,其中該處理設備被進一步配置為: 訓練該第一機器學習模型,其中訓練該模型的步驟包括以下步驟: 導致該第一機器學習模型產生合成感測器時間序列資料; 向一第二機器學習模型提供該合成感測器時間序列資料; 向該第二機器學習模型提供測得的感測器時間序列資料,其中該第二機器學習模型被配置為區分合成感測器時間序列資料和測得的感測器時間序列資料; 向該第一機器學習模型提供反饋資料,該反饋資料表明該第二機器學習模型將合成感測器時間序列資料與測得的感測器時間序列資料區分開來的準確度;以及 更新該第一機器學習模型以產生合成感測器時間序列資料,該第二機器學習模型將該合成感測器時間序列資料與測得的感測器時間序列資料區分開來的準確度較低。
  11. 如請求項9所述的系統,其中該第一經訓練的機器學習模型包括一生成對抗網絡的一產生器。
  12. 如請求項9所述的系統,其中該第一經訓練的機器學習模型包括一遞歸神經網路模型。
  13. 如請求項9所述的系統,其中該合成感測器時間序列資料包括與以下一項或多項對應的資料: 向以下一項或多項供應的功率、電壓或電流: 一射頻電漿產生部件; 一加熱器;或 一基板支撐件; 壓力;或 溫度。
  14. 如請求項9所述的系統,其中該處理設備被進一步配置為: 訓練一第二機器學習模型,其中訓練該第二機器學習模型的步驟包括以下步驟: 向該第二機器學習模型提供該輸出的合成感測器時間序列資料作為訓練輸入;以及 向該第二機器學習模型提供表明與該輸出的合成感測器時間序列資料相關聯的一個或多個屬性的第一資料作為目標輸出,其中該第二機器學習模型被配置為基於該處理腔室的測得的感測器時間序列資料預測該處理腔室的屬性。
  15. 如請求項14所述的系統,其中該第二機器學習模型被配置為偵測與該處理腔室的測得的感測器時間序列資料相關聯的一個或多個異常。
  16. 如請求項9所述的系統,其中目標合成感測器時間序列資料的一屬性包括以下一項或多項: 自安裝該處理腔室以來的時間; 自該處理腔室的一先前維護事件以來的時間;或 存在於該處理腔室中的一錯失。
  17. 一種儲存指令的非暫時性機器可讀取儲存媒體,該等指令當被執行時,導致一處理設備執行包括以下步驟的操作: 向一第一經訓練的機器學習模型提供一隨機輸入或偽隨機輸入,該第一經訓練的機器學習模型被訓練為為一處理腔室產生合成感測器時間序列資料; 向該第一經訓練的機器學習模型提供表明目標合成感測器時間序列資料的一個或多個屬性的第一資料;以及 從該第一經訓練的機器學習模型接收一輸出,其中該輸出包括與該處理腔室相關聯的合成感測器時間序列資料,並且是根據表明該一個或多個屬性的該第一資料產生的。
  18. 如請求項17所述的非暫時性機器可讀取儲存媒體,該等操作進一步包括以下步驟: 訓練該第一機器學習模型,其中訓練該模型的步驟包括以下步驟: 導致該第一機器學習模型產生合成感測器時間序列資料; 向一第二機器學習模型提供該合成感測器時間序列資料; 向該第二機器學習模型提供測得的感測器時間序列資料,其中該第二機器學習模型被配置為區分合成感測器時間序列資料和測得的感測器時間序列資料; 向該第一機器學習模型提供反饋資料,該反饋資料表明該第二機器學習模型將合成感測器時間序列資料與測得的感測器時間序列資料區分開來的準確度;以及 更新該第一機器學習模型以產生合成感測器時間序列資料,該第二機器學習模型將該合成感測器時間序列資料與測得的感測器時間序列資料區分開來的準確度較低。
  19. 如請求項17所述的非暫時性機器可讀取儲存媒體,其中目標合成感測器時間序列資料的一屬性包括以下一項或多項: 自安裝該處理腔室以來經過的時間; 自該處理腔室的一先前維護事件以來經過的時間;或 存在於該處理腔室中的一錯失。
  20. 如請求項17所述的非暫時性機器可讀取儲存媒體,該等操作進一步包括以下步驟: 訓練一第二機器學習模型,其中訓練該第二機器學習模型的步驟包括以下步驟: 向該第二機器學習模型提供該輸出的合成感測器時間序列資料作為訓練輸入;以及 向該第二機器學習模型提供表明與該輸出的合成感測器時間序列資料相關聯的一個或多個屬性的第一資料作為目標輸出,其中該第二機器學習模型被配置為基於該處理腔室的測得的感測器時間序列資料預測該處理腔室的屬性。
TW112108087A 2022-03-07 2023-03-06 與處理裝備相關聯的合成時間序列資料 TW202349275A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/688,650 2022-03-07
US17/688,650 US20230281439A1 (en) 2022-03-07 2022-03-07 Synthetic time series data associated with processing equipment

Publications (1)

Publication Number Publication Date
TW202349275A true TW202349275A (zh) 2023-12-16

Family

ID=87850667

Family Applications (1)

Application Number Title Priority Date Filing Date
TW112108087A TW202349275A (zh) 2022-03-07 2023-03-06 與處理裝備相關聯的合成時間序列資料

Country Status (3)

Country Link
US (1) US20230281439A1 (zh)
TW (1) TW202349275A (zh)
WO (1) WO2023172460A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020120235A (ja) * 2019-01-23 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10234848B2 (en) * 2017-05-24 2019-03-19 Relativity Space, Inc. Real-time adaptive control of additive manufacturing processes using machine learning
CN109086658B (zh) * 2018-06-08 2021-06-08 中国科学院计算技术研究所 一种基于生成对抗网络的传感器数据生成方法与系统
EP3654103A1 (en) * 2018-11-14 2020-05-20 ASML Netherlands B.V. Method for obtaining training data for training a model of a semicondcutor manufacturing process
EP3859599B1 (en) * 2020-02-03 2023-12-27 Robert Bosch GmbH Training a generator neural network using a discriminator with localized distinguishing information
US20220004935A1 (en) * 2021-09-22 2022-01-06 Intel Corporation Ensemble learning for deep feature defect detection

Also Published As

Publication number Publication date
WO2023172460A1 (en) 2023-09-14
US20230281439A1 (en) 2023-09-07

Similar Documents

Publication Publication Date Title
US11348813B2 (en) Correcting component failures in ion implant semiconductor manufacturing tool
TW202349275A (zh) 與處理裝備相關聯的合成時間序列資料
TW202309791A (zh) 晶圓上的降維
TW202343177A (zh) 用於製造設備的診斷工具與工具之匹配和全跡比較下鑽分析方法
TW202346959A (zh) 用於製造設備的診斷工具與工具之匹配和比較下鑽分析方法
US20230306281A1 (en) Machine learning model generation and updating for manufacturing equipment
US20230316593A1 (en) Generating synthetic microspy images of manufactured devices
US20240176336A1 (en) Chamber matching by equipment constant updates
US20240176312A1 (en) Determining equipment constant updates by machine learning
US20240176334A1 (en) Adjusting chamber performance by equipment constant updates
US20240176338A1 (en) Determining equipment constant updates by machine learning
US11961030B2 (en) Diagnostic tool to tool matching methods for manufacturing equipment
US20240144464A1 (en) Classification of defect patterns of substrates
US20240086597A1 (en) Generation and utilization of virtual features for process modeling
US20230195074A1 (en) Diagnostic methods for substrate manufacturing chambers using physics-based models
US20230280736A1 (en) Comprehensive analysis module for determining processing equipment performance
WO2024118385A1 (en) Chamber matching by equipment constant updates
WO2024118382A1 (en) Determining equipment constant updates by machine learning
US20240062097A1 (en) Equipment parameter management at a manufacturing system using machine learning
WO2024118383A1 (en) Adjusting chamber performance by equipment constant updates
US20230367302A1 (en) Holistic analysis of multidimensional sensor data for substrate processing equipment
WO2024035648A1 (en) Piecewise functional fitting of substrate profiles for process learning
TW202409764A (zh) 用於基板處理設備的多維感測器資料的整體分析
TW202409765A (zh) 多運行循環處理過程的分析
TW202334771A (zh) 與值無關的情況的識別和匹配