TW202341307A - 用於腔室條件監測的預測模型 - Google Patents

用於腔室條件監測的預測模型 Download PDF

Info

Publication number
TW202341307A
TW202341307A TW112100719A TW112100719A TW202341307A TW 202341307 A TW202341307 A TW 202341307A TW 112100719 A TW112100719 A TW 112100719A TW 112100719 A TW112100719 A TW 112100719A TW 202341307 A TW202341307 A TW 202341307A
Authority
TW
Taiwan
Prior art keywords
data
processing
substrate
prediction
tool
Prior art date
Application number
TW112100719A
Other languages
English (en)
Inventor
洪政塡
全世埈
Original Assignee
美商應用材料股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 美商應用材料股份有限公司 filed Critical 美商應用材料股份有限公司
Publication of TW202341307A publication Critical patent/TW202341307A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • General Factory Administration (AREA)
  • Manipulator (AREA)
  • Physical Vapour Deposition (AREA)

Abstract

本說明書的標的尤其可在方法、系統、電腦可讀儲存媒體中實施。一種方法可包括處理裝置接收訓練資料。訓練資料可包括指示處理第一基板的第一處理腔室的環境的第一狀態的第一感測器資料。訓練資料可進一步包括指示處理第一基板的第一處理工具的狀態的第一處理工具資料。訓練資料可進一步包括對應於由第一處理工具處理的第一基板的第一處理結果資料。處理裝置可進一步使用訓練資料來訓練第一模型。經訓練的第一模型接收具有第二感測器資料及第二處理工具資料的新輸入,以基於新輸入產生第二輸出。該第二輸出指示對應於第二基板的第二處理結果資料。

Description

用於腔室條件監測的預測模型
本說明書的實施例一般係關於用於腔室條件監測的預測模型。更具體而言,本說明書的實施例係關於用於腔室條件預測及監測的多輸入多輸出(multi-input, multi-output; MIMO)模型。
諸多行業採用複雜的製造設備,包括多個感測器及控制器,在處理期間,每個感測器及控制器都需要仔細監測,以確保產品品質。監測多個感測器及控制器的一個方法是統計製程監測(對感測器量測值及製程控制值(製程變數)進行統計分析的手段),其賦能自動偵測及/或診斷「故障」。「故障」可為製造設備的功能故障或失調(例如,機器的運行參數偏離預期值),或者是對需要預防性維護以防止即將發生的功能故障或失調的指示。故障會在正在製造的元件中產生缺陷。因此,統計製程監測的一個目標是在故障產生此類缺陷之前偵測及/或診斷故障。
在製程監測期間,當最近處理資料的一或更多個統計偏離統計模型的量大到足以導致模型度量超過相應的置信臨限值時,偵測到故障。模型度量是一個純量數,其值表示在實際製程監測期間收集的處理資料的統計特徵與由模型預測的統計特徵之間的偏離量值。每個模型度量都是估計此種偏離的一獨特數學方法。每個模型度量具有各自的置信臨限值,亦稱為置信界限或控制界限,其值表示模型度量的可接受上限或下限。若在製程監測期間模型度量超過其各自的置信臨限值,則可推斷處理資料由於故障而具有異常統計。
精確故障偵測的一障礙是,即使沒有任何問題,製造製程通常亦會隨時間漂移。例如,半導體處理腔室內的操作條件通常在連續的腔室清潔之間及連續的可消耗腔室部件更換之間漂移。用於故障偵測的習知統計製程監測方法在區分正常漂移與故障方面存在缺點。具體而言,一些故障偵測方法採用靜態模型,該模型假設製程條件在工具的壽命期間保持不變。此種模型不區分隨時間經過的預期變化與由故障引起的意外偏離。為了防止製程漂移觸發大量誤警,控制限值範圍必須設定得足夠大,以適應漂移。因此,該模型可能無法偵測出細微的故障。
用於腔室條件預測及監測的方法、系統及電腦可讀媒體(computer readable media; CRM)。在一些實施例中,由處理裝置執行的方法可包括接收訓練,該訓練包括指示處理第一基板的第一處理腔室的環境的第一狀態的第一感測器資料。訓練資料可進一步包括第一處理工具資料,其指示處理第一基板的第一處理工具的時間相關狀態。訓練資料可進一步包括對應於第一基板的第一處理結果資料。處理裝置可進一步用包括第一感測器資料及第一處理工具資料的輸入資料及包括處理結果資料的目標輸出來訓練第一模型。經訓練的第一模型可接收新輸入以基於新輸入產生第二輸出,該新輸入具有指示處理第二基板的第二處理工具的環境的第二狀態的第二感測器資料,及指示處理第二基板的第二處理工具的第二時間相關狀態的第二處理工具資料。指示第二處理結果資料的第二輸出可對應於第二基板。
在一些實施例中,一種方法可包括處理裝置接收感測器資料,該感測器資料指示根據基板處理製程處理第一基板的處理腔室的環境的狀態。處理裝置可接收處理工具資料,該處理工具資料指示處理第一基板的處理工具相對於一批處理工具中的其他處理工具的相對操作壽命。該方法包括使用一或更多個機器學習模型(machine-learning model; MLM)處理感測器資料及處理工具資料,以決定第一基板的處理結果量測的預測。該處理可進一步準備用於在圖形化使用者介面(graphical user interface; GUI)上呈現的預測。該處理裝置可基於該預測進一步改變該處理工具的處理腔室中至少一者的操作。
在一些實施例中,一種方法包括訓練機器學習模型(machine-learning model; MLM)。訓練MLM可包括接收包括第一感測器資料的訓練資料,該第一感測器資料指示處理第一基板的第一處理腔室的環境的第一狀態。訓練資料進一步包括計量資料,計量資料包括處理結果量測及位置資料,位置資料指示基板表面上對應於處理結果量測的第一位置。訓練MLM可進一步包括編碼訓練資料以產生編碼的訓練資料。訓練MLM可進一步包括使用編碼的訓練資料執行迴歸。該方法可進一步包括接收指示處理第二基板的第二處理腔室的環境的第二狀態的第二感測器資料。該方法可進一步包括編碼感測器資料以產生經編碼的感測器資料。該方法可進一步包括使用經編碼的感測器資料作為經訓練的MLM的輸入,並接收來自經訓練的MLM的一或更多個輸出。一或更多個輸出可包括經編碼的預測資料。該方法可進一步包括解碼經編碼的預測資料以產生預測資料,該預測資料包括指示在第二基板表面上的第二位置中的第二基板處理結果的值,第二位置對應於第一基板的第一位置。
基板處理可包括根據電路設計,在基板、半導體、矽晶圓等中製造電路的一系列製程。該等製程可在一系列腔室中執行。現代半導體製造設施的成功操作可能旨在在基板中形成電路的過程中,促進基板(例如,晶圓)從一個腔室穩定串流移動到另一個腔室。在執行諸多基板程序的製程中,處理腔室及處理的條件可能會隨著時間而調整(例如損耗),並導致處理後的基板不能滿足期望的條件或處理結果(例如關鍵尺寸、處理均勻性、厚度尺寸等)。膜性質的漂移是一個令人關注的問題,因為其影響元件效能及良率。計量(如晶圓計量)可能導致使用計量工具的額外成本、量測時間及額外的風險,即額外的缺陷可能被添加至基板。由於計量,可採取糾正措施,然而,在等待計量結果時存在延遲,並且在大批量基板(例如,每個晶圓)上執行計量可能是昂貴的。
關鍵尺寸(critical dimension; CD)量測是基板處理(如蝕刻)的重要步驟。然而,由於諸如輸送量要求等各種原因,習知系統中的量測取樣率非常低。因此,在大批量製造中,使用CD量測值來監測基板製程是否處於良好狀態是非常困難的。為了克服此困難,已經開發了諸多類型的預測模型,此將在本文中論述。預測模型可產生所有基板的預測CD值,並且可用於在透過習知計量系統完成量測之前偵測到異常CD變化。所揭示的預測模型可進一步與工具對工具匹配(tool to tool matching; TTTM)製程整合,並可更高效地偵測異常條件,更快地採取糾正措施(例如,縮短「從綠色到綠色」的時間)。
習知的預測模型化演算法在建構模型時不考慮任何實體意義或任何製程知識。習知模型通常僅以統計方式考慮輸入與輸出之間的相關模式,在不知道如何執行製程的情況下,此可能難以提取正確的關係,尤其是在半導體製程中。例如,基於習知迴歸方法的預測模型通常不滿足臨限準確度標準,因為習知預測模型不考慮基板上的空間相關。
本揭示案的態樣及實施方式透過在各種實施例中提供能夠基於製程參數(例如,腔室條件、處理工具條件等)預測基板品質(例如,處理結果)的方法及系統來解決現有技術的該等及其他缺點。提出了一種新的集合模型化方法(例如,解決上述限制)。首先,對模型訓練資料中的輸出值進行預處理,以移除與時間相關的變化。此種行為是由不同的腔室條件引起的變化引起的,而不同的腔室條件又是由製造設備的腔室壽命差異引起的。其次,應用增強技術來提高預測效能。由於來自不同腔室的CD分佈通常是非線性的,因此增強可提取有用的關係資訊。第三,開發空間函數,並將其與迴歸模型整合,以訓練模型,由此利用已處理基板位置上的處理模式。
在一示例性實施例中,提供了用於腔室條件預測及監測的方法、系統及電腦可讀媒體(computer readable media; CRM)。在一些實施例中,由處理裝置執行的方法可包括接收訓練,該訓練包括指示處理第一基板的第一處理腔室的環境的第一狀態的第一感測器資料。訓練資料可進一步包括第一處理工具資料,其指示處理第一基板的第一處理工具的時間相關狀態。訓練資料可進一步包括對應於第一基板的第一處理結果資料。處理裝置可進一步用包括第一感測器資料及第一處理工具資料的輸入資料,及包括處理結果資料的目標輸出來訓練第一模型。經訓練的第一模型可接收新輸入以基於新輸入產生第二輸出,該新輸入具有指示處理第二基板的第二處理工具的環境的第二狀態的第二感測器資料,及指示處理第二基板的第二處理工具的第二時間相關狀態的第二處理工具資料。指示第二處理結果資料的第二輸出可對應於第二基板。
在一示例性實施例中,一種方法可包括處理裝置接收感測器資料,該感測器資料指示根據基板處理製程處理第一基板的處理腔室的環境的狀態。處理裝置可接收處理工具資料,該處理工具資料指示處理第一基板的處理工具相對於一批處理工具中的其他處理工具的相對操作壽命。該方法包括使用一或更多個機器學習模型(machine-learning model; MLM)處理感測器資料及處理工具資料,以決定第一基板的處理結果量測的預測。該處理可進一步準備用於在圖形化使用者介面(graphical user interface; GUI)上呈現的預測。該處理裝置可基於該預測進一步改變該處理工具的處理腔室中至少一者的操作。
在一示例性實施例中,一種方法包括訓練機器學習模型(machine-learning model; MLM)。訓練MLM可包括接收訓練資料,該訓練資料包括指示處理第一基板的第一處理腔室的環境的第一狀態的第一感測器資料。訓練資料進一步包括計量資料,計量資料包括處理結果量測及位置資料,位置資料指示基板表面上對應於處理結果量測的的第一位置。訓練MLM可進一步包括編碼訓練資料以產生經編碼的訓練資料。訓練MLM可進一步包括使用經編碼的訓練資料執行迴歸。該方法可進一步包括接收指示處理第二基板的第二處理腔室的環境的第二狀態的第二感測器資料。該方法可進一步包括編碼感測器資料以產生經編碼的感測器資料。該方法可進一步包括使用經編碼的感測器資料作為經訓練的MLM的輸入,並接收來自經訓練的MLM的一或更多個輸出。一或更多個輸出可包括經編碼的預測資料。該方法可進一步包括解碼經編碼的預測資料以產生預測資料,該預測資料包括指示在第二基板表面上的第二位置中的第二基板處理結果的值,第二位置對應於第一基板的第一位置。
第1圖為圖示本揭示案的實施方式可在其中操作的示例系統架構100的方塊圖。如第1圖所示,系統架構100包括製造系統102、計量系統110、客戶端裝置150、資料儲存器140、伺服器120及機器學習系統170。機器學習系統170可為伺服器120的一部分。在一些實施例中,機器學習系統170的一或更多個部件可完全或部分整合到客戶端裝置150中。製造系統102、計量系統110、客戶端裝置150、資料儲存器140、伺服器120及機器學習系統170中的每一個都可由一或更多個計算裝置來代管,該等計算裝置包括伺服器電腦、桌上型電腦、膝上型電腦、平板電腦、隨身型電腦、個人數位助理(personal digital assistant; PDA)、行動通信裝置、蜂巢電話、手持電腦、雲端伺服器、基於雲端的系統(例如,雲端服務裝置、雲端網路裝置或類似的計算裝置)。
製造系統102、計量系統110、客戶端裝置150、資料儲存器140、伺服器120及機器學習系統170可透過網路160彼此耦合(例如,用於執行本文描述的方法)。在一些實施例中,網路160是私有網路,其向系統架構100的每個元件提供對彼此及其他私有可用計算裝置的存取。網路160可包括一或更多個廣域網路(wide area network; WAN)、區域網路(local area network; LAN)、有線網路(例如乙太網路)、無線網路(例如802.11網路或Wi-Fi網路)、蜂巢網路(例如長期進化(Long Term Evolution; LTE)網路)、路由器、集線器、交換機、伺服器電腦及/或上述各者的任意組合。在一些實施例中,網路160是能夠執行基於雲端的功能(例如,向系統中的一或更多個裝置提供雲端服務功能)的基於雲端的網路。替代地或額外地,系統架構100的任何元件可整合在一起或以其他方式耦合,而不使用網路160。
客戶端裝置150可為或包括任何個人電腦(personal computer; PC)、膝上型電腦、行動電話、平板電腦、隨身型電腦、網路連接電視(「智慧電視」)、網路連接媒體播放機(例如藍光播放機)、機上盒、過頂(over-the-top; OOT)串流裝置、操作員盒等。客戶端裝置能夠執行基於雲端的操作(例如,利用伺服器120、資料儲存器140、製造系統102、機器學習系統170、計量系統110等執行)。客戶端裝置150可包括瀏覽器152、應用程式154及/或由系統架構100的其他系統描述及執行的其他工具。在一些實施例中,客戶端裝置150能夠存取製造系統102、計量系統110、資料儲存器140、伺服器120及/或機器學習系統170,並在系統架構100的各個處理階段傳達(例如,傳送及/或接收)對感測器資料、已處理資料、資料分類(例如,處理結果預測)、處理結果資料(例如,關鍵尺寸資料、厚度資料)、及/或各種處理工具(例如,計量工具114、資料準備工具116、關鍵尺寸預測工具124、厚度預測工具126、關鍵尺寸部件194及/或厚度部件196)的輸入及輸出的指示,如本文所述。
如第1圖所示,製造系統102包括處理工具104、製程程序106及製程控制器108。製程控制器108可協調處理工具104的操作,以執行一或更多個製程程序106。例如,各種處理工具可包括專用腔室,如蝕刻腔室、沉積腔室(包括用於原子層沉積、化學氣相沉積、濺射腔室、物理氣相沉積或其電漿增強版本的腔室)、退火腔室、佈植腔室、電鍍腔室、處理腔室等。在另一個實例中,機器可結合樣本傳輸系統(例如,選擇性順應組裝機器人臂(selective compliance assembly robot arm; SCARA)機器人、移送腔室、前開口統一晶匣(front opening pod; FOUP)、側儲存晶匣(side storage pod; SSP)及/或類似物)以在機器及製程步驟之間傳輸樣本。
製程程式106,或有時稱為製程配方或製程步驟,可包括用於由處理工具104執行操作的各種規範。例如,製程程序106可包括製程規範,如製程操作的啟動持續時間、用於操作的處理工具、機器(如,腔室)的溫度、流量、壓力等、沉積順序等。在另一個實例中,處理程序可包括移送指令,用於將樣品傳送到進一步的處理步驟或者由計量系統110量測。
製程控制器108可包括設計用於管理及協調處理工具104的動作的裝置。在一些實施例中,製程控制器108與製程配方或一系列製程程序106指令相關聯,當以設計的方式應用時,該等指令產生基板製程的期望處理結果。例如,製程配方可與處理基板相關聯,以產生目標處理結果(例如,關鍵尺寸、厚度、均勻性標準等)。
如第1圖所示,計量系統110包括計量工具114及資料準備工具116。計量工具114可包括各種感測器來量測製造系統102內的處理結果(例如,關鍵尺寸、厚度、均勻性等)。例如,在一或更多個處理腔室內處理的晶圓可用於量測關鍵尺寸。計量工具114亦可包括量測使用製造系統處理的基板的處理結果的裝置。例如,被處理的基板的諸如關鍵尺寸、厚度量測(例如,由蝕刻、沉積等產生的膜層)的處理結果可根據製程配方及/或由製程控制器108執行的動作來評估。彼等量測亦可用於量測整個基板製程程序期間的腔室條件。
資料準備工具116可包括用以提取特徵及/或產生與計量工具114量測的資料相關聯的合成/工程設計資料的處理方法。在一些實施例中,資料準備工具116可識別計量或製程效能資料的關聯、模式及/或異常。例如,資料準備工具116可執行特徵提取,其中資料準備工具116使用量測資料的組合來決定是否滿足標準。例如,資料準備工具116可分析相關參數(例如,厚度、關鍵尺寸、缺陷率、電漿條件等)的多個資料點,來決定在跨越多個處理腔室的基板製程程序期間是否發生了快速變化。在一些實施例中,資料準備工具116對與各種處理腔室條件相關的各種感測器資料執行歸一化。歸一化可包括處理輸入的感測器資料,以在用以獲取資料的各種腔室及感測器之間表現出相似性。
在一些實施例中,資料準備工具116可對(例如,由計量工具114獲得的)計量資料執行製程控制分析、單變數極限違反分析或多變數極限違反分析中的一或更多個。例如,資料準備工具116可透過採用基於統計的方法來監視及控制製程控制器108,從而執行統計製程控制(statistical process control; SPC)。例如,SPC可提高基板處理程序的效率及準確性(例如,透過識別落入及/或超出控制極限的資料點來達成)。
在一些實施例中,可在整個基板製程程序期間量測處理腔室。在一些實施例中,在預定的基板製程程序期間,獲取量增加的感測器資料。例如,在處理晶圓期間或之後,可啟動額外感測器及/或當前啟動的感測器可獲取額外資料。在一些實施例中,製程控制器108可基於由處理工具104執行的操作來觸發由計量工具114執行的量測。例如,製程控制器108可回應於第一基板製程程序與第二基板製程程序之間的過渡時段而觸發一或更多個處理結果(例如,計量工具114的)的啟動,其中處理腔室正在等待即將到來的待處理晶圓。
在一些實施例中,提取的特徵、產生的合成/工程設計資料及統計分析可與機器學習系統170結合使用(例如,用於訓練、驗證及/或測試機器學習模型190)。額外地及/或替代地,資料準備工具116可將資料輸出到伺服器120,以供關鍵尺寸預測工具124及/或厚度預測工具126中的任何一個使用。
資料儲存器140可為記憶體(例如,隨機存取記憶體)、驅動器(例如,硬碟驅動器、快閃驅動器)、資料庫系統、基於雲端的系統或能夠儲存資料的另一類型的元件或裝置。資料儲存器140可儲存一或更多個歷史資料142,包括先前腔室條件的歷史感測器資料144、歷史處理工具資料146及/或歷史處理結果資料148、處理結果,及在相關腔室條件下處理的基板的處理結果。在一些實施例中,歷史資料142可用於訓練、驗證及/或測試機器學習系統170的機器學習模型190(例如,參見第5A圖至第5B圖的示例方法)。
伺服器120可包括一或更多個計算裝置,如機架式伺服器、路由器電腦、伺服器電腦、個人電腦、主機電腦、膝上型電腦、平板電腦、桌上型電腦等。伺服器120可包括關鍵尺寸預測工具124及厚度預測工具126。伺服器120包括雲端伺服器或能夠執行一或更多個基於雲端的功能的伺服器。例如,可使用雲端環境將關鍵尺寸預測工具124及厚度預測工具126的一或更多個操作提供給遠端裝置(例如,客戶端裝置120)。
關鍵尺寸預測工具124從製造系統102接收腔室處理資料,並決定處理結果預測,如在與腔室感測器資料相關的環境中處理的基板的關鍵尺寸預測。在一些實施例中,關鍵尺寸預測工具124從製造系統102的腔室監測系統接收原始感測器資料,在其他實施例中,原始感測器資料與利用資料準備工具116工程設計的合成資料相結合。關鍵尺寸預測工具124可處理感測器資料,以決定與處理後的感測器資料相關的被處理的基板的關鍵尺寸。例如,關鍵尺寸可包括期望的處理結果參數與實際的處理結果參數之間的差異(例如,蝕刻偏置)。在一些實施例中,關鍵尺寸預測工具124包括機器學習模型,該模型使用感測器資料(例如,透過計量工具114)、合成及/或工程設計資料(例如,來自資料準備工具116)、對應於製程程序106的一般製程參數值,並決定在與計量資料相關的環境中處理的基板的關鍵尺寸。在一些實施例中,關鍵尺寸預測工具接收處理工具資料(例如,從計量系統110接收)。機器學習模型可進一步使用處理工具資料來預測由對應於處理工具資料的處理工具處理的基板的處理結果資料。處理工具資料可指示處理工具的相對壽命。例如,處理工具資料可相對於一批處理工具(例如,製造系統102的處理工具的叢集或分組)中的其他工具的處理量或壽命,指示由處理工具歷史處理的基板的數量。如稍後將論述的,機器學習模型可包括自舉聚集模型、隨機森林樹決策樹模型及偏最小二乘迴歸(partial least squares regression; PLS)模型,及其他模型。機器學習模型可包括集合模型化(例如,堆疊模型、增強模型等),該模型化包括多個模型,並利用更高置信度的模型對接收的資料進行最終預測(例如迴歸)。
厚度預測工具126可從計量工具114及/或資料準備工具116接收資料,例如指示處理腔室的環境狀態的感測器資料,並決定基板製程預測。例如,基板製程預測可包括指示基板表面上各位置的膜厚度的值。在一些實施例中,厚度預測工具126可使用機器學習模型,該模型從計量工具114接收指示處理腔室的環境狀態的感測器資料,並輸出厚度預測。厚度預測可包括基板的第一區域(例如,中心區域)上的膜的平均厚度及基板的第二區域(例如,邊緣區域)上的膜的平均厚度。
如前所述,關鍵尺寸預測工具124及/或厚度預測工具126的一些實施例可使用機器學習模型來執行本文所描述的方法。可使用機器學習系統170來產生(例如,訓練、驗證及/或測試)相關聯的機器學習模型。機器學習系統170的以下實例描述將在使用機器學習系統170來產生與關鍵尺寸預測工具124相關聯的機器學習模型190的上下文中描述。然而,應該注意的是,本描述僅為實例。類似的處理層級及方法可用於單獨地及/或彼此結合地產生及執行與關鍵尺寸預測工具124及/或厚度預測工具126關聯的機器學習模型,如將結合其他實施例進一步論述的。
機器學習系統170可包括一或更多個計算裝置,如機架式伺服器、路由器電腦、伺服器電腦、個人電腦、主機電腦、膝上型電腦、平板電腦、桌上型電腦、雲端電腦、雲端伺服器、儲存在一或更多個雲端上的系統等。機器學習系統170可包括關鍵尺寸部件194及厚度部件196。在一些實施例中,關鍵尺寸部件194及厚度部件196可使用歷史資料142來決定由製造系統102處理的基板的關鍵尺寸及/或厚度預測。在一些實施例中,關鍵尺寸部件194可使用經訓練的機器學習模型190來基於感測器資料及/或處理工具資料決定關鍵尺寸預測。在一些實施例中,厚度部件196可使用經訓練的機器學習模型來基於感測器資料及/或處理工具資料決定厚度預測。經訓練的機器學習模型190可使用歷史資料來決定腔室狀態。
在一些實施例中,機器學習系統170進一步包括伺服器機器172及伺服器機器180。伺服器機器172及180可為一或更多個計算裝置(如機架式伺服器、路由器電腦、伺服器電腦、個人電腦、主機電腦、膝上型電腦、平板電腦、桌上型電腦、雲端電腦、雲端伺服器、儲存在一或更多個雲端上的系統等)、資料儲存器(例如,硬碟、記憶體資料庫)、網路、軟體部件或硬體部件。
伺服器機器172可包括資料集產生器174,其能夠產生資料集(例如,資料輸入集及目標輸出集)來訓練、驗證或測試機器學習模型。資料集產生器174可將歷史資料142劃分成訓練集(例如,歷史資料的百分之六十,或者歷史資料的任何其他部分)、驗證集(例如,歷史資料的百分之二十,或者歷史資料的某個其他部分),及測試集(例如,歷史資料的百分之二十)。在一些實施例中,資料集產生器174產生多個訓練資料集。例如,一或更多個訓練資料集可包括資料集中每一者(例如,訓練集、驗證集及測試集)。
伺服器180包括訓練引擎182、驗證引擎184及測試引擎186。訓練引擎182能夠使用(資料儲存器140的)歷史資料142的一或更多個歷史感測器資料144、歷史處理工具資料146及/或歷史處理結果資料148來訓練機器學習模型190。在一些實施例中,可使用資料準備工具116、關鍵尺寸預測工具124、厚度預測工具及/或126的一或更多個輸出來訓練機器學習模型190。例如,機器學習模型190可為使用感測器資料及/或機械特徵(如特徵提取、機械模型化及/或統計模型化)的混合機器學習模型。訓練引擎182可產生多個經訓練的機器學習模型190,其中每個經訓練的機器學習模型190對應於每個訓練集的一不同特徵集。
驗證引擎184可基於每個訓練集的對應特徵集來決定每個經訓練的機器學習模型190的準確度。驗證引擎184可丟棄準確度不滿足臨限準確度的經訓練機器學習模型190。測試引擎186可基於測試(及視情況,驗證)集來決定在所有經訓練的機器學習模型中具有最高準確度的經訓練的機器學習模型190。
在一些實施例中,提供訓練資料來訓練機器學習模型190,使得經訓練的機器學習模型可接收具有指示新處理腔室的新狀態的新感測器資料的新輸入。新輸出可指示在新狀態下由新處理腔室處理的基板的新處理結果預測。
機器學習模型190可指由訓練引擎182使用訓練集創建的模型,該訓練集包括資料輸入及對應的目標輸出(在與目標輸入相關聯的參數下處理腔室的歷史結果)。可找到資料集中的模式,該等模式將資料輸入映射到目標輸出(例如,識別感測器資料的多個部分與所得的腔室狀態之間的關聯),並向機器學習模型190提供捕獲該等模式的映射。機器學習模型190可使用邏輯迴歸、語法分析、決策樹或支援向量機(support vector machine; SVM)中的一或更多者。機器學習可由單級線性或非線性運算(例如SVM)組成,及/或可為神經網路。
關鍵尺寸部件194可提供當前資料(例如,與基板處理程序期間的處理腔室狀態相關聯的當前感測器資料)作為對經訓練的機器學習模型190的輸入,且可對該輸入運行經訓練的機器學習模型190以獲得一或更多個輸出,該等輸出包括指示處理結果預測的一組值。例如,處理結果預測可包括指示關鍵尺寸(例如,蝕刻偏置、均勻性條件、厚度等)的值。關鍵尺寸部件194能夠從輸出中識別指示預測的置信度級別的置信度資料。在一個非限制性實例中,置信度級別是0與1之間的實數,包括0及1,其中0指示一或更多個腔室狀態沒有置信度,而1指示腔室狀態的絕對置信度。
出於說明而非限制的目的,本揭示案的各態樣描述了機器學習模型的訓練及使用與歷史資料142有關的資訊對經訓練的學習模型的使用。在其他實施方式中,使用啟發式模型或基於規則的模型來決定腔室狀態。
在一些實施例中,客戶端裝置150、伺服器120、資料儲存器140及機器學習系統170的功能可由比第1圖所示數量更少的機器來提供。例如,在一些實施例中,伺服器172及180可整合到單個機器中,而在一些其他實施例中,伺服器172、180及192可整合到單個機器中。在一些實施例中,機器學習系統170可完全或部分由伺服器120提供。
大體上,在一個實施例中描述為由客戶端裝置150、資料儲存器140、計量系統110、製造系統102及機器學習系統170執行的功能在其他實施例中亦可在伺服器120上執行(若合適)。此外,歸屬於特定部件的功能可由一起操作的不同或多個部件來執行。
在實施例中,「使用者」可被表示為單個個體。然而,本揭示案的其他實施例涵蓋作為由多個使用者及/或自動化源控制的實體的「使用者」。例如,聯合成一組管理員的一組個別使用者可被認為是一「使用者」。
第2圖為本揭示案的實施方式可在其中運行的處理結果預測系統200的方塊圖。處理結果預測系統200可包括系統架構100的態樣及/或特徵。
如第2圖所示,處理結果預測系統200可包括預處理邏輯204。預處理邏輯接收諸如關鍵尺寸(critical dimension; CD)偏置資料202(例如,蝕刻偏置)形式的處理結果資料。處理結果系統亦可接收處理工具資料216及感測器資料214。處理結果資料可指示處理工具的壽命。例如,壽命可包括指示由處理工具處理的基板數量的值(例如,相對於一批處理工具中的其他工具)。感測器可指示產生CD偏置資料202的處理腔室處理基板的環境的相關狀態。預處理邏輯204可包括作為特徵提取器操作的處理邏輯。預處理邏輯204可將處理結果資料及處理工具資料216的維度約減為多個組或多個特徵。例如,預處理邏輯204可產生包括一或更多個獨立於工具的資料、獨立於時間的資料(例如,基於處理工具資料加權的資料)、感測器資料等的特徵。在一些實施例中,預處理邏輯204執行偏最小二乘法(partial least squares; PLS)分析、主分量分析(principal component analysis; PCA)、多因數降維、非線性降維及/或上述各者任意組合中的任一者。在一些實施例中,製程邏輯被設計用於處理結果資料及/或處理工具資料的邊緣偵測。例如,處理邏輯包括旨在識別感測器資料、處理結果資料及/或處理工具資料的方法,該等資料變化迅速且/或包括不連續性(例如,同一處理工具在處理結果資料中產生的不連續性或不一致性)。例如,預處理邏輯204可使用第一處理工具資料來處理第一處理結果資料,以產生獨立於時間的處理結果資料。
如第2圖所示,處理結果預測系統200可包括一或更多個迴歸模型206、208。可使用CD偏置資料202、處理工具資料216及/或預處理邏輯204的輸出來產生及/或訓練迴歸模型。迴歸模型206及/或208可包括通用預測模型。
在一些實施例中,迴歸模型206及/或208可包括一通用預測模型或函數,用於決定給定腔室條件(例如,透過感測器資料)及處理工具資料(例如,處理工具的相對壽命)的基板處理結果:
在該實例中,F可表示函數(例如,線性函數、非線性函數、自定義演算法等),y是處理結果預測(CD偏置),r是來自歷史資料的特徵向量,r具有範圍從1到n的長度,其中n是特徵的總數(例如,可由預處理邏輯204動態決定)。函數F可處理動態向量長度,使得當預處理邏輯204決定額外特徵時,可計算處理結果預測。若給定的y及r資料數量充足,則函數F可被模型化以賦能利用給定的r預測y。預測模型可由第1圖的關鍵尺寸預測工具124或其他部件提供。
在一些實施例中,迴歸模型206及/或迴歸模型208中的一或更多者可使用增強演算法來模型化。例如,迴歸模型206、208可由預測函數F表示。預測函數F可由集合方法表示,如梯度增強迴歸,其中F由下式表示: 其中λ定義學習率。較小的學習率需要較高數量的總增強B,因此需要訓練更多的決策樹。此可提高準確度,但訓練及模型評估的成本較高。子函數f b是單獨的決策樹,其以樹深度b擬合殘餘的殘留部分。為了訓練該模型,單獨的模型朝向殘餘的誤差訓練,隨後該等單獨的誤差模型相加以給出最終的處理結果預測。例如,一或更多個單獨的樹可作為梯度增強迴歸(gradient boosting regression; GBR)演算法的一部分來執行。
在一些實施例中,迴歸模型206及/或迴歸模型208中的一或更多者可使用貝葉斯方法來模型化。例如,可利用貝葉斯方法,其中先前的結果用於創建未來結果的樸素概率,亦稱為樸素貝葉斯技術。本文,F由下式定義: 其中基於特徵x的Y等於y的概率等於使用上述貝葉斯定理組合的歷史概率。函數P即為輸入約束的歷史概率(即Y=y,X=x)。
在一些實施例中,可對不同的資料子集執行迴歸模型206及/或208,該等子集包括預處理邏輯的不同輸出及/或其他模型的輸出。迴歸模型206可透過在獨立於時間的CD偏置資料(從預處理邏輯204輸出)與感測器資料214之間執行迴歸來模型化。如前所述,獨立於時間的CD可包括透過使用處理工具資料216對資料進行加權而處理的CD偏置資料202,如第3A圖至第3B圖所示。可基於來自迴歸模型206的差異預測,使用殘留部分來產生及/或訓練迴歸模型206。例如,預處理邏輯204可輸出經處理的CD資料(例如,獨立於時間的或考慮了處理時間壽命的資料)。迴歸模型206可被訓練以接收感測器資料及/或處理工具資料,並決定相關基板的經處理CD的預測。迴歸模型208可接收來自迴歸模型206的輸出,並決定殘餘CD的預測。殘餘CD可為實際CD預測與迴歸模型206的輸出之間的差異。
再轉換工具210可提供充當一或更多個迴歸模型206、208的聚集器的處理邏輯。例如,可聚集來自每個迴歸模型206、208的輸出,以決定最終CD偏置預測212。該再轉換工具可將一或更多個迴歸模型206交錯,以在可能的程度上(例如,迴歸模型可彼此獨立地操作的程度上)並行或在單獨的執行緒上操作。
第3A圖示出了根據本揭示案的一些實施方式的示出處理結果資料的圖表300A。圖表300A繪示了在具有不同腔室壽命的不同腔室中的基板處理的CD結果(例如,歷史上由處理工具及/或處理腔室處理的不同基板量)。圖表300A包括識別各種獨立基板的第一軸304A及示出基板CD結果的第二軸302A。資料序列306A示出了被識別的基板與相關基板的處理結果或CD結果之間的關係。第3B圖繪示了根據本揭示案的一些實施方式的圖表300B,其示出了資料預處理邏輯之後的處理結果資料。圖表300A中的資料被處理(例如,使用第2圖的預處理邏輯204)以產生處理後的CD結果資料。圖表300B包括類似的第一軸304B及第二軸302B。資料序列306B包括同一已識別基板,但具有已處理的CD結果(經處理以移除時間相關影響的資料,如前文所述的處理工具壽命資料)。
第4圖為本揭示案的實施方式可在其中操作的處理結果預測系統400的方塊圖。處理結果預測系統400可接收處理結果資料402(例如,從第1圖的計量系統110及/或資料儲存器140接收)。處理結果資料402可包括指示處理結果的值(例如,CD量測值、膜厚度量測值等)。處理結果資料可包括位置資料或劃分為多個區域的資料,如中心資料404及邊緣資料406,其指示與基板的各個局部區域相關的處理結果量測值。
如第4圖所示,處理結果預測系統400可包括統計處理工具408A-B。統計處理工具408A-B可用於基於統計操作來處理資料,以驗證、預測及/或轉換處理結果資料402。在一些實施例中,統計處理工具408A-B包括使用統計製程控制(statistical process control; SPC)分析產生的模型,以決定資料的控制極限,並基於彼等控制極限來識別資料的相關程度高低。在一些實施例中,統計處理工具408A-B與單變數及/或多變數資料分析相關聯。例如,可使用統計處理工具408A-B來分析各種參數,以透過統計過程(例如,範圍、最小值、最大值、四分位數、方差、標準差等)來決定模式及相關。在另一個實例中,可使用迴歸分析、路徑分析、因數分析、多變數統計製程控制(multivariate statistical process control; MCSPC)及/或多變數方差分析(multivariate analysis of variance; MANOVA)來確定多個變數之間的關係。在一些實施例中,第一統計處理工具408A與對應於基板的第一局部區域的處理結果資料402(例如,中心資料404)相關聯,而第二統計處理工具408B與對應於基板的第二局部區域的處理結果資料402(例如,邊緣資料406)相關聯。
如第4圖所示,處理結果預測系統400包括編碼工具410。編碼工具410可將處理結果資料及位置資料(例如,中心資料404、邊緣資料406)降維成多個組或特徵。例如,編碼工具410可產生包括一或更多個獨立於工具的資料、位置相關處理結果資料、感測器資料等的特徵。在一些實施例中,編碼工具執行偏最小二乘法(partial least square; PLS)分析、主分量分析(principal component analysis; PCA)、多因數降維、非線性降維及/或上述各者任意組合中的任一者。在一些實施例中,編碼工具410被設計用於處理結果資料及/或位置資料的邊緣偵測。例如,編碼工具410包括旨在識別感測器資料、處理結果資料及/或處理工具資料的方法,該等資料變化迅速且/或包括不連續性(例如,基板各位置處理結果的不連續性或不一致性)。
在一些實施例中,編碼工具410構建模型(例如,PCA模型)以提取中心區域/邊緣區域處理結果與處理腔室處理基板的感測器資料的相關,從而產生處理結果,該結果對應於與中心區域/邊緣區域相關聯的處理結果。在一些實施例中,特徵(例如,主分量)的數量是動態的,且由編碼工具410基於接收的處理結果資料402、感測器資料、位置資料等來決定。對於所選數量的特徵(例如,主分量),可用下式計算空間函數:
對於選定數量的PC,空間函數可用下式計算: 其中Y是處理結果資料,P n是基於處理結果資料對應的位置的處理結果資料的空間轉換。例如,空間轉換可結合位置資料,如相關量測處理結果的座標表示(例如,笛卡爾座標、極性座標等)。對應於相關量測的位置可被考慮用於該PCA程序,以產生經修改的空間相關資料集Z。
如第4圖所示,處理結果預測系統400可包括迴歸工具412。迴歸工具412基於接收的編碼資料(空間相關資料)來構建預測模型。例如,迴歸模型可用來自編碼工具410的項目(project; PC)來訓練,且可表示為:
在該實例中, 可表示函數(例如,線性函數、非線性函數、自定義演算法等), 是空間相關PC表示的值,而X是來自歷史資料(例如,感測器資料)的值的向量,X具有範圍從1到n的長度,其中n是特徵總數(例如,可由編碼工具410動態決定)。函數 可處理動態向量長度,使得當編碼工具410決定額外特徵時,可計算得出處理結果預測。若X及 資料數量充足,則函數 可被模型化以賦能根據給定的X預測 。預測模型可由第1圖的厚度預測工具126或其他部件提供。
在一些實施例中,由迴歸工具412產生及/或訓練的一或更多個模型可使用增強演算法(例如,使用梯度增強迴歸)來模型化。例如,迴歸工具412可產生及/或訓練由預測函數F表示的模型。預測函數F可透過諸如梯度增強迴歸的集合方法來表示,其中F由下式表示: 其中λ定義學習率。較小的學習率需要較高數量的總增強B,因此需要訓練更多的決策樹。此可提高準確度,但訓練及模型評估的成本較高。子函數f b可包括擬合到殘餘殘留部分(例如,樹深度為b)的模型(例如,單獨的決策樹)。為了訓練該模型,將單個模型朝著剩餘殘留部分訓練,隨後將該等單個誤差模型相加,給出最終的處理結果預測。
如第4圖所示,處理結果預測系統400可包括解碼工具,該解碼工具執行與由編碼工具410執行的方法相關聯(例如,反轉、轉置、反相等)的解碼方法。例如,解碼工具可從迴歸工具412接收降維資料集,並解碼該資料以產生指示處理結果預測值的資料集。例如,解碼工具414可識別編碼工具410所利用的特徵,並對編碼工具410所提供的降維進行計數。在一些實施例中,解碼工具414執行偏最小二乘法(partial least squares; PLS)分析、主分量分析(principal component analysis; PCA)、多因數降維、非線性降維及/或上述各者任意組合(例如,由編碼工具410執行的方法的反轉、轉置、反相等)中的任意一種。例如,由解碼工具414執行的方法的說明性表示可為 其中 是處理結果預測資料及 是基於處理結果資料對應的位置的處理結果資料的反轉空間轉換(或轉置函數)。迴歸工具412的輸出 指示與對應於由編碼工具410執行的編碼方法的參數(例如,原理分量(principles component; PC)、特徵)相關聯的特徵資料集。
在一些實施例中,處理結果預測系統400(例如,解碼工具414)進一步決定由解碼工具414解碼的處理結果預測的統計平均值。在一些實施例中,處理結果預測系統400決定與第二基板的中心區域相關的第一平均厚度及與第二基板的邊緣區域相關的第二平均厚度。例如,執行求統計平均值的方法可包括下式
其中K是正在計算的對應區域(例如,中心或邊緣區域)中的點數量。可輸出平均值且其包括在中心預測資料416及/或邊緣預測資料418中。
第5A圖為根據某些實施例,使用基板處理資料560(例如,第1圖的感測器資料144及/或處理工具資料146)為機器學習模型(例如,本文所述的MLM中一或更多者)創建資料集的示例資料集產生器572(例如,第1圖的資料集產生器174)。第5A圖的系統500A示出了資料集產生器572、資料輸入501及目標輸出503。
在一些實施例中,資料集產生器572產生包括一或更多個資料輸入501(例如,訓練輸入、驗證輸入、測試輸入)的資料集(例如,訓練集、驗證集、測試集)。在一些實施例中,資料集進一步包括對應於資料輸入501的一或更多個目標輸出503。資料集亦可包括將資料輸入501映射到目標輸出503的標籤566的映射資料。資料輸入501亦可被稱為「特徵」、「屬性」或「資訊」。在一些實施例中,資料集產生器572可向訓練引擎182、驗證引擎184及/或測試引擎186提供資料集,其中資料集用於訓練、驗證及/或測試機器學習模型。
在一些實施例中,資料集產生器572基於基板處理資料560產生資料輸入501。在一些實施例中,資料集產生器572產生與基板處理資料560相關聯的標籤566(例如,諸如關鍵尺寸量測及/或膜厚度量測的處理結果量測)。在一些情況下,標籤566可由使用者手動添加到圖像中(例如,輸入量測值)。在其他情況下,標籤566可被自動添加到輸入資料。在一些實施例中,資料輸入501可包括感測器資料,該感測器資料指示針對基板處理資料560的處理腔室的環境狀態及處理工具的狀態。
在一些實施例中,資料集產生器572可產生對應於第一特徵集的第一資料輸入,以訓練、驗證或測試第一機器學習模型,並且資料集產生器572可產生對應於第二特徵組的第二資料輸入,以訓練、驗證或測試第二機器學習模型。
在一些實施例中,資料集產生器572可離散化資料輸入501或目標輸出503中一或更多者(例如,用於進行迴歸問題的分類演算法)。資料輸入501或目標輸出503的離散化可將感測器資料轉換成可實體化的狀態向量或特徵向量。在一些實施例中,資料輸入501的離散值指示處理腔室的各個感測器參數(溫度、壓力、真空條件)及/或處理工具的壽命資料(例如,處理的基板數量)。
正在用於訓練、驗證或測試機器學習模型的資料輸入501及目標輸出503可包括各個處理腔室及/或處理工具的資訊。例如,基板處理資料560及標籤566可用於訓練用於特定處理工具及/或處理腔室的系統。
在一些實施例中,用於訓練機器學習模型的資訊可來自具有特定特徵的特定類型的處理腔室及/或處理工具,並允許經訓練的機器學習模型決定具有一或更多個共享特定群組特徵(例如,共用製程配方)的部件的一批基板的基板處理結果。在一些實施例中,用於訓練機器學習模型的資訊可為來自兩個或更多個處理結果的資料點,並且可允許經訓練的機器學習模型利用同一感測器資料(例如,厚度、關鍵尺寸、均勻性參數等)決定多個輸出資料點。例如,推斷處理結果的MLM模型可提供多個區域的厚度預測,並預測CD偏置。
在一些實施例中,在產生資料集並使用該資料集來訓練、驗證或測試機器學習模型之後,可進一步訓練、驗證或測試(例如,利用更多感測器資料、處理工具資料、處理結果資料及/或標籤)或調整(例如,調整與機器學習模型190的輸入資料相關聯的權重,如神經網路中的連接權重)機器學習模型。
第5B圖為圖示根據某些實施例的用於訓練機器學習模型以產生輸出564(例如,處理結果預測、厚度預測、關鍵尺寸預測、製程均勻性預測等)的系統500B的方塊圖。系統500B可用於訓練一或更多個機器學習模型,以決定與處理結果資料(例如,關鍵尺寸預測、厚度預測等)相關的輸出。
在方塊510,系統500B執行基板處理資料560(例如,指示處理腔室的環境狀態的感測器資料、指示處理工具的壽命資料的處理工具資料,及在一些實施例中的標籤566)的資料劃分(例如,透過資料集產生器572),以產生訓練集502、驗證集504及測試集506。例如,訓練集502可為基板處理資料560的60%,驗證集504可為基板處理資料560的20%,且測試集506可為基板處理資料560的20%。系統500B可為訓練集502、驗證集504及測試集506中的每一個產生複數個特徵集。
在方塊512,系統500B使用訓練集502執行模型訓練。系統500B可使用訓練集502的多個訓練資料項目集(例如,每一者包括多個特徵集)(例如,訓練集502的第一特徵集、訓練集502的第二特徵集等)來訓練一個或多個機器學習模型。例如,系統500可訓練機器學習模型,以使用訓練集中的第一特徵集(例如,CD偏置資料202)產生第一訓練機器學習模型(例如,迴歸模型206),並使用訓練集中的第二特徵集(例如,處理工具資料216)產生第二訓練機器學習模型(例如,迴歸模型208)。可訓練機器學習模型來輸出一或更多種其他類型的預測、分類、決策等。例如,可訓練機器學習模型來預測根據基板處理資料560處理的基板的處理結果。
處理邏輯決定是否滿足停止標準。若沒有滿足停止標準,則用額外的訓練資料項目重複訓練流程,並將另一個訓練資料項目輸入到機器學習模型中。若滿足停止標準,則機器學習模型的訓練完成。
在一些實施例中,第一經訓練的機器學習模型及第二經訓練的機器學習模型可被組合以產生第三經訓練的機器學習模型(例如,其可為比第一或第二經訓練的機器學習模型本身更好的預測器)。在一些實施例中,用於比較模型的特徵集可重疊(例如,在不同處理條件下來自不同處理腔室的基板製程)。
在方塊514,系統500B使用驗證集504(例如,經由第1圖的驗證引擎184)執行模型驗證。系統500B可使用驗證集504的對應特徵集來驗證每個訓練模型。例如,系統500B可使用驗證集中的第一特徵集(例如,特徵向量形成第一嵌入網路)來驗證第一經訓練機器學習模型,並使用驗證集中的第二特徵集(例如,來自第二嵌入網路的特徵向量)來驗證第二經訓練機器學習模型。
在方塊514,系統500B可(例如,透過模型驗證決定一或更多個經訓練模型中的每一個的準確度),並可決定經訓練模型中一或更多者是否具有滿足臨限準確度的準確度。回應於決定經訓練模型中一或更多者具有滿足臨限準確度的準確度,流程繼續到方塊516。
在方塊518,系統500B使用測試集506執行模型測試,以測試所選擇的模型508。系統500B可使用測試集中的第一特徵集(例如,來自編碼工具410的特徵向量)來測試第一經訓練的機器學習模型,以決定第一經訓練的機器學習模型滿足臨限準確度(例如,基於測試集506的第一特徵集決定)。回應於所選模型508的準確度不滿足臨限準確度(例如,所選模型508過度擬合訓練集502及/或驗證集504,且不適用於諸如測試集506的其他資料集),流程前進到方塊512,此處系統500使用更多訓練資料項目來執行模型訓練(例如,再訓練)。回應於決定所選模型508具有滿足基於測試集506的臨限準確度的準確度,流程前進到方塊520。至少在方塊512中,模型可學習基板處理資料560中的模式以進行預測,及在方塊518中,系統500可對殘餘資料(例如,測試集506)應用模型以測試預測。
在方塊520,系統500B使用經訓練的模型(例如,選定的模型508)來接收當前資料(例如,當前感測器資料及處理工具資料),並基於在方塊520基於經訓練的模型對當前基板處理資料562的處理接收當前輸出564。在一些實施例中,接收對應於當前基板處理資料562的輸出564,且基於當前基板處理資料562及當前輸出564重新訓練模型508。
在一些實施例中,方塊510至520的一或更多個操作可以各種順序發生及/或與本文未呈現及描述的其他操作一起發生。在一些實施例中,可不執行方塊510至520中的一或更多個操作。例如,在一些實施例中,可不執行方塊510的資料劃分、方塊514的模型驗證、方塊516的模型選擇或方塊518的模型測試中的一或更多者。
第6圖示出了根據本揭示案的態樣,使用堆疊模型化的處理結果預測系統600的方塊圖。本文描述的模型中一或更多者(例如,機器學習模型)可包括如結合第6圖描述的模型堆疊。例如,迴歸模型206、迴歸模型208及/或由迴歸工具412產生及/或訓練的模型中的一或更多者可包括第6圖中呈現的一或更多個方法及/或製程。
如第6圖所示,處理結果預測系統600可包括資料集,該資料集包括一輸入資料602集及對應於各個輸入資料602的輸出資料604集。輸入資料602及輸出資料604可由資料處理工具606接收。資料處理工具606可執行將輸入及輸出資料劃分成資料組608(例如,執行結合第5圖的方塊510中的資料劃分所描述的方法執行)。資料組608可含有輸入資料602與輸出資料604分組的不同組合。在一些實施例中,資料組608是互斥的,然而,在其他實施例中,資料組608包括重疊的資料點。
如第6圖所示,處理結果預測系統產生局部模型610的堆疊。可基於單獨的關聯資料組608來產生及/或訓練每個局部模型。每個局部模型610可被訓練以基於相同的接收輸入而利用其他局部模型610產生獨立的輸出。每個局部模型可接收新的輸入資料,並基於經訓練的模型提供新的輸出資料。每個模型(例如,由於訓練資料集差異)可基於用於訓練對應模型610的資料組604中的差異來識別不同的特徵、人工參數及/或主分量。
局部模型610可彼此結合使用,以產生及/或訓練最終模型。在一些實施例中,最終模型包括加權集合均值。加權集合均值透過由對應模型接收的貢獻(例如,輸出)的信任度或置信度來對每個局部模型610的貢獻進行加權。在一些實施例中,權重在局部模型610之間是相等的(例如,來自每個局部模型610的每個輸出在模型之間得到同等處理)。在一些實施例中,訓練最終模型以決定局部模型的各種權重(例如,貢獻權重)(例如,使用神經網路或深度學習網路決定)。例如,可執行一或更多種類型的迴歸(梯度增強迴歸、線性迴歸、邏輯迴歸等)來決定與局部模型相關聯的一或更多個貢獻權重。最終模型612可接收來自局部模型610的輸出作為輸入,並嘗試學習如何最佳地組合輸入預測以做出改進的輸出預測。
第7圖示出了根據本揭示案各態樣的用於基板處理結果預測的模型訓練工作流程705及模型應用工作流程717。在實施例中,模型訓練工作流程705可在可能包括或可能不包括處理結果預測應用的伺服器處執行,並且將經訓練的模型提供給處理結果預測應用,該處理結果預測應用可執行模型應用工作流程717。模型訓練工作流程705及模型應用工作流程717可由計算裝置(例如,第1圖的伺服器120)的處理器執行的處理邏輯來執行。該等工作流程705、717中的一或更多個可例如由一或更多個機器學習模組實施的處理裝置及/或在處理裝置上執行的其他軟體及/或韌體來實施。
模型訓練工作流程705用於訓練一或更多個機器學習模型(例如,迴歸模型、增強迴歸模型、主分量分析模型、深度學習模型)來執行一或更多個決定、預測、修改等與處理結果預測器相關的任務(如關鍵尺寸預測、薄膜厚度預測)。模型應用工作流程717將應用一或更多個經訓練的機器學習模型來執行決定及/或調整等腔室資料(例如,原始感測器資料、合成資料,可指示處理腔室狀態)任務。機器學習模型中一或更多者可接收處理結果資料(例如,基板計量資料)。
本文描述了各種機器學習輸出。描述並示出了機器學習模型的特定數量及佈置。然而,應該理解,可修改所使用的機器學習模型的數量及類型及此種機器學習模型的佈置,以實現相同或相似的最終結果。因此,所描述及示出的機器學習模型的佈置僅為示例,不應被解釋為限制。
在實施例中,訓練一或更多個機器學習模型來執行以下任務中一或更多者。每個任務可由單獨的機器學習模型來執行。或者,單個機器學習模型可執行每個任務或任務的子集。額外地或可替換地,可訓練不同的機器學習模型來執行任務的不同組合。在一實例中,可訓練一個或數個機器學習模型,其中經訓練的機器學習(machine learning; ML)模型是具有多個共享層及多個更高級別的不同輸出層的單個共享神經網路,其中每個輸出層輸出不同的預測、分類、識別等。可訓練一或更多個經訓練的機器學習模型來執行的任務如下: a) 關鍵尺寸預測器--如前所述,關鍵尺寸預測器可接收及處理各種輸入資料,如感測器資料、處理工具資料、預處理資料及可表示基板製程期間處理腔室狀態的合成資料。關鍵尺寸預測器可輸出對應於在與輸入資料相關的條件下處理的基板的各種預測處理結果的各種值。例如,關鍵尺寸預測器可輸出處理結果預測,如關鍵尺寸預測(例如,蝕刻偏置值)。 b) 膜厚預測器--如前所述,膜厚預測器可接收及處理各種輸入資料,如感測器資料、預處理資料及可表示基板製程期間處理腔室狀態的合成資料。膜厚預測器可輸出對應於在與輸入資料相關的條件下處理的基板的各種預測處理結果的各種值。例如,膜厚度預測器可輸出處理結果預測,如膜厚度預測(例如,基板中心區域的平均膜厚度,基板邊緣區域的平均膜厚度)。
對於模型訓練工作流程705而言,包含數百、數千、數萬、數十萬或更多的腔室資料710(例如,感測器資料、可指示相關處理腔室的狀態的合成資料)及/或處理工具資料712(例如,包括由相關處理工具處理的多個基板的壽命資料)的訓練資料集應該用於形成一訓練資料集。在實施例中,訓練資料集亦可包括相關的處理結果資料714(例如,基板的量測參數(例如,關鍵尺寸、均勻性要求、膜厚度結果等))以用於形成訓練資料集,其中每個資料點可包括一或更多種類型的有用資訊的各種標籤或分類。每種情況可包括資料,該資料例如可指示一或更多個處理腔室處理基板及在基板製程程序期間及/或之後評估的基板相關處理結果。可處理該資料以產生用於訓練一或更多個機器學習模型的一個或多個訓練資料集736。可訓練機器學習模型,例如,以自動預測在與腔室資料710及/或處理工具資料712相關的條件下處理的基板處理結果。
在一個實施例中,產生一或更多個訓練資料集736包括執行基板處理及執行計量以決定一或更多個處理結果量測值(例如,基板的量測參數(例如,關鍵尺寸、均勻性要求、膜厚度結果等))。一或更多個標籤可用於基板處理及量測的處理結果的各種迭代。所使用的標籤可取決於特定機器學習模型的訓練目的。在一些實施例中,如在其他實施例中所述,腔室資料、處理結果及/或處理工具資料可表示為向量,而處理速率可表示為一或更多個矩陣。
為了實現訓練,處理邏輯將訓練資料集736輸入到一或更多個未訓練的機器學習模型中。在將第一輸入輸入到機器學習模型之前,可初始化機器學習模型。處理邏輯基於訓練資料集來訓練未經訓練的機器學習模型,以產生執行如上所述的各種操作的一或更多個經訓練的機器學習模型。
可透過一次一個地將腔室資料710、處理工具資料712及處理結果資料714中的一或更多個者輸入到機器學習模型中來執行訓練。
在一或更多輪訓練之後,處理邏輯可決定是否滿足停止標準。停止標準可為準確度目標級別、來自訓練資料集的處理圖像目標數量、相較於一或更多個先前資料點的參數目標變化量、上述各者的組合及/或其他標準。在一個實施例中,當至少最小數量的資料點已被處理並且至少達到臨限準確度時,滿足停止標準。臨限準確度可為例如70%、80%或90%的準確度。在一個實施例中,若機器學習模型的準確度已經停止提高,則滿足停止標準。若沒有滿足停止標準,則執行進一步的訓練。若已經滿足停止標準,則訓練可完成。一旦訓練了機器學習模型,訓練資料集的保留部分可用於測試該模型。
一旦產生了一或更多個經訓練的機器學習模型738,則其可被儲存在模型儲存裝置745中,並且可被添加到基板製程速率決定及/或製程調諧應用中。隨後,基板製程速率決定及/或製程調諧應用可使用一或更多個經訓練的ML模型738及額外的處理邏輯來實現自動模式,在該模式下,使用者手動輸入的資訊被最小化,或者甚至在某些情況下被消除。
對於模型應用工作流程717,根據一個實施例,輸入資料762可為輸入關鍵尺寸預測器767,其可包括經訓練的機器學習模型。基於輸入資料762,關鍵尺寸預測器767輸出指示在由輸入資料762表示的條件下處理的基板的一或更多個關鍵尺寸值的資訊。根據一個實施例,輸入資料762可為輸入膜厚度預測器764,其可包括經訓練的機器學習模型。基於輸入資料762,膜厚預測器764輸出指示在由輸入資料762表示的條件下處理的基板的一或更多個膜厚度值的資訊。
第8圖繪示了根據本揭示案的一些實施方式,用於預測基板製程的處理結果的一個示例方法800的流程圖。方法800由可包括硬體(例如,電路系統、專用邏輯等)、軟體(如在通用電腦系統或專用機器上運行的軟體)或上述各者任意組合的處理邏輯來執行。在一個實施方式中,使用第1圖的伺服器120及經訓練的機器學習模型190來執行該方法,而在一些其他實施方式中,第8圖的一或更多個方塊可由圖中未繪示的一或更多個其他機器來執行。
方法800可包括接收感測器資料(例如,與處理基板的處理腔室相關聯)及處理工具資料(例如,與處理基板的處理工具的壽命相關聯),且使用經訓練的機器學習模型190來處理接收到的感測器資料及處理工具資料。經訓練的模型可被配置為基於感測器資料及處理工具資料產生一或更多個輸出,該等輸出指示處理結果預測,及處理結果預測準確表示在與感測器資料及處理工具資料相關的條件下處理的基板的處理結果的置信度級別。
在方塊802,處理邏輯接收感測器資料,該感測器資料指示根據基板製程程序處理第一基板的處理腔室的環境的狀態。在方塊804,處理邏輯接收處理工具資料,該處理工具資料指示處理第一基板的處理工具相對於一批處理工具中其他處理工具的相對操作壽命。例如,處理工具資料可指示該處理工具自上次預防性維護程序以來已處理了第一數量的基板,及/或與另一個處理工具或一批處理工具相比該處理工具已更多地處理了第二數量的基板。在基板製程程序期間量測處理腔室的環境狀態。感測器資料及/或處理工具資料可為原始資料,或者可使用特徵提取、機械模型及/或統計模型中的一或更多者來處理,以使感測器準備好向機器學習模型的輸入。感測器資料可指示處理腔室的一或更多個參數(例如,溫度、壓力、真空條件、光譜資料等)。
在一些實施例中,感測器資料及/或處理工具資料可進一步包括合成資料,或者利用原始感測器資料工程設計的資料。例如,如先前實施例中所述,各種工程工具可執行特徵提取及/或創建人工及/或虛擬參數組合。特徵提取器(例如,第1圖的資料準備工具116)可透過對原始感測器資料執行變數分析,如製程控制分析、單變數極限違反分析及/或多變數極限違反分析,來創建各種特徵。在一些實施例中,感測器資料在多個處理腔室及/或製程配方中被歸一化,以創建具有共同基礎的可比資料集。在一些實施例中,處理邏輯處理感測器資料及/或處理工具資料,以產生修改的感測器資料。修改的感測器資料可包括根據處理工具資料加權的感測器資料。
在方塊806,處理邏輯使用感測器資料及處理工具資料作為對經訓練的機器學習模型的輸入。在方塊808,處理邏輯從機器學習模型獲得輸出。
在方塊810,處理邏輯基於來自機器學習模型的輸出預測第一基板的處理結果。在一些實施例中,處理結果預測包括對應於第一基板的蝕刻偏置的值。在一些實施例中,處理結果的預測指示與第一基板的中心區域相關聯的第一平均厚度及與第一基板的邊緣區域相關聯的第二平均厚度。
在一些實施例中,可採用多個機器學習模型。例如,第一MLM可用於處理感測器資料,以獲得第一處理結果預測。處理邏輯可使用第二機器學習模型來處理第一處理結果,以獲得第二處理結果預測。處理邏輯可進一步組合第一處理結果預測與第二處理結果預測,以獲得最終處理結果預測。
在方塊812,處理邏輯視情況準備用於在圖形化使用者介面(graphical user interface; GUI)上呈現的處理結果預測。例如,處理結果預測可包括與處理結果預測相關的通知,該通知如處理結果超出可接受值(例如,統計製程控制(statistical process control; SPC))的臨限窗。該通知可包括要執行的與處理腔室及/或處理工具相關的動作(例如預防性維護)。在另一個實例中,可透過顯示要對基板製程採取的改變(例如,對製程參數的調整)來在GUI上顯示處理結果預測,該等改變用來補救由處理結果預測識別的缺點。在方塊814,處理邏輯視情況基於處理結果預測改變處理腔室及/或處理工具的操作。例如,處理邏輯可向一或更多個製程控制器發送指令,以改變處理裝置的一或更多個操作(例如,改變製程配方及/或製程參數,結束一或更多個處理工具及/或處理腔室的基板處理,啟動與一或更多個處理腔室及/或處理工具相關聯的預防性維護等)。
第9圖繪示了根據本揭示案的一些實施方式,用於預測基板製程的處理結果的一個示例方法900的流程圖。方法900由可包括硬體(例如,電路系統、專用邏輯等)、軟體(如在通用電腦系統或專用機器上運行的軟體)或上述各者任意組合的處理邏輯來執行。在一個實施方式中,使用第1圖的伺服器120及經訓練的機器學習模型190來執行該方法,而在一些其他實施方式中,第9圖的一或更多個方塊可由諸圖中未示出的一或更多個其他機器來執行。
在方塊902,處理邏輯接收訓練資料,包括(i)第一感測器資料及(ii)計量資料。第一感測器資料指示處理第一基板的處理腔室的環境的狀態。計量資料包括與在與第一感測器資料相關的條件下處理的第一基板相關的處理結果資料。感測器資料及/或計量工具資料可為原始資料,或者可使用機械模型及/或統計模型中一或更多者進行處理,以使感測器準備好向機器學習模型的輸入。感測器資料可指示處理腔室的一或更多個參數(例如,溫度、壓力、真空條件、光譜資料等)。
在方塊904,處理邏輯對訓練資料進行編碼,以產生經編碼的訓練資料。在一些實施例中,各種工程工具可執行特徵提取及/或創建人工及/或虛擬參數組合。特徵提取器(例如,第1圖的資料準備工具116)可透過對原始感測器資料執行變數分析,如製程控制分析、單變數極限違反分析及/或多變數極限違反分析,來創建各種特徵。在一些實施例中,感測器資料在多個處理腔室及/或製程配方中被歸一化,以創建具有共同基礎的可比資料集。在一些實施例中,處理邏輯處理感測器資料及/或處理工具資料,以產生修改的感測器資料。修改的感測器資料可包括根據處理工具資料加權的感測器資料。例如,可使用主分量分析(principal component analysis; PCA)來對資料進行編碼。
在方塊906,處理邏輯使用經編碼的訓練資料來執行迴歸,以訓練機器學習模型(machine-learning model; MLM)。例如,處理邏輯可利用在方塊904產生的項目(例如,主分量)來產生迴歸模型。在一些實施例中,迴歸可基於線性函數、非線性函數、自定義演算法等。在一些實施例中,由迴歸工具412產生及/或訓練的一或更多個模型可使用增強演算法(例如,使用梯度增強迴歸)來模型化。例如,迴歸工具412可產生及/或訓練由預測函數F表示的模型。預測函數F可透過諸如梯度增強迴歸(gradient boosted regression; GBR)的集合方法來表達。該模型可由包括單個決策樹的子函數組成,該等決策樹擬合至子函數的先前選擇的剩餘殘留部分。為了訓練該模型,將單個模型朝著剩餘殘留部分訓練,隨後將該等單個誤差模型相加,給出最終的處理結果預測。
在方塊908,處理邏輯接收第二感測器資料。第二感測器資料可指示處理第二基板的第二處理腔室的環境的狀態。在方塊910,處理邏輯編碼第二感測器資料以產生經編碼的感測器資料。處理邏輯可利用在方塊904執行的資料編碼的一或更多個特徵及/或態樣。
在方塊912,處理邏輯使用編碼的感測器資料作為訓練的MLM的輸入。在方塊914,處理邏輯從經訓練的MLM接收一或更多個輸出。一或更多個輸出包括編碼的預測資料。在方塊916,處理邏輯解碼編碼的預測資料以產生預測資料,該預測資料指示在與第二感測器資料相關的條件下處理的基板的處理結果。處理邏輯可執行與在方塊904及/或912執行的編碼資料的方法相關聯(例如,反轉、轉置、反相等)的方法。例如,處理邏輯可從經訓練的MLM接收降維資料集,並隨後解碼該資料以產生指示處理結果預測值的資料集。例如,在方塊904及/或910,處理邏輯可識別用於編碼資料的特徵,並對相對應的降維進行計數。在一些實施例中,處理邏輯執行偏最小二乘法(partial least squares; PLS)分析、主分量分析(principal component analysis; PCA)、多因數降維、非線性降維及/或上述各者任意組合(例如,在方塊904及/或912執行的方法的反向、轉置、反相等)中的任一者。
第10圖繪示了根據本揭示案的一或更多個態樣操作的示例計算裝置1000的方塊圖。在各種說明性實例中,計算裝置1000的各種部件可表示第1圖所示的客戶端裝置150、計量系統110、伺服器120、資料儲存器140及機器學習系統170的各種部件。
示例計算裝置1000可連接到LAN、內部網路、外部網路及/或網際網路中的其他電腦裝置。計算裝置1000可在客戶端-伺服器網路環境中以伺服器的身份操作。計算裝置1000可為個人電腦(personal computer; PC)、機上盒(set-top box; STB)、伺服器、網路路由器、交換機或橋接器,或者能夠執行指定其要採取的動作的指令集(順序或以其他方式)的任何裝置。此外,儘管僅示出了單個示例計算裝置,但是術語「電腦」亦應當被理解為包括單獨或聯合執行一(或多個)指令集以執行本文論述的任何一或更多個方法的電腦的任何集合。
示例計算裝置1000可包括處理裝置1002(亦稱為處理器或CPU)、主記憶體1004(例如,唯讀記憶體(read-only memory; ROM)、快閃記憶體、諸如同步DRAM (synchronous dynamic random access memory; SDRAM)的動態隨機存取記憶體(dynamic random access memory; DRAM)等)、靜態記憶體1006(例如,快閃記憶體、靜態隨機存取記憶體(static random access memory; SRAM)等),及輔助記憶體(例如,資料儲存裝置1018),上述各者可經由匯流排1030相互通信。
處理裝置1002表示一或更多個通用處理裝置,如微處理器、中央處理單元等。更具體地,處理裝置1002可為複雜指令集計算(complex instruction set computing; CISC)微處理器、精簡指令集計算(reduced instruction set computing; RISC)微處理器、超長指令字(very long instruction word; VLIW)微處理器、實施其他指令集的處理器或者實施指令集組合的處理器。處理裝置1002亦可為一或更多個專用處理裝置,如特殊應用積體電路(application specific integrated circuit; ASIC)、現場可程式設計閘陣列(field programmable gate array; FPGA)、數位信號處理器(digital signal processor; DSP)、網路處理器等。根據本揭示案的一或更多個態樣,處理裝置1002可被配置成執行實施第5圖、第8圖至第9圖所示的方法500A-500B、800-900的指令。
示例計算裝置1000可進一步包括網路介面裝置1008,其可通信地耦合到網路1020。示例計算裝置1000可進一步包括視訊顯示器1010(例如,液晶顯示器(liquid crystal display; LCD)、觸控式螢幕或陰極射線管(cathode ray tube; CRT))、字母數字輸入裝置1012(例如,鍵盤)、游標控制裝置1014(例如,滑鼠)、及聲訊信號產生裝置1016(例如,揚聲器)。
資料儲存裝置1018可包括機器可讀儲存媒體(或者,更具體地,非暫時性機器可讀儲存媒體)1028,其上儲存有一或更多個可執行指令集1022。根據本揭示案的一或更多個態樣,可執行指令1022可包括與執行第5圖、第8圖至第9圖所示的方法500A-500B、800-900相關聯的可執行指令。
可執行指令1022在由示例計算裝置1000執行期間亦可完全或至少部分地駐留在主記憶體1004及/或處理裝置1002內,主記憶體1004及處理裝置1002亦構成電腦可讀儲存媒體。可進一步透過網路介面裝置1008在網路上發送或接收可執行指令1022。
儘管電腦可讀儲存媒體1028在第10圖中被示為單個媒體,但是術語「電腦可讀儲存媒體」應該被理解為包括儲存一或更多個操作指令集的單個媒體或多個媒體(例如,集中式或分散式資料庫,及/或相關聯的快取記憶體及伺服器)。術語「電腦可讀儲存媒體」亦應被理解為包括能夠儲存或編碼由機器執行的指令集的任何媒體,該等指令使得機器執行本文描述方法中的任何一或更多種。因此,術語「電腦可讀儲存媒體」應包括但不限於固態記憶體及光學及磁性媒體。
以上詳細描述的一些部分是根據電腦記憶體內對資料位元的操作的演算法及符號表示來呈現的。該等演算法描述及表示是熟習資料處理領域的技術者用來最有效地向本領域的其他技藝人士傳達工作實質內容的手段。演算法在本文大體被認為是導致期望結果的自洽的步驟序列。該等步驟需要對物理量進行物理操作。通常,但不一定,該等量採取能夠被儲存、傳輸、組合、比較及以其他方式操縱的電或磁信號的形式。主要出於常見用法的原因,將該等信號稱為位元、值、元素、符號、字元、術語、數字等有時經證實是方便的。
然而,應該記住,所有該等及類似的術語都與適當的物理量相關聯,且僅僅是應用於該等量的方便的標籤。除非另作特別聲明,否則從下文的論述中顯而易見的是,在整個說明書中,使用諸如「識別」、「決定」、「儲存」、「調整」、「導致」、「返回」、「比較」、「創建」、「停止」、「載入」、「複製」、「拋出」、「替換」、「執行」等術語的論述係指電腦系統或類似的電子計算裝置的動作及過程,該系統將表示為電腦系統暫存器及記憶體內的物理(電子)量的資料操縱及轉換成其他資料,該其他資料類似地表示為電腦系統的記憶體或暫存器或其他此種資訊儲存、傳輸或顯示裝置內的物理量。
本揭示案的實例亦關於用於執行本文描述的方法的裝置。該裝置可為所需目的而專門構造,或者可為由儲存在電腦系統中的電腦程式選擇性程式設計的通用電腦系統。此種電腦程式可儲存在電腦可讀儲存媒體中,例如但不限於任何類型的碟,包括光碟、光碟唯讀記憶體(compact disc read only memory; CD-ROM)及磁光碟、唯讀記憶體(read-only memory; ROM)、隨機存取記憶體(random access memory; RAM)、可擦除可程式設計唯讀記憶體(erasable programmable read-only memory; EPROM)、電可擦除可程式設計唯讀記憶體(electrically erasable programmable read-only memory; EEPROM)、磁碟儲存媒體、光儲存媒體、快閃記憶體元件、其他類型的機器可存取儲存媒體、或適於儲存電子指令的任何類型的媒體,每個媒體都耦合到電腦系統匯流排。
本文呈現的方法及顯示並不固有地與任何特定的電腦或其他裝置相關。根據本文的教導,各種通用系統可與程式一起使用,或者可證明構造更專用的裝置來執行所需的方法步驟是方便的。將在下文的描述中闡述各種該等系統的所需結構。此外,本揭示案的範疇不限於任何特定的程式設計語言。應當理解,可使用多種程式設計語言來實現本揭示案的教導。
應當理解,以上描述意欲為說明性,而非限制性。熟習此項技術者在閱讀及理解以上描述後,諸多其他實施實例將是顯而易見的。儘管本揭示案描述了具體的實例,但是將認識到,本揭示案的系統及方法不限於本文描述的實例,而是可在所附申請專利範圍的範疇內進行修改來實施。因此,說明書及附圖應被認為是說明性的,而不是限制性的。因此,本揭示案的範圍應當參照所附申請專利範圍及該等申請專利範圍的等同物的全部範圍來決定。
100:系統架構 102:製造系統 104:處理工具 106:製程程序 108:製程控制器 110:計量系統 114:計量工具 116:資料準備工具 120:伺服器 124:關鍵尺寸預測工具 126:厚度預測工具 140:資料儲存器 142:歷史資料 144:歷史感測器資料 146:歷史處理工具資料 148:歷史處理結果資料 150:客戶端裝置 152:瀏覽器 154:應用程式 160:網路 170:機器學習系統 172:伺服器機器 174:資料集產生器 180:伺服器機器 182:訓練引擎 184:驗證引擎 186:測試引擎 190:機器學習模型 192:伺服器 194:關鍵尺寸部件 196:厚度部件 200:處理結果預測系統 202:CD偏置資料 204:預處理邏輯 206:迴歸模型 208:迴歸模型 210:再轉換工具 212:最終CD偏置預測 214:感測器資料 216:處理工具資料 300A:圖表 300B:圖表 302A:第二軸 302B:第二軸 304A:第一軸 304B:第一軸 306A:資料序列 306B:資料序列 400:處理結果預測系統 402:處理結果資料 404:中心資料 406:邊緣資料 408A:統計處理工具 408B:統計處理工具 410:編碼工具 412:迴歸工具 414:解碼工具 416:中心預測資料 418:邊緣預測資料 500A:系統 500B:系統 501:資料輸入 502:訓練集 503:目標輸出 504:驗證集 506:測試集 508:模型 510:步驟 512:步驟 514:步驟 516:步驟 518:步驟 520:步驟 560:基板處理資料 560:基板處理資料 562:基板處理資料 564:輸出 566:標籤 566:標籤 572:資料集產生器 600:處理結果預測系統 602(1):輸入資料 602(2):輸入資料 602(3):輸入資料 602(4):輸入資料 602(8):輸入資料 602(K):輸入資料 602(L):輸入資料 602(M):輸入資料 602(N):輸入資料 604(1):輸出資料 604(2):輸出資料 604(3):輸出資料 604(4):輸出資料 604(8):輸出資料 604(K):輸出資料 604(L):輸出資料 604(N):輸出資料 606:資料處理工具 608(1):資料組 610(1):局部模型 610(2):局部模型 610(M):局部模型 612:最終模型 705:模型訓練工作流程 710:腔室資料 712:處理工具資料 714:處理結果資料 717:模型應用工作流程 736:訓練資料集 738:經訓練的機器學習模型 745:模型儲存裝置 762:輸入資料 764:膜厚預測器 767:輸入關鍵尺寸預測器 800:方法 802:步驟 804:步驟 806:步驟 808:步驟 810:步驟 812:步驟 814:步驟 900:方法 902:步驟 904:步驟 906:步驟 908:步驟 910:步驟 912:步驟 914:步驟 916:步驟 1000:計算裝置 1002:處理裝置 1004:主記憶體 1006:靜態記憶體 1008:網路介面裝置 1010:視訊顯示器 1012:字母數字輸入裝置 1014:游標控制裝置 1016:聲訊信號產生裝置 1018:資料儲存裝置 1020:網路 1022:可執行指令 1028:機器可讀儲存媒體 1030:匯流排
根據下文給出的詳細描述及附圖,將更全面地理解本揭示案的態樣及實施方式,該等態樣及實施方式意欲透過示例而非限制的方式示出態樣及實施方式。
第1圖是圖示本揭示案的實施方式可在其中操作的示例系統架構的方塊圖。
第2圖是圖示本揭示案的實施方式可在其中操作的處理結果預測系統的方塊圖。
第3A圖繪示了根據本揭示案的一些實施例的處理結果資料的圖表。
第3B圖繪示了根據本揭示案的一些實施方式,示出資料預處理邏輯之後的處理結果資料的圖表。
第4圖是圖示本揭示案的實施方式可在其中操作的處理結果預測系統的方塊圖。
第5A圖為根據某些實施例,使用基板處理資料為機器學習模型(例如,本文所述的MLM中一或更多者)創建資料集的示例資料集產生器。
第5B圖為根據某些實施例,圖示訓練機器學習模型以產生輸出的系統的方塊圖。
第6圖示出了根據本揭示案的態樣,使用堆疊模型化的處理結果預測系統的方塊圖。
第7圖示出了根據本揭示案的態樣的用於基板處理結果預測的模型訓練工作流程及模型應用工作流程。
第8圖繪示了根據本揭示案的一些實施方式,用於預測基板製程的處理結果的一個示例方法的流程圖。
第9圖繪示了根據本揭示案的一些實施方式,用於監測及預測處理結果的一個示例方法的流程圖。
第10圖繪示了根據本揭示案的一或更多個態樣操作的示例計算裝置的方塊圖。
國內寄存資訊(請依寄存機構、日期、號碼順序註記) 無 國外寄存資訊(請依寄存國家、機構、日期、號碼順序註記) 無
705:模型訓練工作流程
710:腔室資料
712:處理工具資料
714:處理結果資料
717:模型應用工作流程
736:訓練資料集
738:經訓練的機器學習模型
745:模型儲存裝置
762:輸入資料
764:膜厚預測器
767:輸入關鍵尺寸預測器

Claims (20)

  1. 一種方法,包括以下步驟: 由一處理裝置接收訓練資料,該訓練資料包括(i)指示處理一第一基板的一第一處理腔室的一環境的一第一狀態的第一感測器資料,(ii)指示處理該第一基板的該第一處理工具的一時間相關狀態的第一處理工具資料,及(iii)對應於該第一基板的第一處理結果資料;及 由該處理裝置用包括該第一感測器資料及該第一處理工具資料的輸入資料及包括該處理結果資料的一目標輸出來訓練一第一模型,其中該經訓練的第一模型將接收一新輸入以基於該新輸入產生一第二輸出,該新輸入具有指示處理一第二基板的一第二處理腔室的一環境的一第二狀態的第二感測器資料及指示處理該第二基板的一第二處理工具的一第二時間相關狀態的第二處理工具資料,該第二輸出指示對應於該第二基板的第二處理結果資料。
  2. 根據請求項1所述的方法,其中訓練該第一模型之步驟進一步包括以下步驟: 使用該第一處理工具資料處理該第一處理結果資料,以產生獨立於時間的處理結果資料;及 使用該獨立於時間的處理結果資料及該第一感測器資料執行一第一迴歸。
  3. 根據請求項2所述的方法,其中訓練該第一模型之步驟進一步包括以下步驟: 決定該第一處理結果資料與該獨立於時間的處理結果資料之間的一殘留部分;及 使用該殘留部分及該第一感測器資料進行一第二次迴歸。
  4. 根據請求項3所述的方法,其中該第一迴歸或該第二迴歸中的至少一者是使用一偏最小二乘(PLS)演算法執行。
  5. 根據請求項3所述的方法,其中該第一迴歸或該第二迴歸中的至少一者是作為一梯度增強迴歸(GBR)演算法的一部分來執行。
  6. 根據請求項1所述的方法,其中訓練該第一模型之步驟進一步包括以下步驟: 使用訓練資料的一第一子集執行一第一迴歸,以產生一第一迴歸模型; 使用訓練資料的一第二子集執行一第二迴歸,以產生一第二迴歸模型;及 基於該第一迴歸模型、該第二迴歸模型與該訓練資料的一比較,決定該第一迴歸模型的一第一準確度大於該第二迴歸模型的一第二準確度。
  7. 根據請求項1所述的方法,其中該第一處理結果資料包括對應於該第一基板的一蝕刻偏置的一值。
  8. 根據請求項1所述的方法,其中該第一處理工具資料指示該第一處理工具相對於一批處理工具中其他處理工具的相對操作壽命。
  9. 根據請求項1所述的方法,其中該第一處理結果資料指示與該第一基板的一中心區域相關聯的一第一平均厚度及與該第一基板的一邊緣區域相關聯的一第二平均厚度。
  10. 一種方法,包括以下步驟: 由一處理裝置接收(i)指示根據一基板處理程序處理一第一基板的一處理腔室的一環境的一狀態的感測器資料,及(ii)指示處理該第一基板的一處理工具相對於一批處理工具中其他處理工具的一相對操作壽命的處理工具資料; 使用一或更多個機器學習模型(MLM)處理該感測器資料及該處理工具資料,以決定該第一基板的一處理結果量測的一預測;及 由該處理裝置執行以下操作中的至少一個:a)準備用於在一圖形化使用者介面(GUI)上呈現的預測,或者b)基於該預測改變該處理腔室或該處理工具中的至少一者的一操作。
  11. 根據請求項10所述的方法,其中該處理結果量測的該預測包括對應於該第一基板的一蝕刻偏置的一值。
  12. 根據請求項10所述的方法,其中該處理結果量測的該預測包括指示與該第一基板的一中心區域相關聯的一第一平均厚度及與該第一基板的一邊緣區域相關聯的一第二平均厚度。
  13. 根據請求項10所述的方法,其中處理該感測器資料及該處理工具資料之步驟進一步包括以下步驟:使用該處理工具資料處理該感測器資料以產生修改的感測器資料,其中該修改的感測器資料包括根據該處理工具資料加權的感測器資料,其中基於該修改的感測器資料決定該預測。
  14. 根據請求項10所述的方法,其中處理該感測器資料及該處理工具資料之步驟進一步包括以下步驟: 使用該一或更多個MLM中的一第一MLM處理該感測器資料,以獲得一第一處理結果預測; 使用該一或更多個MLM中的一第二MLM處理該第一處理結果預測,以獲得一第二處理結果預測;及 基於至少該第一處理結果預測及該第二處理結果預測的一組合來決定該預測。
  15. 一種方法,包括以下步驟: 訓練一機器學習模型(MLM),包括以下步驟: 接收訓練資料,該訓練資料包括(i)指示處理一第一基板的一第一處理腔室的一環境的一第一狀態的第一感測器資料,及(ii)包括處理結果量測及位置資料的計量資料,該位置資料指示對應於該等處理結果量測的該第一基板的一表面上的第一位置; 對該訓練資料進行編碼以產生經編碼的訓練資料;及 使用該經編碼的訓練資料執行一迴歸。
  16. 根據請求項15所述的方法,進一步包括以下步驟: 接收指示處理一第二基板的一第二處理腔室的一環境的一第二狀態的第二感測器資料; 編碼該第二感測器資料以產生編碼的感測器資料; 使用該編碼的感測器資料作為該經訓練的MLM的輸入; 從該經訓練的MLM接收一或更多個輸出,該一或更多個輸出包括該編碼的預測資料;及 解碼該編碼的預測資料以產生預測資料,該預測資料包括指示在該第二基板的一表面上的第二位置中的該第二基板的處理結果的值,該等第二位置對應於該第一基板的該等第一位置。
  17. 根據請求項16所述的方法,其中使用主分量分析(PCA)來執行對該感測器資料的編碼或對該編碼的預測資料的解碼中的至少一者。
  18. 根據請求項16所述的方法,其中該預測資料指示與該第二基板的一中心區域相關聯的一第一平均厚度及與該第二基板的一邊緣區域相關聯的一第二平均厚度。
  19. 根據請求項15所述的方法,其中該等處理結果量測值包括指示該第一基板的一蝕刻偏置的一值。
  20. 根據請求項15所述的方法,其中該迴歸作為一梯度增強迴歸(GBR)的一部分來執行。
TW112100719A 2022-01-07 2023-01-07 用於腔室條件監測的預測模型 TW202341307A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/571,320 US20230222394A1 (en) 2022-01-07 2022-01-07 Predictive modeling for chamber condition monitoring
US17/571,320 2022-01-07

Publications (1)

Publication Number Publication Date
TW202341307A true TW202341307A (zh) 2023-10-16

Family

ID=87069762

Family Applications (1)

Application Number Title Priority Date Filing Date
TW112100719A TW202341307A (zh) 2022-01-07 2023-01-07 用於腔室條件監測的預測模型

Country Status (5)

Country Link
US (1) US20230222394A1 (zh)
KR (1) KR20240134930A (zh)
CN (1) CN118511137A (zh)
TW (1) TW202341307A (zh)
WO (1) WO2023133292A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230367302A1 (en) * 2022-05-11 2023-11-16 Applied Materials, Inc. Holistic analysis of multidimensional sensor data for substrate processing equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7660774B2 (en) * 2005-05-31 2010-02-09 Honeywell International Inc. Nonlinear neural network fault detection system and method
US20120179373A1 (en) * 2011-01-11 2012-07-12 University Of Seoul Industry Cooperation Foundation Method for measuring total phosphorus using multi-parameter water quality data
WO2015090774A1 (en) * 2013-12-17 2015-06-25 Asml Netherlands B.V. Yield estimation and control
EP3465551B1 (en) * 2016-05-26 2024-05-15 Ogma Intelligent Systems Corp. Processing time-varying data streams using sparse predictive hierarchies
KR102016812B1 (ko) * 2017-11-24 2019-10-21 한국생산기술연구원 데이터 불균형 환경에서 머신러닝 모델을 통해 공정 불량 원인을 도출하고 시각화하는 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230367302A1 (en) * 2022-05-11 2023-11-16 Applied Materials, Inc. Holistic analysis of multidimensional sensor data for substrate processing equipment

Also Published As

Publication number Publication date
CN118511137A (zh) 2024-08-16
KR20240134930A (ko) 2024-09-10
WO2023133292A1 (en) 2023-07-13
US20230222394A1 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
KR102376824B1 (ko) 제조 공정들을 학습하고 제조 공정들을 최적화하기 위한 시스템 및 방법
US20230259112A1 (en) Diagnostic tool to tool matching and comparative drill-down analysis methods for manufacturing equipment
TW202343176A (zh) 用於製造設備的診斷工具與工具之匹配方法
TW202343177A (zh) 用於製造設備的診斷工具與工具之匹配和全跡比較下鑽分析方法
TW202245091A (zh) 用於使用虛擬模型進行處理腔室健康監測和診斷的系統和方法
TW202341307A (zh) 用於腔室條件監測的預測模型
TW202326314A (zh) 用於半導體製造設備的自適應故障排除的系統和方法
TW202340884A (zh) 預防保養後的腔室條件監控及模擬
CN118020083A (zh) 使用缺陷模型估计缺陷风险并优化处理配方
CN116802579A (zh) 使用测量违规分析的处理异常识别
US20230260767A1 (en) Process control knob estimation
US20230384777A1 (en) Methods and mechanisms for preventing fluctuation in machine-learning model performance
US20230367302A1 (en) Holistic analysis of multidimensional sensor data for substrate processing equipment
US20230342016A1 (en) Methods and mechanisms for generating virtual knobs for model performance tuning
US20230306300A1 (en) Methods and mechanisms for measuring patterned substrate properties during substrate manufacturing
US20240177286A1 (en) Modeling for indexing and semiconductor defect image retrieval
KR20240148889A (ko) 프로세스 제어 노브 추정
TW202424831A (zh) 在使用機器學習的製造系統處的裝備參數管理
TW202340885A (zh) 用於在評估系統與製造系統之間進行介接的通訊節點
TW202431026A (zh) 使用機器學習來決定基板輪廓性質
TW202349153A (zh) 用於判定處理設備效能的綜合分析模組
CN118435137A (zh) 用于使用基于物理的模型的基板制造腔室的诊断方法