TWI729391B - 半導體製程中增進類神經網路模型預測結果之方法 - Google Patents
半導體製程中增進類神經網路模型預測結果之方法 Download PDFInfo
- Publication number
- TWI729391B TWI729391B TW108116895A TW108116895A TWI729391B TW I729391 B TWI729391 B TW I729391B TW 108116895 A TW108116895 A TW 108116895A TW 108116895 A TW108116895 A TW 108116895A TW I729391 B TWI729391 B TW I729391B
- Authority
- TW
- Taiwan
- Prior art keywords
- neural network
- network model
- semiconductor manufacturing
- manufacturing process
- distribution
- Prior art date
Links
Images
Landscapes
- Drying Of Semiconductors (AREA)
Abstract
本發明提供一種半導體製程中增進類神經網路模型預測結果之方法,其先利用電腦輔助設計技術(TCAD)之物理模型將人工神經網路模型建構出一先驗神經網路模型,接著再利用貝葉斯推斷(Bayesian Inference)將先驗神經網路模型中的潛變量(如權重和偏差)進行優化,得到新的神經網路模型,由於本發明結合了物理模型和統計模型的優點,在實驗數據有限的情況下,TCAD可提供較佳的準確率,而統計方法則可解釋物理模型所無法推導出的異常反應,兩者結合後可使半導體製程的預測更加精準。
Description
本發明係有關一種半導體製程之模擬技術,特別是指一種半導體製程中增進類神經網路模型預測結果之方法。
隨著半導體製程變得更加複雜,需要更多步驟來製造積體電路,人們越來越注重收集足夠的實驗數據以構建機器學習模型,但這會耗費非常高的成本。以早期90nm標準CMOS工藝為例,如第1圖所示,其製造流程需要100多個工藝步驟以及數千個輸入功能。而當IC製造技術快速縮小後,製造流程的複雜度顯然會往上攀升,且實驗的成本也會大幅提高。通常要獲得足夠量的實驗數據需花費昂貴的代價。
但半導體廠仍然需要建構機器學習模型,而顯然,要自己做實驗產生實驗數據的代價太高,因此需要購買其他公司的實驗數據,或是使用電腦輔助設計技術(TCAD)資料集。TCAD資料集是由物理模型得到的數據,包括製程的不同步驟中需要考慮的參數及最終輸出結果。以蝕刻為例,至少需要壓力和時間等參數做為輸入資料,而輸出結果為蝕刻深度。但使用TCAD所訓練出的類神經網路模型雖然在初期的準確率相較其他方式高,然而當收集的實驗結果愈來愈多後,由於製程中會出現無法用該些物理模型推導出的例外情況,因此TCAD的準確率就會開始下降。
因此,本發明即提出一種半導體製程中增進類神經網路模型預測結果之方法,有效解決上述該等問題,具體架構及其實施方式將詳述於下:
本發明之主要目的在提供一種半導體製程中增進類神經網路模型預測結果之方法,其將半導體製程中的物理模型和基於機器學習的統計模型結合,使物理模型和統計模型相互協作,以在半導體製程中提供更快收斂和更準確的預測結果。
本發明之另一目的在提供一種半導體製程中增進類神經網路模型預測結果之方法,其先利用物理模型對人工神經網路模型進行優化,此物理模型使用電腦輔助設計技術(TCAD)資料集。
本發明之再一目的在提供一種半導體製程中增進類神經網路模型預測結果之方法,利用貝葉斯推斷計算出神經網路模型中的潛變量之分佈,如權重和偏差之分佈,並將該最佳的潛變量套用至神經網路模型中而達到優化之目的,因而得到可快速並精準預測的新神經網路模型。
為達上述目的,本發明提供一種半導體製程中增進類神經網路模型預測結果之方法,包括下列步驟:取得一電腦輔助設計技術(TCAD)資料集,該TCAD資料集中的每一筆資料包括複數輸入參數及一輸出結果;在一半導體製程中利用該TCAD資料集對一人工神經網路模型(artificial neural network, ANN)進行訓練,得到一先驗神經網路(prior neural network)模型;將該先驗神經網路模型中的一權重(weight)和一偏差(bias)做為貝葉斯推斷(Bayesian inference)中先驗分佈(prior distribution)的均值(mean),再利用該一組製程實作資料集在該貝葉斯推斷中求得該權重和該偏差的一最大後驗(maximized posterior)最佳解;以及將該權重及該偏差之該最佳解代入該先驗神經網路模型中,得到一新神經網路模型。
根據本發明之實施例,該製程實作資料集為在該半導體製程中實際操作所取得的結果。
根據本發明之實施例,該輸入參數包括圖案寬度、蝕刻時間、壓力、SF6及ICP RF功率,該輸出結果為蝕刻深度。
根據本發明之實施例,該人工神經網路模型中之至少一權重及至少一偏差係使用一反向傳播算法的誤差函數進行計算,並利用一自適應矩估計方法將該誤差函數最小化,以得到該先驗神經網路中的該權重和該偏差。
根據本發明之實施例,該貝葉斯推斷之步驟中,係將該權重及該偏差設為一組潛變量,利用該製程實作資料集計算該潛變量之條件概率分佈,再除以一正規化因子後得到一後驗分佈(posterior distribution)。
承上,於本發明之實施例中,該後驗分佈係利用一變分推斷(variational inference)調整該潛變量之該分佈,以求出該後驗分佈之一近似解。
承上,此變分推斷中係引用Kullback-Leibler散度以測量該潛變量之該分佈和該後驗分佈之間的接近程度,且該Kullback-Leibler散度係收斂以使該潛變量之該分佈與該後驗分佈之接近程度最大化。
本發明提供一種半導體製程中增進類神經網路模型預測結果之方法,將物理模型與統計模型相結合,除了參數可推導的物理模型預測之外,參數所無法推導的例外情況也被含在預測結果中,故可將原本半導體製程中機器學習的預測準確度再提升。
由於半導體製程之步驟眾多,每一步驟皆可使用機器學習進行預測,以節省實驗成本,本發明主要以蝕刻步驟為例,以下皆以預測蝕刻深度為本發明之實施例。
目前已開發出反應離子蝕刻的物理模型。從導電的角度來看,長寬比依賴蝕刻(ARDE)的現象被認為是當溝槽深度增加時,溝槽底部缺少蝕刻物質。 因此,深溝槽底部的物質流量與頂部明顯不同,在氣流守恆下,差異可寫成下式(1):(1)
請參考第2A圖之蝕刻示意圖,其中vt
及vb
分別為頂部和底部之蝕刻物質流量,k為縱橫比d/w函數的Knudsen係數,s為蝕刻特徵底部的反應機率。
蝕刻速率與蝕刻物質的流量成正比,如下式(2):(2)
其中為蝕刻特徵底部的蝕刻速率,R(0)為蝕刻特徵底部的蝕刻速率,對應於初始蝕刻速率,d為蝕刻深度,w為特徵寬度。因此,蝕刻速率取決於蝕刻特徵的縱橫比。
要得到蝕刻深度d,首先要知道特定時間的蝕刻速率,再使用整個蝕刻持續時間的積分來計算最終的蝕刻深度,如下式(3):(3)
其中t是蝕刻開始的時間,dt是經過的時間,蝕刻深度與不同蝕刻特徵的關係如第2B圖之曲線圖所示,接著再利用TCAD模型計算蝕刻深度。
本發明基於上述TCAD模型,進一步提供一種半導體製程中增進類神經網路模型預測結果之方法,如第3圖之流程圖所示,在步驟S10中已先驗取得一TCAD資料集(TCAD dataset),;此TCAD資料集中的每一筆資料包括複數輸入參數及一輸出結果,以半導體製程的蝕刻為例,輸入參數包括圖案寬度(W)、蝕刻時間(t)、壓力(mTorr)、SF6(sccm)及ICP RF功率,輸出結果為蝕刻深度,這些模式由不同的圖案寬度和間距組成。接著步驟S12,利用TCAD資料集對一人工神經網路模型(artificial neural network, ANN)進行訓練,得到一先驗神經網路(prior neural network)模型。
第4圖為人工神經網路模型之架構圖,人工神經網路包括一輸入層10、至少一隱藏層12及一輸出層14三個部分,本發明若以蝕刻為例,在輸入層10輸入的就是圖案寬度(W)、蝕刻時間(t)、壓力(mTorr)、SF6(sccm)及ICP RF功率等輸入參數,而輸出層14輸出的就是預測的蝕刻深度。在每一層中都有不同的人工神經元16,人工神經元16從外部接收信息,並通過完全連接和可調整的權重將計算結果傳輸到下一層。其中,隱藏層12的數量和每一隱藏層12中的人工神經元16數量決定了神經網路的複雜性。為了實現非線性變換,隱藏層12中的張量(tensor)運算及加總的結果被饋送到激活函數,例如雙曲正切、S形或整流線性單元。當有兩個隱藏層12時,輸入向量X = [x1
,..., xd
]1×d
,隱藏層中有m個神經元,輸出層有k個神經元,則輸出可寫成下式(4):(4)
其中為第i個資料的預測結果的1×k矩陣,f1
和f2
是一種激活函數,、和分別為層與層之間可調權重(adjustable weighting)的d×m、m×n及n×k矩陣,、和分別為層與層之間偏差值(bias)的1×m、1×n和1×k矩陣。
要訓練和優化人工神經網路中的可調參數(如權重和偏差) 以得到先驗神經網路必須使用到反向傳播算法的誤差函數,接著還需要諸如自適應矩估計方法(adaptive moment estimation method, ADAM)的優化算法來最小化誤差函數。而在迴歸問題中,主要使用均方誤差(mean square error, MSE)函數並表示如下式(5): (5)
其中為對於第i個資料點的測量結果的1×k矩陣,n為訓練資料點的總數。
接著步驟S14,將先驗神經網路模型中的權重(weight)和偏差(bias)用作貝葉斯推斷(Bayesian inference)中先驗分佈(prior distribution)中的均值,接著再利用一組製程實作資料集(experiment dataset)在貝葉斯推斷中求得權重和偏差的一最大後驗(maximized posterior)最佳解。製程實作資料集為在該半導體製程中實際操作所取得的結果,由於TCAD為一種物理模型,透過TCAD資料集提高了先驗分佈的準確性,而還須利用製程實作資料集來進行貝葉斯訓練與測試。先將製成實作資料其分為一組訓練資料(training data)及一組測試資料(test data),例如若製程實作資料集為1500筆數據,則取其中1000筆做為訓練資料,剩餘500筆為測試資料,製程實作資料集的資料量愈多、預測結果自然愈精準,但在製程實作資料集的資料量少的時候,TCAD模型結合貝葉斯推斷可大幅提高預測(例如蝕刻深度)的準確度。
由於步驟S14之目的是要將貝葉斯推斷(Bayesian inference)整合到公式(4)的神經網路中,貝葉斯推斷是基於貝氏定理,考慮貝氏定理的概率模型,因此在人工神經網路模型(ANN)中潛變量(latent variables)的分佈是先驗(prior)和可能性(likelihood)的乘積,如下式(6):(6)
其中資料集由D表示,θ為神經網路模型中的潛變量,亦即權重(weighting)和偏差(bias),P(θ|D)是θ給定資料的後驗分佈,P(D|θ)是資料的可能性函數(likelihood function),P(θ)是模型參數的先驗(prior),P(D)是正規化因子。
藉由上述貝葉斯推斷的原理,本發明可使用較少的實驗數據來增強預測的準確性。隨著神經網路的應用,輸出結果不僅是一個特定的值,更可表示為一個分佈,這代表結果的不確定性,可以下式(7)表示:(7)
其中為新輸入向量X’的預測結果,此在本發明中,此新輸入的向量為製程實作資料集中的一組測試資料。
在貝葉斯推斷 (Bayesian inference)係使用變分推斷(variational inference)來求出後驗(posterior)的近似解。在使用變分法後,找到後驗分佈成為一個優化問題,通過調整公式(8)中潛變量(latent variables)的分佈中的參數μ和σ來求得後驗分佈的近似解:(8)
其中μ和σ分別為潛變量之分佈q的平均值和標準差,D是製程實作資料集。在變分推斷中,引入Kullback-Leibler散度(KL散度)來測量分佈q和後驗分佈P(θ|X)之間的接近程度。為KL散度表示如下式(9)(9)
其中是分佈的對數與後驗P(θ|X)的對數相對於分佈q之間差值的期望值。公式(9)可簡化為:(10)
其中log P(θ,X)是θ和X的聯合分佈,P(X)是觀察X的事證(evidence)。
為了使潛變量的分佈q近似後驗分佈,因此KL散度必須收斂到愈小愈好,將KL散度進行最小化即相當於將事證的下限(evidence lower bound, ELBO)最大化。 因此,目標函數可寫成如下式(11):(11)
為了將ELBO最大化並獲得μ*
和σ*
,重新參數化梯度和ADAM優化方法用於找到梯度並更新這些參數,此ELBO最大化亦即最大後驗(maximize a posteriori),換言之,μ*
和σ*
也就是本發明步驟S14所欲求得之權重和偏差的最佳解。
由於已計算出θ,亦即權重w和偏差b的最佳解,因此最後於步驟S16中,將步驟S14算出之θ代入公式(4)中,得到本發明預測更準確之一新類神經網路模型,由於是結合半導體預測模型(TCAD)之貝葉斯推斷所優化的神經網路模型,故亦可稱為TCAD貝葉斯神經網路模型(TCAD-Bayesian neural network)。
本發明使用電腦輔助設計技術(TCAD)模型來構建神經網路潛變量的先驗分佈。先驗神經網路的結構必須與貝葉斯神經網路完全相同,由於貝葉斯神經網路稍後將用於貝葉斯推斷,因此存在相同數量的權重和偏差,利用Scikit Learn中實現的隨機梯度下降和自適應矩估計方法(ADAM)去計算先驗神經網路中的權重和偏差之優化。
請參考第5A圖及第5B圖,其分別為先前技術及本發明之半導體製程每一階段時權重與機率分佈示意圖,由於本發明之貝葉斯神經網路模型係基於半導體物理的物理模型和基於機器學習的統計模型之相互協作,以在蝕刻及其他半導體製程的問題中提供更快的收斂和更準確的預測,因此與一般正態分佈N(0,1)先驗相比,本發明使用TCAD資料集做為先驗可以減少試驗次數和誤差時間,提高模型的準確性,特別是在實驗的初始階段。
表一
第1、2層隱藏層中的神經元數量 | 初始學習率 |
(5, 5) | 0.00060 |
(10, 10) | 0.00015 |
(15, 15) | 0.00017 |
(20, 20) | 0.00009 |
(25, 25) | 0.00009 |
(30, 30) | 0.00009 |
(35, 35) | 0.00010 |
(40, 40) | 0.00006 |
(45, 45) | 0.00007 |
(50, 50) | 0.00010 |
上表一中列出了針對隱藏層中不同神經元數量訓練先驗神經網路的初始學習率。在通過TCAD資料集訓練之後,將先驗神經網路中的權重和偏差值做為平均值,為貝葉斯推理提供了更好的先驗分佈,這在Tensor Flow和Edward函式庫中實現。在一實施例中,TCAD資料集所訓練出先驗神經網路和貝葉斯神經網路都由四層組成,包含二隱藏層、五輸入節點及一輸出節點。兩個隱藏層中的神經元數保持不變,並在使用貝葉斯推斷時改變以觀察其對預測的影響。激活函數在二隱藏層中是雙曲正切,在輸出層中是線性的。雖然本發明最終訓練出的新神經網路模型(貝葉斯神經網路模型)使用TCAD模型來構建其先驗分佈,但基線(baseline)貝葉斯神經網路模型使用具有零均值和單位標準差N(0,1)的一般分佈做為其先驗,N(0,1)是Edward工具列中範例文件的預設先驗分佈。先驗神經網路的標準差可變化,在本發明之一較佳實施例中設定為0.0075。
第6A圖為微影蝕刻之步驟流程圖,第6B圖為Bosch製程中深反應離子蝕刻之步驟流程圖,要製造6吋的p型半導體硼摻雜Si測試級晶圓,Si晶圓的電阻率在1.5至100Ω-cm範圍內。在使用Track(TEL CLEAN TRACK MK-8)旋轉電子束正性光刻膠(TDUR-P015)之前,先使用含有SPM溶液(4H2
SO4
:1H2
O2
,溫度120°C)的去離子水沖洗Si晶片600秒,再浸入DHF溶液中(1HF:1H2
O,溫度25℃)。以1000rpm塗覆700nm厚的電子束正性光致抗蝕劑,並在100℃下軟烘烤90秒。接著,在Leica Weprint 200電子束步進器上執行電子束光刻(EBL),曝光束能量為40keV,選擇每平方公分5μC的曝光劑量以形成具有10μm間距的不同溝槽寬度的圖案,曝光後烘烤在120℃下進行90秒。此外,將圖案化的晶圓依次在2.38%氫氧化四甲基銨(TMAH)溶液中顯影80秒,並在115℃下烘烤60秒。在顯影之後,通過使用臨界尺寸掃描電子顯微鏡(CD-SEM,HITACHI S-6280H)檢查晶圓的不同線寬,然後切成36片1.2×1.2公分的樣品。第7圖為Bosch製程中深反應離子蝕刻之結構圖,其使用ICP-RIE (OxfordTM Estrelas 100)進行深度Si蝕刻的Bosch工藝,在蝕刻之前,將切割樣品黏合到4英寸Si保持晶圓上,其上具有2μm濕氧化的二氧化矽,具有真空油脂以增強樣品和保持晶圓之間的熱傳導。在整個蝕刻過程中,保持晶圓的底部在氦氣冷卻下保持在25℃,用於ICP生成的頂部螺線管線圈在1000W和1750W之間的功率下運行,底部電極用於加速離子以轟擊樣品表面,並且在蝕刻過程中功率為60W。
第8圖為蝕刻圖案的橫截面SEM顯微照片和在線SEM頂視圖:(a)所有線寬;(b)線寬為5μm,蝕刻過程在60毫託的壓力,1250W的ICP功率,250sccm的SF6流速和50個循環的蝕刻時間下進行;(c)在和(b)相同的蝕刻工藝條件下,但線寬為1μm。
相比於基線模型貝葉斯神經網路模型假設具有零均值及單位標準差N(0,1) 的正規一般分佈先驗,應用本發明所提出的貝葉斯神經網路模型之方法,其所測試出的均方誤差(MSE)分別從0.1125減小到0.0138,0.0852減小到0.0139,0.0758減小到0.0131,及從0.0728減小到0.0155。請參考第9A圖至第9D圖,其分別為將製程實作資料集分為10、20、30、40四種數值時,應用本發明之貝葉斯神經網路模型(圖中標示「建議BNN」)與基線(baseline)貝葉斯神經網路模型(圖中標示「基線BNN」)與均方誤差之曲線圖,於第9A圖中,當隱藏層的神經元數量為35時,基線BNN分別比訓練資料和測試資料中提出的具有TCAD先驗的建議BNN(即本發明所得到的貝葉斯神經網路模型)大3倍和9倍。當分區值為10時,即在半導體實驗的最初開始時,貝葉斯神經網路模型(建議BNN)的性能比用於測試資料預測的基線BNN好很多,如第9B~9D圖所示,在逐漸增加實驗資料點數量的情況下,可以觀察到貝葉斯神經網路模型(建議BNN)的預測能力仍然比基線BNN為佳。隨著分區值的增加,增強程度逐漸降低,蓋因於當採樣或收集更多訓練資料時及製程實作資料集時,可能性(likelihood)會變得更加顯著。
第10A圖至第10H圖分別為利用本發明之方法在分區為10、20、30、40的訓練資料和測試資料時對蝕刻深度進行預測及實際量測結果之散佈圖。從第10A圖可看出,基線BNN和建議BNN(亦即本發明之貝葉斯神經網路模型)在訓練資料上都表現良好。反之,基線BNN和建議BNN的測試資料中的MSE值是顯著不同的,此部分代表了本發明提出的方法在半導體智能製程中的有效性。藉由根據測試資料中的MSE值觀察基線(baseline)預測精度,可以清楚看到當輸入特徵在訓練資料的輸入特徵範圍之外時,難以預測出測試資料的結果。進一步而言,當測試資料的輸入特徵範圍在訓練資料集的輸入特徵範圍之外時,使用基線BNN的預測可能會非常不准確。另一方面,在TCAD先驗的幫助下,外推較不成問題,這也是為何在測試集中,本發明提出的方法(建議BNN)所預測及量測的結果比基線BNN更好。在第10C圖至第10H圖中,隨著訓練集變大,儘管基線BNN的準確性開始提高,因為僅需要較少的外推,但建議BNN(亦即本發明之貝葉斯神經網路模型)的性能仍然優於基線BNN。
綜上所述,本發明所提出之半導體製程中增進類神經網路模型預測結果之方法係將電腦輔助設計技術(TCAD)之物理模型與貝葉斯推斷(Bayesian inference)之統計方法結合,先利用TCAD物理模型訓練人工神經網路模型,得到先驗神經網路後,再藉由貝葉斯推斷得到神經網路模型中權重、偏差等潛變量的最大後驗最佳解,如此一來,便可利用貝葉斯推斷將先驗神經網路模型來優化貝葉斯神經網路模型。當半導體製程中使用本發明的TCAD貝葉斯神經網路進行預測,可大幅減小實驗資料的均方誤差,換言之可使預測結果更為準確。
唯以上所述者,僅為本發明之較佳實施例而已,並非用來限定本發明實施之範圍 。故即凡依本發明申請範圍所述之特徵及精神所為之均等變化或修飾,均應包括於本發明之申請專利範圍內。
10:輸入層
12:隱藏層
14:輸出層
16:人工神經元
第1圖為90nm標準CMOS工藝之製造流程圖。
第2A圖為蝕刻之示意圖,第2B圖為蝕刻深度與不同蝕刻特徵之關係的曲線圖。
第3圖為本發明半導體製程中增進類神經網路模型預測結果之方法之流程圖。
第4圖為人工神經網路圖之架構圖。
第5A圖及第5B圖分別為先前技術及本發明之半導體製程每一階段時權重與機率分佈示意圖。
第6A圖為微影蝕刻之步驟流程圖。
第6B圖為Bosch製程中深反應離子蝕刻之步驟流程圖。
第7圖為Bosch製程中深反應離子蝕刻之結構圖。
第8圖為蝕刻圖案的橫截面SEM顯微照片及線內SEM頂視圖。
第9A圖至第9D圖分別為本發明半導體製程中增進類神經網路模型預測結果之方法中將製程實作資料集分為10、20、30、40時與均方誤差之曲線圖。
第10A圖至第10H圖分別為利用本發明之方法在劃分為10、20、30、40的訓練資料和製程實作資料集時對蝕刻深度進行預測及實際量測結果之散佈圖。
Claims (8)
- 一種半導體製程中增進類神經網路模型預測結果之方法,包括下列步驟:取得一電腦輔助設計技術(TCAD)資料集,該TCAD資料集中的每一筆資料包括半導體製程任一階段的複數輸入參數及一輸出結果,半導體製程的任一階段包括沉積、微影、蝕刻及摻雜;在一半導體製程中利用該TCAD資料集對一人工神經網路模型(artificial neural network,ANN)進行訓練,將該等輸入參數輸入到該人工神經網路模型中,以該輸出結果為目標進行訓練,得到一先驗神經網路(prior neural network)模型;將該先驗神經網路模型中層與層之間的一權重(weight)和一偏差(bias)做為貝葉斯推斷(Bayesian inference)中先驗分佈(prior distribution)q(θ;μ,σ)的均值(mean),其中θ為該先驗神經網路模型中的潛變量,包括該權重及該偏差,μ和σ分別為該潛變量之分佈q的平均值和標準差,再利用一組製程實作資料集在該貝葉斯推斷中求得該權重和該偏差的一最大後驗(maximized posterior)最佳解q(θ;μ,σ) P(θ|D),D是該製程實作資料集;以及將該權重及該偏差該最大後驗最佳解代入該先驗神經網路模型中,取代該先驗神經網路模型中之該權重及該偏差,得到一新神經網路模型。
- 如請求項1所述之半導體製程中增進類神經網路模型預測結果之方法,其中該製程實作資料集為在該半導體製程中實際操作所取得的結果。
- 如請求項1所述之半導體製程中增進類神經網路模型預測結果之方法,其中該輸入參數包括圖案寬度、蝕刻時間、壓力、SF6及ICP RF功率,該輸出結果為蝕刻深度。
- 如請求項1所述之半導體製程中增進類神經網路模型預測結果之方法,其中該人工神經網路模型中之至少一權重及至少一偏差係使用一反向傳播算法的誤差函數進行計算,並利用一自適應矩估計方法將該誤差函數最小化,以得到該先驗神經網路中的該權重和該偏差。
- 如請求項1所述之半導體製程中增進類神經網路模型預測結果之方法,其中該貝葉斯推斷之步驟中,係將該權重及該偏差設為一組潛變量,利用該製程實作資料集計算該潛變量之條件概率分佈,再除以一正規化因子後得到一後驗分佈(posterior distribution)。
- 如請求項5所述之半導體製程中增進類神經網路模型預測結果之方法,其中該後驗分佈係利用一變分推斷(variational inference)求出該後驗分佈之一近似解。
- 如請求項6所述之半導體製程中增進類神經網路模型預測結果之方法,其中該變分推斷中係引用Kullback-Leibler散度以測量該潛變量之該分佈和近似後驗分佈之間的接近程度。
- 如請求項7所述之半導體製程中增進類神經網路模型預測結果之方法,其中該Kullback-Leibler散度係收斂以使該潛變量之該分佈與近似後驗分佈之接近程度最大化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108116895A TWI729391B (zh) | 2019-05-16 | 2019-05-16 | 半導體製程中增進類神經網路模型預測結果之方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108116895A TWI729391B (zh) | 2019-05-16 | 2019-05-16 | 半導體製程中增進類神經網路模型預測結果之方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202044128A TW202044128A (zh) | 2020-12-01 |
TWI729391B true TWI729391B (zh) | 2021-06-01 |
Family
ID=74668463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108116895A TWI729391B (zh) | 2019-05-16 | 2019-05-16 | 半導體製程中增進類神經網路模型預測結果之方法 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI729391B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200403784A (en) * | 2002-08-22 | 2004-03-01 | Advanced Micro Devices Inc | Method and apparatus for predicting device electrical parameters during fabrication |
CN104731638A (zh) * | 2015-03-09 | 2015-06-24 | 苏州珂晶达电子有限公司 | 半导体器件seu翻转概率的数值模拟方法 |
TW201732979A (zh) * | 2016-01-04 | 2017-09-16 | 克萊譚克公司 | 光學晶粒對資料庫檢查 |
TW201913849A (zh) * | 2017-08-30 | 2019-04-01 | 南韓商三星電子股份有限公司 | 預測半導體積體電路的良率的裝置及使用所述裝置製造半導體元件的方法 |
-
2019
- 2019-05-16 TW TW108116895A patent/TWI729391B/zh active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200403784A (en) * | 2002-08-22 | 2004-03-01 | Advanced Micro Devices Inc | Method and apparatus for predicting device electrical parameters during fabrication |
CN104731638A (zh) * | 2015-03-09 | 2015-06-24 | 苏州珂晶达电子有限公司 | 半导体器件seu翻转概率的数值模拟方法 |
TW201732979A (zh) * | 2016-01-04 | 2017-09-16 | 克萊譚克公司 | 光學晶粒對資料庫檢查 |
TW201913849A (zh) * | 2017-08-30 | 2019-04-01 | 南韓商三星電子股份有限公司 | 預測半導體積體電路的良率的裝置及使用所述裝置製造半導體元件的方法 |
Also Published As
Publication number | Publication date |
---|---|
TW202044128A (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4478574B2 (ja) | 製品設計および歩留りのフィードバックシステムに基づいた総括的な統合リソグラフィプロセス制御システム | |
Labach et al. | Survey of dropout methods for deep neural networks | |
US6641746B2 (en) | Control of semiconductor processing | |
CN103403724B (zh) | 用于基于库的临界尺寸cd计量的精确和快速的神经网络训练 | |
JP5299608B2 (ja) | 光計測及びプロファイルモデルと重要プロファイル形状との相関を用いた自動プロセス制御 | |
JP2004509407A (ja) | 半導体製造における制御を改良するための適応サンプリング方法 | |
KR20030003803A (ko) | 공정장치의 제어방법 | |
CN104730858B (zh) | 采用反馈控制改善晶圆图案化的均匀性 | |
JP7097447B2 (ja) | 電子顕微鏡を使用した半導体計測および欠陥分類 | |
CN116053164A (zh) | 一种关键尺寸控制方法及系统 | |
Lee et al. | Prediction of wafer state after plasma processing using real-time tool data | |
Mevawalla et al. | Neural network modeling for advanced process control using production data | |
Huang et al. | Intelligent manufacturing: TCAD-assisted adaptive weighting neural networks | |
Kim et al. | Reactive ion etch modeling using neural networks and simulated annealing | |
US20200135592A1 (en) | Systems and Methods For Manufacturing Microelectronic Devices | |
TWI729391B (zh) | 半導體製程中增進類神經網路模型預測結果之方法 | |
CN116523131A (zh) | 一种基于dbn的集成电路工艺参数优化方法和系统 | |
JPH06348679A (ja) | ニューラルネットワーク使用方法 | |
Shi et al. | Physics based feature vector design: a critical step towards machine learning based inverse lithography | |
Zabrocki et al. | Adaptive Online Time-Series Prediction for Virtual Metrology in Semiconductor Manufacturing | |
Cardarelli et al. | Use of neural networks in modeling relations between exposure energy and pattern dimension in photolithography process [mos ics] | |
Popov et al. | Plasma-chemical etching process behavioral models based on tree ensembles and neural network | |
US20240013048A1 (en) | Method and System for Solving QUBO Problems with Hybrid Classical-Quantum Solvers | |
KR20240098269A (ko) | 공정 데이터를 분석하기 위한 방법 및 장치 | |
Rosen et al. | A neural-network-based approach to determining a robust process recipe for the plasma-enhanced deposition of silicon nitride thin films |