TWI801973B - 錯誤因素之推定裝置及推定方法 - Google Patents

錯誤因素之推定裝置及推定方法 Download PDF

Info

Publication number
TWI801973B
TWI801973B TW110130606A TW110130606A TWI801973B TW I801973 B TWI801973 B TW I801973B TW 110130606 A TW110130606 A TW 110130606A TW 110130606 A TW110130606 A TW 110130606A TW I801973 B TWI801973 B TW I801973B
Authority
TW
Taiwan
Prior art keywords
model
data
error detection
error
factor
Prior art date
Application number
TW110130606A
Other languages
English (en)
Other versions
TW202213191A (zh
Inventor
吉田泰浩
石川昌義
笹嶋二大
高野正幹
早川功一
Original Assignee
日商日立全球先端科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日商日立全球先端科技股份有限公司 filed Critical 日商日立全球先端科技股份有限公司
Publication of TW202213191A publication Critical patent/TW202213191A/zh
Application granted granted Critical
Publication of TWI801973B publication Critical patent/TWI801973B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2246Trees, e.g. B+trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Abstract

本發明使用一種錯誤因素推定裝置,其具備:資料預處理部,其使用處理對象資料,產生具有適合向機械學習模型輸入之形式的學習資料;及模型樹產生部,其產生以學習資料為輸入而檢測錯誤之學習模型即錯誤檢測模型,且產生藉由以錯誤檢測模型為節點之樹構造而表現錯誤檢測模型間之關係的模型樹。藉此,即使無錯誤因素之事先之附註標記,亦可就發生之多種錯誤之每一者而產生檢測錯誤之學習模型。

Description

錯誤因素之推定裝置及推定方法
本發明係關於一種錯誤因素之推定裝置及推定方法。
半導體測量裝置或半導體檢查裝置根據稱為配方之設定參數,於半導體晶圓表面之每個檢查點實施檢查動作或測量動作。一般而言,配方參數之調整係根據測量、檢查對象之屬性或裝置之特性等,由工程師藉由手動作業將各項目最佳化。因此,例如於使用調整不充分之配方、或裝置之特性因經時變化改變之情形時,有於檢查動作或測量動作中產生錯誤之可能性。將此種錯誤作為起因於配方內容之錯誤,稱為配方錯誤。
於產生配方錯誤時,一般而言服務工程師自半導體測量裝置或半導體檢查裝置解析裝置內部資料特定原因部位。然而,隨著半導體之細微化/多樣化,產生配方數及配方設定項目之增加、配方製作之複雜化。因此,配方錯誤之原因特定需要時間,成為使裝置之運轉率降低之原因之一。
於專利文獻1,揭示有一種圖案檢查系統,其以藉由節省學習資料之真值製作作業之工夫,謀求學習資料之少量化,可使學習時間短期間化為目的,基於電子設備之檢查對象圖案之圖像、與用於製造檢查對象圖案之資料,使用藉由機械學習構成之識別器對檢查對象圖案之圖像進行檢查,其中圖像選擇部(學習資料選擇部)係基於存儲於記憶部之圖案資料與圖案圖像,自複數個圖案圖像選擇機械學習所使用之學習用圖案圖像者,即,將存在按每個圖案記憶之相似圖案之複數個位置座標之資料進行群集,分為1個以上之群者。 [先前技術文獻] [專利文獻]
專利文獻1:日本專利特開2020-35282號公報
[發明所欲解決之問題]
專利文獻1所記載之圖案檢查系統之學習資料選擇部係基於相似圖案將複數個位置座標之資料群集者。然而,該學習資料選擇部並非將各參數對錯誤之貢獻度設為基準者,認為仍有改善之餘地。
本發明之目的係產生一種即使無錯誤因素之事先之附註標記,亦於產生之多種錯誤各者檢測錯誤之學習模型。再者,本發明之目的係減少附註標記之處理數。 [解決問題之技術手段]
本發明之錯誤因素推定裝置具備:資料預處理部,其使用處理對象資料,產生具有適合向機械學習模型輸入之形式的學習資料;及模型樹產生部,其以學習資料為輸入而產生檢測錯誤之學習模型即錯誤檢測模型,且產生藉由以錯誤檢測模型為節點之樹構造而表現錯誤檢測模型間之關係的模型樹。 [發明之效果]
根據本發明,可產生一種即使無錯誤因素之事先之附註標記,亦於產生之多種錯誤各者檢測錯誤之學習模型。再者,根據本發明,可減少附註標記之處理數。
對本揭示之實施形態之錯誤因素之推定裝置及推定方法統一進行說明。
錯誤因素之推定裝置具備資料預處理部、與模型樹產生部。
期望模型樹產生部具有:群集用錯誤檢測模型產生部,其輸入學習資料中未完成群集之資料,自正常資料與錯誤資料之傾向之差異學習錯誤檢測規則並產生群集用錯誤檢測模型;模型解析部,其計算表示作為學習資料輸入之特徵量對錯誤檢測模型之輸出貢獻何種程度之感度之值;資料群集部,其基於特徵量及感度之值進行資料之群集;群集完成判定部,其對該經群集之資料,判定是否完成群集;因素別錯誤檢測模型產生部,其輸入完成群集之資料,自正常資料與錯誤資料之傾向之差異學習錯誤檢測規則並產生因素別錯誤檢測模型;及模型接線部,其藉由基於資料之群集之流程將群集用錯誤檢測模型及因素別錯誤檢測模型接線,而產生以群集用錯誤檢測模型及因素別錯誤檢測模型為節點之系統樹即模型樹。
期望群集用錯誤檢測模型相較於因素別錯誤檢測模型,模型構造更簡單。
期望錯誤因素之推定裝置進而具備錯誤因素推定部,錯誤因素推定部具有:模型評估部,其輸入錯誤因素推定對象資料,評估產生完畢之因素別錯誤檢測模型(事先產生並蓄積之因素別錯誤檢測模型)之性能,該錯誤因素推定對象資料係針對處理對象資料中欲推定錯誤因素之資料,使用資料預處理部作為具有適合向機械學習模型輸入之形式之資料而產生;模型選定部,其選定1個以上由模型評估部評估為性能之評估值較高之因素別錯誤檢測模型;及相關參數擷取部,其擷取選定之因素別錯誤檢測模型所在之模型樹中之分支,擷取該分支中所包含之錯誤檢測模型之相關參數。
期望錯誤因素推定部進而具有:錯誤因素概率計算部,其輸入由相關參數擷取部擷取之相關參數來計算錯誤因素候補之概率。
期望於錯誤因素之推定裝置中,利用模型選定部選定複數個因素別錯誤檢測模型之情形時,以由模型評估部獲得之模型評估值修正基於因素別錯誤檢測模型之各者獲得之上述概率。
期望錯誤因素之推定裝置進而具備:模型資料庫,其將群集用錯誤檢測模型及因素別錯誤檢測模型與關於該等模型之資訊建立關聯並保存。
期望於錯誤因素之推定裝置中,構成為於存儲於模型資料庫之群集用錯誤檢測模型及因素別錯誤檢測模型存在複數個版本之情形時,使用者可使用終端將模型樹內之模型更換為存儲於模型資料庫之其他模型。
期望處理對象資料為對象物之設定參數及測量結果之至少一者。
期望於錯誤因素之推定裝置中,將上述概率且為修正前後者顯示於終端。
期望於錯誤因素之推定裝置中,構成為藉由使用者經由終端選擇模型樹所包含之錯誤檢測模型,而顯示與選擇之錯誤檢測模型建立關聯之資訊。
錯誤因素之推定方法具有:資料預處理步驟,使用處理對象資料,產生具有適合向機械學習模型輸入之形式之學習資料;及模型樹產生步驟,其以上述學習資料為輸入而產生檢測錯誤之學習模型即錯誤檢測模型,產生藉由以錯誤檢測模型為節點之樹構造表現錯誤檢測模型間之關係之模型樹。
期望模型樹產生步驟具有:群集用錯誤檢測模型產生步驟,輸入學習資料中未完成群集之資料,自正常資料與錯誤資料之傾向之差異學習錯誤檢測規則並產生群集用錯誤檢測模型;模型解析步驟,計算表示作為學習資料輸入之特徵量對錯誤檢測模型之輸出貢獻何種程度之感度之值;資料群集步驟,基於特徵量及感度之值進行資料之群集;群集完成判定步驟,對該經群集之資料,判定是否完成群集;因素別錯誤檢測模型產生步驟,輸入完成群集之資料,自正常資料與錯誤資料之傾向之差異學習錯誤檢測規則並產生因素別錯誤檢測模型;及模型接線步驟,藉由基於資料之群集之流程將群集用錯誤檢測模型及因素別錯誤檢測模型接線,而產生以群集用錯誤檢測模型及因素別錯誤檢測模型為節點之系統樹即模型樹。
於以下說明之實施形態中,「半導體檢查裝置」係包含測量形成於半導體晶圓表面之圖案之尺寸的裝置、檢查有無形成於半導體晶圓表面之圖案之缺陷的裝置、或檢查有無未形成圖案之裸晶圓之缺陷的裝置等,且亦包含組合複數個該等裝置之複合裝置者。
又,於以下說明之實施形態中,「檢查」係以測量或檢查之含義使用者,「檢查動作」係以測量動作或檢查動作之含義使用者,「檢查對象」係指成為測量或檢查之對象之晶圓、或該晶圓之測量或檢查之對象區域者。 實施例
圖1係顯示包含實施例之錯誤因素推定裝置之資訊處理系統之一例者。
於本圖中,半導體檢查裝置1經由網路101連接於資料庫2及錯誤因素推定裝置3(錯誤因素之推定裝置)。錯誤因素推定裝置3連接於終端4。錯誤因素推定裝置3推定半導體檢查裝置1實施之檢查動作之錯誤之因素。
於自半導體檢查裝置1發送之資料,包含例如裝置資料、測量配方(以下亦有簡稱為「配方」之情形)、測量結果及錯誤結果。又,於配方中,可包含測量點數、測量點(Evaluation Point:EP)之座標資訊、拍攝圖像時之攝像條件、攝像順序等。又,於配方中,亦可連同測量點而包含在用於測量測量點之準備階段取得之圖像之座標或攝像條件等。
裝置資料包含裝置固有參數、裝置機差修正資料及觀察條件參數。裝置固有參數係用於使半導體檢查裝置1按規定規格進行動作之修正參數。裝置機差修正資料係用於修正半導體檢查裝置間之機差之參數。觀察條件參數例如為規定電子光學系統之加速電壓等之掃描型電子顯微鏡(SEM:Scanning Electron Microscope)之觀察條件之參數。
配方包含晶圓圖、對準參數、尋址參數及測長參數,作為配方參數。晶圓圖係半導體晶圓表面之座標圖(例如圖案之座標)。對準參數例如為用於修正半導體晶圓表面之座標系統與半導體檢查裝置1內部之座標系統之間之偏差之參數。尋址參數例如為特定出形成於半導體晶圓表面之圖案中、存在於檢查對象區域內之特徵圖案的資訊。測長參數係記述測定長度之條件之參數,即例如指定測定圖案中哪個部位之長度之參數。
測量結果包含測長結果、圖像資料及動作記錄。測長結果係記述有 測定半導體晶圓表面之圖案長度的結果者。圖像資料係半導體晶圓之觀察圖像。動作記錄係記述對準、尋址及測長之各動作步驟中之半導體檢查裝置1之內部狀態之資料。例如,列舉各零件之動作電壓、觀察視野之座標等。
錯誤結果係顯示於產生錯誤之情形時,為對準、尋址及測長之各動作步驟之哪一者所產生之錯誤之參數。
該等裝置資料、配方、測量結果、錯誤結果等資料經由網路101蓄積於資料庫2。利用錯誤因素推定裝置3解析蓄積之資料。解析結果由使用者可利用終端4(GUI:Graphical User Interface(圖形使用者介面))讀取之形式表示。
錯誤因素推定裝置3具有資料預處理部11、模型樹產生部12、錯誤因素推定部13、模型資料庫14(模型DB(Database))及模型樹15。
於資料預處理部11,從自資料庫2發送之裝置資料、配方、測量結果等原始資料(處理對象資料),將資料整形為適合機械學習模型之形式,並作為學習資料輸出。此處,資料之整形包含缺損值之處理、無用變量之刪除、資料之縮放、分類變量之編碼、將交替作用特徵量等複數個資料組合之複合特徵量製作等機械學習之預處理。
於模型樹產生部12,產生輸入學習資料檢測錯誤之學習模型之層次化之樹構造(以下稱為「模型樹」)。
圖2係顯示圖1之模型樹產生部12之構成者。
模型樹產生部12具有群集用錯誤檢測模型產生部21、模型解析部22、資料群集部23、群集完成判定部24、因素別錯誤檢測模型產生部25及模型接線部26。
自資料庫2發送之資料於資料預處理部11中被處理,作為學習資料41輸出。將學習資料41發送至群集用錯誤檢測模型產生部21。且,學習資料41於模型樹產生部12中,按群集用錯誤檢測模型產生部21、模型解析部22、資料群集部23、群集完成判定部24、因素別錯誤檢測模型產生部25及模型接線部26之順序被處理,並作為模型樹輸出。
於該過程中,於群集完成判定部24中,判定群集之狀態,根據情形,將資料返回至群集用錯誤檢測模型產生部21。自群集用錯誤檢測模型產生部21及因素別錯誤檢測模型產生部25對模型資料庫14適當發送資料。
圖3係顯示圖2之模型樹產生部12內之構成要件之處理步驟者。
於步驟S101,於群集用錯誤檢測模型產生部21中,輸入未完成群集之學習資料41,自正常資料與錯誤資料之傾向之差異學習錯誤檢測規則並產生群集用之錯誤檢測模型。亦可使用以Random Forest(隨機森林)或XGBoost(eXtreme Gradient Boosting:極限梯度提升)等決策樹為基礎之算法、或Neural Network(神經網路)等任意機械學習算法而產生該錯誤檢測模型。
於步驟S102,於模型解析部22中,對於由群集用錯誤檢測模型產生部21產生之錯誤檢測模型,計算表示輸入之學習資料41內之各特徵量對模型輸出即錯誤預測結果貢獻何種程度之感度之值。該感度於例如由以決策樹為基礎之算法構築錯誤檢測模型之情形時,可藉由基於各特徵量於模型內之分支出現之個數或目標函數之改善值等計算之變量重要度(Feature Importance)、或計算各特徵量之值對模型輸出之貢獻度之SHAP(SHapley Additive exPlanations:Shapley加法解釋)值進行評估。
於步驟S103,於資料群集部23中,根據特徵量與對其模型之感度之關係,將資料群集為2個以上。作為該群集方法,可使用k-平均法或混合高斯模型等無監督學習。
於步驟S104,於群集完成判定部24中,判定是否對由資料群集部23群集之資料完成群集。作為該群集完成之判定方法,例如將經群集之資料進一步分割為學習資料與測試資料,若使用學習資料產生之錯誤檢測模型之精度相對於測試資料為閾值以上則可判定為群集完成。對判定為群集完成之資料,賦予群集完成之標誌。
於步驟S105,判定是否對所有資料附加群集完成之標誌,若有未附加標誌之資料,則對該資料再次重複步驟S101至步驟S104之處理。
圖4係模式性顯示圖3之步驟S101至步驟S104之處理者。
於圖4中,藉由以圖表等表示於各步驟中獲得之資料而明瞭。
於S101中,產生群集用之錯誤檢測模型。然後,於S102中,計算與該錯誤檢測模型相對之各特徵量之SHAP值等之感度。1個特徵量與其感度之關係成為如圖4之S102所示之散佈圖(圖表)。
根據該特徵量與感度之關係,使用無監督學習,如圖4所示例如將資料群集於組群A(Gr. A)與組群B(Gr. B)。重複該等處理直至對所有資料附加群集完成標誌。
於圖3之步驟S106,於因素別錯誤檢測模型產生部25中,於經群集之每個資料,產生自正常資料與錯誤資料之傾向之差異學習錯誤檢測規則之錯誤檢測模型。該因素別錯誤檢測模型產生部25與上述群集用錯誤檢測模型產生部21相同,亦可使用以Random Forest或XGBoost等決策樹為基礎之算法或Neural Network等任意機械學習算法而產生。但,於群集用錯誤檢測模型產生部21與因素別錯誤檢測模型產生部25,可使用各不相同之模型參數值。
模型參數包含樹構造之模型之樹之數量、樹之深度等決定模型之複雜度之超參數。例如,於群集用錯誤檢測模型產生部21,可以藉由模型解析部22解析資料或使用其解析結果之群集變容易之方式,將關於模型之複雜度之樹之數量或樹之深度等參數設定為較由因素別錯誤檢測模型產生部25產生之模型更小之值。另一方面,於因素別錯誤檢測模型產生部25,為了提高產生之模型之可靠性,而可以提高錯誤之檢測精度之方式設定經調諧之模型參數值。綜上所述,群集用錯誤檢測模型相較於因素別錯誤檢測模型,模型構造更簡單。此種模型構造於圖2中,表示為群集用錯誤檢測模型與因素別錯誤檢測模型之差異,即分支數量之差異。
由群集用錯誤檢測模型產生部21及因素別錯誤檢測模型產生部25產生之錯誤檢測模型,即群集用錯誤檢測模型及因素別錯誤檢測模型保存於模型資料庫14。
於步驟S107,於模型接線部26中,藉由基於群集之流程將由群集用錯誤檢測模型產生部21及因素別錯誤檢測模型產生部25產生之模型接線,而產生以錯誤檢測模型為節點之系統樹即模型樹。換言之,模型樹係藉由樹構造表現錯誤檢測模型間之關係者。
如此,產生區分正常資料與錯誤資料之學習模型,藉由解析該模型,而將正常資料與錯誤資料之差異數值化。藉由於顯示類似差異之每個錯誤群集資料,並將其等作為同一因素產生學習模型,而可產生即使無錯誤因素之事先之附註標記,亦於產生之多種錯誤各者檢測其等之學習模型。
又,藉由利用模型樹將模型彼此之位置關係可視化,使用者可容易進行哪個模型與哪個模型類似等模型之分析或管理。
接著,對使用產生之錯誤檢測模型或其模型樹,利用錯誤因素推定部13推定錯誤因素之方法進行說明。
圖5係顯示圖1之錯誤因素推定部13之構成圖。
於資料預處理部11,針對自資料庫2發送之裝置資料、配方、測量結果等原始資料中欲推定錯誤因素之資料,將資料整形為適合機械學習模型之形式,並作為錯誤因素推定對象資料42輸出。
於錯誤因素推定部13,輸入錯誤因素推定對象資料42,計算其錯誤因素候補之概率。錯誤因素推定部13具有模型評估部31、模型選定部32、相關參數擷取部33及錯誤因素概率計算部34。
圖6係顯示該等錯誤因素推定部13內之構成要件之處理步驟者。
於步驟S201,於模型評估部31中,針對錯誤因素推定對象資料42,評估存儲於模型資料庫14內之因素別錯誤檢測模型之性能。藉由將錯誤檢測模型之輸出即錯誤預測結果、與輸入之錯誤資料之真實錯誤進行比較而獲得性能評估。作為性能之評估指標,可使用精度、再現率、符合率、F1值、AUC等。此處,F1值係符合率與再現率之調和平均。又,AUC係Area Under the Curve(曲線下方面積)之略稱。圖5中以使用精度作為性能之評估指標之情形為例進行顯示。
於步驟S202,於模型選定部32中,選定1個以上由模型評估部31評估為性能之評估值較高之因素別錯誤檢測模型,作為符合於輸入之錯誤資料的模型。作為選定方法,有選定評估值較高之上階之模型、或評估值為預定之閾值以上之模型之方法等。
於步驟S203,於相關參數擷取部33中,擷取經選定之因素別錯誤檢測模型所在之模型樹中之分支,且擷取該分支中所包含之錯誤檢測模型之相關參數。作為該相關參數之擷取方法,可選定由模型樹產生部12之模型解析部22計算出之感度較高之上階特徵量。於圖5中,相對於作為範例而輸入之錯誤資料,精度最高之模型為「因素別錯誤檢測模型B」,以粗線顯示該「因素別錯誤檢測模型B」於模型樹所在之分支與分支中所包含之模型。針對該分支中所包含之各模型,獲得以感度較高者作為特徵量而計算出之「匹配分數」(登錄圖案與攝像圖像之一致度)或「對比度」、「圖案檢測倍率」、「圖案檢測座標」等相關參數。
於步驟S204,於錯誤因素概率計算部34中,以擷取出之相關參數為輸入而計算各錯誤因素之概率(錯誤因素概率),將結果作為機率經由終端4對使用者提示。於圖5中,「座標偏差」之機率最高,使用者可判斷錯誤因素為「座標偏差」之可能性較高。
於該錯誤因素概率之計算,可使用神經網路模型等。於該錯誤因素概率模型之學習,需進行與相關參數之組合相對之錯誤因素之附註標記,但因該附註標記以經群集之資料單位實施,故與先前方法即每1件產生錯誤之附註標記相比,可大幅削減處理數。
於模型選定部32中選定2個以上之因素別錯誤檢測模型之情形時,複合顯示自針對各模型之相關參數獲得之錯誤因素概率。
針對該方法,接著進行說明。
圖7係顯示將解析複數個錯誤檢測模型獲得之錯誤因素概率複合並可視化之構成者。
於模型選定部32中,例如選定「因素別錯誤檢測模型A」及「因素別錯誤檢測模型B」之2個模型之情形時,利用相關參數擷取部33擷取各模型位於模型樹中之模型樹中之分支,並分別擷取「相關參數A」及「相關參數B」作為該分支中所包含之錯誤檢測模型之相關參數。
將該「相關參數A」及「相關參數B」輸入至錯誤因素概率計算部34,計算自各者獲得之錯誤因素概率。以由模型評估部31獲得之模型評估值修正計算出之錯誤因素概率。最簡單而言,對錯誤因素概率乘以各個模型精度,將其正規化。藉由合計修正後之各個錯誤因素概率,而可對使用者顯示自複數個模型複合之錯誤因素概率。
圖8係顯示將自複數個模型複合之錯誤因素概率顯示於畫面之例者。
於本圖中,將關於相關參數A及相關參數B之各者之錯誤因素概率以可比較之形式圖表化。
又,藉由將與由群集用錯誤檢測模型產生部21或因素別錯誤檢測模型產生部25產生之模型相關之資訊與模型建立關聯並存儲於模型資料庫14,而可顯示與使用者經由終端4選擇之模型相關之資訊。
圖9係顯示該顯示影像之例者。
如本圖所示,作為關於模型之資訊,例如有由模型解析部22(圖2)計算之感度較高之上階之特徵量(相關參數)、或學習資料所包含之配方名、學習資料之收集期間、模型精度等。
再者,於更新資料庫2內之蓄積資料等於存儲於模型資料庫14之錯誤檢測模型存在複數個版本之情形時,使用者可經由終端4將模型樹內之模型更換為存儲於模型資料庫14之模型。
圖10係顯示該操作影像者。
如本圖所示,例如,藉由將存儲於模型資料庫14內之模型拖曳於畫面上,並放置於欲置換模型之樹位置,使用者可交互性更新模型樹內之模型。
另,於本實施例,雖對推定半導體檢查裝置之錯誤因素之情形進行說明,但本揭示之內容並非限定於此者,亦可應用於使針對規定裝置動作之參數及採用該參數時是否產生錯誤之模型或模型樹產生之情形。即,針對半導體檢查裝置以外之裝置亦可應用本揭示之內容。
1:半導體檢查裝置 2:資料庫 3:錯誤因素推定裝置 4:終端 11:資料預處理部 12:模型樹產生部 13:錯誤因素推定部 14:模型資料庫 15:模型樹 21:群集用錯誤檢測模型產生部 22:模型解析部 23:資料群集部 24:群集完成判定部 25:因素別錯誤檢測模型產生部 26:模型接線部 31:模型評估部 32:模型選定部 33:相關參數擷取部 34:錯誤因素概率計算部 41:學習資料 42:錯誤因素推定對象資料 101:網路 S101~S107:步驟 S201~S204:步驟
圖1係顯示包含實施例之錯誤因素推定裝置之資訊處理系統之一例之構成圖。 圖2係顯示圖1之模型樹產生部之構成圖。 圖3係顯示圖2之模型樹產生部之步驟之流程圖。 圖4係顯示圖3之步驟之一部分即模型樹產生部之錯誤資料之群集及錯誤檢測模型產生之步驟之模式圖。 圖5係顯示圖1之錯誤因素推定部之構成圖。 圖6係顯示於錯誤因素推定部中算出錯誤因素概率之步驟之流程圖。 圖7係顯示將解析複數個錯誤檢測模型獲得之錯誤因素概率複合並可視化之構成之模式圖。 圖8係顯示解析複數個錯誤檢測模型獲得之錯誤因素概率之一例之終端畫面。 圖9係顯示模型樹中之錯誤檢測模型之資訊之一例之終端畫面。 圖10係顯示將模型樹中之錯誤檢測模型更換為其他錯誤檢測模型之操作之一例之終端畫面。
2:資料庫
11:資料預處理部
12:模型樹產生部
14:模型資料庫
21:群集用錯誤檢測模型產生部
22:模型解析部
23:資料群集部
24:群集完成判定部
25:因素別錯誤檢測模型產生部
26:模型接線部
41:學習資料

Claims (11)

  1. 一種錯誤因素之推定裝置,其具備:資料預處理部,其使用處理對象資料,產生具有適合向機械學習模型輸入之形式的學習資料;及模型樹產生部,其以上述學習資料為輸入而產生檢測錯誤之學習模型即錯誤檢測模型,且產生藉由以上述錯誤檢測模型為節點之樹構造而表現上述錯誤檢測模型間之關係的模型樹;其中上述模型樹產生部具有:群集用錯誤檢測模型產生部,其以上述學習資料中未完成群集之資料為輸入,自正常資料與錯誤資料之傾向之差異,學習錯誤檢測規則而產生群集用錯誤檢測模型;模型解析部,其計算表示作為上述學習資料而輸入之特徵量對上述錯誤檢測模型之輸出貢獻何種程度之感度之值;資料群集部,其基於上述特徵量及上述感度之值進行資料之群集;群集完成判定部,其針對已進行該群集之資料,判定是否完成上述群集;因素別錯誤檢測模型產生部,其以完成上述群集之資料為輸入,自正常資料與錯誤資料之傾向之差異,學習錯誤檢測規則而產生因素別錯誤檢測模型;及模型接線部,其基於資料之群集之流程,將上述群集用錯誤檢測模型及上述因素別錯誤檢測模型進行接線,而產生以上述群集用錯誤檢測模型及上述因素別錯誤檢測模型為節點之系統樹即上述模型樹。
  2. 如請求項1之錯誤因素之推定裝置,其中上述群集用錯誤檢測模型之模型構造相較於上述因素別錯誤檢測模型更為簡單。
  3. 如請求項1之錯誤因素之推定裝置,其進而具備錯誤因素推定部,上述錯誤因素推定部具有:模型評估部,其以錯誤因素推定對象資料為輸入,評估產生完畢之上述因素別錯誤檢測模型之性能,該錯誤因素推定對象資料係針對上述處理對象資料中所欲推定錯誤因素之資料,使用上述資料預處理部,作為具有適合向上述機械學習模型輸入之形式的資料而產生;模型選定部,其選定1個以上由上述模型評估部評估為上述性能之評估值較高之因素別錯誤檢測模型;及相關參數擷取部,其擷取經選定之因素別錯誤檢測模型所在之上述模型樹中之分支,且擷取該分支中所包含之錯誤檢測模型之相關參數。
  4. 如請求項3之錯誤因素之推定裝置,其中上述錯誤因素推定部進而具有:錯誤因素概率計算部,其以由上述相關參數擷取部擷取出之上述相關參數為輸入,計算錯誤因素候補之概率。
  5. 如請求項4之錯誤因素之推定裝置,其中於以上述模型選定部選定複數個上述因素別錯誤檢測模型之情形時,以由上述模型評估部獲得之模型評估值,修正基於上述因素別錯誤檢測模型各者而獲得之上述概率。
  6. 如請求項5之錯誤因素之推定裝置,其進而具備:模型資料庫,其將上述群集用錯誤檢測模型及上述因素別錯誤檢測模型與該等模型之相關資訊建立關聯並保存。
  7. 如請求項6之錯誤因素之推定裝置,其構成為,當存儲於上述模型資料庫之上述群集用錯誤檢測模型及上述因素別錯誤檢測模型中存在複數個版本之情形時,使用者可使用終端將上述模型樹內之模型更換為存儲於上述模型資料庫之其他模型。
  8. 如請求項1之錯誤因素之推定裝置,其中上述處理對象資料為對象物之設定參數及測量結果之至少一者。
  9. 如請求項5之錯誤因素之推定裝置,其中將上述概率且為修正前後者顯示於終端。
  10. 如請求項6之錯誤因素之推定裝置,其構成為,由使用者經由終端選擇上述模型樹中所包含之錯誤檢測模型,而顯示與經選擇之上述錯誤檢測模型建立關聯之資訊。
  11. 一種錯誤因素之推定方法,其具有:資料預處理步驟,其使用處理對象資料,產生具有適合向機械學習模型輸入之形式的學習資料;及 模型樹產生步驟,其以上述學習資料為輸入而產生檢測錯誤之學習模型即錯誤檢測模型,且產生藉由以上述錯誤檢測模型為節點之樹構造而表現上述錯誤檢測模型間之關係的模型樹;其中上述模型樹產生步驟具有:群集用錯誤檢測模型產生步驟,其以上述學習資料中未完成群集之資料為輸入,自正常資料與錯誤資料之傾向之差異,學習錯誤檢測規則而產生群集用錯誤檢測模型;模型解析步驟,其計算表示作為上述學習資料而輸入之特徵量對上述錯誤檢測模型之輸出貢獻何種程度之感度之值;資料群集步驟,其基於上述特徵量及上述感度之值進行資料之群集;群集完成判定步驟,其針對已進行該群集之資料,判定是否完成上述群集;因素別錯誤檢測模型產生步驟,其以完成上述群集之資料為輸入,自正常資料與錯誤資料之傾向之差異,學習錯誤檢測規則而產生因素別錯誤檢測模型;及模型接線步驟,其基於資料之群集之流程,將上述群集用錯誤檢測模型及上述因素別錯誤檢測模型進行接線,而產生以上述群集用錯誤檢測模型及上述因素別錯誤檢測模型為節點之系統樹即上述模型樹。
TW110130606A 2020-09-17 2021-08-19 錯誤因素之推定裝置及推定方法 TWI801973B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/035274 WO2022059135A1 (ja) 2020-09-17 2020-09-17 エラー要因の推定装置及び推定方法
WOPCT/JP2020/035274 2020-09-17

Publications (2)

Publication Number Publication Date
TW202213191A TW202213191A (zh) 2022-04-01
TWI801973B true TWI801973B (zh) 2023-05-11

Family

ID=80776554

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110130606A TWI801973B (zh) 2020-09-17 2021-08-19 錯誤因素之推定裝置及推定方法

Country Status (6)

Country Link
US (1) US20230325413A1 (zh)
JP (1) JP7430271B2 (zh)
KR (1) KR20230046308A (zh)
CN (1) CN116057546A (zh)
TW (1) TWI801973B (zh)
WO (1) WO2022059135A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7354421B2 (ja) * 2020-03-31 2023-10-02 株式会社日立ハイテク エラー要因の推定装置及び推定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070022063A1 (en) * 1999-02-01 2007-01-25 Axeon Limited Neural processing element for use in a neural network
US20200004921A1 (en) * 2019-08-30 2020-01-02 Bikram Baidya Random forest model for prediction of chip layout attributes
US10699926B2 (en) * 2017-08-30 2020-06-30 Kla-Tencor Corp. Identifying nuisances and defects of interest in defects detected on a wafer
US20200226742A1 (en) * 2019-01-10 2020-07-16 Lam Research Corporation Defect classification and source analysis for semiconductor equipment
US20200234428A1 (en) * 2019-01-18 2020-07-23 Kla Corporation Methods And Systems For Inspection Of Semiconductor Structures With Automatically Generated Defect Features
TWI774708B (zh) * 2016-11-30 2022-08-21 美商克萊譚克公司 用於半導體結構之檢驗之方法及系統

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7144244B2 (ja) 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070022063A1 (en) * 1999-02-01 2007-01-25 Axeon Limited Neural processing element for use in a neural network
TWI774708B (zh) * 2016-11-30 2022-08-21 美商克萊譚克公司 用於半導體結構之檢驗之方法及系統
US10699926B2 (en) * 2017-08-30 2020-06-30 Kla-Tencor Corp. Identifying nuisances and defects of interest in defects detected on a wafer
US20200226742A1 (en) * 2019-01-10 2020-07-16 Lam Research Corporation Defect classification and source analysis for semiconductor equipment
US20200234428A1 (en) * 2019-01-18 2020-07-23 Kla Corporation Methods And Systems For Inspection Of Semiconductor Structures With Automatically Generated Defect Features
US20200004921A1 (en) * 2019-08-30 2020-01-02 Bikram Baidya Random forest model for prediction of chip layout attributes

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
期刊 H. Hayashi and Q. Zhao, "Model reduction of neural network trees based on dimensionality reduction," 2009 International Joint Conference on Neural Networks, doi: 10.1109/IJCNN.2009.5178741, IEEE, 31 July 2009, pp. 1171-1176.[https://ieeexplore.ieee.org/abstract/document/5178741] *

Also Published As

Publication number Publication date
JPWO2022059135A1 (zh) 2022-03-24
JP7430271B2 (ja) 2024-02-09
TW202213191A (zh) 2022-04-01
US20230325413A1 (en) 2023-10-12
KR20230046308A (ko) 2023-04-05
CN116057546A (zh) 2023-05-02
WO2022059135A1 (ja) 2022-03-24

Similar Documents

Publication Publication Date Title
US11761904B2 (en) Smart defect calibration system in semiconductor wafer manufacturing
US9335277B2 (en) Region-of-interest determination apparatus, observation tool or inspection tool, region-of-interest determination method, and observation method or inspection method using region-of-interest determination method
JP4220595B2 (ja) 欠陥の分類方法並びに教示用データ作成方法
JP5444092B2 (ja) 検査方法およびその装置
CN109285791B (zh) 设计布局为主的快速在线缺陷诊断、分类及取样方法及系统
US20070258640A1 (en) Inspection apparatus
CN113763312A (zh) 使用弱标记检测半导体试样中的缺陷
JP7254921B2 (ja) 半導体試料の欠陥の分類
TW202142833A (zh) 圖像產生系統
TWI783400B (zh) 誤差因子的推定裝置及推定方法
TW202139133A (zh) 半導體樣本的檢查
TWI801973B (zh) 錯誤因素之推定裝置及推定方法
CN115599844A (zh) 一种飞机翼面连接件错装漏装可视化检测方法
JPH10209230A (ja) 不良解析装置およびその方法
US20220334172A1 (en) Recipe Information Presentation System and Recipe Error Inference System
JP3982428B2 (ja) 欠陥情報解析方法およびその装置
JP5323457B2 (ja) 観察条件決定支援装置および観察条件決定支援方法
KR101897582B1 (ko) 설계-기반 결함 분류 방법 및 그 시스템
CN117529803A (zh) 用于主动良率管理的制造指纹
TWI841020B (zh) 誤差因素估計裝置、誤差因素估計方法、及電腦可讀取媒體
US20220334567A1 (en) Fabrication fingerprint for proactive yield management
WO2023073941A1 (ja) エラー要因推定装置、エラー要因推定方法及びコンピュータ可読媒体
TWI431706B (zh) 辨識晶圓圖樣式的方法與電腦程式產品
CN118056211A (zh) 错误原因推定装置、错误原因推定方法以及计算机可读介质
CN117829821A (zh) 一种基于云平台的复合材料设备维护管理方法