JP7430271B2 - エラー要因の推定装置及び推定方法 - Google Patents

エラー要因の推定装置及び推定方法 Download PDF

Info

Publication number
JP7430271B2
JP7430271B2 JP2022550264A JP2022550264A JP7430271B2 JP 7430271 B2 JP7430271 B2 JP 7430271B2 JP 2022550264 A JP2022550264 A JP 2022550264A JP 2022550264 A JP2022550264 A JP 2022550264A JP 7430271 B2 JP7430271 B2 JP 7430271B2
Authority
JP
Japan
Prior art keywords
model
error detection
data
error
factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022550264A
Other languages
English (en)
Other versions
JPWO2022059135A1 (ja
Inventor
泰浩 吉田
昌義 石川
二大 笹嶋
正幹 高野
功一 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Publication of JPWO2022059135A1 publication Critical patent/JPWO2022059135A1/ja
Application granted granted Critical
Publication of JP7430271B2 publication Critical patent/JP7430271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2246Trees, e.g. B+trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Image Analysis (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Radio Transmission System (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、エラー要因の推定装置及び推定方法に関する。
半導体計測装置や半導体検査装置は、レシピと呼ばれる設定パラメータに従って、半導体ウエハの表面における検査点ごとに検査動作や計測動作を実施する。レシピパラメータの調整は、計測・検査対象の属性や装置の特性などに応じて、エンジニアがマニュアル作業によって各項目を最適化するのが一般的である。したがって、例えば、調整が十分でないレシピの使用や、経時変化によって装置の特性が変わった場合においては、検査動作や計測動作においてエラーが生じる可能性がある。このようなエラーは、レシピの内容に起因するエラーとしてレシピエラーと呼ばれる。
レシピエラーが発生した際には、サービスエンジニアが半導体計測装置や半導体検査装置から装置内部データを解析して原因箇所を特定するのが一般的である。しかしながら、半導体の微細化・多様化に伴い、レシピ数及びレシピ設定項目の増加、レシピ作成の複雑化が生じている。このため、レシピエラーの原因特定には時間を要し、装置の稼働率を低下させる一因となっている。
特許文献1には、学習データの真値作成作業の手間を省き、学習データの少量化を図ることで、学習時間の短期間化を可能とすることを目的として、電子デバイスの検査対象パターンの画像と、検査対象パターンを製造するために使用するデータに基づき、機械学習により構成された識別器を用いて検査対象パターンの画像を検査するパターン検査システムにおいて、画像選択部(学習データ選択部)は、記憶部に格納されたパターンデータとパターン画像に基づき、複数のパターン画像から機械学習に用いる学習用パターン画像を選択するものであり、パターン毎に記憶した同形パターンが存在する複数の位置座標のデータをクラスタリングし、1個以上のクラスに分けるものであることが開示されている。
特開2020-35282号公報
特許文献1に記載されているパターン検査システムの学習データ選択部は、同形パターンに基づいて複数の位置座標のデータをクラスタリングするものである。しかしながら、この学習データ選択部は、エラーに対する各パラメータの寄与度を基準とするものではなく、改善の余地があると考えられる。
本発明は、エラー要因の事前のラベル付けがなくても、発生する多種類のエラーごとにエラーを検出する学習モデルを生成することを目的とする。さらに、本発明は、ラベル付け処理数を低減することを目的とする。
本発明のエラー要因推定装置は、処理対象データを用いて、機械学習モデルへの入力に適した形式を有する学習データを生成するデータ前処理部と、学習データを入力としてエラーを検出する学習モデルであるエラー検出モデルを生成し、エラー検出モデルをノードとした木構造によってエラー検出モデル間の関係を表現するモデルツリーを生成するモデルツリー生成部と、を備えたものである。
本発明によれば、エラー要因の事前のラベル付けがなくても、発生する多種類のエラーごとにエラーを検出する学習モデルを生成することができる。さらに、本発明によれば、ラベル付け処理数を低減することができる。
実施例に係るエラー要因推定装置を含む情報処理システムの一例を示す構成図である。 図1のモデルツリー生成部を示す構成図である。 図2のモデルツリー生成部における工程を示すフローチャートである。 図3の工程の一部であるモデルツリー生成部におけるエラーデータのクラスタリング及びエラー検出モデル生成の工程を示す模式図である。 図1のエラー要因推定部を示す構成図である。 エラー要因推定部においてエラー要因確率を算出する工程を示すフローチャートである。 複数のエラー検出モデルを解析して得られたエラー要因確率を複合して可視化する構成を示す模式図である。 複数のエラー検出モデルを解析して得られたエラー要因確率の一例を示す端末画面である。 モデルツリー中のエラー検出モデルの情報の一例を示す端末画面である。 モデルツリー中のエラー検出モデルを別のエラー検出モデルと入れ替える操作の一例を示す端末画面である。
本開示における実施形態に係るエラー要因の推定装置及び推定方法について、まとめて説明する。
エラー要因の推定装置は、データ前処理部と、モデルツリー生成部と、を備えている。
モデルツリー生成部は、学習データのうちクラスタリングが未完了のデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習してクラスタリング用エラー検出モデルを生成するクラスタリング用エラー検出モデル生成部と、学習データとして入力された特徴量がエラー検出モデルの出力に対してどの程度寄与したかを表す感度の値を計算するモデル解析部と、特徴量及び感度の値に基づきデータのクラスタリングをするデータクラスタリング部と、当該クラスタリングされたデータについてクラスタリングを完了するかを判定するクラスタリング完了判定部と、クラスタリングが完了したデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習して要因別エラー検出モデルを生成する要因別エラー検出モデル生成部と、クラスタリング用エラー検出モデル及び要因別エラー検出モデルをデータのクラスタリングの流れに基づき結線することで、クラスタリング用エラー検出モデル及び要因別エラー検出モデルをノードとした系統樹であるモデルツリーを生成するモデル結線部と、を有することが望ましい。
クラスタリング用エラー検出モデルは、要因別エラー検出モデルよりも、モデル構造がシンプルであることが望ましい。
エラー要因の推定装置は、エラー要因推定部を更に備え、エラー要因推定部は、処理対象データのうちエラー要因を推定したいデータについてデータ前処理部を用いて機械学習モデルへの入力に適した形式を有するデータとして生成されたエラー要因推定対象データを入力として、生成済みの要因別エラー検出モデル(事前に生成され蓄積されている要因別エラー検出モデル)の性能を評価するモデル評価部と、モデル評価部にて性能の評価値が高いとされた要因別エラー検出モデルを1つ以上選定するモデル選定部と、選定された要因別エラー検出モデルが位置するモデルツリー中の分岐を抽出し、この分岐中に含まれるエラー検出モデルの相関パラメータを抽出する相関パラメータ抽出部と、を有することが望ましい。
エラー要因推定部は、相関パラメータ抽出部で抽出された相関パラメータを入力としてエラー要因候補の確率を計算するエラー要因確率計算部を更に有することが望ましい。
エラー要因の推定装置においては、モデル選定部にて要因別エラー検出モデルが複数選定された場合には、要因別エラー検出モデルのそれぞれに基づいて得られた前記確率を、モデル評価部で得られたモデル評価値で補正することが望ましい。
エラー要因の推定装置は、クラスタリング用エラー検出モデル及び要因別エラー検出モデルとこれらのモデルに関する情報とを紐づけて保存するモデルデータベースを更に備えていることが望ましい。
エラー要因の推定装置においては、モデルデータベースに格納されているクラスタリング用エラー検出モデル及び要因別エラー検出モデルに複数のバージョンが存在する場合には、端末を用いてユーザがモデルツリー内のモデルをモデルデータベースに格納された別モデルに入れ替えることができるように構成されていることが望ましい。
処理対象データは、対象物の設定パラメータ及び計測結果の少なくとも一方であることが望ましい。
エラー要因の推定装置においては、前記確率であって補正前後のものを端末に表示することが望ましい。
エラー要因の推定装置においては、端末を介してユーザがモデルツリーに含まれるエラー検出モデルを選択することで、選択したエラー検出モデルと紐づけられた情報が表示されるように構成されていることが望ましい。
エラー要因の推定方法は、処理対象データを用いて、機械学習モデルへの入力に適した形式を有する学習データを生成するデータ前処理工程と、学習データを入力としてエラーを検出する学習モデルであるエラー検出モデルを生成し、エラー検出モデルをノードとした木構造によってエラー検出モデル間の関係を表現するモデルツリーを生成するモデルツリー生成工程と、を有する。
モデルツリー生成工程は、学習データのうちクラスタリングが未完了のデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習してクラスタリング用エラー検出モデルを生成するクラスタリング用エラー検出モデル生成工程と、学習データとして入力された特徴量がエラー検出モデルの出力に対してどの程度寄与したかを表す感度の値を計算するモデル解析工程と、特徴量及び感度の値に基づきデータのクラスタリングをするデータクラスタリング工程と、当該クラスタリングされたデータについてクラスタリングを完了するかを判定するクラスタリング完了判定工程と、クラスタリングが完了したデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習して要因別エラー検出モデルを生成する要因別エラー検出モデル生成工程と、クラスタリング用エラー検出モデル及び要因別エラー検出モデルをデータのクラスタリングの流れに基づき結線することで、クラスタリング用エラー検出モデル及び要因別エラー検出モデルをノードとした系統樹であるモデルツリーを生成するモデル結線工程と、を有することが望ましい。
以下に説明する実施形態において、「半導体検査装置」は、半導体ウエハの表面に形成されたパターンの寸法を計測する装置、半導体ウエハの表面に形成されたパターンの欠陥有無を検査する装置、或いはパターンが形成されていないベアウエハの欠陥の有無を検査する装置等を含み、これらの装置を複数組み合わせた複合装置をも含むものである。
また、以下に説明する実施形態において、「検査」とは、計測又は検査の意味で用いるものとし、「検査動作」とは、計測動作又は検査動作の意味で用いるものとし、「検査対象」とは、計測又は検査の対象となるウエハ、或いは、当該ウエハにおける計測又は検査の対象領域を指すものとする。
図1は、実施例に係るエラー要因推定装置を含む情報処理システムの一例を示したものである。
本図において、半導体検査装置1は、ネットワーク101を介してデータベース2及びエラー要因推定装置3(エラー要因の推定装置)に接続されている。エラー要因推定装置3は、端末4に接続されている。エラー要因推定装置3は、半導体検査装置1が実施する検査動作におけるエラーの要因を推定する。
半導体検査装置1から送られるデータには、例えば、装置データ、計測レシピ(以下単に「レシピ」と呼ぶ場合もある。)、計測結果及びエラー結果が含まれる。また、レシピには、計測点数、計測点(Evaluation Point:EP)の座標情報、画像を撮像する際の撮像条件、撮像シーケンス等が含まれていてもよい。また、レシピには、計測点に併せて計測点を計測するための準備段階で取得される画像の座標や撮像条件等が含まれていてもよい。
装置データは、装置固有パラメータ、装置機差補正データ及び観察条件パラメータを含む。装置固有パラメータは、半導体検査装置1を規定仕様どおりに動作させるために用いる補正パラメータである。装置機差補正データは、半導体検査装置間の機差を補正するために用いるパラメータである。観察条件パラメータは、例えば、電子光学系の加速電圧等の走査型電子顕微鏡(SEM)の観察条件を規定するパラメータである。
レシピは、レシピパラメータとして、ウエハマップ、アライメントパラメータ、アドレッシングパラメータ及び測長パラメータを含む。ウエハマップは、半導体ウエハの表面の座標マップ(例えばパターンの座標)である。アライメントパラメータは、例えば、半導体ウエハの表面の座標系と半導体検査装置1内部の座標系との間のずれを補正するために用いるパラメータである。アドレッシングパラメータは、例えば、半導体ウエハの表面に形成されているパターンのうち、検査対象領域内に存在する特徴的なパターンを特定する情報である。測長パラメータは、長さを測定する条件を記述したパラメータであり、例えばパターンのうちどの部位の長さを測定するかを指定するパラメータである。
計測結果は、測長結果、画像データ及び動作ログを含む。測長結果は、半導体ウエハの表面のパターンの長さを測定した結果を記述したものである。画像データは、半導体ウエハの観察画像である。動作ログは、アライメント、アドレッシング及び測長の各動作工程における半導体検査装置1の内部状態を記述したデータである。例えば、各部品の動作電圧、観察視野の座標等が挙げられる。
エラー結果は、エラーが発生した場合に、アライメント、アドレッシング及び測長の各動作工程のいずれで発生したエラーであるかを示すパラメータである。
これらの装置データ、レシピ、計測結果、エラー結果等のデータは、ネットワーク101を介してデータベース2に蓄積される。蓄積されたデータは、エラー要因推定装置3にて解析される。解析結果は、端末4(GUI)にてユーザが読み取ることができる形式で表示される。
エラー要因推定装置3は、データ前処理部11、モデルツリー生成部12、エラー要因推定部13、モデルデータベース14(モデルDB)及びモデルツリー15を有している。
データ前処理部11では、データベース2から送られた装置データ、レシピ、計測結果等の生データ(処理対象データ)から、機械学習モデルに適した形式へデータを整形し、学習データとして出力する。ここで、データの整形は、欠損値の処理、不要な変数の削除、データのスケーリング、カテゴリカル変数のエンコーディング、交互作用特徴量などの複数データを組み合わせた複合的な特徴量作成などの機械学習の前処理を含む。
モデルツリー生成部12では、学習データを入力として、エラーを検出する学習モデルの階層化されたツリー構造(以下「モデルツリー」という)を生成する。
図2は、図1のモデルツリー生成部12の構成を示したものである。
モデルツリー生成部12は、クラスタリング用エラー検出モデル生成部21、モデル解析部22、データクラスタリング部23、クラスタリング完了判定部24、要因別エラー検出モデル生成部25及びモデル結線部26を有している。
データベース2から送られたデータは、データ前処理部11において処理され、学習データ41として出力される。学習データ41は、クラスタリング用エラー検出モデル生成部21に送られる。そして、学習データ41は、モデルツリー生成部12において、クラスタリング用エラー検出モデル生成部21、モデル解析部22、データクラスタリング部23、クラスタリング完了判定部24、要因別エラー検出モデル生成部25及びモデル結線部26の順に処理され、モデルツリーとして出力される。
この過程において、クラスタリング完了判定部24においては、クラスタリングの状態を判定し、場合によっては、クラスタリング用エラー検出モデル生成部21にデータを戻す。クラスタリング用エラー検出モデル生成部21及び要因別エラー検出モデル生成部25からは、適宜モデルデータベース14にデータを送るようになっている。
図3は、図2のモデルツリー生成部12内の構成要素における処理工程を示したものである。
ステップS101では、クラスタリング用エラー検出モデル生成部21において、クラスタリングが未完了である学習データ41を入力として正常データとエラーデータとの傾向の違いからエラー検出ルールを学習してクラスタリング用のエラー検出モデルを生成する。このエラー検出モデルは、Random ForestやXGBoostなどの決定木をベースとしたアルゴリズムや、Neural Networkなど、どのような機械学習アルゴリズムを用いて生成するとしてもよい。
ステップS102では、モデル解析部22において、クラスタリング用エラー検出モデル生成部21で生成されたエラー検出モデルに対して、入力された学習データ41内の各特徴量がモデル出力であるエラー予測結果に対してどの程度寄与したかを表す感度の値を計算する。この感度は、例えば、エラー検出モデルが決定木をベースとしたアルゴリズムで構築される場合、各特徴量がモデル内の分岐に出現する個数や目的関数の改善値等に基づき計算される変数重要度(Feature Importance)や、各特徴量の値のモデル出力への寄与度を計算するSHAP(SHapley Additive exPlanations)値によって評価することができる。
ステップS103では、データクラスタリング部23において、特徴量とそのモデルに対する感度との関係から、データを2つ以上にクラスタリングする。このクラスタリング方法としては、k-平均法や混合ガウスモデルなどの教師なし学習を用いることができる。
ステップS104では、クラスタリング完了判定部24において、データクラスタリング部23でクラスタリングされたデータについてクラスタリングを完了するかを判定する。このクラスタリング完了の判定方法としては、例えばクラスタリングされたデータを更に学習データとテストデータに分割し、学習データを用いて生成したエラー検出モデルの精度がテストデータに対して閾値以上であればクラスタリング完了と判定することができる。クラスタリング完了と判定されたデータには、クラスタリング完了のフラグを付与する。
ステップS105では、全てのデータについてクラスタリング完了のフラグがついているか判定し、フラグがついていないデータがあれば、そのデータについて再びステップS101からステップS104までの処理を繰り返す。
図4は、図3のステップS101からステップS104までの処理を模式的に示したものである。
図4においては、各ステップにおいて得られたデータをグラフ等で表すことにより明瞭にしている。
S101において、クラスタリング用のエラー検出モデルを生成する。そして、S102において、このエラー検出モデルに対する各特徴量のSHAP値などの感度を計算する。1つの特徴量とその感度との関係は、図4のS102に示すような散布図(グラフ)となる。
この特徴量と感度との関係から教師なし学習を用いて、図4に示すように例えばグループA(Gr.A)とグループB(Gr.B)にデータをクラスタリングする。これらの処理は、全てのデータにクラスタリング完了フラグがつくまで繰り返す。
図3のステップS106では、要因別エラー検出モデル生成部25において、クラスタリングされたデータごとに正常データとエラーデータとの傾向の違いから、エラー検出ルールを学習するエラー検出モデルを生成する。この要因別エラー検出モデル生成部25は、前述のクラスタリング用エラー検出モデル生成部21と同じく、Random ForestやXGBoostなどの決定木をベースとしたアルゴリズムやNeural Networkなど、どのような機械学習アルゴリズムを用いて生成するとしてもよい。ただし、クラスタリング用エラー検出モデル生成部21と要因別エラー検出モデル生成部25とでは、それぞれ異なるモデルパラメータ値を用いることができる。
モデルパラメータは、木構造のモデルにおける木の数、木の深さなどモデルの複雑さを決定するハイパーパラメータを含む。例えば、クラスタリング用エラー検出モデル生成部21では、モデル解析部22によるデータの解析やその解析結果を用いたクラスタリングが容易になるよう、モデルの複雑さに関する木の数や木の深さなどのパラメータを要因別エラー検出モデル生成部25で生成されるモデルと比較して小さい値に設定することができる。一方で、要因別エラー検出モデル生成部25では、生成されるモデルの信頼性を高めるために、エラーの検出精度が向上するようチューニングされたモデルパラメータ値を設定することができる。まとめると、クラスタリング用エラー検出モデルは、要因別エラー検出モデルよりも、モデル構造がシンプルである。このようなモデル構造は、図2においては、クラスタリング用エラー検出モデルと要因別エラー検出モデルとの違い、すなわち分岐の数の違いとして表している。
クラスタリング用エラー検出モデル生成部21及び要因別エラー検出モデル生成部25で生成されたエラー検出モデル、すなわちクラスタリング用エラー検出モデル及び要因別エラー検出モデルは、モデルデータベース14に保存する。
ステップS107では、モデル結線部26において、クラスタリング用エラー検出モデル生成部21および要因別エラー検出モデル生成部25で生成されたモデルをクラスタリングの流れに基づき結線することで、エラー検出モデルをノードとした系統樹であるモデルツリーを生成する。言い換えると、モデルツリーは、木構造によってエラー検出モデル間の関係を表現するものである。
このように、正常データとエラーデータとを見分ける学習モデルを生成し、このモデルを解析することで、正常データとエラーデータとの差異を数値化する。類似した差異を示すエラーごとにデータをクラスタリングし、それらを同一要因として学習モデルを生成することで、エラー要因の事前のラベル付けなくとも、発生する多種類のエラーごとにそれらを検出する学習モデルを生成することができる。
また、モデルツリーによりモデル同士の位置関係を可視化することで、どのモデルとどのモデルが類似しているかなど、ユーザによるモデルの分析や管理を容易とすることができる。
次に、生成したエラー検出モデルやそのモデルツリーを用いて、エラー要因推定部13にてエラー要因を推定する方法について説明する。
図5は、図1のエラー要因推定部13を示す構成図である。
データ前処理部11では、データベース2から送られた装置データ、レシピ、計測結果等の生データのうちエラー要因を推定したいデータについて、機械学習モデルに適した形式へデータを整形し、エラー要因推定対象データ42として出力する。
エラー要因推定部13では、エラー要因推定対象データ42を入力として、そのエラー要因候補の確率を計算する。エラー要因推定部13は、モデル評価部31、モデル選定部32、相関パラメータ抽出部33及びエラー要因確率計算部34を有している。
図6は、これらエラー要因推定部13内の構成要素における処理工程を示したものである。
ステップS201では、モデル評価部31において、エラー要因推定対象データ42について、モデルデータベース14内に格納されている要因別のエラー検出モデルの性能を評価する。性能評価は、エラー検出モデルの出力であるエラー予測結果と、入力したエラーデータにおける真のエラーとを比較することで得られる。性能の評価指標としては、精度、再現率、適合率、F1値、AUC等を用いることができる。ここで、F1値は、適合率と再現率との調和平均である。また、AUCは、Area Under the Curveの略称である。図5では、性能の評価指標として精度を用いた場合を例として示している。
ステップS202では、モデル選定部32において、モデル評価部31で性能の評価値が高かった要因別のエラー検出モデルを入力されたエラーデータに適合したモデルとして1つ以上選定する。選定方法としては、評価値の高い上位のモデルや、評価値が予め定められた閾値以上のモデルを選定する方法などがある。
ステップS203では、相関パラメータ抽出部33において、選定した要因別のエラー検出モデルが位置するモデルツリー中の分岐を抽出し、この分岐中に含まれるエラー検出モデルの相関パラメータを抽出する。この相関パラメータの抽出方法としては、モデルツリー生成部12のモデル解析部22で計算された感度の高い上位の特徴量を選定することができる。図5では、例として入力されたエラーデータに対して最も精度の高いモデルが「要因別エラー検出モデルB」であり、この「要因別エラー検出モデルB」がモデルツリーで位置する分岐と分岐中に含まれるモデルを太線で示している。この分岐中に含まれる各モデルについて、感度が高いと特徴量として計算された「マッチングスコア」(登録パターンと撮像画像との一致度)や「コントラスト」、「パターン検出倍率」、「パターン検出座標」などの相関パラメータを得る。
ステップS204では、エラー要因確率計算部34において、抽出された相関パラメータを入力として各エラー要因の確率(エラー要因確率)を計算し、端末4を介して結果を確からしさとしてユーザに提示する。図5においては、「座標ずれ」の確からしさが最も高く、ユーザはエラー要因を「座標ずれ」の可能性が高いと判断することができる。
このエラー要因確率の計算には、ニューラルネットモデルなどを用いることができる。このエラー要因確率モデルの学習には、相関パラメータの組み合わせに対するエラー要因のラベル付けが必要となるが、このラベル付けは、クラスタリングされたデータ単位での実施となるため、従来手法である発生エラー1件ごとのラベル付けと比較して、処理数を大幅に削減することができる。
モデル選定部32において2つ以上の要因別エラー検出モデルが選定された場合は、各モデルについての相関パラメータから得られたエラー要因確率を複合して示す。
この方法について、次に説明する。
図7は、複数のエラー検出モデルを解析して得られたエラー要因確率を複合して可視化する構成を示したものである。
モデル選定部32において、例えば「要因別エラー検出モデルA」及び「要因別エラー検出モデルB」の2つのモデルが選定された場合、相関パラメータ抽出部33にて各モデルがモデルツリー中に位置するモデルツリー中の分岐を抽出し、この分岐中に含まれるエラー検出モデルの相関パラメータとして「相関パラメータA」及び「相関パラメータB」をそれぞれ抽出する。
この「相関パラメータA」及び「相関パラメータB」をエラー要因確率計算部34に入力し、それぞれから得られるエラー要因確率を計算する。計算されたエラー要因確率を、モデル評価部31で得られたモデル評価値で補正する。最もシンプルには、エラー要因確率にそれぞれのモデル精度を乗算し、正規化する。補正後のそれぞれのエラー要因確率を合計することで、複数のモデルから複合されたエラー要因確率をユーザに示すことができる。
図8は、複数のモデルから複合されたエラー要因確率を画面に表示した例を示したものである。
本図においては、相関パラメータA及び相関パラメータBのそれぞれに関するエラー要因確率が比較可能な形でグラフ化されている。
また、クラスタリング用エラー検出モデル生成部21や要因別エラー検出モデル生成部25で生成したモデルに関する情報をモデルデータベース14にモデルと紐づけて格納することで、端末4を介してユーザが選択したモデルに関する情報を表示することができる。
図9は、この表示イメージの例を示したものである。
本図に示すように、モデルに関する情報としては、例えばモデル解析部22(図2)で計算された感度の高い上位の特徴量(相関パラメータ)や、学習データに含まれるレシピ名、学習データの収集期間、モデル精度などがある。
さらに、データベース2内の蓄積データが更新されるなどモデルデータベース14に格納されたエラー検出モデルに複数のバージョンが存在する場合、端末4を介してユーザがモデルツリー内のモデルをモデルデータベース14に格納されたモデルに入れ替えることができる。
図10は、この操作イメージを示したものである。
本図に示すように、例えば、モデルデータベース14内に格納されたモデルを画面上でドラッグし、モデルを置き換えたいツリー位置にドロップすることで、ユーザが対話的にモデルツリー内のモデルを更新することができる。
なお、本実施例では、半導体検査装置のエラー要因を推定する場合について説明したが、本開示の内容は、これに限定されるものではなく、装置の動作を規定するパラメータ及びそのパラメータを採用したときにエラーが生じるか否かについてのモデルやモデルツリーを生成させる場合にも適用することができる。すなわち、半導体検査装置以外の装置についても本開示の内容を適用することができる。
1:半導体検査装置、2:データベース、3:エラー要因推定装置、4:端末、11:データ前処理部、12:モデルツリー生成部、13:エラー要因推定部、14:モデルデータベース、15:モデルツリー、21:クラスタリング用エラー検出モデル生成部、22:モデル解析部、23:データクラスタリング部、24:クラスタリング完了判定部、25:要因別エラー検出モデル生成部、26:モデル結線部、31:モデル評価部、32:モデル選定部、33:相関パラメータ抽出部、34:エラー要因確率計算部、41:学習データ、42:エラー要因推定対象データ。

Claims (11)

  1. 処理対象データを用いて、機械学習モデルへの入力に適した形式を有する学習データを生成するデータ前処理部と、
    前記学習データを入力としてエラーを検出する学習モデルであるエラー検出モデルを生成し、前記エラー検出モデルをノードとした木構造によって前記エラー検出モデル間の関係を表現するモデルツリーを生成するモデルツリー生成部と、を備え、
    前記モデルツリー生成部は、
    前記学習データのうちクラスタリングが未完了のデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習してクラスタリング用エラー検出モデルを生成するクラスタリング用エラー検出モデル生成部と、
    前記学習データとして入力された特徴量が前記エラー検出モデルの出力に対してどの程度寄与したかを表す感度の値を計算するモデル解析部と、
    前記特徴量及び前記感度の値に基づきデータのクラスタリングをするデータクラスタリング部と、
    当該クラスタリングされたデータについて前記クラスタリングを完了するかを判定するクラスタリング完了判定部と、
    前記クラスタリングが完了したデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習して要因別エラー検出モデルを生成する要因別エラー検出モデル生成部と、
    前記クラスタリング用エラー検出モデル及び前記要因別エラー検出モデルをデータのクラスタリングの流れに基づき結線することで、前記クラスタリング用エラー検出モデル及び前記要因別エラー検出モデルをノードとした系統樹である前記モデルツリーを生成するモデル結線部と、を有する、エラー要因の推定装置。
  2. 前記クラスタリング用エラー検出モデルは、前記要因別エラー検出モデルよりも、モデル構造がシンプルである、請求項記載のエラー要因の推定装置。
  3. エラー要因推定部を更に備え、
    前記エラー要因推定部は、
    前記処理対象データのうちエラー要因を推定したいデータについて前記データ前処理部を用いて前記機械学習モデルへの入力に適した形式を有するデータとして生成されたエラー要因推定対象データを入力として、生成済みの前記要因別エラー検出モデルの性能を評価するモデル評価部と、
    前記モデル評価部にて前記性能の評価値が高いとされた要因別エラー検出モデルを1つ以上選定するモデル選定部と、
    選定された要因別エラー検出モデルが位置する前記モデルツリー中の分岐を抽出し、この分岐中に含まれるエラー検出モデルの相関パラメータを抽出する相関パラメータ抽出部と、を有する、請求項記載のエラー要因の推定装置。
  4. 前記エラー要因推定部は、
    前記相関パラメータ抽出部で抽出された前記相関パラメータを入力としてエラー要因候補の確率を計算するエラー要因確率計算部を更に有する、請求項記載のエラー要因の推定装置。
  5. 前記モデル選定部にて前記要因別エラー検出モデルが複数選定された場合には、前記要因別エラー検出モデルのそれぞれに基づいて得られた前記確率を、前記モデル評価部で得られたモデル評価値で補正する、請求項記載のエラー要因の推定装置。
  6. 前記クラスタリング用エラー検出モデル及び前記要因別エラー検出モデルとこれらのモデルに関する情報とを紐づけて保存するモデルデータベースを更に備えた、請求項記載のエラー要因の推定装置。
  7. 前記モデルデータベースに格納されている前記クラスタリング用エラー検出モデル及び前記要因別エラー検出モデルに複数のバージョンが存在する場合には、端末を用いてユーザが前記モデルツリー内のモデルを前記モデルデータベースに格納された別モデルに入れ替えることができるように構成されている、請求項記載のエラー要因の推定装置。
  8. 前記処理対象データは、対象物の設定パラメータ及び計測結果の少なくとも一方である、請求項1記載のエラー要因の推定装置。
  9. 前記確率であって補正前後のものを端末に表示する、請求項記載のエラー要因の推定装置。
  10. 端末を介してユーザが前記モデルツリーに含まれるエラー検出モデルを選択することで、選択した前記エラー検出モデルと紐づけられた情報が表示されるように構成されている、請求項記載のエラー要因の推定装置。
  11. 処理対象データを用いて、機械学習モデルへの入力に適した形式を有する学習データを生成するデータ前処理工程と、
    前記学習データを入力としてエラーを検出する学習モデルであるエラー検出モデルを生成し、前記エラー検出モデルをノードとした木構造によって前記エラー検出モデル間の関係を表現するモデルツリーを生成するモデルツリー生成工程と、を有し、
    前記モデルツリー生成工程は、
    前記学習データのうちクラスタリングが未完了のデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習してクラスタリング用エラー検出モデルを生成するクラスタリング用エラー検出モデル生成工程と、
    前記学習データとして入力された特徴量が前記エラー検出モデルの出力に対してどの程度寄与したかを表す感度の値を計算するモデル解析工程と、
    前記特徴量及び前記感度の値に基づきデータのクラスタリングをするデータクラスタリング工程と、
    当該クラスタリングされたデータについて前記クラスタリングを完了するかを判定するクラスタリング完了判定工程と、
    前記クラスタリングが完了したデータを入力として、正常データとエラーデータとの傾向の違いからエラー検出ルールを学習して要因別エラー検出モデルを生成する要因別エラー検出モデル生成工程と、
    前記クラスタリング用エラー検出モデル及び前記要因別エラー検出モデルをデータのクラスタリングの流れに基づき結線することで、前記クラスタリング用エラー検出モデル及び前記要因別エラー検出モデルをノードとした系統樹である前記モデルツリーを生成するモデル結線工程と、を有する、エラー要因の推定方法。
JP2022550264A 2020-09-17 2020-09-17 エラー要因の推定装置及び推定方法 Active JP7430271B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/035274 WO2022059135A1 (ja) 2020-09-17 2020-09-17 エラー要因の推定装置及び推定方法

Publications (2)

Publication Number Publication Date
JPWO2022059135A1 JPWO2022059135A1 (ja) 2022-03-24
JP7430271B2 true JP7430271B2 (ja) 2024-02-09

Family

ID=80776554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550264A Active JP7430271B2 (ja) 2020-09-17 2020-09-17 エラー要因の推定装置及び推定方法

Country Status (6)

Country Link
US (1) US20230325413A1 (ja)
JP (1) JP7430271B2 (ja)
KR (1) KR20230046308A (ja)
CN (1) CN116057546A (ja)
TW (1) TWI801973B (ja)
WO (1) WO2022059135A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7354421B2 (ja) * 2020-03-31 2023-10-02 株式会社日立ハイテク エラー要因の推定装置及び推定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9902115D0 (en) * 1999-02-01 1999-03-24 Axeon Limited Neural networks
US11047806B2 (en) * 2016-11-30 2021-06-29 Kla-Tencor Corporation Defect discovery and recipe optimization for inspection of three-dimensional semiconductor structures
US10699926B2 (en) * 2017-08-30 2020-06-30 Kla-Tencor Corp. Identifying nuisances and defects of interest in defects detected on a wafer
JP7144244B2 (ja) 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム
US11263737B2 (en) * 2019-01-10 2022-03-01 Lam Research Corporation Defect classification and source analysis for semiconductor equipment
US11379967B2 (en) * 2019-01-18 2022-07-05 Kla Corporation Methods and systems for inspection of semiconductor structures with automatically generated defect features
US10885259B2 (en) * 2019-08-30 2021-01-05 Intel Corporation Random forest model for prediction of chip layout attributes

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAYASHI, Hirotomo, et al.,Model Reduction of Neural Network Trees Based on Dimensionality Reduction,Proceedings of International Joint Conference on Neural Networks 2009,2009年06月19日,Pages 1171-1176,[検索日 2023.11.16], <インターネット: https://ieeexplore.org/abstract/document/5178741>
林 博友 ほか,ニューラルネットツリーを生成する高速アルゴリズム,情報処理学会論文誌 論文誌ジャーナル [CD-ROM],日本,社団法人情報処理学会,2008年08月15日,Vol. 49, No.8,Pages 2878-2889
瀬戸 洋一 ほか,技術者のためのIoTの技術と応用 初版 ,日本工業出版株式会社,2016年07月25日,68-79頁

Also Published As

Publication number Publication date
TW202213191A (zh) 2022-04-01
TWI801973B (zh) 2023-05-11
JPWO2022059135A1 (ja) 2022-03-24
US20230325413A1 (en) 2023-10-12
KR20230046308A (ko) 2023-04-05
CN116057546A (zh) 2023-05-02
WO2022059135A1 (ja) 2022-03-24

Similar Documents

Publication Publication Date Title
US10789703B2 (en) Semi-supervised anomaly detection in scanning electron microscope images
KR100414032B1 (ko) 반도체검사장치, 반도체결함해석장치, 반도체설계데이터수정장치, 반도체검사방법, 반도체결함해석방법, 반도체설계데이터수정방법 및 컴퓨터판독가능한 기록매체
US20100138801A1 (en) System and Method for Detecting a Defect
CN109285791B (zh) 设计布局为主的快速在线缺陷诊断、分类及取样方法及系统
JP2000057349A (ja) 欠陥の分類方法およびその装置並びに教示用データ作成方法
JP2012532425A (ja) プラズマ処理システムにおける障害の自動的な検出及び分類、並びにその方法
US20070258640A1 (en) Inspection apparatus
KR102530950B1 (ko) 반도체 시편에서의 결함들의 분류
CN110503288A (zh) 考虑机台交互作用的辨识良率损失原因的系统与方法
CN110782546A (zh) 基于组合树模型的半导体pvd制程的电阻率虚拟量测方法
TWI783400B (zh) 誤差因子的推定裝置及推定方法
TWI755468B (zh) 用於分類器及藉由光學工具所捕捉之缺陷之診斷方法
JP7430271B2 (ja) エラー要因の推定装置及び推定方法
US8682058B2 (en) Defect analysis method, apparatus, and recording medium using pattern dependence degree
JP2011058926A (ja) 画像検査方法及び画像検査装置
KR20210100028A (ko) 시편들을 검사하는 방법 및 그의 시스템
US20230402249A1 (en) Defect inspection apparatus
JP7188950B2 (ja) データ処理方法およびデータ処理プログラム
JP2004186374A (ja) 製造データ解析方法及びそれをコンピュータに実行させるプログラム
JP5566616B2 (ja) 特性解析装置、特性解析方法をコンピュータに実行させるためのプログラム、上記プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2023073941A1 (ja) エラー要因推定装置、エラー要因推定方法及びコンピュータ可読媒体
TWI841020B (zh) 誤差因素估計裝置、誤差因素估計方法、及電腦可讀取媒體
WO2024105811A1 (ja) エラー要因解析装置、および、エラー要因解析方法
US20220334567A1 (en) Fabrication fingerprint for proactive yield management
TWI842961B (zh) 資料處理方法、資料處理裝置以及電腦可讀取記錄媒體

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240130

R150 Certificate of patent or registration of utility model

Ref document number: 7430271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150