JP4866520B2 - Data analysis method, data analysis program, and data analysis apparatus - Google Patents

Data analysis method, data analysis program, and data analysis apparatus Download PDF

Info

Publication number
JP4866520B2
JP4866520B2 JP2001338185A JP2001338185A JP4866520B2 JP 4866520 B2 JP4866520 B2 JP 4866520B2 JP 2001338185 A JP2001338185 A JP 2001338185A JP 2001338185 A JP2001338185 A JP 2001338185A JP 4866520 B2 JP4866520 B2 JP 4866520B2
Authority
JP
Japan
Prior art keywords
data
analysis
storage device
group
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001338185A
Other languages
Japanese (ja)
Other versions
JP2003142361A (en
Inventor
英隆 津田
英大 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Semiconductor Ltd
Original Assignee
Fujitsu Semiconductor Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Semiconductor Ltd filed Critical Fujitsu Semiconductor Ltd
Priority to JP2001338185A priority Critical patent/JP4866520B2/en
Priority to US10/058,792 priority patent/US6711522B2/en
Publication of JP2003142361A publication Critical patent/JP2003142361A/en
Application granted granted Critical
Publication of JP4866520B2 publication Critical patent/JP4866520B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、広く産業界で取り扱われるデータ間の関連を把握し、産業上優位な結果をもたらすための有意性のある結果を抽出するデータ解析方法に関し、さらに、解析対象とするデータ値やその平均値だけに注目していては判別が困難である知識や情報を抽出するデータ解析方法に関する。また、解析結果の精度等を評価するデータ解析方法およびデータ解析装置に関する。
【0002】
たとえば、半導体製造工程において取得される使用装置履歴、試験結果、設計情報または各種測定データ等をもって歩留りの変動状況を把握し、よって歩留り向上に有利な条件を抽出するためになされるデータ解析方法に関する。特に、計算機システムに蓄積されているオリジナルデータやその平均値だけでなく、それらオリジナルデータ等を編集することによって得られるデータ分布特徴を自動的かつ定量的に抽出して認識し、その特徴量に基づいて半導体等の低歩留り要因を抽出し、評価するデータ解析方法およびデータ解析装置に関する。
【0003】
また、複数の説明変数が互いに交絡(独立でなくなる)してしまい、有意差の抽出が困難になる場合に対処し、より効率的かつ信頼性のある解析結果を得るためにデータ解析結果の精度等を評価するデータ解析方法およびデータ解析装置に関する。
【0004】
【従来の技術】
半導体データの歩留り解析を例にとって進める。特に、プロセスデータ解析のように、その解析結果から品質、生産性向上の対策決定のための参考データを得ようとする場合には、その精度、信頼度等が重要であり、これについては本願発明者等により既に出願されている(出願番号:特願2001−127534号)。歩留り低下要因をできるだけ速やかに見つけて対策を実施するために、装置履歴、試験結果、設計情報、各種測定データ等から歩留りに効いている要因やその要因に効いている別の要因を見つけるためのデータ解析がおこなわれる。
【0005】
データ解析において、歩留り値のように解析対象となるものを目的変数、目的変数の要因となる装置履歴、試験結果、設計情報、各種測定データ等は説明変数といわれる。その際に各種統計学的手法が適用されるが、そのうちの一つとしてデータマイニングを適用することで、多種大量のデータから判別しにくい価値ある情報や規則性を抽出することができる。
【0006】
半導体デバイスの不良要因を解析するためには、収集されたデータをより多面的に科学的根拠に基づいて解析し、より多くの有意差を抽出するのが重要である。そのため、従来は計算機システムに蓄積されたオリジナルデータの値やその平均値がよく活用されている。しかし、複雑に絡み合ったオリジナルデータ群から不良要因等を抽出するのが困難な場合もある。そのような場合、ウェーハ面内チップやロット内ウェーハの各種測定結果や歩留り等に関して特徴的なデータ分布が存在すれば、それに基づいて不良データの解析が進められる場合がある。
【0007】
【発明が解決しようとする課題】
しかしながら、従来の計算機システムでは、たとえば歩留り値や電気的特性値等のオリジナルデータは蓄積されているが、ウェーハ面内の複数のチップやロット内の複数のウェーハにわたる特徴的なデータ分布はほとんど蓄積されていない。したがって、技術者はオリジナルデータの編集をおこない、各種統計解析ツールや図表作成ツール等を用いてデータ分布状況を取得する必要がある。そして、取得したデータ分布状況を、技術者が有する経験やノウハウ等に照らし合わせて、データの集計や傾向を認識する必要がある。そのため、大量のオリジナルデータの分布に関する特徴量を客観的に把握することは困難である。また、このように技術者の主観が入ったデータ分布の特徴量に基づいて解析を進めても正確な結果が得られないという問題点がある。
【0008】
また、従来は、技術者が各種統計解析ツールや図表作成ツール等により得たデータ分布状況を見て、たとえばその分布に、ある特徴が「ある」か「ない」か、ある特徴の増減傾向が「増大である」か「減少である」か、ある特徴に2の周期性が「ある」か「ない」か、またはある特徴に3の周期性が「ある」か「ない」か、などというように、データ分布の特徴量を離散値で表している。そのため、ある特徴がどの程度ある(または、ない)のか、あるいはある特徴がどの程度増大傾向(または、減少傾向)にあるのか、というような程度を表す情報が欠落してしまう。また、たとえばある特徴が、ある程度の2の周期性とある程度の3の周期性を同時に有するような場合、より程度が強い方の周期性しか認識されないという問題点がある。
【0009】
また、各種試験結果や測定結果、およびそれらの組み合わせまで考慮すると、想定されるデータ分布特徴の組み合わせは膨大になり、それらすべてについて調査するのは極めて困難である。しかも、抽出したデータ分布特徴に対応する不良要因は必ずしも既知のものではないし、また既知でない不良要因を判別するには多くの経験やノウハウが必要であるという問題点もある。
【0010】
また、実際に、たとえば半導体データの歩留り解析にデータマイニングを適用してみても、うまく行かない場合がある。金融や流通などの分野での適用では、何百万件もの膨大なデータ件数があり、説明変数の数はせいぜい数十であるため、精度の高い分析結果が得られた。ところが半導体プロセスデータ解析の場合はデータ件数が少なく、同じ品種では多くても200ロット程度であるにもかかわらず、説明変数の数は数百にも達し(装置履歴、工程内検査値等)、複数の説明変数が独立ではなくなってしまい、単純にデータマイニングをおこなっただけでは信頼できる結果が得られないことがある。以下に、これについて半導体データの歩留り解析を例にとって簡単に説明する。
【0011】
データ数(例:ロット数)に比較して説明変数(例:LSI製造工程データ)が多いプロセスデータ解析において、複数の説明変数が互いに交絡(独立でなくなる)してしまい、統計的有意差による問題点が十分絞り込めないことが多くある。データマイニング(回帰木分析など)を適用した場合においても、この問題がある場合には、かなり手間をかけて分析結果の精度、信頼できる範囲の確認が必要となる。
【0012】
図40は、ロットの流れと異常製造装置の関係を示す。白丸“○”は正常装置101を示し、黒丸“●”は異常装置102を示す。矢印はロットの流れを示す。LSI製造データにおける装置間差の解析は、各ロットの工程ごとの使用装置データから、どの製造工程でどの製造装置を使用すると歩留りが最も影響を受けるかを抽出する。
【0013】
図41は、従来技術によるある工程での装置別歩留り分布(箱ヒゲ図)を示す。各製造工程ごとに使用した装置ごとにそのロットの歩留り値を箱ヒゲ図で表示し、各工程について確認していき、最も差が顕著な工程とその装置を同定する。
【0014】
しかし、この手法では工程数が数百となった現在では大きな工数を要し、また差異が明確に出ない場合や条件が複雑に絡み合った場合などはなかなか判断が付きにくい。これらに対処するために回帰木分析によるデータマイニング手法が有効であり、目的変数の値が高くなる使用装置群と低くなる使用装置群に分割する。図42のようにロットごとに使用される装置を固定してロットを流した場合、黒丸“●”で示す異常装置102が一意に同定できないことがある。すなわち、説明変数間の独立性が低い場合は、集合の2分割による有意差が大となるものが必ずしも“真に有意差が大”であるとは限らない。
【0015】
以上が、半導体製造の各工程における使用装置における交絡であるが、回帰木分析結果として2分割された集合の交絡についても同様である。すなわち、各工程ごとに高歩留りが生じている装置群と低歩留りが生じている装置群からなる集合についても同じことがいえる。この2分割された集合の交絡については、説明変数が連続値である場合も同様である。
【0016】
本発明は、上記問題点に鑑みてなされたものであって、オリジナルデータを編集して各種統計値等のデータ分布特徴量を抽出し、それを客観的に認識して活用することにより、不良要因等の抽出を自動的におこなうデータ解析方法を提供することを目的とする。また、複数の説明変数間の交絡の度合いを明確にすることができるデータ解析方法およびデータ解析装置を提供することを本発明の目的に含めることができる。
【0017】
【課題を解決するための手段】
上記目的を達成するため、本発明は、計算機システムに蓄積されているオリジナルデータ群内に存在する種々のデータ分布特徴を自動的かつ定量的に評価して抽出し、その抽出された各特徴量を順次選択して解析をおこなうことにより、各特徴量が生じた要因を自動的かつ定量的に評価して抽出することを特徴とする。この発明によれば、オリジナルデータからデータ分布の傾向や特徴的パターンやデータ間の関連性などの多くの情報が抽出されるので、従来は多種多様なデータに埋もれて判別が困難であった関連性や有意差が効率的に科学的根拠に基づいて定量的に抽出される。
【0018】
また、複数の説明変数間の交絡の度合いを明確にするため、説明変数および目的変数のデータ結果を準備するステップと、そのデータ結果を基に複数の説明変数間の交絡度および/または独立度を演算するステップと、交絡度および/または独立度を用いてデータマイニングをおこなうステップとを有するデータ解析方法が提供される。複数の説明変数間の交絡度および/または独立度を演算することにより、説明変数の交絡の度合いを明確に把握できる。これを基に回帰木分析をおこなえば、回帰木分析の集合の2分割結果に基づき、説明変数の交絡度を定量的に評価できるようになり、回帰木における最初の分岐の有意差が大きい問題となる説明変数に交絡している注意すべき説明変数を明確化することが可能となる。
【0019】
【発明の実施の形態】
以下に、本発明の実施の形態1、2について図面を参照しつつ詳細に説明する。
【0020】
(実施の形態1)
図1は、本発明の実施の形態1にかかるデータ解析方法の実施に供せられる計算機システムのハードウェア構成の一例を示す図である。この計算機システムは、図1に示すように、入力装置1、中央処理装置2、出力装置3および記憶装置4から構成される。
【0021】
図2は、図1に示す構成の計算機システムにより実現されるデータ解析装置の機能構成の一例を示すブロック図である。このデータ解析装置は、図2に示すように、複数のオリジナルデータを含むデータベース41からなるオリジナルデータ群42を有する。このデータベース41は、図1に示す計算機システムの記憶装置4において構築されている。
【0022】
また、データ解析装置は、オリジナルデータ群42の中に存在する1以上のデータ分布特徴を定量的に評価して抽出する手段21、抽出した1以上のデータ分布特徴量の中から解析対象とする特徴量を選択する手段22、解析対象に選択したデータ分布特徴量を目的変数として回帰木分析手法などによるデータマイニングをおこない、データ分布に潜む特徴や規則性などのルールファイル24を抽出する手段23、抽出したルールファイル24を用いてオリジナルデータの分布特徴を解析する統計解析コンポーネント25や図表作成コンポーネント26などの解析ツール群27を備える。
【0023】
以上の各手段21,22,23および解析ツール群27は、それぞれの処理をおこなうためのプログラムを中央処理装置2で実行することにより実現される。抽出されたルールファイル24は記憶装置4に記憶されるとともに、表示装置や印刷装置などの出力装置3により出力される。意思決定5は解析ツール群27による解析結果に基づいてなされる。
【0024】
また、上述したルールファイル24を抽出する手段23は、オリジナルデータ群42の中のオリジナルデータ、データ分布特徴を抽出する手段21により抽出されたデータ分布特徴、または解析ツール群27による解析結果に対してもデータマイニングをおこなうようになっている。また、解析ツール群27は、オリジナルデータ群42の中のオリジナルデータ、データ分布特徴を抽出する手段21により抽出されたデータ分布特徴、または解析ツール群27の出力結果に対しても解析をおこなうようになっている。また、解析ツール群27による解析結果は、解析対象となるデータ分布特徴量を選択する手段22やオリジナルデータ群42にフィードバックされる。また、オリジナルデータ群42には、データ分布特徴を抽出する手段21の出力がフィードバックされる。
【0025】
図3は、たとえば図2のデータ分布特徴を抽出する手段21により抽出されたデータ分布特徴量をCSV形式で出力した例を示す。各特徴量はレコードごとに独立して求められるので、独立して扱われる。たとえば図3に示すように、各特徴量はCSV形式で自動的に出力されるので、各特徴量ごとに効率的に有意な解析をおこなうことが可能となる。ここで、特徴量となるデータは、オリジナルデータ値やその平均値だけでなく、オリジナルデータの最大値、最小値、レンジまたは標準偏差値等でもよい。また、データの周期性や特定モデルとの類似度などを特徴量のデータとしてもよい。
【0026】
ここで、対象とするデータ群の構造によって様々な特徴を抽出することができるが、目的に合わせてどのような特徴量を抽出するかという処理をあらかじめプログラムに組み込んでおくか、あるいは抽出する特徴量を定義したファイルを用意して、そのファイルを読むようにしてもよい。いずれの特徴量も、離散値ではなく、その特徴がどの程度の強さであるかという連続値で定義される。したがって、従来のように離散値化による情報の欠落が生じないので、より良好な解析結果が期待される。
【0027】
データ分布特徴量の一例として、半導体データの歩留り解析におけるロット内データ分布の特徴について説明する。図4は、ウェーハの属性値の変動に着目した情報を示す一覧表である。ここでは、独立変数はウェーハ番号であり、従属変数は歩留り、カテゴリ歩留りまたは各種測定値等のオリジナルデータである。
【0028】
特に限定しないが、図4に示す例では、(1)データ分布全体の中心、(2)データのばらつき、(3)ウェーハ番号に対するデータの相関、(4)一次近似した時のy軸切片、(5)ウェーハ番号に対するデータの傾き、(6)周期2(枚)の強さ、(7)周期3(枚)の強さ、(8)ロット内で最も強い周期、(9)前半ウェーハ−後半ウェーハの平均値の差、(10)前半ウェーハ−後半ウェーハのばらつきの差、(11)前半ウェーハ−後半ウェーハの相関の差、(12)前半ウェーハ−後半ウェーハの一次近似y軸切片の差、(13)前半ウェーハ−後半ウェーハの傾きの差、(14)後半ロットの周期2(枚)の強さ、(15)後半ロットの周期3(枚)の強さ、および(16)後半ロットの最も強い周期、の16個の特徴項目が定義されている。各特徴項目の特徴量はロット単位で求められる。
【0029】
ここで定義された16個の特徴項目について簡単に説明する。(1)の特徴量は同一ロット内の全ウェーハの歩留りや各種測定値等の平均値である。(2)の特徴量は同一ロット内の全ウェーハの歩留りや各種測定値等の標準偏差値である。(3)の特徴量は同一ロット内のウェーハのウェーハ番号と歩留りや各種測定値等との相関係数であり、この相関係数の算出の仕方はあらかじめ解析の対象や目的などに照らし合わせて決められている。(4)の特徴量は同一ロット内のウェーハのウェーハ番号をxとし、歩留りや各種測定値等をyとし、xとyの関係を一次式y=b・x+aに近似した時のy軸切片の値である。
【0030】
(5)の特徴量は同一ロット内のウェーハのウェーハ番号をxとし、歩留りや各種測定値等をyとし、xとyの関係を一次式y=b・x+aに近似した時の母回帰係数である。(6)の特徴量は同一ロット内の全ウェーハの歩留りや各種測定値等の分散と、ウェーハ番号が1、3、5、・・・のウェーハ群またはウェーハ番号が2、4、6、・・・のウェーハ群の歩留りや各種測定値等の分散との比である。(7)の特徴量は同一ロット内の全ウェーハの歩留りや各種測定値等の分散と、ウェーハ番号が1、4、7、・・・のウェーハ群、ウェーハ番号が2、5、8、・・・のウェーハ群またはウェーハ番号が3、6、9、・・・のウェーハ群の歩留りや各種測定値等の分散との比である。(8)の特徴量は同一ロット内のウェーハについて、上記(6)や(7)のようにして求めた周期2(枚)や3(枚)の分散比、同様にして求められる周期4(枚)や5(枚)、・・・などの分散比のうち、分散比が最大となる周期の値である。
【0031】
(9)の特徴量は、同一ロット内の全ウェーハ(たとえば50枚)を前半(たとえば25枚)と後半(たとえば25枚)に分け、前半ウェーハ群の歩留りや各種測定値等の平均値と後半ウェーハ群の歩留りや各種測定値等の平均値との差である。このように前半と後半に分けるのは、半導体製造プロセスにおいて装置履歴が異なるからである。(10)の特徴量は、前半ウェーハ群の歩留りや各種測定値等の標準偏差値と後半ウェーハ群の歩留りや各種測定値等の標準偏差値との差である。(11)の特徴量は前半ウェーハ群の相関係数と後半ウェーハ群の相関係数との差である。(12)の特徴量は前半ウェーハ群の一次近似y軸切片の値と後半ウェーハ群の一次近似y軸切片の値との差である。
【0032】
(13)の特徴量は前半ウェーハ群の母回帰係数と後半ウェーハ群の母回帰係数との差である。(14)の特徴量は後半ロット群について上記(6)と同様の周期2に関する分散比である。(15)の特徴量は後半ロット群について上記(7)と同様の周期3に関する分散比である。(16)の特徴量は後半ロット群について上記(8)と同様に分散比が最大となる周期の値である。なお、前半ロット群についても上記(14)〜(16)のように周期2(枚)の強さ、周期3(枚)の強さ、最も強い周期を定義してもよい。また、ここで例示した特徴項目に限らず、解析の対象や目的などに応じて種々の特徴項目が定義される。
【0033】
上述したような特徴項目を定義して解析することによって、たとえば従来のように歩留り値等のオリジナルデータ値やその平均値を用いて解析しただけでは使用装置による有意差を抽出できない場合でも、使用装置による有意差を抽出することが可能となる場合がある。たとえば、複数のロットについてロット内ウェーハの歩留り値のばらつき(上記(2)に対応)に注目した例を図5に示す。
【0034】
図5に示す例では、工程1で21号機、22号機、24号機または25号機を使用したロット群6(図5の一点鎖線の左側)と28号機を使用したロット群7(図5の一点鎖線の右側)とでは、ウェーハ歩留りの平均値や全体の分布(ロット間ばらつき)はほとんど同じである。したがって、ウェーハ歩留りの値やその平均値を用いて解析しても明らかな有意差は認められない。それに対して、各ロット内でのウェーハ歩留り値のばらつきというデータ分布の特徴量に注目すると、2つのロット群6,7の間には明らかな有意差が認められる。注目する項目は上記(2)の項目に限らず、上記(1)の項目、上記(3)〜(16)のいずれかの項目、またはその他の項目であってもよい。
【0035】
上述したように各データ分布特徴量は各ロットの属性値として存在するので、前記データ分布特徴量を選択する手段22は、各データ分布特徴量を順次目的変数として選択する。そして、データマイニングをおこなってルールファイル24を抽出する手段23は、各データ分布特徴量を順次目的変数として回帰木分析をおこなう。それによって、そのデータ分布特徴量が生じた要因の判別が可能となり、従来の解析方法よりも多くの不良要因を抽出することができる。その際、データ分布特徴量を順次選択する処理および回帰木分析処理はプログラムにしたがって自動的に実行されるので、技術者はどのデータ分布特徴量を目的変数に選択するかを考えずに済み、解析を効率的におこなうことができる。特に何を解析すべきかが不明な場合には有効である。
【0036】
また、同一レコードに、周期2(枚)の強さと周期3(枚)の強さの両方が存在する場合のように、複数の特徴パターンが見られる場合でも、両方の特徴を評価することが可能となるので、情報量の欠落をなくしてより実状を反映した解析結果が得られる。
【0037】
つぎに、本発明の実施の形態1にかかるデータ解析方法の流れについて説明する。図6は、本発明にかかるデータ解析方法の一例の概略を示すフローチャートである。図6に示すように、このデータ解析方法が開始されると、まずオリジナルデータ群42の中から解析の対象とするデータ、たとえば歩留り値や各種測定値等が選択されて抽出される(ステップS1)。つづいて、抽出されたデータに対して1以上のデータ分布特徴を抽出する処理がおこなわれる(ステップS2)。
【0038】
そして、解析対象とするデータ分布特徴量が選択され、それを目的変数として回帰木分析等のデータマイニングがおこなわれる(ステップS3)。ステップS2で抽出されたすべてのデータ分布特徴について回帰木分析が終了したら(ステップS4)、分析結果が出力され、技術者はその確認をおこなう(ステップS5)。そして、技術者は、分析結果に基づいて意思決定をおこなう(ステップS6)。
【0039】
つぎに、本発明の特徴をより明らかにするため、データ分布特徴量を用いたデータ解析方法について具体例を挙げて説明する。一般に、同一ロット内のウェーハ群でもウェーハ番号が異なるとウェーハ単位の歩留り値や電気的特性値は異なり、それらの値はいろいろな変動パターンを示す。歩留り値や電気的特性値はウェーハ単位で保存されている。そのため、本実施の形態1では、このように複数のロットにわたってウェーハ番号に対する歩留り値等の変動パターンをデータ分布特徴として解析をおこなうことができる。ここでは、製品の性能に大きな影響を及ぼす重要な電気的特性であるテスト用代用Nchトランジスタスレッシュホールド電圧VT_N2(以下、単にVT_N2とする)について、多面的な解析をおこなう例を示す。なお、歩留りには各製造工程での使用装置履歴が効果があるとする。
【0040】
図7は歩留りとVT_N2との関係を示す特性図であるが、同図より歩留りとVT_N2とは一見して無関係のように見える。また、図8はすべてのウェーハから得られたVT_N2データのヒストグラムであり、図9は全VT_N2データをウェーハ番号ごとに表示した箱ヒゲ図である。これらの図に示す結果から統計的有意差を抽出するのは困難である。
【0041】
また、図10は、目的変数を各ロットにおけるVT_N2の平均値とし、説明変数を各工程で使用した装置名として回帰木分析をおこなった結果の例を示す図であり、図11はこの回帰木分析の信頼度情報を表す評価用統計値リストの例を示す図である。この回帰木分析結果によれば、図10に示すように、VT_N2の変動に対して最も有意とされるのは第2配線_装置として、11号機または13号機を使用したか、あるいは12号機、14号機、17号機または18号機を使用したかということである。全VT_N2データを第2配線_装置の使用装置名ごとに表示した箱ヒゲ図を図12に示すが、同図においては顕著な有意差が見られない。なお、評価用統計値リストは回帰木図とともに出力されるが、これについては後述する。
【0042】
また、図13は、目的変数を各ウェーハのVT_N2の値とし、説明変数を各工程で使用した装置名として回帰木分析をおこなった結果の例を示す図であり、図14はこの回帰木分析に対する評価用統計値リストの例を示す図である。この回帰木分析結果によれば、図13に示すように、VT_N2の変動に対して最も有意とされるのは2CON工程_装置として、11号機を使用したか、あるいは12号機または13号機を使用したかということである。図15は、全VT_N2データを2CON工程_装置の使用装置名ごとに表示した箱ヒゲ図であるが、この図においても顕著な有意差は見られない。
【0043】
それに対して、以下のようにVT_N2についてデータ分布特徴を抽出して解析をおこなうことにより不良要因の解明が可能となる。図16は、ロットごとにVT_N2の各特徴量を定義したファイルの一例をCSV形式で示す図表である。このファイルは、図2に示す装置のデータ分布特徴を抽出する手段21により出力される。
【0044】
図17は、図16に示すCSV形式データに基づいてVT_N2の種々のロット内分布の特徴量を示すヒストグラムである。ここでは、VT_N2について、図4に関連して説明した(1)〜(16)の16個の特徴項目のうち、(1)平均値(VT_N2_ave)、(2)標準偏差値(VT_N2_s)、(3)ウェーハ番号に対する相関係数(VT_N2_r)、(4)一次近似式のy軸切片(VT_N2_a)、(5)母回帰係数(VT_N2_b)、(6)ウェーハ番号の間隔2の周期性(VT_N2_2)、(7)ウェーハ番号の間隔3の周期性(VT_N2_3)、(9)前半ウェーハと後半ウェーハの平均値の差(VT_N2_ave_d)、(10)前半ウェーハと後半ウェーハの標準偏差値の差(VT_N2_s_d)、(11)前半ウェーハと後半ウェーハの相関係数の差(VT_N2_r_d)、(12)前半ウェーハと後半ウェーハの一次近似式のy軸切片の差(VT_N2_a_d)、(13)前半ウェーハと後半ウェーハの母回帰係数の差(VT_N2_b_d)、の12個が抽出されている。
【0045】
図17より、いずれの特徴量もかなりばらついていることがわかる。したがって、各特徴量を目的変数として回帰木分析をおこなえば、それぞれの特徴量に有意差が生じた要因、すなわち不良要因等を解析することができる。
【0046】
データ分布特徴を解析対象として効率的に解析結果を得るために、回帰木分析の入力データとして、図18に示すように、ロットごとに、各工程での使用装置名と、抽出された特徴量とが定義されたファイルが作成される。このファイルは、歩留りの変動要因を回帰木分析で解析する際の入力データとして各工程での使用装置名とロット歩留りを定義したルールファイル24(図19参照)と、図16に示すファイルとを同一ロット番号について結合したものである。
【0047】
図20は、図18に示すファイルに基づいて、上述した(2)標準偏差値(VT_N2_s)を目的変数とし、各工程での使用装置名を説明変数として、VT_N2のロット内で生じているばらつきの要因を抽出するためにおこなった回帰木分析結果を示す回帰木図である。また、図21は、この回帰木分析に対する評価用統計値リストの例を示す図である。
【0048】
図20に示す回帰木図によれば、VT_N2の標準偏差値(VT_N2_s)の変動に対して最も有意とされるのはField_Ox工程_装置として、PM1号機またはPM3号機を使用したか、あるいはPM2号機を使用したかということである。これは、評価用統計値リストのS比およびt値等について、1番目に出てくるField_Ox工程_装置のそれぞれの値(S比=0.3767、t=3.081)と、2番目以降に出てくる第2配線_装置やDRY工程_装置のそれぞれの値(S比>0.43、t<2.2)とを比較すると、明らかに有意差が見られることから、信頼度が高いと判断される。
【0049】
これを確認するため、図22に、Field_Ox工程で使用した装置ごとにVT_N2の値の分布を箱ヒゲ図で示す。図22では、PM1号機またはPM3号機と、PM2号機との間には明らかな有意差が確認される。つまり、オリジナルデータの分布特徴を用いて解析をおこなうという本発明方法の有効性が確認されたわけである。なお、評価用統計値リスト、S比およびt値については後述する。
【0050】
図23は、図21および図22に示す回帰木分析の結果、問題工程とされたField_Ox工程でPM1号機またはPM3号機を使用した全ウェーハのVT_N2の分布を示すヒストグラムである。図24〜図26は、それぞれField_Ox工程でPM1号機またはPM3号機を使用した別々の1ロット分のウェーハのVT_N2の分布を示すヒストグラムである。また、図27は、Field_Ox工程でPM2号機を使用した全ウェーハのVT_N2の分布を示すヒストグラムであり、図28〜図30は、それぞれField_Ox工程でPM2号機を使用した別々の1ロット分のウェーハのVT_N2の分布を示すヒストグラムである。
【0051】
図23および図27に示すように、PM1号機またはPM3号機を使用した全ウェーハのVT_N2の平均値(μ=0.8560)と、PM2号機を使用した全ウェーハのVT_N2の平均値(μ=0.7302)とは略同じである。そのため、従来のように平均値を用いて解析しても有意差を抽出するのは困難である。
【0052】
しかし、PM1号機またはPM3号機を使用した全ウェーハのVT_N2の標準偏差値(σ=0.0835)と、PM2号機を使用した全ウェーハのVT_N2の標準偏差値(σ=0.2351)とを比較すると明らかに有意差が見られる。したがって、実施の形態1のように、オリジナルデータのばらつき等のデータ分布特徴に着目することにより、オリジナルデータのみを解析対象としていたのでは抽出できなかった有意差をあらたに不良要因として抽出することが可能となる。
【0053】
上述した解析結果に基づいて実際にPM2号機について詳細な調査をおこなった結果、PM1号機およびPM3号機に比べて炉内の温度分布差が大きいことが判明した。さらに、それは熱電対劣化に起因することがわかり、定期点検方法の最適化がおこなわれた。ところで、ロット歩留りを目的変数とし、各工程での使用装置名を説明変数として回帰木分析をおこなった結果では、PM2号機が歩留り低下要因であることは明らかにならなかった。つまり、歩留り値に明確に現れていなかった低歩留り要因が、ロット内の電気的特性値の標準偏差等に有意差が生じる要因を解析するという本発明方法により明らかにされたわけである。なお、実施の形態1では、蓄積されたデータの編集、回帰木分析の実行、独自な手法によるその結果の定量的な評価までが自動的に実行される。
【0054】
図31は、図18に示すファイルに基づいて、上述した(6)ウェーハ番号の間隔2の周期性(VT_N2_2)を目的変数とし、各工程での使用装置名を説明変数として回帰木分析をおこなった結果を示す回帰木図である。また、図32は、この回帰木分析に対する評価用統計値リストの例を示す図である。図31に示す回帰木図によれば、VT_N2_2のロット内変動が2の周期性を有することに対して最も有意とされるのは、F拡散工程_装置としてF7号機を使用したか、あるいはF5号機、F6号機、F8号機またはF9号機を使用したかということである。F7号機を使用した方が50%程度強く2の周期性を示すことがわかる。
【0055】
これを確認するため、図33に、F拡散工程で使用した装置ごとに2の周期性の値(VT_N2_2)の分布を箱ヒゲ図で示す。図33では、F7号機と、F5号機、F6号機、F8号機またはF9号機との間には明らかな有意差が確認される。なお、全VT_N2データをウェーハ番号ごとに表示した図9の箱ヒゲ図からは、2の周期性を見ることはできない。この例でも、オリジナルデータの分布特徴を用いて解析をおこなうという本発明方法の有効性が確認されたわけである。
【0056】
図34〜図36は、図31および図32に示す回帰木分析の結果、問題工程とされたF拡散工程でF7号機を使用した別々の1ロット分のウェーハについてVT_N2のロット内変動を示すヒストグラムである。図37〜図39は、F拡散工程でF5号機、F6号機、F8号機またはF9号機を使用した別々の1ロット分のウェーハについてVT_N2のロット内変動を示すヒストグラムである。上述した解析結果より、VT_N2のロット内変動の要因が抽出され、ウェーハが交互に使用される装置であるF拡散工程の装置が注目され、実際に2つのチャンバーのうちの一方でパーティクルの発生が多いことが判明した。
【0057】
ところで実施の形態1では、回帰木分析は説明変数を同じにして抽出された各特徴量を順次目的変数に選択して、自動的に回帰木分析をおこない、それによって各特徴量を左右する要因がそれぞれについて抽出される。特に何を解析すべきかが明確となっていない場合には、考えられるすべての特徴量を抽出し、それらを目的変数として回帰木分析を実行する。その結果、上述したように種々の解析結果が得られるので、その中で最も有意差が大とみなされる項目を歩留り改善のための対策項目の候補とする。このように従来の解析方法では容易に抽出されなかった多くの有意差が効率的に抽出される。
【0058】
ここで、回帰木分析および評価用統計値リストについて説明する。まず、回帰木分析について簡単に説明する。回帰木分析は、複数の属性を示す説明変数とそれにより影響を受ける目的変数からなるレコードの集合を対象とし、その目的変数に最も影響を与える属性と属性値を判別するものである。データマイニングをおこなってルールファイル24を抽出する手段23(回帰木分析エンジン)からはデータの特徴や規則性を示すルールが出力される。
【0059】
回帰木分析の処理は、各説明変数(属性)のパラメータ値(属性値)に基づいて集合の2分割を繰り返していくことで実現される。その集合分割の際、分割前の目的変数の平方和をS0、分割後の2つの集合のそれぞれの目的変数の平方和をS1およびS2としたとき、式(1)で示すΔSが最大となるように、分割するレコードの説明変数とそのパラメータ値を求める。
【0060】
ΔS=S0−(S1+S2) ・・・(1)
【0061】
ここで得られる説明変数とそのパラメータ値は、回帰木では分岐点に対応している。以降、分割された集合についても同様な処理を繰り返し、説明変数の目的変数に対する影響を調べる。以上が、一般によく知られている回帰木分析の手法であるが、集合分割の明確さをより詳しく把握するために、複数の上位分割候補に関して、ΔSの他に以下のパラメータ(a)〜(d)も回帰木分析結果の定量的な評価として使用する。これらのパラメータは評価用統計値リストとして出力される。
【0062】
(a)S比:
集合分割による平方和の低減率であり、集合分割により平方和がどの程度低減したかを示すパラメータである。この値が小さいほど集合分割の効果は大きく、集合分割が明確におこなわれているので、有意差が大である。
【0063】
S比=((S1+S2)/2)/S0 ・・・(2)
【0064】
(b)t値:
回帰木分析エンジンにより集合が2分割されるが、分割された2つの集合の平均(/X1,/X2)の差の検定のための値である。ここで、“/”は上線を示す。統計のt検定は、分割された集合における目的変数の平均値の有意差を示す基準となる。自由度、すなわちデータ数が同じであるなら、tが大きいほど集合が明確に分割されており、有意差が大である。
【0065】
この際、分割された集合の分散に有意差がない場合にはつぎの(3)式によりt値を求め、分割された集合の分散に有意差がある場合には(4)式によりt値を求める。ここで、N1およびN2は、それぞれ分割した集合1および集合2の要素数である。また、/X1および/X2はそれぞれ分割後の各集合の平均である。S1およびS2は、それぞれ分割後の各集合の目的変数の平方和である。
【0066】
【数1】

Figure 0004866520
【0067】
【数2】
Figure 0004866520
【0068】
(c)分割された集合の目的変数の平均値の差:
この値が大きいほど有意差が大である。
【0069】
(d)分割された各集合のデータ数:
両者の差が小さいほど異常値(ノイズ)による影響が小である。
【0070】
上述した実施の形態1によれば、従来のようにオリジナルデータやその平均値だけでなく、オリジナルデータのばらつきやロット内変動パターンなど、オリジナルデータ群内に存在する種々のデータ分布特徴を抽出し、各特徴量を順次目的変数に選択して解析をおこなうことにより、各特徴量が生じた要因を自動的かつ定量的に評価して抽出し、データをより多面的にみて多くの情報を抽出することができる。したがって、従来は多種多様なデータに埋もれて判別が困難であった関連性や有意差を、技術者の主観によらずに客観的に、また効率的に定量的に抽出することができる。
【0071】
また、実施の形態1では、特徴量の抽出からその要因抽出までの一連の手順が自動的におこなわれるので、所定の設定をしておくことによって自動的に半導体製造ライン等の変動状況やその要因を絶えず監視することが可能となる。
【0072】
なお、本発明は上述した実施の形態1に限らず、適用範囲が広い。たとえば新品種の立ち上げ時などで、悪化原因がたくさんあり、歩留りの悪いロットが多発している状況では、オリジナルデータやその平均値を用いた原因工程の調査だけでなく、ロットやウェーハ内のデータ分布特徴からの原因工程調査をおこなうことによって、隠れていた原因を見つけたり、原因の絞り込みをおこなうことが可能となる。
【0073】
(実施の形態2)
図56は、本発明の実施の形態2によるデータマイニングを導入したデータ解析装置の機能構成の一例を示す図である。データマイニング部1703は、オリジナルデータ群1701内の各データベース1702から抽出された個々のオリジナルデータに基づいて、データ内に潜む特徴や規則性の抽出処理を行い、ルールファイル1704を作成する。解析ツール群1705は、統計解析コンポーネント1706および図表作成コンポーネント1707等を有し、ルールファイル1704を基にデータベース1702から抽出された個々のオリジナルデータを解析する。
【0074】
その解析結果は、解析ツール群1705およびデータマイニング部1703にフィードバックされる。データマイニング部1703は、解析ツール群1705の解析結果およびオリジナルデータ群1701を基にデータマイニングをおこなう。解析ツール群1705は、ルールファイル1704、データベース1702から抽出された個々のオリジナルデータ、および自己の解析結果を基に解析をおこなう。意思決定(部)1708は、解析ツール群1705の解析結果を基に意思決定をおこなう。
【0075】
歩留りデータ解析においてデータマイニングを適用した場合、データマイニング結果に基づいて歩留り向上のための対策を決定したり、対策を実施すべきか否かの判定をおこなったり、対策効果の予測をおこなったりすることになる。そのためには、データマイニング結果の定量的な評価や精度が必要となる。
【0076】
データマイニングの一手法である判別木分析のうち、回帰木分析は特に有効である。回帰木分析の利点の一つは、結果がわかりやすいルールとして出力されることであり、それは一般的な言語やSQL言語のようなデータベース言語であらわされる。したがって、これらの結果の信頼度、精度を有効に使い、その結果により有効な意思決定をおこなったり、行動(すなわち対策等)を起こすようにすることが可能となる。
【0077】
図43に回帰木分析の入力となるデータ例の形式を示す。レコードはウェーハ番号単位であり、各レコードは各製造工程での使用装置411、電気的特性データ412とウェーハ歩留り413を有する。説明変数401は、使用装置411および電気的特性データ412等である。目的変数402は、歩留り413である。たとえば、歩留りに効果があるのは、使用装置411と電気的特性データ412であるとする。このデータによる回帰木分析結果である回帰木図と評価用統計値リストを図44、図45に示す。
【0078】
図44は、回帰木分析結果である回帰木図である。ルートノードn0は、ノードn1およびn2に2分割される。ノードn1は、ノードn3およびn4に2分割される。ノードn2は、ノードn5およびn6に2分割される。ノードn6は、ノードn7およびn8に2分割される。
【0079】
図45は、第1の2分割時の説明変数の評価用統計値である。たとえば、全集合の目的変数の平均値Aveが75であり、標準偏差sが12であり、データ数Nが1000である。リスト601〜604は、それぞれ左から有意差による順位、S比、t値、分割された集合の目的変数の平均値の差、分割された各集合のデータ数、分割された集合の属性名(説明変数)、分割された2つの集合の属性値(パラメータ値)とその目的変数の大小関係を示す。このリスト601〜604は、分割する属性値(説明変数)の(1)式に示すΔSの値によるグループ分けの候補であり、有意差(ΔS)の大きい順に並べてある。図44は、第1候補601を基にノードn0をノードn1およびn2に分割したものである。
【0080】
図44の全ウェーハの集合n0を式(1)のΔSの評価値に基づいて2つの集合n1およびn2に分割をおこなうと、歩留りに最も影響を及ぼすのは工程AでAM1かAM2のいずれかを使うかであり、後者の方が歩留りがよい。以下、分割された集合に対して、同様な集合分割を繰り返していくとこの回帰木図が得られる。工程AでAM2かつ工程CでCM2を使用したウェーハ群に対しては、電気的特性データRSPが90以下の状態が最も効果がある(歩留りが高い)。
【0081】
図46は図44と等価であり、分割されたウェーハ集合の歩留りと特定工程の使用装置と電気的特性データとの相関を示す。図44の回帰木図で上階層に現れる説明変数ほど、目的変数に対する影響は大きい。全ウェーハの平均歩留りは74.8%であるが、使用装置や電気的特性データとの関連で幾つかの集合に分けてみるとこのような特徴、規則性があることを回帰木分析は自動的に抽出し、歩留り解析の手がかりとなる。
【0082】
図44の回帰木図において上位2階層はいずれも使用装置差によるものであるので、全ウェーハを使った解析では歩留りに影響の大きいのは複合条件を含めても使用装置差である。電気的特性データはあまり効いていないように見られる。しかし、工程AでAM2かつ工程CでCM2を使用したウェーハ群について歩留りに最も効くのはRSPであることが図44、図46から読み取れる。
【0083】
つぎに、2分割交絡度、2分割独立度の算出例を説明する。回帰木分析において、目的変数に対して最も有意な説明変数を求めるためにおこなわれた各集合分割状態の交絡度(交絡の状態、独立でない度合い)を統計的に把握し、有意差が大とされた説明変数に交絡している他の説明変数を明確にする。図47を参照しながら、2分割交絡度および2分割独立度の演算方法を説明する。
【0084】
第1に、説明変数のうち、交絡度を評価したいものを基準説明変数801とする。
【0085】
第2に、各レコードは説明変数ごとに“L”または“H”をデータ値とするテーブルを構成する。ここで、Hは回帰木分析時の集合2分割時の目的変数が高い値となる集合、Lは回帰木分析時の集合2分割時の目的変数が低い値となる集合にそれぞれ属する。集合2分割時においては、全レコードの各説明変数について、L,Hが定まる。
【0086】
第3に、基準説明変数801を基に各比較説明変数802のL,Hの一致度の評価値として、L,Hが一致するレコード数をNa、全レコード数をNとし、2分割交絡度DEPを式(5)のように定義する。2分割交絡度DEPの範囲は−1〜1であり、完全に交絡していれば1、全く交絡してなければ0、逆の交絡であれば−1である。
【0087】
DEP=(2×Na/N)−1 ・・・(5)
【0088】
また、2分割交絡度DEPを基に、2分割独立度INDを式(6)のように定義する。2分割独立度INDの範囲は0〜1であり、完全に独立していれば1、全く独立でなければ0である。
【0089】
IND=1−|DEP| ・・・(6)
【0090】
第4に、上記の2分割交絡度DEP、2分割独立度INDを一つの基準説明変数801とその他の説明変数802との間で求め、説明変数間の評価尺度とする。どの説明変数を基準説明変数とするかは任意であるが、その有用性からして回帰木分析において目的変数に対して、特に最上階層での集合分割で有意差が大とされたものとするのが有効である。
【0091】
第5に、上記の2分割交絡度DEPおよび2分割独立度INDを求めることにより、各比較説明変数802がL,Hの各集合に属する状態が基準説明変数801のものとどれだけ差異があるかを定量的に評価できる。
【0092】
2分割交絡度および/または2分割独立度を求めることにより、回帰木分析の集合2分割結果に基づき説明変数の交絡度を定量的に評価できるようになり、回帰木分析と組み合わせて、回帰木分析で得られた有意差が大となる説明変数と交絡している別の説明変数を自動的に抽出することが可能となる。
【0093】
2分割交絡度は、回帰木分析での対象とされたどの説明変数についても評価できるが、その有効性からみて図45の最初の分割候補の上位に挙がった説明変数(=基準説明変数、評価用統計値リストに挙がる)と他の任意の説明変数がどれだけ交絡しているかを統計的に把握し、有意差が大きい説明変数について交絡している注意すべき説明変数を抽出する。基準説明変数801との交絡度を解析しようとする説明変数を、比較説明変数802とし、両者とも図44の評価用統計値リストから選択される。2分割交絡度、2分割独立度の算出例を、図47を参照しながら説明する。
【0094】
図47は、横軸にウェーハ番号803、比較説明変数802、基準説明変数801、歩留り804を示し、縦軸に基準説明変数の高歩留りグループ811、基準説明変数の低歩留りグループ812、2分割交絡度の計算式813、2分割交絡度814、2分割独立度815を示す。
【0095】
図45の上位候補項目(評価用統計値リスト)の中から比較の基準とする項目を基準説明変数801として決める。図47では、ST3が基準説明変数801である。その他の説明変数を比較説明変数802とする。図47では、ST1,ST2,WET2が比較説明変数802である。各比較説明変数802と基準説明変数801とを比較する。説明変数であるST1,ST2,ST3,WET2では、低歩留りグループの“L”をハッチで示し、高歩留りグループの“H”をハッチなしで示す。
【0096】
基準説明変数801であるST3は、その属性値により、基準説明変数の高歩留りグループ811と基準説明変数の低歩留りグループ812に分けることができる。基準説明変数の高歩留りグループ811は10個の集合であり、基準説明変数の低歩留りグループ812も10個の集合である。
【0097】
つぎに、それぞれの説明変数の2分割された高歩留グループと低歩留グループのロットが基準説明変数の同じグループとどれだけ一致しているかを数えてNaとする。たとえば、比較説明変数802であるST1は、基準説明変数の高歩留りグループ811に含まれる高歩留りグループが10個であり、基準説明変数の低歩留りグループ812に含まれる低歩留りグループが2個である。すなわち、比較説明変数であるST1と基準説明変数であるST3とが相互に同じグループに属する数Na=10+2=12である。
【0098】
上記Naを式(5)に代入した式を2分割交絡度の計算式813に示す。ここで、データ数Nは20である。この計算結果を2分割交絡度814に示す。式(6)により求めた値を2分割独立度815として示す。2分割交絡度814および2分割独立度815を、図47の各列の下に示す。
【0099】
2分割交絡度および2分割独立度の基本的活用方法は次の3つである。従来は判別が難しかった説明変数が、以下のように定量的な情報として得られる。
【0100】
(1)有意な説明変数の範囲を確認:
有意性の高い候補と交絡している候補を把握し、これらも有意な説明変数と判断する。交絡度に対する基準は特に無いが、他の説明変数の値と比較して判断できる。また、技術的に対象として考えなくてよい候補が上位に来た場合、この候補に交絡している候補を明確にできる。さらに、意味の無い候補を削除して再度分析して確認できる。
【0101】
(2)独立性の高い候補の確認とその応用:
すべての候補について他の候補との独立度を確認し、他の候補との独立度が十分高い候補がある場合、この候補による歩留り差は他の候補に独立して存在することが明確になる。さらに、この候補の分割グループごとに同様の判別木分析をおこなって比較し、どちらも同様の分析結果が得られる場合は分析結果の信頼性が高いことがわかる。逆に、分析結果が異なる場合は独立と考えられた候補との複合条件で歩留りを左右する説明変数があるか、または特異なデータに左右されている(データ数が少ないことなどが要因)と考えられる。
【0102】
(3)交絡している候補に関する判別木分析:
ある重要と考えられる候補が第1分岐候補に交絡している場合、第1分岐の下層の分岐には現れ難い。その際、他の独立度の高い候補の分割グループによってデータを分割して判別木分析をおこない、この分割グループの下での判別木分析結果を比較する。同様の結果であれば、その重要な候補は第1候補と区別できないが、分析自体は信頼性が高いと考えられる。逆にその重要と考えられる候補が現われ、異なった結果となった場合、この結果も考慮すべきであり、重要と考えられる候補と第1候補とを区別して分析できるデータ解析をさらにおこなう必要が有ると考えられる。
【0103】
つぎに、装置履歴、電気的特性値を説明変数、ウェーハ歩留りを目的変数とする回帰木分析をおこない、回帰木分析結果の第1分岐の上位12候補について2分割交絡度および2分割独立度を求める場合を説明する。
【0104】
本実施の形態2で得られる回帰木図および評価用統計値リストを図48および図49に示す。図48では、ノードn900がノードn901〜n914に分割される。図49は、第1の2分割時の上位12の説明変数の評価用統計値を示す。これにより、集合分岐の12の候補1001〜1012が挙がる。
【0105】
図50は、図49の最上位の第一候補1001として挙がっているST1を基準説明変数1101とし、評価用統計値リストの他の説明変数を比較説明変数1102としたときの2分割交絡度1111および2分割独立度1112を示す。
【0106】
図51は、図49の集合分岐の第三候補1003として挙がっているST3を基準説明変数1201とし、評価用統計値リストの他の説明変数を比較説明変数1202としたときの2分割交絡度1211および2分割独立度1212を示す。
【0107】
図50に示す2分割交絡度が0.75を超えているのはST2,ST4,ST5,ST6,ST10,WET2であり、これらは図48の回帰木図には現れてこないが、歩留りに大きく効いている要因である可能性がある。逆に、図51により、ST3は、2分割独立度が高いことを示している。
【0108】
図51は、図50で2分割独立度が高いとされたST3を基準説明変数とし、他の11の説明変数との2分割交絡度1211および2分割独立度1212を示している。ST3は他のいずれの説明変数とも独立度が高いことを示している。
【0109】
図52および図53は、図49の回帰木分析で有意差が大きいとされた上位12の説明変数同士の2分割交絡度、2分割独立度およびその平均値を示し、説明変数間の関連を一見に把握できる。図52の最下欄は2分割交絡度の平均値1301を示し、図53の最下欄は2分割独立度の平均値1401を示す。
【0110】
つぎに、ST3での使用装置の差は他の説明変数と独立して歩留りに効いていることが判明したので、歩留りが不良となるST3での装置群によるウェーハ群(不良ウェーハ群:S3M2,S3M3を使用)と良好となるST3での装置群によるウェーハ群(良好ウェーハ群、S3M1,S3M4を使用)に分けて別個に回帰木分析をおこなう。その結果としての回帰木図を図54、図55に示す。
【0111】
図54は、不良ウェーハ群による回帰木分析結果を示す回帰木図であり、ノードn1500〜n1506で構成される。図55は、良好ウェーハ群による回帰木分析結果を示す回帰木図であり、ノードn1600〜n1606で構成される。
【0112】
図54の不良ウェーハ群の第一分岐は図48の全ウェーハ群によるものと同じであり、図48の回帰木図の最上階層の不良ウェーハ群はn=39と少ないこともあわせ、歩留りが他に比べて極端に悪いウェーハによりかなり左右されると推察され、解析を困難にしている一因である。図55の良好ウェーハ群では、ST3工程の不良装置により見えにくかった要因があらたに判明したことになる。
【0113】
本実施の形態2によれば、2分割交絡度および2分割独立度を用いて説明変数の交絡の度合いをより明確に把握できるようになり、回帰木分析と組み合わせて、回帰木における最初の分岐の有意差が大きい問題説明変数に交絡している注意すべき説明変数を明確化することが可能となる。
【0114】
さらに、独立性の高い説明変数のグループ分けを応用して再度回帰木分析することによって、回帰木分析の精度(信頼度)および解析効率を向上させ、また、より詳しい分析が可能となる。
【0115】
上述した実施の形態は、コンピュータがプログラムを実行することによって実現することができる。また、プログラムをコンピュータに供給するための手段、たとえばかかるプログラムを記録したCD−ROM等の記録媒体またはかかるプログラムを伝送するインターネット等の伝送媒体も本発明の実施の形態として適用することができる。上記のプログラム、記録媒体および伝送媒体は、本発明の範疇に含まれる。
【0116】
なお、上記実施の形態は、いずれも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
【0117】
(付記1)オリジナルデータ値を編集して前記オリジナルデータ群内に存在する1以上のデータ分布特徴量を定量的に評価して抽出する工程と、
抽出された前記データ分布特徴量の中から任意のデータ分布特徴量を選択して解析をおこなう工程と、
得られた解析結果に基づいて意思決定をおこなう工程と、
を含んだことを特徴とするデータ解析方法。
【0118】
(付記2)オリジナルデータ値を編集して前記オリジナルデータ群内に存在する2以上のデータ分布特徴量を定量的に評価して抽出する工程と、
抽出された個々の前記データ分布特徴量を順次選択して解析をおこなう工程と、
得られた解析結果に基づいて意思決定をおこなう工程と、
を含んだことを特徴とするデータ解析方法。
【0119】
(付記3)前記データ分布特徴量は、特徴の程度を表す連続値で示されることを特徴とする付記1または2に記載のデータ解析方法。
【0120】
(付記4)各レコードに関して各データ分布特徴量は互いに独立であることを特徴とする付記1〜3のいずれか一つに記載のデータ解析方法。
【0121】
(付記5)前記データ分布特徴量を目的変数とするデータマイニングにより解析をおこなうことを特徴とする付記1〜4のいずれか一つに記載のデータ解析方法。
【0122】
(付記6)個々の前記データ分布特徴量をレコードごとにファイルに保存し、前記ファイルから、一部または全部のレコードに対して同じデータ分布特徴量を順次選択して目的変数とし、回帰木分析をおこなうことを特徴とする付記5に記載のデータ解析方法。
【0123】
(付記7)前記各工程は、順次おこなうように組まれたソフトウェアを計算機システムで実行することによって自動的におこなわれることを特徴とする付記1〜6のいずれか一つに記載のデータ解析方法。
【0124】
(付記8)前記データ分布特徴量の一つは、オリジナルデータの配列の順番をxとし、オリジナルデータ値をyとし、xとyの関係を一次式y=b・x+aに近似した時のy軸切片の値aであることを特徴とする付記1〜7のいずれか一つに記載のデータ解析方法。
【0125】
(付記9)前記データ分布特徴量の一つは、オリジナルデータの配列の順番をxとし、オリジナルデータ値をyとし、xとyの関係を一次式y=b・x+aに近似した時の傾きの値bであることを特徴とする付記1〜7のいずれか一つに記載のデータ解析方法。
【0126】
(付記10)前記データ分布特徴量の一つは、オリジナルデータの配列の順番に対するオリジナルデータ値の特定の周期性の強度であることを特徴とする付記1〜7のいずれか一つに記載のデータ解析方法。
【0127】
(付記11)前記データ分布特徴量の一つは、オリジナルデータの配列の順番に対するオリジナルデータ値の最も強い周期性を示す値であることを特徴とする付記1〜7のいずれか一つに記載のデータ解析方法。
【0128】
(付記12)(a)説明変数および目的変数のデータ結果を準備する工程と、
(b)前記データ結果を基に複数の説明変数間の交絡度および/または独立度を演算する工程と、
(c)前記交絡度および/または独立度を用いてデータマイニングをおこなう工程と、
を含んだことを特徴とするデータ解析方法。
【0129】
(付記13)前記ステップ(b)は、回帰木分析により2分割された集合単位で前記交絡度および/または独立度を演算することを特徴とする付記12に記載のデータ解析方法。
【0130】
(付記14)前記ステップ(b)は、回帰木分析により有意差が大きい分割の要因となる複数の説明変数を選択し、該複数の説明変数間の交絡度および/または独立度を演算することを特徴とする付記13に記載のデータ解析方法。
【0131】
(付記15)前記ステップ(b)は、基準となる説明変数とその他の説明変数との間の交絡度および/または独立度を演算する際、回帰木分析により2分割された各集合内の説明変数間のデータの一致と不一致との割合を基に交絡度および/または独立度を演算することを特徴とする付記14に記載のデータ解析方法。
【0132】
(付記16)前記ステップ(c)は、前記交絡度および/または独立度を基に説明変数を取捨選択することによりデータマイニングをおこなうことを特徴とする付記15に記載のデータ解析方法。
【0133】
(付記17)説明変数および目的変数のデータ結果を基に複数の説明変数間の交絡度および/または独立度を演算する演算手段と、
前記交絡度および/または独立度を用いてデータマイニングをおこなうデータマイニング手段と、
を備えたことを特徴とするデータ解析装置。
【0134】
(付記18)前記演算手段は、回帰木分析により2分割された集合単位で前記交絡度および/または独立度を演算することを特徴とする付記17に記載のデータ解析装置。
【0135】
(付記19)前記演算手段は、回帰木分析により有意差が大きい分割の要因となる複数の説明変数を選択し、該複数の説明変数間の交絡度および/または独立度を演算することを特徴とする付記18に記載のデータ解析装置。
【0136】
(付記20)前記演算手段は、基準となる説明変数とその他の説明変数との間の交絡度および/または独立度を演算する際、回帰木分析により2分割された各集合内の説明変数間のデータの一致と不一致との割合を基に交絡度および/または独立度を演算することを特徴とする付記19に記載のデータ解析装置。
【0137】
(付記21)前記データマイニング手段は、前記交絡度および/または独立度を基に説明変数を取捨選択することによりデータマイニングをおこなうことを特徴とする付記20に記載のデータ解析装置。
【0138】
(付記22)(a)説明変数および目的変数のデータ結果を準備する手順と、
(b)前記データ結果を基に複数の説明変数間の交絡度および/または独立度を演算する手順と、
(c)前記交絡度および/または独立度を用いてデータマイニングをおこなう手順と、
をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
【0139】
【発明の効果】
本発明によれば、計算機システムに蓄積されているオリジナルデータ群内に存在する種々のデータ分布特徴を抽出し、各特徴量を順次選択して解析をおこなうことにより、各特徴量が生じた要因を自動的かつ定量的に評価して抽出するため、データをより多面的にみて多くの情報(傾向、特徴的パターン、データ間の関連性等)を抽出することができる。したがって、従来は多種多様なデータに埋もれて判別が困難であった関連性や有意差を、技術者の主観によらずに客観的に、また効率的に定量的に抽出することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1において使用される計算機システムの一例を示す図である。
【図2】図1に示す構成の計算機システムにより実現されるデータ解析装置の機能構成の一例を示すブロック図である。
【図3】本発明の実施の形態1においてデータ分布特徴の抽出により抽出される各特徴量をCSV形式で表した図表である。
【図4】本発明の実施の形態1において半導体データの歩留り解析をおこなう際にロット内データ分布の特徴としてウェーハの属性値の変動に着目した情報を示す図表である。
【図5】複数のロットについてロット内ウェーハの歩留り値のばらつきの様子を示す図である。
【図6】本発明の実施の形態1にかかるデータ解析方法の一例の概略を示すフローチャートである。
【図7】具体例として歩留りとVT_N2との関係を示す特性図である。
【図8】具体例としてすべてのウェーハから得られたVT_N2データのヒストグラムを示す図である。
【図9】具体例として全VT_N2データをウェーハ番号ごとに表示した箱ヒゲ図を示す図である。
【図10】具体例として目的変数を各ロットにおけるVT_N2の平均値とし、説明変数を各工程で使用した装置名として回帰木分析をおこなった結果を示す図である。
【図11】図10に示す回帰木分析結果に対する評価用統計値リストの例を示す図である。
【図12】具体例として全VT_N2データを第2配線_装置の使用装置名ごとに表示した箱ヒゲ図を示す図である。
【図13】具体例として目的変数を各ウェーハのVT_N2の値とし、説明変数を各工程で使用した装置名として回帰木分析をおこなった結果を示す図である。
【図14】図13に示す回帰木分析結果に対する評価用統計値リストの例を示す図である。
【図15】具体例として全VT_N2データを2CON工程_装置の使用装置名ごとに表示した箱ヒゲ図を示す図である。
【図16】具体例としてロットごとにVT_N2の各特徴量を定義したファイルを示す図表である。
【図17】具体例としてVT_N2のロット内分布の各特徴量のヒストグラムを示す図である。
【図18】具体例としてVT_N2のロット内分布の特徴量について回帰木分析をおこなうためのファイルを示す図表である。
【図19】具体例として歩留りの変動要因を回帰木分析で解析するための入力ファイルを示す図表である。
【図20】具体例として目的変数を各ロットにおけるVT_N2の標準偏差値とし、説明変数を各工程で使用した装置名として回帰木分析をおこなった結果を示す図である。
【図21】図20に示す回帰木分析結果に対する評価用統計値リストの例を示す図である。
【図22】具体例として全VT_N2データをField_Ox工程_装置の使用装置名ごとに表示した箱ヒゲ図を示す図である。
【図23】具体例としてField_Ox工程でPM1号機またはPM3号機を使用した全ウェーハのVT_N2のヒストグラムを示す図である。
【図24】具体例としてField_Ox工程でPM1号機またはPM3号機を使用した1ロット分のウェーハのVT_N2のヒストグラムを示す図である。
【図25】具体例としてField_Ox工程でPM1号機またはPM3号機を使用した1ロット分のウェーハのVT_N2のヒストグラムを示す図である。
【図26】具体例としてField_Ox工程でPM1号機またはPM3号機を使用した1ロット分のウェーハのVT_N2のヒストグラムを示す図である。
【図27】具体例としてField_Ox工程でPM2号機を使用した全ウェーハのVT_N2のヒストグラムを示す図である。
【図28】具体例としてField_Ox工程でPM2号機を使用した1ロット分のウェーハのVT_N2のヒストグラムを示す図である。
【図29】具体例としてField_Ox工程でPM2号機を使用した1ロット分のウェーハのVT_N2のヒストグラムを示す図である。
【図30】具体例としてField_Ox工程でPM2号機を使用した1ロット分のウェーハのVT_N2のヒストグラムを示す図である。
【図31】具体例として目的変数をウェーハ番号の間隔2の周期性の値とし、説明変数を各工程で使用した装置名として回帰木分析をおこなった結果を示す図である。
【図32】図31に示す回帰木分析結果に対する評価用統計値リストの例を示す図である。
【図33】具体例としてウェーハ番号の間隔2の周期性の値をF拡散工程_装置の使用装置名ごとに表示した箱ヒゲ図を示す図である。
【図34】具体例としてF拡散工程でF7号機を使用した1ロット分のウェーハについてVT_N2のロット内変動を示す図である。
【図35】具体例としてF拡散工程でF7号機を使用した1ロット分のウェーハについてVT_N2のロット内変動を示す図である。
【図36】具体例としてF拡散工程でF7号機を使用した1ロット分のウェーハについてVT_N2のロット内変動を示す図である。
【図37】具体例としてF拡散工程でF5号機、F6号機、F8号機またはF9号機を使用した1ロット分のウェーハについてVT_N2のロット内変動を示す図である。
【図38】具体例としてF拡散工程でF5号機、F6号機、F8号機またはF9号機を使用した1ロット分のウェーハについてVT_N2のロット内変動を示す図である。
【図39】具体例としてF拡散工程でF5号機、F6号機、F8号機またはF9号機を使用した1ロット分のウェーハについてVT_N2のロット内変動を示す図である。
【図40】ロットの流れと異常製造装置の関係を示す図である。
【図41】従来技術によるある工程での装置別歩留り分布を示す図である。
【図42】ロットの流れと異常製造装置の交絡の関係を示す図である。
【図43】回帰木分析入力データの例を示す図である。
【図44】回帰木の例を示す図である。
【図45】評価用統計値リストの例を示す図である。
【図46】使用製造装置と電気的特性データと歩留り値の関係を示す図である。
【図47】2分割交絡度および2分割独立度の算出例を示す図である。
【図48】回帰木の例を示す図である。
【図49】評価用統計値リストの例を示す図である。
【図50】各説明変数と第1候補の説明変数との交絡度および独立度を示す図である。
【図51】各説明変数と第3候補の説明変数との交絡度および独立度を示す図である。
【図52】全候補同士の交絡度およびその平均を示す図である。
【図53】全候補同士の独立度およびその平均を示す図である。
【図54】不良ウェーハ群による回帰木分析結果を示す回帰木図である。
【図55】良好ウェーハ群による回帰木分析結果を示す回帰木図である。
【図56】データ解析装置の機能構成の一例を示す図である。
【符号の説明】
21 データ分布特徴を抽出する手段
22 解析対象とする特徴量を選択する手段
23 データマイニングをおこなう手段
24 ルールファイル
25 統計解析コンポーネント
26 図表作成コンポーネント
27 解析ツール群
41 データベース
42 オリジナルデータ群
101 正常装置
102 異常装置
401 説明変数
402 目的変数
411 使用装置
412 電気的特性データ
413 歩留り
801 基準説明変数
802 比較説明変数
803 ウェーハ番号
804 歩留り
811 基準説明変数の高歩留りグループ
812 基準説明変数の低歩留りグループ
813 2分割交絡度の計算式
814 2分割交絡度
815 2分割独立度
1701 オリジナルデータ群
1702 データベース
1703 データマイニング部
1704 ルールファイル
1705 解析ツール群
1706 統計解析コンポーネント
1707 図表作成コンポーネント
1708 意思決定部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data analysis method for extracting a meaningful result for obtaining an industrially superior result by grasping a relation between data widely handled in the industry, and further, a data value to be analyzed and its value The present invention relates to a data analysis method for extracting knowledge and information that are difficult to discriminate by paying attention only to an average value. The present invention also relates to a data analysis method and a data analysis apparatus for evaluating the accuracy of analysis results.
[0002]
For example, the present invention relates to a data analysis method for grasping the fluctuation status of yield by using device history, test results, design information or various measurement data acquired in the semiconductor manufacturing process, and thus extracting conditions advantageous for yield improvement. . In particular, not only the original data stored in the computer system and its average value, but also data distribution features obtained by editing the original data etc. are automatically and quantitatively extracted and recognized, The present invention relates to a data analysis method and a data analysis apparatus for extracting and evaluating low-yield factors such as semiconductors.
[0003]
In addition, the accuracy of the data analysis results to deal with the case where multiple explanatory variables are entangled (not independent) and it becomes difficult to extract significant differences, and to obtain more efficient and reliable analysis results The present invention relates to a data analysis method and a data analysis apparatus for evaluating the above.
[0004]
[Prior art]
Let us take a yield analysis of semiconductor data as an example. In particular, when trying to obtain reference data for determining measures to improve quality and productivity from the analysis results, such as process data analysis, the accuracy, reliability, etc. are important. The application has already been filed by the inventors (application number: Japanese Patent Application No. 2001-127534). In order to find out the yield reduction factor as quickly as possible and take countermeasures, to find the factor that is effective in the yield and other factors that are effective in that factor from the device history, test results, design information, various measurement data, etc. Data analysis is performed.
[0005]
In data analysis, an analysis target such as a yield value is an objective variable, device history that causes the objective variable, test results, design information, various measurement data, and the like are called explanatory variables. Various statistical methods are applied at that time, and by applying data mining as one of them, it is possible to extract valuable information and regularity that are difficult to discriminate from a large amount of data.
[0006]
In order to analyze a failure factor of a semiconductor device, it is important to analyze the collected data on a multifaceted basis on a scientific basis and extract more significant differences. Therefore, conventionally, the value of the original data stored in the computer system and its average value are often used. However, there are cases where it is difficult to extract a failure factor or the like from a complicatedly intertwined original data group. In such a case, if there is a characteristic data distribution regarding various measurement results, yields, etc. of wafer in-chip chips or wafers in a lot, the analysis of defect data may proceed based on the distribution.
[0007]
[Problems to be solved by the invention]
However, in conventional computer systems, for example, original data such as yield values and electrical characteristic values are accumulated, but characteristic data distributions across multiple chips in a wafer surface and multiple wafers in a lot are mostly accumulated. It has not been. Therefore, the engineer needs to edit the original data and acquire the data distribution status using various statistical analysis tools and chart creation tools. Then, it is necessary to recognize the aggregation and tendency of data by comparing the acquired data distribution situation with the experience and know-how of engineers. Therefore, it is difficult to objectively grasp the feature amount related to the distribution of a large amount of original data. In addition, there is a problem that an accurate result cannot be obtained even if the analysis is advanced based on the feature amount of the data distribution including the subjectivity of the engineer.
[0008]
Also, in the past, engineers looked at the data distribution status obtained by various statistical analysis tools and chart creation tools, etc. “Increase” or “Decrease”, whether a feature has a periodicity of “2” or “not”, or a feature has a periodicity of “3” or “not” As described above, the feature amount of the data distribution is represented by a discrete value. For this reason, information indicating a degree such as how much (or not) a certain feature exists or how much a certain feature tends to increase (or decreases) is lost. In addition, for example, when a certain feature has a certain degree of periodicity of 2 and a certain degree of periodicity of 3 at the same time, there is a problem that only the periodicity of the stronger degree is recognized.
[0009]
Also, considering various test results, measurement results, and combinations thereof, the possible combinations of data distribution features are enormous, and it is extremely difficult to investigate all of them. In addition, the failure factor corresponding to the extracted data distribution feature is not always known, and there is a problem that much experience and know-how are required to determine the unknown failure factor.
[0010]
In practice, for example, applying data mining to yield analysis of semiconductor data may not work. In applications such as finance and distribution, there are millions of data, and there are at most tens of explanatory variables, so highly accurate analysis results were obtained. However, in the case of semiconductor process data analysis, the number of data is small and the number of explanatory variables reaches several hundreds (equipment history, in-process inspection values, etc.) despite the fact that there are at most about 200 lots in the same product type. Multiple explanatory variables are no longer independent, and simple data mining may not provide reliable results. In the following, this will be briefly described by taking yield analysis of semiconductor data as an example.
[0011]
In process data analysis with many explanatory variables (eg, LSI manufacturing process data) compared to the number of data (eg, lot number), multiple explanatory variables are entangled with each other (no longer independent), resulting in statistical significance There are many cases where problems cannot be narrowed down sufficiently. Even when data mining (regression tree analysis, etc.) is applied, if there is this problem, it is necessary to take considerable time to check the accuracy of the analysis result and the reliable range.
[0012]
FIG. 40 shows the relationship between the lot flow and the abnormal manufacturing apparatus. A white circle “◯” indicates the normal device 101, and a black circle “●” indicates the abnormal device 102. Arrows indicate the lot flow. In the analysis of the difference between the devices in the LSI manufacturing data, the yield is most affected by which manufacturing device is used in which manufacturing step from the used device data for each lot process.
[0013]
FIG. 41 shows a yield distribution (box-whisker diagram) by device in a certain process according to the prior art. For each device used in each manufacturing process, the yield value of the lot is displayed in a box-whisker chart and checked for each process, and the process and the apparatus with the most significant difference are identified.
[0014]
However, with this technique, the number of processes is now several hundreds, and a large number of man-hours are required. It is difficult to make a judgment when there is no clear difference or when the conditions are intricately intertwined. In order to deal with these problems, a data mining technique based on regression tree analysis is effective, and it is divided into a group of used devices where the value of the objective variable is high and a group of used devices where it is low. When the apparatus used for each lot is fixed as shown in FIG. 42 and the lot is flowed, the abnormal apparatus 102 indicated by the black circle “●” may not be uniquely identified. That is, when the independence between explanatory variables is low, the one that has a large significant difference due to the two divisions of the set is not necessarily “true significant difference”.
[0015]
The above is the confounding in the device used in each process of semiconductor manufacturing, but the same applies to the confounding of the set divided into two as the regression tree analysis result. That is, the same can be said for a set of device groups in which a high yield is generated in each process and device groups in which a low yield is generated. The confounding of the two-divided sets is the same when the explanatory variable is a continuous value.
[0016]
The present invention has been made in view of the above problems, and by editing original data to extract data distribution feature quantities such as various statistical values, and by objectively recognizing and utilizing the data, An object of the present invention is to provide a data analysis method for automatically extracting factors and the like. It is also possible to include a data analysis method and a data analysis apparatus that can clarify the degree of confounding between a plurality of explanatory variables.
[0017]
[Means for Solving the Problems]
In order to achieve the above object, the present invention automatically and quantitatively evaluates and extracts various data distribution features existing in an original data group accumulated in a computer system, and extracts each feature amount. The factors that cause each feature amount are automatically and quantitatively evaluated and extracted by sequentially selecting and analyzing them. According to the present invention, since a lot of information such as data distribution tendency, characteristic pattern, and relevance between data is extracted from the original data, it is difficult to discriminate it because it is buried in various data. Gender and significant differences are efficiently and quantitatively extracted based on scientific evidence.
[0018]
In addition, in order to clarify the degree of confounding between a plurality of explanatory variables, a step of preparing data results of explanatory variables and objective variables, and a degree of confounding and / or independence between a plurality of explanatory variables based on the data results There is provided a data analysis method having a step of calculating and a step of performing data mining using the degree of confounding and / or independence. By calculating the degree of confounding and / or independence between a plurality of explanatory variables, it is possible to clearly grasp the degree of confounding of the explanatory variables. If regression tree analysis is performed based on this, the degree of confounding of explanatory variables can be quantitatively evaluated based on the result of bisection of the set of regression tree analysis, and the significant difference of the first branch in the regression tree is large. It is possible to clarify the explanatory variables to be noted that are entangled with the explanatory variables.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments 1 and 2 of the present invention will be described below in detail with reference to the drawings.
[0020]
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of a hardware configuration of a computer system that is used to implement the data analysis method according to the first embodiment of the present invention. As shown in FIG. 1, the computer system includes an input device 1, a central processing device 2, an output device 3, and a storage device 4.
[0021]
FIG. 2 is a block diagram showing an example of a functional configuration of the data analysis apparatus realized by the computer system having the configuration shown in FIG. As shown in FIG. 2, the data analyzing apparatus has an original data group 42 including a database 41 including a plurality of original data. The database 41 is constructed in the storage device 4 of the computer system shown in FIG.
[0022]
In addition, the data analysis apparatus is a means for quantitatively evaluating and extracting one or more data distribution features existing in the original data group 42, and makes an analysis target from the extracted one or more data distribution features. Means 22 for selecting a feature amount, and means 23 for extracting a rule file 24 such as features and regularity lurking in the data distribution by performing data mining by a regression tree analysis method using the data distribution feature amount selected as an analysis target as an objective variable. And an analysis tool group 27 such as a statistical analysis component 25 and a chart creation component 26 for analyzing distribution characteristics of original data using the extracted rule file 24.
[0023]
Each of the above means 21, 22, 23 and the analysis tool group 27 is realized by executing a program for performing each processing in the central processing unit 2. The extracted rule file 24 is stored in the storage device 4 and is output by the output device 3 such as a display device or a printing device. Decision making 5 is made based on the analysis result by the analysis tool group 27.
[0024]
Further, the means 23 for extracting the rule file 24 described above applies to the original data in the original data group 42, the data distribution feature extracted by the means 21 for extracting data distribution characteristics, or the analysis result by the analysis tool group 27. Even data mining is done. The analysis tool group 27 also analyzes the original data in the original data group 42, the data distribution feature extracted by the data distribution feature extraction means 21, or the output result of the analysis tool group 27. It has become. The analysis result by the analysis tool group 27 is fed back to the means 22 for selecting the data distribution feature quantity to be analyzed and the original data group 42. The original data group 42 is fed back with the output of the means 21 for extracting data distribution features.
[0025]
FIG. 3 shows an example in which the data distribution feature amount extracted by the means 21 for extracting the data distribution feature shown in FIG. 2 is output in the CSV format. Since each feature amount is obtained independently for each record, it is handled independently. For example, as shown in FIG. 3, since each feature amount is automatically output in the CSV format, it is possible to efficiently perform a significant analysis for each feature amount. Here, the data serving as the feature amount may be not only the original data value and its average value, but also the maximum value, minimum value, range or standard deviation value of the original data. Further, the data of the feature amount may be data periodicity or similarity to a specific model.
[0026]
Here, various features can be extracted depending on the structure of the target data group, but the process of what kind of feature amount to extract according to the purpose is incorporated in the program in advance or the feature to be extracted You may prepare a file that defines the quantity and read the file. Each feature quantity is not a discrete value, but is defined by a continuous value indicating how strong the feature is. Therefore, since there is no loss of information due to discretization as in the prior art, a better analysis result is expected.
[0027]
As an example of the data distribution feature amount, the feature of the intra-lot data distribution in the yield analysis of semiconductor data will be described. FIG. 4 is a list showing information focusing on the variation of the attribute value of the wafer. Here, the independent variable is a wafer number, and the dependent variable is original data such as yield, category yield or various measured values.
[0028]
Although not particularly limited, in the example shown in FIG. 4, (1) the center of the entire data distribution, (2) variation in the data, (3) correlation of the data with the wafer number, (4) the y-axis intercept when linearly approximated, (5) Data slope relative to wafer number, (6) Cycle 2 (sheet) strength, (7) Cycle 3 (sheet) strength, (8) Strongest cycle in lot, (9) First half wafer- Difference in average value of the latter half wafer, (10) Difference in variation between the first half wafer and the second half wafer, (11) Difference in correlation between the first half wafer and the second half wafer, (12) Difference in first-order approximate y-axis intercept of the first half wafer and the second half wafer. (13) Difference in inclination of first half wafer to second half wafer, (14) Strength of cycle 2 (sheets) of latter half lot, (15) Strength of cycle 3 (sheets) of latter half lot, and (16) Second half lot 16 feature items are defined. Has been. The feature amount of each feature item is obtained in lot units.
[0029]
The 16 feature items defined here will be briefly described. The feature quantity (1) is an average value of the yield and various measured values of all wafers in the same lot. The feature quantity (2) is a standard deviation value such as the yield and various measured values of all wafers in the same lot. The feature quantity in (3) is the correlation coefficient between the wafer number of the wafers in the same lot and the yield, various measured values, etc. The calculation method of this correlation coefficient is in advance according to the object and purpose of analysis. It has been decided. The feature quantity of (4) is the y-axis intercept when the wafer number of the wafers in the same lot is x, the yield and various measured values are y, and the relationship between x and y is approximated by the linear expression y = b · x + a Is the value of
[0030]
The feature quantity in (5) is the population regression coefficient when the wafer number of the wafer in the same lot is x, the yield and various measured values are y, and the relationship between x and y is approximated by the linear expression y = b · x + a It is. The feature amount of (6) is the dispersion of the yield and various measured values of all wafers in the same lot, the wafer group with wafer numbers 1, 3, 5,... Or the wafer numbers 2, 4, 6,. The ratio of the yield of wafer groups and the dispersion of various measured values. The feature quantity of (7) is the dispersion of the yield and various measurement values of all wafers in the same lot, the wafer group with wafer numbers 1, 4, 7,..., The wafer numbers 2, 5, 8,. ... Is a ratio of the yield of wafer groups having wafer numbers of 3, 6, 9,... The feature quantity of (8) is the dispersion ratio of periods 2 (sheets) and 3 (sheets) obtained as described in (6) and (7) above for wafers in the same lot, and the period 4 ( Among the dispersion ratios such as “sheet”, “5” (sheets),...
[0031]
The feature quantity of (9) is that all wafers (for example, 50 wafers) in the same lot are divided into the first half (for example, 25 wafers) and the latter half (for example, 25 wafers), This is the difference from the average value of the yield and various measured values of the latter half wafer group. The reason for dividing the first half and the second half in this way is that the device history is different in the semiconductor manufacturing process. The feature quantity (10) is the difference between the standard deviation values such as the yield and various measured values of the first half wafer group and the standard deviation values such as the yield and various measured values of the second half wafer group. The feature quantity (11) is the difference between the correlation coefficient of the first half wafer group and the correlation coefficient of the second half wafer group. The feature amount (12) is the difference between the value of the primary approximate y-axis intercept of the first half wafer group and the value of the primary approximate y-axis intercept of the second half wafer group.
[0032]
The feature quantity (13) is the difference between the population regression coefficient of the first half wafer group and the population regression coefficient of the second half wafer group. The feature quantity of (14) is the variance ratio with respect to the cycle 2 similar to (6) above for the latter half lot group. The feature quantity of (15) is the variance ratio for the cycle 3 as in (7) above for the latter half lot group. The feature value of (16) is a period value at which the dispersion ratio is maximum for the latter half lot group, as in (8) above. For the first half lot group, the strength of cycle 2 (sheets), the strength of cycle 3 (sheets), and the strongest cycle may be defined as in (14) to (16) above. In addition to the feature items exemplified here, various feature items are defined according to the analysis target and purpose.
[0033]
By defining and analyzing feature items as described above, for example, even if it is not possible to extract a significant difference depending on the device used simply by using the original data values such as yield values and their average values as in the past, use It may be possible to extract significant differences between devices. For example, FIG. 5 shows an example in which attention is paid to the variation in the yield value of wafers in a lot (corresponding to the above (2)) for a plurality of lots.
[0034]
In the example shown in FIG. 5, lot group 6 (left side of the dashed line in FIG. 5) using No. 21, No. 22, No. 24, or No. 25 in Step 1 and lot group 7 using No. 28 (one point in FIG. 5). On the right side of the chain line), the average wafer yield and the overall distribution (variation between lots) are almost the same. Therefore, no obvious significant difference is recognized even if analysis is performed using the wafer yield value or its average value. On the other hand, when paying attention to the feature quantity of the data distribution called the variation of the wafer yield value in each lot, an obvious significant difference is recognized between the two lot groups 6 and 7. The item of interest is not limited to the item (2), but may be the item (1), any one of the items (3) to (16), or other items.
[0035]
As described above, since each data distribution feature quantity exists as an attribute value of each lot, the means 22 for selecting the data distribution feature quantity sequentially selects each data distribution feature quantity as an objective variable. Then, the means 23 for extracting the rule file 24 by performing data mining performs regression tree analysis using each data distribution feature amount as an objective variable in order. As a result, it is possible to determine the cause of the data distribution feature amount, and it is possible to extract more failure factors than in the conventional analysis method. At that time, the process of sequentially selecting the data distribution feature quantity and the regression tree analysis process are automatically executed according to the program, so the engineer does not have to consider which data distribution feature quantity to select as the objective variable, Analysis can be performed efficiently. This is particularly effective when it is unclear what to analyze.
[0036]
Further, even when a plurality of feature patterns are seen, such as when both the strength of cycle 2 (sheets) and the strength of cycle 3 (sheets) exist in the same record, both features can be evaluated. As a result, it is possible to obtain an analysis result reflecting the actual situation by eliminating the lack of information.
[0037]
Next, the flow of the data analysis method according to the first embodiment of the present invention will be described. FIG. 6 is a flowchart showing an outline of an example of the data analysis method according to the present invention. As shown in FIG. 6, when this data analysis method is started, first, data to be analyzed, such as yield values and various measured values, is selected and extracted from the original data group 42 (step S1). ). Subsequently, a process of extracting one or more data distribution features is performed on the extracted data (step S2).
[0038]
Then, the data distribution feature quantity to be analyzed is selected, and data mining such as regression tree analysis is performed using it as an objective variable (step S3). When regression tree analysis is completed for all the data distribution features extracted in step S2 (step S4), the analysis result is output and the engineer confirms the result (step S5). Then, the engineer makes a decision based on the analysis result (step S6).
[0039]
Next, in order to clarify the features of the present invention, a data analysis method using data distribution feature amounts will be described with a specific example. In general, if the wafer number is different even in a wafer group in the same lot, the yield value and electrical characteristic value for each wafer are different, and these values show various variation patterns. Yield values and electrical characteristic values are stored in wafer units. Therefore, in the first embodiment, it is possible to analyze a variation pattern such as a yield value with respect to a wafer number over a plurality of lots as a data distribution feature. Here, an example is shown in which multifaceted analysis is performed on a test substitute Nch transistor threshold voltage VT_N2 (hereinafter simply referred to as VT_N2), which is an important electrical characteristic that greatly affects the performance of a product. In addition, suppose that the utilization apparatus log | history in each manufacturing process has an effect on a yield.
[0040]
FIG. 7 is a characteristic diagram showing the relationship between the yield and VT_N2, but the yield and VT_N2 seem to be irrelevant at first glance. FIG. 8 is a histogram of VT_N2 data obtained from all wafers, and FIG. 9 is a box-and-whisker diagram showing all VT_N2 data for each wafer number. It is difficult to extract statistically significant differences from the results shown in these figures.
[0041]
FIG. 10 is a diagram showing an example of a result of regression tree analysis in which the objective variable is the average value of VT_N2 in each lot and the explanatory variable is the name of the device used in each process. FIG. It is a figure which shows the example of the statistical value list for evaluation showing the reliability information of analysis. According to the result of this regression tree analysis, as shown in FIG. 10, the most significant change with respect to the variation of VT_N2 was the use of No. 11 or No. 13 as the second wiring_device, or No. 12, It is whether Unit 14, 17 or 18 was used. FIG. 12 shows a box-whisker diagram in which all VT_N2 data is displayed for each used device name of the second wiring_device. In FIG. 12, no significant difference is observed. The evaluation statistical value list is output together with the regression tree diagram, which will be described later.
[0042]
FIG. 13 is a diagram showing an example of a result of regression tree analysis using the objective variable as the value of VT_N2 of each wafer and the explanatory variable as the device name used in each process. FIG. 14 shows this regression tree analysis. It is a figure which shows the example of the statistical value list for evaluation with respect to. According to the results of this regression tree analysis, as shown in FIG. 13, the most significant change with respect to VT_N2 was the use of No. 11 or No. 12 or No. 13 as the 2CON process_device. It is what you did. FIG. 15 is a box-and-whisker diagram in which all VT_N2 data is displayed for each used device name of the 2CON process_device, but there is no significant difference in this figure.
[0043]
On the other hand, the cause of the defect can be clarified by extracting and analyzing the data distribution feature of VT_N2 as follows. FIG. 16 is a chart showing an example of a file in which each feature quantity of VT_N2 is defined for each lot in the CSV format. This file is output by means 21 for extracting data distribution features of the apparatus shown in FIG.
[0044]
FIG. 17 is a histogram showing feature quantities of various intra-lot distributions of VT_N2 based on the CSV format data shown in FIG. Here, among the 16 feature items (1) to (16) described in relation to FIG. 4 for VT_N2, (1) average value (VT_N2_ave), (2) standard deviation value (VT_N2_s), ( 3) Correlation coefficient for wafer number (VT_N2_r), (4) y-axis intercept (VT_N2_a) of linear approximation, (5) population regression coefficient (VT_N2_b), (6) periodicity of interval 2 of wafer numbers (VT_N2_2) (7) Periodicity of interval 3 of wafer numbers (VT_N2_3), (9) Difference between average values of first and second half wafers (VT_N2_ave_d), (10) Difference between standard deviation values of first and second half wafers (VT_N2_s_d) (11) Difference in correlation coefficient between the first half wafer and the second half wafer (VT_N2_r_d), (12) One of the first half wafer and the second half wafer. The difference in the y-axis intercept of the approximate expression (VT_N2_a_d), (13) the difference between the first half wafer and mother regression coefficients late wafer (VT_N2_b_d), 12 pieces are extracted for.
[0045]
From FIG. 17, it can be seen that all the feature quantities vary considerably. Therefore, if regression tree analysis is performed using each feature quantity as an objective variable, a factor causing a significant difference in each feature quantity, that is, a failure factor or the like can be analyzed.
[0046]
In order to obtain an analysis result efficiently using the data distribution feature as an analysis target, as input data for regression tree analysis, as shown in FIG. 18, for each lot, the name of the device used in each process and the extracted feature amount A file in which and are defined is created. This file includes a rule file 24 (see FIG. 19) defining device names and lot yields used in each process as input data for analyzing yield fluctuation factors by regression tree analysis, and a file shown in FIG. Combined for the same lot number.
[0047]
FIG. 20 shows the variation occurring in the lot of VT_N2 based on the file shown in FIG. 18 with the above-mentioned (2) standard deviation value (VT_N2_s) as the objective variable and the device name used in each process as the explanatory variable. It is a regression tree figure which shows the regression tree analysis result performed in order to extract the factor of. FIG. 21 is a diagram showing an example of an evaluation statistical value list for this regression tree analysis.
[0048]
According to the regression tree diagram shown in FIG. 20, PM1 or PM3 is used as the Field_Ox process_device, or PM2 is the most significant for the variation of the standard deviation value (VT_N2_s) of VT_N2. It is that you used. This is because each value of the Field_Ox process_apparatus that appears first (S ratio = 0.3767, t = 3.081) and the second and subsequent values for the S ratio, t value, etc. in the evaluation statistical value list When the respective values (S ratio> 0.43, t <2.2) of the second wiring_device and the DRY process_device appearing in FIG. Judged to be high.
[0049]
In order to confirm this, FIG. 22 shows the distribution of the value of VT_N2 for each apparatus used in the Field_Ox process in a box-whisker diagram. In FIG. 22, a clear significant difference is confirmed between PM1 or PM3 and PM2. In other words, the effectiveness of the method of the present invention for performing analysis using the distribution characteristics of the original data was confirmed. The evaluation statistical value list, S ratio, and t value will be described later.
[0050]
FIG. 23 is a histogram showing the distribution of VT_N2 of all wafers using the PM1 or PM3 machine in the Field_Ox process, which is a problem process, as a result of the regression tree analysis shown in FIGS. FIGS. 24 to 26 are histograms showing the distribution of VT_N2 of wafers for different lots using the PM1 or PM3 machine in the Field_Ox process, respectively. FIG. 27 is a histogram showing the distribution of VT_N2 of all wafers using the PM2 machine in the Field_Ox process, and FIGS. 28 to 30 respectively show wafers for different lots using the PM2 machine in the Field_Ox process. It is a histogram which shows distribution of VT_N2.
[0051]
As shown in FIGS. 23 and 27, the average value of VT_N2 of all wafers using the PM1 or PM3 machine (μ = 0.8560) and the average value of VT_N2 of all wafers using the PM2 machine (μ = 0). .7302) is substantially the same. For this reason, it is difficult to extract a significant difference even if analysis is performed using an average value as in the prior art.
[0052]
However, the standard deviation value of VT_N2 for all wafers using PM1 or PM3 (σ = 0.0835) and the standard deviation value of VT_N2 for all wafers using PM2 (σ = 0.351) are compared. Clearly, there is a significant difference. Therefore, as in the first embodiment, by focusing on data distribution characteristics such as variations in original data, a significant difference that cannot be extracted if only the original data is analyzed is newly extracted as a failure factor. Is possible.
[0053]
As a result of actually conducting a detailed investigation on PM2 based on the analysis results described above, it was found that the temperature distribution difference in the furnace was larger than that of PM1 and PM3. Furthermore, it was found that it was caused by thermocouple deterioration, and the periodic inspection method was optimized. By the way, the results of regression tree analysis using the lot yield as an objective variable and the name of the device used in each process as an explanatory variable did not reveal that PM2 was the cause of the yield reduction. That is, the low yield factor that did not appear clearly in the yield value was clarified by the method of the present invention in which a factor causing a significant difference in the standard deviation of the electrical characteristic value in the lot is analyzed. In the first embodiment, editing of accumulated data, execution of regression tree analysis, and quantitative evaluation of the result by a unique method are automatically executed.
[0054]
FIG. 31 shows a regression tree analysis based on the file shown in FIG. 18 with (6) the periodicity of interval 2 of wafer numbers (VT_N2_2) as an objective variable and the names of devices used in each process as explanatory variables. It is the regression tree figure which shows the result. FIG. 32 is a diagram showing an example of an evaluation statistical value list for this regression tree analysis. According to the regression tree diagram shown in FIG. 31, it is most significant that the variation in the lot of VT_N2_2 has a periodicity of 2, whether F7 was used as the F diffusion process_device, or F5 It is whether the No. machine, F6 machine, F8 machine or F9 machine was used. It can be seen that using the F7 machine shows a periodicity of 2 stronger by about 50%.
[0055]
In order to confirm this, in FIG. 33, the distribution of the periodicity value (VT_N2_2) of 2 for each apparatus used in the F diffusion process is shown by a box mustache diagram. In FIG. 33, a clear significant difference is confirmed between the F7 machine and the F5 machine, F6 machine, F8 machine or F9 machine. It should be noted that the periodicity of 2 cannot be seen from the box mustache diagram of FIG. 9 in which all VT_N2 data is displayed for each wafer number. In this example as well, the effectiveness of the method of the present invention for performing analysis using the distribution characteristics of the original data was confirmed.
[0056]
FIGS. 34 to 36 are histograms showing intra-lot fluctuations of VT_N2 for one lot of wafers using the F7 machine in the F diffusion process, which is the problem process, as a result of the regression tree analysis shown in FIGS. 31 and 32. It is. FIG. 37 to FIG. 39 are histograms showing intra-lot fluctuations of VT_N2 for different lots of wafers using the F5, F6, F8 or F9 machines in the F diffusion process. From the analysis results described above, the factors of VT_N2 variation within the lot are extracted, and attention is paid to the F diffusion process apparatus, which is an apparatus in which wafers are used alternately. In fact, particles are generated in one of the two chambers. It turns out that there are many.
[0057]
By the way, in the first embodiment, the regression tree analysis selects each feature quantity extracted with the same explanatory variable as a target variable in order, and automatically performs the regression tree analysis, thereby affecting the feature quantities. Are extracted for each. In particular, if it is not clear what should be analyzed, all possible feature quantities are extracted, and regression tree analysis is performed using them as objective variables. As a result, various analysis results are obtained as described above, and an item that is regarded as having the largest significant difference among them is set as a candidate for a measure item for yield improvement. As described above, many significant differences that are not easily extracted by the conventional analysis method can be extracted efficiently.
[0058]
Here, the regression tree analysis and the statistical value list for evaluation will be described. First, the regression tree analysis will be briefly described. In the regression tree analysis, a set of records composed of explanatory variables indicating a plurality of attributes and objective variables affected thereby is determined, and attributes and attribute values that most affect the objective variables are discriminated. A rule indicating data characteristics and regularity is output from the means 23 (regression tree analysis engine) that performs data mining and extracts the rule file 24.
[0059]
The regression tree analysis process is realized by repeatedly dividing the set into two based on the parameter value (attribute value) of each explanatory variable (attribute). When the set is divided, if the sum of squares of the objective variable before the division is S0 and the sum of squares of the objective variables of the two sets after the division is S1 and S2, ΔS shown in the equation (1) is maximized. As described above, the explanatory variable of the record to be divided and its parameter value are obtained.
[0060]
ΔS = S0− (S1 + S2) (1)
[0061]
The explanatory variables and parameter values obtained here correspond to branch points in the regression tree. Thereafter, the same processing is repeated for the divided sets, and the influence of the explanatory variable on the objective variable is examined. The above is a generally well-known method of regression tree analysis. In order to understand the clarity of set partitioning in more detail, in addition to ΔS, the following parameters (a) to ( d) is also used as a quantitative evaluation of the regression tree analysis results. These parameters are output as an evaluation statistical value list.
[0062]
(A) S ratio:
This is a reduction rate of the sum of squares by the set division, and is a parameter indicating how much the sum of squares has been reduced by the set division. The smaller this value is, the greater the effect of set partitioning is, and the set partition is clearly performed, so the significant difference is large.
[0063]
S ratio = ((S1 + S2) / 2) / S0 (2)
[0064]
(B) t value:
Although the set is divided into two by the regression tree analysis engine, it is a value for testing the difference between the averages (/ X1, / X2) of the two divided sets. Here, “/” indicates an overline. The statistical t-test is a standard indicating a significant difference in the mean value of the objective variable in the divided set. If the degree of freedom, that is, the number of data is the same, the larger the t, the more clearly the set is divided and the greater the difference.
[0065]
At this time, if there is no significant difference in the variance of the divided sets, the t value is obtained by the following equation (3). If there is a significant difference in the variance of the divided sets, the t value is obtained by the equation (4). Ask. Here, N1 and N2 are the numbers of elements of set 1 and set 2, respectively. Further, / X1 and / X2 are averages of the respective sets after the division. S1 and S2 are the sum of squares of the objective variable of each set after division.
[0066]
[Expression 1]
Figure 0004866520
[0067]
[Expression 2]
Figure 0004866520
[0068]
(C) Difference in mean value of objective variables of divided sets:
The greater this value, the greater the difference.
[0069]
(D) Number of data in each divided set:
The smaller the difference between the two, the smaller the influence of abnormal values (noise).
[0070]
According to the first embodiment described above, not only the original data and its average value as in the past, but also various data distribution features existing in the original data group such as variations in the original data and fluctuation patterns in the lot are extracted. By selecting and analyzing each feature quantity as a target variable sequentially, the factors that caused each feature quantity are automatically and quantitatively evaluated and extracted, and a lot of information can be extracted from a more multifaceted perspective. can do. Therefore, it is possible to objectively and efficiently quantitatively extract the relevance and significant difference that have been buried in a variety of data and have been difficult to discriminate conventionally.
[0071]
Further, in the first embodiment, a series of procedures from feature quantity extraction to factor extraction is automatically performed. Therefore, by setting a predetermined setting, it is possible to automatically change a semiconductor manufacturing line or the like. Factors can be monitored constantly.
[0072]
The present invention is not limited to the first embodiment described above, and has a wide application range. For example, when a new variety is launched, there are many causes of deterioration, and lots with low yields occur frequently. In addition to investigation of the cause process using the original data and its average value, By investigating the cause process from the data distribution characteristics, it becomes possible to find the cause that has been hidden or to narrow down the cause.
[0073]
(Embodiment 2)
FIG. 56 is a diagram showing an example of a functional configuration of a data analysis apparatus into which data mining according to Embodiment 2 of the present invention is introduced. The data mining unit 1703 performs a process of extracting features and regularity hidden in the data based on the individual original data extracted from each database 1702 in the original data group 1701, and creates a rule file 1704. The analysis tool group 1705 includes a statistical analysis component 1706, a chart creation component 1707, and the like, and analyzes individual original data extracted from the database 1702 based on the rule file 1704.
[0074]
The analysis result is fed back to the analysis tool group 1705 and the data mining unit 1703. The data mining unit 1703 performs data mining based on the analysis result of the analysis tool group 1705 and the original data group 1701. The analysis tool group 1705 performs analysis based on the rule file 1704, individual original data extracted from the database 1702, and its own analysis result. A decision (part) 1708 makes a decision based on the analysis result of the analysis tool group 1705.
[0075]
When data mining is applied in yield data analysis, measures to improve yield are determined based on the data mining results, whether or not measures should be implemented, and prediction of countermeasure effects become. For that purpose, quantitative evaluation and accuracy of the data mining result are required.
[0076]
Of discriminant tree analysis, which is one method of data mining, regression tree analysis is particularly effective. One advantage of regression tree analysis is that the results are output as easy-to-understand rules, which can be expressed in a general language or a database language such as the SQL language. Therefore, it is possible to effectively use the reliability and accuracy of these results, and to make effective decision making and take actions (that is, countermeasures, etc.) based on the results.
[0077]
FIG. 43 shows a format of an example of data used as an input for regression tree analysis. Each record is a wafer number unit, and each record includes a use device 411, electrical characteristic data 412, and wafer yield 413 in each manufacturing process. The explanatory variable 401 includes the use device 411 and electrical characteristic data 412. The objective variable 402 is the yield 413. For example, it is assumed that the use device 411 and the electrical characteristic data 412 have an effect on the yield. FIG. 44 and FIG. 45 show the regression tree diagram and the statistical value list for evaluation, which are the regression tree analysis results based on this data.
[0078]
FIG. 44 is a regression tree diagram showing the results of regression tree analysis. The root node n0 is divided into two nodes n1 and n2. Node n1 is divided into two nodes n3 and n4. Node n2 is divided into two nodes n5 and n6. Node n6 is divided into two nodes n7 and n8.
[0079]
FIG. 45 shows statistical values for evaluation of explanatory variables at the time of the first two divisions. For example, the average value Ave of the objective variables of all sets is 75, the standard deviation s is 12, and the number of data N is 1000. Lists 601 to 604 are respectively ranked from the left by significant difference, S ratio, t value, difference in the average value of the objective variables of the divided sets, the number of data of each divided set, and attribute names of the divided sets ( Explanatory variable), and the relationship between the attribute values (parameter values) of the two divided sets and their objective variables. The lists 601 to 604 are candidates for grouping by the value of ΔS shown in the expression (1) of the attribute value (explanatory variable) to be divided, and are arranged in descending order of significant difference (ΔS). In FIG. 44, the node n0 is divided into nodes n1 and n2 based on the first candidate 601.
[0080]
When the set n0 of all the wafers in FIG. 44 is divided into two sets n1 and n2 based on the evaluation value of ΔS in the equation (1), the most significant influence on the yield is either AM1 or AM2 in the process A. The latter is better in yield. Thereafter, when the same set division is repeated for the divided set, this regression tree diagram is obtained. For the wafer group using AM2 in process A and CM2 in process C, the state where the electrical characteristic data RSP is 90 or less is most effective (high yield).
[0081]
FIG. 46 is equivalent to FIG. 44 and shows the correlation between the yield of the divided wafer set, the apparatus used in the specific process, and the electrical characteristic data. The explanatory variables appearing in the upper hierarchy in the regression tree diagram of FIG. 44 have a greater influence on the objective variable. The average yield of all wafers is 74.8%, but regression tree analysis automatically shows that there are such characteristics and regularity when divided into several sets in relation to the equipment used and electrical characteristics data. Extracted and used as a clue to yield analysis.
[0082]
In the regression tree diagram of FIG. 44, the upper two layers are all due to differences in the devices used. Therefore, in the analysis using all the wafers, it is the device differences that have a large effect on the yield even if the complex condition is included. The electrical property data appears to be less effective. However, it can be seen from FIGS. 44 and 46 that RSP is the most effective in yield for the wafer group using AM2 in process A and CM2 in process C.
[0083]
Next, an example of calculating the two-part entanglement degree and the two-part independence degree will be described. In regression tree analysis, statistically grasp the degree of confounding (entanglement state, degree of independence) of each set partition state performed to obtain the most significant explanatory variable for the objective variable, and the significant difference is Clarify other explanatory variables that are entangled with the explained explanatory variables. With reference to FIG. 47, a method of calculating the degree of entanglement by two and the degree of independence by two divide will be described.
[0084]
First, among the explanatory variables, the reference explanatory variable 801 is used to evaluate the degree of confounding.
[0085]
Secondly, each record constitutes a table having “L” or “H” as a data value for each explanatory variable. Here, H belongs to a set in which the objective variable when the set is divided into two at the time of regression tree analysis has a high value, and L belongs to a set in which the objective variable at the time of set of two splits in the regression tree analysis has a low value. When the set is divided into two, L and H are determined for each explanatory variable of all records.
[0086]
Third, based on the reference explanatory variable 801, as the evaluation value of the L and H coincidence of each comparative explanatory variable 802, Na is the number of records that match L and H, N is the total number of records, and the two-fold confounding degree DEP is defined as in equation (5). The range of the two-part entanglement degree DEP is −1 to 1, 1 if completely entangled, 0 if not entangled at all, and −1 if it is oppositely entangled.
[0087]
DEP = (2 × Na / N) −1 (5)
[0088]
Further, based on the two-part entanglement degree DEP, the two-part independence degree IND is defined as shown in Expression (6). The range of the two-part independence IND is 0 to 1, 1 if completely independent, and 0 if not completely independent.
[0089]
IND = 1− | DEP | (6)
[0090]
Fourth, the above-described two-part entanglement degree DEP and two-part independence degree IND are obtained between one reference explanatory variable 801 and another explanatory variable 802, and are used as an evaluation scale between the explanatory variables. Which explanatory variable is used as the standard explanatory variable is arbitrary, but due to its usefulness, it is assumed that the significant difference is greatly increased in the regression tree analysis with respect to the objective variable, especially in the set division at the top hierarchy. Is effective.
[0091]
Fifth, by obtaining the above-described two-part entanglement degree DEP and two-part independence degree IND, how much the state of each comparative explanatory variable 802 belonging to each set of L and H differs from that of the reference explanatory variable 801. Can be quantitatively evaluated.
[0092]
By obtaining the two-part confounding degree and / or the two-part independence degree, the confounding degree of the explanatory variable can be quantitatively evaluated based on the result of the two-part division of the regression tree analysis, and combined with the regression tree analysis, the regression tree It is possible to automatically extract another explanatory variable that is entangled with an explanatory variable having a large significant difference obtained by the analysis.
[0093]
The bipartite confounding degree can be evaluated for any explanatory variable targeted in the regression tree analysis, but in view of its effectiveness, explanatory variables (= reference explanatory variable, evaluation) listed above the first division candidate in FIG. Statistically grasp how many other arbitrary explanatory variables are entangled with each other, and extract explanatory variables to be noted that are entangled with explanatory variables having a large significant difference. An explanatory variable to be analyzed for the degree of confounding with the reference explanatory variable 801 is a comparative explanatory variable 802, and both are selected from the evaluation statistical value list of FIG. A calculation example of the two-part entanglement degree and the two-part independence degree will be described with reference to FIG.
[0094]
47, the horizontal axis indicates the wafer number 803, the comparative explanatory variable 802, the reference explanatory variable 801, and the yield 804, and the vertical axis indicates the high yield group 811 of the reference explanatory variable, the low yield group 812 of the reference explanatory variable, and bipartite confounding. A degree calculation formula 813, a two-part entanglement degree 814, and a two-part independence degree 815 are shown.
[0095]
An item as a reference for comparison is determined as a reference explanatory variable 801 from among the top candidate items (evaluation statistical value list) in FIG. In FIG. 47, ST3 is the reference explanatory variable 801. Other explanatory variables are referred to as comparative explanatory variables 802. In FIG. 47, ST1, ST2, and WET2 are comparative explanatory variables 802. Each comparative explanatory variable 802 is compared with the reference explanatory variable 801. In the explanatory variables ST1, ST2, ST3, and WET2, “L” of the low yield group is indicated by hatching and “H” of the high yield group is indicated by no hatching.
[0096]
ST3 which is the reference explanatory variable 801 can be divided into a high yield group 811 for the reference explanatory variable and a low yield group 812 for the reference explanatory variable according to the attribute value. The reference yield variable high yield group 811 is a set of 10 and the reference yield variable low yield group 812 is also a set of 10.
[0097]
Next, Na is calculated by counting how much the lots of the high yield group and the low yield group divided into two for each explanatory variable match the same group of the reference explanatory variables. For example, ST1, which is a comparative explanatory variable 802, has 10 high yield groups included in the high yield group 811 of the reference explanatory variable, and 2 low yield groups included in the low yield group 812 of the standard explanatory variable. . That is, the number Na = 10 + 2 = 12, in which the comparative explanatory variable ST1 and the standard explanatory variable ST3 belong to the same group.
[0098]
A formula obtained by substituting Na into the formula (5) is shown in a calculation formula 813 for the degree of entanglement by two. Here, the number of data N is 20. This calculation result is shown as a two-part entanglement degree 814. A value obtained by Expression (6) is shown as a two-part independence 815. The two-part entanglement 814 and the two-part independence 815 are shown below each column in FIG.
[0099]
There are three basic methods for utilizing the two-part entanglement and the two-part independence. The explanatory variables that have been difficult to distinguish in the past can be obtained as quantitative information as follows.
[0100]
(1) Confirm the range of significant explanatory variables:
Grasp candidates that are intertwined with highly significant candidates and determine that these are also significant explanatory variables. Although there is no standard for the degree of confounding, it can be judged by comparing with the values of other explanatory variables. In addition, when a candidate that does not need to be considered as a technical target comes to the top, the candidate entangled with this candidate can be clarified. Furthermore, it can be confirmed by deleting a meaningless candidate and analyzing it again.
[0101]
(2) Confirmation of highly independent candidates and their application:
Check the independence of all candidates from other candidates, and if there is a candidate with a sufficiently high degree of independence from other candidates, it becomes clear that the yield difference due to this candidate exists independently of other candidates . Further, the same discriminant tree analysis is performed for each of the candidate divided groups and compared, and it is understood that the reliability of the analysis result is high when the same analysis result is obtained for both. On the other hand, if the analysis results are different, there are explanatory variables that influence the yield under the combined conditions with candidates considered independent, or they depend on peculiar data (because the number of data is small, etc.) Conceivable.
[0102]
(3) Discriminant tree analysis for entangled candidates:
When a candidate considered to be important is entangled with the first branch candidate, it is difficult to appear in the lower branch of the first branch. At this time, the data is divided by another candidate group having a high degree of independence, and the discriminant tree analysis is performed, and the discriminant tree analysis results under this divided group are compared. If the result is similar, the important candidate cannot be distinguished from the first candidate, but the analysis itself is considered highly reliable. Conversely, if a candidate that appears important appears and the results are different, this result should also be taken into account, and it is necessary to further analyze the data so that the candidate considered important and the first candidate can be analyzed separately. It is thought that there is.
[0103]
Next, a regression tree analysis is performed with the device history and electrical characteristic values as explanatory variables, and the wafer yield as an objective variable, and the two-fold confounding degree and the two-fold independence degree are obtained for the top 12 candidates of the first branch of the regression tree analysis result. The case where it asks is explained.
[0104]
The regression tree diagram and the evaluation statistical value list obtained in the second embodiment are shown in FIGS. In FIG. 48, the node n900 is divided into nodes n901 to n914. FIG. 49 shows statistical values for evaluation of the top 12 explanatory variables at the time of the first two divisions. As a result, 12 candidates 1001 to 1012 of the set branch are listed.
[0105]
In FIG. 50, ST1 listed as the top first candidate 1001 in FIG. 49 is the reference explanatory variable 1101, and the other explanatory variables in the evaluation statistical value list are the comparative explanatory variables 1102, and the degree of two-way confounding 1111 And 2 split independence 1112 is shown.
[0106]
51, ST3 listed as the third set branch candidate 1003 in FIG. 49 is the reference explanatory variable 1201, and the other explanatory variables in the evaluation statistical value list are the comparative explanatory variables 1202, and the degree of two-way confounding 1211 And 2 split independence 1212.
[0107]
It is ST2, ST4, ST5, ST6, ST10, and WET2 that the bipartite confounding degree shown in FIG. 50 exceeds 0.75, and these do not appear in the regression tree diagram of FIG. It may be a factor that works. On the other hand, FIG. 51 shows that ST3 has a high degree of independence in two divisions.
[0108]
FIG. 51 shows ST3, which has a high degree of independence of two divisions in FIG. 50, as a reference explanatory variable, and shows a degree of inversion 1211 and a degree of independence of two divisions 1211 with other eleven explanatory variables. ST3 indicates that the degree of independence from any other explanatory variable is high.
[0109]
52 and 53 show the degree of entanglement, the degree of independence, and the average value of the top twelve explanatory variables that are considered to have a significant difference in the regression tree analysis of FIG. I can grasp at a glance. The bottom column of FIG. 52 shows the average value 1301 of the two-part entanglement degree, and the bottom column of FIG. 53 shows the average value 1401 of the two-part independence degree.
[0110]
Next, since it has been found that the difference in the devices used in ST3 is effective in the yield independently of other explanatory variables, the wafer group (defective wafer group: S3M2, S3M2, which has a yield failure) due to the device group in ST3. Regression tree analysis is performed separately for the wafer group (good wafer group, using S3M1 and S3M4) by the apparatus group in ST3 that is good and using S3M3). The resulting regression tree diagrams are shown in FIGS.
[0111]
FIG. 54 is a regression tree diagram showing a regression tree analysis result based on a defective wafer group, and includes nodes n1500 to n1506. FIG. 55 is a regression tree diagram showing the results of regression tree analysis using a good wafer group, and includes nodes n1600 to n1606.
[0112]
The first branch of the defective wafer group in FIG. 54 is the same as that of the whole wafer group in FIG. 48, and the number of defective wafer groups in the uppermost layer of the regression tree diagram in FIG. It is presumed that it is considerably influenced by an extremely bad wafer as compared with the above, and this is one factor that makes analysis difficult. In the good wafer group in FIG. 55, the factors that were difficult to see due to the defective device in the ST3 process were newly found.
[0113]
According to the second embodiment, the degree of confounding of the explanatory variables can be grasped more clearly by using the two-part confounding degree and the two-part independence, and the first branch in the regression tree can be combined with the regression tree analysis. It is possible to clarify the explanatory variable to be noted that is entangled with the problem explanatory variable having a large significant difference.
[0114]
Further, by applying the grouping of highly independent explanatory variables and performing the regression tree analysis again, the accuracy (reliability) and analysis efficiency of the regression tree analysis can be improved, and more detailed analysis can be performed.
[0115]
The above-described embodiment can be realized by a computer executing a program. Further, means for supplying the program to the computer, for example, a recording medium such as a CD-ROM recording such a program, or a transmission medium such as the Internet for transmitting such a program can also be applied as an embodiment of the present invention. The above program, recording medium, and transmission medium are included in the category of the present invention.
[0116]
The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. . That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
[0117]
(Supplementary Note 1) A step of editing original data values to quantitatively evaluate and extract one or more data distribution features existing in the original data group;
Selecting and analyzing an arbitrary data distribution feature amount from the extracted data distribution feature amount; and
A process of making a decision based on the obtained analysis results;
The data analysis method characterized by including.
[0118]
(Appendix 2) Editing the original data value and quantitatively evaluating and extracting two or more data distribution feature quantities existing in the original data group;
A step of sequentially selecting and analyzing the extracted individual data distribution features;
A process of making a decision based on the obtained analysis results;
The data analysis method characterized by including.
[0119]
(Supplementary note 3) The data analysis method according to supplementary note 1 or 2, wherein the data distribution feature amount is represented by a continuous value representing a feature level.
[0120]
(Additional remark 4) Each data distribution feature-value is mutually independent regarding each record, The data analysis method as described in any one of Additional remark 1-3 characterized by the above-mentioned.
[0121]
(Supplementary note 5) The data analysis method according to any one of supplementary notes 1 to 4, wherein the analysis is performed by data mining using the data distribution feature amount as an objective variable.
[0122]
(Appendix 6) Individual data distribution feature values are stored in a file for each record, and the same data distribution feature values are sequentially selected from the file for some or all records as objective variables, and regression tree analysis The data analysis method according to appendix 5, wherein the data analysis is performed.
[0123]
(Supplementary note 7) The data analysis method according to any one of supplementary notes 1 to 6, wherein the respective steps are automatically performed by executing software assembled in a sequential manner on a computer system. .
[0124]
(Supplementary Note 8) One of the data distribution feature amounts is y when the order of arrangement of the original data is x, the original data value is y, and the relationship between x and y is approximated by the linear expression y = b · x + a The data analysis method according to any one of appendices 1 to 7, wherein the value is an axis intercept value a.
[0125]
(Supplementary note 9) One of the data distribution feature quantities is an inclination when the order of arrangement of the original data is x, the original data value is y, and the relationship between x and y is approximated by a linear expression y = b · x + a The data analysis method according to any one of appendices 1 to 7, wherein the value is b.
[0126]
(Additional remark 10) One of the said data distribution feature-value is the intensity | strength of the specific periodicity of the original data value with respect to the order of the arrangement | sequence of original data, Any one of additional remark 1-7 characterized by the above-mentioned. Data analysis method.
[0127]
(Additional remark 11) One of the said data distribution feature-value is a value which shows the strongest periodicity of the original data value with respect to the order of the arrangement | sequence of original data, Any one of Additional remark 1-7 characterized by the above-mentioned. Data analysis method.
[0128]
(Supplementary Note 12) (a) A step of preparing data results of explanatory variables and objective variables;
(B) calculating a degree of confounding and / or independence between a plurality of explanatory variables based on the data results;
(C) performing data mining using the degree of confounding and / or independence;
The data analysis method characterized by including.
[0129]
(Supplementary note 13) The data analysis method according to supplementary note 12, wherein the step (b) calculates the degree of confounding and / or independence in a set unit divided into two by regression tree analysis.
[0130]
(Additional remark 14) The said step (b) selects the some explanatory variable used as the factor of the division | segmentation with a significant difference by regression tree analysis, and calculates the confounding degree and / or independence between these several explanatory variables The data analysis method according to appendix 13, characterized by:
[0131]
(Supplementary Note 15) In the step (b), when calculating the degree of confounding and / or independence between the explanatory variable serving as a reference and other explanatory variables, the description in each set divided into two by regression tree analysis 15. The data analysis method according to appendix 14, wherein the degree of confounding and / or independence is calculated based on a ratio of data matching and mismatching between variables.
[0132]
(Supplementary note 16) The data analysis method according to supplementary note 15, wherein the step (c) performs data mining by selecting explanatory variables based on the degree of confounding and / or independence.
[0133]
(Supplementary Note 17) Calculation means for calculating the degree of confounding and / or independence between a plurality of explanatory variables based on the data results of explanatory variables and objective variables;
Data mining means for performing data mining using the confounding degree and / or independence;
A data analysis apparatus comprising:
[0134]
(Supplementary note 18) The data analysis apparatus according to supplementary note 17, wherein the computing means computes the degree of confounding and / or independence in a set unit divided into two by regression tree analysis.
[0135]
(Additional remark 19) The said calculating means selects the some explanatory variable used as the factor of a division | segmentation with a significant difference by regression tree analysis, and calculates the confounding degree and / or independence between these several explanatory variables, The data analysis apparatus according to appendix 18.
[0136]
(Additional remark 20) When the said calculating means calculates the confounding degree and / or independence degree between the explanatory variable used as a reference | standard, and another explanatory variable, between the explanatory variables in each set divided | segmented into 2 by regression tree analysis 20. The data analysis apparatus according to appendix 19, wherein the degree of confounding and / or independence is calculated based on a ratio between the coincidence and disagreement of the data.
[0137]
(Supplementary note 21) The data analysis apparatus according to supplementary note 20, wherein the data mining means performs data mining by selecting explanatory variables based on the degree of confounding and / or independence.
[0138]
(Supplementary Note 22) (a) A procedure for preparing data results of explanatory variables and objective variables;
(B) a procedure for calculating the degree of confounding and / or independence between a plurality of explanatory variables based on the data results;
(C) a procedure for performing data mining using the degree of confounding and / or independence;
The computer-readable recording medium which recorded the program for making a computer perform.
[0139]
【Effect of the invention】
According to the present invention, various data distribution features existing in the original data group accumulated in the computer system are extracted, and each feature amount is sequentially selected and analyzed, thereby causing the cause of each feature amount. Since the data is automatically and quantitatively evaluated and extracted, it is possible to extract a lot of information (trends, characteristic patterns, relevance between data, etc.) by looking at the data from various aspects. Therefore, it is possible to objectively and efficiently quantitatively extract the relevance and significant difference that have been buried in a variety of data and have been difficult to discriminate conventionally.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of a computer system used in Embodiment 1 of the present invention.
FIG. 2 is a block diagram showing an example of a functional configuration of a data analysis apparatus realized by the computer system having the configuration shown in FIG.
FIG. 3 is a chart showing each feature amount extracted by extraction of data distribution features in the first embodiment of the present invention in CSV format;
FIG. 4 is a chart showing information focusing on variation of wafer attribute values as a feature of data distribution within a lot when yield analysis of semiconductor data is performed in the first embodiment of the present invention.
FIG. 5 is a diagram showing a variation in yield values of wafers in a lot for a plurality of lots.
FIG. 6 is a flowchart showing an outline of an example of a data analysis method according to the first exemplary embodiment of the present invention;
FIG. 7 is a characteristic diagram showing a relationship between yield and VT_N2 as a specific example.
FIG. 8 is a diagram showing a histogram of VT_N2 data obtained from all wafers as a specific example.
FIG. 9 is a diagram showing a box whisker diagram in which all VT_N2 data is displayed for each wafer number as a specific example;
FIG. 10 is a diagram showing a result of regression tree analysis using a target variable as an average value of VT_N2 in each lot and an explanatory variable as a device name used in each process as a specific example.
11 is a diagram showing an example of an evaluation statistical value list for the regression tree analysis result shown in FIG.
FIG. 12 is a diagram showing a box whisker diagram in which all VT_N2 data is displayed for each used device name of the second wiring_device as a specific example;
FIG. 13 is a diagram showing a result of regression tree analysis performed with the objective variable as the value of VT_N2 of each wafer and the explanatory variable as the device name used in each process as a specific example.
14 is a diagram showing an example of an evaluation statistical value list for the regression tree analysis result shown in FIG. 13; FIG.
FIG. 15 is a diagram showing a box whisker diagram in which all VT_N2 data is displayed for each used device name of the 2CON process_device as a specific example;
FIG. 16 is a chart showing a file that defines each feature quantity of VT_N2 for each lot as a specific example;
FIG. 17 is a diagram illustrating a histogram of each feature amount of distribution in a lot of VT_N2 as a specific example.
FIG. 18 is a chart showing a file for performing regression tree analysis on the feature amount of distribution in VT_N2 as a specific example.
FIG. 19 is a chart showing an input file for analyzing yield fluctuation factors by regression tree analysis as a specific example;
FIG. 20 is a diagram showing a result of regression tree analysis using a target variable as a standard deviation value of VT_N2 in each lot and an explanatory variable as a device name used in each process as a specific example.
FIG. 21 is a diagram showing an example of an evaluation statistical value list for the regression tree analysis result shown in FIG. 20;
FIG. 22 is a diagram showing a box mustache diagram in which all VT_N2 data is displayed for each device name used in the Field_Ox process_device as a specific example.
FIG. 23 is a diagram showing a histogram of VT_N2 of all wafers using the PM1 or PM3 machine in the Field_Ox process as a specific example.
FIG. 24 is a diagram showing a VT_N2 histogram of wafers for one lot using the PM1 or PM3 machine in the Field_Ox process as a specific example.
FIG. 25 is a diagram showing a histogram of VT_N2 of wafers for one lot using PM1 or PM3 in the Field_Ox process as a specific example.
FIG. 26 is a diagram showing a VT_N2 histogram of one lot of wafers using the PM1 or PM3 machine in the Field_Ox process as a specific example.
FIG. 27 is a diagram showing a VT_N2 histogram of all wafers using the PM2 machine in the Field_Ox process as a specific example.
FIG. 28 is a diagram showing a VT_N2 histogram of one lot of wafers using the PM2 machine in the Field_Ox process as a specific example.
FIG. 29 is a diagram showing a VT_N2 histogram of one lot of wafers using the PM2 machine in the Field_Ox process as a specific example.
FIG. 30 is a diagram showing a VT_N2 histogram of one lot of wafers using the PM2 machine in the Field_Ox process as a specific example.
FIG. 31 is a diagram showing the result of regression tree analysis using the objective variable as the periodicity value of the interval 2 of the wafer number as a specific example and the explanatory variable as the name of the apparatus used in each step.
32 is a diagram showing an example of an evaluation statistical value list for the regression tree analysis result shown in FIG. 31;
FIG. 33 is a diagram showing a box whisker diagram in which the periodicity value of the wafer number interval 2 is displayed for each device name used in the F diffusion process_device as a specific example.
FIG. 34 is a diagram showing in-lot fluctuation of VT_N2 for one lot of wafers using the F7 machine in the F diffusion process as a specific example.
FIG. 35 is a diagram showing in-lot variation of VT_N2 for one lot of wafers using the F7 machine in the F diffusion process as a specific example.
FIG. 36 is a diagram showing in-lot variation of VT_N2 for one lot of wafers using the F7 machine in the F diffusion process as a specific example.
FIG. 37 is a diagram showing variation in VT_N2 within a lot for one lot of wafers using No. F5, No. F6, No. F8 or No. F9 in the F diffusion process as a specific example.
FIG. 38 is a diagram showing variation in VT_N2 within a lot for one lot of wafers using No. F5, No. F6, No. F8 or No. F9 in the F diffusion process as a specific example.
FIG. 39 is a diagram showing in-lot variation of VT_N2 for one lot of wafers using No. F5, No. F6, No. F8 or No. F9 in the F diffusion process as a specific example.
FIG. 40 is a diagram illustrating a relationship between a lot flow and an abnormal manufacturing apparatus.
FIG. 41 is a diagram showing yield distribution by device in a certain process according to the prior art.
FIG. 42 is a diagram showing the relationship between the lot flow and the entanglement of the abnormal manufacturing apparatus.
FIG. 43 is a diagram illustrating an example of regression tree analysis input data.
FIG. 44 is a diagram illustrating an example of a regression tree.
FIG. 45 is a diagram illustrating an example of an evaluation statistical value list;
FIG. 46 is a diagram showing a relationship among a manufacturing apparatus used, electrical characteristic data, and a yield value.
FIG. 47 is a diagram illustrating a calculation example of a two-part entanglement degree and a two-part independence degree.
FIG. 48 is a diagram illustrating an example of a regression tree.
FIG. 49 is a diagram showing an example of an evaluation statistical value list.
FIG. 50 is a diagram illustrating the degree of confounding and independence between each explanatory variable and the first candidate explanatory variable;
FIG. 51 is a diagram showing the degree of confounding and independence between each explanatory variable and the third candidate explanatory variable;
FIG. 52 is a diagram showing the degree of confounding and the average of all candidates.
FIG. 53 is a diagram showing the degree of independence and the average of all candidates.
FIG. 54 is a regression tree diagram showing the results of regression tree analysis using a defective wafer group.
FIG. 55 is a regression tree diagram showing the results of regression tree analysis using a good wafer group.
FIG. 56 is a diagram illustrating an example of a functional configuration of the data analysis apparatus.
[Explanation of symbols]
21 Means to extract data distribution features
22 Means for selecting feature quantity to be analyzed
23 Data mining means
24 Rule file
25 Statistical analysis components
26 Charting components
27 Analysis tools
41 database
42 Original data group
101 Normal device
102 Abnormal equipment
401 explanatory variables
402 Objective variable
411 Equipment used
412 Electrical characteristics data
413 Yield
801 Standard explanatory variable
802 Comparison explanatory variable
803 Wafer number
804 Yield
811 High yield group of standard explanatory variables
812 Low yield group of standard explanatory variables
813 Formula for calculating the degree of entanglement
814 Two-part entanglement
815 Independence of 2 divisions
1701 Original data group
1702 Database
1703 Data Mining Department
1704 rule file
1705 Analysis tools
1706 Statistical analysis components
1707 Chart creation component
1708 Decision Making Department

Claims (4)

中央処理装置と半導体製造プロセスで測定されたオリジナルデータ群を記憶する記憶装置とを有するコンピュータが前記半導体製造プロセスにおける不良要因についてのデータ解析を実行するデータ解析方法であって、A data analysis method in which a computer having a central processing unit and a storage device that stores an original data group measured in a semiconductor manufacturing process performs data analysis on a failure factor in the semiconductor manufacturing process,
前記コンピュータが、The computer is
前記中央処理装置により、前記記憶装置の中から解析対象となるデータ群を抽出して前記記憶装置に記憶する抽出処理と、An extraction process for extracting a data group to be analyzed from the storage device and storing it in the storage device by the central processing unit;
前記中央処理装置により、前記抽出処理によって抽出された前記解析対象となるデータ群から前記解析対象のデータ分布特徴量を求めて前記記憶装置に記憶する処理と、Processing for obtaining the data distribution feature quantity of the analysis target from the data group to be analyzed extracted by the extraction process by the central processing unit and storing it in the storage device;
前記中央処理装置により、前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程で目的変数および説明変数を2つの集合に分割し、分割された目的変数および説明変数を前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程でさらに2つの集合に分割していく回帰木分析を、前記データ分布特徴量を前記目的変数とし、前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程で使用した装置の識別情報を前記説明変数として実行して、実行結果を前記記憶装置に記憶する実行処理と、The central processing unit divides the objective variable and the explanatory variable into two sets in a process selected from the unselected processes in the process group of the semiconductor manufacturing process, and the divided objective variable and explanatory variable are divided into the sets. Regression tree analysis that is further divided into two sets at a step selected from among the unselected steps in the process group of the semiconductor manufacturing process, the data distribution feature amount as the objective variable, and the semiconductor manufacturing process Execution processing for storing the identification information of the device used in the process selected from the unselected processes among the process group as the explanatory variable, and storing the execution result in the storage device;
前記中央処理装置により、前記実行処理での分割ごとに、分割前の目的変数と分割後の2つの目的変数とに基づいて、分割後の一方の説明変数である装置と他方の説明変数である装置との間の評価値を算出して前記記憶装置に記憶する算出処理と、For each division in the execution process by the central processing unit, the apparatus is one explanatory variable after the division and the other explanatory variable based on the objective variable before the division and the two objective variables after the division. A calculation process of calculating an evaluation value between the storage device and storing it in the storage device;
前記算出処理によって分割ごとに算出された評価値を出力する出力処理と、An output process for outputting an evaluation value calculated for each division by the calculation process;
を実行することを特徴とするデータ解析方法。The data analysis method characterized by performing.
前記データ分布特徴量は、特徴の程度を表す連続値で示されることを特徴とする請求項1に記載のデータ解析方法。  The data analysis method according to claim 1, wherein the data distribution feature amount is represented by a continuous value representing a degree of the feature. 中央処理装置と半導体製造プロセスで測定されたオリジナルデータ群を記憶する記憶装置とを有するコンピュータが前記半導体製造プロセスにおける不良要因についてのデータ解析を実行するデータ解析プログラムであって、A computer having a central processing unit and a storage device for storing an original data group measured in a semiconductor manufacturing process is a data analysis program for performing data analysis on a failure factor in the semiconductor manufacturing process,
前記コンピュータに、In the computer,
前記中央処理装置により、前記記憶装置の中から解析対象となるデータ群を抽出して前記記憶装置に記憶する抽出処理と、An extraction process for extracting a data group to be analyzed from the storage device and storing it in the storage device by the central processing unit;
前記中央処理装置により、前記抽出処理によって抽出された前記解析対象となるデータ群から前記解析対象のデータ分布特徴量を求めて前記記憶装置に記憶する処理と、Processing for obtaining the data distribution feature quantity of the analysis target from the data group to be analyzed extracted by the extraction process by the central processing unit and storing it in the storage device;
前記中央処理装置により、前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程で目的変数および説明変数を2つの集合に分割し、分割された目的変数および説明変数を前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程でさらに2つの集合に分割していく回帰木分析を、前記データ分布特徴量を前記目的変数とし、前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程で使用した装置の識別情報を前記説明変数として実行して、実行結果を前記記憶装置に記憶する実行処理と、The central processing unit divides the objective variable and the explanatory variable into two sets in a process selected from the unselected processes in the process group of the semiconductor manufacturing process, and the divided objective variable and explanatory variable are divided into the sets. Regression tree analysis that is further divided into two sets at a step selected from among the unselected steps in the process group of the semiconductor manufacturing process, the data distribution feature amount as the objective variable, and the semiconductor manufacturing process Execution processing for storing the identification information of the device used in the process selected from the unselected processes among the process group as the explanatory variable, and storing the execution result in the storage device;
前記中央処理装置により、前記実行処理での分割ごとに、分割前の目的変数と分割後の2つの目的変数とに基づいて、分割後の一方の説明変数である装置と他方の説明変数である装置との間の評価値を算出して前記記憶装置に記憶する算出処理と、For each division in the execution process by the central processing unit, the apparatus is one explanatory variable after the division and the other explanatory variable based on the objective variable before the division and the two objective variables after the division. A calculation process of calculating an evaluation value between the storage device and storing it in the storage device;
前記算出処理によって分割ごとに算出された評価値を出力する出力処理と、An output process for outputting an evaluation value calculated for each division by the calculation process;
を実行させることを特徴とするデータ解析プログラム。A data analysis program characterized in that it is executed.
中央処理装置と半導体製造プロセスで測定されたオリジナルデータ群を記憶する記憶装置とを有するコンピュータが前記半導体製造プロセスにおける不良要因についてのデータ解析を実行するデータ解析装置であって、A computer having a central processing unit and a storage device for storing an original data group measured in a semiconductor manufacturing process is a data analysis device for performing data analysis on a failure factor in the semiconductor manufacturing process,
前記中央処理装置により、前記記憶装置の中から解析対象となるデータ群を抽出して前記記憶装置に記憶する抽出処理と、An extraction process for extracting a data group to be analyzed from the storage device and storing it in the storage device by the central processing unit;
前記中央処理装置により、前記抽出処理によって抽出された前記解析対象となるデータ群から前記解析対象のデータ分布特徴量を求めて前記記憶装置に記憶する処理と、Processing for obtaining the data distribution feature quantity of the analysis target from the data group to be analyzed extracted by the extraction process by the central processing unit and storing it in the storage device;
前記中央処理装置により、前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程で目的変数および説明変数を2つの集合に分割し、分割された目的変数および説明変数を前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程でさらに2つの集合に分割していく回帰木分析を、前記データ分布特徴量を前記目的変数とし、前記半導体製造プロセスの工程群のうち未選択の工程の中から選ばれた工程で使用した装置の識別情報を前記説明変数として実行して、実行結果を前記記憶装置に記憶する実行処理と、The central processing unit divides the objective variable and the explanatory variable into two sets in a process selected from the unselected processes in the process group of the semiconductor manufacturing process, and the divided objective variable and explanatory variable are divided into the sets. Regression tree analysis that is further divided into two sets at a step selected from among the unselected steps in the process group of the semiconductor manufacturing process, the data distribution feature amount as the objective variable, and the semiconductor manufacturing process Execution processing for storing the identification information of the device used in the process selected from the unselected processes among the process group as the explanatory variable, and storing the execution result in the storage device;
前記中央処理装置により、前記実行処理での分割ごとに、分割前の目的変数と分割後の2つの目的変数とに基づいて、分割後の一方の説明変数である装置と他方の説明変数である装置との間の評価値を算出して前記記憶装置に記憶する算出処理と、For each division in the execution process by the central processing unit, the apparatus is one explanatory variable after the division and the other explanatory variable based on the objective variable before the division and the two objective variables after the division. A calculation process of calculating an evaluation value between the storage device and storing it in the storage device;
前記算出処理によって分割ごとに算出された評価値を出力する出力処理と、An output process for outputting an evaluation value calculated for each division by the calculation process;
を実行することを特徴とするデータ解析装置。The data analysis device characterized by performing.
JP2001338185A 2001-04-25 2001-11-02 Data analysis method, data analysis program, and data analysis apparatus Expired - Fee Related JP4866520B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001338185A JP4866520B2 (en) 2001-11-02 2001-11-02 Data analysis method, data analysis program, and data analysis apparatus
US10/058,792 US6711522B2 (en) 2001-04-25 2002-01-30 Data analysis apparatus, data analysis method, and computer products

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001338185A JP4866520B2 (en) 2001-11-02 2001-11-02 Data analysis method, data analysis program, and data analysis apparatus

Publications (2)

Publication Number Publication Date
JP2003142361A JP2003142361A (en) 2003-05-16
JP4866520B2 true JP4866520B2 (en) 2012-02-01

Family

ID=19152717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001338185A Expired - Fee Related JP4866520B2 (en) 2001-04-25 2001-11-02 Data analysis method, data analysis program, and data analysis apparatus

Country Status (1)

Country Link
JP (1) JP4866520B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4649837B2 (en) * 2003-12-12 2011-03-16 株式会社ニコン Data analysis method, device manufacturing method and system
JP5011830B2 (en) 2006-06-09 2012-08-29 富士通セミコンダクター株式会社 DATA PROCESSING METHOD, DATA PROCESSING PROGRAM, RECORDING MEDIUM CONTAINING THE PROGRAM, AND DATA PROCESSING DEVICE
JP5774331B2 (en) * 2011-03-03 2015-09-09 株式会社日立国際電気 Substrate processing system, management apparatus, data analysis method, and data analysis program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306999A (en) * 2000-02-18 2001-11-02 Fujitsu Ltd Data analyzer and data analysis method

Also Published As

Publication number Publication date
JP2003142361A (en) 2003-05-16

Similar Documents

Publication Publication Date Title
US6711522B2 (en) Data analysis apparatus, data analysis method, and computer products
JP4239932B2 (en) production management system
US7415387B2 (en) Die and wafer failure classification system and method
US7138283B2 (en) Method for analyzing fail bit maps of wafers
US8788237B2 (en) Methods and apparatus for hybrid outlier detection
Keim et al. A rapid yield learning flow based on production integrated layout-aware diagnosis
US7584162B2 (en) Manufacture data analysis method and manufacture data analyzer apparatus
US20070219741A1 (en) Methods and apparatus for hybrid outlier detection
TWI503763B (en) Control method for processing semiconductor and computer readable recording media
JP5080526B2 (en) Method and apparatus for data analysis
JP2001306999A (en) Data analyzer and data analysis method
US9142014B2 (en) System and method for identifying systematic defects in wafer inspection using hierarchical grouping and filtering
Jiang et al. A Gaussian mixture model clustering ensemble regressor for semiconductor manufacturing final test yield prediction
Huang et al. Improving diagnosis efficiency via machine learning
JP7354421B2 (en) Error factor estimation device and estimation method
CN114169286A (en) Wafer defect tracing method and device, electronic equipment and computer readable medium
JP4866520B2 (en) Data analysis method, data analysis program, and data analysis apparatus
JP2011054804A (en) Method and system for management of semiconductor manufacturing device
CN116230586B (en) Commonality analysis method and terminal of wafer manufacturing machine unit
Selg et al. Wafer-level die re-test success prediction using machine learning
JP2008250910A (en) Data mining method and process management method
Giri et al. Explainable Machine Learning Approach to Yield and Quality Improvements Using Deep Topological Data Analytics
JP2002324206A (en) Data analyzing method and its device
CN111782695B (en) MPW multi-product joint measurement data processing method, storage medium and computer equipment
KR102182678B1 (en) Method and appratus for predicting fault pattern using multi-classifier based on feature selection method in semiconductor manufacturing process

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080722

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081110

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081120

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20081212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees