JP7500330B2 - 成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置 - Google Patents

成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置 Download PDF

Info

Publication number
JP7500330B2
JP7500330B2 JP2020131867A JP2020131867A JP7500330B2 JP 7500330 B2 JP7500330 B2 JP 7500330B2 JP 2020131867 A JP2020131867 A JP 2020131867A JP 2020131867 A JP2020131867 A JP 2020131867A JP 7500330 B2 JP7500330 B2 JP 7500330B2
Authority
JP
Japan
Prior art keywords
film formation
result
condition
difference
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020131867A
Other languages
English (en)
Other versions
JP2022028457A (ja
Inventor
敏之 福元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Ltd
Original Assignee
Tokyo Electron Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Ltd filed Critical Tokyo Electron Ltd
Priority to JP2020131867A priority Critical patent/JP7500330B2/ja
Priority to US17/380,253 priority patent/US20220037134A1/en
Priority to TW110126707A priority patent/TWI854140B/zh
Priority to KR1020210095755A priority patent/KR20220016778A/ko
Priority to CN202110826264.2A priority patent/CN114067930A/zh
Publication of JP2022028457A publication Critical patent/JP2022028457A/ja
Application granted granted Critical
Publication of JP7500330B2 publication Critical patent/JP7500330B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/32Gas-filled discharge tubes
    • H01J37/32917Plasma diagnostics
    • H01J37/32926Software, data control or modelling
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C16/00Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes
    • C23C16/44Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating
    • C23C16/50Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating using electric discharges
    • C23C16/513Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating using electric discharges using plasma jets
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C16/00Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes
    • C23C16/44Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating
    • C23C16/52Controlling or regulating the coating process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/041Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a variable is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C14/00Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material
    • C23C14/22Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material characterised by the process of coating
    • C23C14/54Controlling or regulating the coating process
    • C23C14/542Controlling the film thickness or evaporation rate
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Materials Engineering (AREA)
  • Medical Informatics (AREA)
  • Organic Chemistry (AREA)
  • Evolutionary Computation (AREA)
  • Metallurgy (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Plasma & Fusion (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Databases & Information Systems (AREA)
  • Chemical Vapour Deposition (AREA)

Description

本開示は、成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置に関する。
成膜装置において、目標の成膜結果を実現する最適な成膜条件を探索するために、従来より、成膜装置が行う成膜処理を機械学習技術を用いてモデル化した、種々の予測モデルが提案されている。一例として、非線形回帰モデルが挙げられる。
非線形回帰モデルの場合、線形回帰モデルと比べてモデルの表現力が高く、複雑な回帰曲線に出力が従っているとしても局所的に予測精度を上げることができる。しかし、その反面、データサンプルの偏りやデータサンプル数の不足等により大域的な予測精度が低下することがある。このため、非線形回帰モデルを用いて最適化された成膜条件にて成膜処理を行った場合、、実際の成膜結果が目標の成膜結果から大きく外れることがある。
特許第6647473号
本開示は、より適切な成膜条件を出力可能な成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置を提供する。
一態様によれば、成膜条件出力装置は、
成膜装置による成膜処理をモデル化した線形モデルに成膜条件を入力することで、該線形モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、目標の成膜結果を実現するための第1の成膜条件を算出する第1の最適化部と、
前記成膜装置による成膜処理をモデル化した非線形回帰モデルであって、予測した成膜結果の信頼区間を算出可能な該非線形回帰モデルに成膜条件を入力することで、該非線形回帰モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、前記目標の成膜結果を実現するための第2の成膜条件を算出する第2の最適化部と、
前記第2の成膜条件が算出された際に予測された成膜結果の信頼区間が、
所定の条件を満たさないと判定した場合、前記第1の成膜条件を選択して出力し、
所定の条件を満たすと判定した場合、前記第1の成膜条件が算出された際の第1の成膜結果と、前記目標の成膜結果との差分である第1の差分と、前記第2の成膜条件が算出された際の第2の成膜結果と、前記目標の成膜結果との差分である第2の差分とを比較し、
前記第1の差分が前記第2の差分より小さい場合、前記第1の成膜条件を選択して出力し、
前記第1の差分が前記第2の差分と同じか前記第2の差分より大きい場合、前記第2の成膜条件を選択して出力する選択部とを有する。
本開示によれば、より適切な成膜条件を出力可能な成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置を提供することができる。
成膜条件出力装置の適用例を示す図である。 成膜条件出力装置のハードウェア構成の一例を示す図である。 学習用データセット格納部に格納された学習用データセットの一例を示す図である。 学習フェーズにおける成膜条件出力装置の機能構成の一例を示す図である。 予測フェーズにおける成膜条件出力装置の機能構成の一例を示す図である。 成膜条件出力処理の流れを示すフローチャートの一例である。 学習済み線形モデルを用いた最適化処理の流れを示すフローチャートである。 学習済みガウス過程回帰モデルを用いた最適化処理の流れを示すフローチャートである。 選択処理の流れを示すフローチャートである。 選択処理の具体例を示す図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[第1の実施形態]
<成膜条件出力装置の適用例>
はじめに、第1の実施形態に係る成膜条件出力装置の適用例について説明する。図1は、成膜条件出力装置の適用例を示す図である。このうち、図1(a)は、学習フェーズにおける成膜条件出力装置の適用例を示している。
図1(a)に示すように、学習フェーズにおいて、成膜システム100は、成膜装置120と、成膜条件出力装置140と、膜厚測定装置150とを有する。
成膜装置120は、対象物(処理前ウェハ110)に対して成膜処理を行い、結果物(処理後ウェハ130)を生成する。本実施形態において、成膜装置120は、例えば、複数のプラズマ源を有する枚葉の成膜装置として説明するが、成膜装置120は、これに限定されない。例えば、プラズマ源が単数の成膜装置であってもよいし、複数枚の処理前ウェハ110に対して成膜処理を行うバッチ式の成膜装置であってもよい。ただし、バッチ式の成膜装置においてゾーンごとに以下に説明する成膜条件出力装置140の処理が行われる場合にあっては、全ゾーンで一度に処理が行われるものとする。
なお、処理前ウェハ110とは、成膜装置において成膜処理が行われる前のウェハ(基板)を指し、処理後ウェハ130とは、成膜装置において成膜処理が行われた後のウェハ(基板)を指す。
膜厚測定装置150は、処理前ウェハ110の各位置の膜厚と、処理後ウェハ130の各位置の膜厚とをそれぞれ測定する。また、膜厚測定装置150は、処理前ウェハ110及び処理後ウェハ130のそれぞれについて測定された各位置の膜厚を、成膜結果として、成膜条件出力装置140に通知する。なお、本実施形態では、成膜結果の一例として、膜厚測定装置150が測定した各位置の膜厚を成膜条件出力装置140に通知するが、成膜条件出力装置140に通知する成膜結果は、各位置の膜厚に限定されない。例えば、各位置の膜厚に代えて(あるいは各位置の膜厚に加えて)、各位置の膜質を通知してもよい。
成膜条件出力装置140は、ユーザ160により入力された成膜条件を成膜装置120に設定し、設定した成膜条件のもとで成膜装置120が成膜処理を行うことで測定された成膜結果を取得する。
また、成膜条件出力装置140は、設定した成膜条件と取得した成膜結果とを含む学習用データを複数生成し、学習用データセットとして学習用データセット格納部141に格納する。更に、成膜条件出力装置140は、格納した学習用データセットを読み出し、複数の学習用データを用いて、複数の予測モデル(線形モデル、非線形回帰モデル)について学習処理を行い、学習結果(学習済みの複数の予測モデル)を出力する。
一方、図1(b)は、予測フェーズにおける成膜条件出力装置の適用例を示している。図1(b)に示すように、予測フェーズにおいて、成膜システム100は、成膜装置120と、成膜条件出力装置140とを有する。
なお、本実施形態において、成膜装置120は、学習フェーズにおける成膜装置120と同じ個体であるとして説明する。ただし、学習フェーズにおける成膜装置と予測フェーズにおける成膜装置とは、例えば、同じ機種の異なる個体であってもよい。
成膜条件出力装置140は、ユーザ160により入力された初期成膜条件及び目標成膜条件に基づいて、学習済みの複数の予測モデル(線形モデル、非線形回帰モデル)を実行する。また、成膜条件出力装置140は、学習済みの複数の予測モデルの実行結果の中から、最適化成膜条件と予測成膜結果とを選択し、ユーザ160に出力する。なお、最適化成膜条件は、ユーザ160によって確認された後、成膜装置120に設定される。
このように、学習済みの複数の予測モデルの実行結果の中から選択した最適化成膜条件を成膜装置120に設定する構成とすることで、より適切な最適化成膜条件を設定することが可能になる。
具体的には、データサンプルの偏りやデータサンプル数の不足等により、非線形回帰モデルの予測精度が低下しているケースでは、線形モデルの実行結果に基づいて最適化成膜条件と予測成膜結果とを選択する。また、非線形回帰モデルの予測精度が高いケースでは、非線形回帰モデルの実行結果に基づいて最適化成膜条件と予測成膜結果とを選択する。
これにより、成膜装置120では、目標成膜結果を実現する処理後ウェハ130を生成することができる。
<成膜条件出力装置のハードウェア構成>
図2は、成膜条件出力装置140のハードウェア構成の一例を示す図である。図2に示すように、成膜条件出力装置140は、プロセッサ201、メモリ202、補助記憶装置203、I/F(Interface)装置204、通信装置205、ドライブ装置206を有する。なお、成膜条件出力装置140の各ハードウェアは、バス207を介して相互に接続される。
プロセッサ201は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の各種演算デバイスを有する。プロセッサ201は、各種プログラム(例えば、後述する成膜条件出力プログラム等)をメモリ202上に読み出して実行する。
メモリ202は、ROM(Read Only Memory)、RAM(Random Access Memory)等の主記憶デバイスを有する。プロセッサ201とメモリ202とは、いわゆるコンピュータを形成し、プロセッサ201が、メモリ202上に読み出した各種プログラムを実行することで、当該コンピュータは各種機能を実現する。
補助記憶装置203は、各種プログラムや、各種プログラムがプロセッサ201によって実行される際に用いられる各種データを格納する。例えば、学習用データセット格納部141は、補助記憶装置203において実現される。
I/F装置204は、外部装置の一例である操作装置211、表示装置212と、成膜条件出力装置140とを接続する接続デバイスである。I/F装置204は、成膜条件出力装置140に対する操作(例えば、成膜条件の入力、初期成膜条件の入力、目標成膜結果の入力等)を、操作装置211を介して受け付ける。また、I/F装置204は、成膜条件出力装置140による実行結果(例えば、予測成膜結果、最適化成膜条件等)を出力し、表示装置212に表示する。
通信装置205は、ネットワークを介して他の装置(例えば、成膜装置120)と通信するための通信デバイスである。
ドライブ装置206は記録媒体213をセットするためのデバイスである。ここでいう記録媒体213には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体213には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶装置203にインストールされる各種プログラムは、例えば、配布された記録媒体213がドライブ装置206にセットされ、該記録媒体213に記録された各種プログラムがドライブ装置206により読み出されることでインストールされる。あるいは、補助記憶装置203にインストールされる各種プログラムは、不図示のネットワークを介してダウンロードされることで、インストールされてもよい。
<学習用データセットの具体例>
次に、学習用データセット格納部141に格納される学習用データセットの具体例について説明する。図3は、学習用データセット格納部に格納された学習用データセットの一例を示す図である。
図3に示すように、学習用データセット300は、学習用データ1、学習用データ2、学習用データ3、・・・等、複数の学習用データを含む。また、各学習用データは、成膜条件と成膜結果との組により構成される。図3の例は、"学習用データ1"が、成膜条件300_1と、成膜結果300_2との組により構成されていることを示している。
図3に示すように、成膜条件300_1は、情報の項目として、"プロセスデータの種類"と"プロセスデータ"とを含む。
"プロセスデータの種類"には、成膜に関わるプロセスデータの種類が格納される。図3の例は、プロセスデータの種類として、"圧力"、"プラズマガス流量"、"プラズマ源#1の出力"~"プラズマ源#7の出力"、"温度"、"成膜時間"が含まれることを示している。
"プロセスデータ"には、"プロセスデータの種類"に対応するプロセスデータの値が格納される。
一方、図3に示すように、成膜結果300_2は、情報の項目として、"測定位置"と"膜厚データ"とを含む。
"測定位置"には、処理後ウェハ130上の各位置のうち、膜厚測定装置150により膜厚が測定された各位置を特定する測定点が格納される(本実施形態において、膜厚測定装置150は、n個の各位置において膜厚を測定するものとする)。また、"膜厚データ"には、"測定位置"に対応する各位置において測定された膜厚データの値が格納される。
<成膜条件出力装置の機能構成>
次に、成膜条件出力装置140の機能構成について図4及び図5を用いて説明する。
(1)学習フェーズにおける成膜条件出力装置
図4は、学習フェーズにおける成膜条件出力装置の機能構成の一例を示す図である。上述したように、成膜条件出力装置140には、成膜条件出力プログラムがインストールされており、学習フェーズにおいて当該プログラムが実行されることで、成膜条件出力装置140は、第1学習部410及び第2学習部420として機能する。
第1学習部410は、線形モデル411を有する。第1学習部410は、学習用データセット格納部141より読み出した学習用データセット300を用いて、線形モデル411のモデルパラメータを更新する。具体的には、第1学習部410は、各学習用データに含まれる成膜条件(例えば、成膜条件300_1)を入力した場合の出力が、各学習用データに含まれる成膜結果(例えば、成膜結果300_2)に近づくよう、モデルパラメータを更新する。なお、モデルパラメータが更新された学習済みの線形モデル(学習結果)は、予測フェーズにおいて用いられる。
第2学習部420は、非線形回帰モデルの一例であるガウス過程回帰モデル421を有する。ガウス過程回帰モデルとは、ノンパラメトリックな確率モデルであり、予測結果(本実施形態では、予測成膜結果)とともに、予測結果の分散(本実施形態では、信頼区間の幅)を出力することが可能なモデルである。
図4において、第2学習部420は、学習用データセット格納部141より読み出した学習用データセット300を用いて、ガウス過程回帰モデル421のモデルパラメータを更新する。具体的には、第2学習部420は、各学習用データに含まれる成膜条件(例えば、成膜条件300_1)を入力した場合の出力が、各学習用データに含まれる成膜結果(例えば、成膜結果300_2)に近づくよう、モデルパラメータを更新する。なお、モデルパラメータが更新された学習済みのガウス過程回帰モデル(学習結果)は、予測フェーズにおいて用いられる。
予測フェーズにおいて用いられるガウス過程回帰モデルは、例えば、学習フェーズにおいて生成された学習済みのガウス過程回帰モデルである下式(1)を基に、下式(2)により表すことができる。
Figure 0007500330000001
Figure 0007500330000002
なお、上式(1)、(2)において、X、yはそれぞれ学習フェーズで用いた学習用データに含まれる成膜条件と成膜結果、xn+1とyn+1はそれぞれ最適化計算において求める成膜条件と成膜結果を表す。また、Σ(n)とΣn+1はガウス過程における共分散行列の対角ブロックである。更に、
Figure 0007500330000003
はガウス過程における共分散行列の非対角ブロックである。
上式(2)から、成膜結果の予測値は下式(3)のような確率分布に従うことが導かれる。
Figure 0007500330000004
上式(3)より、学習フェーズにおいて生成されたガウス過程回帰モデルを用いた場合、xn+1という成膜条件下での成膜結果は、上式(3)の右辺のガウス分布の平均値である、
Figure 0007500330000005
で与えられる。そして、ガウス過程回帰モデルでの成膜条件の最適化においては、ガウス分布の平均値である、
Figure 0007500330000006
が目標の成膜結果に近づくような成膜条件xn+1を計算する。
また、ガウス過程回帰モデル421を用いて成膜結果を予測した際の信頼区間は、上式(1)の右辺のガウス分布の分散である、
Figure 0007500330000007
に基づいて、算出される。
(2)予測フェーズにおける成膜条件出力装置
図5は、予測フェーズにおける成膜条件出力装置の機能構成の一例を示す図である。上述したように、成膜条件出力装置140には、成膜条件出力プログラムがインストールされており、予測フェーズにおいて当該プログラムが実行されることで、成膜条件出力装置140は、
・最適化部510、
・第1予測部520、
・最適化部530、
・第2予測部540、
・選択部550、
として機能する。
最適化部510は、ユーザ160により入力された初期成膜条件及び目標成膜結果を受け付ける。また、最適化部510は、受け付けた初期成膜条件を第1予測部520に入力することで第1予測部520より出力される第1の予測成膜結果(第1の成膜結果)を取得し、目標成膜結果と比較することで、成膜条件を調整する。また、最適化部510は、調整後の成膜条件を第1予測部520に入力することで第1予測部520より出力される第1の予測成膜結果を取得し、目標成膜結果と比較することで、成膜条件を更に調整する。
なお、最適化部510では、第1の予測成膜結果と目標成膜結果との比較、及び、比較結果に基づく成膜条件の調整、を繰り返し実行することで、成膜条件を最適化する。例えば、最適化部510は、成膜条件に含まれる複数種類のプロセスデータを逐次変更しながら、成膜条件を最適化する。
また、最適化部510では、第1の予測成膜結果と目標成膜結果との差異が所定の条件を満たすと判定した場合に、成膜条件の最適化処理を終了し、終了時点での成膜条件を、第1の最適化成膜条件(第1の成膜条件)として、選択部550に通知する。
なお、最適化部510では、所定の条件として、例えば、
・n個の測定点の第1の予測成膜結果の平均値と、n個の測定点の目標成膜結果の平均値との差異が所定の閾値以下、
・n個の測定点の第1の予測成膜結果のばらつきが所定の閾値以下、
等を満たした場合に、第1の予測成膜結果と目標成膜結果との差異が所定の条件を満たしたと判定する。
第1予測部520は第1の算出部の一例であり、学習フェーズにおいて第1学習部410により生成された、学習済み線形モデル521を有する。第1予測部520は、最適化部510より初期成膜条件または調整後の成膜条件を取得し、学習済み線形モデル521に入力する。また、第1予測部520は、初期成膜条件または調整後の成膜条件を入力することで学習済み線形モデル521から出力される、第1の予測成膜結果を、最適化部510に通知する。更に、第1予測部520は、最適化部510において所定の条件を満たすと判定された第1の予測成膜結果を、選択部550に通知する。
なお、図5の例では、最適化部510が所定の条件を満たすと判定するまで、成膜条件の調整を繰り返し実行することで、成膜条件を最適化する場合について説明した。しかしながら、学習済み線形モデルによっては、成膜条件の調整を繰り返し実行する必要がない場合もある。
このような場合、最適化部510では、所定の条件を満たすか否かを判定することなく(あるいは、第1の予測成膜結果と目標成膜結果との差異が常に所定の条件を満たすとして)、第1の最適化成膜条件を選択部550に通知する。
最適化部530は、ユーザ160により入力された初期成膜条件及び目標成膜結果を受け付ける。また、最適化部530は、受け付けた初期成膜条件を第2予測部540に入力することで第2予測部540より出力される第2の予測成膜結果(第2の成膜結果)を取得し、目標成膜結果と比較することで、成膜条件を調整する。また、最適化部530は、調整後の成膜条件を第2予測部540に入力することで第2予測部540より出力される第2の予測成膜結果を取得し、目標成膜結果と比較することで、成膜条件を更に調整する。
なお、最適化部530では、第2の予測成膜結果と目標成膜結果との比較、及び、比較結果に基づく成膜条件の調整、を繰り返し実行することで、成膜条件を最適化する。例えば、最適化部530は、成膜条件に含まれる複数種類のプロセスデータを逐次変更しながら、成膜条件を最適化する。
また、最適化部530では、第2の予測成膜結果と目標成膜結果との差異が所定の条件を満たすと判定した場合に、成膜条件の最適化処理を終了し、終了時点での成膜条件を、第2の最適化成膜条件(第2の成膜条件)として、選択部550に通知する。
なお、最適化部530では、所定の条件として、例えば、
・n個の測定点の第2の予測成膜結果の平均値と、n個の測定点の目標成膜結果の平均値との差異が所定の閾値以下、
・n個の測定点の第2の予測成膜結果のばらつきが所定の閾値以下、
・繰り返し回数が所定回数以上、
等を満たした場合に、第2の予測成膜結果と目標成膜結果との差異が所定の条件を満たしたと判定する。
第2予測部540は第2の算出部の一例であり、学習フェーズにおいて第2学習部420により生成された、学習済みガウス過程回帰モデル541を有する。第2予測部540は、最適化部530より初期成膜条件または調整後の成膜条件を取得し、学習済みガウス過程回帰モデル541に入力する。また、第2予測部540は、初期成膜条件または調整後の成膜条件を入力することで学習済みガウス過程回帰モデル541から出力される、第2の予測成膜結果を、最適化部530に通知する。更に、第2予測部540は、最適化部530において所定の条件を満たすと判定された第2の予測成膜結果と、該第2の予測成膜結果の分散を表す信頼区間の幅(n個の測定点分の信頼区間の幅)とを、選択部550に通知する。
選択部550は、最適化成膜条件及び予測成膜結果を出力する。具体的には、選択部550は、
・最適化部510から通知された第1の最適化成膜条件、及び、第1予測部520から通知された第1の予測成膜結果、または、
・最適化部530から通知された第2の最適化成膜条件、及び、第2予測部540から通知された第2の予測成膜結果、
のうちのいずれか一方を選択して出力する。なお、選択部550では、いずれか一方を選択するにあたり、
・第2予測部540から通知された信頼区間の幅(n個の測定点分)、及び/または、
・第1予測部520から通知された第1の予測成膜結果と目標成膜結果との差分の絶対値と、第2予測部540から通知された第2の予測成膜結果と目標成膜結果との差分の絶対値との比較結果(n個の測定点分)、
を参照する。
このように、選択部550では、非線形回帰モデルの予測精度が低下しているケースであるのか否かを判断するために、信頼区間の幅及び差分の絶対値を参照する。
<成膜条件出力処理>
次に、成膜条件出力装置140による成膜条件出力処理の流れについて説明する。図6は、成膜条件出力処理の流れを示すフローチャートの一例である。なお、ステップS601~S603は学習フェーズにおいて実行される。
ステップS601において、第1学習部410及び第2学習部420は、学習用データセット格納部141より、学習用データセットを読み出す。
ステップS602において、第1学習部410は、読み出した学習用データセットを用いて、線形モデルについて学習処理を行う。
ステップS603において、第2学習部420は、読み出した学習用データセットを用いて、ガウス過程回帰モデルについて学習処理を行う。学習処理が完了すると、予測フェーズに遷移する。
ステップS604において、最適化部510及び最適化部530は、ユーザ160により入力された初期成膜条件、目標成膜条件を受け付ける。
ステップS605において、最適化部510及び第1予測部520は、学習済み線形モデルを用いて最適な成膜条件(第1の最適化成膜条件)を探索する、最適化処理を行う。なお、学習済み線形モデルを用いた最適化処理の詳細は、後述する。
ステップS606において、最適化部530及び第2予測部540は、学習済みガウス過程回帰モデルを用いて最適な成膜条件(第2の最適化成膜条件)を探索する、最適化処理を行う。なお、学習済みガウス過程回帰モデルを用いた最適化処理の詳細は、後述する。
ステップS607において、選択部550は、第2予測部540が第2の最適化成膜条件を探索した際に算出された信頼区間の幅等を参照することで、最適化成膜条件及び予測成膜結果を選択する選択処理を行う。なお、選択処理の詳細は後述する。
ステップS608において、選択部550は、選択した最適化成膜条件及び予測成膜結果をユーザ160に出力するとともに、選択した最適化成膜条件を、成膜装置120に設定する。
<成膜条件出力処理の詳細>
次に、成膜条件出力処理の各工程(学習済み線形モデルを用いた最適化処理(ステップS605)、学習済みガウス過程回帰モデルを用いた最適化処理(ステップS606)、選択処理(ステップS607))の詳細について説明する。
(1)学習済み線形モデルを用いた最適化処理(ステップS605)の詳細
図7は、学習済み線形モデルを用いた最適化処理の流れを示すフローチャートである。
ステップS701において、第1予測部520は、最適化部510より通知された初期成膜条件または調整後の成膜条件を、学習済み線形モデル521に入力する。
ステップS702において、第1予測部520は、学習済み線形モデル521より出力された第1の予測成膜結果を、最適化部510に通知する。
ステップS703において、最適化部510は、目標成膜結果と、第1の予測成膜結果とを比較する。
ステップS704において、最適化部510は、比較結果が所定の条件を満たすか否かを判定する。ステップS704において所定の条件を満たさないと判定した場合には(ステップS704においてNoの場合には)、ステップS705に進む。
ステップS705において、最適化部510は、成膜条件を調整し、調整後の成膜条件を第1予測部520に通知した後、ステップS701に戻る。
一方、ステップS704において所定の条件を満たすと判定した場合には(ステップS704においてYesの場合には)、ステップS706に進む。なお、上述したように、成膜条件の調整を繰り返し実行する必要のない学習済み線形モデルの場合には、ステップS704の処理を行うことなく(あるいは、常に所定の条件を満たすものとして)、ステップS706に進む。
ステップS706において、最適化部510は、第1の最適化成膜条件を選択部550に通知し、第1予測部520は、第1の予測成膜結果を選択部550に通知し、その後、図6のステップS606に戻る。
(2)学習済みガウス過程回帰モデルを用いた最適化処理(ステップS606)の詳細
図8は、学習済みガウス過程回帰モデルを用いた最適化処理の流れを示すフローチャートである。
ステップS801において、第2予測部540は、最適化部530より通知された初期成膜条件または調整後の成膜条件を、学習済みガウス過程回帰モデル541に入力する。
ステップS802において、第2予測部540は、学習済みガウス過程回帰モデル541より出力された第2の予測成膜結果を、最適化部530に通知する。
ステップS803において、最適化部530は、目標成膜結果と、第2の予測成膜結果とを比較する。
ステップS804において、最適化部530は、比較結果が所定の条件を満たすか否かを判定する。ステップS804において所定の条件を満たさないと判定した場合には(ステップS804においてNoの場合には)、ステップS805に進む。
ステップS805において、最適化部530は、成膜条件を調整し、調整後の成膜条件を第2予測部540に通知した後、ステップS801に戻る。
一方、ステップS804において所定の条件を満たすと判定した場合には(ステップS804においてYesの場合には)、ステップS806に進む。
ステップS806において、最適化部530は、第2の最適化成膜条件を選択部550に通知し、第2予測部540は、第2の予測成膜結果及び信頼区間の幅を選択部550に通知し、その後、図6のステップS607に戻る。
(3)選択処理(ステップS607)の詳細
図9は、選択処理の流れを示すフローチャートである。ステップS901において、選択部550は、第2予測部540から通知された信頼区間の幅(n個の測定点分)を取得する。
ステップS902において、選択部550は、取得した信頼区間の幅が、所定の条件を満たすか否か(所定の閾値以下であるか否か)を判定する。ステップS902において、信頼区間の幅が所定の条件を満たさない(所定の閾値より大きい)と判定した場合には(ステップS902においてNoの場合には)、ステップS905に進む。なお、選択部550は、
・n個の測定点分の信頼区間の幅のいずれかが、所定の閾値より大きいと判定した場合、あるいは、
・n個の測定点分の信頼区間の幅のうちの予め定められた数以上の信頼区間の幅が、所定の閾値より大きいと判定した場合、
にステップS905に進む。
一方、ステップS902において、信頼区間の幅が所定の条件を満たす(所定の閾値以下である)と判定した場合には、ステップS903に進む。
ステップS903において、選択部550は、第1予測部520より通知された第1の予測成膜結果と、目標成膜結果との差分の絶対値(第1の差分絶対値)を算出する。例えば、選択部550は、n個の測定点の第1の予測成膜結果と、目標成膜結果との差分の2乗和を、第1の差分絶対値として算出する。
また、選択部550は、第2予測部540より通知された第2の予測成膜結果と、目標成膜結果との差分の絶対値(第2の差分絶対値)を算出する。例えば、選択部550は、n個の測定点の第2の予測成膜結果と、目標成膜結果との差分の2乗和を、第2の差分絶対値として算出する。
更に、選択部550は、第1の差分絶対値が第2の差分絶対値以上であるか否かを判定する。
ステップS903において、第1の差分絶対値が第2の差分絶対値より小さいと判定された場合には(ステップS903においてNoの場合には)、ステップS905に進む。
ステップS905において、選択部550は、第1予測部520より通知された第1の予測成膜結果及び第1の最適化成膜条件を選択する。
一方、ステップS903において、第1の差分絶対値が第2の差分絶対値と同じか、第2の差分絶対値より大きいと判定した場合には(ステップS903においてYesの場合には)、ステップS904に進む。
ステップS904において、選択部550は、第2予測部540より通知された第2の予測成膜結果及び第2の最適化成膜条件を選択する。
<選択処理の具体例>
次に、選択処理の具体例について説明する。図10は、選択処理の具体例を示す図である。このうち、図10(a-1)~(a-3)は、学習済み線形モデル521を用いて、第1の最適化成膜条件を算出した際の、第1の予測成膜結果を示している。図10(a-1)~(a-3)において、符号1010aは、処理後ウェハ130を模式的に示したものであり、濃淡の違いは、膜厚の違いを示している。また、グラフ1020aは、径1011aにおける膜厚を示しており、一点鎖線1021aは、目標成膜結果を、実線1022aは、第1の予測成膜結果をそれぞれ表している。
一方、図10(b-1)~(b-3)は、学習済みガウス過程回帰モデル541を用いて第2の最適化成膜条件を算出した際の、第2の予測成膜結果を示している。図10(b-1)~(b-3)において、符号1010bは、処理後ウェハ130を模式的に示したものであり、濃淡の違いは、膜厚の違いを示している。また、グラフ1020bは、径1011bにおける膜厚を示しており、一点鎖線1021bは、目標成膜結果を、実線1022bは、第1の予測成膜結果を、網掛け1023bは、信頼区間の幅をそれぞれ表している。
図10(a-1)と図10(b-1)とは、予測フェーズにおいて同じ初期成膜条件及び同じ目標成膜条件が入力された場合の選択処理を示している。この場合、選択部550は、
・ステップS902において、信頼区間の幅が閾値以下、
・ステップS903において、|第1の予測成膜結果-目標成膜結果|≧|第2の予測成膜結果-目標成膜結果|、
であると判定し、第2の予測成膜結果(グラフ1002b)を選択する。
また、図10(a-2)と図10(b-2)とは、予測フェーズにおいて同じ初期成膜条件及び同じ目標成膜条件(ただし、図10(a-1)、(b-1)とは異なる)が入力された場合の選択処理を示している。この場合、選択部550は、
・ステップS902において、信頼区間の幅が閾値以下、
・ステップS903において、|第1の予測成膜結果-目標成膜結果|<|第2の予測成膜結果-目標成膜結果|、
であると判定し、第1の予測成膜結果(グラフ1020a)を選択する。
また、図10(a-3)と図10(b-3)とは、予測フェーズにおいて同じ初期成膜条件及び同じ目標成膜条件(ただし、図10(a-1)、(a-2)、(b-1)、(b-2)とは異なる)が入力された場合の選択処理を示している。この場合、選択部550は、
・ステップS902において、信頼区間の幅が閾値より大きい、
と判定し、第1の予測成膜結果(グラフ1020a)を選択する。
このように、学習済みガウス過程回帰モデル541を用いた場合、初期成膜条件及び目標成膜結果によっては、学習済み線形モデル521よりも予測精度が低下することがあることに鑑みて、選択部550では、信頼区間の幅及び差分の絶対値を参照する。これにより、選択部550は、より適切な最適化成膜条件及び予測成膜結果を出力することができる。
<まとめ>
以上の説明から明らかなように、第1の実施形態に係る成膜条件出力装置は、
・成膜装置による成膜処理をモデル化した線形モデルを用いて、目標成膜結果を実現するための第1の最適化成膜条件を算出する。
・成膜装置による成膜処理をモデル化したガウス過程回帰モデルを用いて、目標成膜結果を実現するための第2の最適化成膜条件を算出する。
第2の最適化成膜条件が算出された際に予測された予測成膜結果の信頼区間の幅が、所定の条件を満たすか否かの判定結果に基づき、第1の最適化成膜条件と、第2の最適化成膜条件のいずれかを選択して出力する。
これにより、第1の実施形態によれば、より適切な成膜条件を出力可能な成膜条件出力装置等を提供することができる。
[第2の実施形態]
上記第1の実施形態では、非線形回帰モデルとして、ガウス過程回帰モデルを用いる場合について説明した。しかしながら、非線形回帰モデルとして用いるモデルは、ガウス過程回帰モデルに限定されず、予測結果と、予測結果の信頼区間とが算出可能な非線形回帰モデルであれば他の非線形回帰モデルを用いてもよい。
また、上記第1の実施形態では、成膜条件出力プログラムが成膜条件出力装置140にインストールされているものとして説明した(つまり、成膜条件出力装置140を、成膜装置120とは別体に配するものとして説明した)。しかしながら、成膜条件出力プログラムが組み込まれた記憶部を、成膜装置120内に配し、成膜装置120にて実行させることで、成膜装置120を、成膜条件出力装置として機能させてもよい。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :成膜システム
110 :処理前ウェハ
120 :成膜装置
130 :処理後ウェハ
140 :成膜条件出力装置
150 :膜厚測定装置
300 :学習用データセット
300_1 :成膜条件
300_2 :成膜結果
410 :第1学習部
411 :線形モデル
420 :第2学習部
421 :ガウス過程回帰モデル
510 :最適化部
520 :第1予測部
521 :学習済み線形モデル
530 :最適化部
540 :第2予測部
541 :学習済みガウス過程回帰モデル
550 :選択部

Claims (5)

  1. 成膜装置による成膜処理をモデル化した線形モデルに成膜条件を入力することで、該線形モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、目標の成膜結果を実現するための第1の成膜条件を算出する第1の最適化部と、
    前記成膜装置による成膜処理をモデル化した非線形回帰モデルであって、予測した成膜結果の信頼区間を算出可能な該非線形回帰モデルに成膜条件を入力することで、該非線形回帰モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、前記目標の成膜結果を実現するための第2の成膜条件を算出する第2の最適化部と、
    前記第2の成膜条件が算出された際に予測された成膜結果の信頼区間が、
    所定の条件を満たさないと判定した場合、前記第1の成膜条件を選択して出力し、
    所定の条件を満たすと判定した場合、前記第1の成膜条件が算出された際の第1の成膜結果と、前記目標の成膜結果との差分である第1の差分と、前記第2の成膜条件が算出された際の第2の成膜結果と、前記目標の成膜結果との差分である第2の差分とを比較し、
    前記第1の差分が前記第2の差分より小さい場合、前記第1の成膜条件を選択して出力し、
    前記第1の差分が前記第2の差分と同じか前記第2の差分より大きい場合、前記第2の成膜条件を選択して出力する選択部と
    を有する成膜条件出力装置。
  2. 前記線形モデル及び前記非線形回帰モデルは、それぞれ、成膜条件入力されることで予測される成膜結果が、対応する成膜結果に近づくようにモデルパラメータが更新された学習済みのモデルである、請求項1に記載の成膜条件出力装置。
  3. 成膜装置による成膜処理をモデル化した線形モデルに成膜条件を入力することで、該線形モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、目標の成膜結果を実現するための第1の成膜条件を算出する第1の最適化工程と、
    前記成膜装置による成膜処理をモデル化した非線形回帰モデルであって、予測した成膜結果の信頼区間を算出可能な該非線形回帰モデルに成膜条件を入力することで、該非線形回帰モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、前記目標の成膜結果を実現するための第2の成膜条件を算出する第2の最適化工程と、
    前記第2の成膜条件が算出された際に予測された成膜結果の信頼区間が、
    所定の条件を満たさないと判定した場合、前記第1の成膜条件を選択して出力し、
    所定の条件を満たすと判定した場合、前記第1の成膜条件が算出された際の第1の成膜結果と、前記目標の成膜結果との差分である第1の差分と、前記第2の成膜条件が算出された際の第2の成膜結果と、前記目標の成膜結果との差分である第2の差分とを比較し、
    前記第1の差分が前記第2の差分より小さい場合、前記第1の成膜条件を選択して出力し、
    前記第1の差分が前記第2の差分と同じか前記第2の差分より大きい場合、前記第2の成膜条件を選択して出力する選択工程と
    を有する成膜条件出力方法。
  4. 成膜装置による成膜処理をモデル化した線形モデルに成膜条件を入力することで、該線形モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、目標の成膜結果を実現するための第1の成膜条件を算出する第1の最適化工程と、
    前記成膜装置による成膜処理をモデル化した非線形回帰モデルであって、予測した成膜結果の信頼区間を算出可能な該非線形回帰モデルに成膜条件を入力することで、該非線形回帰モデルより予測された成膜結果が所定の条件を満たすまで、入力する成膜条件を調整する処理を繰り返し、前記目標の成膜結果を実現するための第2の成膜条件を算出する第2の最適化工程と、
    前記第2の成膜条件が算出された際に予測された成膜結果の信頼区間が、
    所定の条件を満たさないと判定した場合、前記第1の成膜条件を選択して出力し、
    所定の条件を満たすと判定した場合、前記第1の成膜条件が算出された際の第1の成膜結果と、前記目標の成膜結果との差分である第1の差分と、前記第2の成膜条件が算出された際の第2の成膜結果と、前記目標の成膜結果との差分である第2の差分とを比較し、
    前記第1の差分が前記第2の差分より小さい場合、前記第1の成膜条件を選択して出力し、
    前記第1の差分が前記第2の差分と同じか前記第2の差分より大きい場合、前記第2の成膜条件を選択して出力する選択工程と
    をコンピュータに実行させるための成膜条件出力プログラム。
  5. 請求項に記載の成膜条件出力プログラムが組み込まれた記憶部を有する成膜装置。
JP2020131867A 2020-08-03 2020-08-03 成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置 Active JP7500330B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020131867A JP7500330B2 (ja) 2020-08-03 2020-08-03 成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置
US17/380,253 US20220037134A1 (en) 2020-08-03 2021-07-20 Deposition-condition output device, method for outputting deposition condition, recording medium and depositon apparatus
TW110126707A TWI854140B (zh) 2020-08-03 2021-07-21 沉積條件輸出裝置、沉積條件輸出方法、記錄媒體及沉積設備
KR1020210095755A KR20220016778A (ko) 2020-08-03 2021-07-21 성막 조건 출력 장치, 성막 조건 출력 방법, 성막 조건 출력 프로그램 및 성막 장치
CN202110826264.2A CN114067930A (zh) 2020-08-03 2021-07-21 成膜条件输出装置、输出方法、输出程序以及成膜装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020131867A JP7500330B2 (ja) 2020-08-03 2020-08-03 成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置

Publications (2)

Publication Number Publication Date
JP2022028457A JP2022028457A (ja) 2022-02-16
JP7500330B2 true JP7500330B2 (ja) 2024-06-17

Family

ID=80004611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020131867A Active JP7500330B2 (ja) 2020-08-03 2020-08-03 成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置

Country Status (4)

Country Link
US (1) US20220037134A1 (ja)
JP (1) JP7500330B2 (ja)
KR (1) KR20220016778A (ja)
CN (1) CN114067930A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003166066A (ja) 2001-11-30 2003-06-13 Tokyo Electron Ltd 成膜制御装置、成膜装置、成膜方法、膜厚流量係数算出方法、およびプログラム
US20070244575A1 (en) 2006-04-13 2007-10-18 Fisher-Rosemount Systems, Inc. Robust process model identification in model based control techniques
US20180356807A1 (en) 2017-06-13 2018-12-13 Streammosaic, Inc. Generating robust machine learning predictions for semiconductor manufacturing processes
US20200051235A1 (en) 2018-08-10 2020-02-13 Micron Technology, Inc. System for predicting properties of structures, imager system, and related methods

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286582B2 (en) * 2009-06-22 2016-03-15 Johnson Controls Technology Company Systems and methods for detecting changes in energy usage in a building

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003166066A (ja) 2001-11-30 2003-06-13 Tokyo Electron Ltd 成膜制御装置、成膜装置、成膜方法、膜厚流量係数算出方法、およびプログラム
US20070244575A1 (en) 2006-04-13 2007-10-18 Fisher-Rosemount Systems, Inc. Robust process model identification in model based control techniques
JP2007287153A (ja) 2006-04-13 2007-11-01 Fisher Rosemount Syst Inc モデルベース制御技法におけるロバストなプロセスモデルの同定方法及びシステム
US20180356807A1 (en) 2017-06-13 2018-12-13 Streammosaic, Inc. Generating robust machine learning predictions for semiconductor manufacturing processes
US20200051235A1 (en) 2018-08-10 2020-02-13 Micron Technology, Inc. System for predicting properties of structures, imager system, and related methods

Also Published As

Publication number Publication date
JP2022028457A (ja) 2022-02-16
US20220037134A1 (en) 2022-02-03
TW202212621A (zh) 2022-04-01
CN114067930A (zh) 2022-02-18
KR20220016778A (ko) 2022-02-10

Similar Documents

Publication Publication Date Title
US12045723B2 (en) Neural network method and apparatus
CN108959728B (zh) 基于深度学习的射频器件参数优化方法
US10592776B2 (en) Generating multimodal image edits for a digital image
US20190332933A1 (en) Optimization of model generation in deep learning neural networks using smarter gradient descent calibration
US20200334557A1 (en) Chained influence scores for improving synthetic data generation
JP6919770B2 (ja) パラメータ探索方法、パラメータ探索装置、及びパラメータ探索用プログラム
US20220058477A1 (en) Hyperparameter Transfer Via the Theory of Infinite-Width Neural Networks
CN111684541B (zh) 信息处理装置、程序产品、工艺处理执行装置及信息处理系统
WO2021148407A1 (en) Training machine learning models
WO2021105313A1 (en) Parallelised training of machine learning models
JP2021086371A (ja) 学習プログラム、学習方法および学習装置
Bhattacharjee et al. Improved look-ahead approaches for nearest neighbor synthesis of 1D quantum circuits
JP7500330B2 (ja) 成膜条件出力装置、成膜条件出力方法、成膜条件出力プログラム及び成膜装置
US11429861B1 (en) Device storing multiple sets of parameters for machine-trained network
Zhang et al. A quantized training framework for robust and accurate reram-based neural network accelerators
US11922287B2 (en) Video recommendation with multi-gate mixture of experts soft actor critic
US20230068381A1 (en) Method and electronic device for quantizing dnn model
CN114830137A (zh) 用于生成预测模型的方法和系统
WO2022215559A1 (ja) ハイブリッドモデル作成方法、ハイブリッドモデル作成装置、及び、プログラム
Cai et al. NeurFill: Migrating full-chip CMP simulators to neural networks for model-based dummy filling synthesis
TWI854140B (zh) 沉積條件輸出裝置、沉積條件輸出方法、記錄媒體及沉積設備
KR20230028995A (ko) 결함 예측 방법 및 장치
Doss Concave regression: value-constrained estimation and likelihood ratio-based inference
US20240210925A1 (en) Method and apparatus with operational control dependent on multiple processes
US12093816B1 (en) Initialization of values for training a neural network with quantized weights

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240605

R150 Certificate of patent or registration of utility model

Ref document number: 7500330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150