JP2020057172A - 学習装置、推論装置及び学習済みモデル - Google Patents

学習装置、推論装置及び学習済みモデル Download PDF

Info

Publication number
JP2020057172A
JP2020057172A JP2018186943A JP2018186943A JP2020057172A JP 2020057172 A JP2020057172 A JP 2020057172A JP 2018186943 A JP2018186943 A JP 2018186943A JP 2018186943 A JP2018186943 A JP 2018186943A JP 2020057172 A JP2020057172 A JP 2020057172A
Authority
JP
Japan
Prior art keywords
data
unit
learning
processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018186943A
Other languages
English (en)
Other versions
JP2020057172A5 (ja
Inventor
大資 本木
Daisuke Motoki
大資 本木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Priority to JP2018186943A priority Critical patent/JP2020057172A/ja
Priority to US16/585,083 priority patent/US20200104708A1/en
Publication of JP2020057172A publication Critical patent/JP2020057172A/ja
Publication of JP2020057172A5 publication Critical patent/JP2020057172A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 学習モデルのシミュレーション精度を向上させる。【解決手段】 学習装置であって、複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習モデルを機械学習する学習装置であって、前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部とを有する。【選択図】図1

Description

本発明は、学習装置、推論装置及び学習済みモデルに関する。
従来より、半導体製造メーカでは、各製造プロセス(例えば、ドライエッチング、デポジション等)について物理モデルを生成し、シミュレーションを実行することで、最適なレシピの探索や、プロセスパラメータの調整等を行っている。
一方で、半導体製造プロセスは挙動が複雑であり、物理モデルでは表現できない事象もあることから、物理モデルのシミュレーション精度には限界がある。このため、最近では、物理モデルの代替として機械学習を用いた学習モデルの適用が検討されている。
特開2015−103769号公報 特開2005−202949号公報
Ryohei Orihara et al., "Approximation of Time-Consuming Simulation Based on Generative Adversarial Network", 2018 42nd IEEE International Conference on Computer Software & Applications, p171-p176
ここで、学習モデルのシミュレーション精度を向上させるには、より高解像度の画像データを入力して機械学習することが不可欠である。一方で、学習装置のメモリ容量には限界があり、サイズの大きい画像データについては、予め、複数のブロックに分割して入力を行う必要がある。
しかしながら、画像データを複数のブロックに分割すると、ブロック間において切れ目の影響が生じ、シミュレーション精度が低下する。加えて、半導体製造プロセスの場合、ウェハ上の各位置での事象が、他の位置での事象と相関するため、画像データを複数のブロックに分割すると、他の位置での事象が反映されず、シミュレーション精度が更に低下することになる。
本開示は、学習モデルのシミュレーション精度を向上させる。
本開示の一態様による学習装置は、例えば、以下のような構成を有する。即ち、
複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習モデルを機械学習する学習装置であって、
前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部とを有する。
シミュレーションシステムの全体構成の一例を示す図である。 シミュレーションシステムを構成する各装置のハードウェア構成の一例を示す図である。 学習用データの一例を示す図である。 学習装置の学習部の機能構成の詳細な一例を示す図である。 学習装置の画像分割部及び入力データ生成部による処理の具体例を示す図である。 学習部が有する学習モデルの構成例を示す図である。 学習モデルの自己回帰モジュールによる処理の具体例を示す図である。 学習装置による学習処理の流れを示すフローチャートである。 推論装置の実行部の機能構成の詳細な一例を示す図である。 推論装置による推論処理の流れを示すフローチャートである。 学習済みモデルのシミュレーション結果を示した図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
[第1の実施形態]
<シミュレーションシステムの全体構成>
はじめに、半導体製造プロセスのシミュレーションを実行するシミュレーションシステムの全体構成について説明する。図1は、シミュレーションシステムの全体構成の一例を示す図である。図1に示すように、シミュレーションシステム100は、学習装置120と、推論装置130とを有する。なお、本実施形態において、シミュレーションシステム100が取り扱う各種データは、半導体製造メーカから、あるいは半導体製造装置メーカのデータベースなどから取得される。
図1上段は、半導体製造メーカが各種データを取得するまでの作業フローを示している。図1上段に示すように、半導体製造装置110には、各種パラメータデータ(例えば、1次元のデータ)が設定されている。半導体製造装置110は、複数の処理前ウェハ(対象物)が搬送されると、設定された各種パラメータデータのもと、各製造プロセス(例えば、ドライエッチング、デポジション)に応じた処理を実行する。
一方、複数の処理前ウェハのうちの一部の処理前ウェハは、測定装置111に搬送され、様々な位置において測定装置111により形状が測定される。これにより、測定装置111では、例えば、処理前ウェハの各位置での断面形状を示す処理前画像データ(2次元の画像データ)を生成する。なお、測定装置111には、走査型電子顕微鏡(SEM)、測長走査型電子顕微鏡(CD−SEM)、透過電子顕微鏡(TEM)、原子間力顕微鏡(AFM)等が含まれる。
図1の例は、測定装置111が、ファイル名=「形状データLD001」、「形状データLD002」、「形状データLD003」・・・等の処理前画像データを生成した様子を示している。
一方、半導体製造装置110にて各製造プロセスに応じた処理が実行されると、半導体製造装置110からは、処理後ウェハが搬出される。このとき、半導体製造装置110には、各製造プロセスに応じた処理を実行した際の、処理中の環境を示す環境データ(例えば、1次元のデータ)が保持されている。なお、半導体製造装置110に保持された環境情報は、設定された各種パラメータデータ同様、半導体製造装置110が、処理前ウェハに対して製造プロセスに応じた処理を実行した際の、該処理に関する任意のデータである。したがって、以下では、半導体製造装置110に設定された各種パラメータデータ及び保持された環境情報を、処理関連データと称す。
半導体製造装置110から搬出された複数の処理後ウェハのうちの一部の処理後ウェハについては、測定装置112に搬送され、様々な位置において測定装置112により形状が測定される。これにより、測定装置112では、例えば、処理後ウェハの各位置での断面形状を示す処理後画像データ(2次元の画像データ)を生成する。なお、測定装置111と同様に、測定装置112には、走査型電子顕微鏡(SEM)、測長走査型電子顕微鏡(CD−SEM)、透過電子顕微鏡(TEM)、原子間力顕微鏡(AFM)等が含まれる。
図1の例は、測定装置112が、ファイル名=「形状データLD001'」、「形状データLD002'」、「形状データLD003'」、・・・等の処理後画像データを生成した様子を示している。
このようにして取得された各種データ(測定装置111により生成された処理前画像データ、半導体製造装置110に設定または保持された処理関連データ、測定装置112により生成された処理後画像データ)は、学習用データとして収集される。学習装置120では、収集した学習用データを、学習用データ格納部124に格納する。
学習装置120には、画像分割プログラム、入力データ生成プログラム及び学習プログラムがインストールされており、当該プログラムが実行されることで、学習装置120は画像分割部121、入力データ生成部122及び学習部123として機能する。
画像分割部121は分割部の一例であり、学習用データ格納部124に格納された処理前画像データを読み出し、学習装置120のメモリ容量に応じた画像サイズの複数のブロックに分割する。画像分割部121は、分割した複数のブロックを順次、入力データ生成部122に通知する。
入力データ生成部122は生成部の一例であり、学習用データ格納部124に格納された処理関連データを読み出し、入力データ生成部122より通知されたブロックに応じて、学習部123が学習モデルに入力するのに適した所定の形式に加工する。
具体的には、入力データ生成部122は、処理関連データそれぞれを、ブロックの縦サイズ及び横サイズに応じた2次元配列の形式に加工する。学習部123が有する学習モデルは、通常は、入力として画像データの形式になっているデータを用いる。そのため、画像データの形式になっていないデータについては、画像データの形式に加工しておく必要があり、入力データ生成部122では、処理関連データについて、画像データの形式(2次元配列の形式)に加工する。
なお、処理関連データの加工は、学習用データ格納部124に格納される際に行われてもよい。この場合、入力データ生成部122は、2次元配列の形式に加工された後のデータを読み出すことになる。
入力データ生成部122は、2次元配列の形式に加工した(または加工された)データを、通知された各ブロックに連結し、連結データを生成したうえで、順次、学習部123に入力する。
学習部123は、入力データ生成部122より連結データが順次入力されることで学習モデルより出力される各出力結果を、順次、出力結果格納部125に格納する。また、学習部123は、出力結果格納部125に格納した、各出力結果を統合し、学習用データ格納部124より読み出した処理後画像データと対比する。
これにより、学習部123では、統合した各出力結果が、処理後画像データに近づくよう、機械学習によりモデルパラメータを更新し、学習済みモデルを生成する。学習部123により生成された学習済みモデルは、推論装置130に提供され、推論装置130に搭載される。
推論装置130には、画像分割プログラム、入力データ生成プログラム及び実行プログラムがインストールされており、当該プログラムが実行されることで、推論装置130は画像分割部131、入力データ生成部132及び実行部133として機能する。
画像分割部131は分割部の一例であり、任意の処理前画像データ(例えば、測定装置111により生成された処理前画像データ)を、推論装置130のメモリ容量に応じた画像サイズの複数のブロックに分割する。画像分割部131は、分割した複数のブロックを順次、入力データ生成部132に通知する。
入力データ生成部132は生成部の一例であり、推論装置130に入力された処理関連データを取得し、入力データ生成部132より通知されたブロックに応じて、実行部133が学習済みモデルに入力するのに適した所定の形式に加工する。具体的には、入力データ生成部132は、推論装置130に入力された処理関連データそれぞれを、ブロックの縦サイズ及び横サイズに応じた2次元配列の形式に加工する。
なお、推論装置130に入力された処理関連データとは、
・半導体製造装置110に設定される各種パラメータデータに相当するデータ、
・半導体製造装置110が各製造プロセスに応じた処理を実行した際の処理中の環境を示す環境データに相当するデータ、
を指す。
また、入力データ生成部132は、2次元配列の形式に加工したデータを、通知された各ブロックに連結し、連結データを生成したうえで、順次、実行部133に入力する。
実行部133は、入力データ生成部132より連結データが順次入力されることで学習済みモデルを実行し、処理後画像データ(シミュレーション結果)を出力する。
なお、推論装置130のユーザは、例えば、実行部133が学習済みモデルを実行することで出力した処理後画像データと、測定装置112により生成された、対応する処理後画像データとを対比することで、学習済みモデルを検証することができる。
具体的には、推論装置130のユーザは
・処理前画像データを画像分割部131に入力し、半導体製造装置110に設定または保持された処理関連データを入力データ生成部132に入力した場合に、実行部133により出力される処理後画像データと、
・処理前ウェハが半導体製造装置110により処理され、処理後ウェハが測定装置112により測定されることで生成される処理後画像データと、
を対比する。これにより、推論装置130のユーザは、学習済みモデルのシミュレーション誤差を算出し、シミュレーション精度を検証することができる。
なお、シミュレーション精度の検証が完了した後は、推論装置130には、任意の処理前画像データと、任意の処理関連データとが入力され、様々なシミュレーションが実行されることになる。これにより、推論装置130のユーザは、半導体製造プロセスにおける最適なレシピや最適なパラメータデータ、最適なハードウェア形体の探索等を行うことができる。
<シミュレーションシステムを構成する各装置のハードウェア構成>
次に、シミュレーションシステム100を構成する各装置(学習装置120、推論装置130)のハードウェア構成について、図2を用いて説明する。図2は、シミュレーションシステムを構成する各装置のハードウェア構成の一例を示す図である。
なお、学習装置120と推論装置130のハードウェア構成は概ね同じであることから、ここでは、学習装置120のハードウェア構成について説明する。
図2は、学習装置のハードウェア構成の一例を示す図である。図2に示すように、学習装置120は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202を有する。また、学習装置120は、RAM(Random Access Memory)203、GPU(Graphics Processing Unit)204を有する。なお、CPU201、GPU204などのプロセッサ(処理回路、Processing Circuit、Processing Circuitry)と、ROM202、RAM203などのメモリは、いわゆるコンピュータを形成する。
また、学習装置120は、補助記憶装置205、操作装置206、表示装置207、I/F(Interface)装置208、ドライブ装置209を有する。なお、学習装置120の各ハードウェアは、バス210を介して相互に接続される。
CPU201は、補助記憶装置205にインストールされた各種プログラム(例えば、画像分割プログラム、入力データ生成プログラム、学習プログラム等)を実行する演算デバイスである。
ROM202は、不揮発性メモリであり、主記憶装置として機能する。ROM202は、補助記憶装置205にインストールされた各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する。具体的には、ROM202はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。
RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリであり、主記憶装置として機能する。RAM203は、補助記憶装置205にインストールされた各種プログラムがCPU201によって実行される際に展開される、作業領域を提供する。
GPU204は、画像処理用の演算デバイスであり、CPU201により画像分割プログラムや入力データ生成プログラム、学習プログラムが実行される際に、各種画像データについて、並列処理による高速演算を行う。
なお、GPU204は、内部メモリ(GPUメモリ)を搭載しており、各種画像データについて並列処理を行う際に必要な情報を一時的に保持する。
補助記憶装置205は、各種プログラムや、各種プログラムがCPU201によって実行される際に、GPU204によって画像処理される各種画像データ等を格納する。例えば、学習用データ格納部124及び出力結果格納部125は、補助記憶装置205において実現される。
操作装置206は、学習装置120の管理者が学習装置120に対して各種指示を入力する際に用いる入力デバイスである。表示装置207は、学習装置120の内部状態を表示する表示デバイスである。I/F装置208は、他の装置と接続し、通信を行うための接続デバイスである。
ドライブ装置209は記録媒体220をセットするためのデバイスである。ここでいう記録媒体220には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体220には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶装置205にインストールされる各種プログラムは、例えば、配布された記録媒体220がドライブ装置209にセットされ、該記録媒体220に記録された各種プログラムがドライブ装置209により読み出されることでインストールされる。あるいは、補助記憶装置205にインストールされる各種プログラムは、不図示のネットワークを介してダウンロードされることで、インストールされてもよい。
<学習用データの説明>
次に、学習用データ格納部124に格納される学習用データについて説明する。図3は、学習用データの一例を示す図である。図3に示すように、学習用データ300には、情報の項目として、"ジョブID"、"処理前画像データ"、"処理関連データ"、"処理後画像データ"が含まれる。
"ジョブID"には、半導体製造装置110により実行されるジョブを識別するための識別子が格納される。図3の例は、"ジョブID"として、「PJ001」、「PJ002」が格納された様子を示している。
"処理前画像データ"には、任意の処理前画像データ(例えば、測定装置111により生成された処理前画像データ)のファイル名が格納される。図3の例は、ジョブID=「PJ001」の場合、当該ジョブのロット(ウェハ群)に含まれる1枚の処理前ウェハについて、測定装置111により、ファイル名=「形状データLD001」の処理前画像データが生成されたことを示している。
また、図3の例は、ジョブID=「PJ002」の場合、当該ジョブのロット(ウェハ群)に含まれる1枚の処理前ウェハについて、測定装置111により、ファイル名=「形状データLD002」の処理前画像データが生成されたことを示している。
"処理関連データ"には、半導体製造装置110において処理前ウェハを処理する際に設定された、所定の処理条件を示す各種パラメータデータが格納される。あるいは、"処理関連データ"には、半導体製造装置110において処理前ウェハを処理した際の処理中の環境を示す環境データが格納される。図3の例は、半導体製造装置110において、ジョブID=「PJ001」の処理を実行した際に、「データ001_1」、「データ001_2」、「データ001_3」、・・・が設定または保持されたことを示している。
なお、「データ001_1」、「データ001_2」、「データ001_3」、・・・には、例えば、
・Pressure(チャンバ内の圧力)、Power(高周波電源の電力)、Gas(ガス流量)、Temperature(チャンバ内の温度またはウェハの表面の温度)等のように、半導体製造装置110に設定値として設定されるデータ、
・CD(限界寸法)、Depth(深さ)、Taper(テーパ角)、Tilting(チルト角)、Bowing(ボーイング)等のように、半導体製造装置110に目標値として設定されるデータ、
・半導体製造装置110のハードウェア形体に関する情報、
等が含まれる。
あるいは、「データ001_1」、「データ001_2」、「データ001_3」、・・・には、例えば、
・Vpp(電位差)、Vdc(直流自己バイアス電圧)、OES(発光分光分析による発光強度)、Reflect(反射波電力)、Top DCS current(ドップラ流速計の検出値)等のように、処理中に半導体製造装置110に保持されるデータ、
・Plasma density(プラズマ密度)、Ion energy(イオンエネルギ)、Ion flux(イオン流量)等のように、処理中に測定され、半導体製造装置110に保持されるデータ、
等が含まれる。
"処理後画像データ"には、測定装置112により生成された処理後画像データのファイル名が格納される。図3の例は、ジョブID=「PJ001」の場合、測定装置112により、ファイル名=「形状データLD001'」の処理後画像データが生成されたことを示している。
また、図3の例は、ジョブID=「PJ002」の場合、測定装置112により、ファイル名=「形状データLD002'」の処理後画像データが生成されたことを示している。
<学習装置の機能構成の詳細>
次に、学習装置120の学習部123の機能構成の詳細について説明する。図4は、学習装置の学習部の機能構成の詳細な一例を示す図である。上述したように、学習装置120は画像分割部121と、入力データ生成部122と、学習部123とを有する。そして、図4に示すように、学習部123は、更に、学習モデル420と、比較部430と、変更部440とを有する。
上述したとおり、学習用データ格納部124に格納された学習用データ300のうち、処理前画像データは画像分割部121により読み出され、複数のブロックに分割された後、入力データ生成部122に通知される。
また、学習用データ格納部124に格納された学習用データ300のうち、処理関連データは入力データ生成部122により読み出され、2次元配列の形式に加工された後、画像分割部121より通知された各ブロックに連結される。更に、各ブロックに連結されることで生成された各連結データは、入力データ生成部122により、順次、学習モデル420に入力される。
連結データが順次入力されると、学習モデル420では、処理を実行し、各出力結果を順次、出力結果格納部125に格納する。
比較部430は、出力結果格納部125より、複数のブロックに対応する各出力結果を読み出し、読み出した各出力結果を統合する。また、比較部430は、学習用データ格納部124より処理後画像データを読み出し、統合した各出力結果と比較することで差分情報を算出し、変更部440に通知する。
変更部440は、比較部430より通知された差分情報に基づいて、学習モデル420のモデルパラメータを更新する。なお、モデルパラメータの更新に用いる差分情報は、2乗誤差であっても絶対誤差であってもよい。
このように、学習部123によれば、学習用データ300に応じた学習済みモデルを生成することができる。
<学習装置の各部の処理の説明>
次に、学習装置120の各部(画像分割部121、入力データ生成部122、学習部123)の処理について更に詳細に説明する。
(1)画像分割部及び入力データ生成部による処理の具体例
はじめに、画像分割部121及び入力データ生成部122による処理の具体例について説明する。図5は、学習装置の画像分割部及び入力データ生成部による処理の具体例を示す図である。
図5に示すように、処理前画像データ500が入力されると、画像分割部121は、学習装置120のGPUメモリのメモリ容量に応じて、処理前画像データ500を分割する。図5の例は、画像分割部121が、処理前画像データ500を、縦方向の所定の位置において、2分割することで、2つのブロック(ブロック510、ブロック520)を生成した様子を示す。
なお、図5の例では、処理前画像データ500を2分割する場合について示したが、分割数はこれに限定されず、処理前画像データ500は3つ以上のブロックに分割されてもよい。また、図5の例では、処理前画像データ500を縦方向に上下に2分割する場合について示したが、分割方向はこれに限定されず、処理前画像データ500は横方向に左右に2分割されてもよい。つまり、処理前画像データ500を所定の方向に分割するとは、処理前画像データ500を所定の方向と略直交する分割線により、複数分割することを指すものとする。
画像分割部121では、処理前画像データ500を分割することで得たブロック510、ブロック520を、順次、入力データ生成部122に通知する。
ブロック510が通知されると、入力データ生成部122では、図5に示すように処理関連データ530をブロック510の縦サイズ及び横サイズに応じて2次元配列する(2次元配列したデータ541、542、543、・・・等参照)。また、入力データ生成部122では、図5に示すように、2次元配列したデータ541、542、543、・・・等を、ブロック510の新たなチャネルとしてブロック510に連結し、連結データ511を生成する。
同様に、ブロック520が通知されると、入力データ生成部122では、処理関連データ530をブロック520の縦サイズ及び横サイズに応じて2次元配列する(2次元配列したデータ551、552、553、・・・等参照)。また、入力データ生成部122では、2次元配列したデータ551、552、553、・・・等を、ブロック520の新たなチャネルとしてブロック520に連結し、連結データ521を生成する。
(2)学習部による処理の具体例
次に、学習部123が有する学習モデル420による処理の具体例について図6を用いて説明する。図6は、学習部が有する学習モデルの構成例を示す図である。図6に示すように、本実施形態では、学習モデル420として、U字型の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)ベースの学習モデル(いわゆるUNET)が用いられる。
具体的には、学習モデル420は、それぞれに畳み込み層を有する複数の層621〜624、630を含むエンコーダ部と、対応する逆畳み込み層を有する複数の層641〜644を含むデコーダ部とを備える。
一般に、UNETでは、画像データを入力し、画像データを出力する。このため、学習モデルとしてUNETを用いた場合、半導体製造プロセスの処理前後の画像データを入出力のデータとして取り扱うことができる。具体的には、各連結データ511、521を入力し、各出力結果651、661を出力することができる。
つまり、UNETの場合、入力として画像データの形式になっているデータを用いる。そのため、画像データの形式になっていないデータについては、画像データの形式に加工しておく必要がある。上述した入力データ生成部122において1次元のデータである処理関連データを2次元に配列したのは、UNETに入力される画像データの形式に合致させるためである。
ここで、図6に示すように、本実施形態の学習モデル420は、一般的なUNETの構造に加えて、更に、自己回帰モジュールを有している。具体的には、エンコーダ部の層621〜624と、デコーダ部の層641〜644との間に、自己回帰モジュール601〜604を有している。
本実施形態において、自己回帰モジュール601〜604は、算出部及び入力部として機能する。具体的には、自己回帰モジュール601〜604は、エンコーダ部の層621〜624から出力されるデータ群から、所定の軸方向のデータの依存関係を示す特徴量611〜614を算出する。また、自己回帰モジュール601〜604は、算出した特徴量611〜614を、デコーダ部の層641〜644に入力する。
ここで、所定の軸方向とは、画像分割部121が分割する方向を指す。上述したとおり、画像分割部121は、処理前画像データ500を縦方向の所定の位置において分割する。このため、本実施形態において所定の軸方向とは、縦方向を指すものとする。
なお、図6の例では、学習モデル420のエンコーダ部及びデコーダ部が、対応する4つの層を有する場合について示したが、エンコーダ部及びデコーダ部が有する、対応する層の数は4つに限定されない。ただし、学習モデル420において、自己回帰モジュールは、エンコーダ部及びデコーダ部が有する、対応する層の数に応じて配されるものとする。
(3)学習モデルの自己回帰モジュールによる処理
次に、学習モデル420の自己回帰モジュール601〜604による処理の具体例について説明する。なお、自己回帰モジュール601〜604は、それぞれ同様の処理を行うことから、ここでは、自己回帰モジュール601による処理の具体例について説明する。
図7は、学習モデルの自己回帰モジュールによる処理の具体例を示す図である。入力データ生成部122において生成された各連結データのうち、例えば、1番目の連結データが学習モデル420に入力されると、エンコーダ部の層621より、データ群710が出力される。
なお、エンコーダ部の層621より出力されるデータ群は、複数列存在するが、図7の例では、説明の簡略化のため、一列分のデータ群のみをm番目(mは1以上の整数。ここでは、1番目)のデータ群710として示している。また、図7の例では、1番目のデータ群710には、所定の軸方向711に沿って、n個のデータ(M1〜M1のデータ)が含まれているものとして示している。
ここで、1番目のデータ群710が出力された際には、既に、0番目の連結データが処理され、エンコーダ部の層621よりデータ群((m−1)番目(ここでは0番目)のデータ群)が出力されている。このため、自己回帰モジュール601では、0番目のデータ群について自己回帰モデルによる予測値の算出が完了している。
図7において、点線721は、0番目のデータ群の(x+1)個のデータについて算出した自己回帰モデルの予測値(I0n−x〜I0の予測値)を示している。
かかる前提のもと、自己回帰モジュール601では、1番目のデータ群710の0番目のデータ(M1)に対応する自己回帰モデルの予測値(I1)を、
・0番目のデータ群の(n−2)番目の予測値(I0n−2)に重み係数を積算した値と、(n−1)番目の予測値(I0n−1)に重み係数を積算した値との和算値と、
・0番目のデータ群のn番目の予測値(I0)に重み係数を積算した値と、1番目のデータ群710の0番目のデータ(M1)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、

により、予測値(I1)を算出する。ただし、w01〜w06は重み係数、C01〜C03はバイアスであり、機械学習される(例えば、勾配法により更新される)。
また、自己回帰モジュール601では、1番目のデータ群710の1番目のデータ(M1)に対応する自己回帰モデルの予測値(I1)を、
・0番目のデータ群の(n−1)番目の予測値(I0n−1)に重み係数を積算した値と、n番目の予測値(I0)に重み係数を積算した値との和算値と、
・1番目のデータ群の0番目のデータ(M1)に重み係数を積算した値と、1番目のデータ群710の1番目のデータ(M1)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、

により、予測値(I1)を算出する。ただし、w11〜w16は重み係数、C11〜C13はバイアスであり、機械学習される(例えば、勾配法により更新される)。
同様に、自己回帰モジュール601では、1番目のデータ群710の2番目のデータ(M1)に対応する自己回帰モデルの予測値(I1)を、
・0番目のデータ群のn番目の予測値(I0)に重み係数を積算した値と、1番目のデータ群の0番目のデータ(M1)に重み係数を積算した値との和算値と、
・1番目のデータ群の1番目のデータ(M1)に重み係数を積算した値と、1番目のデータ群710の2番目のデータ(M1)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、

により、予測値(I1)を算出する。ただし、w21〜w26は重み係数、C21〜C23はバイアスであり、機械学習される(例えば、勾配法により更新される)。
また、自己回帰モジュール601では、1番目のデータ群710の3番目のデータ(M1)に対応する自己回帰モデルの予測値(I1)を、
・1番目のデータ群の0番目のデータ(M1)に重み係数を積算した値と、1番目のデータ群の1番目のデータ(M1)に重み係数を積算した値との和算値と、
・1番目のデータ群の2番目のデータ(M1)に重み係数を積算した値と、1番目のデータ群710の3番目のデータ(M1)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、

により、予測値(I1)を算出する。ただし、w31〜w36は重み係数、C31〜C33はバイアスであり、機械学習される(例えば、勾配法により更新される)。
このようにして、自己回帰モジュール601では、1番目のデータ群710にそれぞれ対応する1番目の予測値群(I1〜I1)を算出し、算出した予測値群を1番目のデータ群710の所定の軸方向711の依存関係を示す特徴量611として出力する。
つまり、m番目のn個のデータ群に対する予測値(Im)は、

として一般化することができる。ただし、上述した予測値(I1、I1、I1、・・・)についての具体的な算出方法は、あくまで一例であり、他の算出方法により予測値を算出してもよい。
ここで特徴量611は、例えば、学習モデル420が、半導体製造装置110のエッチングのシミュレーションを行う学習モデルであった場合には、所定の軸方向711のプラズマの移動状態を表しているということができる。つまり、学習モデル420によれば、エンコーダ部において算出したプラズマの移動状態を表す特徴量を、デコーダ部に反映させることができる。
なお、図7に示すように、1番目のデータ群710の(n−x)番目〜n番目の予測値(点線722)は、(m+1)番目(ここでは、2番目)のデータ群740の0番目の予測値と1番目の予測値とを算出するのに用いられる。つまり、自己回帰モジュール601によれば、1番目のデータ群710について算出した特徴量を、所定の軸方向711の2番目のデータ群740に受け渡すことができる。
この結果、学習モデル420では、複数のブロックに分割したことによる影響を生じさせることなく(連結データの切れ目の影響を生じさせることなく、かつ、他の連結データでの事象を反映させて)、処理を実行することができる。
更に、エッチングの場合、縦方向に輸送されるプラズマの輸送量に依存してエッチング度合いが決まるという特性を有する。このため、所定の軸方向711の下流側は、上流側の空間構造の影響を強く受ける(つまり、他の位置での事象と相関する)。しかしながら、自己回帰モジュール601を有していない一般的な畳み込みニューラルネットワークベースの学習モデル(UNET)において、上流側の空間構造の影響を、下流側にまで反映させることは困難である。
一方で、自己回帰モジュールを有する学習モデル420の場合、上流側の空間構造の影響を、下流側にまで反映させることができる(つまり、同じ連結データ内での他の位置での事象を反映させることができる)。このように、自己回帰モジュールを有する学習モデル420の場合、複数のブロックに分割したか否かに関わらず、連結データが所定の軸方向711に長い場合においても有効である。
<学習装置による学習処理の流れ>
次に、学習装置120による学習処理の流れについて説明する。図8は、学習装置による学習処理の流れを示すフローチャートである。学習用データ格納部124に格納された学習用データ300を用いて、学習モデル420を機械学習する旨の指示が入力されると、学習装置120では、図8に示すフローチャートを実行する。
ステップS801において、画像分割部121は、学習用データ格納部124より、処理前画像データを読み出し、学習装置120のGPUメモリのメモリ容量に応じて、読み出した処理前画像データを複数のブロックに分割する。
ステップS802において、入力データ生成部122は、画像分割部121により読み出された処理前画像データに対応する処理関連データを、学習用データ格納部124より読み出し、各ブロックに応じた所定の形式に加工する。また、入力データ生成部122は、所定の形式に加工した処理関連データを、各ブロックに連結することで、各連結データを生成する。
ステップS803において、学習部123は、学習モデル420に各連結データを順次入力し、学習モデル420に処理を実行させる。
ステップS804において、学習部123は、学習モデル420により出力された各出力結果を、順次、出力結果格納部125に格納する。
ステップS805において、比較部430は、出力結果格納部125に格納された各出力結果を統合する。
ステップS806において、比較部430は、画像分割部121により読み出された処理前画像データに対応する処理後画像データを、学習用データ格納部124より読み出し、統合した各出力結果と比較することで差分情報を算出する。また、比較部430は、算出した差分情報を、変更部440に通知する。
ステップS807において、変更部440は、比較部430より通知された差分情報に基づいて、学習モデル420のモデルパラメータを更新する。
ステップS808において、画像分割部121は、学習用データ格納部124に格納された全ての処理前画像データを用いて機械学習が行われたか否かを判定する。ステップS808において、機械学習に用いられていない処理前画像データがあると判定した場合には(ステップS808においてNOの場合には)、ステップS801に戻る。
一方、ステップS808において、全ての処理前画像データを用いて機械学習が行われたと判定した場合には(ステップS808においてYESの場合には)、ステップS809に進む。
ステップS809において、学習部123は、機械学習が行われた学習モデルである、学習済みモデルを出力し、学習処理を終了する。
<推論装置の機能構成の詳細>
次に、推論装置130の実行部133の機能構成の詳細について説明する。図9は、第1の実施形態に係る推論装置の実行部の機能構成の詳細な一例を示す図である。上述したように、推論装置130は画像分割部131と、入力データ生成部132と、実行部133とを有する。そして、図9に示すように、実行部133は、更に、学習済みモデル920と、出力部930とを有する。
測定装置111により生成された処理前画像データ(例えば、機械学習に用いられていないもの)が取得され、推論装置130に処理関連データが入力されると、画像分割部131では、処理前画像データを複数のブロックに分割する。また、入力データ生成部132では、処理関連データを各ブロックに応じて2次元配列の形式に加工した後、各ブロックに連結することで、各連結データを生成する。
なお、図9の例は、測定装置111により生成された処理前画像データとして、ファイル名=「形状データSD001」、「形状データSD002」、・・・等が取得された様子を示している。
学習済みモデル920は、入力データ生成部132より連結データが順次入力されると、各連結データについてシミュレーションを実行し、各出力結果を、順次、出力結果格納部134に格納する。
出力部930は、出力結果格納部134に格納された各出力結果を統合することで、処理後画像データ(例えば、ファイル名=「形状データSD001''」、「形状データSD002''」を生成し、出力する。
<推論装置による推論処理の流れ>
次に、推論装置130による推論処理の流れについて説明する。図10は、推論装置による推論処理の流れを示すフローチャートである。測定装置111により生成された処理前画像データについてシミュレーションを行う旨の指示が入力されると、推論装置130では、図10に示すフローチャートを実行する。
ステップS1001において、画像分割部131は、推論装置130のGPUメモリのメモリ容量に応じて、処理前画像データを複数のブロックに分割する。
ステップS1002において、入力データ生成部132は、推論装置130に入力された処理関連データを、各ブロックに応じた所定の形式に加工する。また、入力データ生成部132は、所定の形式に加工した処理関連データを各ブロックに連結し、連結データを生成する。
ステップS1003において、実行部133は、学習済みモデル920に各連結データを順次入力し、学習済みモデル920を実行させる。
ステップS1004において、実行部133は、学習済みモデル920より出力された各出力結果を、順次、出力結果格納部134に格納する。
ステップS1005において、出力部930は、出力結果格納部134に格納された各出力結果を統合し、処理後画像データを生成する。
ステップS1006において、出力部930は、生成した処理後画像データを、シミュレーション結果として出力する。
<学習済みモデルのシミュレーション結果>
次に、学習済みモデル920のシミュレーション結果について説明する。ここでは、学習済みモデル920のシミュレーション結果として、
・自己回帰モジュールを有していない学習済みモデルを用いた場合のシミュレーション結果と、
・自己回帰モジュールを有する学習済みモデル920を用いた場合のシミュレーション結果と、
を比較する。
図11は、学習済みモデルのシミュレーション結果を示した図である。このうち、図11(a)は、処理前画像データの一例を示している。図11(a)に示すように、処理前画像データ1110は、画像分割部131により、分割線1111に示す位置で分割されるものとする。
図11(b)は、自己回帰モジュールを有していない学習済みモデルを用いてシミュレーションを行った様子を示している。なお、図11(b)において、処理後画像データ1121は、処理前画像データ1110を分割することなく入力した場合のシミュレーション結果を示している。一方、図11(b)において、処理後画像データ1122は、処理前画像データ1110を分割線1111により2つのブロックに分割して入力した場合のシミュレーション結果を示している。
また、図11(b)において、差分画像1123は、処理後画像データ1121と処理後画像データ1122との差分を示す画像である。差分画像1123に示すように、自己回帰モジュールを有していない学習済みモデルの場合、分割線1111の位置に差分が生じている。つまり、自己回帰モジュールを有していない学習済みモデルの場合、処理前画像データを分割したことによる切れ目の影響が生じている。
一方、図11(c)は、自己回帰モジュールを有する学習済みモデル920を用いてシミュレーションを行った様子を示している。図11(c)において、処理後画像データ1131は、処理前画像データ1110を分割することなく入力した場合のシミュレーション結果を示している。一方、図11(c)において、処理後画像データ1132は、処理前画像データ1110を分割線1111により2つのブロックに分割して入力した場合のシミュレーション結果を示している。
また、図11(c)において、差分画像1133は、処理後画像データ1131と処理後画像データ1132との差分を示す画像である。差分画像1133に示すように、自己回帰モジュールを有する学習済みモデル920の場合、分割線1111の位置に差分が生じていない。つまり、自己回帰モジュールを有する学習済みモデル920の場合、処理前画像データを分割したことによる切れ目の影響が生じさせることなく、処理を実行することができる。
このように、学習済みモデル920によれば、処理前画像データを分割した場合でも、シミュレーション精度の低下を回避することができる。
<まとめ>
以上の説明から明らかなように、第1の実施形態に係る学習装置は、
・複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習モデルを搭載する。
・搭載した学習モデルは、更に自己回帰モジュールを有する。そして、該自己回帰モジュールは、エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群について、所定の軸方向のデータの依存関係を示す特徴量を算出し、算出した特徴量を、デコーダ部のN層目の逆畳み込み層に入力する。
これにより、第1の実施形態に係る学習装置によれば、処理前画像データを複数のブロックに分割して学習モデルに入力した場合であっても、複数のブロックに分割したことによる影響を生じさせることなく、機械学習することができる。
この結果、第1の実施形態に係る学習装置によれば、半導体製造プロセスのシミュレーションにおいて、シミュレーション精度を向上させることが可能な学習済みモデルを生成することができる。
また、第1の実施形態に係る推論装置は、
・複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習済みモデルを搭載する。
・搭載した学習済みモデルは、更に自己回帰モジュールを有する。そして、該自己回帰モジュールは、エンコーダ部のN層目(nは1以上の整数)の畳み込み層から出力されるデータ群について、所定の軸方向のデータの依存関係を示す特徴量を算出し、算出した特徴量を、デコーダ部のN層目の逆畳み込み層に入力する。
これにより、第1の実施形態に係る推論装置によれば、処理前画像データを複数のブロックに分割して学習済みモデルに入力した場合であっても、複数のブロックに分割したことによる影響を生じさせることなく、シミュレーションを行うことができる。
この結果、第1の実施形態に係る推論装置によれば、半導体製造プロセスのシミュレーションにおいて、シミュレーション精度を向上させることができる。
[第2の実施形態]
上記第1の実施形態では、学習部が学習モデルを機械学習するにあたり、半導体製造プロセス固有の制約条件については特に言及しなかった。一方で、半導体製造プロセスには、固有の制約条件があり、学習部による機械学習に反映させてもよい(つまり、学習部による機械学習にドメイン知識を反映させるように構成してもよい)。
具体的には、自己回帰モジュールの出力に、物理法則に由来する制約やパラメータデータ(例えば、プラズマの粒子数の保存による制約や、電場などのチャンバに設定されるパラメータデータ)を課すことで、自己回帰モジュールの出力を変更してもよい。このようにドメイン知識を反映させることで、シミュレーション精度を更に向上させることができる。
[第3の実施形態]
上記第1の実施形態では、自己回帰モジュールが、所定の軸方向711に沿った一列分のデータ群について、特徴量を算出する場合について説明した。しかしながら、自己回帰モジュールが特徴量を算出するのは、所定の軸方向711に沿った一列分のデータ群に限定されない。例えば、横方向にも拡張して(つまり、他の列についても同様の特徴量を算出して)もよい。このように、横方向にも拡張することで、広い受容野が得られる。
また、上記第1の実施形態では、画像分割部121が分割する方向に基づいて、所定の軸方向711を定義したが、所定の軸方向711の定義方法はこれに限定されない。例えば、エンコーダ部の層から出力されるデータ群において、依存関係を有するデータ方向を、所定の軸方向711と定義してもよい。
[その他の実施形態]
上記第1乃至第3の実施形態では、処理前画像データ及び処理後画像データが、2次元の画像データであるとして説明した。しかしながら、処理前画像データ及び処理後画像データは、2次元の画像データに限定されず、3次元の画像データ(いわゆるボクセルデータ)であってもよい。
なお、処理前画像データが2次元の画像データの場合、連結データは、(チャネル、縦サイズ、横サイズ)の配列となるが、処理前画像データが3次元の画像データの場合、連結データは、(チャネル、縦サイズ、横サイズ、奥行きサイズ)の配列となる。
また、上記第1乃至第3の実施形態では、2次元の画像データをそのまま取り扱うものとして説明したが、2次元の画像データを変形して、あるいは、3次元の画像データを変形して取り扱うように構成してもよい。例えば、3次元の画像データを取得し、所定断面の2次元の画像データを生成して、処理前画像データとして入力してもよい。あるいは、連続する所定断面の2次元の画像データに基づいて、3次元の画像データを生成して、処理前画像データとして入力してもよい。
また、上記第1乃至第3の実施形態では、処理前画像データのチャネルについて言及しなかったが、処理前画像データは、マテリアルの種類に応じた複数のチャネルを有していてもよい。
また、上記第1乃至第3の実施形態では、学習装置120及び推論装置130がそれぞれ、画像分割部121、131を有するものとして説明した。しかしながら、学習装置120及び推論装置130は、それぞれ、画像分割部121、131を有していなくてもよく、入力データ生成部122、132は、分割されていない処理前画像データに基づいて、連結データを生成してもよい。
また、上記第1乃至第3の実施形態において、推論装置130は、処理前画像データ、処理関連データが入力された場合に、処理後画像データを出力して処理を終了するものとして説明した。しかしながら、推論装置130の構成はこれに限定されない。例えば、処理前画像データ、処理関連データが入力されることで出力される処理後画像データを、対応する処理関連データとともに、再び、推論装置130に入力するように構成してもよい。これにより、推論装置130では、形状の変化を連続的に出力することができる。なお、推論装置130に処理後画像データを再び入力するにあたり、対応する処理関連データは、任意に変更可能であるとする。
また、上記第1乃至第3の実施形態では、半導体製造装置110により処理される前の処理前ウェハの形状を示す処理前画像データと、処理された後の処理後ウェハの形状を示す処理後画像データとを学習用データとして用いるものとして説明した。
しかしながら、学習用データとして用いる処理前画像データ及び処理後画像データは、これに限定されない。例えば、半導体製造装置110の他のシミュレータによりシミュレーションされる前の処理前画像データと、シミュレーションされた後の処理後画像データとを、学習用データとして用いてもよい。これにより、推論装置130を、他のシミュレータの代替として利用することが可能となる。
また、上記第1乃至第3の実施形態では、処理前ウェハを対象物として説明したが、対象物は処理前ウェハに限定されず、例えば、半導体製造装置110のチャンバ内壁や、パーツ表面等であってもよい。
また、上記第1乃至第3の実施形態では、測定装置111(または測定装置112)が処理前画像データ(または処理後画像データ)を生成する場合について説明した。しかしながら、処理前画像データ(または処理後画像データ)は、測定装置111(または測定装置112)が生成する場合に限定されない。例えば、測定装置111(または測定装置112)は、対象物の形状を示す多次元の計測データを生成し、学習装置120が当該計測データに基づいて、処理前画像データ(または処理後画像データ)を生成するように構成してもよい。
なお、測定装置111(または測定装置112)が生成する計測データには、例えば、位置情報と膜種情報等を含むデータが含まれる。具体的には、CD−SEMにより生成される、位置情報とCD測長データとを組み合わせたデータが含まれる。あるいは、X線やラマン法により生成される、2次元または3次元の形状と膜種等の情報とを組み合わせたデータが含まれる。つまり、形状を表現する多次元の計測データには、測定装置の種類に応じた様々な表現形式が含まれるものとする。
また、上記第1乃至第3の実施形態では、学習装置120と推論装置130とを別体として示したが、学習装置120と推論装置130は、一体として構成してもよい。
また、上記第1乃至第3の実施形態において、学習装置120は、1台のコンピュータで構成されるものとして説明したが、複数台のコンピュータで構成されていてもよい。同様に、上記第1乃至第3の実施形態において、推論装置130は、1台のコンピュータで構成されるものとして説明したが、複数台のコンピュータで構成されてもよい。
また、上記第1乃至第3の実施形態では、学習装置120及び推論装置130を、半導体製造プロセスのシミュレーションに適用する場合について説明した。しかしながら、学習装置120及び推論装置130の適用対象は、半導体製造プロセスのシミュレーションに限定されず、他の任意の製造プロセスあるいは製造プロセス以外のプロセスに適用してもよい。
また、上記第1乃至第3の実施形態において、学習装置120、推論装置130は、汎用のコンピュータに各種プログラムを実行させることで実現したが、学習装置120、推論装置130の実現方法はこれに限定されない。
例えば、プロセッサ、メモリなどを実装しているIC(Integrated Circuit)などの専用の電子回路(すなわちハードウェア)により実現されてもよい。複数の構成要素が一つの電子回路で実現されてもよいし、一つの構成要素が複数の電子回路で実現されてもよいし、構成要素と電子回路が一対一で実現されてもよい。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
(参照による引用)
本明細書に記載の全ての刊行物(下記も含む)、特許、および特許出願は、各個々の刊行物、特許、または特許出願が、具体的かつ個々に、参照することによって組み込まれるように示される場合と同範囲に参照することによって本明細書に組み込まれる。
・https://arxiv.org/abs/1709.07871
・https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/
100 :シミュレーションシステム
110 :半導体製造装置
111 :測定装置
112 :測定装置
120 :学習装置
121 :画像分割部
122 :入力データ生成部
123 :学習部
130 :推論装置
131 :画像分割部
132 :入力データ生成部
133 :実行部
300 :学習用データ
420 :学習モデル
430 :比較部
440 :変更部
501 :処理前画像データ
510、520 :ブロック
511、521 :連結データ
601〜604 :自己回帰モジュール
611〜614 :特徴量
621〜624、630 :エンコーダ部の層
641〜644 :デコーダ部の層
920 :学習済みモデル
930 :出力部

Claims (13)

  1. 複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習モデルを機械学習する学習装置であって、
    前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
    算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部と
    を有する学習装置。
  2. 前記算出部は、
    前記エンコーダ部のN層目の畳み込み層から、(m+1)番目(mは1以上の整数)の前記データ群が出力された場合において、m番目の前記データ群に基づいて算出した前記特徴量と、(m+1)番目の前記データ群とに基づいて、(m+1)番目の前記特徴量を算出する、請求項1に記載の学習装置。
  3. 前記算出部は、
    自己回帰モデルを用いて、(m+1)番目の前記特徴量を算出する、請求項2に記載の学習装置。
  4. 対象物の形状を示す画像データを、前記所定の方向に分割し、複数のブロックを生成する分割部と、
    前記複数のブロックを前記エンコーダ部に順次入力する生成部と
    を有する、請求項2に記載の学習装置。
  5. 前記生成部は、前記対象物に対する処理に関するデータを、前記複数のブロックに応じた所定の形式に加工し、前記複数のブロックそれぞれに連結することで、複数の連結データを生成し、前記エンコーダ部に順次入力する、
    請求項4に記載の学習装置。
  6. 前記デコーダ部より出力された、前記複数の連結データに対応する複数の出力結果を統合し、統合した複数の出力結果が、処理された前記対象物についての、処理後の形状を示す画像データに近づくように機械学習する、請求項5に記載の学習装置。
  7. 複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備え、学習用の画像データを用いて機械学習された学習済みモデルが搭載される推論装置であって、
    前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
    算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部と
    を有する推論装置。
  8. 前記算出部は、
    前記エンコーダ部のN層目の畳み込み層から、(m+1)番目(mは1以上の整数)の前記データ群が出力された場合において、m番目の前記データ群に基づいて算出した前記特徴量と、(m+1)番目の前記データ群とに基づいて、(m+1)番目の前記特徴量を算出する、請求項7に記載の推論装置。
  9. 前記算出部は、
    自己回帰モデルを用いて、(m+1)番目の前記特徴量を算出する、請求項8に記載の推論装置。
  10. 対象物の形状を示す画像データを、前記所定の方向に分割し、複数のブロックを生成する分割部と、
    前記複数のブロックを前記エンコーダ部に順次入力する生成部と
    を有する、請求項8に記載の推論装置。
  11. 前記生成部は、前記対象物に対する処理に関するデータを、前記複数のブロックに応じた所定の形式に加工し、前記複数のブロックそれぞれに連結することで、複数の連結データを生成し、前記エンコーダ部に順次入力する、
    請求項10に記載の推論装置。
  12. 前記デコーダ部より出力された、前記複数の連結データに対応する複数の出力結果を統合し、統合した複数の出力結果を、シミュレーション結果として出力する出力部を更に有する、請求項11に記載の推論装置。
  13. コンピュータを、複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部として機能させ、学習用の画像データを用いて機械学習された学習済みモデルであって、
    前記コンピュータを、更に、
    前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
    算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部
    として機能させる学習済みモデル。
JP2018186943A 2018-10-01 2018-10-01 学習装置、推論装置及び学習済みモデル Pending JP2020057172A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018186943A JP2020057172A (ja) 2018-10-01 2018-10-01 学習装置、推論装置及び学習済みモデル
US16/585,083 US20200104708A1 (en) 2018-10-01 2019-09-27 Training apparatus, inference apparatus and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186943A JP2020057172A (ja) 2018-10-01 2018-10-01 学習装置、推論装置及び学習済みモデル

Publications (2)

Publication Number Publication Date
JP2020057172A true JP2020057172A (ja) 2020-04-09
JP2020057172A5 JP2020057172A5 (ja) 2021-11-11

Family

ID=69945960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186943A Pending JP2020057172A (ja) 2018-10-01 2018-10-01 学習装置、推論装置及び学習済みモデル

Country Status (2)

Country Link
US (1) US20200104708A1 (ja)
JP (1) JP2020057172A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101910A (ja) * 2018-12-20 2020-07-02 キヤノンメディカルシステムズ株式会社 データ処理装置、磁気共鳴イメージング装置、学習装置および学習方法
WO2021130594A1 (ja) * 2019-12-27 2021-07-01 株式会社半導体エネルギー研究所 ニューラルネットワークモデル、及びその学習方法
JP2022159043A (ja) * 2021-03-31 2022-10-17 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
WO2024101100A1 (ja) * 2022-11-11 2024-05-16 国立大学法人 東京大学 学習方法、情報処理システム、プログラム及び学習モデル

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112640038A (zh) * 2018-09-03 2021-04-09 首选网络株式会社 学习装置、推断装置及学习完成模型
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
CN113761983B (zh) * 2020-06-05 2023-08-22 杭州海康威视数字技术股份有限公司 更新人脸活体检测模型的方法、装置及图像采集设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018172990A1 (en) * 2017-03-24 2018-09-27 Pie Medical Imaging B.V. Method and system for assessing vessel obstruction based on machine learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018172990A1 (en) * 2017-03-24 2018-09-27 Pie Medical Imaging B.V. Method and system for assessing vessel obstruction based on machine learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
芦原 佑太ほか: "CNN型AEとベクトル付加LSTMを用いた物体の回転画像の想起モデル", 汎用人工知能研究会 第1回SIG−AGI研究会[ONLINE], JPN6022038706, 16 December 2015 (2015-12-16), JP, ISSN: 0005005325 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101910A (ja) * 2018-12-20 2020-07-02 キヤノンメディカルシステムズ株式会社 データ処理装置、磁気共鳴イメージング装置、学習装置および学習方法
JP7258540B2 (ja) 2018-12-20 2023-04-17 キヤノンメディカルシステムズ株式会社 データ処理装置、磁気共鳴イメージング装置、学習装置および学習方法
WO2021130594A1 (ja) * 2019-12-27 2021-07-01 株式会社半導体エネルギー研究所 ニューラルネットワークモデル、及びその学習方法
JP2022159043A (ja) * 2021-03-31 2022-10-17 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
JP7176143B2 (ja) 2021-03-31 2022-11-21 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
WO2024101100A1 (ja) * 2022-11-11 2024-05-16 国立大学法人 東京大学 学習方法、情報処理システム、プログラム及び学習モデル

Also Published As

Publication number Publication date
US20200104708A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP2020057172A (ja) 学習装置、推論装置及び学習済みモデル
KR102541743B1 (ko) 학습 장치, 추론 장치 및 학습 완료 모델
WO2020049974A1 (ja) 学習装置、推論装置、学習モデルの生成方法及び推論方法
JP2016538717A (ja) プロセス誘起による歪みの予測、ならびにオーバーレイ誤差のフィードフォワード及びフィードバック修正
JPWO2020111258A1 (ja) 仮想測定装置、仮想測定方法及び仮想測定プログラム
JP2007219208A (ja) パターン補正装置、パターン補正プログラム、パターン補正方法および半導体装置の製造方法
US6304834B1 (en) Method and apparatus for semiconductor device simulation with linerly changing quasi-fermi potential, medium storing program for the simulation, and manufacturing method for the semiconductor device
JP6788187B2 (ja) シミュレーションプログラム、シミュレーション方法および情報処理装置
JP6424651B2 (ja) 磁界シミュレータプログラム、磁界シミュレータ装置および磁界シミュレーション方法
Jamal et al. A hybrid CPU/GPU approach for the parallel algebraic recursive multilevel solver pARMS
Khaitan et al. Fast parallelized algorithms for on-line extended-term dynamic cascading analysis
US20230297737A1 (en) Modelling an object, determination of load capacity, improvement of the design and generating component, and system
JP2014160321A (ja) 構造解析装置
Osanov et al. Topology Optimization for Additive Manufacturing Considering Layer-Based Minimum Feature Sizes
Kobayashi et al. Development and implementation of recursive coarse-grained particle method for meso-scale simulation
Arumugam et al. High-fidelity simulation of collective effects in electron beams using an innovative parallel method
US20240211753A1 (en) Adjusting method and adjusting device
JP7490431B2 (ja) 階層的縮退行列生成装置
US11868689B2 (en) Systems and methods for setting up a physics-based model
Kadre et al. Mixture Surrogate Models for Multi-Objective Optimization
JP2012159953A (ja) 半導体集積回路のテスト設計支援装置、テスト設計支援方法及びプログラム
Turkin et al. Benchmarking Python Tools for Automatic Differentiation
WO2022145225A1 (ja) パラメータ導出装置、パラメータ導出方法及びパラメータ導出プログラム
Kozynchenko et al. About improving efficiency of the P3M algorithms when computing the inter-particle forces in beam dynamics
JP2003196325A (ja) 格子収束解の算出システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307