JP2020057172A - 学習装置、推論装置及び学習済みモデル - Google Patents
学習装置、推論装置及び学習済みモデル Download PDFInfo
- Publication number
- JP2020057172A JP2020057172A JP2018186943A JP2018186943A JP2020057172A JP 2020057172 A JP2020057172 A JP 2020057172A JP 2018186943 A JP2018186943 A JP 2018186943A JP 2018186943 A JP2018186943 A JP 2018186943A JP 2020057172 A JP2020057172 A JP 2020057172A
- Authority
- JP
- Japan
- Prior art keywords
- data
- unit
- learning
- processing
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 claims abstract description 51
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims description 100
- 238000010801 machine learning Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 8
- 238000013459 approach Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 description 47
- 239000004065 semiconductor Substances 0.000 description 44
- 238000007781 pre-processing Methods 0.000 description 42
- 238000000034 method Methods 0.000 description 30
- 230000000875 corresponding effect Effects 0.000 description 29
- 235000012431 wafers Nutrition 0.000 description 23
- 238000005259 measurement Methods 0.000 description 19
- 238000013500 data storage Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000012805 post-processing Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005530 etching Methods 0.000 description 3
- 238000011144 upstream manufacturing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000008021 deposition Effects 0.000 description 2
- 238000001312 dry etching Methods 0.000 description 2
- 238000001069 Raman spectroscopy Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000004993 emission spectroscopy Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0006—Industrial image inspection using a design-rule based approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
Description
複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習モデルを機械学習する学習装置であって、
前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部とを有する。
<シミュレーションシステムの全体構成>
はじめに、半導体製造プロセスのシミュレーションを実行するシミュレーションシステムの全体構成について説明する。図1は、シミュレーションシステムの全体構成の一例を示す図である。図1に示すように、シミュレーションシステム100は、学習装置120と、推論装置130とを有する。なお、本実施形態において、シミュレーションシステム100が取り扱う各種データは、半導体製造メーカから、あるいは半導体製造装置メーカのデータベースなどから取得される。
・半導体製造装置110に設定される各種パラメータデータに相当するデータ、
・半導体製造装置110が各製造プロセスに応じた処理を実行した際の処理中の環境を示す環境データに相当するデータ、
を指す。
・処理前画像データを画像分割部131に入力し、半導体製造装置110に設定または保持された処理関連データを入力データ生成部132に入力した場合に、実行部133により出力される処理後画像データと、
・処理前ウェハが半導体製造装置110により処理され、処理後ウェハが測定装置112により測定されることで生成される処理後画像データと、
を対比する。これにより、推論装置130のユーザは、学習済みモデルのシミュレーション誤差を算出し、シミュレーション精度を検証することができる。
次に、シミュレーションシステム100を構成する各装置(学習装置120、推論装置130)のハードウェア構成について、図2を用いて説明する。図2は、シミュレーションシステムを構成する各装置のハードウェア構成の一例を示す図である。
次に、学習用データ格納部124に格納される学習用データについて説明する。図3は、学習用データの一例を示す図である。図3に示すように、学習用データ300には、情報の項目として、"ジョブID"、"処理前画像データ"、"処理関連データ"、"処理後画像データ"が含まれる。
・Pressure(チャンバ内の圧力)、Power(高周波電源の電力)、Gas(ガス流量)、Temperature(チャンバ内の温度またはウェハの表面の温度)等のように、半導体製造装置110に設定値として設定されるデータ、
・CD(限界寸法)、Depth(深さ)、Taper(テーパ角)、Tilting(チルト角)、Bowing(ボーイング)等のように、半導体製造装置110に目標値として設定されるデータ、
・半導体製造装置110のハードウェア形体に関する情報、
等が含まれる。
・Vpp(電位差)、Vdc(直流自己バイアス電圧)、OES(発光分光分析による発光強度)、Reflect(反射波電力)、Top DCS current(ドップラ流速計の検出値)等のように、処理中に半導体製造装置110に保持されるデータ、
・Plasma density(プラズマ密度)、Ion energy(イオンエネルギ)、Ion flux(イオン流量)等のように、処理中に測定され、半導体製造装置110に保持されるデータ、
等が含まれる。
次に、学習装置120の学習部123の機能構成の詳細について説明する。図4は、学習装置の学習部の機能構成の詳細な一例を示す図である。上述したように、学習装置120は画像分割部121と、入力データ生成部122と、学習部123とを有する。そして、図4に示すように、学習部123は、更に、学習モデル420と、比較部430と、変更部440とを有する。
次に、学習装置120の各部(画像分割部121、入力データ生成部122、学習部123)の処理について更に詳細に説明する。
はじめに、画像分割部121及び入力データ生成部122による処理の具体例について説明する。図5は、学習装置の画像分割部及び入力データ生成部による処理の具体例を示す図である。
次に、学習部123が有する学習モデル420による処理の具体例について図6を用いて説明する。図6は、学習部が有する学習モデルの構成例を示す図である。図6に示すように、本実施形態では、学習モデル420として、U字型の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)ベースの学習モデル(いわゆるUNET)が用いられる。
次に、学習モデル420の自己回帰モジュール601〜604による処理の具体例について説明する。なお、自己回帰モジュール601〜604は、それぞれ同様の処理を行うことから、ここでは、自己回帰モジュール601による処理の具体例について説明する。
・0番目のデータ群の(n−2)番目の予測値(I0n−2)に重み係数を積算した値と、(n−1)番目の予測値(I0n−1)に重み係数を積算した値との和算値と、
・0番目のデータ群のn番目の予測値(I0n)に重み係数を積算した値と、1番目のデータ群710の0番目のデータ(M10)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、
により、予測値(I10)を算出する。ただし、w01〜w06は重み係数、C01〜C03はバイアスであり、機械学習される(例えば、勾配法により更新される)。
・0番目のデータ群の(n−1)番目の予測値(I0n−1)に重み係数を積算した値と、n番目の予測値(I0n)に重み係数を積算した値との和算値と、
・1番目のデータ群の0番目のデータ(M10)に重み係数を積算した値と、1番目のデータ群710の1番目のデータ(M11)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、
により、予測値(I11)を算出する。ただし、w11〜w16は重み係数、C11〜C13はバイアスであり、機械学習される(例えば、勾配法により更新される)。
・0番目のデータ群のn番目の予測値(I0n)に重み係数を積算した値と、1番目のデータ群の0番目のデータ(M10)に重み係数を積算した値との和算値と、
・1番目のデータ群の1番目のデータ(M11)に重み係数を積算した値と、1番目のデータ群710の2番目のデータ(M12)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、
により、予測値(I12)を算出する。ただし、w21〜w26は重み係数、C21〜C23はバイアスであり、機械学習される(例えば、勾配法により更新される)。
・1番目のデータ群の0番目のデータ(M10)に重み係数を積算した値と、1番目のデータ群の1番目のデータ(M11)に重み係数を積算した値との和算値と、
・1番目のデータ群の2番目のデータ(M12)に重み係数を積算した値と、1番目のデータ群710の3番目のデータ(M13)に重み係数を積算した値との和算値と、
を用いて算出する。具体的には、
により、予測値(I13)を算出する。ただし、w31〜w36は重み係数、C31〜C33はバイアスであり、機械学習される(例えば、勾配法により更新される)。
として一般化することができる。ただし、上述した予測値(I11、I12、I13、・・・)についての具体的な算出方法は、あくまで一例であり、他の算出方法により予測値を算出してもよい。
次に、学習装置120による学習処理の流れについて説明する。図8は、学習装置による学習処理の流れを示すフローチャートである。学習用データ格納部124に格納された学習用データ300を用いて、学習モデル420を機械学習する旨の指示が入力されると、学習装置120では、図8に示すフローチャートを実行する。
次に、推論装置130の実行部133の機能構成の詳細について説明する。図9は、第1の実施形態に係る推論装置の実行部の機能構成の詳細な一例を示す図である。上述したように、推論装置130は画像分割部131と、入力データ生成部132と、実行部133とを有する。そして、図9に示すように、実行部133は、更に、学習済みモデル920と、出力部930とを有する。
次に、推論装置130による推論処理の流れについて説明する。図10は、推論装置による推論処理の流れを示すフローチャートである。測定装置111により生成された処理前画像データについてシミュレーションを行う旨の指示が入力されると、推論装置130では、図10に示すフローチャートを実行する。
次に、学習済みモデル920のシミュレーション結果について説明する。ここでは、学習済みモデル920のシミュレーション結果として、
・自己回帰モジュールを有していない学習済みモデルを用いた場合のシミュレーション結果と、
・自己回帰モジュールを有する学習済みモデル920を用いた場合のシミュレーション結果と、
を比較する。
以上の説明から明らかなように、第1の実施形態に係る学習装置は、
・複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習モデルを搭載する。
・搭載した学習モデルは、更に自己回帰モジュールを有する。そして、該自己回帰モジュールは、エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群について、所定の軸方向のデータの依存関係を示す特徴量を算出し、算出した特徴量を、デコーダ部のN層目の逆畳み込み層に入力する。
・複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習済みモデルを搭載する。
・搭載した学習済みモデルは、更に自己回帰モジュールを有する。そして、該自己回帰モジュールは、エンコーダ部のN層目(nは1以上の整数)の畳み込み層から出力されるデータ群について、所定の軸方向のデータの依存関係を示す特徴量を算出し、算出した特徴量を、デコーダ部のN層目の逆畳み込み層に入力する。
上記第1の実施形態では、学習部が学習モデルを機械学習するにあたり、半導体製造プロセス固有の制約条件については特に言及しなかった。一方で、半導体製造プロセスには、固有の制約条件があり、学習部による機械学習に反映させてもよい(つまり、学習部による機械学習にドメイン知識を反映させるように構成してもよい)。
上記第1の実施形態では、自己回帰モジュールが、所定の軸方向711に沿った一列分のデータ群について、特徴量を算出する場合について説明した。しかしながら、自己回帰モジュールが特徴量を算出するのは、所定の軸方向711に沿った一列分のデータ群に限定されない。例えば、横方向にも拡張して(つまり、他の列についても同様の特徴量を算出して)もよい。このように、横方向にも拡張することで、広い受容野が得られる。
上記第1乃至第3の実施形態では、処理前画像データ及び処理後画像データが、2次元の画像データであるとして説明した。しかしながら、処理前画像データ及び処理後画像データは、2次元の画像データに限定されず、3次元の画像データ(いわゆるボクセルデータ)であってもよい。
(参照による引用)
本明細書に記載の全ての刊行物(下記も含む)、特許、および特許出願は、各個々の刊行物、特許、または特許出願が、具体的かつ個々に、参照することによって組み込まれるように示される場合と同範囲に参照することによって本明細書に組み込まれる。
・https://arxiv.org/abs/1709.07871
・https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/
110 :半導体製造装置
111 :測定装置
112 :測定装置
120 :学習装置
121 :画像分割部
122 :入力データ生成部
123 :学習部
130 :推論装置
131 :画像分割部
132 :入力データ生成部
133 :実行部
300 :学習用データ
420 :学習モデル
430 :比較部
440 :変更部
501 :処理前画像データ
510、520 :ブロック
511、521 :連結データ
601〜604 :自己回帰モジュール
611〜614 :特徴量
621〜624、630 :エンコーダ部の層
641〜644 :デコーダ部の層
920 :学習済みモデル
930 :出力部
Claims (13)
- 複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備える学習モデルを機械学習する学習装置であって、
前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部と
を有する学習装置。 - 前記算出部は、
前記エンコーダ部のN層目の畳み込み層から、(m+1)番目(mは1以上の整数)の前記データ群が出力された場合において、m番目の前記データ群に基づいて算出した前記特徴量と、(m+1)番目の前記データ群とに基づいて、(m+1)番目の前記特徴量を算出する、請求項1に記載の学習装置。 - 前記算出部は、
自己回帰モデルを用いて、(m+1)番目の前記特徴量を算出する、請求項2に記載の学習装置。 - 対象物の形状を示す画像データを、前記所定の方向に分割し、複数のブロックを生成する分割部と、
前記複数のブロックを前記エンコーダ部に順次入力する生成部と
を有する、請求項2に記載の学習装置。 - 前記生成部は、前記対象物に対する処理に関するデータを、前記複数のブロックに応じた所定の形式に加工し、前記複数のブロックそれぞれに連結することで、複数の連結データを生成し、前記エンコーダ部に順次入力する、
請求項4に記載の学習装置。 - 前記デコーダ部より出力された、前記複数の連結データに対応する複数の出力結果を統合し、統合した複数の出力結果が、処理された前記対象物についての、処理後の形状を示す画像データに近づくように機械学習する、請求項5に記載の学習装置。
- 複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部とを備え、学習用の画像データを用いて機械学習された学習済みモデルが搭載される推論装置であって、
前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部と
を有する推論装置。 - 前記算出部は、
前記エンコーダ部のN層目の畳み込み層から、(m+1)番目(mは1以上の整数)の前記データ群が出力された場合において、m番目の前記データ群に基づいて算出した前記特徴量と、(m+1)番目の前記データ群とに基づいて、(m+1)番目の前記特徴量を算出する、請求項7に記載の推論装置。 - 前記算出部は、
自己回帰モデルを用いて、(m+1)番目の前記特徴量を算出する、請求項8に記載の推論装置。 - 対象物の形状を示す画像データを、前記所定の方向に分割し、複数のブロックを生成する分割部と、
前記複数のブロックを前記エンコーダ部に順次入力する生成部と
を有する、請求項8に記載の推論装置。 - 前記生成部は、前記対象物に対する処理に関するデータを、前記複数のブロックに応じた所定の形式に加工し、前記複数のブロックそれぞれに連結することで、複数の連結データを生成し、前記エンコーダ部に順次入力する、
請求項10に記載の推論装置。 - 前記デコーダ部より出力された、前記複数の連結データに対応する複数の出力結果を統合し、統合した複数の出力結果を、シミュレーション結果として出力する出力部を更に有する、請求項11に記載の推論装置。
- コンピュータを、複数の畳み込み層を有するエンコーダ部と、対応する複数の逆畳み込み層を有するデコーダ部として機能させ、学習用の画像データを用いて機械学習された学習済みモデルであって、
前記コンピュータを、更に、
前記エンコーダ部のN層目(Nは1以上の整数)の畳み込み層から出力されるデータ群に基づいて、所定の方向のデータの依存関係を示す特徴量を算出する算出部と、
算出した前記特徴量を、前記デコーダ部のN層目の逆畳み込み層に入力する入力部
として機能させる学習済みモデル。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018186943A JP2020057172A (ja) | 2018-10-01 | 2018-10-01 | 学習装置、推論装置及び学習済みモデル |
US16/585,083 US20200104708A1 (en) | 2018-10-01 | 2019-09-27 | Training apparatus, inference apparatus and computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018186943A JP2020057172A (ja) | 2018-10-01 | 2018-10-01 | 学習装置、推論装置及び学習済みモデル |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020057172A true JP2020057172A (ja) | 2020-04-09 |
JP2020057172A5 JP2020057172A5 (ja) | 2021-11-11 |
Family
ID=69945960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018186943A Pending JP2020057172A (ja) | 2018-10-01 | 2018-10-01 | 学習装置、推論装置及び学習済みモデル |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200104708A1 (ja) |
JP (1) | JP2020057172A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020101910A (ja) * | 2018-12-20 | 2020-07-02 | キヤノンメディカルシステムズ株式会社 | データ処理装置、磁気共鳴イメージング装置、学習装置および学習方法 |
WO2021130594A1 (ja) * | 2019-12-27 | 2021-07-01 | 株式会社半導体エネルギー研究所 | ニューラルネットワークモデル、及びその学習方法 |
JP2022159043A (ja) * | 2021-03-31 | 2022-10-17 | Sppテクノロジーズ株式会社 | 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム |
WO2024101100A1 (ja) * | 2022-11-11 | 2024-05-16 | 国立大学法人 東京大学 | 学習方法、情報処理システム、プログラム及び学習モデル |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112640038A (zh) * | 2018-09-03 | 2021-04-09 | 首选网络株式会社 | 学习装置、推断装置及学习完成模型 |
GB2583061B (en) * | 2019-02-12 | 2023-03-15 | Advanced Risc Mach Ltd | Data processing systems |
CN113761983B (zh) * | 2020-06-05 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 更新人脸活体检测模型的方法、装置及图像采集设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018172990A1 (en) * | 2017-03-24 | 2018-09-27 | Pie Medical Imaging B.V. | Method and system for assessing vessel obstruction based on machine learning |
-
2018
- 2018-10-01 JP JP2018186943A patent/JP2020057172A/ja active Pending
-
2019
- 2019-09-27 US US16/585,083 patent/US20200104708A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018172990A1 (en) * | 2017-03-24 | 2018-09-27 | Pie Medical Imaging B.V. | Method and system for assessing vessel obstruction based on machine learning |
Non-Patent Citations (1)
Title |
---|
芦原 佑太ほか: "CNN型AEとベクトル付加LSTMを用いた物体の回転画像の想起モデル", 汎用人工知能研究会 第1回SIG−AGI研究会[ONLINE], JPN6022038706, 16 December 2015 (2015-12-16), JP, ISSN: 0005005325 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020101910A (ja) * | 2018-12-20 | 2020-07-02 | キヤノンメディカルシステムズ株式会社 | データ処理装置、磁気共鳴イメージング装置、学習装置および学習方法 |
JP7258540B2 (ja) | 2018-12-20 | 2023-04-17 | キヤノンメディカルシステムズ株式会社 | データ処理装置、磁気共鳴イメージング装置、学習装置および学習方法 |
WO2021130594A1 (ja) * | 2019-12-27 | 2021-07-01 | 株式会社半導体エネルギー研究所 | ニューラルネットワークモデル、及びその学習方法 |
JP2022159043A (ja) * | 2021-03-31 | 2022-10-17 | Sppテクノロジーズ株式会社 | 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム |
JP7176143B2 (ja) | 2021-03-31 | 2022-11-21 | Sppテクノロジーズ株式会社 | 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム |
WO2024101100A1 (ja) * | 2022-11-11 | 2024-05-16 | 国立大学法人 東京大学 | 学習方法、情報処理システム、プログラム及び学習モデル |
Also Published As
Publication number | Publication date |
---|---|
US20200104708A1 (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020057172A (ja) | 学習装置、推論装置及び学習済みモデル | |
KR102541743B1 (ko) | 학습 장치, 추론 장치 및 학습 완료 모델 | |
WO2020049974A1 (ja) | 学習装置、推論装置、学習モデルの生成方法及び推論方法 | |
JP2016538717A (ja) | プロセス誘起による歪みの予測、ならびにオーバーレイ誤差のフィードフォワード及びフィードバック修正 | |
JPWO2020111258A1 (ja) | 仮想測定装置、仮想測定方法及び仮想測定プログラム | |
JP2007219208A (ja) | パターン補正装置、パターン補正プログラム、パターン補正方法および半導体装置の製造方法 | |
US6304834B1 (en) | Method and apparatus for semiconductor device simulation with linerly changing quasi-fermi potential, medium storing program for the simulation, and manufacturing method for the semiconductor device | |
JP6788187B2 (ja) | シミュレーションプログラム、シミュレーション方法および情報処理装置 | |
JP6424651B2 (ja) | 磁界シミュレータプログラム、磁界シミュレータ装置および磁界シミュレーション方法 | |
Jamal et al. | A hybrid CPU/GPU approach for the parallel algebraic recursive multilevel solver pARMS | |
Khaitan et al. | Fast parallelized algorithms for on-line extended-term dynamic cascading analysis | |
US20230297737A1 (en) | Modelling an object, determination of load capacity, improvement of the design and generating component, and system | |
JP2014160321A (ja) | 構造解析装置 | |
Osanov et al. | Topology Optimization for Additive Manufacturing Considering Layer-Based Minimum Feature Sizes | |
Kobayashi et al. | Development and implementation of recursive coarse-grained particle method for meso-scale simulation | |
Arumugam et al. | High-fidelity simulation of collective effects in electron beams using an innovative parallel method | |
US20240211753A1 (en) | Adjusting method and adjusting device | |
JP7490431B2 (ja) | 階層的縮退行列生成装置 | |
US11868689B2 (en) | Systems and methods for setting up a physics-based model | |
Kadre et al. | Mixture Surrogate Models for Multi-Objective Optimization | |
JP2012159953A (ja) | 半導体集積回路のテスト設計支援装置、テスト設計支援方法及びプログラム | |
Turkin et al. | Benchmarking Python Tools for Automatic Differentiation | |
WO2022145225A1 (ja) | パラメータ導出装置、パラメータ導出方法及びパラメータ導出プログラム | |
Kozynchenko et al. | About improving efficiency of the P3M algorithms when computing the inter-particle forces in beam dynamics | |
JP2003196325A (ja) | 格子収束解の算出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230307 |