JP7359287B2 - 情報処理装置、制御方法及びプログラム - Google Patents
情報処理装置、制御方法及びプログラム Download PDFInfo
- Publication number
- JP7359287B2 JP7359287B2 JP2022505703A JP2022505703A JP7359287B2 JP 7359287 B2 JP7359287 B2 JP 7359287B2 JP 2022505703 A JP2022505703 A JP 2022505703A JP 2022505703 A JP2022505703 A JP 2022505703A JP 7359287 B2 JP7359287 B2 JP 7359287B2
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- simulation
- neural network
- information processing
- simulation parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 118
- 238000000034 method Methods 0.000 title claims description 32
- 238000004088 simulation Methods 0.000 claims description 319
- 238000010801 machine learning Methods 0.000 claims description 282
- 238000013528 artificial neural network Methods 0.000 claims description 148
- 238000005070 sampling Methods 0.000 claims description 109
- 238000004364 calculation method Methods 0.000 claims description 91
- 230000013016 learning Effects 0.000 claims description 41
- 238000011156 evaluation Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 31
- 238000007476 Maximum Likelihood Methods 0.000 claims description 16
- 238000013135 deep learning Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 230000002068 genetic effect Effects 0.000 claims description 4
- 238000000137 annealing Methods 0.000 description 20
- 230000015654 memory Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 14
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000001364 causal effect Effects 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000007876 drug discovery Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000005366 Ising model Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Physiology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
(1-1)システム構成
図1は、第1実施形態に係る機械学習システム100の構成を示す。機械学習システム100は、シミュレーションの最適パラメータを求めるためのシステムであって、主に、情報処理装置1と、入力装置2と、表示装置3と、記憶装置4とを備える。
図2は、情報処理装置1のハードウェア構成を示す。情報処理装置1は、ハードウェアとして、プロセッサ11と、メモリ12と、インターフェース13とを含む。プロセッサ11、メモリ12及びインターフェース13は、データバス19を介して接続されている。
情報処理装置1は、可視変数と隠れ変数との関係性をニューラルネットワークとして表現する制限ボルツマンマシンを用いる。まず、制限ボルツマンマシンについて補足説明する。
図6は、情報処理装置1及び記憶装置4の機能ブロックの一例である。情報処理装置1のプロセッサ11は、機能的には、ニューラルネットワーク部23と、機械学習部24と、サンプリング計算部25と、シミュレーション計算部26と、最適解抽出部27と、を有する。また、記憶装置4は、機能的には、可視変数保持部41と、隠れ変数保持部42とを含んでいる。なお、図6では、データ又はタイミング信号の授受が行われるブロック同士を実線により結んでいるが、データ又はタイミング信号の授受が行われるブロックの組合せは図6に限定されない。後述する他の機能ブロックの図においても同様である。
図7は、第1実施形態において情報処理装置1が実行する処理手順を示すフローチャートの一例である。情報処理装置1は、例えば、入力装置2などから供給される外部入力等に基づき、所定の実行指示を検知した場合に、図7のフローチャートを実行する。
第1実施形態の効果について補足説明する。
第1実施形態に好適な変形例について説明する。これらの変形例は、後述の第2実施形態に適用してもよい。
サンプリング計算部25によるサンプリング処理において、サンプリング計算部25は、可視変数となる観測データを含めて変数としてよい。この場合、機械学習部24は、サンプリングにより得られた多様な観測データを含めて学習を行うことが可能となる。なお、この場合、サンプリングにより得られた観測データに対する観測結果は未知であるため、情報処理装置1は、シミュレーション結果が正例か負例かのラベルを付けに関する有識者等によるユーザ入力を、入力装置2により受け付ける。
長期間にわたる時系列データなどを対象にすると、ネットワークの入力ノード数が膨大となる場合がある。その場合、いくつかのサブセットに分割したネットワークごとに学習を行う手法が存在する。よって、情報処理装置1は、分割したネットワーク単位で、第1実施形態において説明したサンプリング、機械学習、シミュレーションを行ってもよい。
第2実施形態では、より複雑な事象を対象に予測やシミュレーションを行うため、3層以上の多層ニューラルネットワーク(ディープラーニング)を用いる。多層ニューラルネットワークを用いる場合の第1の例では、ニューラルネットワークの層のうちの1つの層を対象にサンプリング、機械学習、シミュレーションを繰り返す。多層ニューラルネットワークを用いる場合の第2の例では、1つの層を対象にサンプリング、機械学習、シミュレーションを行った後に、別の層を対象にサンプリング、機械学習、シミュレーションを行い、順番にすべての層を対象にサンプリング、機械学習、シミュレーションを行う。
図9は、多層ニューラルネットワークを用いる第2実施形態における情報処理装置1A及び記憶装置4Aのブロック構成図の一例を示す。情報処理装置1Aは、入力装置2、表示装置3及び記憶装置4Aとデータ通信可能であって、図2に示す情報処理装置1と同一のハードウェア構成を有する。そして、情報処理装置1Aのプロセッサ11は、第1ニューラルネットワーク部31と、第1機械学習部32と、第2ニューラルネットワーク部33と、第2機械学習部34と、サンプリング計算部35と、シミュレーション計算部36と、最適解抽出部37と、を有する。また、記憶装置4Aは、観測データ保持部43と、中間変数保持部44と、シミュレーションデータ保持部45とを有する。
図10は、第2実施形態において情報処理装置1Aが実行する処理手順を示すフローチャートの一例である。情報処理装置1Aは、例えば、入力装置2などから供給される外部入力等に基づき、所定の実行指示を検知した場合に、図10のフローチャートを実行する。
(変形例2-1)
情報処理装置1Aは、前段の第1ニューラルネットワークの機械学習において、ボルツマンマシン型のニューラルネットワークを前提としたが、中間層の変数を求めることができる、オートエンコーダ型のネットワークを用いてもよい。ただし、オートエンコーダ型のネットワークでは、サンプリングは行うことができないので、この場合、情報処理装置1Aは、サンプリングによる第1ニューラルネットワークの学習データの増量は行わない。
第1ニューラルネットワークは、多層のネットワークであってもよい。その場合、中間層についても多層となってもよい。
後段の第2ニューラルネットワークに基づきシミュレーションパラメータを求める処理において、最適解抽出部37は、量子アニーリング/シミュレーションアニーリングの組合せ最適化の方式により、最適なシミュレーションパラメータを求めた。これに代えて、最適解抽出部37は、タブサーチ又は遺伝アルゴリズムなどの最適解を求解する方式を使って、最適なシミュレーションパラメータを求めてもよい。
図11は、第3実施形態における情報処理装置1Bのブロック図である。情報処理装置1Bは、主に、機械学習手段15Bと、サンプリング計算手段16Bと、シミュレーション計算手段17Bとを有する。なお、情報処理装置1Bは、複数の装置から構成されてもよい。
観測データと、観測結果と、前記観測データを基に前記観測結果を予測するためのシミュレーションを行う場合に必要なシミュレーションパラメータとの関係を示すモデルの機械学習を行う機械学習手段と、
前記機械学習の結果に基づき、前記機械学習に用いる前記シミュレーションパラメータのサンプリングを行うサンプリング計算手段と、
サンプリングされた前記シミュレーションパラメータを用いたシミュレーションを実行するシミュレーション計算手段と、を有し、
前記機械学習手段は、前記シミュレーションの結果であるシミュレーション結果の誤差評価に基づき前記機械学習を再実行する、情報処理装置。
前記機械学習手段による前記機械学習が完了した場合、前記モデルにおいて、前記シミュレーションパラメータを変数とみなしてサンプリングを行うことで、最尤度のシミュレーションパラメータを抽出する最適解抽出手段をさらに有する、付記1に記載の情報処理装置。
前記モデルは、制限ボルツマンマシンである、付記1または2に記載の情報処理装置。
前記モデルは、少なくとも3層以上有するニューラルネットワークである、付記1または2に記載の情報処理装置。
前記モデルは、前段に構成された第1ニューラルネットワークと、後段に構成された第2ニューラルネットワークとを含み、
前記機械学習手段は、前記観測データと前記観測結果とに基づき、前記第1ニューラルネットワークの機械学習を行い、前記第1ニューラルネットワークの出力と前記シミュレーションパラメータとに基づき、前記第2ニューラルネットワークの機械学習を行い、
前記サンプリング計算手段は、前記第2ニューラルネットワークの機械学習の結果に基づき、当該機械学習に用いる前記シミュレーションパラメータのサンプリングを行い、
前記機械学習手段は、サンプリングされた前記シミュレーションパラメータを用いた前記シミュレーション結果の誤差評価に基づき、前記第2ニューラルネットワークの機械学習を再実行する、付記4に記載の情報処理装置。
前記第1ニューラルネットワークは、オートエンコーダ型のネットワークである、付記5に記載の情報処理装置。
前記第1ニューラルネットワークは、ディープラーニング型のネットワークである、付記5に記載の情報処理装置。
前記機械学習手段による前記機械学習が完了した場合、前記第2ニューラルネットワークにおいて、前記シミュレーションパラメータを変数とみなしてサンプリングを行うことで、最尤度のシミュレーションパラメータを抽出する最適解抽出手段を有する、付記5~7のいずれか一項に記載の情報処理装置。
前記機械学習手段による前記機械学習が完了した場合、前記第2ニューラルネットワークにおいて、前記シミュレーションパラメータを変数としてタブサーチ又は遺伝アルゴリズムを適用することでシミュレーションパラメータを抽出する最適解抽出手段を有する、付記5~7のいずれか一項に記載の情報処理装置。
前記機械学習手段は、前記誤差評価が示す誤差が閾値以下の場合、前記機械学習が完了したと判定する、付記1~9のいずれか一項に記載の情報処理装置。
前記機械学習は、入力されたシミュレーションパラメータが正例か負例かのラベルに基づき学習を行う2値分類の機械学習であり、
前記機械学習手段は、前記誤差評価に基づき、前記ラベルを生成することで、前記サンプリングされた前記シミュレーションパラメータに基づき、前記機械学習を再実行する、付記1~10のいずれか一項に記載の情報処理装置。
コンピュータにより、
観測データと、観測結果と、前記観測データを基に前記観測結果を予測するためのシミュレーションを行う場合に必要なシミュレーションパラメータとの関係を示すモデルの機械学習を行い、
前記機械学習の結果に基づき、前記機械学習に用いる前記シミュレーションパラメータのサンプリングを行い、
サンプリングされた前記シミュレーションパラメータを用いたシミュレーションを実行し、
前記シミュレーションの結果であるシミュレーション結果の誤差評価に基づき前記機械学習を再実行する、
制御方法。
観測データと、観測結果と、前記観測データを基に前記観測結果を予測するためのシミュレーションを行う場合に必要なシミュレーションパラメータとの関係を示すモデルの機械学習を行う機械学習手段と、
前記機械学習の結果に基づき、前記機械学習に用いる前記シミュレーションパラメータのサンプリングを行うサンプリング計算手段と、
サンプリングされた前記シミュレーションパラメータを用いたシミュレーションを実行するシミュレーション計算手段
としてコンピュータを機能させ、
前記機械学習手段は、前記シミュレーションの結果であるシミュレーション結果の誤差評価に基づき前記機械学習を再実行する、
プログラムが格納された記憶媒体。
観測データと、観測結果と、前記観測データを基に前記観測結果を予測するためのシミュレーションを行う場合に必要なシミュレーションパラメータとの関係を示すモデルの機械学習を行う機械学習手段と、
前記機械学習の結果に基づき、前記機械学習に用いる前記シミュレーションパラメータのサンプリングを行うサンプリング計算手段と、
サンプリングされた前記シミュレーションパラメータを用いたシミュレーションを実行するシミュレーション計算手段と、を有し、
前記機械学習手段は、前記シミュレーションの結果であるシミュレーション結果の誤差評価に基づき前記機械学習を再実行する、情報処理システム。
前記機械学習手段による前記機械学習が完了した場合、前記モデルにおいて、前記シミュレーションパラメータを変数とみなしてサンプリングを行うことで、最尤度のシミュレーションパラメータを抽出する最適解抽出手段をさらに有する、付記14に記載の情報処理システム。
前記モデルは、制限ボルツマンマシンである、付記14または15に記載の情報処理システム。
前記モデルは、少なくとも3層以上有するニューラルネットワークである、付記14または15に記載の情報処理システム。
前記モデルは、前段に構成された第1ニューラルネットワークと、後段に構成された第2ニューラルネットワークとを含み、
前記機械学習手段は、前記観測データと前記観測結果とに基づき、前記第1ニューラルネットワークの機械学習を行い、前記第1ニューラルネットワークの出力と前記シミュレーションパラメータとに基づき、前記第2ニューラルネットワークの機械学習を行い、
前記サンプリング計算手段は、前記第2ニューラルネットワークの機械学習の結果に基づき、当該機械学習に用いる前記シミュレーションパラメータのサンプリングを行い、
前記機械学習手段は、サンプリングされた前記シミュレーションパラメータを用いた前記シミュレーション結果の誤差評価に基づき、前記第2ニューラルネットワークの機械学習を再実行する、付記17に記載の情報処理システム。
前記第1ニューラルネットワークは、オートエンコーダ型のネットワークである、付記18に記載の情報処理システム。
前記第1ニューラルネットワークは、ディープラーニング型のネットワークである、付記18に記載の情報処理システム。
前記機械学習手段による前記機械学習が完了した場合、前記第2ニューラルネットワークにおいて、前記シミュレーションパラメータを変数とみなしてサンプリングを行うことで、最尤度のシミュレーションパラメータを抽出する最適解抽出手段を有する、付記18~20のいずれか一項に記載の情報処理システム。
前記機械学習手段による前記機械学習が完了した場合、前記第2ニューラルネットワークにおいて、前記シミュレーションパラメータを変数としてタブサーチ又は遺伝アルゴリズムを適用することでシミュレーションパラメータを抽出する最適解抽出手段を有する、付記18~20のいずれか一項に記載の情報処理システム。
前記機械学習手段は、前記誤差評価が示す誤差が閾値以下の場合、前記機械学習が完了したと判定する、付記14~22のいずれか一項に記載の情報処理システム。
前記機械学習は、入力されたシミュレーションパラメータが正例か負例かのラベルに基づき学習を行う2値分類の機械学習であり、
前記機械学習手段は、前記誤差評価に基づき、前記ラベルを生成することで、前記サンプリングされた前記シミュレーションパラメータに基づき、前記機械学習を再実行する、付記14~23のいずれか一項に記載の情報処理システム。
2 入力装置
3 表示装置
4 記憶装置
15B 機械学習手段
16B サンプリング計算手段
17B シミュレーション計算手段
100 機械学習システム
Claims (13)
- 観測データと、観測結果と、前記観測データを基に前記観測結果を予測するためのシミュレーションを行う場合に必要なシミュレーションパラメータとの関係を示すモデルの機械学習を行う機械学習手段と、
前記機械学習の結果に基づき、前記機械学習に用いる前記シミュレーションパラメータのサンプリングを行うサンプリング計算手段と、
サンプリングされた前記シミュレーションパラメータを用いたシミュレーションを実行するシミュレーション計算手段と、を有し、
前記機械学習手段は、前記シミュレーションの結果であるシミュレーション結果の誤差評価に基づき前記機械学習を再実行する、情報処理装置。 - 前記機械学習手段による前記機械学習が完了した場合、前記モデルにおいて、前記シミュレーションパラメータを変数とみなしてサンプリングを行うことで、最尤度のシミュレーションパラメータを抽出する最適解抽出手段をさらに有する、請求項1に記載の情報処理装置。
- 前記モデルは、制限ボルツマンマシンである、請求項1または2に記載の情報処理装置。
- 前記モデルは、少なくとも3層以上有するニューラルネットワークである、請求項1または2に記載の情報処理装置。
- 前記モデルは、前段に構成された第1ニューラルネットワークと、後段に構成された第2ニューラルネットワークとを含み、
前記機械学習手段は、前記観測データと前記観測結果とに基づき、前記第1ニューラルネットワークの機械学習を行い、前記第1ニューラルネットワークの出力と前記シミュレーションパラメータとに基づき、前記第2ニューラルネットワークの機械学習を行い、
前記サンプリング計算手段は、前記第2ニューラルネットワークの機械学習の結果に基づき、当該機械学習に用いる前記シミュレーションパラメータのサンプリングを行い、
前記機械学習手段は、サンプリングされた前記シミュレーションパラメータを用いた前記シミュレーション結果の誤差評価に基づき、前記第2ニューラルネットワークの機械学習を再実行する、請求項4に記載の情報処理装置。 - 前記第1ニューラルネットワークは、オートエンコーダ型のネットワークである、請求項5に記載の情報処理装置。
- 前記第1ニューラルネットワークは、ディープラーニング型のネットワークである、請求項5に記載の情報処理装置。
- 前記機械学習手段による前記機械学習が完了した場合、前記第2ニューラルネットワークにおいて、前記シミュレーションパラメータを変数とみなしてサンプリングを行うことで、最尤度のシミュレーションパラメータを抽出する最適解抽出手段を有する、請求項5~7のいずれか一項に記載の情報処理装置。
- 前記機械学習手段による前記機械学習が完了した場合、前記第2ニューラルネットワークにおいて、前記シミュレーションパラメータを変数としてタブサーチ又は遺伝アルゴリズムを適用することでシミュレーションパラメータを抽出する最適解抽出手段を有する、請求項5~7のいずれか一項に記載の情報処理装置。
- 前記機械学習手段は、前記誤差評価が示す誤差が閾値以下の場合、前記機械学習が完了したと判定する、請求項1~9のいずれか一項に記載の情報処理装置。
- 前記機械学習は、入力されたシミュレーションパラメータが正例か負例かのラベルに基づき学習を行う2値分類の機械学習であり、
前記機械学習手段は、前記誤差評価に基づき、前記ラベルを生成することで、前記サンプリングされた前記シミュレーションパラメータに基づき、前記機械学習を再実行する、請求項1~10のいずれか一項に記載の情報処理装置。 - コンピュータにより、
観測データと、観測結果と、前記観測データを基に前記観測結果を予測するためのシミュレーションを行う場合に必要なシミュレーションパラメータとの関係を示すモデルの機械学習を行い、
前記機械学習の結果に基づき、前記機械学習に用いる前記シミュレーションパラメータのサンプリングを行い、
サンプリングされた前記シミュレーションパラメータを用いたシミュレーションを実行し、
前記シミュレーションの結果であるシミュレーション結果の誤差評価に基づき前記機械学習を再実行する、
制御方法。 - 観測データと、観測結果と、前記観測データを基に前記観測結果を予測するためのシミュレーションを行う場合に必要なシミュレーションパラメータとの関係を示すモデルの機械学習を行う機械学習手段と、
前記機械学習の結果に基づき、前記機械学習に用いる前記シミュレーションパラメータのサンプリングを行うサンプリング計算手段と、
サンプリングされた前記シミュレーションパラメータを用いたシミュレーションを実行するシミュレーション計算手段
としてコンピュータを機能させ、
前記機械学習手段は、前記シミュレーションの結果であるシミュレーション結果の誤差評価に基づき前記機械学習を再実行する、
プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/011180 WO2021181676A1 (ja) | 2020-03-13 | 2020-03-13 | 情報処理装置、制御方法及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021181676A1 JPWO2021181676A1 (ja) | 2021-09-16 |
JPWO2021181676A5 JPWO2021181676A5 (ja) | 2022-11-04 |
JP7359287B2 true JP7359287B2 (ja) | 2023-10-11 |
Family
ID=77670945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022505703A Active JP7359287B2 (ja) | 2020-03-13 | 2020-03-13 | 情報処理装置、制御方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230125808A1 (ja) |
JP (1) | JP7359287B2 (ja) |
WO (1) | WO2021181676A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019515397A (ja) | 2016-05-09 | 2019-06-06 | 1キュービー インフォメーション テクノロジーズ インコーポレイテッド1Qb Information Technologies Inc. | 確率制御問題に対する方策を改善する方法及びシステム |
JP2019159782A (ja) | 2018-03-13 | 2019-09-19 | 株式会社デンソー | 連続最適化問題の大域的探索装置及びプログラム |
-
2020
- 2020-03-13 US US17/909,478 patent/US20230125808A1/en active Pending
- 2020-03-13 WO PCT/JP2020/011180 patent/WO2021181676A1/ja active Application Filing
- 2020-03-13 JP JP2022505703A patent/JP7359287B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019515397A (ja) | 2016-05-09 | 2019-06-06 | 1キュービー インフォメーション テクノロジーズ インコーポレイテッド1Qb Information Technologies Inc. | 確率制御問題に対する方策を改善する方法及びシステム |
JP2019159782A (ja) | 2018-03-13 | 2019-09-19 | 株式会社デンソー | 連続最適化問題の大域的探索装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021181676A1 (ja) | 2021-09-16 |
US20230125808A1 (en) | 2023-04-27 |
WO2021181676A1 (ja) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI698807B (zh) | 以類別為基礎修剪之人工類神經網路 | |
CN105810193B (zh) | 训练语言模型的方法和设备及识别语言的方法和设备 | |
AU2017437537B2 (en) | Training tree-based machine-learning modeling algorithms for predicting outputs and generating explanatory data | |
JP7233807B2 (ja) | 人工ニューラル・ネットワークにおける不確実性をシミュレートするためのコンピュータ実施方法、コンピュータ・システム、およびコンピュータ・プログラム | |
CN108346436B (zh) | 语音情感检测方法、装置、计算机设备及存储介质 | |
Kirk et al. | Model selection in systems and synthetic biology | |
Sigtia et al. | A hybrid recurrent neural network for music transcription | |
JP7055630B2 (ja) | 音声認識のための学習方法、学習装置、コンピュータプログラム及び記憶媒体 | |
KR20200128938A (ko) | 모델 학습 방법 및 장치 | |
WO2018161763A1 (zh) | 语音数据集训练方法、计算机设备和计算机可读存储介质 | |
CN110506282A (zh) | Rpu阵列的更新管理 | |
JP6172317B2 (ja) | 混合モデル選択の方法及び装置 | |
JP2022521957A (ja) | データ分析方法、デバイス及びコンピュータプログラム | |
JP6974651B2 (ja) | 特徴推定方法、特徴推定装置、プログラム及び記録媒体 | |
WO2020105468A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体 | |
Leke et al. | Proposition of a theoretical model for missing data imputation using deep learning and evolutionary algorithms | |
JP7359287B2 (ja) | 情報処理装置、制御方法及びプログラム | |
JP6158105B2 (ja) | 言語モデル作成装置、音声認識装置、その方法及びプログラム | |
KR102336962B1 (ko) | 반-약 지도 학습을 통해 자동으로 라벨링을 수행하기 위한 장치 및 이를 위한 방법 | |
US8327312B2 (en) | Assessing printability of a very-large-scale integration design | |
JP2023518789A (ja) | 人工知能モジュールを更新するためにデータセットを選択するための方法 | |
JP2011210063A (ja) | 逐次クラスタリング装置、方法およびプログラム | |
JP2021144619A (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
JP2016156870A (ja) | 言語識別モデル学習装置、言語識別装置、言語識別モデル学習方法、言語識別方法、プログラム、および記録媒体 | |
US20160267393A1 (en) | Method of construction and selection of probalistic graphical models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7359287 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |