JP2020191017A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents
情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP2020191017A JP2020191017A JP2019097139A JP2019097139A JP2020191017A JP 2020191017 A JP2020191017 A JP 2020191017A JP 2019097139 A JP2019097139 A JP 2019097139A JP 2019097139 A JP2019097139 A JP 2019097139A JP 2020191017 A JP2020191017 A JP 2020191017A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- arithmetic units
- model
- hyperparameter
- error gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
Description
[第1の実施の形態]
第1の実施の形態を説明する。
第1の実施の形態の情報処理装置10は、ニューラルネットワークを使用する機械学習を、複数の演算部を用いて並列化する。ニューラルネットワークは、多くの中間層を含む多層ニューラルネットワークでもよく、機械学習は、多層ニューラルネットワークを使用する深層学習でもよい。ニューラルネットワークは、画像から物体の種類を判別する画像認識モデルでもよく、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)でもよい。情報処理装置10を、機械学習装置やコンピュータなどと言うこともできる。情報処理装置10は、クライアント装置でもよいしサーバ装置でもよい。
演算部11は、モデル13を保持する。モデル13は、例えば、記憶部12に記憶されている。モデル13は、ニューラルネットワークを示し、ニューラルネットワークの重みを含む。ニューラルネットワークは、それぞれ複数のノードを並べた入力層と出力層と1以上の中間層を含む。隣接する層に属する2つのノードが、重み付きのエッジで接続される。この時点では、モデル13の重みは、重み14(第1の重み)に設定されている。重み14は、複数の演算部の間で共通の重みである。なお、演算部11−1は、モデル13−1を保持する。モデル13−1は、例えば、記憶部12−1に記憶されている。モデル13−1の重みは、モデル13と同様に重み14に設定されている。よって、この時点では、モデル13とモデル13−1は同一のニューラルネットワークを示している。
次に、第2の実施の形態を説明する。
図2は、第2の実施の形態の情報処理装置のハードウェア例を示す図である。
図3は、ニューラルネットワークの例を示す図である。
ニューラルネットワーク31は、入力層および出力層を有し、入力層と出力層の間に複数の中間層を有する。入力層、中間層および出力層はそれぞれ、複数のノードを含む。入力層の各ノードは、1つ後の中間層の複数のノードとエッジで接続される。出力層の各ノードは、1つ前の中間層の複数のノードとエッジで接続される。中間層の各ノードは、1つ前の層の複数のノードとエッジで接続されると共に、1つ後の層の複数のノードとエッジで接続される。ノードはニューロンに相当し、エッジはシナプスに相当する。
ニューラルネットワーク31の重みは、一般的には、forward、backwardおよびupdateを含む複数のフェーズを繰り返すことで学習される。
第2の実施の形態では説明を簡単にするため、システムボード101が有するGPU116,116−1,116−2,116−3の4個のGPUを用いて並列処理を行うことを想定する。ただし、GPUを2000個使用するなど、並列度を上げることが可能である。GPU116,116−1,116−2,116−3は、GPU間通信にMPIライブラリを使用する。GPU116はランク0のプロセスを実行する。GPU116−1はランク1のプロセスを実行する。GPU116−2はランク2のプロセスを実行する。GPU116−3はランク3のプロセスを実行する。
communicateフェーズでは、GPU116,116−1,116−2,116−3は、コレクティブ通信によりGPU116,116−1,116−2,116−3を合算する。通信結果として、GPU116,116−1,116−2,116−3は同一の合算値を得る。communicateフェーズでは、例えば、コレクティブ通信の1つであるAllReduce通信が使用される。ただし、同じくコレクティブ通信の1つであるAllGather通信またはブロードキャスト通信を使用することもできる。
第2の実施の形態の機械学習では、forward1、backward、communicate、try_update、forward2、announceおよびrevert_updateの7つのフェーズが繰り返される。GPU116,116−1,116−2,116−3は、並列にこれら7つのフェーズを実行する。
communicateフェーズでは、GPU116,116−1,116−2,116−3は、コレクティブ通信によりGPU116,116−1,116−2,116−3を合算する。通信結果として、GPU116,116−1,116−2,116−3は同一の合算値を得る。communicateフェーズでは、例えば、コレクティブ通信の1つであるAllReduce通信が使用される。ただし、同じくコレクティブ通信の1つであるAllGather通信またはブロードキャスト通信を使用することもできる。
情報処理装置100は、基本値テーブル151と調整係数テーブル152を有する。
基本値テーブル151には、学習率に関するハイパーパラメータの基本値が登録される。後述する計算例では、学習率に関連して「lr」と「wd」と「momentum」の3つのハイパーパラメータが使用される。そこで、基本値テーブル151には、この3つのハイパーパラメータに対応する3つの基本値が登録される。基本値テーブル151の基本値は、機械学習の開始時に与えられ、機械学習の途中で変化しない。
また、調整係数テーブル152には、ランクに対応付けて選択回数が記録される。ただし、選択回数は調整係数テーブル152と切り離して記録することもできる。選択回数は、前述の7つのフェーズを繰り返す間にベストランクとして選択された回数である。ベストランクの選択回数は、学習率に関するハイパーパラメータの好ましい値を絞り込む上で有用な情報となるため、機械学習の結果に含めて記録される。
図8は、try_updateの計算例を示す図である。
ここでは、確率的勾配降下法(SGD:Stochastic Gradient Descent)を想定する。
データフロー61は、try_updateフェーズにおけるデータの関係を示す。重みweightが重みtemp_wにコピーされると共に、ランクmy_rankに対応付けられた調整係数c0,c1,c2が読み出される。重みtemp_wとハイパーパラメータ基本値lr,wdと調整係数c0,c1の積が算出される。また、誤差勾配gradとハイパーパラメータ基本値lrと調整係数c0の積が算出される。また、内部状態stateとハイパーパラメータ基本値momentumと調整係数c2の積が算出される。これら3つの積が合計され、重みtemp_wから当該合計から差し引かれる。減算結果が重みweightとして上書きされる。
上記のtry_updateによる重みの更新の結果、GPU116はニューラルネットワーク33を保持している。GPU116−1はニューラルネットワーク33−1を保持している。GPU116−2はニューラルネットワーク33−2を保持している。GPU116−3はニューラルネットワーク33−3を保持している。
revert_updateフェーズにおけるニューラルネットワークの重みの更新は、数式54のように記述することができる。重みW(t)の計算方法は、基本的にtry_updateフェーズと同様である。ただし、revert_updateフェーズでは、時刻tにおける内部状態V(t)が更新される。内部状態V(t)は減算値として使用され、重みW(t)は重み(t−1)と内部状態V(t)の差として定義される。
データフロー62は、revert_updateフェーズにおけるデータの関係を示す。ランクbest_rankに対応付けられた調整係数b0,b1,b2が読み出される。try_updateフェーズで退避された重みtemp_wとハイパーパラメータ基本値lr,wdと調整係数b0,b1の積が算出される。また、誤差勾配gradとハイパーパラメータ基本値lrと調整係数b0の積が算出される。また、内部状態stateとハイパーパラメータ基本値momentumと調整係数b2の積が算出される。これら3つの積が合計され、当該合計が内部状態stateとして上書きされる。また、重みtemp_wから当該合計から差し引かれ、重みweightとして上書きされる。
図13は、第2の実施の形態の情報処理装置の機能例を示すブロック図である。
情報処理装置100は、forward1処理部131、backward処理部132、communicate処理部133、try_update処理部134、forward2処理部135、announce処理部136およびrevert_update処理部137を有する。これらの処理部は、例えば、GPU116,116−1,116−2,116−3が実行するプログラムとして実装される。また、情報処理装置100は、入力データ記憶部141、ハイパーパラメータ記憶部142およびモデル記憶部143を有する。これらの記憶部は、例えば、GPUメモリ117,117−1,117−2,117−3の記憶領域として実装される。
ここでは、GPU116に着目して機械学習の手順を説明する。
(S10)GPU116は、CPU111からデータセットを受信する。
(S12)GPU116は、GPU116で実行されているプロセスのランク(自ランク)を特定し、データセットの中から自ランクに応じた入力データ1を抽出する。
(S17)GPU116は、基本値テーブル151からハイパーパラメータ基本値を読み出し、調整係数テーブル152から自ランクに応じた調整係数を読み出す。
(S19)GPU116は、データセットから共通の入力データ2を抽出する。
(S20)GPU116は、入力データ2に含まれる特徴量をニューラルネットワークに入力し、ニューラルネットワークから出力された推論結果と入力データ2に含まれる教師ラベルとを比較して、入力データ2に対する現時点の推論精度を算出する。なお、ステップS19,S20はforward2フェーズに相当する。
(S24)GPU116は、ステップS23で読み出したハイパーパラメータ基本値および調整係数を用いて、ステップS15で合算された誤差勾配をニューラルネットワークの重みに反映させ、ニューラルネットワークの重みを本更新する。このとき、ステップS16で退避しておいた仮更新前の重みを基準として本更新が行われる。なお、ステップS23,S24はrevert_updateフェーズに相当する。
このデータ入出力例は、GPUメモリ117の使用方法の一例である。
forward1フェーズにおいて、GPU116は、自ランクの入力データ161(入力データ1)と共通の重み171(重み1)をGPUメモリ117から読み出し、自ランクの推論精度174(推論精度1)をGPUメモリ117に書き込む。backwardフェーズにおいて、GPU116は、推論精度174をGPUメモリ117から読み出し、自ランクの誤差勾配176(誤差勾配1)をGPUメモリ117に書き込む。
図17は、機械学習の他のフェーズ例を示す図である。
前述の図6の説明では、GPU116,116−1,116−2,116−3が7つのフェーズを逐次的に実行することとした。特に、GPU116,116−1,116−2,116−3は、backwardフェーズを実行し、backwardフェーズの完了を待ってcommunicateフェーズを開始することとした。
11,11−1 演算部
12,12−1 記憶部
13,13−1 モデル
14,15,15−1,16 重み
17,17−1,18 データ
19,19−1 ハイパーパラメータ値
Claims (7)
- 複数の演算部と、前記複数の演算部に対応する複数の記憶部と、
を有し、前記複数の演算部それぞれは、
ニューラルネットワークを示すモデルであって前記複数の演算部のうちの他の演算部と共通の第1の重みを含むモデルに、前記他の演算部と異なる第1のデータを入力し、前記モデルの出力に基づいて前記第1の重みに対する誤差勾配を算出し、前記誤差勾配と前記他の演算部で算出された他の誤差勾配とを統合し、
前記複数の記憶部のうちの自身の演算部に対応する記憶部に前記第1の重みを保持して、前記他の演算部と異なるハイパーパラメータ値と前記統合した誤差勾配と前記第1の重みとに基づいて、前記モデルの重みを第2の重みに更新し、
前記モデルに前記他の演算部と共通の第2のデータを入力して前記モデルの出力の精度を評価し、前記精度の評価結果と前記他の演算部の評価結果とを比較して、前記他の演算部と共通のハイパーパラメータ値を選択し、
前記選択したハイパーパラメータ値と前記統合した誤差勾配と前記対応する記憶部に保持した前記第1の重みとに基づいて、前記モデルの重みを第3の重みに更新する、
情報処理装置。 - 前記複数の演算部に対応する複数のハイパーパラメータ値のうち、出力の精度が最高である演算部に対応するハイパーパラメータ値が、前記他の演算部と共通のハイパーパラメータ値として選択される、
請求項1記載の情報処理装置。 - 前記他の演算部と異なるハイパーパラメータ値は、前記他の演算部と共通のハイパーパラメータ基本値に前記他の演算部と異なる調整係数を適用することで生成される、
請求項1記載の情報処理装置。 - 前記複数の演算部それぞれが実行するプロセスに、識別情報が割り当てられ、
前記自身の演算部が実行するプロセスに対応する自身の識別情報から、前記他の演算部と異なるハイパーパラメータ値が決定され、
前記精度の評価結果と前記他の演算部の評価結果との間の比較に基づいて、前記他の演算部と共通である1つの識別情報が選択され、前記選択された1つの識別情報から、前記他の演算部と共通のハイパーパラメータ値が決定される、
請求項1記載の情報処理装置。 - 前記モデルは複数の第1の重みを含み、
前記複数の第1の重みのうち、誤差勾配が未算出の第1の重みに対する誤差勾配の算出と、前記複数の演算部の間での算出済みの誤差勾配の転送とが、並列に実行される、
請求項1記載の情報処理装置。 - 複数の演算部を有するコンピュータが、
前記複数の演算部それぞれにおいて、ニューラルネットワークを示すモデルであって前記複数の演算部の間で共通の第1の重みを含むモデルに、前記複数の演算部の間で異なる第1のデータを入力し、前記モデルの出力に基づいて前記第1の重みに対する誤差勾配を算出し、前記複数の演算部で算出された前記誤差勾配を統合し、
前記複数の演算部それぞれにおいて、自身の演算部に対応する記憶部に前記第1の重みを保持して、前記複数の演算部の間で異なるハイパーパラメータ値と前記統合した誤差勾配と前記第1の重みとに基づいて、前記モデルの重みを第2の重みに更新し、
前記複数の演算部それぞれにおいて、前記モデルに前記複数の演算部の間で共通の第2のデータを入力して前記モデルの出力の精度を評価し、前記複数の演算部の前記評価結果を比較して、前記複数の演算部の間で共通のハイパーパラメータ値を選択し、
前記複数の演算部それぞれにおいて、前記選択したハイパーパラメータ値と前記統合した誤差勾配と前記対応する記憶部に保持した前記第1の重みとに基づいて、前記モデルの重みを第3の重みに更新する、
情報処理方法。 - 複数の演算部を有するコンピュータに、
前記複数の演算部それぞれにおいて、ニューラルネットワークを示すモデルであって前記複数の演算部の間で共通の第1の重みを含むモデルに、前記複数の演算部の間で異なる第1のデータを入力し、前記モデルの出力に基づいて前記第1の重みに対する誤差勾配を算出し、前記複数の演算部で算出された前記誤差勾配を統合し、
前記複数の演算部それぞれにおいて、自身の演算部に対応する記憶部に前記第1の重みを保持して、前記複数の演算部の間で異なるハイパーパラメータ値と前記統合した誤差勾配と前記第1の重みとに基づいて、前記モデルの重みを第2の重みに更新し、
前記複数の演算部それぞれにおいて、前記モデルに前記複数の演算部の間で共通の第2のデータを入力して前記モデルの出力の精度を評価し、前記複数の演算部の前記評価結果を比較して、前記複数の演算部の間で共通のハイパーパラメータ値を選択し、
前記複数の演算部それぞれにおいて、前記選択したハイパーパラメータ値と前記統合した誤差勾配と前記対応する記憶部に保持した前記第1の重みとに基づいて、前記モデルの重みを第3の重みに更新する、
処理を実行させる情報処理プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019097139A JP7208528B2 (ja) | 2019-05-23 | 2019-05-23 | 情報処理装置、情報処理方法および情報処理プログラム |
EP20172136.2A EP3742354A1 (en) | 2019-05-23 | 2020-04-29 | Information processing apparatus, information processing method, and program |
US15/931,629 US11475292B2 (en) | 2019-05-23 | 2020-05-14 | Information processing apparatus and information processing method |
CN202010424381.1A CN111985631B (zh) | 2019-05-23 | 2020-05-19 | 信息处理设备、信息处理方法及计算机可读记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019097139A JP7208528B2 (ja) | 2019-05-23 | 2019-05-23 | 情報処理装置、情報処理方法および情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020191017A true JP2020191017A (ja) | 2020-11-26 |
JP7208528B2 JP7208528B2 (ja) | 2023-01-19 |
Family
ID=70480143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019097139A Active JP7208528B2 (ja) | 2019-05-23 | 2019-05-23 | 情報処理装置、情報処理方法および情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11475292B2 (ja) |
EP (1) | EP3742354A1 (ja) |
JP (1) | JP7208528B2 (ja) |
CN (1) | CN111985631B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7481566B1 (ja) | 2023-12-11 | 2024-05-10 | Kddi株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017514251A (ja) * | 2014-04-11 | 2017-06-01 | グーグル インコーポレイテッド | 畳み込みニューラルネットワークのトレーニングの並列化 |
JP2017111548A (ja) * | 2015-12-15 | 2017-06-22 | 株式会社東芝 | サーバ、システム及び探索方法 |
CN108446302A (zh) * | 2018-01-29 | 2018-08-24 | 东华大学 | 一种结合TensorFlow与Spark的个性化推荐系统 |
US20190122141A1 (en) * | 2017-10-23 | 2019-04-25 | Microsoft Technology Licensing, Llc | Fast hyperparameter search for machine-learning program |
JP2019080232A (ja) * | 2017-10-26 | 2019-05-23 | 株式会社Preferred Networks | 勾配圧縮装置、勾配圧縮方法及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009099008A (ja) | 2007-10-18 | 2009-05-07 | Seiko Epson Corp | 並列演算装置および並列演算方法 |
WO2016145516A1 (en) * | 2015-03-13 | 2016-09-22 | Deep Genomics Incorporated | System and method for training neural networks |
JP6776696B2 (ja) | 2016-07-26 | 2020-10-28 | 富士通株式会社 | 並列情報処理装置、情報処理方法、およびプログラム |
CN109952581A (zh) * | 2016-09-28 | 2019-06-28 | D5A1有限责任公司 | 用于机器学习系统的学习教练 |
CN108304922B (zh) * | 2017-01-13 | 2020-12-15 | 华为技术有限公司 | 用于神经网络计算的计算设备和计算方法 |
US11537895B2 (en) * | 2017-10-26 | 2022-12-27 | Magic Leap, Inc. | Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks |
US10692570B2 (en) * | 2018-07-11 | 2020-06-23 | Sandisk Technologies Llc | Neural network matrix multiplication in memory cells |
US20200065863A1 (en) * | 2018-08-27 | 2020-02-27 | Microsoft Technology Licensing, Llc | Unified propensity modeling across product versions |
CN109711548A (zh) * | 2018-12-26 | 2019-05-03 | 歌尔股份有限公司 | 超参数的选取方法、使用方法、装置及电子设备 |
-
2019
- 2019-05-23 JP JP2019097139A patent/JP7208528B2/ja active Active
-
2020
- 2020-04-29 EP EP20172136.2A patent/EP3742354A1/en not_active Withdrawn
- 2020-05-14 US US15/931,629 patent/US11475292B2/en active Active
- 2020-05-19 CN CN202010424381.1A patent/CN111985631B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017514251A (ja) * | 2014-04-11 | 2017-06-01 | グーグル インコーポレイテッド | 畳み込みニューラルネットワークのトレーニングの並列化 |
JP2017111548A (ja) * | 2015-12-15 | 2017-06-22 | 株式会社東芝 | サーバ、システム及び探索方法 |
US20190122141A1 (en) * | 2017-10-23 | 2019-04-25 | Microsoft Technology Licensing, Llc | Fast hyperparameter search for machine-learning program |
JP2019080232A (ja) * | 2017-10-26 | 2019-05-23 | 株式会社Preferred Networks | 勾配圧縮装置、勾配圧縮方法及びプログラム |
CN108446302A (zh) * | 2018-01-29 | 2018-08-24 | 东华大学 | 一种结合TensorFlow与Spark的个性化推荐系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7481566B1 (ja) | 2023-12-11 | 2024-05-10 | Kddi株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
JP7208528B2 (ja) | 2023-01-19 |
US11475292B2 (en) | 2022-10-18 |
CN111985631A (zh) | 2020-11-24 |
US20200372336A1 (en) | 2020-11-26 |
EP3742354A1 (en) | 2020-11-25 |
CN111985631B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hoffman et al. | Acme: A research framework for distributed reinforcement learning | |
US10846643B2 (en) | Method and system for predicting task completion of a time period based on task completion rates and data trend of prior time periods in view of attributes of tasks using machine learning models | |
JP5943358B2 (ja) | 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム | |
US20220283820A1 (en) | Data parallelism in distributed training of artificial intelligence models | |
US11354579B2 (en) | Dynamic multi-layer execution for artificial intelligence modeling | |
US20220276871A1 (en) | Executing large artificial intelligence models on memory-constrained devices | |
CN111448550A (zh) | 网络可访问的机器学习模型训练和托管系统 | |
US20200042570A1 (en) | Optimization apparatus and method for controlling thereof | |
US20230196202A1 (en) | System and method for automatic building of learning machines using learning machines | |
US20210158212A1 (en) | Learning method and learning apparatus | |
Bui et al. | Gaussian process for predicting CPU utilization and its application to energy efficiency | |
CN114662646A (zh) | 实现神经网络的方法和装置 | |
JP7208528B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
US11989656B2 (en) | Search space exploration for deep learning | |
TWI758223B (zh) | 具有動態最小批次尺寸之運算方法,以及用於執行該方法之運算系統及電腦可讀儲存媒體 | |
JP2021197108A (ja) | 学習プログラム、学習方法および情報処理装置 | |
JP2021516828A (ja) | 変換した凸最適化問題を使用するカーネル学習装置 | |
JP7470019B2 (ja) | 情報処理システム | |
US20240095309A1 (en) | System and method for holistically optimizing dnn models for hardware accelerators | |
Hunter et al. | Towards Optimal VPU Compiler Cost Modeling by using Neural Networks to Infer Hardware Performances | |
JP2022158010A (ja) | 情報処理システム、情報処理方法、及び情報処理プログラム | |
JP2023122981A (ja) | プログラム、データ処理装置及びデータ処理方法 | |
Yan | Exploiting Image Resolution Holistically in Computer Vision Models | |
JP2024086148A (ja) | 構造解析プログラム、構造解析方法および情報処理装置 | |
CN117786275A (zh) | 数据处理装置和数据处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220208 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7208528 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |