JP2023090055A - 機械学習における分散学習 - Google Patents
機械学習における分散学習 Download PDFInfo
- Publication number
- JP2023090055A JP2023090055A JP2021204794A JP2021204794A JP2023090055A JP 2023090055 A JP2023090055 A JP 2023090055A JP 2021204794 A JP2021204794 A JP 2021204794A JP 2021204794 A JP2021204794 A JP 2021204794A JP 2023090055 A JP2023090055 A JP 2023090055A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- information processing
- model
- combination
- hyperparameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 18
- 230000010365 information processing Effects 0.000 claims abstract description 87
- 230000007786 learning performance Effects 0.000 claims abstract description 72
- 238000003672 processing method Methods 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 34
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
図1は、実施形態に係るシステム構成の一例を示す図である。図1に示す例では、サーバ10と、各情報処理装置20A、20B、20C、20Dとが、ネットワークを介してデータ送受信可能なように接続される。情報処理装置を個別に区別しない場合は情報処理装置20とも表記する。
図2は、実施形態に係る情報処理装置10の物理的構成の一例を示す図である。情報処理装置10は、演算部に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。
図3は、実施形態に係る情報処理装置(サーバ装置)10の処理ブロックの一例を示す図である。情報処理装置10は、分散制御部11、取得部12、学習部13、生成部14、予測部15、特定部16、表示制御部17、及び記憶部18を備える。情報処理装置10は、汎用のコンピュータで構成されてもよい。
図5は、実施形態に係る関係情報の一例を示す図である。図5に示す例では、関係情報は、分散学習により得られた情報を集約した実測関係情報であり、各第1変数(例、P11)及び各第2変数(例、P21)に対応する分散インスタンス数(例、N1)とハイパーパラメータ(H1)とを含む。第1変数P1nは、例えば学習性能であり、第2変数P2nは学習時間であり、変数としてはいずれかの変数だけでもよい。ハイパーパラメータHは、機械学習に用いられるパラメータの集合でもよく、例えば、weight decay、中間層のユニット数などであり、学習モデルに特有なパラメータを含んでもよい。
図6は、実施形態に係る関係情報の表示例を示す図である。図6に示す例では、予測関係情報に含まれる第1変数と第2変数とをスライドバーを用いて変更可能にする。ユーザが第1変数又は第2変数に対してスライドバーを用いて移動させることで、例えば、移動後の第1変数(P1n)又は第2変数(P2m)に対応する学習性能、ハイパーパラメータの組み合わせ(N(P1n,P2m),H(P1n,P2m))が、対応する点に関連付けて表示される。
図7は、実施形態に係るサーバ10及び各情報処理装置20の処理例を示すシーケンス図である。図7に示す例では、情報処理装置を「処理装置」と表記し、分散学習を実行する装置を表す。
Claims (9)
- 所定の学習モデルを記憶する記憶装置とプロセッサとを有する情報処理装置により実行される情報処理方法であって、
前記プロセッサは、
1又は複数のデータセットに対して、並列して学習されるインスタンス数及び/又はハイパーパラメータが任意に変更されたそれぞれの組み合わせで、前記所定の学習モデルを用いて他の各情報処理装置に機械学習を行わせること、
前記各情報処理装置から、前記それぞれの組み合わせに対応する学習性能を取得すること、
前記それぞれの組み合わせと、前記それぞれの組み合わせに対応する学習性能とを含む学習データを用いて教師あり学習を行うこと、
前記教師あり学習により、インスタンス数及び/又はハイパーパラメータの組み合わせごとに、学習性能を予測する予測モデルを生成すること、
を実行する、情報処理方法。 - 前記プロセッサは、
所定のデータセットを前記予測モデルに入力し、前記所定の学習モデルの機械学習を実行した場合の学習性能を、前記組み合わせごとに予測することを実行する、請求項1に記載の情報処理方法。 - 前記取得することは、
前記学習性能とともに学習時間を取得すること、
前記教師あり学習を行うことは、
前記それぞれの組み合わせと、前記それぞれの組み合わせに対応する学習性能及び学習時間とを含む学習データを用いて教師あり学習を行うことを含み、
前記予測モデルを生成することは、
前記教師あり学習により、インスタンス数及び/又はハイパーパラメータの組み合わせごとに、学習性能及び学習時間を予測する予測モデルを生成することを含む、請求項1に記載の情報処理方法。 - 前記プロセッサは、
所定のデータセットを前記予測モデルに入力し、前記所定の学習モデルの機械学習を実行した場合の学習性能及び学習時間を、前記それぞれの組み合わせについて予測することを含む、請求項3に記載の情報処理方法。 - 前記プロセッサは、
前記学習性能を第1変数、前記学習時間を第2変数とし、前記第1変数及び前記第2変数と、前記インスタンス数及び/又は前記ハイパーパラメータとを対応付ける関係情報を生成すること、
を実行する請求項3又は4に記載の情報処理方法。 - 前記プロセッサは、
前記第1変数の第1値及び前記第2変数の第2値を取得すること、
前記関係情報に基づいて、前記第1値及び前記第2値に対応するインスタンス数及び/又はハイパーパラメータを特定すること、
を実行する請求項5に記載の情報処理方法。 - 前記プロセッサは、
特定された前記インスタンス数及び/又は前記ハイパーパラメータを表示装置に表示制御することを実行する請求項6に記載の情報処理方法。 - 記憶装置とプロセッサとを有する情報処理装置であって、
前記記憶装置は、
所定の学習モデルを記憶し、
前記プロセッサは、
1又は複数のデータセットに対して、並列して学習されるインスタンス数及び/又はハイパーパラメータが任意に変更されたそれぞれの組み合わせで、前記所定の学習モデルを用いて他の各情報処理装置に機械学習を行わせること、
前記各情報処理装置から、前記それぞれの組み合わせに対応する学習性能を取得すること、
前記それぞれの組み合わせと、前記それぞれの組み合わせに対応する学習性能とを含む学習データを用いて教師あり学習を行うこと、
前記教師あり学習により、インスタンス数及び/又はハイパーパラメータの組み合わせごとに、学習性能を予測する予測モデルを生成すること、
を実行する、情報処理装置。 - 所定の学習モデルを記憶する記憶装置とプロセッサとを有する情報処理装置の前記プロセッサに、
1又は複数のデータセットに対して、並列して学習されるインスタンス数及び/又はハイパーパラメータが任意に変更されたそれぞれの組み合わせで、前記所定の学習モデルを用いて他の各情報処理装置に機械学習を行わせること、
前記各情報処理装置から、前記それぞれの組み合わせに対応する学習性能を取得すること、
前記それぞれの組み合わせと、前記それぞれの組み合わせに対応する学習性能とを含む学習データを用いて教師あり学習を行うこと、
前記教師あり学習により、インスタンス数及び/又はハイパーパラメータの組み合わせごとに、学習性能を予測する予測モデルを生成すること、
を実行させる、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021204794A JP7199115B1 (ja) | 2021-12-17 | 2021-12-17 | 機械学習における分散学習 |
US18/083,363 US20230196123A1 (en) | 2021-12-17 | 2022-12-16 | Federated Learning in Machine Learning |
CN202211623328.XA CN116266282A (zh) | 2021-12-17 | 2022-12-16 | 信息处理方法以及信息处理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021204794A JP7199115B1 (ja) | 2021-12-17 | 2021-12-17 | 機械学習における分散学習 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7199115B1 JP7199115B1 (ja) | 2023-01-05 |
JP2023090055A true JP2023090055A (ja) | 2023-06-29 |
Family
ID=84784172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021204794A Active JP7199115B1 (ja) | 2021-12-17 | 2021-12-17 | 機械学習における分散学習 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230196123A1 (ja) |
JP (1) | JP7199115B1 (ja) |
CN (1) | CN116266282A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016218869A (ja) * | 2015-05-22 | 2016-12-22 | 富士通株式会社 | 設定方法、設定プログラム、及び設定装置 |
JP2018159992A (ja) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | パラメータ調整装置、学習システム、パラメータ調整方法、およびプログラム |
JP2019003408A (ja) * | 2017-06-15 | 2019-01-10 | 株式会社日立製作所 | ハイパーパラメータの評価方法、計算機及びプログラム |
WO2021205828A1 (ja) * | 2020-04-10 | 2021-10-14 | 国立大学法人 東京大学 | 予後予測装置、及びプログラム |
-
2021
- 2021-12-17 JP JP2021204794A patent/JP7199115B1/ja active Active
-
2022
- 2022-12-16 CN CN202211623328.XA patent/CN116266282A/zh active Pending
- 2022-12-16 US US18/083,363 patent/US20230196123A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016218869A (ja) * | 2015-05-22 | 2016-12-22 | 富士通株式会社 | 設定方法、設定プログラム、及び設定装置 |
JP2018159992A (ja) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | パラメータ調整装置、学習システム、パラメータ調整方法、およびプログラム |
JP2019003408A (ja) * | 2017-06-15 | 2019-01-10 | 株式会社日立製作所 | ハイパーパラメータの評価方法、計算機及びプログラム |
WO2021205828A1 (ja) * | 2020-04-10 | 2021-10-14 | 国立大学法人 東京大学 | 予後予測装置、及びプログラム |
Non-Patent Citations (2)
Title |
---|
GUPTA, S., ET AL.: "Model Accuracy and Runtime Tradeoff in Distributed Deep Learning: A Systematic Study", 2016 IEEE 16TH INTERNATIONAL CONFERENCE ON DATA MINING (ICDM) [ONLINE], JPN6022027022, 12 December 2016 (2016-12-12), pages 171 - 180, XP033056026, ISSN: 0004815703, DOI: 10.1109/ICDM.2016.0028 * |
WEI, Y., ET AL.: "Meta-learning Hyperparameter Performance Prediction with Neural Processes", PROCEEDINGS OF THE 38TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING, vol. 139, JPN6022011101, 18 July 2021 (2021-07-18), pages 11058 - 11067, ISSN: 0004815702 * |
Also Published As
Publication number | Publication date |
---|---|
US20230196123A1 (en) | 2023-06-22 |
JP7199115B1 (ja) | 2023-01-05 |
CN116266282A (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180240041A1 (en) | Distributed hyperparameter tuning system for machine learning | |
CN110020717A (zh) | 用于生成不动点神经网络的方法和装置 | |
CN108496189A (zh) | 机器学习模型的正则化 | |
US20200410365A1 (en) | Unsupervised neural network training using learned optimizers | |
CN112955907A (zh) | 量化训练的长短期记忆神经网络 | |
CN109190754A (zh) | 量化模型生成方法、装置和电子设备 | |
CN110188910A (zh) | 利用机器学习模型提供在线预测服务的方法及系统 | |
CN109165081B (zh) | 基于机器学习的Web应用自适应资源配置方法 | |
JP2022033695A (ja) | モデルを生成するための方法、装置、電子機器、記憶媒体、及びコンピュータプログラム製品 | |
US20230268035A1 (en) | Method and apparatus for generating chemical structure using neural network | |
WO2023210665A1 (ja) | 計算グラフの改善 | |
JP7437763B2 (ja) | 解析装置、解析方法及び解析プログラム | |
JP7199115B1 (ja) | 機械学習における分散学習 | |
JP2022032703A (ja) | 情報処理システム | |
JP2010204974A (ja) | 時系列データ予測装置 | |
JP7112802B1 (ja) | 学習モデルの軽量化 | |
KR20190092217A (ko) | 데이터를 앙상블하는 장치 및 이의 동작 방법 | |
JP2022165395A (ja) | ニューラルネットワークモデルの最適化方法及びニューラルネットワークモデルに関するグラフィックユーザインターフェースを提供する方法 | |
JP7078307B1 (ja) | 学習モデルの個別化 | |
JP7441775B2 (ja) | 制御装置及び制御方法 | |
CN111427935B (zh) | 量化交易指标的预测和显示方法、电子设备和介质 | |
KR102113264B1 (ko) | 금융상품 가격 안정화 시스템의 제어 방법 | |
JP7334928B2 (ja) | タグ推薦装置、タグ推薦方法及びタグ推薦プログラム | |
JP2024006150A (ja) | 情報処理システム | |
JP2024064789A (ja) | 学習装置、学習方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211217 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199115 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |