JP6740597B2 - 学習方法、学習プログラムおよび情報処理装置 - Google Patents
学習方法、学習プログラムおよび情報処理装置 Download PDFInfo
- Publication number
- JP6740597B2 JP6740597B2 JP2015232433A JP2015232433A JP6740597B2 JP 6740597 B2 JP6740597 B2 JP 6740597B2 JP 2015232433 A JP2015232433 A JP 2015232433A JP 2015232433 A JP2015232433 A JP 2015232433A JP 6740597 B2 JP6740597 B2 JP 6740597B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural networks
- unit
- epoch
- epochs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000010365 information processing Effects 0.000 title claims description 26
- 238000013528 artificial neural network Methods 0.000 claims description 177
- 238000012549 training Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 12
- 230000002068 genetic effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 230000004083 survival effect Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000009827 uniform distribution Methods 0.000 description 3
- 238000002790 cross-validation Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Physiology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本実施例で説明する情報処理装置10は、ニューラルネットワークを多層化したディープラーニングに適用され、中間層の数を予め決定した上で、遺伝的アルゴリズム(GA)等を用いた最適なユニット数の探索に加えて、異なる層のユニット間の結合強度などを決定する。つまり、情報処理装置10は、GAによるユニット数の探索を複数回行う一方で、GAのループ内で確率勾配法等によるNN学習を反復させて、NNの最適なエッジ強度を探索する。
図1は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。図1に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。通信部11は、管理者などの他の装置との通信を制御する処理部であり、例えば通信インタフェースなどである。
図8は、処理の流れを示すフローチャートである。図8に示すように、入力受付部21は、入力情報を受け付けると(S101:Yes)、受け付けた入力情報をパラメータとしてパラメータテーブル13に格納する(S102)。
このように、通常は専門家による試行錯誤が行われるNN構造のチューニングを、自動で高速に行うことができる。また、すべてのNN構造を十分に学習できないとき、多くのNN構造を調べることと個々のNNの予測誤差を正確に見積もることはトレードオフの関係にある。しかし、本実施例の手法を用いることで、NNの構造探索を行うGAとNN学習を担う勾配法の反復回数とを適切に配分することができる。この結果、NNの学習回数を減らす一方で、個々のNNの予測誤差を正確に見積もる程度の打切りエポック数を設定することができ、NNの学習時間の短縮を図りつつ、NNの学習精度の低下を抑制することができる。
上記実施例では、GA集団の適応度(予測誤差)に応じて、打切りエポック数を1だけ増加または1だけ減少させる例を説明したが、これに限定されるものではなく、例えば2などの所定数を増減させることもできる。また、適応度と閾値との差が、所定値未満である場合は1だけ増減し、適応度と閾値との差が、所定値以上である場合は2だけ増減させることもできる。
また、図1に示した各装置の各構成は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、任意の単位で分散または統合して構成することができる。例えば、学習部22と打切りエポック判定部28を統合することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
上記情報処理装置10は、例えば、次のようなハードウェア構成を有するコンピュータにより実現することができる。図9は、ハードウェア構成例を説明する図である。図9に示すように、情報処理装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。
11 通信部
12 記憶部
13 パラメータテーブル
14 集団テーブル
15 親個体テーブル
16 子個体テーブル
17 訓練済みテーブル
20 制御部
21 入力受付部
22 学習部
23 初期化部
24 親選択部
25 交叉部
26 NN訓練部
27 生存選択部
28 打切りエポック判定部
29 終了判定部
30 出力部
Claims (6)
- コンピュータが、
対象データに対する複数のニューラルネットワークの学習を、それぞれ少なくとも1エポック実施し、
前記複数のニューラルネットワークに対して、それぞれのユニット数を変化させる特定のアルゴリズムのループを複数回実施し、
前記複数回の前記特定のアルゴリズムのループそれぞれにおける、前記複数のニューラルネットワークに対するそれぞれの学習エポック数を、当該ループ開始直前の前記複数のニューラルネットワークのそれぞれの精度の分散値に基づき設定する
処理を実行することを特徴とする学習方法。 - 前記複数のニューラルネットワークを用いて、前記複数のニューラルネットワークを同じ数の新たな複数のニューラルネットワークを生成する処理を前記コンピュータがさらに実行し、
前記設定する処理は、前記新たな複数のニューラルネットワークが生成されるたびに、当該新たな複数のニューラルネットワークに対するそれぞれの学習エポック数を設定し、
前記特定のアルゴリズムのループを複数回実施する処理は、前記新たな複数のニューラルネットワークに対して、前記特定のアルゴリズムのループを前記学習エポック数回実施することを特徴とする請求項1に記載の学習方法。 - 前記設定する処理は、前記新たな複数のニューラルネットワークに対する学習エポック数として、前回の実施対象である前記複数のニューラルネットワークのそれぞれの精度の分散値が閾値以上である場合、前回の学習エポック数を所定数減算した値を当該学習エポック数に決定し、前回の実施対象である前記複数のニューラルネットワークのそれぞれの精度の分散値が閾値未満である場合、前回の学習エポック数に所定数加算した値を当該学習エポック数に決定することを特徴とする請求項2に記載の学習方法。
- 前記特定のアルゴリズムは、遺伝的アルゴリズムであることを特徴とする、請求項1に記載の学習方法。
- コンピュータに、
対象データに対する複数のニューラルネットワークの学習を、それぞれ少なくとも1エポック実施し、
前記複数のニューラルネットワークに対して、それぞれのユニット数を変化させる特定のアルゴリズムのループを複数回実施し、
前記複数回の前記特定のアルゴリズムのループそれぞれにおける、前記複数のニューラルネットワークに対するそれぞれの学習エポック数を、当該ループ開始直前の前記複数のニューラルネットワークのそれぞれの精度の分散値に基づき設定する
処理を実行させることを特徴とする学習プログラム。 - 対象データに対する複数のニューラルネットワークの学習を、それぞれ少なくとも1エポック実施する第1実施部と、
前記複数のニューラルネットワークに対して、それぞれのユニット数を変化させる特定のアルゴリズムのループを複数回実施する第2実施部と、
前記複数回の前記特定のアルゴリズムのループそれぞれにおける、前記複数のニューラルネットワークに対するそれぞれの学習エポック数を、当該ループ開始直前の前記複数のニューラルネットワークのそれぞれの精度の分散値に基づき設定する設定部と
を有することを特徴とする情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232433A JP6740597B2 (ja) | 2015-11-27 | 2015-11-27 | 学習方法、学習プログラムおよび情報処理装置 |
US15/336,925 US20170154260A1 (en) | 2015-11-27 | 2016-10-28 | Learning method, computer-readable recording medium, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232433A JP6740597B2 (ja) | 2015-11-27 | 2015-11-27 | 学習方法、学習プログラムおよび情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017097807A JP2017097807A (ja) | 2017-06-01 |
JP6740597B2 true JP6740597B2 (ja) | 2020-08-19 |
Family
ID=58777990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015232433A Expired - Fee Related JP6740597B2 (ja) | 2015-11-27 | 2015-11-27 | 学習方法、学習プログラムおよび情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170154260A1 (ja) |
JP (1) | JP6740597B2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10795935B2 (en) | 2016-02-05 | 2020-10-06 | Sas Institute Inc. | Automated generation of job flow definitions |
US10650045B2 (en) | 2016-02-05 | 2020-05-12 | Sas Institute Inc. | Staged training of neural networks for improved time series prediction performance |
US10642896B2 (en) | 2016-02-05 | 2020-05-05 | Sas Institute Inc. | Handling of data sets during execution of task routines of multiple languages |
US10650046B2 (en) | 2016-02-05 | 2020-05-12 | Sas Institute Inc. | Many task computing with distributed file system |
USD898059S1 (en) | 2017-02-06 | 2020-10-06 | Sas Institute Inc. | Display screen or portion thereof with graphical user interface |
JP6325762B1 (ja) * | 2017-03-15 | 2018-05-16 | 楽天株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
USD898060S1 (en) | 2017-06-05 | 2020-10-06 | Sas Institute Inc. | Display screen or portion thereof with graphical user interface |
CN107341761A (zh) * | 2017-07-12 | 2017-11-10 | 成都品果科技有限公司 | 一种深度神经网络的计算执行方法和系统 |
JP6694197B2 (ja) * | 2017-09-28 | 2020-05-13 | 良徳 若林 | 学習ネットワーク生成装置、及び学習ネットワーク生成プログラム |
US11270228B2 (en) | 2017-11-17 | 2022-03-08 | Panasonic Intellectual Property Management Co., Ltd. | Information processing method and information processing system |
KR101855360B1 (ko) * | 2017-12-13 | 2018-05-09 | 한국과학기술정보연구원 | 신경망의 학습 최적화를 위한 신경망 구성 방법 및 장치 |
WO2019135274A1 (ja) * | 2018-01-04 | 2019-07-11 | 株式会社Abeja | ニューラル・ネットワークを有するデータ処理システム |
KR102106428B1 (ko) * | 2018-02-19 | 2020-05-06 | 주식회사 셀바스에이아이 | 건강나이 예측 방법 |
US20210358564A1 (en) * | 2018-10-23 | 2021-11-18 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Active Transfer Learning with Deep Featurization |
US10997503B2 (en) * | 2019-06-20 | 2021-05-04 | Google Llc | Computationally efficient neural network architecture search |
USD919656S1 (en) * | 2019-10-04 | 2021-05-18 | Butterfly Network, Inc. | Display panel or portion thereof with graphical user interface |
CN111890350A (zh) * | 2020-06-12 | 2020-11-06 | 深圳先进技术研究院 | 机器人及其控制方法、计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5140530A (en) * | 1989-03-28 | 1992-08-18 | Honeywell Inc. | Genetic algorithm synthesis of neural networks |
US6119112A (en) * | 1997-11-19 | 2000-09-12 | International Business Machines Corporation | Optimum cessation of training in neural networks |
US7409371B1 (en) * | 2001-06-04 | 2008-08-05 | Microsoft Corporation | Efficient determination of sample size to facilitate building a statistical model |
JP2006518062A (ja) * | 2003-01-15 | 2006-08-03 | ブラッコ イメージング ソチエタ ペル アチオニ | 予測アルゴリズムのトレーニングおよびテスティングのデータベース最適化のシステムおよび方法 |
-
2015
- 2015-11-27 JP JP2015232433A patent/JP6740597B2/ja not_active Expired - Fee Related
-
2016
- 2016-10-28 US US15/336,925 patent/US20170154260A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20170154260A1 (en) | 2017-06-01 |
JP2017097807A (ja) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6740597B2 (ja) | 学習方法、学習プログラムおよび情報処理装置 | |
CN107688493B (zh) | 训练深度神经网络的方法、装置及系统 | |
CN110476172B (zh) | 用于卷积神经网络的神经架构搜索 | |
US20200311546A1 (en) | Method and apparatus for partitioning deep neural networks | |
US11586473B2 (en) | Methods and apparatus for allocating a workload to an accelerator using machine learning | |
US11868904B2 (en) | Prediction model training management system, method of the same, master apparatus and slave apparatus for the same | |
CN108021983A (zh) | 神经架构搜索 | |
JP6414363B2 (ja) | 予測システム、方法およびプログラム | |
JP2018005541A (ja) | 情報処理装置、イジング装置及び情報処理装置の制御方法 | |
JP7009020B2 (ja) | 学習方法、学習システム、学習装置、方法、適用装置、及びコンピュータプログラム | |
CN111406264A (zh) | 神经架构搜索 | |
CN111105066B (zh) | 资源受限项目调度方法、装置、计算机设备、及存储介质 | |
CN112529144B (zh) | 一种面向短期时间序列预测的预期性学习方法和系统 | |
TW202123098A (zh) | 深度神經網路超參數選擇方法及電子裝置 | |
JP2020516004A (ja) | 音源のハイライト区間を決定する方法、その装置及び該コンピュータプログラム | |
CN108595526B (zh) | 资源推荐方法及装置 | |
JP6325762B1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
CN111260035A (zh) | 一种EfficientNet的结构参数的搜索方法、系统、设备以及介质 | |
CN113222073A (zh) | 训练迁移学习模型和推荐模型的方法及装置 | |
JP2021163424A (ja) | Aiシステム開発シミュレータ及びハイパーパラメータ最適化方法 | |
WO2022252694A1 (zh) | 神经网络优化方法及其装置 | |
CN115577798A (zh) | 基于随机加速梯度下降的半联邦学习方法及装置 | |
CN113744719A (zh) | 一种语音提取方法、装置及设备 | |
CN113342474A (zh) | 客户流量的预测、模型训练的方法、设备及存储介质 | |
WO2015189970A1 (ja) | 情報処理装置及びそのデータ処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6740597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |