JPWO2017145852A1 - ニューラルネットワーク学習装置、ニューラルネットワーク学習方法及びプログラムを記憶する記憶媒体 - Google Patents
ニューラルネットワーク学習装置、ニューラルネットワーク学習方法及びプログラムを記憶する記憶媒体 Download PDFInfo
- Publication number
- JPWO2017145852A1 JPWO2017145852A1 JP2018501601A JP2018501601A JPWO2017145852A1 JP WO2017145852 A1 JPWO2017145852 A1 JP WO2017145852A1 JP 2018501601 A JP2018501601 A JP 2018501601A JP 2018501601 A JP2018501601 A JP 2018501601A JP WO2017145852 A1 JPWO2017145852 A1 JP WO2017145852A1
- Authority
- JP
- Japan
- Prior art keywords
- regularization
- regularization strength
- network
- neural network
- strength
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
次に、本発明の実施形態の変形例を説明する。
初期化されたネットワークに基づいて層ごとの正則化強度を決定する正則化強度決定手段と、
初期化されたネットワークと前記正則化強度決定手段で決定された正則化強度とに基づいてネットワークの学習を行うネットワーク学習手段とを備え、
前記正則化強度決定手段は、損失関数から計算されるパラメータ更新量の大きさと正則化項から計算されるパラメータ更新量の大きさとの違いが所定範囲内となるように正則化強度を決定する
ことを特徴とするニューラルネットワーク学習装置。
前記正則化強度決定手段は、損失関数の勾配の大きさと正則化項の勾配の大きさとの比が所定範囲内となるように正則化強度を決定する
ことを特徴とする付記1に記載のニューラルネットワーク学習装置。
前記正則化強度決定手段は、損失関数の勾配の大きさと正則化項の勾配の大きさとの差が所定範囲内となるように正則化強度を決定する
ことを特徴とする付記1に記載のニューラルネットワーク学習装置。
付記1乃至3のいずれか1項に記載のニューラルネットワーク学習装置を用いて学習したニューラルネットワークに基づいて認識を行うことを特徴とするパターン認識装置。
初期化されたネットワークに基づいて層ごとの正則化強度を決定し、
初期化されたネットワークと決定された前記正則化強度とに基づいてネットワークの学習を行い、
損失関数から計算されるパラメータ更新量の大きさと正則化項から計算されるパラメータ更新量の大きさとの違いが所定範囲内となるように正則化強度を決定する
ことを特徴とするニューラルネットワーク学習方法。
損失関数の勾配の大きさと正則化項の勾配の大きさとの比が所定範囲内となるように正則化強度を決定する
ことを特徴とする付記5に記載のニューラルネットワーク学習方法。
損失関数の勾配の大きさと正則化項の勾配の大きさとの差が所定範囲内となるように正則化強度を決定する
ことを特徴とする付記5に記載のニューラルネットワーク学習方法。
付記5乃至7のいずれか1項に記載のニューラルネットワーク学習方法を用いて学習したニューラルネットワークに基づいて認識を行うことを特徴とするパターン認識方法。
コンピュータに、
初期化されたネットワークに基づいて層ごとの正則化強度を決定する正則化強度決定処理と、
初期化されたネットワークと決定された前記正則化強度とに基づいてネットワークの学習を行う学習処理と、
を実行させ、
前記正則化強度決定処理は、損失関数から計算されるパラメータ更新量の大きさと正則化項から計算されるパラメータ更新量の大きさとの違いが所定範囲内となるように正則化強度を決定する、
ことを特徴とするプログラムを記憶する記憶媒体。
前記正則化強度決定処理は、損失関数の勾配の大きさと正則化項の勾配の大きさとの比が所定範囲内となるように正則化強度を決定する
ことを特徴とする付記9に記載の記憶媒体。
前記正則化強度決定処理は、損失関数の勾配の大きさと正則化項の勾配の大きさとの差が所定範囲内となるように正則化強度を決定する
ことを特徴とする付記9に記載の記憶媒体。
101 正則化強度決定部
102 ネットワーク学習部
200 コンピュータ装置
201 CPU
202 ROM
203 RAM
204 プログラム
205 記憶装置
206 記憶媒体
207 ドライブ装置
208 通信インターフェース
209 ネットワーク
210 入出力インターフェース
211 バス
Claims (11)
- 初期化されたネットワークに基づいて層ごとの正則化強度を決定する正則化強度決定手段と、
初期化されたネットワークと前記正則化強度決定手段で決定された正則化強度とに基づいてネットワークの学習を行うネットワーク学習手段とを備え、
前記正則化強度決定手段は、損失関数から計算されるパラメータ更新量の大きさと正則化項から計算されるパラメータ更新量の大きさとの違いが所定範囲内となるように正則化強度を決定する
ことを特徴とするニューラルネットワーク学習装置。 - 前記正則化強度決定手段は、損失関数の勾配の大きさと正則化項の勾配の大きさとの比が所定範囲内となるように正則化強度を決定する
ことを特徴とする請求項1に記載のニューラルネットワーク学習装置。 - 前記正則化強度決定手段は、損失関数の勾配の大きさと正則化項の勾配の大きさとの差が所定範囲内となるように正則化強度を決定する
ことを特徴とする請求項1に記載のニューラルネットワーク学習装置。 - 請求項1乃至3のいずれか1項に記載のニューラルネットワーク学習装置を用いて学習したニューラルネットワークに基づいて認識を行うことを特徴とするパターン認識装置。
- 初期化されたネットワークに基づいて層ごとの正則化強度を決定し、
初期化されたネットワークと決定された前記正則化強度とに基づいてネットワークの学習を行い、
損失関数から計算されるパラメータ更新量の大きさと正則化項から計算されるパラメータ更新量の大きさとの違いが所定範囲内となるように正則化強度を決定する
ことを特徴とするニューラルネットワーク学習方法。 - 損失関数の勾配の大きさと正則化項の勾配の大きさとの比が所定範囲内となるように正則化強度を決定する
ことを特徴とする請求項5に記載のニューラルネットワーク学習方法。 - 損失関数の勾配の大きさと正則化項の勾配の大きさとの差が所定範囲内となるように正則化強度を決定する
ことを特徴とする請求項5に記載のニューラルネットワーク学習方法。 - 請求項5乃至7のいずれか1項に記載のニューラルネットワーク学習方法を用いて学習したニューラルネットワークに基づいて認識を行うことを特徴とするパターン認識方法。
- コンピュータに、
初期化されたネットワークに基づいて層ごとの正則化強度を決定する正則化強度決定処理と、
初期化されたネットワークと決定された前記正則化強度とに基づいてネットワークの学習を行う学習処理と、
を実行させ、
前記正則化強度決定処理は、損失関数から計算されるパラメータ更新量の大きさと正則化項から計算されるパラメータ更新量の大きさとの違いが所定範囲内となるように正則化強度を決定する、
ことを特徴とするプログラムを記憶する記憶媒体。 - 前記正則化強度決定処理は、損失関数の勾配の大きさと正則化項の勾配の大きさとの比が所定範囲内となるように正則化強度を決定する
ことを特徴とする請求項9に記載の記憶媒体。 - 前記正則化強度決定処理は、損失関数の勾配の大きさと正則化項の勾配の大きさとの差が所定範囲内となるように正則化強度を決定する
ことを特徴とする請求項9に記載の記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016032806 | 2016-02-24 | ||
JP2016032806 | 2016-02-24 | ||
PCT/JP2017/005230 WO2017145852A1 (ja) | 2016-02-24 | 2017-02-14 | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法及びプログラムを記憶する記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017145852A1 true JPWO2017145852A1 (ja) | 2018-12-13 |
JP6729676B2 JP6729676B2 (ja) | 2020-07-22 |
Family
ID=59685311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018501601A Active JP6729676B2 (ja) | 2016-02-24 | 2017-02-14 | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11263511B2 (ja) |
JP (1) | JP6729676B2 (ja) |
WO (1) | WO2017145852A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488054B2 (en) * | 2017-12-06 | 2022-11-01 | Google Llc | Systems and methods for distributed on-device learning with data-correlated availability |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751286B (zh) * | 2018-07-23 | 2024-05-10 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和训练系统 |
WO2020129412A1 (ja) * | 2018-12-17 | 2020-06-25 | ソニー株式会社 | 学習装置、識別装置およびプログラム |
CN110163421B (zh) * | 2019-04-29 | 2021-08-24 | 广东电网有限责任公司电网规划研究中心 | 中长期电力负荷预测方法 |
JP2024043911A (ja) * | 2022-09-20 | 2024-04-02 | 株式会社Jvcケンウッド | 機械学習装置、機械学習方法、および機械学習プログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3618007B2 (ja) * | 1995-01-27 | 2005-02-09 | 株式会社リコー | ニューラルネットワークの学習装置及び学習方法 |
JP2001142864A (ja) * | 1999-11-15 | 2001-05-25 | Nippon Telegr & Teleph Corp <Ntt> | ニューラルネットの重要重み発見方法及び装置及びニューラルネットの重要重み発見プログラムを格納した記憶媒体 |
US8234228B2 (en) * | 2008-02-07 | 2012-07-31 | Nec Laboratories America, Inc. | Method for training a learning machine having a deep multi-layered network with labeled and unlabeled training data |
US9390370B2 (en) * | 2012-08-28 | 2016-07-12 | International Business Machines Corporation | Training deep neural network acoustic models using distributed hessian-free optimization |
US10380479B2 (en) * | 2015-10-08 | 2019-08-13 | International Business Machines Corporation | Acceleration of convolutional neural network training using stochastic perforation |
-
2017
- 2017-02-14 US US16/078,121 patent/US11263511B2/en active Active
- 2017-02-14 WO PCT/JP2017/005230 patent/WO2017145852A1/ja active Application Filing
- 2017-02-14 JP JP2018501601A patent/JP6729676B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488054B2 (en) * | 2017-12-06 | 2022-11-01 | Google Llc | Systems and methods for distributed on-device learning with data-correlated availability |
Also Published As
Publication number | Publication date |
---|---|
US11263511B2 (en) | 2022-03-01 |
WO2017145852A1 (ja) | 2017-08-31 |
JP6729676B2 (ja) | 2020-07-22 |
US20210192331A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017145852A1 (ja) | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法及びプログラムを記憶する記憶媒体 | |
CN110689109A (zh) | 神经网络方法和装置 | |
KR20190050141A (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
JP2018097875A (ja) | トレーニング画像処理装置に用いるトレーニング装置及びトレーニング方法 | |
CN110400575A (zh) | 通道间特征提取方法、音频分离方法和装置、计算设备 | |
CN110175641A (zh) | 图像识别方法、装置、设备和存储介质 | |
CN110956263A (zh) | 一种二值化神经网络的构建方法、存储介质及终端设备 | |
JP7095599B2 (ja) | 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム | |
CN110929836B (zh) | 神经网络训练及图像处理方法和装置、电子设备、介质 | |
US11475312B2 (en) | Method and apparatus with deep neural network model fusing | |
CN113674733A (zh) | 用于说话时间估计的方法和设备 | |
CN111144574B (zh) | 使用指导者模型训练学习者模型的人工智能系统和方法 | |
CN117315758A (zh) | 面部表情的检测方法、装置、电子设备及存储介质 | |
WO2020071213A1 (ja) | 音響モデル学習装置、音声合成装置、及びプログラム | |
JP6636973B2 (ja) | マスク推定装置、マスク推定方法およびマスク推定プログラム | |
US20070223821A1 (en) | Pattern recognition method | |
CN113055546A (zh) | 处理图像的系统和方法 | |
JP2019185207A (ja) | モデル学習装置、モデル学習方法、プログラム | |
CN113570044A (zh) | 客户流失分析模型训练方法及装置 | |
TW202219750A (zh) | 機器學習模型訓練方法、電子設備、控制器及存儲介質 | |
CN114187465A (zh) | 分类模型的训练方法、装置、电子设备及存储介质 | |
CN115439894B (zh) | 训练指纹配对模型的方法、电子设备、程序产品及介质 | |
US20230068381A1 (en) | Method and electronic device for quantizing dnn model | |
WO2021111831A1 (ja) | 情報処理方法、情報処理システム及び情報処理装置 | |
WO2021070559A1 (ja) | データ処理装置、データ処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180802 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6729676 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |