JP2018067039A - 学習装置、学習方法および学習プログラム - Google Patents
学習装置、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP2018067039A JP2018067039A JP2016203546A JP2016203546A JP2018067039A JP 2018067039 A JP2018067039 A JP 2018067039A JP 2016203546 A JP2016203546 A JP 2016203546A JP 2016203546 A JP2016203546 A JP 2016203546A JP 2018067039 A JP2018067039 A JP 2018067039A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- parameter
- gradient
- rnn
- singular value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
まず、従来の背景知識について述べる。なお、以後の(1)式〜(17)式において、大文字は行列を、小文字は列ベクトルを表し、行ベクトルは転置を使って表現する。RNNを用いたデータ処理では、与えられた入力と出力との時系列データに対してデータの分類や次の値の予想、クラスタリングなどのタスクに応じて損失関数を設定し、この関数が最小となるようにRNNのパラメータを更新する。この学習済みのRNNを用いて、新たに得られた入力データに対して上記のようなタスクを行う出力を計算する。
続いて、本実施の形態の数理的背景について説明する。なお、以下の説明では、議論を簡潔にするため、まずは、特に、1層のGRUに焦点を絞って説明を行う。もちろん、多層のGRUにおいても同様の手続きによって安定的な学習が実現される。
本実施の形態における学習方法、すなわち、特異値に制約を加えた学習方法について説明する。まず、本実施の形態では、従来と同じように重み行列Whhを(10)式によって更新する。
上記の実施の形態の数理的背景を踏まえ、本実施の形態に係る学習装置などについて説明する。なお、以下の実施の形態は、一例を示すに過ぎない。
図2は、本発明の実施の形態に係る学習装置10の構成の一例を示すブロック図である。学習装置10は、RNNを用いて学習を行う。図2に示すように、学習装置10は、パラメータを初期化する初期化部11、現在のパラメータで損失関数の勾配を計算する勾配計算部12、及び、勾配計算部12が計算した損失関数の勾配を基にパラメータを更新するパラメータ更新部13を有する。
次に、パラメータ更新部13が行うパラメータ更新処理の処理手順について説明する。図3は、図2に示すパラメータ更新部13が行うパラメータ更新処理の処理手順を示すフローチャートである。
次に、図3に示す置換処理(ステップS3)の処理手順について説明する。図4は、図3に示す置換処理の処理手順を示すフローチャートである。
このように、本実施の形態では、RNNのモデルを用いて学習を行う際に、特異値分解を行い取得した特異値に制約を加えて学習を進める。このため、本実施の形態では、このアルゴリズムによってパラメータが分岐点へ近づくことなく学習できる。すなわち、本実施の形態によれば、RNNを用いた学習において、急激な勾配の増加を防いで安定的に学習を進めることができる。
本実施の形態の変形例について説明する。本変形例では、パラメータ更新部13は、RNNを用いた学習において、勾配計算部12が計算した勾配を用いて、パラメータを更新し、重み行列に対して特異値分解を行う。そして、パラメータ更新部13は、重み行列を特異値の最大値で除算することによって、特異値に制約を加えて学習を進める。
図2に示した学習装置10の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、学習装置10の機能の分散および統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散または統合して構成することができる。
図6は、プログラムが実行されることにより、学習装置10が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
11 初期化部
12 勾配計算部
13 パラメータ更新部
Claims (5)
- RNN(Recurrent Neural Network)のモデルを用いて学習を行う学習装置であって、
前記RNNのモデルのパラメータである重み行列による損失関数の勾配を計算する勾配計算部と、
前記勾配を用いてパラメータを更新するとともに、前記重み行列を特異値分解し、該分解した特異値に制約を加えて学習を進めるパラメータ更新部と、
を有することを特徴とする学習装置。 - 前記パラメータ更新部は、前記分解した特異値のうち、所定の閾値を超える前記特異値を前記閾値に置換し、該置換した特異値と前記特異値分解で得られた左右の特異ベクトルを用いて重み行列を再構成することを特徴とする請求項1に記載の学習装置。
- 前記パラメータ更新部は、前記重み行列を前記特異値の最大値で除算することを特徴とする請求項1に記載の学習装置。
- RNNのモデルを用いて学習を行う学習装置が行う学習方法であって、
前記RNNのモデルのパラメータである重み行列による損失関数の勾配を計算する工程と、
前記勾配を用いてパラメータを更新する工程と、
前記重み行列を特異値分解する工程と、
前記分解した特異値に制約を加えて学習を進める工程と、
を含んだことを特徴とする学習方法。 - RNNのモデルのパラメータである重み行列による損失関数の勾配を計算するステップと、
前記勾配を用いてパラメータを更新するステップと、
前記重み行列を特異値分解するステップと、
前記分解した特異値に制約を加えて学習を進めるステップと、
をコンピュータに実行させるための学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016203546A JP6713903B2 (ja) | 2016-10-17 | 2016-10-17 | 学習装置、学習方法および学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016203546A JP6713903B2 (ja) | 2016-10-17 | 2016-10-17 | 学習装置、学習方法および学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018067039A true JP2018067039A (ja) | 2018-04-26 |
JP6713903B2 JP6713903B2 (ja) | 2020-06-24 |
Family
ID=62086220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016203546A Active JP6713903B2 (ja) | 2016-10-17 | 2016-10-17 | 学習装置、学習方法および学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6713903B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886206A (zh) * | 2019-02-21 | 2019-06-14 | 电子科技大学中山学院 | 一种三维物体识别方法及设备 |
CN110069985A (zh) * | 2019-03-12 | 2019-07-30 | 北京三快在线科技有限公司 | 基于图像的目标点位置检测方法、装置、电子设备 |
JP2019200068A (ja) * | 2018-05-14 | 2019-11-21 | 日新電機株式会社 | 部分放電診断装置 |
JP2019212121A (ja) * | 2018-06-06 | 2019-12-12 | 株式会社Nttドコモ | 機械学習システム |
CN111079977A (zh) * | 2019-11-18 | 2020-04-28 | 中国矿业大学 | 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法 |
CN112446487A (zh) * | 2019-08-29 | 2021-03-05 | 佳能株式会社 | 神经网络模型的训练和应用方法、装置、系统及存储介质 |
US11977972B2 (en) | 2019-03-27 | 2024-05-07 | Sanofi | Residual semi-recurrent neural networks |
US12020136B2 (en) | 2018-09-28 | 2024-06-25 | Samsung Electronics Co., Ltd. | Operating method and training method of neural network and neural network thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002236904A (ja) * | 2001-02-08 | 2002-08-23 | Sony Corp | データ処理装置および方法、記録媒体、並びにプログラム |
US20160299685A1 (en) * | 2015-04-10 | 2016-10-13 | Google Inc. | Neural network for keyboard input decoding |
-
2016
- 2016-10-17 JP JP2016203546A patent/JP6713903B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002236904A (ja) * | 2001-02-08 | 2002-08-23 | Sony Corp | データ処理装置および方法、記録媒体、並びにプログラム |
US20160299685A1 (en) * | 2015-04-10 | 2016-10-13 | Google Inc. | Neural network for keyboard input decoding |
Non-Patent Citations (1)
Title |
---|
LO, HENRY Z. ET AL., SCALE NORMALIZATION, vol. v1, JPN6019047312, 26 April 2016 (2016-04-26), pages 1 - 4, ISSN: 0004168450 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019200068A (ja) * | 2018-05-14 | 2019-11-21 | 日新電機株式会社 | 部分放電診断装置 |
JP2019212121A (ja) * | 2018-06-06 | 2019-12-12 | 株式会社Nttドコモ | 機械学習システム |
JP7021010B2 (ja) | 2018-06-06 | 2022-02-16 | 株式会社Nttドコモ | 機械学習システム |
US12020136B2 (en) | 2018-09-28 | 2024-06-25 | Samsung Electronics Co., Ltd. | Operating method and training method of neural network and neural network thereof |
CN109886206A (zh) * | 2019-02-21 | 2019-06-14 | 电子科技大学中山学院 | 一种三维物体识别方法及设备 |
CN109886206B (zh) * | 2019-02-21 | 2021-09-14 | 电子科技大学中山学院 | 一种三维物体识别方法及设备 |
CN110069985A (zh) * | 2019-03-12 | 2019-07-30 | 北京三快在线科技有限公司 | 基于图像的目标点位置检测方法、装置、电子设备 |
US11977972B2 (en) | 2019-03-27 | 2024-05-07 | Sanofi | Residual semi-recurrent neural networks |
CN112446487A (zh) * | 2019-08-29 | 2021-03-05 | 佳能株式会社 | 神经网络模型的训练和应用方法、装置、系统及存储介质 |
CN111079977A (zh) * | 2019-11-18 | 2020-04-28 | 中国矿业大学 | 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6713903B2 (ja) | 2020-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6713903B2 (ja) | 学習装置、学習方法および学習プログラム | |
US11928600B2 (en) | Sequence-to-sequence prediction using a neural network model | |
US20220383126A1 (en) | Low-Rank Adaptation of Neural Network Models | |
US10817669B2 (en) | Automatic classification of adverse event text fragments | |
KR20200123544A (ko) | 동의어 추출 방법 | |
US10586165B1 (en) | Distributable clustering model training system | |
US20210073633A1 (en) | Neural network rank optimization device and optimization method | |
US20220366040A1 (en) | Deep learning based detection of malicious shell scripts | |
KR102362678B1 (ko) | 생체신호 분석 방법 | |
US11429815B2 (en) | Methods, systems, and media for deep neural network interpretation via rule extraction | |
JP6495814B2 (ja) | 言語確率算出方法、言語確率算出装置および言語確率算出プログラム | |
US20240028898A1 (en) | Interpreting convolutional sequence model by learning local and resolution-controllable prototypes | |
WO2023030322A1 (en) | Methods, systems, and media for robust classification using active learning and domain knowledge | |
CN115699041A (zh) | 利用专家模型的可扩展迁移学习 | |
US11488007B2 (en) | Building of custom convolution filter for a neural network using an automated evolutionary process | |
US11914672B2 (en) | Method of neural architecture search using continuous action reinforcement learning | |
WO2022012347A1 (en) | Predictive models having decomposable hierarchical layers configured to generate interpretable results | |
US20220138425A1 (en) | Acronym definition network | |
Song et al. | A data-efficient reinforcement learning method based on local Koopman operators | |
US10867253B1 (en) | Distributable clustering model training system | |
Al-Shedivat et al. | Personalized survival prediction with contextual explanation networks | |
Hu et al. | Neural-PDE: a RNN based neural network for solving time dependent PDEs | |
JP4543687B2 (ja) | データ分析装置 | |
Zwanenburg | Feature selection methods | |
US20210304046A1 (en) | Information processing apparatus and method and program for identifying coadapted nodes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6713903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |