JP2020052814A - ニューラルネットワーク、学習装置、学習方法、およびプログラム - Google Patents
ニューラルネットワーク、学習装置、学習方法、およびプログラム Download PDFInfo
- Publication number
- JP2020052814A JP2020052814A JP2018182611A JP2018182611A JP2020052814A JP 2020052814 A JP2020052814 A JP 2020052814A JP 2018182611 A JP2018182611 A JP 2018182611A JP 2018182611 A JP2018182611 A JP 2018182611A JP 2020052814 A JP2020052814 A JP 2020052814A
- Authority
- JP
- Japan
- Prior art keywords
- output
- input
- unit
- nodes
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
図1は、本実施形態に係るニューラルネットワーク10の構成例を示す。ニューラルネットワーク10は、入力したデータをノード間に伝播させ、入力データに応じたデータを出力する。ニューラルネットワーク10は、ノード間の接続、重み係数、パラメータ、および活性化関数等の設定および学習等により、画像認識、文字認識、および音声認識等に利用される。ニューラルネットワーク10は、入力層20と、複数のノード30と、出力層40とを備える。
図2は、本実施形態に係る第1改変防止要素100の構成例を示す。第1改変防止要素100は、第1入力部110と、複数の第1隠れノード120と、第1出力部130とを有する。
(数1)
w1・w3+w2・w4=1
(数2)
w1・w3≧10, w2・w4≧10
図3は、本実施形態に係る第2改変防止要素200の構成例を示す。第2改変防止要素200は、図2に示す第1改変防止要素100において、より多くの第1入力ノード112、第1隠れノード120、および第1出力ノード132が設けられた例を示す。第2改変防止要素200は、ニューラルネットワーク10のノード間に設けられ、第2入力部210と、第2隠れノード220と、第2出力部230とを有する。
図4は、本実施形態に係る学習装置300の構成例を示す。学習装置300は、図3に示す第2改変防止要素200の重み係数を学習する。学習装置300は、取得部310と、記憶部320と、設定部330と、算出部340と、学習部350とを備える。
以上の学習装置300の学習動作について、次に説明する。図5は、本実施形態に係る学習装置300の動作フローの一例を示す。学習装置300は、図5のS410からS460の動作を実行することにより、第2改変防止要素200の重み係数の値を決定する。
20 入力層
22 入力ノード
30 ノード
40 出力層
42 出力ノード
50 データベース
60 ネットワーク
100 第1改変防止要素
110 第1入力部
112 第1入力ノード
120 第1隠れノード
130 第1出力部
132 第1出力ノード
200 第2改変防止要素
210 第2入力部
212 第2入力ノード
220 第2隠れノード
230 第2出力部
232 第2出力ノード
300 学習装置
310 取得部
320 記憶部
330 設定部
340 算出部
350 学習部
Claims (14)
- ニューラルネットワークであって、
前記ニューラルネットワークの1または複数のノード間に第1改変防止要素を備え、
前記第1改変防止要素は、
1または複数の第1入力ノードを有する第1入力部と、
1または複数の第1出力ノードを有する第1出力部と、
前記第1入力部および前記第1出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第1隠れノードと
を有し、
前記第1入力部が受け取る第1入力データと、前記第1入力データに応じて前記第1出力部が出力する第1出力データとが一致し、
前記第1入力部から前記第1出力部までデータを伝達する全ての経路のそれぞれは、当該経路に含まれるノード間の重み係数の積の絶対値が10以上である、
ニューラルネットワーク。 - 前記第1改変防止要素に含まれる重み係数のうち少なくとも1つの重み係数の絶対値は、0.3未満である、請求項1に記載のニューラルネットワーク。
- 前記ニューラルネットワークは、
当該ニューラルネットワークへの入力データを受け取る入力層と、
前記入力データに応じた出力データを出力する出力層と
を備え、
前記第1改変防止要素は、前記ニューラルネットワークの複数のノード間に設けられ、
前記ニューラルネットワークに含まれる複数のノードを、前記入力層に近い第1ノード群と、前記出力層に近い第2ノード群の2つに分割した場合に、前記第1ノード群に設けられた前記第1改変防止要素の数よりも、前記第2ノード群に設けられた前記第1改変防止要素の数の方が多い、請求項1または2に記載のニューラルネットワーク。 - 前記ニューラルネットワークの前記入力層から前記出力層に向けて、前記第1改変防止要素の密度が増加する、請求項3に記載のニューラルネットワーク。
- コンピュータが実行する請求項1から4のいずれか一項に記載のニューラルネットワークの学習方法であって、前記第1改変防止要素内の経路の重み係数は更新せずに、前記第1改変防止要素には含まれない重み係数を更新することにより、前記ニューラルネットワークを学習する、学習方法。
- ニューラルネットワークのノード間に設けられ、
1または複数の第2入力ノードを有する第2入力部と、
1または複数の第2出力ノードを有する第2出力部と、
前記第2入力部および前記第2出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第2隠れノードと
を有する第2改変防止要素を学習する学習装置であって、
予め定められた数の前記第2隠れノードの前記第2入力部および前記第2出力部のいずれか一方との重み係数の初期値である第1初期値と、前記第2改変防止要素の残りの重み係数の初期値である第2初期値とを設定する設定部と、
前記第2入力部が受け取る第2入力データを取得する取得部と、
前記第2改変防止要素が前記第2入力データに応じて前記第2出力部から出力する第2出力データを算出し、前記第2入力データおよび前記第2出力データの差分を誤差関数として算出する算出部と、
前記第1初期値を固定したまま、前記誤差関数を用いて前記第2初期値を更新して学習する学習部と、
を備え、
前記第1初期値の絶対値が10以上である、学習装置。 - 前記学習部は、当該第2改変防止要素を埋め込む前の前記ニューラルネットワークの学習において、当該第2改変防止要素を埋め込むノード間に伝達されるデータを用いて学習する、請求項6に記載の学習装置。
- 前記算出部は、前記予め定められた数の前記第2隠れノードの前記第2初期値に含まれる重み係数が閾値以上になると、前記第2初期値に含まれる重み係数に応じて値が大きくなる項を更に含めて前記誤差関数として算出する、請求項6または7に記載の学習装置。
- 前記算出部は、前記第2入力部から前記第2出力部までデータを伝達する全ての経路のそれぞれにおいて、当該経路に含まれるノード間の重み係数の積の絶対値が10未満になると、値が大きくなる項を更に含めて前記誤差関数として算出する、請求項6から8のいずれか一項に記載の学習装置。
- 前記第2改変防止要素は、ノード間に第1改変防止要素を更に有し、
前記第1改変防止要素は、
1または複数の第1入力ノードを有する第1入力部と、
1または複数の第1出力ノードを有する第1出力部と、
前記第1入力部および前記第1出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第1隠れノードと
を有し、
前記第1入力部が受け取る第1入力データと、前記第1入力データに応じて前記第1出力部が出力する第1出力データとが一致し、
前記第1入力部から前記第1出力部までデータを伝達する全ての経路のそれぞれは、当該経路に含まれるノード間の重み係数の積の絶対値が10以上であり、
前記学習部は、1または複数の前記第1改変防止要素の重み係数を更新せずに前記第2改変防止要素を学習する、請求項6から9のいずれか一項に記載の学習装置。 - ニューラルネットワークの複数のノード間に設けられ、
1または複数の第2入力ノードを有する第2入力部と、
1または複数の第2出力ノードを有する第2出力部と、
前記第2入力部および前記第2出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第2隠れノードと
を有する第2改変防止要素の学習装置であって、
予め定められた数の前記第2隠れノードの前記第2入力部および前記第2出力部のいずれか一方との重み係数の初期値である第1初期値と、前記第2改変防止要素の残りの重み係数の初期値である第2初期値とを設定する設定部と、
前記第2入力部が受け取る第2入力データを取得する取得部と、
前記第2改変防止要素が前記第2入力データに応じて前記第2出力部から出力する第2出力データを算出し、前記第2入力データおよび前記第2出力データの第1差分と、前記第1初期値と対応する重み係数の更新後の第2差分と、前記第2初期値と対応する重み係数の更新後の第3差分とを、誤差関数として算出する算出部と、
前記誤差関数を用いて前記第1初期値および前記第2初期値を更新して学習する学習部と
を備え、
前記第1初期値の絶対値が10以上であり、
前記算出部は、前記ニューラルネットワークの出力層により近い前記第2改変防止要素の前記第2差分および前記第3差分に乗じる係数を、より大きくして前記誤差関数として算出する、学習装置。 - ニューラルネットワークのノード間に設けられ、
1または複数の第2入力ノードを有する第2入力部と、
1または複数の第2出力ノードを有する第2出力部と、
前記第2入力部および前記第2出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第2隠れノードと
を有する第2改変防止要素の学習方法であって、
予め定められた数の前記第2隠れノードの前記第2入力部および前記第2出力部のいずれか一方との重み係数の初期値である第1初期値と、前記第2改変防止要素の残りの重み係数の初期値である第2初期値とを設定するステップと、
前記第2入力部が受け取る第2入力データを取得するステップと、
前記第2改変防止要素が前記第2入力データに応じて前記第2出力部から出力する第2出力データを算出し、前記第2入力データおよび前記第2出力データの差分を誤差関数として算出するステップと、
前記第1初期値を固定したまま、前記誤差関数を用いて前記第2初期値を更新して学習するステップと
を備え、
前記第1初期値の絶対値が10以上である、学習方法。 - 請求項6から11のいずれか一項に記載の学習装置により学習した、学習済みの前記第2改変防止要素を1または複数のノード間に埋め込んだ、ニューラルネットワーク。
- 実行されると、コンピュータを請求項6から11のいずれか一項に記載の学習装置として機能させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182611A JP6926045B2 (ja) | 2018-09-27 | 2018-09-27 | ニューラルネットワーク、学習装置、学習方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182611A JP6926045B2 (ja) | 2018-09-27 | 2018-09-27 | ニューラルネットワーク、学習装置、学習方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052814A true JP2020052814A (ja) | 2020-04-02 |
JP6926045B2 JP6926045B2 (ja) | 2021-08-25 |
Family
ID=69997298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018182611A Active JP6926045B2 (ja) | 2018-09-27 | 2018-09-27 | ニューラルネットワーク、学習装置、学習方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6926045B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021189792A (ja) * | 2020-05-29 | 2021-12-13 | 楽天グループ株式会社 | 学習装置、認識装置、学習方法、認識方法、プログラム、及び再帰型ニューラルネットワーク |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0383158A (ja) * | 1989-08-28 | 1991-04-09 | Toshiba Corp | ニューラルネット |
US20170206449A1 (en) * | 2014-09-17 | 2017-07-20 | Hewlett Packard Enterprise Development Lp | Neural network verification |
WO2018131405A1 (ja) * | 2017-01-12 | 2018-07-19 | Kddi株式会社 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
-
2018
- 2018-09-27 JP JP2018182611A patent/JP6926045B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0383158A (ja) * | 1989-08-28 | 1991-04-09 | Toshiba Corp | ニューラルネット |
US20170206449A1 (en) * | 2014-09-17 | 2017-07-20 | Hewlett Packard Enterprise Development Lp | Neural network verification |
WO2018131405A1 (ja) * | 2017-01-12 | 2018-07-19 | Kddi株式会社 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021189792A (ja) * | 2020-05-29 | 2021-12-13 | 楽天グループ株式会社 | 学習装置、認識装置、学習方法、認識方法、プログラム、及び再帰型ニューラルネットワーク |
Also Published As
Publication number | Publication date |
---|---|
JP6926045B2 (ja) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190080240A1 (en) | Execution of a genetic algorithm with variable evolutionary weights of topological parameters for neural network generation and training | |
JP5624562B2 (ja) | ウェブサイト訪問者の評価値を計算するための方法及びシステム | |
Guan et al. | Direct and indirect reinforcement learning | |
Lahkar et al. | The logit dynamic for games with continuous strategy sets | |
JP4790590B2 (ja) | 収束基準を利用する多目的最適化のためのモデルベースおよび遺伝ベースの子孫生成の組み合わせ | |
Dai et al. | An improved radial basis function network for structural reliability analysis | |
US20210192524A1 (en) | Feature-Based Recurrent Neural Networks for Fraud Detection | |
JP2018173843A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Chen et al. | Ensemble network architecture for deep reinforcement learning | |
CN111475838A (zh) | 基于深度神经网络的图数据匿名方法、装置、存储介质 | |
CN112580728A (zh) | 一种基于强化学习的动态链路预测模型鲁棒性增强方法 | |
JPWO2019138584A1 (ja) | 分類木生成方法、分類木生成装置および分類木生成プログラム | |
JP6926045B2 (ja) | ニューラルネットワーク、学習装置、学習方法、およびプログラム | |
Zhai et al. | State of the art on adversarial attacks and defenses in graphs | |
Tembine | Mean field stochastic games: Convergence, Q/H-learning and optimality | |
Bastian et al. | A simplified natural gradient learning algorithm | |
Garton et al. | Knot selection in sparse Gaussian processes with a variational objective function | |
Wang et al. | A Modified MinMax k‐Means Algorithm Based on PSO | |
JP2020052813A (ja) | ニューラルネットワーク、情報付加装置、学習方法、情報付加方法、およびプログラム | |
Fu et al. | QuantumLeak: Stealing Quantum Neural Networks from Cloud-based NISQ Machines | |
Landa-Becerra et al. | Knowledge incorporation in multi-objective evolutionary algorithms | |
Zhu et al. | A hybrid model for nonlinear regression with missing data using quasilinear kernel | |
Sirin et al. | Batch Mode TD ($\lambda $) for Controlling Partially Observable Gene Regulatory Networks | |
Xu et al. | Reliability prediction for service oriented system via matrix factorization in a collaborative way | |
TW202319941A (zh) | 機器學習系統及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6926045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |