JP6926045B2 - ニューラルネットワーク、学習装置、学習方法、およびプログラム - Google Patents
ニューラルネットワーク、学習装置、学習方法、およびプログラム Download PDFInfo
- Publication number
- JP6926045B2 JP6926045B2 JP2018182611A JP2018182611A JP6926045B2 JP 6926045 B2 JP6926045 B2 JP 6926045B2 JP 2018182611 A JP2018182611 A JP 2018182611A JP 2018182611 A JP2018182611 A JP 2018182611A JP 6926045 B2 JP6926045 B2 JP 6926045B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- unit
- input
- nodes
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
図1は、本実施形態に係るニューラルネットワーク10の構成例を示す。ニューラルネットワーク10は、入力したデータをノード間に伝播させ、入力データに応じたデータを出力する。ニューラルネットワーク10は、ノード間の接続、重み係数、パラメータ、および活性化関数等の設定および学習等により、画像認識、文字認識、および音声認識等に利用される。ニューラルネットワーク10は、入力層20と、複数のノード30と、出力層40とを備える。
図2は、本実施形態に係る第1改変防止要素100の構成例を示す。第1改変防止要素100は、第1入力部110と、複数の第1隠れノード120と、第1出力部130とを有する。
(数1)
w1・w3+w2・w4=1
(数2)
w1・w3≧10, w2・w4≧10
図3は、本実施形態に係る第2改変防止要素200の構成例を示す。第2改変防止要素200は、図2に示す第1改変防止要素100において、より多くの第1入力ノード112、第1隠れノード120、および第1出力ノード132が設けられた例を示す。第2改変防止要素200は、ニューラルネットワーク10のノード間に設けられ、第2入力部210と、第2隠れノード220と、第2出力部230とを有する。
図4は、本実施形態に係る学習装置300の構成例を示す。学習装置300は、図3に示す第2改変防止要素200の重み係数を学習する。学習装置300は、取得部310と、記憶部320と、設定部330と、算出部340と、学習部350とを備える。
以上の学習装置300の学習動作について、次に説明する。図5は、本実施形態に係る学習装置300の動作フローの一例を示す。学習装置300は、図5のS410からS460の動作を実行することにより、第2改変防止要素200の重み係数の値を決定する。
20 入力層
22 入力ノード
30 ノード
40 出力層
42 出力ノード
50 データベース
60 ネットワーク
100 第1改変防止要素
110 第1入力部
112 第1入力ノード
120 第1隠れノード
130 第1出力部
132 第1出力ノード
200 第2改変防止要素
210 第2入力部
212 第2入力ノード
220 第2隠れノード
230 第2出力部
232 第2出力ノード
300 学習装置
310 取得部
320 記憶部
330 設定部
340 算出部
350 学習部
Claims (14)
- ニューラルネットワークであって、
前記ニューラルネットワークの1または複数のノード間に第1改変防止要素を備え、
前記第1改変防止要素は、
1または複数の第1入力ノードを有する第1入力部と、
1または複数の第1出力ノードを有する第1出力部と、
前記第1入力部および前記第1出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第1隠れノードと
を有し、
前記第1入力部が受け取る第1入力データと、前記第1入力データに応じて前記第1出力部が出力する第1出力データとが一致し、
前記第1入力部から前記第1出力部までデータを伝達する全ての経路のそれぞれは、当該経路に含まれるノード間の重み係数の積の絶対値が10以上である、
ニューラルネットワーク。 - 前記第1改変防止要素に含まれる重み係数のうち少なくとも1つの重み係数の絶対値は、0.3未満である、請求項1に記載のニューラルネットワーク。
- 前記ニューラルネットワークは、
当該ニューラルネットワークへの入力データを受け取る入力層と、
前記入力データに応じた出力データを出力する出力層と
を備え、
前記第1改変防止要素は、前記ニューラルネットワークの複数のノード間に設けられ、
前記ニューラルネットワークに含まれる複数のノードを、前記入力層に近い第1ノード群と、前記出力層に近い第2ノード群の2つに分割した場合に、前記第1ノード群に設けられた前記第1改変防止要素の数よりも、前記第2ノード群に設けられた前記第1改変防止要素の数の方が多い、請求項1または2に記載のニューラルネットワーク。 - 前記ニューラルネットワークの前記入力層から前記出力層に向けて、前記第1改変防止要素の密度が増加する、請求項3に記載のニューラルネットワーク。
- コンピュータが実行する請求項1から4のいずれか一項に記載のニューラルネットワークの学習方法であって、前記第1改変防止要素内の経路の重み係数は更新せずに、前記第1改変防止要素には含まれない重み係数を更新することにより、前記ニューラルネットワークを学習する、学習方法。
- ニューラルネットワークのノード間に設けられ、
1または複数の第2入力ノードを有する第2入力部と、
1または複数の第2出力ノードを有する第2出力部と、
前記第2入力部および前記第2出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第2隠れノードと
を有する第2改変防止要素を学習する学習装置であって、
予め定められた数の前記第2隠れノードの前記第2入力部および前記第2出力部のいずれか一方との重み係数の初期値である第1初期値と、前記第2改変防止要素の残りの重み係数の初期値である第2初期値とを設定する設定部と、
前記第2入力部が受け取る第2入力データを取得する取得部と、
前記第2改変防止要素が前記第2入力データに応じて前記第2出力部から出力する第2出力データを算出し、前記第2入力データおよび前記第2出力データの差分を誤差関数として算出する算出部と、
前記第1初期値を固定したまま、前記誤差関数を用いて前記第2初期値を更新して学習する学習部と、
を備え、
前記第1初期値の絶対値が10以上である、学習装置。 - 前記学習部は、当該第2改変防止要素を埋め込む前の前記ニューラルネットワークの学習において、当該第2改変防止要素を埋め込むノード間に伝達されるデータを用いて学習する、請求項6に記載の学習装置。
- 前記算出部は、前記予め定められた数の前記第2隠れノードの前記第2初期値に含まれる重み係数が閾値以上になると、前記第2初期値に含まれる重み係数に応じて値が大きくなる項を更に含めて前記誤差関数として算出する、請求項6または7に記載の学習装置。
- 前記算出部は、前記第2入力部から前記第2出力部までデータを伝達する全ての経路のそれぞれにおいて、当該経路に含まれるノード間の重み係数の積の絶対値が10未満になると、値が大きくなる項を更に含めて前記誤差関数として算出する、請求項6から8のいずれか一項に記載の学習装置。
- 前記第2改変防止要素は、ノード間に第1改変防止要素を更に有し、
前記第1改変防止要素は、
1または複数の第1入力ノードを有する第1入力部と、
1または複数の第1出力ノードを有する第1出力部と、
前記第1入力部および前記第1出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第1隠れノードと
を有し、
前記第1入力部が受け取る第1入力データと、前記第1入力データに応じて前記第1出力部が出力する第1出力データとが一致し、
前記第1入力部から前記第1出力部までデータを伝達する全ての経路のそれぞれは、当該経路に含まれるノード間の重み係数の積の絶対値が10以上であり、
前記学習部は、1または複数の前記第1改変防止要素の重み係数を更新せずに前記第2改変防止要素を学習する、請求項6から9のいずれか一項に記載の学習装置。 - ニューラルネットワークの複数のノード間に設けられ、
1または複数の第2入力ノードを有する第2入力部と、
1または複数の第2出力ノードを有する第2出力部と、
前記第2入力部および前記第2出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第2隠れノードと
を有する第2改変防止要素の学習装置であって、
予め定められた数の前記第2隠れノードの前記第2入力部および前記第2出力部のいずれか一方との重み係数の初期値である第1初期値と、前記第2改変防止要素の残りの重み係数の初期値である第2初期値とを設定する設定部と、
前記第2入力部が受け取る第2入力データを取得する取得部と、
前記第2改変防止要素が前記第2入力データに応じて前記第2出力部から出力する第2出力データを算出し、前記第2入力データおよび前記第2出力データの第1差分と、前記第1初期値と対応する重み係数の更新後の第2差分と、前記第2初期値と対応する重み係数の更新後の第3差分とを、誤差関数として算出する算出部と、
前記誤差関数を用いて前記第1初期値および前記第2初期値を更新して学習する学習部と
を備え、
前記第1初期値の絶対値が10以上であり、
前記算出部は、前記ニューラルネットワークの出力層により近い前記第2改変防止要素の前記第2差分および前記第3差分に乗じる係数を、より大きくして前記誤差関数として算出する、学習装置。 - ニューラルネットワークのノード間に設けられ、
1または複数の第2入力ノードを有する第2入力部と、
1または複数の第2出力ノードを有する第2出力部と、
前記第2入力部および前記第2出力部の間に設けられ、入力側および出力側の接続に重み係数が設定される複数の第2隠れノードと
を有する第2改変防止要素の学習方法であって、
予め定められた数の前記第2隠れノードの前記第2入力部および前記第2出力部のいずれか一方との重み係数の初期値である第1初期値と、前記第2改変防止要素の残りの重み係数の初期値である第2初期値とを設定するステップと、
前記第2入力部が受け取る第2入力データを取得するステップと、
前記第2改変防止要素が前記第2入力データに応じて前記第2出力部から出力する第2出力データを算出し、前記第2入力データおよび前記第2出力データの差分を誤差関数として算出するステップと、
前記第1初期値を固定したまま、前記誤差関数を用いて前記第2初期値を更新して学習するステップと
を備え、
前記第1初期値の絶対値が10以上である、学習方法。 - 請求項6から11のいずれか一項に記載の学習装置により学習した、学習済みの前記第2改変防止要素を1または複数のノード間に埋め込んだ、ニューラルネットワーク。
- 実行されると、コンピュータを請求項6から11のいずれか一項に記載の学習装置として機能させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182611A JP6926045B2 (ja) | 2018-09-27 | 2018-09-27 | ニューラルネットワーク、学習装置、学習方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018182611A JP6926045B2 (ja) | 2018-09-27 | 2018-09-27 | ニューラルネットワーク、学習装置、学習方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052814A JP2020052814A (ja) | 2020-04-02 |
JP6926045B2 true JP6926045B2 (ja) | 2021-08-25 |
Family
ID=69997298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018182611A Active JP6926045B2 (ja) | 2018-09-27 | 2018-09-27 | ニューラルネットワーク、学習装置、学習方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6926045B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6926279B1 (ja) * | 2020-05-29 | 2021-08-25 | 楽天グループ株式会社 | 学習装置、認識装置、学習方法、認識方法、プログラム、及び再帰型ニューラルネットワーク |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0383158A (ja) * | 1989-08-28 | 1991-04-09 | Toshiba Corp | ニューラルネット |
WO2016043734A1 (en) * | 2014-09-17 | 2016-03-24 | Hewlett Packard Enterprise Development Lp | Neural network verification |
CN110168576B (zh) * | 2017-01-12 | 2023-06-02 | 凯迪迪爱通信技术有限公司 | 信息处理设备、方法和计算机可读存储介质 |
-
2018
- 2018-09-27 JP JP2018182611A patent/JP6926045B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020052814A (ja) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11106978B2 (en) | Execution of a genetic algorithm with variable evolutionary weights of topological parameters for neural network generation and training | |
US20200210847A1 (en) | Ensembling of neural network models | |
US11100403B2 (en) | Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation | |
Levin et al. | Dynamic finite element model updating using neural networks | |
US20210365782A1 (en) | Method and apparatus for generating neural network model, and computer-readable storage medium | |
US20210287097A1 (en) | Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm | |
US7043462B2 (en) | Approximate fitness functions | |
CN112037012A (zh) | 一种基于pso-bp神经网络的互联网金融信用评价方法 | |
JP4790590B2 (ja) | 収束基準を利用する多目的最適化のためのモデルベースおよび遺伝ベースの子孫生成の組み合わせ | |
JP5624562B2 (ja) | ウェブサイト訪問者の評価値を計算するための方法及びシステム | |
CN105760649B (zh) | 一种面向大数据的可信度量方法 | |
US20210192524A1 (en) | Feature-Based Recurrent Neural Networks for Fraud Detection | |
JP6643905B2 (ja) | 機械学習方法および機械学習装置 | |
Andayani et al. | Optimization backpropagation algorithm based on Nguyen-Widrom adaptive weight and adaptive learning rate | |
Kinneer et al. | Information reuse and stochastic search: Managing uncertainty in self-* systems | |
JP6926045B2 (ja) | ニューラルネットワーク、学習装置、学習方法、およびプログラム | |
JP6953376B2 (ja) | ニューラルネットワーク、情報付加装置、学習方法、情報付加方法、およびプログラム | |
WO2020059136A1 (ja) | 決定リスト学習装置、決定リスト学習方法および決定リスト学習プログラム | |
CN113590912B (zh) | 融合节点相对位置和绝对度分布的跨社交网络对齐方法 | |
Wang et al. | A Modified MinMax k‐Means Algorithm Based on PSO | |
CN115470520A (zh) | 一种在垂直联邦框架下的差分隐私及去噪的数据保护方法 | |
JP7059458B2 (ja) | 生成的敵対神経網ベースの分類システム及び方法 | |
US11961003B2 (en) | Training a student neural network to mimic a mentor neural network with inputs that maximize student-to-mentor disagreement | |
KR20230033071A (ko) | Gru 기반 구조물 시계열 응답 예측 방법 | |
Schmidt et al. | Predicting solution rank to improve performance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6926045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |