JP6901163B2 - 重み符号固定学習装置 - Google Patents
重み符号固定学習装置 Download PDFInfo
- Publication number
- JP6901163B2 JP6901163B2 JP2019505784A JP2019505784A JP6901163B2 JP 6901163 B2 JP6901163 B2 JP 6901163B2 JP 2019505784 A JP2019505784 A JP 2019505784A JP 2019505784 A JP2019505784 A JP 2019505784A JP 6901163 B2 JP6901163 B2 JP 6901163B2
- Authority
- JP
- Japan
- Prior art keywords
- voltage line
- neuron
- positive
- negative
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims description 81
- 230000006870 function Effects 0.000 claims description 21
- 230000003925 brain function Effects 0.000 claims description 14
- 210000002569 neuron Anatomy 0.000 description 177
- 238000000034 method Methods 0.000 description 13
- 238000001994 activation Methods 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 239000010410 layer Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 210000000225 synapse Anatomy 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000000206 photolithography Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Description
初めに、本発明に係る第1実施形態について、図1乃至図3を用いて説明する。なお、図1は一つのニューロンをモデル化したユニットを示す図であり、図2は第1実施形態に係るニューラルネットワーク回路を示す図であり、図3は当該ニューラルネットワーク回路の一部等を示す図である。
先ず、上記脳機能をモデル化したニューラルネットワークについて、図1を用いて一般的に説明する。
次に、図1に例示するニューロンNRを複数備えた第1実施形態に係るニューラルネットワーク回路SSについて、図2を用いて説明する。このニューラルネットワーク回路SSが本発明に係る「学習装置」の一例に相当する。
次に、本願の発明者らの研究による、第1実施形態に係るニューラルネットワーク回路SSの構成による学習効果等について、以下に(a)乃至(c)として説明する。
(a)本願の発明者らは、第1実施形態に係るニューラルネットワーク回路SSの構成を用いて、入力側のニューロンNRを784個とし、出力側のニューロンNRを293個としたニューラルネットワーク回路SSを含む一層のオードエンコーダを製作し、手書き数字の認識に関する実験を行った。この結果、パターンオーバーラップ(即ち、上記オードエンコーダに学習させた数字パターンの復元率)が約91%(より具体的には91.4%(入力側のニューロンNRを784個とし、出力側のニューロンNRを293個とし、更に30パーセントの重み付け係数をパーセプトロン学習則でランダムに更新した場合の値))となり、例えば上記特許文献1に記載されている技術を用いた従来法(91.1%)と変わらない復元率が得られた。
(b)また本願の発明者らは、第1実施形態に係るニューラルネットワーク回路SSの構成を用いて二次元畳み込みオードエンコーダを製作し、同様の実験を行った。この結果、パターンオーバーラップが約97%(より具体的には97.0%(入力側のニューロンNR及び出力側のニューロンNRを共に784個とし、畳み込みストライドを1とし、更に30パーセントの重み付け係数をパーセプトロン学習則でランダムに更新した場合の値))となり、従来法(91.4%)を上回る復元率が得られた。
(c)本願の発明者らは更なる多層化の実験を行い、最終的に三層のバックプロパゲーションアルゴリズムを付加して同様の実験を行ったところ、いずれの総数でもパターンオーバーラップが約91%以上となり、十分な時間をかけて学習を行えば高機能化が期待できることを確認した。
次に、本発明に係る他の実施形態である第2実施形態について、図4を用いて説明する。なお、図4は第2実施形態に係るニューラルネットワーク回路を示す図である。また図4において、第1実施形態に係るニューラルネットワーク回路SSと同一の構成部材については、同一の部材番号を付して細部の説明を省略する。
SS、SS1 ニューラルネットワーク回路
I1、I2、In 入力データ
NR、NRi1、NRi2、NRi3、NRi4、NRo1、NRo2、NRo3 ニューロン
W1、W2、Wn 重み付け係数
O、O1、O2、O3 出力データ
NW ニューラルネットワーク
Li1+、Li2+、Li3+、Li4+、Lo1+、Lo2+、Lo3+ 正電圧線
Li1-、Li2-、Li3-、Li4-、Lo1-、Lo2-、Lo3- 負電圧線
Lo1、Lo2、Lo3 電圧線
CN11、CN12、CN13、CN21、CN22、CN23、CN31、CN32、CN33、CN41、CN42、CN43 接続部
R1、R2、R3、R4、R5、R6、R7、R8、R9、R10、R11、R12、R20、R21、R22、R23、R24、R25、R26、R27、R28、R29、R30、R31 抵抗素子
Claims (4)
- 脳機能に対応したアナログ型のニューラルネットワーク回路を備えた自己学習型の重み符号固定学習装置において、
前記ニューラルネットワーク回路は、
入力データに相当する入力信号がそれぞれ入力される複数(n個)の入力部と、
出力データに相当する出力信号がそれぞれ入力される複数(m個且つn=mの場合を含む)の出力部と、
一の前記入力部と一の前記出力部とをそれぞれ接続する(n×m)個の接続部と、
により構成されており、
前記自己学習の機能は、前記出力データを前記出力部から前記重み符号固定学習装置に再入力した結果として前記入力部から出力されるデータが元の前記入力データと一致するように学習させる機能であり、
(n×m)個の前記接続部は、前記脳機能としての正の重み付け係数に対応した抵抗値の抵抗素子である正重み付け抵抗素子により一の前記入力部と一の前記出力部が接続されており且つ当該脳機能としての負の重み付け係数に対応した抵抗値の抵抗素子である負重み付け抵抗素子を含まない前記接続部である正専用接続部と、前記負重み付け抵抗素子により一の前記入力部と一の前記出力部が接続されており且つ前記正重み付け抵抗素子を含まない前記接続部である負専用接続部と、により構成されていることを特徴とする重み符号固定学習装置。 - 請求項1に記載の重み符号固定学習装置において、
前記正専用接続部と前記負専用接続部とが同数であることを特徴とする重み符号固定学習装置。 - 請求項1又は2に記載の重み符号固定学習装置において、
前記正専用接続部及び前記負専用接続部が、(n×m)個の前記接続部において一様乱数的に分布していることを特徴とする重み符号固定学習装置。 - 請求項1又は請求項2に記載の重み符号固定学習装置において、
前記正専用接続部及び前記負専用接続部が、(n×m)個の前記接続部において規則的に分布していることを特徴とする重み符号固定学習装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017048421 | 2017-03-14 | ||
JP2017048421 | 2017-03-14 | ||
PCT/JP2018/004786 WO2018168293A1 (ja) | 2017-03-14 | 2018-02-13 | 重み符号固定学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018168293A1 JPWO2018168293A1 (ja) | 2020-05-14 |
JP6901163B2 true JP6901163B2 (ja) | 2021-07-14 |
Family
ID=63522926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505784A Active JP6901163B2 (ja) | 2017-03-14 | 2018-02-13 | 重み符号固定学習装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11625593B2 (ja) |
JP (1) | JP6901163B2 (ja) |
WO (1) | WO2018168293A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020126426A (ja) * | 2019-02-04 | 2020-08-20 | ソニー株式会社 | 演算装置、及び積和演算システム |
JP2020126427A (ja) | 2019-02-04 | 2020-08-20 | ソニー株式会社 | 演算装置、積和演算システム及び設定方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5160304B2 (ja) | 2008-05-22 | 2013-03-13 | シャープ株式会社 | 抵抗変化型可変抵抗素子を備えた積演算装置、及び積和演算装置、これらの装置を各ニューロン素子に備えるニューラルネットワーク、並びに積演算方法 |
US11836746B2 (en) * | 2014-12-02 | 2023-12-05 | Fair Isaac Corporation | Auto-encoder enhanced self-diagnostic components for model monitoring |
-
2018
- 2018-02-13 WO PCT/JP2018/004786 patent/WO2018168293A1/ja active Application Filing
- 2018-02-13 US US16/493,889 patent/US11625593B2/en active Active
- 2018-02-13 JP JP2019505784A patent/JP6901163B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11625593B2 (en) | 2023-04-11 |
WO2018168293A1 (ja) | 2018-09-20 |
US20200125940A1 (en) | 2020-04-23 |
JPWO2018168293A1 (ja) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9619749B2 (en) | Neural network and method of neural network training | |
Annema | Feed-forward neural networks: Vector decomposition analysis, Modelling and Analog Implementation | |
Xu et al. | Memristor-based neural network circuit with weighted sum simultaneous perturbation training and its applications | |
US4874963A (en) | Neuromorphic learning networks | |
US10074050B2 (en) | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit | |
CN111433792A (zh) | 可编程可重置人工神经网络的基于计数器的电阻处理单元 | |
WO2020099680A2 (en) | Resilient neural network | |
Linares-Barranco et al. | A CMOS analog adaptive BAM with on-chip learning and weight refreshing | |
US20210049448A1 (en) | Neural network and its information processing method, information processing system | |
Payvand et al. | On-chip error-triggered learning of multi-layer memristive spiking neural networks | |
JP6901163B2 (ja) | 重み符号固定学習装置 | |
Giulioni et al. | Real time unsupervised learning of visual stimuli in neuromorphic VLSI systems | |
Merrikh-Bayat et al. | The neuro-fuzzy computing system with the capacity of implementation on a memristor crossbar and optimization-free hardware training | |
EP3631800A1 (en) | Deep learning in bipartite memristive networks | |
Eberhardt et al. | Analog VLSI neural networks: Implementation issues and examples in optimization and supervised learning | |
CN107862380A (zh) | 人工神经网络运算电路 | |
JP7259253B2 (ja) | 人工ニューラルネットワーク回路 | |
Zilouchian | Fundamentals of neural networks | |
CN112734022B (zh) | 一种具有识别和排序功能的四字符忆阻神经网络电路 | |
Löhr et al. | Complex neuron dynamics on the IBM TrueNorth neurosynaptic system | |
Khalid et al. | Memristor crossbar-based pattern recognition circuit using perceptron learning rule | |
AU2021281628A1 (en) | Efficient tile mapping for row-by-row convolutional neural network mapping for analog artificial intelligence network inference | |
Horio | Towards a neuromorphic computing hardware system | |
Montesdeoca-Contreras et al. | Virtual speed sensor for DC motor using back-propagation artificial neural networks | |
Walker et al. | A neuromorphic approach to adaptive digital circuitry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20190913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210406 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210406 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6901163 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |