JP2019003547A - 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 - Google Patents
人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 Download PDFInfo
- Publication number
- JP2019003547A JP2019003547A JP2017119686A JP2017119686A JP2019003547A JP 2019003547 A JP2019003547 A JP 2019003547A JP 2017119686 A JP2017119686 A JP 2017119686A JP 2017119686 A JP2017119686 A JP 2017119686A JP 2019003547 A JP2019003547 A JP 2019003547A
- Authority
- JP
- Japan
- Prior art keywords
- voltage
- write
- memristor
- training
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 123
- 238000012549 training Methods 0.000 title claims abstract description 80
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 16
- 230000001537 neural effect Effects 0.000 claims 1
- 230000009467 reduction Effects 0.000 abstract description 4
- 238000002474 experimental method Methods 0.000 description 38
- 239000010410 layer Substances 0.000 description 26
- 230000008859 change Effects 0.000 description 23
- 210000002569 neuron Anatomy 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000000052 comparative effect Effects 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 210000000225 synapse Anatomy 0.000 description 5
- GWEVSGVZZGPLCZ-UHFFFAOYSA-N Titan oxide Chemical compound O=[Ti]=O GWEVSGVZZGPLCZ-UHFFFAOYSA-N 0.000 description 4
- 229910044991 metal oxide Inorganic materials 0.000 description 3
- 150000004706 metal oxides Chemical class 0.000 description 3
- 230000000946 synaptic effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000007120 differential activation Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 229910010413 TiO 2 Inorganic materials 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C11/00—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
- G11C11/54—Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C13/00—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
- G11C13/0002—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
- G11C13/0004—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements comprising amorphous/crystalline phase transition cells
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C13/00—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
- G11C13/0002—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
- G11C13/0021—Auxiliary circuits
- G11C13/0069—Writing or programming circuits or methods
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C2213/00—Indexing scheme relating to G11C13/00 for features not covered by this group
- G11C2213/70—Resistive array aspects
- G11C2213/77—Array wherein the memory element being directly connected to the bit lines and word lines without any access device being used
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Computer Hardware Design (AREA)
- Memory System (AREA)
- Read Only Memory (AREA)
- Semiconductor Memories (AREA)
Abstract
【解決手段】書込電圧VWRITEによりコンダクタンスを更新させる対象である選択メモリスタの一端及び他端が接続されている入力バー及び出力バーに印加する電圧V50、V51として、VTH+dV≦|V50−V51|=|VWRITE|≦2VTH−2dVを満たす電圧を設定すると共に、その他の入力バー及び出力バーに印加する電圧として、選択メモリスタ以外のメモリスタである各非選択メモリスタの両端にVTH−dVよりも小さい電圧差を生じさせる電圧を設定する印加電圧設定ステップS120,S130と、設定された電圧を、入力バー及び出力バーに印加する電圧印加ステップS140と、を含み、正のマージン電圧dVが書込電圧閾値バラツキに基づいて設定されている。
【選択図】図7
Description
複数の入力バー(50)と、
複数の入力バーと交差する複数の出力バー(51)と、
複数の入力バーと複数の出力バーとの各交点に設けられた可変コンダクタンス素子であるメモリスタ(53)と、を有するクロスバー回路(44)を備え、
各メモリスタは、書込電圧閾値(VTH SET、VTH RESET)以上の大きさを持つ電圧である書込電圧VWRITEが印加された場合にコンダクタンスが更新され、該書込電圧閾値よりも小さい電圧が印加された場合にはコンダクタンスが維持される特性を有すると共に、該書込電圧閾値の大きさが規定値VTHに対してバラツキを持つ人工NN回路(40)の訓練方法であって、
該訓練方法において訓練装置(61)が実施するステップとして、
メモリスタのうち、書込電圧VWRITEによりコンダクタンスを更新させる対象であるメモリスタを選択メモリスタとし、該選択メモリスタ以外のメモリスタを非選択メモリスタとすると、選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加する電圧V50、V51として、
VTH+dV≦|V50−V51|=|VWRITE|≦2(VTH−dV)
但し、dVは、正のマージン電圧
を満たす電圧を設定すると共に、
その他の入力バー及び出力バーそれぞれに印加する電圧として、各非選択メモリスタの両端にVTH−dVよりも小さい電圧差を生じさせる電圧を設定する印加電圧設定ステップ(S120,S130)と、
印加電圧設定ステップにて設定された電圧を、電圧印加装置(65)を用いて、複数の入力バー及び複数の出力バーに印加する電圧印加ステップ(S140)と、
を含み、
マージン電圧dVの大きさが、メモリスタの書込電圧閾値バラツキ(σ)に基づいて、設定されている
人工NN回路の訓練方法である。
メモリスタ53は、印加電圧によって、最小値GMINと最大値GMAXとの間で、異なるコンダクタンスに設定することが可能である。例えば、メモリスタ53のコンダクタンスは、電圧印加装置を用いて、負の書込電圧VSETを印加することにより増加させることができ、正の書込電圧VRESETを印加することにより減少させることができる。そして、メモリスタ53は、正負の書込電圧閾値VSET TH、VRESET TH以上の大きさの電圧が印加されない限り、設定されたコンダクタンスを維持する。このようなメモリスタ53として使用可能な素子としては、Pt/TiO2/Pt金属酸化物素子、相変化メモリ、磁気トンネル接合メモリ、などがある。本明細書では、負の書込電圧VSETと正の書込電圧VRESETを纏めて、書込電圧VWRITEと称することがある。また、正負の書込電圧閾値VSET TH、VRESET THを纏めて、書込電圧閾値と称することがある。
(数1)
加算器の出力電圧=RΣViGi
そして、加算器の出力電圧信号は、CMOS回路56内に構成される活性化関数処理回路(図示なし)に出力され、活性化関数fにより変換される。この変換された電圧信号が、CMOS回路56から出力される。
(数2)
差動演算増幅器54の出力電圧=RΣVi(G+i―G−i)
(G+i―G−i)は、正負の範囲[GMIN−GMAX;GMAX−GMIN]内の値となる。すなわち、ある入力信号に対して正の重みを掛け合わせる場合には、非反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスを、反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスよりも、設定しようとしている正の重み分だけ大きく設定すれば良い。逆に、ある入力信号に対して負の重みを掛け合わせる場合には、反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスを、非反転入力端子に接続された出力バー51と入力バー50との間に設けられたメモリスタ53のコンダクタンスよりも、設定しようとしている負の重み分だけ大きく設定すれば良い。このようにして、本実施形態のクロスバー回路44は、正負のシナプスの重みを具現化する。
(数3)
書込電圧最小値VWRITE MIN=VTH+dV
マージン電圧dV=Nσ、但しNは1以上の実数
この式は、書込電圧最小値が、規定値VTHに対してマージン電圧dVを加算したものに設定されることを示す。そして、マージン電圧dVは、書込電圧閾値の標準偏差σに対して、予め定められた1以上の実数であるNを乗算したものである。Nの値を予め定める方法は、後述する。本実施形態のコンダクタンスマップ64によって規定される書込電圧最大値は、以下の式で表される。
(数4)
書込電圧最大値VWRITE MAX=min(VIDEAL MAX、2(VTH―dV))
この式は、書込電圧最大値が、規定値VTHからマージン電圧dVを減算したものを2倍したもの、及び、印加許容電圧最大値VIDEAL MAX、のうち、小さい方であることを意味する。すなわち、書込電圧最大値は、高くとも、2(VTH―dV)である。この技術的意義は、後述する。
(数5)
書込電圧範囲=[Vth+dV;min(VIDEAL MAX、2(Vth―dV)]
このように、本実施形態のコンダクタンスマップ64では、設定可能な書込電圧範囲が、書込電圧閾値の標準偏差を考慮した分、特許文献1及び特許文献2のコンダクタンスマップと比べて、狭い。なお、図9及び図10に示される具体的数値は、使用するメモリスタ53に依存するデバイス依存値である。つまり、図9及び図10に示す具体的数値は、例示である。また、図9及び図10において、コンダクタンス変化量を示す横軸を、正規化された単位無し値(unitless value)としている。
(数6)
各バーへの印加電圧最大値V1/2=VTH−dV
(数7)
V1/2+V1/2≦VWRITE MAX
数式7は、任意の入力バーへの印加電圧と任意の出力バーへの印加電圧の和が、VWRITE MAXが以下であることを意味する。このような条件を満たす具体的な電圧設定方法として、例えば、V/2バイアス方法に基づく電圧設定がある。
Claims (12)
- 複数の入力バー(50)と、
前記複数の入力バーと交差する複数の出力バー(51)と、
前記複数の入力バーと前記複数の出力バーとの各交点に設けられた可変コンダクタンス素子であるメモリスタ(53)と、を有するクロスバー回路(44)を備え、
各メモリスタは、書込電圧閾値(VTH SET、VTH RESET)以上の大きさを持つ電圧である書込電圧VWRITEが印加された場合にコンダクタンスが更新され、該書込電圧閾値よりも小さい電圧が印加された場合にはコンダクタンスが維持される特性を有すると共に、該書込電圧閾値の大きさが規定値VTHに対してバラツキを持つ人工ニューラルネットワーク回路(40)の訓練方法であって、
該訓練方法において訓練装置(61)が実施するステップとして、
前記メモリスタのうち、前記書込電圧VWRITEによりコンダクタンスを更新させる対象であるメモリスタを選択メモリスタとし、該選択メモリスタ以外のメモリスタを非選択メモリスタとすると、前記選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加する電圧V50、V51として、
VTH+dV≦|V50−V51|=|VWRITE|≦2(VTH−dV)
但し、dVは、正のマージン電圧
を満たす電圧を設定すると共に、
その他の入力バー及び出力バーそれぞれに印加する電圧として、各非選択メモリスタの両端にVTH−dVよりも小さい電圧差を生じさせる電圧を設定する印加電圧設定ステップ(S120,S130)と、
前記印加電圧設定ステップにて設定された電圧を、電圧印加装置(65)を用いて、前記複数の入力バー及び前記複数の出力バーに印加する電圧印加ステップ(S140)と、
を含み、
前記マージン電圧の大きさが、前記メモリスタの書込電圧閾値バラツキ(σ)に基づいて、設定されている
人工ニューラルネットワーク回路の訓練方法。 - 前記メモリスタの書込電圧閾値バラツキを、前記規定値VTHを中心した書込電圧閾値の標準偏差σとし、Nを1以上の実数とすると、
前記マージン電圧は、dV≧Nσを満たす
請求項1に記載の人工ニューラルネットワーク回路の訓練方法。 - Nは、3以上の実数である
請求項2に記載の人工ニューラルネットワーク回路の訓練方法。 - 各Nの値について予め推定された訓練後における入力データ認識精度のN依存性と、予め定められた認識精度の許容範囲と、に基づいて、Nの値が設定されている
請求項2又は3に記載の人工ニューラルネットワーク回路の訓練方法。 - 前記認識精度のN依存性と、前記認識精度の許容範囲と、に基づいて、Nの値が、前記認識精度の許容範囲内最小値に対応する値に設定されている
請求項4に記載の人工ニューラルネットワーク回路の訓練方法。 - 前記電圧印加ステップでは、
前記選択メモリスタが接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加される電圧V50、V51として、
V50=VWRITE/2
V51=−VWRITE/2
VTH+dV≦|VWRITE|≦2(VTH−dV)
の関係を満たす電圧が印加されると共に、
その他の入力バー及び出力バーそれぞれに印加される電圧として、基準電圧としてのゼロ電圧が印加される、V/2バイアス方法によって電圧を印加する
請求項1ないし5何れか一項に記載の人工ニューラルネットワーク回路の訓練方法。 - 前記電圧印加ステップでは、
前記V/2バイアス方法に加えて、
前記選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加される電圧V50、V51として、
V50=VWRITE(2/3)
V51=−VWRITE(1/3)
VTH+dV≦|VWRITE|≦2(VTH−dV)
の関係を満たす電圧が印加されると共に、
前記選択メモリスタの一端が接続された入力バーを除く前記複数の入力バーそれぞれに印加される電圧として、前記基準電圧としてのゼロ電圧が印加され、前記選択メモリスタの他端が接続されている出力バーを除く前記複数の出力バーそれぞれに印加する電圧として、電圧VWRITE(1/3)が印加される、V/3バイアス方法、
及び、
前記選択メモリスタの一端が接続されている入力バー及び該選択メモリスタの他端が接続されている出力バーそれぞれに印加される電圧V50、V51として、
V50=VWRITE(1/2)
V51=−VWRITE(1/2)
VTH+dV≦|VWRITE|≦2(VTH−dV)
の関係を満たす電圧が印加されると共に、
前記選択メモリスタの一端が接続された入力バーを除く前記複数の入力バーそれぞれに印加される電圧として、電圧―VWRITE(1/4)が印加され、前記選択メモリスタの他端が接続された出力バーを除く前記複数の出力バーそれぞれに印加される電圧として、電圧+VWRITE(1/4)が印加される、V/4バイアス方法
を用いて電圧を印加可能であり、
前記印加電圧設定ステップにおいて、
前記V/2バイアス方法、V/3バイアス方法、及びV/4バイアス方法のうち、何れの電圧印加方法を前記電圧印加ステップにおいて用いるかを、各電圧印加方法について予め推定された訓練後における入力データ認識精度の電圧印加方法依存性と、予め定められた認識精度の許容範囲と、に基づいて、決定する
請求項6に記載の人工ニューラルネットワーク回路の訓練方法。 - 前記印加電圧設定ステップにおいて設定される、前記複数の入力バー及び前記複数の出力バーそれぞれへの印加電圧の大きさの最大値V1/2は、
V1/2=VTH−Nσ
であり、
前記メモリスタの許容印加電圧最大値をVIDEAL MAXとすると、前記印加電圧設定ステップにおいて設定される、前記選択メモリスタへの書込電圧最大値VMAXは、
VMAX=min(VIDEAL MAX、2(VTH−Nσ))
であり、任意の入力バーへの印加電圧と任意の出力バーへの印加電圧との和が
V1/2+V1/2≦VMAX
を満たす
請求項2ないし7何れか一項に記載の人工ニューラルネットワーク回路の訓練方法。 - 前記電圧印加装置の電圧印加精度を表す印加電圧誤差の大きさをαとすると、
前記マージン電圧は、dV=N(σ+α)である
請求項2ないし8何れか一項に記載の人工ニューラルネットワーク回路の訓練方法。 - 前記電圧印加ステップにおいて用いられる電圧印加装置は、少なくとも前記メモリスタの書込電圧閾値の標準偏差σに基づいて設定された印加電圧誤差αを持つものである
請求項9に記載の人工ニューラルネットワーク回路の訓練方法。 - 請求項1ないし10何れか一項に記載の印加電圧設定ステップ及び電圧印加ステップを、訓練装置(61)を構成するコンピュータに実施させるための、人工ニューラルネットワーク回路の訓練プログラム。
- 請求項1ないし10何れか一項に記載の印加電圧設定ステップ及び電圧印加ステップを実施する
人工ニューラルネットワーク回路の訓練装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119686A JP6724870B2 (ja) | 2017-06-19 | 2017-06-19 | 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 |
PCT/JP2018/018299 WO2018235449A1 (ja) | 2017-06-19 | 2018-05-11 | 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 |
US16/710,267 US11537897B2 (en) | 2017-06-19 | 2019-12-11 | Artificial neural network circuit training method, training program, and training device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017119686A JP6724870B2 (ja) | 2017-06-19 | 2017-06-19 | 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003547A true JP2019003547A (ja) | 2019-01-10 |
JP6724870B2 JP6724870B2 (ja) | 2020-07-15 |
Family
ID=64735711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017119686A Active JP6724870B2 (ja) | 2017-06-19 | 2017-06-19 | 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11537897B2 (ja) |
JP (1) | JP6724870B2 (ja) |
WO (1) | WO2018235449A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020196586A1 (ja) * | 2019-03-25 | 2020-10-01 | 株式会社エヌエスアイテクス | ニューラルネットワークの演算装置 |
JP2022539751A (ja) * | 2019-07-03 | 2022-09-13 | マイクロン テクノロジー,インク. | ニューラルネットワークメモリ |
JP2023041581A (ja) * | 2021-09-12 | 2023-03-24 | 浙江大学 | メモリスタ誤差に対するメモリスタメモリニューラルネットワークトレーニング方法 |
JP7548598B2 (ja) | 2019-11-01 | 2024-09-10 | 清華大学 | メモリスタに基づくニューラルネットワークのトレーニング方法及びそのトレーニング装置 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6724869B2 (ja) | 2017-06-19 | 2020-07-15 | 株式会社デンソー | 多層ニューラルネットワークのニューロンの出力レベル調整方法 |
US11195089B2 (en) * | 2018-06-28 | 2021-12-07 | International Business Machines Corporation | Multi-terminal cross-point synaptic device using nanocrystal dot structures |
WO2020141597A1 (ja) * | 2019-01-04 | 2020-07-09 | 学校法人慶應義塾 | 機械学習デバイス、及びその制御方法 |
JP2020126426A (ja) * | 2019-02-04 | 2020-08-20 | ソニー株式会社 | 演算装置、及び積和演算システム |
JP2020126427A (ja) * | 2019-02-04 | 2020-08-20 | ソニー株式会社 | 演算装置、積和演算システム及び設定方法 |
US20200387789A1 (en) * | 2019-06-06 | 2020-12-10 | Riskfuel Analytics Inc. | Neural network training |
CN110443168A (zh) * | 2019-07-23 | 2019-11-12 | 华中科技大学 | 一种基于忆阻器的神经网络人脸识别系统 |
KR102398449B1 (ko) * | 2019-11-21 | 2022-05-16 | 서울시립대학교 산학협력단 | 뉴런 회로 및 이의 제어 방법 |
JP2022125660A (ja) | 2021-02-17 | 2022-08-29 | キオクシア株式会社 | 記憶装置及び記憶方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8463723B2 (en) | 2009-03-01 | 2013-06-11 | International Business Machines Corporation | Electronic synapse |
US8447714B2 (en) | 2009-05-21 | 2013-05-21 | International Business Machines Corporation | System for electronic learning synapse with spike-timing dependent plasticity using phase change memory |
US8250010B2 (en) | 2009-05-21 | 2012-08-21 | International Business Machines Corporation | Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements |
US8527438B2 (en) | 2009-12-22 | 2013-09-03 | International Business Machines Corporation | Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array |
US8433665B2 (en) | 2010-07-07 | 2013-04-30 | Qualcomm Incorporated | Methods and systems for three-memristor synapse with STDP and dopamine signaling |
US9092736B2 (en) | 2010-07-07 | 2015-07-28 | Qualcomm Incorporated | Communication and synapse training method and hardware for biologically inspired networks |
US8694452B2 (en) | 2010-07-07 | 2014-04-08 | Qualcomm Incorporated | Methods and systems for CMOS implementation of neuron synapse |
US8655813B2 (en) | 2010-12-30 | 2014-02-18 | International Business Machines Corporation | Synaptic weight normalized spiking neuronal networks |
FR2977350B1 (fr) * | 2011-06-30 | 2013-07-19 | Commissariat Energie Atomique | Reseau de neurones artificiels a base de dispositifs memristifs complementaires |
US8832009B2 (en) | 2012-05-15 | 2014-09-09 | The United States Of America As Represented By The Secretary Of The Air Force | Electronic charge sharing CMOS-memristor neural circuit |
US10109348B2 (en) | 2014-10-30 | 2018-10-23 | Hewlett Packard Enterprise Development Lp | Double bias memristive dot product engine for vector processing |
US9934463B2 (en) | 2015-05-15 | 2018-04-03 | Arizona Board Of Regents On Behalf Of Arizona State University | Neuromorphic computational system(s) using resistive synaptic devices |
US10332004B2 (en) | 2015-07-13 | 2019-06-25 | Denso Corporation | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit |
US10074050B2 (en) | 2015-07-13 | 2018-09-11 | Denso Corporation | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit |
JP6481667B2 (ja) | 2016-07-20 | 2019-03-13 | 株式会社デンソー | ニューラルネットワーク回路 |
US9646243B1 (en) * | 2016-09-12 | 2017-05-09 | International Business Machines Corporation | Convolutional neural networks using resistive processing unit array |
JP6724863B2 (ja) | 2017-05-29 | 2020-07-15 | 株式会社デンソー | 畳み込みニューラルネットワーク |
JP6724869B2 (ja) | 2017-06-19 | 2020-07-15 | 株式会社デンソー | 多層ニューラルネットワークのニューロンの出力レベル調整方法 |
JP6805984B2 (ja) | 2017-07-06 | 2020-12-23 | 株式会社デンソー | 畳み込みニューラルネットワーク |
-
2017
- 2017-06-19 JP JP2017119686A patent/JP6724870B2/ja active Active
-
2018
- 2018-05-11 WO PCT/JP2018/018299 patent/WO2018235449A1/ja active Application Filing
-
2019
- 2019-12-11 US US16/710,267 patent/US11537897B2/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020196586A1 (ja) * | 2019-03-25 | 2020-10-01 | 株式会社エヌエスアイテクス | ニューラルネットワークの演算装置 |
JP2020160564A (ja) * | 2019-03-25 | 2020-10-01 | 株式会社エヌエスアイテクス | ニューラルネットワークの演算装置 |
JP7316073B2 (ja) | 2019-03-25 | 2023-07-27 | 株式会社エヌエスアイテクス | ニューラルネットワークの演算装置 |
JP2022539751A (ja) * | 2019-07-03 | 2022-09-13 | マイクロン テクノロジー,インク. | ニューラルネットワークメモリ |
JP7548598B2 (ja) | 2019-11-01 | 2024-09-10 | 清華大学 | メモリスタに基づくニューラルネットワークのトレーニング方法及びそのトレーニング装置 |
JP2023041581A (ja) * | 2021-09-12 | 2023-03-24 | 浙江大学 | メモリスタ誤差に対するメモリスタメモリニューラルネットワークトレーニング方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2018235449A1 (ja) | 2018-12-27 |
US20200111008A1 (en) | 2020-04-09 |
JP6724870B2 (ja) | 2020-07-15 |
US11537897B2 (en) | 2022-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724870B2 (ja) | 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置 | |
JP6724869B2 (ja) | 多層ニューラルネットワークのニューロンの出力レベル調整方法 | |
US20180121802A1 (en) | Method of converting neural network and recognition apparatus using the same | |
EP3136304A1 (en) | Methods and systems for performing reinforcement learning in hierarchical and temporally extended environments | |
US20170017879A1 (en) | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit | |
EP3287957A1 (en) | Methods and systems for implementing dynamic neural networks | |
EP3593291B1 (en) | Making object-level predictions of the future state of a physical system | |
WO2017010048A1 (en) | Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit | |
JP7196803B2 (ja) | 人工ニューラルネットワーク回路及び人工ニューラルネットワーク回路における学習値切替方法 | |
KR20180089769A (ko) | 행동 결정 장치 및 방법, 컴퓨터 판독 가능한 저장 매체 | |
JP7383528B2 (ja) | スパイキングニューラルネットワーク装置およびスパイキングニューラルネットワーク装置の学習方法 | |
JP6881693B2 (ja) | ニューロモーフィック回路、ニューロモーフィックアレイの学習方法およびプログラム | |
JP2020057278A (ja) | 人工ニューラルネットワーク回路 | |
CN114626500A (zh) | 一种神经网络计算方法及相关设备 | |
CN117273109A (zh) | 基于量子神经元的混合神经网络的构建方法及装置 | |
CN116863295A (zh) | 感算一体目标高精度检测识别系统及方法 | |
EP1837807A1 (en) | Pattern recognition method | |
EP3782083A1 (en) | A neuronal network topology for computing conditional probabilities | |
CN113269313B (zh) | 突触权重训练方法、电子设备和计算机可读介质 | |
CN115796252A (zh) | 权重写入方法及装置、电子设备和存储介质 | |
CN111582461B (zh) | 神经网络训练方法、装置、终端设备和可读存储介质 | |
CN111582462B (zh) | 权值原位更新方法、装置、终端设备和可读存储介质 | |
US11443171B2 (en) | Pulse generation for updating crossbar arrays | |
US10740673B2 (en) | Scalable refresh for asymmetric non-volatile memory-based neuromorphic circuits | |
JP7148445B2 (ja) | 情報推定装置及び情報推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200608 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6724870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |