JP2018521400A - メモリスタ神経形態学的回路及びメモリスタ神経形態学的回路をトレーニングするための方法 - Google Patents

メモリスタ神経形態学的回路及びメモリスタ神経形態学的回路をトレーニングするための方法 Download PDF

Info

Publication number
JP2018521400A
JP2018521400A JP2017563139A JP2017563139A JP2018521400A JP 2018521400 A JP2018521400 A JP 2018521400A JP 2017563139 A JP2017563139 A JP 2017563139A JP 2017563139 A JP2017563139 A JP 2017563139A JP 2018521400 A JP2018521400 A JP 2018521400A
Authority
JP
Japan
Prior art keywords
memristor
voltage
training
circuit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017563139A
Other languages
English (en)
Other versions
JP6477924B2 (ja
Inventor
イリナ カタエヴァ
イリナ カタエヴァ
ディミートリー ビー ストリューコブ
ディミートリー ビー ストリューコブ
ファーヌード メライク‐ベーアット
ファーヌード メライク‐ベーアット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of California
Original Assignee
University of California
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of California filed Critical University of California
Publication of JP2018521400A publication Critical patent/JP2018521400A/ja
Application granted granted Critical
Publication of JP6477924B2 publication Critical patent/JP6477924B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0721Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment within a central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/079Root cause analysis, i.e. error or fault diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Neurology (AREA)
  • Logic Circuits (AREA)
  • Semiconductor Memories (AREA)

Abstract

ニューラルネットワーク(10)は、ニューロン回路(112、114)と、ニューロン回路(112、114)に接続されたメモリスタ素子(113)とを含むメモリスタ神経形態学的回路として実現される。入力電圧が、ニューラルネットワーク(10)のフィードフォワード動作中に、メモリスタ素子(113)の第1の端子で検出される。誤差電圧は、ニューラルネットワーク(10)の誤差逆伝播動作中に、メモリスタ素子(113)の第2の端子で検出される。トレーニングルールに従って、メモリスタ素子の(113)の望ましいコンダクタンス変化が、検出された入力電圧及び検出された誤差電圧に基づいて計算される。次いで、トレーニング電圧がメモリスタ素子(113)に印加される。ここで、トレーニング電圧は、望ましいコンダクタンス変化の対数値に比例する。

Description

関連出願の相互参照
本出願は、2015年7月13日に出願された米国特許出願番号14/797284に基づくものであり、その内容は、ここに参照によって援用される。
本開示は、ニューラルネットワークを実装するメモリスタ神経形態学的回路、及びメモリスタ神経形態学的回路をトレーニングする方法に関する。
人工ニューラルネットワークは、生物学的神経処理のモデルとして人工知能の分野で長く使用されてきた。従来、ニューラルネットワークは、中央処理装置(CPUs)や画像処理装置(GPUs)など、伝統的なフォンノイマンアーキテクチャのコンピューティングハードウエアと結合されたソフトウエアに実装されてきた。そのような実装は、膨大な量の記憶領域と電力を必要とする。
従って、より効率的で専用のハードウエア技術の使用に向けての動きが、長年にわたって迫られている。近年では、メモリスタとも呼ばれる、統合されたメモリスタ素子を備えたハイブリッド相補型金属酸化膜半導体(CMOS)回路が、1つの選択肢として浮上している(非特許文献1)。メモリスタ素子は、アナログの形態でシナプス重みをモデル化することができる抵抗スイッチング特性のため、ニューラルネットワークにおけるシナプス重みを実装するのに非常に適している。しかしながら、統合されたメモリスタ素子を備えるニューラルネットワークは、典型的なメモリスタ素子に存在する非線形動特性(非特許文献2)の観点において、ニューラルネットワークのトレーニングに新たな課題をもたらす。
1つのアプローチは、シミュレートされたニューラルネットワークがソフトウエアでトレーニングされるex−suitトレーニングを実施することであり、その後、重みは、CMOS−メモリスタハードウエアに導入される(非特許文献3)。しかしながら、このアプローチは、オンライントレーニングが実行されないので、ハードウエアのばらつきを十分に考慮していない可能性がある点で懸念がある。その結果、ハードウエアニューラルネットワークはソフトウエアシミュレーションに対してアンダーパフォームする懸念がある。
逆に、CMOS−メモリスタハードウエアのin−suitトレーニングを実行する1つのアプローチは、メモリスタ素子の非線形動特性を考慮するために、閉ループのチューニング制御の実行を含む(非特許文献3,4)。この場合、in−suitトレーニングアプローチは、より複雑な多層のニューラルネットワークに対して、あるいはより複雑なトレーニングアルゴリズム(例えば、逆伝播法、非特許文献5参照)であると、実行できない可能性があることが懸念される。これは、閉ループのチューニング制御プロセスが時間がかかるものであり、フィードバック回路が複雑になるためである。その結果、このアプローチでは実用的な速度で調整できない可能性があることが懸念される。
上記の理由のために、CMOS−メモリスタハードウエアの最近のin−situトレーニングは、主に、学習のため、スパイクタイミング依存可塑性(STDP)またはデルタルール(非特許文献3)に焦点を当てている。しかしながら、逆伝搬は、多層ニューラルネットワークの基本的なトレーニングアルゴリズムと広く考えられている(非特許文献5)ので、それらのトレーニングルールは、より要求の厳しいアプリケーション(例えば、自動車または航空宇宙)に対する堅牢な解決策を提供できない可能性がある。
K. K. Likharev, CrossNets: Neuromorphic hybrid CMOS/nanoelectronic networks, Sci. Adv. Mater., vol. 3, pp. 322-331, Jun. 2011. F. Merrikh-Bayat et al. A phenomenological model of memristive behavior in Pt/TiO2-x/Pt devices, accepted to Applied Physics A, 2014. F. Alibart et al., Pattern classification by memristive crossbar circuits using ex-situ and in-situ training, Nature Comm., vol. 4, art. 2071, 2013. F. Alibart et. al., High precision tuning of state for memristive devices by adaptable variation-tolerant algorithm, Nanotechnology, vol. 23, p. 075201, 2012. Y. LeCun et. al., Efficient backprop, in Neural Networks: Tricks of the trade (G. Orr and M. K., eds.), Springer, 1998.
本開示の第1の態様において、メモリスタ神経形態学的回路をトレーニングするための方法が提供される。その方法は、ニューラルネットワークのフィードフォワード動作中に、メモリスタ素子の第1端子の入力電圧を検出することを含み、ニューラルネットワークは、メモリスタ素子と、そのメモリスタ素子に接続されたニューロン回路とを含む。その方法は、さらに、ニューラルネットワークの誤差逆伝搬動作中に、メモリスタ素子の第2端子の誤差電圧を検出することを含む。その方法は、さらに、トレーニングルールに従い、検出された入力電圧と検出された誤差電圧とに基づき、メモリスタ素子の望ましいコンダクタンス変化を計算することを含む。そして、その方法は、さらに、メモリスタ素子にトレーニング電圧を印加することを含み、そのトレーニング電圧は、望ましいコンダクタンス変化の対数値に比例する。
本開示の第2の態様において、ニューラルネットワークを実現するためのメモリスタ神経形態学的回路が提供される。メモリスタ神経形態学的回路は、メモリスタ素子と、メモリスタ素子に接続されるニューロン回路と、プロセッサ及びメモリを有するコントローラとを含む。コントローラは、フィードフォワード動作中に、メモリスタ素子の第1端子の入力電圧を検出し、誤差逆伝搬動作中に、メモリスタ素子の第2端子の誤差電圧を検出し、検出された入力電圧及び検出された誤差電圧に基づき、メモリスタ素子の望ましいコンダクタンス変化を計算し、そして、メモリスタ素子にトレーニング電圧を印加するようにプログラムされ、トレーニング電圧は、望ましいコンダクタンス変化の対数値に比例する。
本開示のさらに他の目的、利点および特徴は、明細書および図面を検討した後に明らかになるであろう。
図1は、本開示によるニューラルネットワークを示す概略図である。 図2は、本開示の第1実施形態によるメモリスタ神経形態学的回路を示す概略図である。 図3は、メモリスタ素子のコンダクタンス変化曲線を示すグラフである。 図4は、VをΔGに対応付けるコンダクタンスマップを示すグラフである。 図5は、フィードフォワード及び誤差逆伝搬のための回路素子を備えた、第1実施形態のメモリスタ神経形態学的回路を示す概略図である。 図6は、第1実施形態によるトレーニングプロセスを示すフローチャートである。 図7は、本開示の第2実施形態によるメモリスタ神経形態学的回路を示す斜視図である。 図8Aは、フィードバック動作中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図8Bは、誤差逆伝搬動作中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図9は、確率的トレーニング中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図10Aは、確率的トレーニング中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図10Bは、確率的トレーニング中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図10Cは、確率的トレーニング中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図10Dは、確率的トレーニング中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図11Aは、バッチトレーニング中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図11Bは、バッチトレーニング中の、第2実施形態のメモリスタ神経形態学的回路を示す概略図である。 図12は、本開示による制御システムを示す概略図である。
本開示の第1実施形態が、図1〜6を参照して説明される。
図1は、人工ニューラルネットワーク10を示す概略図である。ニューラルネットワーク10は、入力11,入力ニューロン12、重み13,出力ニューロン14、及び出力15を含む。ここで、図1は、ニューラルネットワーク10の代表的な一対の層を示している。換言すると、図1は、1つの入力層と1つの出力層を示しているが、入力ニューロン12は、(図示されない)ニューロンの前の層からの出力としての入力11を受領しても良い。同様に、出力ニューロン14は、(図示されない)ニューロンの後ろの層へ入力される出力15を出力しても良い。このように、本明細書で使用される入力及び出力との用語は、相対的な用語であり、入力ニューロン12は最初の層あるいは隠れ層であってもよいことを意味し、同様に、出力ニューロンは、最後の層あるいは隠れ層であっても良いことを意味する。
入力11は、個々の入力x1、x2などをxnまで含み、入力ニューロン12のそれぞれに入力される。そして、入力ニューロン12は、シナプスと呼ばれることもある重み13を介して出力ニューロン14に接続される。その後、出力15が、出力ニューロン14から出力される。具体的には、出力ニューロン14の各々が、それぞれ個々の出力y1、y2、などをynまで出力するように構成されている。入力ニューロン12と出力ニューロン14とはノードと呼ばれることがあり、重み13はシナプスと呼ばれることがある。
図1において、入力ニューロン12と出力ニューロン14とは、非繰り返しの、完全接続構成で示されている。しかしながら、この型式は代表的なものであって、種々の他の型式が考えられる。本明細書で使用される代表的なものとは、例としての役割を果たすことを意味し、必ずしも好ましいまたは有利な態様と解釈される必要はない。
本実施形態において、ニューラルネットワーク10は、ハイブリッドCMOS−メモリスタ型回路であるメモリスタ神経形態学的回路100として物理的に実現されている。図2は、本実施形態によるメモリスタ神経形態学的回路100の一部を示す概略図である。メモリスタ神経形態学的回路100は、メモリスタ素子113を通じて出力ニューロン114に接続される入力ニューロン112を含む。入力xi及び出力yiは電圧信号である。ここで、入力ニューロン112と出力ニューロン114はCMOS素子である。入力ニューロン112は、ニューロン回路として物理的に実現される。具体的には、入力ニューロン112は、好ましくは、入力xiを変換する活性化関数φ(又は入力−出力関数)を有する集積回路(IC)である。活性化関数φは、線形、ロジスティックシグモイド、双曲線正接、正規化線形、または様々な活性化関数のいずれか1つであってもよい。活性化関数φは、入力ニューロン112と出力ニューロン114に対して同じであっても良いし、異なっていても良い。
入力ニューロン112は、変換された電圧信号をメモリスタ素子113へ出力する。加えて、入力ニューロン112は、活性化関数φに先立って、そこに入力されたすべての信号を合計する総和関数を含んでも良い。あるいは、総和関数は、別個の回路(例えば、総和オペアンプ回路)として実現されてもよい。本実施形態においては、出力ニューロン114も、ニューロン回路として実現され、入力ニューロン112と同じ構成を有している。しかしながら、これに限定されず、出力ニューロン114の構成は、例えば、総和関数を含むか含まないかによって異なっていてもよい。入力ニューロン112及び出力ニューロン114の入力および出力を読み取るために、センシング回路(図示せず)が設けられることが好ましい。
さらに図2を参照すると、本実施形態のメモリスタ素子113は、最小値GMINと最大値GMAXとの間で、可逆的かつ連続的に調整可能なコンダクタンスGを有するバイポーラメモリスタ素子である。本実施形態においては、メモリスタ素子113は、好ましくは、Pt/TiO2−X/Pt金属酸化物素子であるが、代替的に、異なる金属酸化物素子、相変化メモリ、磁気トンネル接合メモリセル、固体抵抗スイッチング素子などとして実現されても良い。
メモリスタ素子113のコンダクタンスGは、ニューラルネットワーク10において重みwとして働く。具体的には、ニューラルネットワーク10がパターンを分類するとき、入力ニューロン112からの入力電圧信号が、オームの法則に従って、メモリスタ素子113のコンダクタンスGによってリニアにスケーリングされ、出力ニューロン114へ送られる。同様に、ニューラルネットワーク10が、例えば逆伝播によってトレーニングされる場合、誤差がニューラルネットワーク10内を逆伝播されるときに、出力ニューロン114からの誤差信号が、メモリスタ素子113のコンダクタンスGによってリニアにスケーリングされ、入力ニューロン112に送られる。ニューラルネットワーク10のトレーニングの間、メモリスタ素子113のコンダクタンスGは、トレーニングルールに従って調整されることができる。本実施形態では、トレーニングルールは、好ましくは逆伝播であるが、人工ニューラルネットワークの分野において公知である任意のトレーニングルールであっても良い。
一般的に、メモリスタ素子113のコンダクタンスGは、負のトレーニング電圧VSETが印加されたときに増加され(すなわち、セットされ)、正のトレーニング電圧VRESETが印加されたときに減少される(すなわち、リセットされる)。以下では、簡単化のため、VSET及びVRESETが、表記が明示されることなく、それぞれの振幅に関して説明される。図2において、VSET及びVRESETは、メモリスタ素子113へ直接的に印加されるように示されている。これは、入力ニューロン112及び出力ニューロン114の活性化関数φによってVSET及びVRESET電圧信号自体が変換されないように行われる。もしくは、入力ニューロン112及び出力ニューロン114が、線形、またはほぼ線形の活性化関数φで構成されている場合、VSET及びVRESET電圧信号は、代わりに、入力ニューロン112及び出力ニューロン114を介して送信されてもよい。
概して、メモリスタ素子113におけるコンダクタンス変化ΔGは、そこに印加されるトレーニング電圧Vの積分に依存する。しかしながら、メモリスタ素子113の内部動特性が非常に非線形であり、その結果、メモリスタ素子113のコンダクタンス変化ΔGは、メモリスタ素子113自体の瞬間的なコンダクタンスGにも依存する。具体的には、ΔGは数式1として与えられる。
(数1) ΔG=f(G、V、Δt)
そこにおいて、Gはメモリスタ素子113自体の瞬時コンダクタンス、Vは印加されるトレーニング電圧信号(トレーニング電圧信号の振幅と符号の両方を包含する)、及びΔtはトレーニング電圧信号が印加される期間である。以下では、簡単化のため、ΔGが、表記が明示されることなく、その大きさに関して説明される。
図3は、メモリスタ素子113に印加されたときの、メモリスタ素子113の瞬時コンダクタンスGの範囲にわたる、複数の異なるトレーニング電圧信号の例示的なコンダクタンス変化曲線を示している。具体的には、図3は、種々の振幅のトレーニング電圧信号がメモリスタ素子113に印加されたときの、コンダクタンス変化ΔGと瞬時コンダクタンスGとの関係を示している。
図3において、印加されるトレーニング電圧信号の振幅及び符号の影響を分離するために、全てのトレーニング電圧信号は所定の期間Δt(例えば、10μs)だけ印加される。なお、図3に示されるトレーニング電圧信号は、例示の目的のために任意に選択されたものであり、それゆえ、限定するものとして解釈されるべきではないことに留意すべきである。同様に、図3における、コンダクタンス変化曲線の特定の形状は、典型的なものではあるが、それにも係わらずメモリスタ素子固有のものであり、それゆえ、同じく本質的に例示的なものである。例えば、等しく本実施形態に適用可能な異なるメモリスタ素子では、VSETのコンダクタンス変化曲線が、瞬時コンダクタンスGがGMAXに近づくにつれて減少するかもしれない。
図3に示されるように、与えられた任意のトレーニング電圧信号について、メモリスタ素子113のコンダクタンス変化ΔGは、メモリスタ素子113自体の瞬時コンダクタンスGに依存する。さらに、メモリスタ素子113自体の任意の瞬時コンダクタンスGにおいて、メモリスタ素子113のコンダクタンス変化ΔGは、印加されるトレーニング電圧信号の大きさと符号の両方に依存する。その上、コンダクタンス変化曲線は、メモリスタ素子113のコンダクタンス変化ΔGが、それらのパラメータのいずれに関しても線形ではないことを示している。
図3は、VSETが閾値電圧VSET THよりも低いとき、又はVRESETが閾値電圧VRESET THよりも低いとき、メモリスタ素子113のコンダクタンス変化ΔGが、Gの全範囲においてゼロであることも示している。この特有の非線形性は、メモリスタ素子113のコンダクタンスGが、選択的に、(すなわち、閾値電圧よりも低い電圧信号を印加することによって)読み出され、または、(すなわち、閾値電圧を超える電圧信号を印加することによって)書き込まれることが可能となることにより有用である。特に、閾値電圧よりも低い電圧信号で読み出すとき、メモリスタ素子113の瞬時コンダクタンスGは乱されない。
より具体的には、メモリスタ素子113のコンダクタンスGを読み出すとき、読出閾値電圧VREAD TH以下の振幅を持った読出電圧VREADがメモリスタ素子113に印加される。ここで、コンダクタンスは無指向性であり、オームの法則を用いていずれの方向に測定してもよいので、VREADの方向性は正または負のいずれかとして設定することができる。VREADが正の信号として設定されたとき、VREAD THの振幅は、VRESET THの振幅以下にセットされる。逆に、VREADが負の信号として設定されたとき、VREAD THの振幅は、VSET THの振幅以下にセットされる。VREADの方向性は任意に設定可能であるので、以下に用いられるVREADは、正または負の読み出し信号のいずれを指すものであっても良い。
実際には、VREAD THは、概して安全マージン分だけVSET TH又はVRESET THよりも低くセットされ、それにより、メモリスタ素子113のコンダクタンスGを読み出すときに、メモリスタ素子113のコンダクタンスGが意図せずに変化しないようにすることができる。これは、VSET TH及びVRESET THの値が、複数のメモリスタ素子間で変化し得るとともに、印加される電圧信号の異なる期間Δtでも変化し得るためである。1つの例示的な設定において、特定のPt/TiO2−X/Pt金属酸化物素子は、それぞれ−0.8V及び1.35VのVSET TH値及びVRESET TH値を有することが分かっている。この特定のPt/TiO2−X/Pt金属酸化物素子のコンダクタンスGを読み出すときに安全マージンを確保するために、読出閾値電圧VREAD THの大きさが0.5V、すなわち、実質的に、VSET TH及びVRESET THの公称値よりも低くセットされる。ここで、様々な安全マージンを使用することができ、より大きい又はより小さい安全マージンを使用するか、または安全マージンをまったく使用しない他の設定も考えられる。
以下の説明を簡略化するために、総称用語VTHが、VREAD TH、VSET TH、及びVRESET THに全般的に言及するために以下で使用される。具体的には、セットプロセス及びリセットプロセスの両方において、VTHより低い電圧を印加するときΔG=0であり、VTH以上の電圧を印加するとき|ΔG|>0となる。
図3に戻り、上述したように、すべてのコンダクタンス変化曲線は、同じ所定の期間Δtだけ印加される電圧信号から得られる。ここで、電圧信号の期間Δtを変化させることは、得られるコンダクタンス変化ΔGをリニアにスケーリングするものとして近似することができる。換言すれば、図3に示されるコンダクタンス変化曲線の振幅は、Gの全範囲にわたって線形係数によってスケーリングされうる。これは、本実施形態では、コンダクタンスの変化率ΔG/Δtが、印加されるトレーニング電圧の期間Δtにわたってほぼ一定であるGの全範囲と比較して、コンダクタンス変化ΔGの大きさが十分に小さいためである。
上述した非線型性を考慮するために、本実施形態のニューラルネットワーク10は、好ましくは、VSETとVRESETとの両方に対するΔGを持つコンダクタンスマップを使用することによってトレーニングされ、その結果、望ましいΔGが与えられると、対応するVSET又はVRESETを得ることができる。なお、典型的なメモリスタ素子において、Vは、ΔGの対数値に比例することに留意されるべきである。この理由のため、本実施形態は、好ましくは、Vを数式2の形態でΔGに対応付けるコンダクタンスマップを使用する。
(数2) V=a*log(ΔG’)+b
そこにおいて、a、b及びcは、メモリスタ素子固有の所定のパラメータであり、ΔG’は、[0,1]の範囲で正規化されたΔGである。この正規化プロセスは、対数関数に対応するための形式的手続きであり、対数マッピングにとっては一般的である。簡潔さのため、数式2の対数関数は、以下の説明及び図において、log()と称される。
本実施形態において、コンダクタンスマップは、様々な方法で導き出すことができる。例えば、コンダクタンスマップは、特定のメモリスタ素子の手作業での特徴付けによって導出されても良い。いずれの場合でも、コンダクタンスマップが導出される方法の詳細は、ここでは重要ではない。例示的なコンダクタンスマップが、図4にグラフの形態で示されており、そこでは、VSET及びVRESETの振幅が、数式2に従って、ΔGの正規化された値の対数値に比例している。図4の例は、説明的、かつ、素子固有のものであり、したがって、限定するものとして解釈されるべきではない。
本実施形態のニューラルネットワーク10は、好ましくは、バックプロパゲーションもしくは単にバックプロップとも呼ばれることがある、逆伝搬トレーニングによってトレーニングされる。図5は、本実施形態による、メモリスタ神経形態学的回路200の代表的な電気的構成を示す回路図である。メモリスタ神経形態学的回路200は、複数の入力ニューロン212、複数の出力ニューロン214(簡略化のため1つを図示)、及び入力ニューロン212を出力ニューロン214に接続する複数の重み(差動対213)を含む。図5において、入力ニューロン212、出力ニューロン214、及び差動対213の各メモリスタ素子の個々の構成及び特性は、図2に示されるもののように、同じであることが好ましい。さらに、前述したように、本明細書で使用される入力及び出力との用語は相対的な用語であり、入力ニューロン212は、最初の層あるいは隠れ層であってもよいことを意味し、同様に、出力ニューロン214は、最後の層あるいは隠れ層であっても良いことを意味する。
この技術分野の当業者に知られているように、逆伝搬トレーニングは、典型的には、3つのステップを含む。最初に、(フォワードパスとも称されることがある)フィードフォワードの間に、ニューラルネットワーク10が、入力信号が入力ニューロン212から出力ニューロン214の方向に伝搬する入力パターンを分類するために使用される。次に、逆伝搬の間に、誤差信号が出力ニューロン214から入力ニューロン212の方向に逆伝搬される。最後に、トレーニングの間に、ニューラルネットワーク10の重み13が数式3に従ってトレーニングされる。
(数3) ΔG=ε*x*e
そこにおいて、ΔGは望ましいコンダクタンスの変化、εは任意にセットすることができる学習率、xは前の層からの入力、eは次の層から逆伝搬される誤差である。
出力ニューロン214が最後の層にある場合、その誤差elastは数式4によって与えられる。
(数4) elast=φ’(ydesired−y)
そこにおいて、φ’は出力ニューロン214の活性化関数の導関数、ydesiredは出力ニューロン214の望ましい出力、及びyは出力ニューロン214の実際の出力である。
逆に、入力ニューロン212又は出力ニューロン214が隠れ層を形成する場合、任意の隠れ層の誤差ehiddenは数式5によって与えられる。
(数5) ehidden=φ’(whidden−to−next*enext
そこにおいて、whidden−to−nextは任意の隠れ層と次の層からの重み、enextは次の層からの誤差信号である。φ’は、再び、任意の隠れ層におけるニューロンの活性化関数の導関数である。数式5から、各々の誤差信号は次の層の誤差信号から計算されることが理解される。それゆえ、ニューラルネットワーク10の誤差信号は、最後の層から逆向きに、換言すると、誤差逆伝搬によって計算される。
数式3において、ΔGは、ε、x、及びeの符号に依存して、正又は負の値であってもよい。この理由のため、ニューラルネットワーク10の重み13は、好ましくは負の最小値と正の最大値との間の範囲にあるので、重み13はトレーニングアルゴリズムの要求に従って正または負であってもよい。図5のメモリスタ神経形態学的回路において、これは、メモリスタ素子の差動対213を用いることによって実現される。図5に示すように、メモリスタ素子の各差動対213は、G+の瞬時コンダクタンスを持つメモリスタ素子と、G−の瞬時コンダクタンスを持つメモリスタ素子とを含む。ここで、G+とG−の両方とも、実際には正の値であり、記号表記は、以下の説明から明らかとなるように、ラベル付けする目的のためであることに留意すべきである。
ニューラルネットワーク10のフィードフォワード動作中、各入力ニューロン212の出力を合計するために、メモリスタ素子の差動対213は総和オペアンプ回路220に接続される。総和オペアンプ回路220は、典型的な負帰還加算増幅器として構成することができる。本実施形態では、好ましくは、図5に示されるように、G+コンダクタンスを通過したすべての電圧信号を合計するための1つの総和オペアンプ回路221と、G−コンダクタンスを通過したすべての電圧信号を合計するためのもう1つの総和オペアンプ回路222との、2つの総和オペアンプ回路220が各出力ニューロン214に対して与えられる。一対の総和オペアンプ回路220は、次に、その構成が好ましくは典型的なものであり(例えば、ユニティゲインフィードバック抵抗を備えたオペアンプ)、それゆえ、その詳細は簡潔のために省略される、ユニティゲイン差動増幅器230に接続される。
ここで、各入力電圧信号に対する瞬時コンダクタンスG+及びG−を個別に調整することによって、メモリスタ素子の各差動対213の全瞬時コンダクタンスGは、正の値となったり(すなわち、差動増幅器230が正電圧を出力する)、又は負の値となったりする(すなわち、差動増幅器230が負電圧を出力する)。換言すると、所与のメモリスタ素子の差動対213は、−(GMAX−GMIN)から(GMAX−GMIN)までの範囲の全コンダクタンスを表すことができ、この場合、GMIN及びGMAXは、各差動対213における各々のメモリスタ素子の最小及び最大瞬時コンダクタンス値である。
図5は、ニューラルネットワーク10の上述した誤差逆伝搬動作を実行する、メモリスタ神経形態学的回路200の代表的な電気的構成も示している。入力ニューロン212と出力ニューロン214とは、それぞれ、フィードフォワード用の活性化関数φと、誤差逆伝搬用の活性化関数の導関数φ’を有するものとして、図5に示されている。本実施形態では、φ及びφ’は、別々のICとして実現されてもよく、又は、単一のICとして実現されてもよい。
さらに図5を参照すると、誤差信号は、出力ニューロン214のφ’を通じて逆伝搬される。次に、誤差信号は、反転ゲート240によって(非反転及び反転された)相補信号に分割される。その後、非反転誤差信号は、G+メモリスタ素子を通じて逆伝搬され、反転誤差信号は、G−メモリスタ素子を通じて逆伝搬される。総和オペアンプ回路250は、メモリスタ素子の差動対213を通過した後の非反転及び反転誤差信号を合計するために、入力ニューロン212の各々に対して設けられる。そして、合計された誤差信号が、各入力ニューロン212のφ’を通じて逆伝搬され、ニューラルネットワーク10内の逆伝播を続けることができる。
さらに、図5に示されるように、逆伝搬経路全体を通じて、スイッチ260が設けられている。スイッチ260は、フィードフォワード信号を伝えることを回避するために、フィードフォワードの間、開かれている(すなわち、オフ)。そして、スイッチ260は、誤差逆伝搬の間、閉じられる(すなわち、オン)。本実施形態の変形態様では、いくつかの又はすべてのスイッチ260が設けられなくともよく、代わりに、入力ニューロン212と出力ニューロン214の各ニューロン回路に内在化させても良い。
さらに、図示されないが、検出回路が、図5のメモリスタ神経形態学的回路200の全体を通じて、入力信号(電圧)と誤差信号(電圧)を検出するために設けられる。検出回路は、入力ニューロン212及び出力ニューロン214と一体化されてもよいし、別個に設けられてもよい。
図5に示される回路レイアウトは、代表的なものであり、限定するものと解釈されるべきではない。等価な、又は実質的に等価な機能を提供する多数の代替構成が考えられる。例えば、図5において、逆伝搬誤差電圧が反転ゲート240によって相補信号に分割される一方で、フィードフォワード入力電圧は、差動増幅器230を通じて送られる。しかしながら、逆のことも本開示に等しく適用可能であり、すなわち、その場合、フィードフォワード入力電圧が反転ゲートによって相補信号に分割され、それぞれのG+及びG−メモリスタ素子を通じて送られ、その後、単に合計される。そして、逆伝搬誤差電圧は、G+及びG−メモリスタ素子を通じて直接的に送られ、その後、差動増幅器によって減算される。
なお、フィードフォワード動作及び誤差逆伝搬動作の両方とも、読出信号が、重み13を乱すことなく、ニューラルネットワーク10を通じて伝搬されるという点で、読み出し動作であることに留意すべきである。かくして、入力信号及び誤差信号の大きさは、好ましくは、VTHの直前までに制限される。ここで、入力信号及び誤差信号は、種々の方法で制限することができる。例えば、ハードウエアでの解決策は、図5のメモリスタ神経形態学的回路200内の様々な読み出し動作電気部品のレール電圧を、VTHの直前となるように設定するだけで実現することができる。換言すれば、例えば、数式4又は数式5から計算された誤差eが、VTHよりも大きかったとしても、該当するハードウエアは飽和し、VTH直前の値を出力するだけである。
あるいは、フィードフォワード又は誤差逆伝搬の間に、差動対213が誤って乱されることがないことをない確保するために、VTH直前の飽和電圧を持った電圧バッファ回路(図示せず)が、各差動対213の端子の前に設けられてもよい。さらなる代替えとして、電圧コントロールのより洗練された方法が実行されてもよい。例えば、各層において、最大入力信号または最大誤差信号がVTHの直前にスケーリングされるように、すべての入力信号または誤差信号を一緒に正規化してもよい。この正規化プロセスは、追加の処理回路(例えば、マイクロプロセッサ)を必要とするが、信号のより正確な伝搬を可能にする。
メモリスタ神経形態学的回路200をトレーニングするために、トレーニング回路(図示せず)も、差動対213の各メモリスタにトレーニング電圧を直接印加するために設けられる。トレーニングの間、各差動対213のG+及びG−メモリスタ素子は、同じ入力電圧が入力されるが、反対の誤差電圧を入力されるので、特定の差動対213の望ましいコンダクタンス変化ΔGが、G+及びG−メモリスタ素子に対して単に反対方向に働く。
なお、図5に示されるように、それぞれ個々のG+又はG−メモリスタ素子は、他の個々のG+又はG−メモリスタ素子と端子を共有していることに留意すべきである。そのため、VTHを超えるトレーニング電圧が、1つのメモリスタ素子の端子に印加されると、同じ端子を共有する他のメモリスタ素子(いわゆる、半選択素子)が誤って乱される可能性がある。この理由のため、トレーニングは、好ましくは、電圧バイアス方式で実行され、その場合、各々のトレーニング電圧は、トレーニングされるべきメモリスタ素子のそれぞれの端子に印加される2つの相補電圧に分割される。各々の相補電圧はVTHを下回ることが保証され、その一方で、全体のトレーニング電圧はVTHを上回ることが保証される。換言すれば、もし相補電圧が等しいならば、トレーニング電圧は2VTH未満であることが保証される。
そうするために、トレーニング電圧は、制限され(すなわち、それぞれの制限を超える電圧は、個別にそれぞれの制限内に設定される)、正規化され(すなわち、1つの層について、最大トレーニング電圧は2VTHの直前に設定され、かつすべて他の訓練電圧は同じ係数でスケーリングされる)、もしくは、制限と正規化とが組み合わせられる。トレーニング電圧の制限と正規化は、層毎に実行されることが好ましいが、全体的に、すなわち、トレーニングの反復ごとにニューラルネットワーク10内のすべてのトレーニング電圧について実行されてもよい。この電圧バイアス方式を使用することによって、任意の特定のメモリスタ素子は、半選択素子を乱すことなくトレーニングされ得る。
本実施形態のニューラルネットワーク10を実現するメモリスタ神経形態学的回路をトレーニングするためのプロセス300が、図6を参照して説明される。プロセス300は、特定の行為主体に制限されるものと解釈されるべきではない。例えば、後述する1つの実施形態では、プロセス300の1つ以上のステップ又はサブステップが、自動的に又はそれ以外の方法でコントローラによって実行され得る。しかし、様々な行為主体、及びそれらの組み合わせが考えられる。
プロセス300は、ステップ310で始まり、そこにおいて、ニューラルネットワーク10のフィードフォワード動作の間に、特定のメモリスタ素子の第1端子にて入力電圧が検出される。この検出された入力電圧は、数式3に関して定義されたxに対応する。さらに、ここでの特定のメモリスタ素子が、ニューラルネットワーク10における任意の重み13に対応する。
次に、プロセス300はステップ320に進み、そこにおいて、ニューラルネットワーク10の誤差逆伝搬動作の間に、特定のメモリスタ素子の第2端子にて誤差電圧が検出される。この検出された誤差電圧は、数式3に関して定義されたeに対応する。誤差電圧が検出されると、プロセス300はステップ330に進む。
ステップ330では、特定のメモリスタ素子の望ましいコンダクタンス変化がトレーニングルール(例えば、逆伝搬)に従い、かつ検出された入電電圧及び検出された誤差電圧に基づいて計算される。望ましいコンダクタンス変化は数式3に関して定義されたΔGに対応する。しかしながら、望ましいコンダクタンス変化は、ΔGのような単一の値の形態に制限されない。代わりに、望ましいコンダクタンス変化は、後述されるように、ΔGに関連する様々な形態で計算することができる。
次に、プロセス300は、ステップ340に進み、そこにおいて、トレーニング電圧が特定のメモリスタ素子に印加され、そのトレーニング電圧は望ましいコンダクタンス変化の対数値に比例する。例えば、望ましいコンダクタンス変化がΔGとして計算された場合、トレーニング電圧は、図4のような、Vをlog(ΔG)と対応付けるコンダクタンスマップから直接導出することができる。
なお、ステップ340において、トレーニング電圧はΔGの対数に比例するので、特定のメモリスタ素子の瞬時コンダクタンスGは要因ではないことに留意すべきである。換言すれば、ステップ340は、ニューラルネットワーク10にオープンループ制御を適用する。かくして、プロセス300は複雑なフィードバック同調回路を必要とせず、ニューラルネットワーク10の大きさで十分に調整し、そして、比較的素早く反復することができる。
本実施形態では、トレーニング電圧は、多様な方法で印加することができる。本実施形態の1つの態様において、ニューラルネットワーク10は、オンライントレーニングとも称されることがある確率的逆伝搬トレーニングでトレーニングされる。確率的トレーニングでは、ニューラルネットワーク10の重み13が、フィードフォワード動作及び誤差逆伝搬動作の各ラウンド後に、更新される。本態様では、プロセス300のステップ330は、2つの検出された値x及びeとして望ましいコンダクタンス変化を直接的に計算する。換言すれば、数式3のΔGの値は、具体的に計算されない。次に、ステップ340にて、トレーニング電圧Vは、それに応じて、数式6の形態で、VとVとに分けられる。
(数6) V〜log(x)、V〜−log(e)
そこにおいて、「〜」は比例関係を定義する。ここで、数式6も比例対数関数の形態であるので、VとVの値も、図4のようなコンダクタンスマップから直接導出することができる。次に、VとVが、トレーニングされる特定のメモリスタ素子の2つの端子に印加される。従って、特定のメモリスタ素子には、Vの全体のトレーニング電圧が入力される。この場合、特定のメモリスタ素子における全体的なコンダクタンス変化は、依然として、望ましいコンダクタンスΔGとなる。これは、トレーニング電圧Vが数式7として与えら得るからである。
(数7) V〜log(x)+log(e)
それは、対数関数の積の性質を使って、数式8に簡略化される。
(数8) V〜log(x*e)
次に、数式3を数式8に代入すると、その結果の関係は数式9となる。
(数9) V〜log(ΔG)
そこにおいて、学習率項εは、数式7〜9がすでに比例関係を定義しているので、無視することができる。換言すれば、トレーニング電圧Vは、特定のメモリスタ素子の2つの端子間に相補電圧VおよびVとして物理的に印加されるが、実際には、トレーニング電圧Vも、所望のコンダクタンス変化ΔGの対数値に比例する。
トレーニング電圧Vは、コンダクタンス変化がもたらされることを確実にするため、好ましくはVTHを上回る一方で、VおよびVは、半選択素子を乱さないために、好ましくはVTHを下回る。従って、本態様も、半選択素子を有するニューラルネットワーク構成(例えば、差動対が使用されるとき)に適した電圧バイアス方式を実行できる。第1実施形態の本態様においては、トレーニング電圧Vは、検出された入力電圧xと誤差電圧eを直接的に用いることによってフィードフォワード動作及び誤差逆伝搬動作の各反復後に印加される。その結果、例えば、中間の検出値を記憶および処理するための、又はΔG値を具体的に計算するための複雑な回路が省略され得るので、トレーニングプロセスは、大幅に単純化される。
本実施形態の別の態様では、ニューラルネットワーク10がバッチ逆伝搬トレーニングでトレーニングされる。バッチトレーニングでは、ニューラルネットワーク10の重み13が、フィードフォワード動作及び誤差逆伝搬動作の複数のラウンド(すなわち、バッチ)後に更新される。具体的には、本態様では、複数の入力電圧x及び誤差電圧eを検出するために、プロセス300のステップ310、320が複数の入力パターンに対して繰り返される。次に、ステップ330において、バッチコンダクタンス変化値ΔGBATCHが、数式10により特定のメモリスタ素子に対して計算される。
(数10) ΔGBATCH=Σx*e
そこにおいて、x及びeは、入力パターンの各々に対して検出された入力電圧及び誤差電圧に対応し、Σは複数の入力パターンに渡る合計を示す。換言すれば、ΔGBATCHは、入力パターンの全バッチにわたって計算される。
次に、ステップ340において、トレーニング電圧Vは、例えば、図4のようなコンダクタンスマップを使用することにより、ΔGBATCHの比例対数値として導出される。その後、トレーニング電圧Vは、望ましいコンダクタンス変化ΔGをもたらすために、トレーニングされる特定のメモリスタ素子に印加される。第1実施形態の本態様では、トレーニング電圧は、好ましくは、VTHと2VTHとの間となるように制限及び/又は正規化され、先に説明したような電圧バイアス方式が使用される。
次に、本開示の第2実施形態のニューラルネットワーク10が説明される。図7は、メモリスタ神経形態学的回路であるハイブリッドCMOS−メモリスタクロスバー回路400として物理的に実現されたニューラルネットワーク10を示す斜視図である。クロスバー回路400は、第1実施形態のように、複数の入力ニューロン412、複数の重み(メモリスタ素子413)、及び複数の出力ニューロン414(1つだけ図示)を含む。さらに、第2実施形態においては、入力ニューロン412、出力ニューロン414、及びメモリスタ素子413の個々の構成及び特性は、好ましくは、第1実施形態のそれらと同様である。
図7において、入力電圧は、入力ニューロン412、入力クロスバーナノワイヤ470、メモリスタ素子413、出力クロスバーナノワイヤ480、そして、出力ニューロン414を、この順序で通過することにより、クロスバー回路400を通じて伝播される。図1の概略図と同じく、図7も、複数の入力ニューロン412が、それぞれのメモリスタ素子413を介して各出力ニューロン414に接続されていることを示している。明確にするために、図7のクロスバーナノワイヤ470、480は、ニューラルネットワーク10内の特定の要素を構成せず、入力ニューロン412をメモリスタ素子413を通じて出力ニューロン414へ交差接続するための、体積効率のよい高密度導体として機能するだけである。この場合、図7のクロスバー構造は、小さな物理的パッケージに多数のニューロンを含む、信頼できる高密度なニューラルネットワーク10の製造を可能とする
図8A及び8Bは、重みとしてのメモリスタ素子の差動対513(図では、図を不必要に複雑化することを避けるため、2つの代表的なペアのみが参照番号で示されている)、入力層における6つの入力ニューロン512、隠れ層における4つの隠れニューロン516,及び出力層における3つの出力ニューロン514を含む3層のニューラルネットワークを実現する代表的なクロスバー回路500を示している。具体的には、図8Aは、フィードフォワード動作中のクロスバー回路500を示し、図8Bは、誤差逆伝搬動作中のクロスバー回路500を示している。クロスバー回路500の特定のトポロジーは、任意に選択され、本質的に例示的なものである。本実施形態の以下の説明は、ニューラルネットワークの分野で知られているように、任意の数の層、ニューロン、及び接続を有するクロスバー回路に拡張することができる。
なお、図8A及び8Bは、同じクロスバー回路500を描いているが、理解の容易のために別々に示されていることに留意すべきである。クロスバー回路500における様々な回路要素は、メモリスタ素子の差動対513の物理的なクロスバー構成を示すために拡張されていることを除き、図5においてすでに図示され、説明されたものに相当する。さらに、検出回路(図示せず)が、クロスバー回路500の各層において入力電圧及び誤差電圧を検出するために設けられる。フィードフォワード動作及び逆伝搬動作は、前述したのと同様の方法でクロスバー回路500において実行される。従って、ここでは、簡略化のため省略される。本実施形態では、トレーニング電圧は、トレーニング回路(図示せず)を使用することによって、クロスバーナノワイヤを介して各メモリスタ素子に直接的に印加される。
本実施形態の一態様では、クロスバー回路500は、第1実施形態の確率的トレーニング方法でトレーニングされる。図9は、クロスバー構成のメモリスタ素子の差動対513に確率的トレーニング電圧を印加するための例示的な構成を示している。示されるように、数式6に従うV及びVeが、それぞれ、垂直及び水平クロスバーナノワイヤに直接印加され、各メモリスタ素子には、その入力電圧x及び誤差電圧eに対応する全体電圧が入力される。
しかしながら、V及びVeは、各メモリスタ素子に対し、異なる符号及び大きさを有する可能性があるので、クロスバー回路500の全てのメモリスタ素子を同時にトレーニングすることはもちろん一般的に不可能である。逆に、各メモリスタ素子を1つずつトレーニングすることは、そのようにすると、非実用的な時間を消費し、したがって、ニューラルネットワーク10が多数の層またはニューロンにうまくスケーリングすることを妨げるので、好ましくない。
第2実施形態の本態様は、4つのステップでクロスバー回路500をトレーニングする方法を提供し、各メモリスア素子の入力データ(すなわち、x及びe)の極性について可能な状態は、正のxと負のe(リセット)、負のxと正のe(リセット)、正のxと正のe(セット)、及び負のxと負のe(セット)の4つだけである。その上、差動対513の使用によってセット及びリセットされるメモリスタ素子の数が等しくならなければならない。具体的には、各差動対513に対して、G+クロスバーナノワイヤ上のメモリスタ素子は、G−クロスバーナノワイヤ上の対応するメモリスタ素子と反対方向にトレーニングされる。これは、図8A及び8Bに示されるように、フィードフォワード入力電圧xは、各差動対513のG+及びG−メモリスタ素子に対して同じであり、その一方、逆伝搬される誤差電圧eは、G+メモリスタ素子に対して反転されず、G−メモリスタ素子に対して反転されるためである。このように、数式3から計算されるΔGは、各差動対513のG+及びG−メモリスタ素子に対して、常に、異なる符号(すなわち、反対方向となる)を有する。
上記を考慮に入れ、図10Aから10Dは、第2実施形態の本態様によるクロスバー回路500をトレーニングするためのプロセスを示す。図10Aは、各行がG+又はG−メモリスタ素子にスに接続されているかどうかとともに、各クロスバーナノワイヤに対する入力データの極性(すなわち、x及びeの極性)を示している。それらの表記は、簡潔のため、図10Bから10Dから省かれている。図10Aの第1の時間ステップにおいて、リセットトレーニング電圧が、負のxと正のeを持つメモリスタ素子に印加される。次に、図10Bの第2時間ステップにおいて、リセットトレーニング電圧が、正のxと負のeを持つメモリスタ素子に印加される。そして、図10Cの第3お時間ステップで、セットトレーニング電圧が、正のxと正のeを持つメモリスタ素子に印加される。最後に、図10Dの第4の時間ステップで、セットトレーニング電圧が、負のxと負のeを持つメモリスタ素子に印加される。図10Aから10Dのそれぞれにおいて、トレーニングされるメモリスタ素子は、破線の輪郭で示されている。その結果、クロスバー回路500のすべての差動対が4つのステップでトレーニングされる。
図10Aから10Dは、任意に順序付けられる。入力データの4つの状態のメモリスタ素子は、任意の順序でトレーニングすることができる。さらに、本開示の確率的トレーニング方法は、好ましくは、前述したような電圧バイアス方式を使用し、それにより、図10Aから10Dの各々に示される半選択メモリスタ素子は乱されない。
第2実施形態の本態様は、検出された入力電圧xと検出された誤差電圧eとに基づく行列乗算を実行する必要性を効果的に取り除く。具体的には、一般的に、入力電圧及び誤差電圧は、各メモリスタ素子に対して望ましいコンダクタンス変化ΔGを発生させるために、行列乗算される。対照的に、本態様のプロセス300は、4つのステップでクロスバー回路500に相補電圧VxとVeを直接印加し、それは、例えば行列乗算によって具体的にΔGを計算する必要性無しで、数式7〜9に従って、すべてのメモリスタ素子に望ましいコンダクタンス変化ΔGをもたらす結果となる。かくして、第2実施形態の本態様は、クロスバー回路500をトレーニングする迅速かつ堅牢な方法を提供する。
本実施形態の別の態様では、クロスバー回路500は、第1実施形態のバッチトレーニング方法でトレーニングされる。ここで、第1実施形態のように、各メモリスタ素子に対するトレーニング電圧Vは、各メモリスタ素子のために計算されるバッチコンダクタンス変化ΔGBATCHから導出される。この場合、フィードフォワード及び誤差逆伝搬の各反復後に中間ΔG値を計算するために、入力電圧xを誤差電圧eと行列乗算すべく、行列乗算回路(図示せず)が設けられる。
第2実施形態の本形態においても、トレーニング電圧Vは、各メモリスタ素子に対して異なる符号と大きさを有する可能性がある。従って、クロスバー回路500の全てのメモリスタ素子を同時にトレーニングすることはもちろん一般的に不可能である。逆に、各メモリスタ素子を1つずつトレーニングすることは、そのようにすると、非実用的な時間を消費し、したがって、ニューラルネットワーク10が多数の層またはニューロンにうまくスケーリングすることを妨げるので、好ましくない。
本態様は、図11Aと11Bに示される、一度に1つのクロスバーナノワイヤを更新することによってクロスバー回路500をバッチトレーニングする方法を提供する。図11Aと11Bは、各メモリスタ素子に対するトレーニング電圧が、典型的なマトリクス表記で示されており、そこにおいて、Vijは、左上から数えて、i行目とj列目のメモリスタ素子のトレーニング電圧である。具体的には、本態様において、メモリスタ素子は行毎に更新され、各行は2つのステップで更新される。図11Aに示される最初のステップでは、負の固定電圧VFIXが水平クロスバーナノワイヤに印加される。次いで、固定電圧VFIXを減算した後の正のリセットトレーニング電圧Vijが、リセットされるべきメモリスタ素子の垂直クロスバーナノワイヤに印加される。更新される素子が破線の輪郭で示されている。
次に、図11Bに示される正の固定電圧VFIXが、同じ水平クロスバーナノワイヤに印加される。次いで、固定電圧VFIXを減算した後の負のセットトレーニング電圧が、セットされるべきメモリスタ素子の垂直クロスバーナノワイヤに印加される。再び、更新される素子が破線の輪郭で示されている。従って、メモリスタ素子の1行が更新される。次に、方法は、クロスバー回路500全体がトレーニングされるまで、行毎に同じ手法を続ける。
本態様において、水平クロスバーナノワイヤに印加される固定電圧VFIXは、電圧バイアス方式に従って、様々な方法で設定することができる。好ましくは、固定電圧VFIXは、半選択素子が乱されないように、VTHのすぐ下に設定される。次に、垂直クロスバーナノワイヤに、Vij−VTHが印加される。トレーニング電圧Vijは、好ましくは、本開示の電圧バイアス方式に従って、最大で2VTHのすぐ下に制限及び/又は正規化されるので、垂直クロスバーナノワイヤ上の半選択素子も、最悪の場合にVTHのすぐ下となるだけで、乱されることはない。代替の実施例では、固定電圧VFIXは、安全のため、VTHより十分に低く設定してもよい。例えば、固定電圧VFIXは、VTH/2に設定してもよい。この場合、トレーニング電圧Vijは、最悪の場合でも半選択素子が乱されないことを確実にするために、下限値で制限され、及び/又は正規化される。
図11A及び11Bの描写は、本質的に例示的なものであることに留意すべきである。代替として、クロスバー回路500は、行単位の代わりに列単位でトレーニングされてもよい。また、列又は行がトレーニングされる順序は、任意に決定することができる。さらに、クロスバー回路500は、最初に各行又は各列に対してセット又はリセットパルスの一方を印加し、次いで、各行又は各列に対してセット又はリセットパルスの他方を印加することによって、トレーニングされてもよい。
本開示の上記実施形態は、制御システム600として実現されても良い。図12は、CPU(又は、プロセッサ)611とメモリ612を有するコントローラ510を含む制御システム600を示す概略図である。コントローラ610は、ニューラルネットワーク10と双方向通信する。コントローラ610のCPU611は、メモリ612に格納されたプログラムやデータを読み出してコントローラ610を動作させる。ここで、ニューラルネットワーク10は、上記実施形態のいずれかに従って構成することができる。
コントローラ610は、好ましくは、ニューラルネットワーク10を読み書きする駆動回路および検出回路(図示せず)を含む。具体的には、コントローラ610は、入力パターンのフィードフォワード中に入力信号を印加し、誤差逆伝播中に誤差信号を印加することによってニューラルネットワーク10を読み取るように構成される。コントローラ610は、ニューラルネットワーク10のフィードフォワード動作及び誤差逆伝搬動作中に検出された入力電圧及び誤差電圧に基づき、望ましいコンダクタンス変化値を計算するためにCPU611を使う。さらに、逆伝搬のようなトレーニングルールに基づき、コントローラ610は、好ましくはメモリ612に格納されたコンダクタンスマップを使用することによって(つまり、図4に示すようなコンダクタンスマップを使用することによって)、ニューラルネットワーク10のメモリスタ素子に書き込むように構成される。バッチトレーニングを通じて逆伝搬を実行するために、コントローラ610は、行列乗算回路も含んでも良い。従って、制御システム600は、前述した実施形態のいずれも実行することができる。
加えて、図12に示される制御システム600のレイアウトは、例示的なものであり、従って、限定的に解釈されるべきではない。多くの代替構成が考えられ、本開示に適用可能である。1つの代替的な実施形態では、制御システム600は、メモリスタ素子が神経形態学的コア(すなわち、ニューラルネットワーク10においてアナログ重み13を提供する)とCPUコア(すなわち、デジタルメモリを提供する)の両方を形成する統合神経形態学的システムとして実現される。この場合、SRAMや内蔵フラッシュのような独立したCMOSメモリは必要とされず、制御システム600はより少ないプロセスを通じて製造され、コストを節約することができる。
本開示は上記実施形態に限定されるものではなく、本開示の要旨を逸脱しない種々の変更が考えられる。
上述した実施形態の変更態様では、確率的かつバッチトレーニング方法が、固定振幅トレーニングで実現されてもよい。固定振幅トレーニングでは、望ましいコンダクタンス変化ΔGの符号情報だけが使用され、符号に依存して、所定のセット電圧か所定のリセット電圧のいずれかが各メモリスタ素子に印加される。
上述した実施形態のさらに別の変更態様では、入力ニューロン12、出力ニューロン14、任意のクロスバーナノワイヤ、および重み(メモリスタ素子)13を含むニューラルネットワーク10の様々な構成要素が、単一のICに一体的に形成されても良い。その結果、ニューラルネットワーク10の物理的なパッケージサイズが低減され、ニューラルネットワーク10は、温度変化などの環境の影響を受けにくくなる可能性がある。もしくは、ニューラルネットワーク10の入力ニューロン12及び出力ニューロン14は、ニューロン回路として一体的に形成されてもよい。
上述した実施形態のさらに別の変更態様では、入力ニューロン12及び出力ニューロン14の活性化関数φ及びその導関数φ’は、別個のCMOSデバイスとして実現されてもよい。例えば、専用の活性化関数ICが、ニューラルネットワーク10内の電圧信号を変換するための適切な位置に設けられても良い。
上述した実施形態のさらに別の変更態様では、数式3の学習率εが、トレーニング電圧の期間Δtを調整することによって調整される。以前に説明したように、期間ΔtはΔGのリニアなスケーリングとして近似することができ、従って、学習率εを近似するのに適している。
上述した実施形態のさらに別の変更態様では、ニューラルネットワーク10の重み13は1つずつトレーニングされる。この場合、トレーニングを完了するために必要とされる時間が増加するかもしれないが、適切な電圧の相補対を各メモリスタ素子に印加することができる。例えば、VTHと2VTHとの間のトレーニング電圧Vが与えられれば、適切な電圧の相補対V/2と−V/2が、トレーニングされるべきメモリスタ素子の両端に印加され得る。この場合、電圧の相補対は、可能な限りVTHから離れるようにし、それにより、半選択素子が乱される可能性を低減する。
上述した実施形態及び変更は、組み合わせが本開示の趣旨を逸脱しないとすれば、そのような組み合わせが特に言及されていなくとも、種々の態様で組み合わせることが可能である。従って、実施形態の範囲は上記の説明に限定されるべきではなく、むしろ広範な等価物、修正形態および組み合わせを含むべきである。

Claims (20)

  1. ニューラルネットワーク(10)のフィードフォワード動作中に、メモリスタ素子(113、213、413、513)の第1端子の入力電圧を検出する(310)こと、
    ニューラルネットワークは、メモリスタ素子と、そのメモリスタ素子に接続されたニューロン回路(112、114、212、214、412、414、512、514)とを含み、
    ニューラルネットワークの誤差逆伝搬動作中に、メモリスタ素子の第2端子の誤差電圧を検出する(320)こと、
    トレーニングルールに従い、検出された入力電圧と検出された誤差電圧とに基づき、メモリスタ素子の望ましいコンダクタンス変化を計算する(330)こと、及び、
    メモリスタ素子にトレーニング電圧を印加する(340)ことを備え、そのトレーニング電圧は、望ましいコンダクタンス変化の対数値に比例する、メモリスタ神経形態学的回路をトレーニングするための方法。
  2. 望ましいコンダクタンス変化は、検出された入力電圧及び検出された誤差電圧として計算され、そして、
    トレーニング電圧は、メモリスタ素子の第1端子への第1相補電圧と、メモリスタ素子の第2端子への第2相補電圧として印加される請求項1の方法。
  3. 第1相補電圧は、検出された入力電圧の対数値に比例し、そして、
    第2相補電圧は、検出された誤差電圧の対数値に比例する請求項2の方法。
  4. 第1相補電圧がメモリスタ素子の閾値電圧よりも小さくなり、第2相補電圧がメモリスタ素子の閾値電圧よりも小さくなり、及び、第1相補電圧と第2相補電圧の合計がメモリスタ素子の閾値電圧よりも大きくなるように、第1相補電圧と第2相補電圧を制限することと、正規化することとの少なくとも1つをさらに備える請求項2の方法。
  5. 入力電圧検出ステップと誤差電圧検出ステップとは、複数の入力パターンに対して反復され、そして、
    望ましいコンダクタンス変化は、ΔGBATCH=Σx*eとして計算され、そこにおいて、ΔGBATCHはバッチコンダクタンス変化であり、x及びeは、それぞれ、複数の入力パターンの各々で検出された入力電圧及び検出された誤差電圧であり、Σは複数の入力パターンに渡る合計を示す請求項1乃至4のいずれか1項の方法。
  6. トレーニング電圧がメモリスタ素子の閾値電圧よりも大きくなり、メモリスタ素子の閾値電圧の2倍よりも小さくなるように制限することと、正規化することとの少なくとも1つをさらに備える請求項5の方法。
  7. ニューロン回路は、複数の入力ニューロン(412、512)と、複数の出力ニューロン(414、514)とを含み、及び、
    メモリスタ素子は、クロスバー回路(400、500)として、複数の入力ニューロンを複数の出力ニューロンと交差接続するメモリスタ素子の複数の差動対に含まれる請求項1乃至6のいずれか1項の方法。
  8. 第1の時間ステップで、メモリスタ素子の複数の差動対の第1のメモリスタ素子をトレーニングすること、第1のメモリスタ素子の各々は、フィードフォワード動作中に正の入力電圧と、誤差逆伝搬動作中に正の誤差電圧とを有するものであり、
    第2の時間ステップで、メモリスタ素子の複数の差動対の第2のメモリスタ素子をトレーニングすること、第2のメモリスタ素子の各々は、フィードフォワード動作中に負の入力電圧と、誤差逆伝搬動作中に負の誤差電圧とを有するものであり、
    第3の時間ステップで、メモリスタ素子の複数の差動対の第3のメモリスタ素子をトレーニングすること、第3のメモリスタ素子の各々は、フィードフォワード動作中に正の入力電圧と、誤差逆伝搬動作中に負の誤差電圧とを有するものであり、及び
    第4の時間ステップで、メモリスタ素子の複数の差動対の第4のメモリスタ素子をトレーニングすること、第4のメモリスタ素子の各々は、フィードフォワード動作中に負の入力電圧と、誤差逆伝搬動作中に正の誤差電圧とを有するものである、をさらに備える請求項7の方法。
  9. 入力電圧検出ステップは、フィードフォワード動作中に、複数の入力ニューロンにおいて複数の入力電圧を検出することを含み、
    誤差電圧検出ステップは、誤差逆伝搬動作中に、複数の出力ニューロンにおいて複数の誤差電圧を検出することを含む請求項7の方法。
  10. メモリスタ素子の複数の差動対の各メモリスタ素子に対する望ましいコンダクタンス変化を計算するために、検出された複数の入力電圧を、検出された複数の誤差電圧と行列乗算することをさらに備える請求項9の方法。
  11. 第1の時間ステップで、メモリスタ素子の複数の差動対の第1のメモリスタ素子をトレーニングすること、第1のメモリスタ素子の各々は、正の望ましいコンダクタンス変化を有するものであり、及び、
    第2の時間ステップで、メモリスタ素子の複数の差動対の第2のメモリスタ素子をトレーニングすること、第2のメモリスタ素子の各々は、負の望ましいコンダクタンス変化を有するものである、をさらに備え
    第1のメモリスタ素子と第2のメモリスタ素子とは同じ端子を供給する請求項10の方法。
  12. 第1の時間ステップ中に、負の固定電圧が共有される同じ端子に印加され、及び
    第2の時間ステップ中に、正の固定電圧が供給される同じ端子に印加される請求項11の方法。
  13. メモリスタ素子(113、213、413、513)と、
    メモリスタ素子に接続されるニューロン回路(112、114、212、214、412、414、512、514)と、
    プロセッサ(611)及びメモリ(612)を有するコントローラ(610)と、を備え、
    コントローラは、
    フィードフォワード動作中に、メモリスタ素子の第1端子の入力電圧を検出し(310)、
    誤差逆伝搬動作中に、メモリスタ素子の第2端子の誤差電圧を検出し(320)、
    検出された入力電圧及び検出された誤差電圧に基づき、メモリスタ素子の望ましいコンダクタンス変化を計算し(330)、そして、
    メモリスタ素子にトレーニング電圧を印加する(340)ようにプログラムされ、
    トレーニング電圧は、望ましいコンダクタンス変化の対数値に比例する、ニューラルネットワークを実現するためのメモリスタ神経形態学的回路。
  14. メモリスタ素子は、ニューロン回路(212、214、412、414、512、514)に接続されたメモリスタ素子の差動対の第1のメモリスタ素子であり、メモリスタ素子の差動対は、第1のメモリスタ素子と第2のメモリスタ素子とを含む請求項13のメモリスタ神経形態学的回路。
  15. メモリスタ素子の差動対に接続された差動増幅器(230)をさらに備え、
    差動増幅器は、第1のメモリスタ素子の出力と第2のメモリスタ素子の出力の差分を計算するように構成される請求項14のメモリスタ神経形態学的回路。
  16. メモリスタ素子の差動対は、メモリスタ素子の複数の差動対(513)の第1の差動対であり、及び、
    メモリスタ素子の複数の差動対は、ニューロン回路(512、514)に接続される請求項14のメモリスタ神経形態学的回路。
  17. 複数のクロスバーナノワイヤ(470、480)をさらに含み、
    ニューロン回路、メモリスタ素子、及び複数のクロスバーナノワイヤは、クロスバー回路(400、500)として一緒に接続される請求項13乃至16のいずれか1項のメモリスタ神経形態学的回路。
  18. ニューロン回路は、入力ニューロンと出力ニューロンの少なくとも1つを含む請求項13乃至17のいずれか1項のメモリスタ神経形態学的回路。
  19. メモリスタ素子は、入力ニューロンと出力ニューロンとの間に接続される請求項18のメモリスタ神経形態学的回路。
  20. 入力ニューロン、出力ニューロン、及びメモリスタ素子が単一の集積回路として一体的に形成される請求項18のメモリスタ神経形態学的回路。
JP2017563139A 2015-07-13 2016-06-22 メモリスタ神経形態学的回路及びメモリスタ神経形態学的回路をトレーニングするための方法 Active JP6477924B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/797,284 2015-07-13
US14/797,284 US10332004B2 (en) 2015-07-13 2015-07-13 Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
PCT/JP2016/003001 WO2017010049A1 (en) 2015-07-13 2016-06-22 Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit

Publications (2)

Publication Number Publication Date
JP2018521400A true JP2018521400A (ja) 2018-08-02
JP6477924B2 JP6477924B2 (ja) 2019-03-06

Family

ID=57757248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017563139A Active JP6477924B2 (ja) 2015-07-13 2016-06-22 メモリスタ神経形態学的回路及びメモリスタ神経形態学的回路をトレーニングするための方法

Country Status (3)

Country Link
US (1) US10332004B2 (ja)
JP (1) JP6477924B2 (ja)
WO (1) WO2017010049A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129204A1 (ja) * 2018-12-20 2020-06-25 Tdk株式会社 ニューロモーフィック回路、ニューロモーフィックアレイの学習方法およびプログラム
WO2022091794A1 (ja) * 2020-10-30 2022-05-05 国立大学法人 奈良先端科学技術大学院大学 ニューロモーフィック装置及びニューロモーフィックシステム
JP2022539751A (ja) * 2019-07-03 2022-09-13 マイクロン テクノロジー,インク. ニューラルネットワークメモリ
WO2023228869A1 (ja) * 2022-05-21 2023-11-30 渡辺浩志 シリコンブレイン

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198691B2 (en) 2014-06-19 2019-02-05 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
KR20170045872A (ko) * 2015-10-20 2017-04-28 에스케이하이닉스 주식회사 시냅스 및 이를 포함하는 뉴로모픽 장치
US11037052B2 (en) * 2015-12-30 2021-06-15 SK Hynix Inc. Method of reading data from synapses of a neuromorphic device
WO2017146706A1 (en) * 2016-02-25 2017-08-31 Hewlett Packard Enterprise Development Lp Performing complex multiply-accumulate operations
US11263521B2 (en) * 2016-08-30 2022-03-01 International Business Machines Corporation Voltage control of learning rate for RPU devices for deep neural network training
KR102620708B1 (ko) * 2016-11-07 2024-01-04 에스케이하이닉스 주식회사 에러 보정부를 갖는 뉴로모픽 소자
JP2020521248A (ja) * 2017-05-22 2020-07-16 ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド 二部メモリスタネットワークにおける深層学習
WO2018215867A1 (ja) * 2017-05-22 2018-11-29 株式会社半導体エネルギー研究所 表示システム、および電子機器
JP6724863B2 (ja) 2017-05-29 2020-07-15 株式会社デンソー 畳み込みニューラルネットワーク
JP6724870B2 (ja) * 2017-06-19 2020-07-15 株式会社デンソー 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置
JP6805984B2 (ja) 2017-07-06 2020-12-23 株式会社デンソー 畳み込みニューラルネットワーク
KR20190007642A (ko) * 2017-07-13 2019-01-23 에스케이하이닉스 주식회사 다수의 시냅스 블록들을 갖는 뉴로모픽 소자
EP3435378A1 (en) * 2017-07-27 2019-01-30 Universität Zürich Differential memristive circuit
JP6773621B2 (ja) 2017-09-15 2020-10-21 株式会社東芝 演算装置
KR102067112B1 (ko) * 2017-10-17 2020-01-16 한양대학교 산학협력단 Pcm 기반의 뉴런 네트워크 소자
US11373091B2 (en) 2017-10-19 2022-06-28 Syntiant Systems and methods for customizing neural networks
US11348002B2 (en) * 2017-10-24 2022-05-31 International Business Machines Corporation Training of artificial neural networks
US11138501B2 (en) 2018-02-22 2021-10-05 International Business Machines Corporation Hardware-implemented training of an artificial neural network
US11403518B2 (en) * 2018-04-25 2022-08-02 Denso Corporation Neural network circuit
US10319439B1 (en) 2018-05-15 2019-06-11 International Business Machines Corporation Resistive processing unit weight reading via collection of differential current from first and second memory elements
US11328204B2 (en) 2018-07-24 2022-05-10 Sandisk Technologies Llc Realization of binary neural networks in NAND memory arrays
US11170290B2 (en) * 2019-03-28 2021-11-09 Sandisk Technologies Llc Realization of neural networks with ternary inputs and binary weights in NAND memory arrays
US10636484B2 (en) * 2018-09-12 2020-04-28 Winbond Electronics Corporation Circuit and method for memory operation
US10956813B2 (en) * 2018-09-28 2021-03-23 Intel Corporation Compute-in-memory circuit having a multi-level read wire with isolated voltage distributions
JP7259253B2 (ja) 2018-10-03 2023-04-18 株式会社デンソー 人工ニューラルネットワーク回路
US11928576B2 (en) 2018-10-18 2024-03-12 Denso Corporation Artificial neural network circuit and method for switching trained weight in artificial neural network circuit
CN109359400B (zh) * 2018-10-25 2023-08-15 江西理工大学 一种基于DSP Builder的异构双磁控忆阻器模型数字化电路设计方法
CN109325588B (zh) * 2018-11-14 2023-10-24 南京邮电大学 基于忆阻器矩阵的权值运算模块
US10903273B2 (en) 2019-01-04 2021-01-26 International Business Machines Corporation Phase change memory with gradual conductance change
US20200226447A1 (en) * 2019-01-14 2020-07-16 Tetramem Inc. Implementing hardware neurons using tunneling devices
US10754921B2 (en) * 2019-01-16 2020-08-25 International Business Machines Corporation Resistive memory device with scalable resistance to store weights
US11755894B2 (en) * 2019-04-09 2023-09-12 Cirrus Logic Inc. Computing circuitry for configuration and operation of cells and arrays comprising memristor elements
GB2583790A (en) * 2019-05-07 2020-11-11 Cirrus Logic Int Semiconductor Ltd Computing circuitry
US20210049504A1 (en) * 2019-08-14 2021-02-18 Rain Neuromorphics Inc. Analog system using equilibrium propagation for learning
CN114341984A (zh) * 2019-09-05 2022-04-12 美光科技公司 执行与突触前尖峰信号相关的存算一体化操作,及相关方法及系统
US11915124B2 (en) 2019-09-05 2024-02-27 Micron Technology, Inc. Performing processing-in-memory operations related to spiking events, and related methods, systems and devices
US11568200B2 (en) 2019-10-15 2023-01-31 Sandisk Technologies Llc Accelerating sparse matrix multiplication in storage class memory-based convolutional neural network inference
US11625586B2 (en) 2019-10-15 2023-04-11 Sandisk Technologies Llc Realization of neural networks with ternary inputs and ternary weights in NAND memory arrays
KR102584868B1 (ko) 2020-01-06 2023-10-04 서울대학교산학협력단 온칩 학습이 가능한 뉴로모픽 아키텍쳐
US11501148B2 (en) 2020-03-04 2022-11-15 International Business Machines Corporation Area and power efficient implementations of modified backpropagation algorithm for asymmetric RPU devices
US11562240B2 (en) 2020-05-27 2023-01-24 International Business Machines Corporation Efficient tile mapping for row-by-row convolutional neural network mapping for analog artificial intelligence network inference
US11568217B2 (en) 2020-07-15 2023-01-31 International Business Machines Corporation Sparse modifiable bit length deterministic pulse generation for updating analog crossbar arrays
US11443171B2 (en) 2020-07-15 2022-09-13 International Business Machines Corporation Pulse generation for updating crossbar arrays
CN113328738B (zh) * 2021-05-31 2022-09-16 郑州轻工业大学 一种通用型双曲函数忆阻器电路模型
WO2023128792A1 (en) * 2021-12-30 2023-07-06 PolyN Technology Limited Transformations, optimizations, and interfaces for analog hardware realization of neural networks
CN115169539B (zh) * 2022-07-28 2023-06-02 盐城工学院 一种基于惯性复值忆阻神经网络的保密通信方法
CN115903470B (zh) * 2022-09-23 2023-07-18 盐城工学院 一种惯性复值忆阻神经网络的滞后同步控制方法
CN116430715B (zh) * 2022-12-08 2023-11-03 盐城工学院 一种时变时滞忆阻递归神经网络的有限时间同步控制方法
CN115755621B (zh) * 2022-12-08 2023-05-09 盐城工学院 一种忆阻递归神经网络的有限时间自适应同步控制方法
CN117031962B (zh) * 2023-09-08 2024-01-02 盐城工学院 一种时滞忆阻细胞神经网络的固定时间同步控制方法
CN117879941A (zh) * 2024-01-10 2024-04-12 盐城工学院 一种基于量化控制的模糊神经网络的保密通信方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3210319B2 (ja) * 1990-03-01 2001-09-17 株式会社東芝 ニューロチップおよびそのチップを用いたニューロコンピュータ
FR2687814A1 (fr) * 1992-02-26 1993-08-27 Philips Electronique Lab Processeur neuronal a cellules synaptiques reparties.
US6876989B2 (en) * 2002-02-13 2005-04-05 Winbond Electronics Corporation Back-propagation neural network with enhanced neuron characteristics
JP5154666B2 (ja) * 2008-03-14 2013-02-27 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. ニューロモーフィック回路
US8463723B2 (en) 2009-03-01 2013-06-11 International Business Machines Corporation Electronic synapse
US8447714B2 (en) 2009-05-21 2013-05-21 International Business Machines Corporation System for electronic learning synapse with spike-timing dependent plasticity using phase change memory
US8250010B2 (en) 2009-05-21 2012-08-21 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements
US8812418B2 (en) * 2009-06-22 2014-08-19 Hewlett-Packard Development Company, L.P. Memristive adaptive resonance networks
US8527438B2 (en) 2009-12-22 2013-09-03 International Business Machines Corporation Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US8694452B2 (en) 2010-07-07 2014-04-08 Qualcomm Incorporated Methods and systems for CMOS implementation of neuron synapse
US9092736B2 (en) 2010-07-07 2015-07-28 Qualcomm Incorporated Communication and synapse training method and hardware for biologically inspired networks
US8655813B2 (en) 2010-12-30 2014-02-18 International Business Machines Corporation Synaptic weight normalized spiking neuronal networks
US8482955B2 (en) * 2011-02-25 2013-07-09 Micron Technology, Inc. Resistive memory sensing methods and devices
FR2977350B1 (fr) * 2011-06-30 2013-07-19 Commissariat Energie Atomique Reseau de neurones artificiels a base de dispositifs memristifs complementaires
FR2977351B1 (fr) * 2011-06-30 2013-07-19 Commissariat Energie Atomique Methode d'apprentissage non supervise dans un reseau de neurones artificiel a base de nano-dispositifs memristifs et reseau de neurones artificiel mettant en oeuvre la methode.
US8832009B2 (en) * 2012-05-15 2014-09-09 The United States Of America As Represented By The Secretary Of The Air Force Electronic charge sharing CMOS-memristor neural circuit
US20140358512A1 (en) * 2013-06-03 2014-12-04 International Business Machines Corporation Automated construction of ion-channel models in a multi-comparment models
JP5659361B1 (ja) * 2013-07-04 2015-01-28 パナソニックIpマネジメント株式会社 ニューラルネットワーク回路、およびその学習方法
JP6501146B2 (ja) * 2014-03-18 2019-04-17 パナソニックIpマネジメント株式会社 ニューラルネットワーク回路およびその学習方法
US10198691B2 (en) * 2014-06-19 2019-02-05 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
US10885429B2 (en) * 2015-07-06 2021-01-05 University Of Dayton On-chip training of memristor crossbar neuromorphic processing systems
US9847125B2 (en) * 2015-08-05 2017-12-19 University Of Rochester Resistive memory accelerator
US10748064B2 (en) * 2015-08-27 2020-08-18 International Business Machines Corporation Deep neural network training with native devices
US10325006B2 (en) * 2015-09-29 2019-06-18 International Business Machines Corporation Scalable architecture for analog matrix operations with resistive devices
US10248907B2 (en) * 2015-10-20 2019-04-02 International Business Machines Corporation Resistive processing unit
US9779355B1 (en) * 2016-09-15 2017-10-03 International Business Machines Corporation Back propagation gates and storage capacitor for neural networks

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HASAN, RAQIBUL ET AL.: "Enabling Back Propagation Training of Memristor Crossbar Neuromorphic Processors", 2014 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, JPN6018035204, 4 September 2014 (2014-09-04), pages 21 - 28 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129204A1 (ja) * 2018-12-20 2020-06-25 Tdk株式会社 ニューロモーフィック回路、ニューロモーフィックアレイの学習方法およびプログラム
JPWO2020129204A1 (ja) * 2018-12-20 2021-03-11 Tdk株式会社 ニューロモーフィック回路、ニューロモーフィックアレイの学習方法およびプログラム
JP2022539751A (ja) * 2019-07-03 2022-09-13 マイクロン テクノロジー,インク. ニューラルネットワークメモリ
WO2022091794A1 (ja) * 2020-10-30 2022-05-05 国立大学法人 奈良先端科学技術大学院大学 ニューロモーフィック装置及びニューロモーフィックシステム
WO2023228869A1 (ja) * 2022-05-21 2023-11-30 渡辺浩志 シリコンブレイン

Also Published As

Publication number Publication date
US10332004B2 (en) 2019-06-25
US20170017879A1 (en) 2017-01-19
WO2017010049A1 (en) 2017-01-19
JP6477924B2 (ja) 2019-03-06

Similar Documents

Publication Publication Date Title
JP6477924B2 (ja) メモリスタ神経形態学的回路及びメモリスタ神経形態学的回路をトレーニングするための方法
JP6477922B2 (ja) メモリスタ神経形態学的回路及びメモリスタ神経形態学的回路をトレーニングするための方法
US10708522B2 (en) Image sensor with analog sample and hold circuit control for analog neural networks
US11361216B2 (en) Neural network circuits having non-volatile synapse arrays
US11501130B2 (en) Neural network hardware accelerator architectures and operating method thereof
Gokmen et al. Training deep convolutional neural networks with resistive cross-point devices
US9779355B1 (en) Back propagation gates and storage capacitor for neural networks
US9715655B2 (en) Method and apparatus for performing close-loop programming of resistive memory devices in crossbar array based hardware circuits and systems
Adhikari et al. Memristor bridge synapse-based neural network and its learning
CN113469334B (zh) 一种忆阻递归神经网络电路
JP6724870B2 (ja) 人工ニューラルネットワーク回路の訓練方法、訓練プログラム、及び訓練装置
US10453527B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
Rosenthal et al. A fully analog memristor-based neural network with online gradient training
US11087204B2 (en) Resistive processing unit with multiple weight readers
TWI698884B (zh) 記憶體裝置及其操作方法
TWI699711B (zh) 記憶體裝置及其製造方法
US10381074B1 (en) Differential weight reading of an analog memory element in crosspoint array utilizing current subtraction transistors
CN112005252A (zh) 具有单独权重更新和干扰电路的电阻式处理单元架构
US20210374546A1 (en) Row-by-row convolutional neural network mapping for analog artificial intelligence network training
TW201937413A (zh) 具有非揮發性突觸陣列的神經網路電路
US11727253B2 (en) Neural network system including gate circuit for controlling memristor array circuit
Hassan et al. Hybrid spiking-based multi-layered self-learning neuromorphic system based on memristor crossbar arrays
Donahue et al. Design and analysis of neuromemristive echo state networks with limited-precision synapses
Oshio et al. A memcapacitive spiking neural network with circuit nonlinearity-aware training
CN115796252A (zh) 权重写入方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190121

R150 Certificate of patent or registration of utility model

Ref document number: 6477924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250