JP7244525B2 - 深層学習人工ニューラルネットワークにおけるアナログ不揮発性メモリ用のプログラム可能なニューロン - Google Patents

深層学習人工ニューラルネットワークにおけるアナログ不揮発性メモリ用のプログラム可能なニューロン Download PDF

Info

Publication number
JP7244525B2
JP7244525B2 JP2020537005A JP2020537005A JP7244525B2 JP 7244525 B2 JP7244525 B2 JP 7244525B2 JP 2020537005 A JP2020537005 A JP 2020537005A JP 2020537005 A JP2020537005 A JP 2020537005A JP 7244525 B2 JP7244525 B2 JP 7244525B2
Authority
JP
Japan
Prior art keywords
circuit
vector matrix
array
input
operational amplifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020537005A
Other languages
English (en)
Other versions
JP2021509514A5 (ja
JP2021509514A (ja
Inventor
バン トラン、ヒュー
ホン、スタンレー
リ、アン
ブー、サン
パム、ヒエン
ニュエン、カ
トラン、ハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Silicon Storage Technology Inc
Original Assignee
Silicon Storage Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Silicon Storage Technology Inc filed Critical Silicon Storage Technology Inc
Publication of JP2021509514A publication Critical patent/JP2021509514A/ja
Publication of JP2021509514A5 publication Critical patent/JP2021509514A5/ja
Application granted granted Critical
Publication of JP7244525B2 publication Critical patent/JP7244525B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/45Differential amplifiers
    • H03F3/45071Differential amplifiers with semiconductor devices only
    • H03F3/45076Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier
    • H03F3/45475Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier using IC blocks as the active amplifying circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/04Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS
    • G11C16/0408Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors
    • G11C16/0425Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors comprising cells containing a merged floating gate and select transistor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06GANALOGUE COMPUTERS
    • G06G7/00Devices in which the computing operation is performed by varying electric or magnetic quantities
    • G06G7/12Arrangements for performing computing operations, e.g. operational amplifiers
    • G06G7/14Arrangements for performing computing operations, e.g. operational amplifiers for addition or subtraction 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06GANALOGUE COMPUTERS
    • G06G7/00Devices in which the computing operation is performed by varying electric or magnetic quantities
    • G06G7/12Arrangements for performing computing operations, e.g. operational amplifiers
    • G06G7/18Arrangements for performing computing operations, e.g. operational amplifiers for integration or differentiation; for forming integrals
    • G06G7/184Arrangements for performing computing operations, e.g. operational amplifiers for integration or differentiation; for forming integrals using capacitive elements
    • G06G7/186Arrangements for performing computing operations, e.g. operational amplifiers for integration or differentiation; for forming integrals using capacitive elements using an operational amplifier comprising a capacitor or a resistor in the feedback loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06GANALOGUE COMPUTERS
    • G06G7/00Devices in which the computing operation is performed by varying electric or magnetic quantities
    • G06G7/12Arrangements for performing computing operations, e.g. operational amplifiers
    • G06G7/24Arrangements for performing computing operations, e.g. operational amplifiers for evaluating logarithmic or exponential functions, e.g. hyperbolic functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2203/00Indexing scheme relating to amplifiers with only discharge tubes or only semiconductor devices as amplifying elements covered by H03F3/00
    • H03F2203/45Indexing scheme relating to differential amplifiers
    • H03F2203/45524Indexing scheme relating to differential amplifiers the FBC comprising one or more active resistors and being coupled between the LC and the IC
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/45Differential amplifiers
    • H03F3/45071Differential amplifiers with semiconductor devices only
    • H03F3/45076Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier
    • H03F3/45179Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier using MOSFET transistors as the active amplifying circuit
    • H03F3/45269Complementary non-cross coupled types

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Semiconductor Memories (AREA)
  • Read Only Memory (AREA)
  • Non-Volatile Memory (AREA)
  • Complex Calculations (AREA)
  • Feedback Control In General (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Description

(優先権の主張)
本出願は、2018年1月3日出願の米国仮特許出願第62/613,373号及び2018年3月27日出願の米国特許出願第15/936,983号に対する優先権を主張するものである。
(発明の分野)
人工ニューラルネットワークにおいてベクトルマトリクス乗算(VMM)アレイの電流出力を処理するための多数の実施形態が開示される。実施形態は、加算器回路及び活性化関数回路を備える。加算器回路及び/又は活性化関数回路は、電力消費を最適化するために、VMMから受け取った可能な電流の合計に応答して調整することができる回路要素を備える。
人工ニューラルネットワークは、多数の入力によって異なり得る機能を推定する又は近似するために使用され、概ね未知である生物学的ニューラルネットワーク(動物の中枢神経系、特に脳)によく似ている。人工ニューラルネットワークは、概して、メッセージを交換する相互接続した「ニューロン」の層を含む。
図1は、人工ニューラルネットワークを図示しており、ここで円は、入力又はニューロンの層を表す。接続(シナプスと呼ばれる)は、矢印によって表され、経験に基づいて調整され得る数値の重みを有する。これは、ニューラルネットワークが入力に適応できるようにし、学習できるようにする。典型的には、ニューラルネットワークは、複数の入力の層を含む。典型的には、1つ以上のニューロンの中間層、及びニューラルネットワークの出力を提供するニューロンの出力層が存在する。それぞれのレベルでニューロンは、シナプスから受け取ったデータに基づいて個々に又は集合的に決定を行う。
高性能情報処理用の人工ニューラルネットワークの開発における主要な課題の1つは、適切なハードウェア技術の欠如である。実際には、実用ニューラルネットワークは、非常に多数のシナプスに頼り、ニューロン間の高い接続性、すなわち、非常に高度な計算的並行処理を可能にする。原理的には、このような複雑性は、デジタルスーパーコンピュータ又は専門化したグラフィック処理ユニットクラスタによって実現され得る。しかしながら、高コストに加え、これらのアプローチはまた、主として低精度のアナログ計算を実施するのではるかに少ないエネルギーしか消費しない生物学的ネットワークに比べてあまり良くないエネルギー効率に悩まされている。CMOSアナログ回路は、人工ニューラルネットワークに使用されてきたが、ほとんどのCMOS実装シナプス(CMOS-implemented synapses)は、多数のニューロン及びシナプスを考えるとかさばりすぎていた。
出願人は以前に、参照により組み込まれる米国特許出願第15/594,439号において、シナプスとして1つ以上の不揮発性メモリアレイを利用する人工(アナログ)ニューラルネットワークを開示した。不揮発性メモリアレイは、アナログニューロモーフィックメモリとして動作する。ニューラルネットワークデバイスは、第1の複数の入力を受け取るように、かつそれから第1の複数の出力を生成するように構成されている第1の複数のシナプス、及び第1の複数の出力を受け取るように構成された第1の複数のニューロンを含む。第1の複数のシナプスは、半導体基板に形成された、間にチャネル領域が延在している離間したソース領域及びドレイン領域と、チャネル領域の第1の部分の上方に配置され、チャネル領域の第1の部分から絶縁された浮遊ゲートと、チャネル領域の第2の部分の上方に配置され、チャネル領域の第2の部分から絶縁された非浮遊ゲートと、をそれぞれが含む複数のメモリセルを含む。複数のメモリセルのそれぞれは、浮遊ゲートの多くの電子に対応する重み値を格納するように構成されている。複数のメモリセルは、第1の複数の入力に、格納された重み値を乗じて第1の複数の出力を生成するように構成されている。
アナログニューロモーフィックに使用される各不揮発性メモリセルは、消去され、浮遊ゲートに非常に特異的かつ正確な量の電荷を保持するようにプログラムされなければならない。例えば、各浮動ゲートはN個の異なる値のうちの1つを保持しなければならず、ここで、Nは、各セルによって示され得る異なる重みの数である。Nの例としては、16、32、及び64が挙げられる。
出願人はまた、参照により組み込まれる米国特許出願第15/826,345号において、人工ニューラルネットワークで使用されるアナログニューロモーフィックメモリを調整するための改良された機構及びアルゴリズムを開示している。
アナログニューロモーフィックメモリを利用する人工ニューラルネットワークは、典型的には、各VMMステージの後に、加算器及び活性化関数回路を備える。加算器が、VMMからの電流信号を電圧信号に変換し、次いで、活性化関数回路が、電圧信号を正規化し、次のVMMステージに提供され得る正規化された電流信号を生成する。先行技術の加算器及び活性化回路は、典型的には、柔軟性がなく、特定のVMMアレイごとに構成することができない。VMMは、出力することができる電流の最大レベルで変化し得るため、これは問題である。
必要とされるのは、加算器回路及び活性化回路であって、特定のVMMの特性を考慮するように調整又はトリミングすることができる人工ニューラルネットワークで使用するための改善された加算器回路及び活性化回路である。
人工ニューラルネットワークにおけるベクトルマトリクス乗算(VMM)アレイの電流出力を処理するための多数の実施形態が開示される。実施形態は、加算器回路及び活性化関数回路を備える。加算器回路及び/又は活性化関数回路は、電力消費を最適化するために、VMMから受け取った可能な電流の合計に応じて調整することができる回路要素を備える。
人工ニューラルネットワークを示す図である。 従来の2ゲート不揮発性メモリセルの横断面図である。 従来の4ゲート不揮発性メモリセルの横断面図である。 従来の3ゲート不揮発性メモリセルの横断面図である。 別の従来の2ゲート不揮発性メモリセルの横断面図である。 不揮発性メモリアレイを利用する異なるレベルの例示的人口ニューラルネットワークを示す図である。 ベクトル乗算器マトリクスを示すブロック図である。 様々なレベルのベクトル乗算器マトリクスを示すブロック図である。 人工ニューラルネットワークで使用するための不揮発性メモリセルのアレイを示す。 図9の不揮発性メモリセルで動作を実行するための動作電圧を示す。 人工ニューラルネットワークで使用するための不揮発性メモリセルのアレイを示す。 図11の不揮発性メモリセルで動作を実行するための動作電圧を示す。 人工ニューラルネットワークで使用するための不揮発性メモリセルのアレイを示す。 図13の不揮発性メモリセルで動作を実行するための動作電圧を示す。 人工ニューラルネットワークで使用するための不揮発性メモリセルのアレイを示す。 図15の不揮発性メモリセルで動作を実行するための動作電圧を示す。 加算器及び活性化関数回路に結合されたVMMアレイを示す。 図17からの活性化関数回路の入出力特性のプロットを示す。 先行技術の加算器回路を示す。 調整可能な加算器回路の一実施形態を示す。 可変抵抗器の一実施形態を示す。 制御回路の一実施形態を示す。 調整可能な加算器回路の一実施形態を示す。 調整可能な差分加算器回路の一実施形態を示す。 VMMアレイと、加算器回路と、活性化関数回路と、制御回路と、を備える人工ニューラルネットワークステージの一実施形態を示す。 基準制御回路を示す図である。 調整可能な加算器回路の一実施形態を示す。 調整可能な加算器回路の一実施形態を示す。 調整可能な差分加算器回路の一実施形態を示す。 活性化関数回路の一実施形態を示す。 演算増幅器の一実施形態を示す。 高電圧演算増幅器の一実施形態を示す。
本発明の人工ニューラルネットワークは、CMOS技術及び不揮発性メモリアレイの組み合わせを利用する。
不揮発性メモリセル
デジタル不揮発性メモリは、周知である。例えば、米国特許第5,029,130号(「’130号特許」)は、分割ゲート不揮発性メモリセルのアレイを開示し、あらゆる目的のために参照により本明細書に組み込まれる。このようなメモリセルを図2に示す。各メモリセル210は、半導体基板12に形成され、チャネル領域18をその間に有するソース領域14とドレイン領域16と、を含む。浮遊ゲート20は、チャネル領域18の第1の部分の上方に形成され、チャネル領域18の第1の部分から絶縁されて(かつその導電性を制御して)おり、またソース領域16の一部分の上方に形成されている。ワード線端子22(典型的には、ワード線に結合される)は、チャネル領域18の第2の部分の上方に配設され、チャネル領域18の第2の部分から絶縁され、(かつその導電性を制御する)第1の部分と、浮遊ゲート20の上方に、かつ上方で延在する第2の部分と、を有する。浮遊ゲート20及びワード線端子22は、ゲート酸化物によって基板12から絶縁される。ビット線24はドレイン領域16に結合される。
メモリセル210は、ワード線端子22に高圧正電圧を印加することによって消去され(ここで電子は、浮遊ゲートから除去される)、それにより、ファウラーノルドハイムトンネリングによって浮遊ゲート20からワード線端子22まで中間絶縁体を通って浮遊ゲート20の電子をトンネリングさせる。
メモリセル210は、ワード線端子22に正電圧、及びソース16に正電圧を印加することによってプログラムされる(ここで電子は、浮遊ゲートに印加される)。電子電流は、ソース16からドレイン14に向かって流れることになる。電子は、ワード線端子22と浮遊ゲート20との間の間隙に達すると、加速し発熱する。熱せられた電子のいくらかは、浮遊ゲート20からの静電引力に起因してゲート酸化物26を通って浮遊ゲート20のに注入される。
ドレイン14及びワード線端子22に正の読み出し電圧を印加する(ワード線端子下のチャネル領域をターンオンする)ことによって、メモリセル210が読み出される。浮遊ゲート20が正に帯電する(すなわち、電子を消去し、ドレイン16に正に結合する)場合、浮遊ゲート20下のチャネル領域の部分は、次に同様にオンになり、電流は、チャネル領域18を流れ、これは、消去された状態つまり「1」の状態として検知される。浮遊ゲート20が負に帯電する(すなわち、電子でプログラムされる)場合、次に浮遊ゲート20下のチャネル領域の部分は、ほとんど又は完全にオフになり、電流は、チャネル領域18を流れず(又はわずかに流れる)、プログラムされた状態又は「0」の状態として検出される。
表1は、読み出し、消去及びプログラム動作を実行するためのメモリセル210の端子に印加され得る典型的な電圧範囲を示す。
表1:図2のフラッシュメモリセル210の動作
Figure 0007244525000001
他の分割ゲートメモリセル構成が知られている。例えば、図3は、ソース領域14と、ドレイン領域16と、チャネル領域18の第1の部分の上方にある浮遊ゲート20と、チャネル領域18の第2の部分の上方にある選択ゲート28(典型的には、ワード線に結合される)と、浮遊ゲート20の上方にある制御ゲート22と、ソース領域14の上方にある消去ゲート30と、を備える4ゲートメモリセル310を示す。この構成は、米国特許第6,747,310号に記載され、この米国特許は、あらゆる目的のため参照により本明細書に組み込まれる。ここで、全てのゲートは、浮遊ゲート20を除いて、非浮遊ゲートであり、それらは電圧源に電気的に接続されている又は接続可能であることを意味する。プログラミングは、浮遊ゲート20にそれ自体を注入するチャネル領域18からの熱せられた電子によって示される。消去は、浮遊ゲート20から消去ゲート30へトンネリングする電子によって示される。
表2は、読み出し、消去及びプログラム動作を実行するためのメモリセル310の端子に印加され得る典型的な電圧範囲を示す。
表2:図3のフラッシュメモリセル310の動作
Figure 0007244525000002
図4は、分割ゲート3ゲートメモリセル410を示す。メモリセル410は、メモリセル410が別個の制御ゲートを有しないことを除いて、図3のメモリセル310と同一である。消去動作(消去ゲートを通しての消去)及び読み出し動作は、制御ゲートバイアスがないことを除いて、図3のものと同様である。プログラミング動作もまた、制御ゲートバイアスなしで行われるため、ソース線のプログラム電圧は、制御ゲートバイアスの不足を補償するためにより高い。
表3は、読み出し、消去及びプログラム動作を実行するためのメモリセル410の端子に印加され得る典型的な電圧範囲を示す。
表3:図4のフラッシュメモリセル410の動作
Figure 0007244525000003
図5は、積層ゲートメモリセル510.を示す。メモリセル510は、浮遊ゲート20がチャネル領域18全体の上方に延在し、制御ゲート22が絶縁層によって分離された浮遊ゲート20の上方に延在することを除いて、図2のメモリセル210と同様である。消去、プログラミング、及び読み出し動作は、メモリセル210について前述したものと同様の方法で動作する。
表4は、読み出し、消去及びプログラム動作を実行するためのメモリセル510の端子に印加され得る典型的な電圧範囲を示す。
表4:図5のフラッシュメモリセル510の動作
Figure 0007244525000004
上記の人工ニューラルネットワークにおける不揮発性メモリセルのタイプのうちの1つを含むメモリアレイを利用するために、2つの変更が行われる。第1に、以下に更に説明されるように、アレイの他のメモリセルのメモリ状態に悪影響を与えずに各メモリセルを個々にプログラム、消去、及び読み出しすることができるように線を再構成する。第2に、メモリセルの連続(アナログ)プログラミングを提供する。
具体的には、アレイの各メモリセルのメモリ状態(すなわち、浮遊ゲートの電荷)を、完全に消去された状態から完全にプログラムされた状態へ、及び逆もまた同様に、独立して、かつ他のメモリセルの異常が最小で連続的に変更することができる。このことは、セル格納がアナログであるか、又は多数の離散値(16又は32の異なる値など)のうちの1つを最低限格納することができ、それは、メモリアレイの全てのセルの非常に正確、かつ個々の調整を可能にし、またメモリアレイを格納に対して理想的にし、ニューラルネットワークのシナプシスの重みに微調整を加えることを意味する。
不揮発性メモリセルアレイを使用するニューラルネットワーク
図6は、不揮発性メモリアレイを利用するニューラルネットワークの非限定実施例を示す。この例は、顔認識アプリケーションのために不揮発性メモリアレイニューラルネットを使用するが、不揮発性メモリアレイベースのニューラルネットワークを使用して他の任意の適切なアプリケーションを実施することができる。
S0は入力であり、この例では、5ビット精度の32×32ピクセルRGB画像である(すなわち、各色R、G、及びBにつき1つずつの3つの32×32ピクセルアレイ、各ピクセルが5ビット精度である)。S0からC1に行くシナプスCB1は、異なる重みのセット及び共有される重みの両方を有し、入力画像を3×3ピクセルの重なり合うフィルタでスキャンし(カーネル)、1ピクセル(又はモデルによって決まるように2ピクセル以上)ずつフィルタをシフトする。具体的には、画像の3×3部分における9ピクセルの値(すなわち、フィルタ又はカーネルと呼ばれる)は、シナプスCB1に提供され、それによってこれらの9個の入力値に適切な重みを乗じ、その乗算の出力の合計後、単一の出力値が決定され、特徴マップC1の層の1つのピクセルを生成するためにCB1の第1のニューロンによって与えられる。3×3フィルタは次に右側に1ピクセルだけシフトされ(すなわち、3ピクセルの列を右側に追加し、左側で3ピクセルの列をドロップする)、そのため、この新しく位置づけられたフィルタの9ピクセル値が、シナプスCB1に提供されるため、それらに同じ重みを乗じ、関連するニューロンによって第2の単一の出力値を決定する。このプロセスを、3×3フィルタが32×32ピクセル画像全体にわたって3色全て及び全てのビットについてスキャンするまで続ける(精度値)。プロセスは次に、層C1の特徴マップ全てが計算されるまで、異なる重みのセットを使用して繰り返されて、C1の異なる特徴マップを生成する。
C1において、本例では、それぞれ30×30ピクセルを有する16個の特徴マップが存在する。各ピクセルは、入力とカーネルとの乗算から抽出された新しい特徴ピクセルであり、したがって、各特徴マップは、2次元アレイであり、したがってこの例では、シナプスCB1は、2次元アレイの16層を構成する(本明細書で言及されるニューロン層及びアレイは、必ずしも物理的関係ではなく論理的な関係であり、すなわち、アレイは必ずしも物理的な2次元アレイに配向されないことに留意する)。16個の特徴マップのそれぞれは、フィルタスキャンに適用される16個の異なるシナプス重みのセットの1つによって生成される。C1特徴マップは全て、境界同定など同じ画像特徴の異なる態様を対象とすることができる。例えば、第1のマップ(この第1のマップを生成するのに使用される全てのスキャンに共有される第1の重みセットを使用して生成される)は、円形エッジを識別することができ、第2のマップ(第1の重みセットと異なる第2の重みセットを使用して生成される)は、方形エッジ又は特定の特徴のアスペクト比などを識別することができる。
各特徴マップ中の連続する、重なり合わない2×2領域からの値をプールする活性化関数P1(プーリング)は、C1からS1へ行く前に適用される。プーリング段階の目的は、平均して近隣の位置にすること(又はmax関数もまた使用され得る)、例えばエッジ位置の依存を低減すること、及び次の段階に行く前にデータサイズを低減することである。S1において、16個の15×15特徴マップ(すなわち、16個のそれぞれ15×15ピクセルの異なるアレイ)が存在する。S1からC2へ行くCB2のシナプス及び関連するニューロンは、S1のマップを1ピクセルのフィルタシフトを使用して4×4フィルタでスキャンする。C2において、22個の12×12特徴マップが存在する。各特徴マップ中の連続する、重なり合わない2×2領域からの値をプールする活性化関数P2(プーリング)は、C2からS2へ行く前に適用される。S2において、22個の6×6特徴マップが存在する。活性化関数は、S2からC3へ行くシナプスCB3で適用され、ここでC3の全てのニューロンはS2の全てのマップに接続する。C3において、64個のニューロンが存在する。C3から出力S3へ行くシナプスCB4は、S3をC3と完全に接続する。S3における出力は、10個のニューロンを含み、ここで最も高い出力ニューロンは、クラスを決定する。この出力は、例えば、元の画像の内容の同定又は分類を示すことができる。
シナプスの各レベルは、不揮発性メモリセルのアレイ又はアレイの一部を使用して実行される。図7は、不揮発性メモリセルを含み、入力層と次の層との間のシナプスとして利用されるベクトルマトリクス乗算(VMM)アレイのブロック図である。具体的には、VMM32は、不揮発性メモリセルのアレイ33、消去ゲート及びワード線ゲートデコーダ34、制御ゲートデコーダ35、ビット線デコーダ36、並びにソース線デコーダ37を含み、それらのデコーダはメモリアレイ33に対する入力をデコードする。この例におけるソース線デコーダ37はまた、メモリセルアレイの出力をデコードする。メモリアレイは、2つの目的を果たす。第1に、VMMにより使用される重みを格納する。第2に、メモリアレイは、効果的に、入力に、メモリアレイに格納された重みを乗じて出力を生み出し、これは、次の層への入力又は最後の層への入力になる。乗算関数を実行することによって、メモリアレイは、別個の乗算論理回路の必要性をなくし、また、その場でのメモリ計算のために電力効率も良い。
メモリアレイの出力は、メモリセルアレイの出力を合計してその畳み込み用の単一の値を作り出す、差動加算器(加算オペアンプなど)38に供給される。差動加算器は、正の入力で正の重みと負の重みとの合計を実現するようなものである。合計された出力値は、次に出力を整流する活性化関数回路39に供給される。活性化関数には、シグモイド、tanh、又はReLU関数が含まれ得る。整流された出力値は、次の層(例えば上の説明ではC1)として特徴マップの要素になり、次いで、次のシナプスに適用されて次の特徴マップ層又は最後の層を生み出す。回路39は、プーリング機能を更に含んでもよい。したがって、この例では、メモリアレイは、複数のシナプスを構成し(ニューロンの前の層から、又は画像データベースなどの入力層から入力を受け取る)、加算オペアンプ38及び活性化関数回路39は、複数のニューロンを構成する。
図8は、様々なレベルのVMMのブロック図である。図7に示されるように、入力は、デジタルアナログ変換器31によってデジタルからアナログに変換され、入力VMM32aに提供される。入力VMM32aによって生成された出力は、次に、次のVMM(隠しレベル2)32bへの入力として提供される出力を生成する次のVMM(隠しレベル1)32bへの入力として提供される、などとなる。VMMの32の様々な層は、畳み込みニューラルネットワーク(convolutional neural network、CNN)のシナプス及びニューロンの異なる層として機能する。各VMMは、スタンドアローンの不揮発性メモリアレイであり得、又は複数のVMMは、同じ不揮発性メモリアレイの異なる部分を利用することができ、又は複数のVMMは、同じ不揮発性メモリアレイの重なり合う部分を利用することができる。図8に示すように、5層が存在し、隠れ層と、5層を超える完全に接続された層との他の組み合わせが可能である。
ベクトルマトリクス乗算(VMM)アレイ
図9は、図2に示されるタイプのメモリセルに特に適したニューロンVMM900を示し、入力層と次の層との間のシナプス及び部品として利用される。VMM900は、不揮発性メモリセルのメモリアレイ903、基準アレイ901、及び基準アレイ902を備える。基準アレイ901及び902は、端子BLR0~3に流れる電流入力を電圧入力WL0~3に変換する役割を果たす。図示の基準アレイ901及び902は、列方向にある。一般に、基準アレイ方向は入力線に直交する。実際には、基準メモリセルは、マルチプレクサ(1つのマルチプレクサ及び基準ビット線をバイアスするための1つのカスコードトランジスタVBLRを含むマルチプレクサ914)を介して接続されたダイオードであり、電流入力はそれらの中に流れる。基準セルは、標的基準レベルに調整される。
メモリアレイ903は、2つの目的を果たす。第1に、VMM900により使用される重みを格納する。第2に、メモリアレイ903は、メモリアレイに格納された重みによって、入力(端子BLR0~3に提供される電流入力であって、基準アレイ901及び902がこれらの電流入力を入力電圧に変換してワード線WL0~3に供給する)を有効に乗算して、出力を生み出し、これが次の層への入力又は最終の層への入力となる。乗算関数を実行することによって、メモリアレイは、別個の乗算論理回路の必要性をなくし、また電力効率も良い。ここで、電圧入力はワード線に提供され、出力は、読み出し(推論)動作中にビット線に現れる。ビット線に位置する電流は、ビット線に接続されたメモリセルからの全ての電流の合計関数を実行する。
図10は、読み出し、消去、及びプログラム動作を実行するために、VMM900のメモリセルの端子に印加され得る典型的な電圧範囲を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルのソース線、及び非選択セルのソース線に位置する電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
図11は、図2に示されるタイプのメモリセルに特に適したニューロンVMM1100を示し、入力層と次の層との間のシナプス及び部品として利用される。VMM1100は、不揮発性メモリセルのメモリアレイ1103、基準アレイ1101、及び基準アレイ1102を備える。VMM1100は、VMM1100においてワード線が垂直方向に延びることを除いて、VMM1100と同様である。2つの基準アレイ1101(頂部で、偶数行の電圧への基準変換入力電流を提供する)及び1102(底部で、奇数行の電圧への基準変換入力電流を提供する)が存在する。ここで、入力はワード線に提供され、出力は読み出し動作中にソース線に現れる。ソース線に位置する電流は、ソース線に接続されたメモリセルからの全ての電流の合計関数を実行する。
メモリアレイ1103は、2つの目的を果たす。第1に、VMM1100により使用される重みを格納する。第2に、メモリアレイ1103は、メモリアレイに格納された重みによって、入力(端子BLR0~3に提供される電流入力であって、基準アレイ1101及び1102がこれらの電流入力を入力電圧に変換して制御ゲートCG0~3に供給する)を有効に乗算して、出力を生み出し、これが次の層への入力又は最終の層への入力となる。乗算関数を実行することによって、メモリアレイは、別個の乗算論理回路の必要性をなくし、また電力効率も良い。ここで、入力はワード線に提供され、出力は読み出し動作中にソース線に現れる。ソース線に位置する電流は、ソース線に接続されたメモリセルからの全ての電流の合計関数を実行する。
(0001)
図12は、読み出し、消去、及びプログラム動作を実行するためのVMM1100のメモリセルの端子に印加され得る典型的な電圧範囲を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルのソース線、及び非選択セルのソース線に位置する電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
(0002)
図13は、図3に示されるタイプのメモリセルに特に適したニューロンVMM1300を示し、入力層と次の層との間のシナプス及び部品として利用される。VMM1300は、VMM1300で、消去ゲート線1301などの消去ゲート線が垂直方向に延びることを除いて、VMM900と同様である。ここで、入力は、制御ゲート線に提供され、出力はビット線に現れる。ビット線に位置する電流は、ビット線に接続されたメモリセルからの全ての電流の合計関数を実行する。
メモリアレイ1301は、2つの目的を果たす。第1に、VMM1300により使用される重みを格納する。第2に、メモリアレイ1301は、メモリアレイに格納された重みによって、入力(端子BLR0~3に提供される電流入力であって、基準アレイ1301及び1302がこれらの電流入力を入力電圧に変換して制御ゲートCG0~3に供給する)を有効に乗算して、出力を生み出し、これが次の層への入力又は最終の層への入力となる。乗算関数を実行することによって、メモリアレイは、別個の乗算論理回路の必要性をなくし、また電力効率も良い。ここで、入力は制御ゲート線に提供され、出力は読み出し動作中にビット線に現れる。ビット線に位置する電流は、ビット線に接続されたメモリセルからの全ての電流の合計関数を実行する。あるいは、入力はワード線に提供され得る。
VMM1300は、メモリアレイ1303のメモリセルの一方向調整を実施する。すなわち、各セルは消去され、次いで、浮遊ゲートの所望の電荷に達するまで部分的にプログラムされる。過度に多くの電荷が浮遊ゲートに位置する場合(誤った値がセルに格納されるなど)、セルは消去されなければならず、一連の部分的なプログラミング動作をやり直さなければならい。示されるように、同じ消去ゲートを共有する2つの行は、一緒に消去される必要があり(ページ消去として知られる)、その後、各セルは、浮遊ゲートの所望の電荷に達するまで部分的にプログラムされる。
図14は、VMM1300の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルの制御ゲート、選択セルと同じセクタの非選択セルの制御ゲート、選択セルとは異なるセクタの非選択セルの制御ゲート、選択セルの消去ゲート、非選択セルの消去ゲート、選択セルのソース線、及び非選択セルのソース線に位置する電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
図15は、図3に示されるタイプのメモリセルに特に適したニューロンVMM1500を示し、入力層と次の層との間のシナプス及び部品として利用される。VMM1500は、不揮発性メモリセルのメモリアレイ1501、及び基準アレイ1502(アレイの頂部で)を備える。あるいは、別の基準アレイが、図10のものと同様に、底部に位置することができる。他の点では、VMM1500は、VMM1500で、制御ゲート線1503などの制御ゲート線が垂直方向に延び(したがって、行方向の基準アレイ1502が入力制御ゲート線に直交する)、消去ゲート線1504などの消去ゲート線が水平方向に延びることを除いて、VMM1500と同様である。ここで、入力は制御ゲート線に提供され、出力はソース線に現れる。一実施形態では、偶数行のみが使用され、別の実施形態では、奇数行のみが使用される。ソース線に位置する電流は、ソース線に接続されたメモリセルからの全ての電流の合計関数を実行する。
ESFベクトルマトリックス乗算器の他の実施形態は、参照により本明細書に組み込まれる米国特許出願第15/826,345号に記載されているとおりである。ソース線又はビット線は、ニューロン出力(電流和出力)として使用することができる。
図16は、VMM1500の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルの制御ゲート、選択セルと同じセクタの非選択セルの制御ゲート、選択セルとは異なるセクタの非選択セルの制御ゲート、選択セルの消去ゲート、非選択セルの消去ゲート、選択セルのソース線、及び非選択セルのソース線に位置する電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
ニューラルネットワークについて本明細書に記載されるように、フラッシュセルは、サブ閾値領域で動作するように構成されることが好ましい。
本明細書に記載されたメモリセルは、弱反転にバイアスされる。
Ids=Io*(Vg-Vth)/kVt=w*Io*(Vg)/kVt
w=e(-Vth)/kVt
入力電流を入力電圧に変換するためにメモリセルを使用するIーVログ変換器について:
Vg=k*Vt*log[Ids/wp*Io]
ベクトルマトリクス乗算器VMMとして使用されるメモリアレイについて、出力電流は以下である:
Iout=wa*Io*(Vg)/kVt、すなわち
Iout=(wa/wp)*Iin=W*Iin
W=e(Vthp-Vtha)/kVt
あるいは、フラッシュメモリセルは、線形領域で動作するように構成することができる。
Ids=β*(Vgs-Vth)*Vds;β=u*Cox*W/L
W α(Vgs-Vth)
I-V線形変換器では、線形領域で動作するメモリセルを使用して、入力/出力電流を入力/出力電圧に線形に変換することができる。
ESFベクトルマトリックス乗算器の他の実施形態は、参照により本明細書に組み込まれる米国特許出願第15/826,345号に記載されているとおりである。ニューロン出力として、ソース線又はビット線を使用することができる。
加算器回路及び活性化関数回路
図17は、加算器回路及び活性化機能回路が続くニューロンVMMの2つの段階を示す。システム1700は、VMMアレイ1701、1702、1704、及び1705を備える。VMMアレイ1701及び1702は、ニューロン出力回路1703(加算器回路及び活性化関数回路を含む)を共有し、VMMアレイ1704及び1705は、ニューロン出力回路1706(加算器回路及び活性化関数回路を含む)を共有する。VMMアレイ1701の出力及びVMM1702の出力は、異なる時間(例えば、時分割多重活性化スキーム)でニューロン出力回路1703に提供される。ニューロン出力回路1703は、まず、VMM1701又は1702の出力電流を合計して、その畳み込みのための単一の値を作り出し、それによって、正の入力で正の重みと負の重みとの合計を実現する。合計された出力値は、次いで、出力を整流する活性化関数回路に供給される。活性化関数には、シグモイド、tanh、又はReLU関数が含まれ得る。整流された出力値は、次の層としての機能マップの要素となり、次いで、次のシナプス(ここでは、VMMアレイ1704又はVMMアレイ1705)に適用されて、次の特徴マップ層又は最終層を生み出す。各VMMは、図9、11、13及び15を参照して前述したVMM設計のうちの1つに従うことができる。
VMMアレイ1704の出力及びVMM1705の出力は、ニューロン出力回路1706に異なる時間(例えば、時分割多重化方式)で提供される。ニューロン出力回路1706は、まず、VMM1704又は1705の出力電流を合計して、その畳み込みのための単一の値を作り出し、それによって正の入力で正の重みと負の重みとの合計を実現する。合計された出力値は、次いで、出力を整流する活性化関数回路に供給される。活性化関数には、シグモイド、tanh、又はReLU関数が含まれ得る。整流された出力値は、次の層として特徴マップの要素になり、又は、最後の結果を表し、次いで、もし存在すれば、次のシナプスに適用されて次の特徴マップ層又は最後の層を生み出す。
上述の図に示される様々なVMMアレイのサイズは、層の深さ(入力、隠れ、出力)、フィルタサイズ、プーリングサイズ、特徴マップサイズ及び深さなどのアーキテクチャ及び畳み込み動作因子に依存する。サイズはまた、入力又は出力の時間多重化が使用されるかどうかに依存する。
図18は、ニューロン出力回路1703又は1706によって実行される活性化関数のプロット1800を示す。この例では、活性化関数は、tanh関数(双曲線正接関数)である。
図19は、電流加算器であり、電流信号を電圧信号に変換する先行技術のニューロン回路1900を示す。ここで、ニューロン回路1900は、ここでは、演算増幅器1901の反転入力に結合されている電流源1902として表されている、VMM1701、1702、1704、又は1705などのVMM(I_NEUと標示されている)から電流を受け取る。演算増幅器1901の非反転入力は、電圧源(VREFと標示されている)に結合される。演算増幅器1901の出力(VOと標示されている)は、抵抗器1903(R_NEUと標示されている)に結合され、次いで、電流源1902及び演算増幅器1901の反転入力に結合される。出力電圧VOは、電流I_NEU*R_NEUに等しい。I_NEUの最大値は、VMMに含まれるシナプスの数及び重量値に依存する。特に、R_NEUは固定抵抗であり、I_NEUが増加するにつれて、VO及び全体的な電力消費も増加する。
図20は、電流を合計し、合計電流信号を電圧信号に変換するためのニューロン回路2000を示す。ニューロン回路2000は、ここでは、演算増幅器2001の反転入力に結合されている電流源2002として表されている、VMM1701、1702、1704、又は1705などのVMM(I_NEUと標示されている)から電流を受け取る。演算増幅器2001の非反転入力は、電圧源(VREFと標示されている)に結合される。演算増幅器2001の出力(VOと標示されている)は、抵抗器2003(R_NEUと標示されている)に結合され、次いで、電流源2002及び演算増幅器2001の反転入力に結合される。出力電圧VOは、電流I_NEU*R_NEU-VREFに等しい。I_NEUの最大値は、VMMに含まれるシナプスの数及び重量値に依存する。図19の設計とは異なり、R_NEUは可変抵抗であり、電流I_NEUを提供するVMMに適合させることができる。例えば、抵抗R_NEUは、I_NEUにおける平均又はピーク電流に基づいて電力を最小化するように構成又はトリミングすることができる。
図21は、可変抵抗器2103の一実施形態を示す。可変抵抗器2103は、第1の端子2102及び第2の端子2103を備える。可変抵抗器2103は、第1の端子2102と第2の端子2103との間の個別の抵抗器2101a、2101b、...、2101pのうちの1つ以上を結合し、それによって可変抵抗器2103の全体抵抗(R_NEU)を構成するように構成することができる。任意選択的に、これは、構成又はトリミング段階の間に実行することができる。
図22は、制御信号VCONTROLを生成して、図21の可変抵抗器2103を置き換える働きをする連続可変抵抗MOSトランジスタを制御するためのニューロン制御回路2200を示す。ニューロン制御回路2200は、演算増幅器2201を備える。演算増幅器2201の反転入力は、電流バイアス源2202(IBIASを生成する)及び線形領域で動作するNMOS Rレプリカ(抵抗を複製する)トランジスタ2203のソースに結合される。NMOS Rレプリカトランジスタ2203のドレインは、電圧源VDREF2211に結合される。演算増幅器2201の非反転入力は、電圧源(VREF2210と標示されている)に結合される。演算増幅器2201の出力2220(VCONTROLと標示されている)は、NMOSトランジスタ2203のゲート及びNMOSトランジスタ2204のゲートに結合される。NMOSトランジスタ2204のドレインは動作電圧VDに結合され、NMOSトランジスタ2204のソースは、大体VREFの電圧源に結合される。次いで、VCONTROLを、本明細書の図に示される回路の制御信号として使用することができる。
回路は、以下のように機能する。演算増幅器2201の動作により、電圧VREFはNMOS Rレプリカトランジスタ2203のソースのソースに重畳される。したがって、NMOS Rレプリカトランジスタ2203の等価抵抗は、PVT(プロセス/電圧/温度)変動とは無関係に、Req_NEU=(VDREF-VREF)/Ibiasである。NMOS Rレプリカトランジスタ2203は線形領域で動作するので、その抵抗は、そのVds(ソース-ドレイン電圧)の変化よりもはるかに一定のままである。したがって、NMOS Rレプリカトランジスタ2203と同じ又は同様のサイズのMOSを使用することにより、そのゲートがVCONTROL 2220信号によって制御されることにより、図17の抵抗器1703の等価抵抗器として機能する。更に、Ibiasを(及び/又はVDREF及びVREFと共に)調整することによって、抵抗は、必要に応じて、マトリクスベクトル乗算器構成の異なるアレイサイズなどの異なる値について構成することができる。
図23は、電流を加算し、電流信号を電圧信号に変換するためのニューロン回路2300を示す。ニューロン出力回路2300は、ここでは、演算増幅器2301の反転入力に結合されている電流源2302として表されている、VMM1701、1702、1704、又は1705などのVMM(I_NEUと標示されている)から電流を受け取る。演算増幅器2301の非反転入力は、電圧源(VREFと標示されている)に結合される。演算増幅器2301の出力(VOと標示されている)は、NMOSトランジスタ2303のゲートに印加される信号VCONTROLに応答して、実効抵抗R_NEUの可変抵抗として機能するNMOS Rトランジスタ2303に結合される。NMOSトランジスタ2303のサイズは、図22のNMOS Rレプリカトランジスタ2203と同じ又は同様のサイズである。出力電圧VOは、電流I_NEU*R_NEU-VREFに等しい。I_NEUの最大値は、VMMに含まれるシナプスの数及び重量値に依存する。図19の設計とは異なり、R_NEUは可変抵抗であり、例えば、それが結合されるVMMサイズに適合させることができる。R_NEUは、図23のIBIAS及び/又はVDREF及び/又はVREFを変化させることによって変更することができる。更に、加算演算増幅器2301の電力は、電力消費を最小限に抑えるためにR_NEUトランジスタ2303の値に関連して調整される。R_NEUトランジスタ2303の値が増加するにつれて、演算増幅器2301のバイアス(すなわち、電力)は、電流バイアスIBIAS_OPA2304を介して低減され、逆もまた同様である。
図24は、差動電流を合計し、差動電流の合計を電圧信号に変換するための差動ニューロン回路2400を示す。差動ニューロン出力回路2400は、ここでは、それぞれ、電流源2402、2407と表される、VMM1701、1702、1704、又は1705などの第1のVMM(I_NEU0と標示されている)から第1の電流を、VMM1701、1702、1704、又は1705などの第2のVMM(I_NEU1と標示されている)から第2の電流を受け取る。
電流源2402は、演算増幅器2401の反転入力に結合される。演算増幅器2401の非反転入力は、電圧源(VREFと標示されている)に結合される。演算増幅器2401の出力(VO_0と標示されている)は、NMOSトランジスタ2403のゲートに印加される信号VCONTROLに応答して、実効抵抗R_NEUの可変抵抗器として機能するNMOSトランジスタ2403に結合される。出力電圧VO_0は、電流I_NEU0*R_NEU-VREFに等しい。I_NEUの最大値は、VMMに含まれるシナプスの数及び重量値に依存する。R_NEUは、図19及び図24のIBIAS及び/又はVDREF及び/又はVREFを変化させることによって変更することができる。
電流源2407は、演算増幅器2406の反転入力及びNMOSトランジスタ2404及び2405に結合される。演算増幅器2406の非反転入力は、電圧源(VREFと標示されている)に結合される。演算増幅器2406の出力(VOと標示されている)は、NMOSトランジスタ2405のゲートに印加される信号VCONTROLに応答して、実効抵抗R_NEUの可変抵抗器として機能するNMOSトランジスタ2405に結合される。NMOSトランジスタ2405は、NMOSトランジスタ2404を通してVO_0に結合される。NMOSトランジスタ2404は、NMOSトランジスタ2404のゲートに印加される信号VCONTROLに応答して、実効抵抗R_NEUの可変抵抗器として機能する。出力電圧VOは、(I+-I-*R_NEU-VREFに等しい。I+=I_NEU0であり、I-=I_NEU1である。
図25は、システム2500を示す。システム2500は、VMMアレイ2501、ニューロン回路2504(ニューロン回路2000、2300、2400、2500、2700、2800及び2900など)、活性化関数回路2503(活性化関数回路3000など)、並びに、R_NEU(可変抵抗)、IBIAS、及びVCONTROLを制御するための制御回路2500(制御システム2200又は2300など)を備える。制御回路2500は、加算器回路2504(構成された可変抵抗及び演算増幅器回路バイアスなど)及び活性化回路2503(バイアスなど)についての制御、バイアス、及び構成能力を提供する。
図26は、メモリシステム2600を示す。制御システム2600は、トリムビット又は構成ビット、基準電流及び基準電圧を提供して、VCONTROL(加算器回路の可変抵抗を制御するための)を提供する回路2602、又は、構成プロセス中及び/又はトリムプロセス中に、演算増幅器回路用のバイアスを生成する回路2603を構成する、基準回路2601を備える。
図27は、メモリシステム2700を示す。適応可能なニューロン2700は、電流ミラー構成で配置されたPMOSトランジスタ2701及び2702を含む。PMOSトランジスタ2701は、VMM1701、VMM1702、VMM1704、又はVMM1705などのVMMからの電流を表す電流源であるI_NEURON 2703に結合される。この電流は、可変抵抗器2704に提供されるPMOSトランジスタ2702のドレインにミラーリングされる。したがって、適応可能なニューロン2700は、電流信号(I_NEURON)を電圧信号(VO)に変換する。
図28は、適応可能なニューロン2800を示す。図27の適応可能なニューロン2700の1つの欠点は、PMOSトランジスタ2701と2702との間のミスマッチが性能に影響を及ぼし得ることである。図28は、1つのPMOSトランジスタ2801のみを使用することによって、かつ、スイッチ2802、2803、及び2804を使用してそれ自体(すなわち、サンプルホールドミラー)をミラーリングするように基本的に構成することによって、この問題を排除する。最初に、スイッチ2802及びスイッチ2803が閉じられ、スイッチ2804が開いており、そのとき、PMOSトランジスタ2801は、VMM1701、VMM1702、VMM1704、又はVMM1705などのVMMからの電流を表す電流源であるI_NEURONに結合される。次いで、スイッチ2802及びスイッチ2803が開かれ、スイッチ2804が閉じられ、これによって、PMOSトランジスタ2801は、電流I_NEURONをそのドレインから可変抵抗器2806に送る。したがって、適応可能なニューロン2800は、電流信号(I_NEURON)を電圧信号(VO)に変換する。基本的に、トランジスタ2801は、電流I_NEURONをサンプリングし、そのゲートにサンプリングされたゲートソース電圧を記憶することによってそれを保持する。
図29は、差動メモリアレイ2900を示す。適合可能な差動ニューロン2900は、VMM1701、VMM1702、VMM1704、又はVMM1705などの第1のVMMからの電流を表す電流源であるI_NEURON+、及びVMM1701、VMM1702、VMM1704、又はVMM1705などの第2のVMMからの電流を表す電流源であるI_NEURON-を含む。最初に、スイッチ2902及び2903は閉じられ、スイッチ2904は開いている。次いで、スイッチ2902及びスイッチ2903が開かれ、スイッチ2904が閉じられ、これによってPMOSトランジスタ2901は、そのドレインから電流I_NEURON+を送り出す。次いで、ノード2909は、I_NEURON+-I_NEURON-に等しい電流IOを受け取る。ノード2909は、演算増幅器2907の反転入力及びNMOSトランジスタ2908の端子に結合される。演算増幅器2907の非反転入力は、電圧源(VREF)に結合される。NMOSトランジスタ2908の別の端子は、VOである演算増幅器2907の出力に結合される。NMOSトランジスタ2908は、そのゲートの信号VCONTROLに応答して可変抵抗器として機能する。したがって、適応可能な差動ニューロン2900は、差動電流信号(I_NEURON+-I_NEURON-)を電圧信号(VO=(I_NEURON+-I_NEURON-)*R_NEU-VREF)に変換する。
したがって、図20、図23、図24、図25、図27、図28、及び図29に示されるプログラム可能なニューロンは、最適化された電力で所望の動作を実現するために、各VMMの要件に適合するように構成することができる。
可変抵抗器の代替的な実施形態は、等価抵抗が、容量値及びスイッチング周波数に反比例する、スイッチドキャパシタンス回路を備えることができる。
図30は、入力電圧対(Vin+及びVin-)を、tanh関数を使用して電流(Iout_neu)に変換する活性化関数回路3000を示す。活性化関数回路3000は、図示されるように構成された、PMOSトランジスタ3001、3002、3003、3004、3005、及び3006、並びにNMOSトランジスタ3007、3008、3009、及び3010を備える。トランジスタ3003、3004、及び3006は、カスコードトランジスタとして機能する。入力NMOS対3007及び3008は、tanh関数を実現するためにサブ閾値領域で動作する。電流I_neu_maxは、取り付けられたVMM(図示せず)から受け取ることができる最大ニューロン電流である。
図31は、電流を電圧に変換するために加算器回路で使用される演算増幅器3100を示す。演算増幅器3100は、図示の構成において、可変バイアスとして作用するPMOSトランジスタ3101、3102、及び3105、NMOSトランジスタ3103、3104、3106、及び3107、並びにNMOSトランジスタ3108を備える。演算増幅器3100への入力端子は、Vin+(NMOSトランジスタ3104のゲートに印加される)及びVin-(NMOSトランジスタ3103のゲートに印加される)であり、出力はVOである。
図32は、電圧制御信号VCONTROLを提供するために、制御回路に使用される高電圧演算増幅器3200を示す。高電圧演算増幅器3200は、高電圧絶縁破壊を回避するためにカスコード構造を利用する。高電圧演算増幅器3200は、カスコード構成に配置されたPMOSトランジスタ3215及び3216と、カスコード構成に配置されたPMOSトランジスタ3205及び3206と、カスコード構成に配置されたPMOSトランジスタ3201及び3203と、カスコード構成に配置されたPMOSトランジスタ3202及び3204と、を備える。高電圧演算増幅器3200は、カスコード構成で構成されたNMOSトランジスタ3207及び3209と、カスコード構成に配置されたNMOSトランジスタ3208及び3210と、を更に備え、カスコード構成で構成されたNMOSトランジスタ3217及び3218と、カスコード構成に配置されたNMOSトランジスタ3211及び3212と、カスコード構成に配置されたNMOSトランジスタ3212及び32014と、を備える。入力電圧Vin+及びVin-は、NMOSトランジスタ3210及び3209のゲートにそれぞれ印加され、出力はVoである。高電圧演算増幅器3200の全てのトランジスタは、高電圧トランジスタである。
本明細書で使用される場合、「の上方に(over)」及び「に(on)」という用語は両方とも、「に直接」(中間材料、要素、又は空間がそれらの間に何ら配設されない)、及び「に間接的に」(中間材料、要素、又は空間がそれらの間に配設される)を包括的に含むことに留意するべきである。同様に、「隣接した」という用語は、「直接隣接した」(中間材料、要素、又は空間がそれらの間に何ら配設されない)、及び「間接的に隣接した」(中間材料、要素、又は空間がそれらの間に配設される)を含み、「に取り付けられた」は、「に直接取り付けられた」(中間材料、要素、又は空間がそれらの間に何ら配設されない)、及び「に間接的に取り付けられた」(中間材料、要素、又は空間がそれらの間に配設される)を含み、「電気的に結合された」は、「に直接電気的に結合された」(要素を一緒に電気的に連結する中間材料又は要素がそれらの間にない)、及び「間接的に電気的に結合された」(要素を一緒に電気的に連結する中間材料又は要素がそれらの間にある)を含む。例えば、要素を「基板の上方に」形成することは、その要素を基板に直接、中間材料/要素をそれらの間に何ら伴わずに、形成すること、並びにその要素を基板に間接的に、1つ以上の中間材料/要素をそれらの間に伴って、形成することを含み得る。

Claims (65)

  1. フラッシュメモリセルの行及び列を含むベクトルマトリクス乗算アレイと、
    前記ベクトルマトリクス乗算アレイからの電流を受け取り、入力電流に応答して出力電圧を生成するための加算器回路であって、調整可能な回路要素を含む、加算器回路と、
    前記加算器回路から前記出力電圧を入力として受け取り、前記出力電圧に応答して出力電流を生成するための活性化関数回路と、を備える、システム
  2. 前記調整可能な回路要素は可変抵抗器を備える、請求項1に記載のシステム
  3. 前記可変抵抗器は、構成ビット及びトリムビットのうちの1つ以上によって構成される、請求項に記載のシステム
  4. 前記可変抵抗器は、個別の抵抗器要素を使用して構成される、請求項に記載のシステム
  5. 前記可変抵抗器は、MOSランジスタを使用して構成される、請求項に記載のシステム
  6. 前記調整可能な回路要素は、スイッチドキャパシタを備える、請求項1に記載のシステム
  7. 前記調整可能な回路要素はNMOSトランジスタを備え、前記NMOSトランジスタによって提供される抵抗は、前記NMOSトランジスタのゲートによって調整可能である、請求項1に記載のシステム
  8. 前記NMOSトランジスタの前記ゲートは、MOS抵抗レプリカ回路によって制御される、請求項に記載のシステム
  9. 前記MOS抵抗レプリカ回路は、前記NMOSトランジスタと同じ、又は同様のMOSレプリカトランジスタを含む、請求項に記載のシステム
  10. 電流ミラーを更に備える、請求項1に記載のシステム
  11. サンプルホールドミラーを更に備える、請求項1に記載のシステム
  12. 前記活性化関数回路は、前記入力に対して双曲線正接関数を実行して、前記出力電流を生成する、請求項に記載のシステム
  13. 前記活性化関数回路は、前記入力に対してReLU関数を実行して、前記出力電流を生成する、請求項に記載のシステム
  14. 前記活性化関数回路は、前記入力に対してシグモイド関数を実行して、前記出力電流を生成する、請求項に記載のシステム
  15. 前記加算器回路は演算増幅器を含む、請求項1に記載のシステム
  16. 前記演算増幅器のバイアスは、ベクトルマトリクス乗算器アレイサイズごとに調整される、請求項15に記載のシステム
  17. 前記演算増幅器の前記バイアスは、前記調整可能な回路要素の値に基づく、請求項16に記載のシステム
  18. 前記MOS抵抗レプリカ回路は、カスケード構成で配置された複数のトランジスタ対を含む高電圧演算増幅器を備える、請求項に記載のシステム
  19. 前記ベクトルマトリクス乗算アレイからの前記電流は、前記ベクトルマトリクス乗算アレイのビット線に提供される、請求項1に記載のシステム
  20. 前記ベクトルマトリクス乗算アレイからの前記電流は、前記ベクトルマトリクス乗算アレイのソース線に提供される、請求項1に記載のシステム
  21. 前記フラッシュメモリセルは、分割ゲートメモリセルである、請求項1に記載のシステム
  22. フラッシュメモリセルの行及び列を含むベクトルマトリクス乗算アレイと、
    前記ベクトルマトリクス乗算アレイから差動入力電流信号を受け取り、前記差動入力電流信号に応答して出力電圧を生成するための加算器回路であって、調整可能な回路要素を含む、加算器回路と、を備える、システム
  23. 前記加算器回路から前記出力電圧を受け取り、前記出力電圧に応答して出力電流を生成するための活性化関数回路を、更に備える、請求項22に記載のシステム
  24. 前記調整可能な回路要素は可変抵抗器を備える、請求項22に記載のシステム
  25. 前記可変抵抗器は、構成ビット及びトリムビットのうちの1つ以上によって構成されている、請求項24に記載のシステム
  26. 前記可変抵抗器は、個別の抵抗器要素を使用して構成されている、請求項25に記載のシステム
  27. 前記可変抵抗器は、MOSトランジスタを使用して構成されている、請求項25に記載のシステム
  28. 前記調整可能な回路要素はスイッチドキャパシタを備える、請求項22に記載のシステム
  29. 前記調整可能な回路要素はNMOSトランジスタを備え、前記NMOSトランジスタによって提供される抵抗は、前記NMOSトランジスタのゲートによって調整可能である、請求項22に記載のシステム
  30. 前記NMOSトランジスタの前記ゲートは、MOS抵抗レプリカ回路によって制御される、請求項29に記載のシステム
  31. 前記MOS抵抗レプリカ回路は、前記NMOSトランジスタと同じ、又は同様のMOSレプリカトランジスタを含む、請求項30に記載のシステム
  32. 電流ミラーを更に備える、請求項22に記載のシステム
  33. サンプルホールドミラーを更に備える、請求項22に記載のシステム
  34. 前記活性化関数回路は、入力に対して双曲線正接関数を実行して、前記出力電流を生成する、請求項23に記載のシステム
  35. 前記活性化関数回路は、入力に対してReLU関数を実行して、前記出力電流を生成する、請求項23に記載のシステム
  36. 前記活性化関数回路は、入力に対してシグモイド関数を実行して、前記出力電流を生成する、請求項23に記載のシステム
  37. 前記加算器回路は演算増幅器を含む、請求項22に記載のシステム
  38. 前記演算増幅器のバイアスは、ベクトルマトリクス乗算器アレイサイズごとに調整される、請求項37に記載のシステム
  39. 前記演算増幅器の前記バイアスは、前記調整可能な回路要素の値に関連する、請求項38に記載のシステム
  40. 前記MOS抵抗レプリカ回路は、カスケード構成で配置された複数のトランジスタ対を含む高電圧演算増幅器を備える、請求項30に記載のシステム
  41. 前記ベクトルマトリクス乗算アレイからの電流は、前記ベクトルマトリクス乗算アレイのビット線に提供される、請求項22に記載のシステム
  42. 前記ベクトルマトリクス乗算アレイからの電流は、前記ベクトルマトリクス乗算アレイのソース線に提供される、請求項22に記載のシステム
  43. 前記フラッシュメモリセルは、分割ゲートメモリセルである、請求項22に記載のシステム
  44. システムであって、該システムは、
    フラッシュメモリセルの行及び列を含むベクトルマトリクス乗算アレイと、
    前記ベクトルマトリクス乗算アレイから電流を受け取り、前記電流に応答して出力を生成するためのニューロン出力回路であって、調整可能な回路要素を備える、ニューロン出力回路と、を備える、システム
  45. 前記ニューロン出力回路は、
    加算器回路から出力電圧を入力として受け取り、前記出力電圧に応答して出力電流を生成するための活性化関数回路を備える、請求項44に記載のシステム
  46. 前記調整可能な回路要素は可変抵抗器を備える、請求項44に記載のシステム
  47. 前記可変抵抗器は、構成ビット及びトリムビットのうちの1つ以上によって構成される、請求項46に記載のシステム
  48. 前記可変抵抗器は、個別の抵抗器要素を使用して構成される、請求項47に記載のシステム
  49. 前記可変抵抗器は、MOSトランジスタを使用して構成される、請求項47に記載のシステム
  50. 前記調整可能な回路要素はスイッチドキャパシタを備える、請求項44に記載のシステム
  51. 前記調整可能な回路要素はNMOSトランジスタを備え、前記NMOSトランジスタによって提供される抵抗は、前記NMOSトランジスタのゲートによって調整可能である、請求項44に記載のシステム
  52. 前記NMOSトランジスタの前記ゲートは、MOS抵抗レプリカ回路によって制御される、請求項51に記載のシステム
  53. 前記MOS抵抗レプリカ回路は、前記NMOSトランジスタと同じ、又は同様のMOSレプリカトランジスタを含む、請求項52に記載のシステム
  54. 電流ミラーを更に備える、請求項44に記載のシステム
  55. サンプルホールドミラーを更に備える、請求項44に記載のシステム
  56. 前記活性化関数回路は、前記入力に対して双曲線正接関数を実行して、前記出力電流を生成する、請求項45に記載のシステム
  57. 前記活性化関数回路は、前記入力に対してReLU関数を実行して、前記出力電流を生成する、請求項45に記載のシステム
  58. 前記活性化関数回路は、前記入力に対してシグモイド関数を実行して、前記出力電流を生成する、請求項45に記載のシステム
  59. 前記加算器回路は演算増幅器を含む、請求項45に記載のシステム
  60. 前記演算増幅器のバイアスは、ベクトルマトリクス乗算器アレイサイズごとに調整される、請求項59に記載のシステム
  61. 前記演算増幅器の前記バイアスは、前記調整可能な回路要素の値に基づく、請求項60に記載のシステム
  62. 前記MOS抵抗レプリカ回路は、カスケード構成で配置された複数のトランジスタ対を含む高電圧演算増幅器を備える、請求項52に記載のシステム
  63. 前記ベクトルマトリクス乗算アレイからの前記電流は、前記ベクトルマトリクス乗算アレイのビット線に提供される、請求項44に記載のシステム
  64. 前記ベクトルマトリクス乗算アレイからの前記電流は、前記ベクトルマトリクス乗算アレイのソース線に提供される、請求項44に記載のシステム
  65. 前記フラッシュメモリセルは、分割ゲートメモリセルである、請求項44に記載のシステム
JP2020537005A 2018-01-03 2018-11-29 深層学習人工ニューラルネットワークにおけるアナログ不揮発性メモリ用のプログラム可能なニューロン Active JP7244525B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862613373P 2018-01-03 2018-01-03
US62/613,373 2018-01-03
US15/936,983 2018-03-27
US15/936,983 US11354562B2 (en) 2018-01-03 2018-03-27 Programmable neuron for analog non-volatile memory in deep learning artificial neural network
PCT/US2018/063147 WO2019135839A1 (en) 2018-01-03 2018-11-29 Programmable neuron for analog non-volatile memory in deep learning artificial neural network

Publications (3)

Publication Number Publication Date
JP2021509514A JP2021509514A (ja) 2021-03-25
JP2021509514A5 JP2021509514A5 (ja) 2022-01-06
JP7244525B2 true JP7244525B2 (ja) 2023-03-22

Family

ID=67058374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020537005A Active JP7244525B2 (ja) 2018-01-03 2018-11-29 深層学習人工ニューラルネットワークにおけるアナログ不揮発性メモリ用のプログラム可能なニューロン

Country Status (7)

Country Link
US (1) US11354562B2 (ja)
EP (1) EP3735656B1 (ja)
JP (1) JP7244525B2 (ja)
KR (1) KR102616978B1 (ja)
CN (1) CN111542840B (ja)
TW (1) TWI785174B (ja)
WO (1) WO2019135839A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102182583B1 (ko) 2016-05-17 2020-11-24 실리콘 스토리지 테크놀로지 인크 비휘발성 메모리 어레이를 사용하는 딥러닝 신경망 분류기
US11687766B2 (en) * 2018-06-19 2023-06-27 Qualcomm Incorporated Artificial neural networks with precision weight for artificial intelligence
US10528643B1 (en) * 2018-08-01 2020-01-07 Sandisk Technologies Llc Vector-matrix multiplication using non-volatile memory cells
US10956814B2 (en) * 2018-08-27 2021-03-23 Silicon Storage Technology, Inc. Configurable analog neural memory system for deep learning neural network
US10489483B1 (en) * 2018-09-21 2019-11-26 National Technology & Engineering Solutions Of Sandia, Llc Circuit arrangement and technique for setting matrix values in three-terminal memory cells
US10877752B2 (en) * 2018-09-28 2020-12-29 Intel Corporation Techniques for current-sensing circuit design for compute-in-memory
US11409352B2 (en) 2019-01-18 2022-08-09 Silicon Storage Technology, Inc. Power management for an analog neural memory in a deep learning artificial neural network
US11270763B2 (en) 2019-01-18 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of three-gate non-volatile memory cells
US11023559B2 (en) 2019-01-25 2021-06-01 Microsemi Soc Corp. Apparatus and method for combining analog neural net with FPGA routing in a monolithic integrated circuit
US11270771B2 (en) 2019-01-29 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of stacked gate non-volatile memory cells
US11423979B2 (en) * 2019-04-29 2022-08-23 Silicon Storage Technology, Inc. Decoding system and physical layout for analog neural memory in deep learning artificial neural network
US11449741B2 (en) 2019-07-19 2022-09-20 Silicon Storage Technology, Inc. Testing circuitry and methods for analog neural memory in artificial neural network
US11393546B2 (en) * 2019-07-19 2022-07-19 Silicon Storage Technology, Inc. Testing circuitry and methods for analog neural memory in artificial neural network
CN110533160A (zh) * 2019-07-22 2019-12-03 北京大学 基于nor flash模拟量计算阵列的深度神经网络
US11562212B2 (en) * 2019-09-09 2023-01-24 Qualcomm Incorporated Performing XNOR equivalent operations by adjusting column thresholds of a compute-in-memory array
KR102225558B1 (ko) * 2019-10-14 2021-03-08 연세대학교 산학협력단 온칩 활성화 함수가 구현된 아날로그 신호 전달 기반의 멀티 레이어 연산 회로
CN110991623B (zh) * 2019-12-20 2024-05-28 中国科学院自动化研究所 基于数模混合神经元的神经网络运算系统
US11568021B2 (en) 2020-02-21 2023-01-31 Alibaba Group Holding Limited Vector-vector multiplication techniques for processing systems
US11600321B2 (en) * 2020-03-05 2023-03-07 Silicon Storage Technology, Inc. Analog neural memory array storing synapsis weights in differential cell pairs in artificial neural network
US11038520B1 (en) * 2020-04-15 2021-06-15 International Business Machines Corporation Analog-to-digital conversion with reconfigurable function mapping for neural networks activation function acceleration
KR20210143614A (ko) * 2020-05-20 2021-11-29 삼성전자주식회사 뉴럴 네트워크를 구현하는 뉴로모픽 장치 및 그 동작 방법
US11875852B2 (en) * 2020-07-06 2024-01-16 Silicon Storage Technology, Inc. Adaptive bias decoder to provide a voltage to a control gate line in an analog neural memory array in artificial neural network
US11289171B1 (en) * 2020-10-02 2022-03-29 Sandisk Technologies Llc Multi-level ultra-low power inference engine accelerator
WO2022181999A1 (ko) * 2021-02-23 2022-09-01 한국과학기술원 우수한 선형성 특성을 갖는 뉴로모픽 시냅스 소자 및 그 동작 방법
US11605426B2 (en) * 2021-04-23 2023-03-14 Applied Materials, Inc. Retention drift correction in non-volatile memory arrays
US20230049032A1 (en) * 2021-08-02 2023-02-16 Silicon Storage Technology, Inc. Output circuitry for analog neural memory in a deep learning artificial neural network
US11989440B2 (en) 2021-08-11 2024-05-21 Silicon Storage Technology, Inc. Hybrid memory system configurable to store neural memory weight data in analog form or digital form
US11489534B1 (en) * 2021-10-11 2022-11-01 Cirrus Logic, Inc. Digital-to-analog conversion architecture and method
US11687252B2 (en) 2021-10-18 2023-06-27 Western Digital Technologies, Inc. Non-volatile memory with pre-trained model and inference circuit
CN114139692B (zh) * 2021-11-30 2024-03-08 河南科技大学 一种基于模拟态架构的cmos人工神经元功能电路

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197484A (ja) 2015-04-03 2016-11-24 株式会社半導体エネルギー研究所 放送システム
JP6183980B1 (ja) 2016-12-02 2017-08-23 国立大学法人東京工業大学 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
US20170337466A1 (en) 2016-05-17 2017-11-23 Silicon Storage Technology, Inc. Deep Learning Neural Network Classifier Using Non-volatile Memory Array

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2677656B2 (ja) * 1989-02-28 1997-11-17 富士通株式会社 ニューロコンピュータの集中制御方式
JP2679738B2 (ja) 1989-03-01 1997-11-19 富士通株式会社 ニューロコンピュータにおける学習処理方式
US5305250A (en) 1989-05-05 1994-04-19 Board Of Trustees Operating Michigan State University Analog continuous-time MOS vector multiplier circuit and a programmable MOS realization for feedback neural networks
US5148514A (en) * 1989-05-15 1992-09-15 Mitsubishi Denki Kabushiki Kaisha Neural network integrated circuit device having self-organizing function
JP2517410B2 (ja) * 1989-05-15 1996-07-24 三菱電機株式会社 学習機能付集積回路装置
US5029130A (en) 1990-01-22 1991-07-02 Silicon Storage Technology, Inc. Single transistor non-valatile electrically alterable semiconductor memory device
JPH0451382A (ja) * 1990-06-20 1992-02-19 Hitachi Ltd 情報処理装置
US5353382A (en) * 1990-10-15 1994-10-04 California Institute Of Technology Programmable synapse for neural network applications
US5237210A (en) * 1992-03-12 1993-08-17 Intel Corporation Neural network accomodating parallel synaptic weight adjustments for correlation learning algorithms
US5264734A (en) 1992-05-19 1993-11-23 Intel Corporation Difference calculating neural network utilizing switched capacitors
US5256911A (en) 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
US6041322A (en) * 1997-04-18 2000-03-21 Industrial Technology Research Institute Method and apparatus for processing data in a neural network
US6829598B2 (en) 2000-10-02 2004-12-07 Texas Instruments Incorporated Method and apparatus for modeling a neural synapse function by utilizing a single conventional MOSFET
US6747310B2 (en) 2002-10-07 2004-06-08 Actrans System Inc. Flash memory cells with separated self-aligned select and erase gates, and process of fabrication
US6781186B1 (en) * 2003-01-30 2004-08-24 Silicon-Based Technology Corp. Stack-gate flash cell structure having a high coupling ratio and its contactless flash memory arrays
US8464123B2 (en) * 2009-05-07 2013-06-11 Ramot At Tel Aviv University Ltd. Matrix structure for block encoding
US8532602B2 (en) 2009-06-30 2013-09-10 Skyworks Solutions, Inc. Switching system with linearizing circuit
JP5300773B2 (ja) * 2010-03-29 2013-09-25 ルネサスエレクトロニクス株式会社 不揮発性半導体記憶装置
CN102456157B (zh) 2010-10-20 2015-08-26 北京大学 神经元器件和神经网络
US9418333B2 (en) * 2013-06-10 2016-08-16 Samsung Electronics Co., Ltd. Synapse array, pulse shaper circuit and neuromorphic system
US9715655B2 (en) * 2013-12-18 2017-07-25 The United States Of America As Represented By The Secretary Of The Air Force Method and apparatus for performing close-loop programming of resistive memory devices in crossbar array based hardware circuits and systems
JP6501146B2 (ja) * 2014-03-18 2019-04-17 パナソニックIpマネジメント株式会社 ニューラルネットワーク回路およびその学習方法
US9922715B2 (en) * 2014-10-03 2018-03-20 Silicon Storage Technology, Inc. Non-volatile split gate memory device and a method of operating same
EP3035249B1 (en) 2014-12-19 2019-11-27 Intel Corporation Method and apparatus for distributed and cooperative computation in artificial neural networks
US10169701B2 (en) * 2015-05-26 2019-01-01 International Business Machines Corporation Neuron peripheral circuits for neuromorphic synaptic memory array based on neuron models
US10325006B2 (en) * 2015-09-29 2019-06-18 International Business Machines Corporation Scalable architecture for analog matrix operations with resistive devices
US10014318B2 (en) * 2015-10-24 2018-07-03 Monocithic 3D Inc Semiconductor memory device, structure and methods
EP3208750A1 (en) 2016-02-22 2017-08-23 Universität Zürich An analogue electronic deep neural network
US10664745B2 (en) * 2016-06-29 2020-05-26 International Business Machines Corporation Resistive processing units and neural network training methods
US10776684B1 (en) * 2016-11-02 2020-09-15 National Technology & Engineering Solutions Of Sandia, Llc Mixed core processor unit
CN106815636B (zh) * 2016-12-30 2019-03-05 华中科技大学 一种基于忆阻器的神经元电路
US10909449B2 (en) * 2017-04-14 2021-02-02 Samsung Electronics Co., Ltd. Monolithic multi-bit weight cell for neuromorphic computing
WO2018201060A1 (en) * 2017-04-27 2018-11-01 The Regents Of The University Of California Mixed signal neuromorphic computing with nonvolatile memory devices
US11875852B2 (en) * 2020-07-06 2024-01-16 Silicon Storage Technology, Inc. Adaptive bias decoder to provide a voltage to a control gate line in an analog neural memory array in artificial neural network
US11545214B2 (en) * 2020-07-08 2023-01-03 Samsung Electronics Co., Ltd. Resistive memory device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197484A (ja) 2015-04-03 2016-11-24 株式会社半導体エネルギー研究所 放送システム
US20170337466A1 (en) 2016-05-17 2017-11-23 Silicon Storage Technology, Inc. Deep Learning Neural Network Classifier Using Non-volatile Memory Array
JP6183980B1 (ja) 2016-12-02 2017-08-23 国立大学法人東京工業大学 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム

Also Published As

Publication number Publication date
EP3735656B1 (en) 2023-12-27
CN111542840B (zh) 2023-08-18
US20190205729A1 (en) 2019-07-04
EP3735656A1 (en) 2020-11-11
EP3735656A4 (en) 2021-10-13
TW201931214A (zh) 2019-08-01
JP2021509514A (ja) 2021-03-25
WO2019135839A1 (en) 2019-07-11
TWI785174B (zh) 2022-12-01
CN111542840A (zh) 2020-08-14
US11354562B2 (en) 2022-06-07
KR20200096808A (ko) 2020-08-13
KR102616978B1 (ko) 2023-12-21
WO2019135839A8 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP7244525B2 (ja) 深層学習人工ニューラルネットワークにおけるアナログ不揮発性メモリ用のプログラム可能なニューロン
JP7399153B2 (ja) 複数のベクトルマトリックス乗算アレイ及び共有構成要素を備える、深層学習ニューラルネットワーク用のアナログニューラルメモリシステム
JP7210585B2 (ja) 人工ニューラルネットワーク内のアナログニューロモーフィックメモリのための高精度かつ高効率な調整機構及びアルゴリズム
JP7270746B2 (ja) 2ゲート不揮発性メモリセルのアレイを使用するニューラルネットワーク分類子
JP7250776B2 (ja) フラッシュメモリを備えた構成可能な畳み込みニューラルネットワークを実装するためのシステム及び方法
JP7281535B2 (ja) 深層学習ニューラルネットワークで使用されるアナログニューラルメモリシステムのメモリセルに対する温度補償及び漏れ補償
JP7266665B2 (ja) ディープラーニング人工ニューラルネットワークにおけるアナログニューロメモリ内の基準トランジスタ及びメモリセルに対する補償
JP7209811B2 (ja) 深層学習ニューラルネットワーク用の構成可能なアナログニューラルメモリシステム
JP2023130332A (ja) 深層学習人工ニューラルネットワークにおけるアナログニューラルメモリの高電圧生成のための方法及び装置
JP7314286B2 (ja) スタックゲート不揮発性メモリセルのアレイを使用するニューラルネットワーク分類子
JP7270747B2 (ja) 4ゲート不揮発性メモリセルのアレイを使用するニューラルネットワーク分類器

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150