JP7329151B2 - 人工ニューラルネットワーク内のアナログニューラルメモリにおけるデータドリフトを補償するための回路 - Google Patents

人工ニューラルネットワーク内のアナログニューラルメモリにおけるデータドリフトを補償するための回路 Download PDF

Info

Publication number
JP7329151B2
JP7329151B2 JP2022540418A JP2022540418A JP7329151B2 JP 7329151 B2 JP7329151 B2 JP 7329151B2 JP 2022540418 A JP2022540418 A JP 2022540418A JP 2022540418 A JP2022540418 A JP 2022540418A JP 7329151 B2 JP7329151 B2 JP 7329151B2
Authority
JP
Japan
Prior art keywords
circuit
array
current
output
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022540418A
Other languages
English (en)
Other versions
JP2023509636A (ja
Inventor
バン トラン、ヒュー
レムケ、スティーブン
ティワリ、ビピン
ドー、ナン
レイテン、マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Silicon Storage Technology Inc
Original Assignee
Silicon Storage Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Silicon Storage Technology Inc filed Critical Silicon Storage Technology Inc
Publication of JP2023509636A publication Critical patent/JP2023509636A/ja
Application granted granted Critical
Publication of JP7329151B2 publication Critical patent/JP7329151B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/10Programming or data input circuits
    • G11C16/14Circuits for erasing electrically, e.g. erase voltage switching circuits
    • G11C16/16Circuits for erasing electrically, e.g. erase voltage switching circuits for erasing blocks, e.g. arrays, words, groups
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/349Arrangements for evaluating degradation, retention or wearout, e.g. by counting erase cycles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/02Digital function generators
    • G06F1/03Digital function generators working, at least partly, by table look-up
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1666Error detection or correction of the data by redundancy in hardware where the redundant component is memory or memory area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/76Arrangements for rearranging, permuting or selecting data according to predetermined rules, independently of the content of the data
    • G06F7/78Arrangements for rearranging, permuting or selecting data according to predetermined rules, independently of the content of the data for changing the order of data flow, e.g. matrix transposition or LIFO buffers; Overflow or underflow handling therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/56Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency
    • G11C11/5621Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency using charge storage in a floating gate
    • G11C11/5628Programming or writing circuits; Data input circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/56Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency
    • G11C11/5621Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using storage elements with more than two stable states represented by steps, e.g. of voltage, current, phase, frequency using charge storage in a floating gate
    • G11C11/5628Programming or writing circuits; Data input circuits
    • G11C11/5635Erasing circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/04Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS
    • G11C16/0408Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors
    • G11C16/0425Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors comprising cells containing a merged floating gate and select transistor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/10Programming or data input circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/24Bit-line control circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/26Sensing or reading circuits; Data output circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3404Convergence or correction of memory cell threshold voltages; Repair or recovery of overerased or overprogrammed cells
    • G11C16/3413Circuits or methods to recover overprogrammed nonvolatile memory cells detected during program verification, usually by means of a "soft" erasing step
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3436Arrangements for verifying correct programming or erasure
    • G11C16/3454Arrangements for verifying correct programming or for detecting overprogrammed cells
    • G11C16/3459Circuits or methods to verify correct programming of nonvolatile memory cells
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3436Arrangements for verifying correct programming or erasure
    • G11C16/3454Arrangements for verifying correct programming or for detecting overprogrammed cells
    • G11C16/3463Circuits or methods to detect overprogrammed nonvolatile memory cells, usually during program verification
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3436Arrangements for verifying correct programming or erasure
    • G11C16/3468Prevention of overerasure or overprogramming, e.g. by verifying whilst erasing or writing
    • G11C16/3486Circuits or methods to prevent overprogramming of nonvolatile memory cells, e.g. by detecting onset or cessation of current flow in cells and using the detector output to terminate programming
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C27/00Electric analogue stores, e.g. for storing instantaneous values
    • G11C27/005Electric analogue stores, e.g. for storing instantaneous values with non-volatile charge storage, e.g. on floating gate or MNOS
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C29/00Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation
    • G11C29/02Detection or location of defective auxiliary circuits, e.g. defective refresh counters
    • G11C29/021Detection or location of defective auxiliary circuits, e.g. defective refresh counters in voltage or current generators
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C29/00Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation
    • G11C29/02Detection or location of defective auxiliary circuits, e.g. defective refresh counters
    • G11C29/028Detection or location of defective auxiliary circuits, e.g. defective refresh counters with adaption or trimming of parameters
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C29/00Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation
    • G11C29/04Detection or location of defective memory elements, e.g. cell constructio details, timing of test signals
    • G11C29/08Functional testing, e.g. testing during refresh, power-on self testing [POST] or distributed testing
    • G11C29/12Built-in arrangements for testing, e.g. built-in self testing [BIST] or interconnection details
    • G11C29/44Indication or identification of errors, e.g. for repair

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Non-Volatile Memory (AREA)
  • Read Only Memory (AREA)
  • Semiconductor Memories (AREA)
  • Error Detection And Correction (AREA)
  • Networks Using Active Elements (AREA)
  • Feedback Control In General (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Complex Calculations (AREA)

Description

(優先権の主張)
本出願は、2020年1月3日に出願された「Precise Data Tuning Method and Apparatus for Analog Neuromorphic Memory in an Artificial Neural Network」と題する米国仮特許出願第62/957,013号、及び2020年3月26日に出願された「Circuitry to Compensate for Data Drift in Analog Neural Memory in an Artificial Neural Network」と題する米国特許出願第16/830,733号の優先権を主張する。
(発明の分野)
アナログニューロモーフィックメモリシステム内のVMMアレイ内の不揮発性メモリセルにおけるドリフト誤差を補償するための多数の実施形態が提供される。
人工ニューラルネットワークは、生物学的ニューラルネットワーク(動物の中枢神経系、特に脳)を模倣しており、多数の入力に依存し得、かつ、一般的に未知である関数を推定する又は近似するために使用される。人工ニューラルネットワークは、概して、メッセージを交換する相互接続した「ニューロン」の層を含む。
図1は人工ニューラルネットワークを示しており、図中、円は、入力又はニューロンの層を表す。接続(シナプスと呼ばれる)は、矢印によって表され、経験に基づいてチューニングされ得る数値の重みを有する。これにより、人工ニューラルネットワークは入力に適応し、学習可能になる。典型的には、人工ニューラルネットワークは、複数の入力の層を含む。典型的には、1つ以上のニューロンの中間層、及びニューラルネットワークの出力を提供するニューロンの出力層が存在する。各レベルでニューロンは、シナプスから受信したデータに基づいて個々に又は集合的に決定を行う。
高性能情報処理用の人工ニューラルネットワークの開発における主要な課題の1つは、適切なハードウェア技術の欠如である。実際には、実用人工ニューラルネットワークは、非常に多数のシナプスに依拠しており、これによりニューロン間の高い接続性、すなわち、非常に高度な計算処理の並列化が可能となる。原理的には、このような複雑性は、デジタルスーパーコンピュータ又は専用グラフィックプロセッシングユニットクラスタによって実現が可能である。しかしながら、高コストに加え、これらのアプローチはまた、生物学的ネットワークが主として低精度のアナログ計算を実施するのではるかに少ないエネルギーしか消費しないのと比較して、エネルギー効率が劣っていることに悩まされている。人工ニューラルネットワークにはCMOSアナログ回路が使用されてきたが、ほとんどのCMOS実装シナプスは、多数のニューロン及びシナプスを前提とすると、嵩高過ぎていた。
出願人は以前に、参照により組み込まれる米国特許公開2017/0337466号として公開された米国特許出願第15/594,439号において、シナプスとして1つ以上の不揮発性メモリアレイを利用する人工(アナログ)ニューラルネットワークを開示した。不揮発性メモリアレイは、アナログニューロモーフィックメモリとして動作する。本明細書で使用される場合、ニューロモーフィックという用語は、神経システムのモデルを実装する回路を意味する。アナログニューロモーフィックメモリは、第1の複数の入力を受信して、それから第1の複数の出力を生成するように構成されている第1の複数のシナプス、及び第1の複数の出力を受信するように構成された第1の複数のニューロンを含む。第1の複数のシナプスは複数のメモリセルを含み、各メモリセルは、半導体基板内に形成された、間にチャネル領域が延在している離間したソース領域及びドレイン領域と、チャネル領域の第1の部分の上方に配設され、チャネル領域の第1の部分から絶縁された浮遊ゲートと、チャネル領域の第2の部分の上方に配設され、チャネル領域の第2の部分から絶縁された非浮遊ゲートと、を含む。複数のメモリセルの各々は、浮遊ゲート上のある個数の電子に対応する重み値を記憶するように構成されている。複数のメモリセルは、第1の複数の入力に、記憶された重み値を乗算して第1の複数の出力を生成するように構成される。この様式で配置されるメモリセルのアレイは、ベクトル行列乗算(VMM)アレイと称され得る。
VMMアレイに使用される各不揮発性メモリセルは、浮遊ゲート内に電荷、すなわち電子の数、を非常に具体的かつ精確な量で保持するように消去及びプログラムされなければならない。例えば、各浮遊ゲートはN個の異なる値のうちの1つを保持しなければならず、ここで、Nは、各セルによって示され得る異なる重みの数である。Nの例としては、16、32、64、128及び256が挙げられる。1つの課題は、異なるNの値に必要な精度及び粒度で選択されたセルをプログラムする能力である。例えば、選択されたセルが64個の異なる値のうちの1つを含み得る場合、極めて高い精度がプログラム動作で必要とされる。
これらのシステムは、そのような極度の精度を必要とするため、データドリフトなどの現象によって生成されるいかなる誤差も有意であり得る。
必要とされるのは、アナログニューロモーフィックメモリ内のVMMアレイにおけるデータドリフトを補償するための、改善された補償回路及び方法である。
アナログニューロモーフィックメモリシステム内のVMMアレイ内の不揮発性メモリセルにおけるドリフト誤差を補償するための多数の実施形態が提供される。
一実施形態では、ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路が提供され、回路は、データドリフトを示す出力を生成するために、アレイに結合されたデータドリフト監視回路と、データドリフト監視回路からの出力に応答して補償電流を生成し、補償電流をアレイの1つ以上のビット線に注入するためのビット線補償回路と、を備える。
別の実施形態では、ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路が提供され、回路は、補償電流を生成し、補償電流をアレイの1つ以上のビット線に注入してドリフト誤差を補償するためのビット線補償回路を備える。
別の実施形態では、ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路が提供され、回路は、アレイの出力をスケーリングしてドリフト誤差を補償するためのビット線補償回路を備える。
別の実施形態では、ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路が提供され、回路は、アレイの出力をシフトしてドリフト誤差を補償するためのビット線補償回路を備える。
別の実施形態では、ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償する方法が提供され、この方法は、ベクトル行列乗算アレイにおけるデータドリフトを監視することを含む。
先行技術の人工ニューラルネットワークを示す図である。 先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 先行技術の積層ゲートフラッシュメモリセルを示す。 1つ以上のVMMアレイを利用する例示的な人工ニューラルネットワークの様々なレベルを示す図である。 VMMアレイ及び他の回路を備えるVMMシステムを示すブロック図である。 1つ以上のVMMシステムを利用する例示的な人工ニューラルネットワークを示すブロック図である。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 先行技術の長・短期メモリシステムを示す。 長・短期メモリシステムで使用する例示的なセルを示す。 図26の例示的なセルの一実施形態を示す。 図26の例示的なセルの別の実施形態を示す。 先行技術のゲート付き回帰型ユニットシステムを示す。 ゲート付き回帰型ユニットシステムで使用する例示的なセルを示す。 図30の例示的なセルの一実施形態を示す。 図30の例示的なセルの別の実施形態を示す。 VMMシステムを示す。 チューニング補正方法を示す。 チューニング補正方法を示す。 セクタチューニング補正方法を示す。 セルに記憶された値に対する温度の影響を示す。 VMMシステムの動作中のデータドリフトによって生じた問題を示す。 データドリフトを補償するためのブロックを示す。 データドリフトモニタを示す。 ビット線補償回路を示す。 別のビット線補償回路を示す。 別のビット線補償回路を示す。 別のビット線補償回路を示す。 別のビット線補償回路を示す。 別のビット線補償回路を示す。 ニューロン回路を示す。 別のニューロン回路を示す。 別のニューロン回路を示す。 別のニューロン回路を示す。 別のニューロン回路を示す。 別のニューロン回路を示す。 出力回路のブロック図を示す。 別の出力回路のブロック図を示す。 別の出力回路のブロック図を示す。
本発明の人工ニューラルネットワークは、CMOS技術及び不揮発性メモリアレイの組み合わせを利用する。
<不揮発性メモリセル>
デジタル不揮発性メモリは周知である。例えば、参照により本明細書に組み込まれる、米国特許第5,029,130号(「’130号特許」)は、フラッシュメモリセルの一種であるスプリットゲート不揮発性メモリセルのアレイを開示する。このようなメモリセル210を図2に示す。各メモリセル210は、半導体基板12内に形成されたソース領域14とドレイン領域16とを含み、ソース領域14とドレイン領域16の間にはチャネル領域18がある。浮遊ゲート20は、チャネル領域18の第1の部分の上方に絶縁されて形成され(並びに、チャネル領域18の第1の部分の導電性を制御して)、ソース領域14の一部分の上方にかけて形成される。ワード線端子22(典型的には、ワード線に結合される)は、チャネル領域18の第2の部分の上方に配設され、チャネル領域18の第2の部分から絶縁された、(並びに、チャネル領域18の第2の部分の導電性を制御する)第1の部分と、浮遊ゲート20の上方で上に延在する第2の部分と、を有する。浮遊ゲート20及びワード線端子22は、ゲート酸化物によって基板12から絶縁される。ビット線端子24はドレイン領域16に結合される。
ワード線端子22に高圧正電圧を印加することによって、メモリセル210に対して消去が行われ(電子が浮遊ゲートから除去される)、これによって、浮遊ゲート20の電子は、浮遊ゲート20からワード線端子22までそれらの間にある絶縁体の中をファウラーノルドハイム(Fowler-Nordheim)トンネリングを介して通過する。
メモリセル210は、ワード線端子22に正電圧、及びソース領域14に正電圧を印加することによってプログラムされる(電子が浮遊ゲートに印加される)。電子電流は、ソース領域14(ソース線端子)からドレイン領域16に向かって流れる。電子は加速し、ワード線端子22と浮遊ゲート20との間の間隙に達すると、加熱される。熱せられた電子の一部が、浮遊ゲート20からの静電引力に起因して、浮遊ゲート20にゲート酸化物を介して注入される。
メモリセル210は、ドレイン領域16及びワード線端子22に正の読み出し電圧を印加する(ワード線端子の下方のチャネル領域18の部分をオンにする)ことによって、読み出される。浮遊ゲート20が正に帯電する(すなわち、電子を消去する)と、浮遊ゲート20の下方のチャネル領域18の部分も同様にオンになり、電流はチャネル領域18を流れ、これは、消去された状態つまり「1」の状態として検知される。浮遊ゲート20が負に帯電する(すなわち、電子でプログラムされる)と、浮遊ゲート20の下方のチャネル領域の部分はほとんど又は完全にオフになり、電流はチャネル領域18を流れず(又はほとんど流れず)、これは、プログラムされた状態つまり「0」の状態として検知される。
表1は、読み出し、消去、及びプログラム動作を実行するためのメモリセル110の端子に印加され得る典型的な電圧範囲を示す。
表1:図2のフラッシュメモリセル210の動作
Figure 0007329151000001
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子の出力である読み出しモードである。
図3は、制御ゲート(control gate、CG)端子28を追加した、図2のメモリセル210と同様のメモリセル310を示す。制御ゲート端子28は、プログラミング中に高電圧(例えば、10V)、消去中に低又は負電圧(例えば、0v/-8V)、読み出し中に低又は中程度電圧(例えば、0v/2.5V)でバイアスされる。他の端子は、図2の端子と同様にバイアスされる。
図4は、ソース領域14と、ドレイン領域16と、チャネル領域18の第1の部分の上方にある浮遊ゲート20と、チャネル領域18の第2の部分の上方にある選択ゲート22(典型的には、ワード線、WL、に結合される)と、浮遊ゲート20の上方にある制御ゲート28と、ソース領域14の上方にある消去ゲート30と、を備える、4ゲートメモリセル410を示す。この構成は、あらゆる目的のため参照により本明細書に組み込まれる、米国特許第6,747,310号に記載されている。ここで、全てのゲートは、浮遊ゲート20を除いて、非浮遊ゲートであり、つまり、それらは電圧源に電気的に接続される又は接続可能である。プログラミングは、熱せられた電子がチャネル領域18から浮遊ゲート20にその電子自体を注入することによって実行される。消去は、電子が浮遊ゲート20から消去ゲート30へトンネリングすることによって実行される。
表2は、読み出し、消去、及びプログラム動作を実行するためのメモリセル410の端子に印加され得る典型的な電圧範囲を示す。
表2:図4のフラッシュメモリセル410の動作
Figure 0007329151000002
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子の出力である読み出しモードである。
図5は、メモリセル510が消去ゲート(erase gate、EG)端子を含まないことを除いて、図4のメモリセル410と同様のメモリセル510を示す。消去は、基板18を高電圧にバイアスし、制御ゲートCG端子28を低電圧又は負電圧にバイアスすることによって行われる。代替的に、ワード線端子22を正電圧にバイアスし、制御ゲート端子28を負電圧にバイアスすることによって、消去が行われる。プログラミング及び読み出しは、図4のものと同様である。
図6は、別の種類のフラッシュメモリセルである、3ゲートメモリセル610を示す。メモリセル610は、メモリセル610が別個の制御ゲート端子を有しないことを除いて、図4のメモリセル410と同一である。(消去ゲート端子の使用を通じて消去が起こる)消去動作及び読み出し動作は、制御ゲートバイアスが印加されないことを除いて、図4のものと同様である。プログラミング動作もまた、制御ゲートバイアスなしで行われるため、結果として、プログラム動作中は、制御ゲートバイアスの不足を補償するため、より高い電圧がソース線端子に印加されなければならない。
表3は、読み出し、消去、及びプログラム動作を実行するためのメモリセル610の端子に印加され得る典型的な電圧範囲を示す。
表3:図6のフラッシュメモリセル610の動作
Figure 0007329151000003
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子の出力である読み出しモードである。
図7は、別の種類のフラッシュメモリセルである、積層ゲートメモリセル710を示す。メモリセル710は、浮遊ゲート20がチャネル領域18全体の上方にわたって延在し、制御ゲート端子22(ワード線に結合される)が絶縁層(図示せず)によって分離されて浮遊ゲート20の上方に延在することを除いて、図2のメモリセル210と同様である。消去、プログラミング、及び読み出し動作は、メモリセル210について前述したものと同様の方法で動作する。
表4は、読み出し、消去、及びプログラム動作を実行するためのメモリセル710及び基板12の端子に印加され得る典型的な電圧範囲を示す。
表4:図7のフラッシュメモリセル710の動作
Figure 0007329151000004
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子の出力である読み出しモードである。任意選択的に、メモリセル210、310、410、510、610、又は710の行及び列を含むアレイでは、ソース線は、メモリセルの1行又はメモリセルの隣接する2行に結合され得る。すなわち、ソース線端子は、メモリセルの隣接する行によって共有され得る。
上記の人工ニューラルネットワークにおける不揮発性メモリセルの種類のうちの1つを含むメモリアレイを利用するために、2つの修正が行われる。第1に、以下に更に説明されるように、アレイ内の他のメモリセルのメモリ状態に悪影響を与えずに各メモリセルを個々にプログラム、消去、及び読み出しできるように線を構成する。第2に、メモリセルの連続(アナログ)プログラミングを提供する。
具体的には、アレイ内の各メモリセルのメモリ状態(すなわち、浮遊ゲート上の電荷)を、完全に消去された状態から完全にプログラムされた状態へ、独立して、かつ他のメモリセルの乱れが最小で、連続的に変えることができる。別の実施形態では、アレイ内の各メモリセルのメモリ状態(すなわち、浮遊ゲートの電荷)を、完全にプログラムされた状態から完全に消去された状態へ、及び逆もまた同様に、独立して、かつ他のメモリセルの乱れが最小で、連続的に変えることができる。これはつまり、セル記憶がアナログであるか、又は多数の不連続値(16又は64の異なる値など)のうちの1つを最低限記憶することができることを意味し、これにより、メモリアレイ内の全てのセルが非常に精確に、かつ個々にチューニング可能となり、また、メモリアレイが、記憶、及びニューラルネットワークのシナプシスの重みへの微細チューニング調整に対して、理想的なものになる。
本明細書に記載される方法及び手段は、限定することなく、SONOS(ケイ素-酸化物-窒化物-酸化物-ケイ素、窒化物中の電荷トラップ)、MONOS(金属-酸化物-窒化物-酸化物-ケイ素、窒化物中の金属電荷トラップ)、ReRAM(抵抗変化型メモリ)、PCM(相変化メモリ)、MRAM(磁気抵抗メモリ)、FeRAM(強誘電体メモリ)、OTP(バイレベル又はマルチレベルの1回のみのプログラムが可能)及びCeRAM(強相関電子メモリ)などの他の不揮発性メモリ技術に適用することができる。本明細書に記載される方法及び手段は、限定することなく、SRAM、DRAM、及び他の揮発性シナプスセルなどのニューラルネットワークに使用される揮発性メモリ技術に適用することができる。
<不揮発性メモリセルアレイを使用するニューラルネットワーク>
図8は、本実施形態の不揮発性メモリアレイを利用するニューラルネットワークの非限定例を概念的に示す。この例は、顔認識アプリケーション用に不揮発性メモリアレイニューラルネットワークを使用するが、不揮発性メモリアレイベースのニューラルネットワークを使用して他の適切なアプリケーションを実装することも可能である。
S0は入力層であり、この例では、5ビット精度の32×32ピクセルRGB画像である(すなわち、各色R、G、及びBにつき1つずつで3つの32×32ピクセルアレイであり、各ピクセルは5ビット精度である)。入力層S0から層C1に行くシナプスCB1は、一部のインスタンスには異なる重みのセットを適用し、他のインスタンスには共有の重みを適用し、入力画像を3×3ピクセルの重なり合うフィルタ(カーネル)でスキャンし、1ピクセル(又はモデルによっては2ピクセル以上)ずつフィルタをシフトする。具体的には、画像の3×3部分における9ピクセルの値(すなわち、フィルタ又はカーネルと称される)は、シナプスCB1に提供され、そこで、これらの9個の入力値に適切な重みを乗算し、その乗算の出力を合計後、単一の出力値が決定され、特徴マップC1の層の1つのピクセルを生成するためにCB1の第1のシナプスによって与えられる。3×3フィルタは次に、入力層S0内で右側に1ピクセルだけシフトされ(すなわち、3ピクセルの列を右側に追加し、左側で3ピクセルの列をドロップする)、これにより、この新しく位置づけられたフィルタの9ピクセル値はシナプスCB1に提供され、そこでそれらに上記と同じ重みを乗算し、関連するシナプスによって第2の単一の出力値を決定する。このプロセスを、3×3フィルタが入力層S0の32×32ピクセル画像全体にわたって3色全て及び全てのビット(精度値)についてスキャンするまで続ける。プロセスは次に、層C1の特徴マップ全てが計算されるまで、異なる重みのセットを使用して繰り返されて、C1の異なる特徴マップを生成する。
本例では、層C1において、各々30×30ピクセルを有する16個の特徴マップが存在する。各ピクセルは、入力とカーネルとの乗算から抽出された新しい特徴ピクセルであり、したがって、各特徴マップは、2次元アレイであり、したがってこの例では、層C1は、2次元アレイの16層を構成する(本明細書で言及される層及びアレイは、必ずしも物理的関係ではなく論理的な関係であり、すなわち、アレイは必ずしも物理的な2次元アレイに配向されないことに留意されたい)。層C1内の16個の特徴マップの各々は、フィルタスキャンに適用される異なるシナプス重みのセット16個のうちの1つによって生成される。C1特徴マップは全て、境界同定など、同じ画像特徴の異なる態様を対象とすることができる。例えば、第1のマップ(この第1のマップを生成するために使用される全てのスキャンに共有される第1の重みセットを使用して生成される)は、円形エッジを識別することができ、第2のマップ(第1の重みセットと異なる第2の重みセットを使用して生成される)は、長方形エッジ又は特定の特徴のアスペクト比などを識別することができる。
層C1から層S1へ行く前には、各特徴マップ内の重なり合わずに連続する2×2領域からの値をプールする活性化関数P1(プーリング)が適用される。プーリング関数の目的は、近隣の位置を平均すること(又はmax関数を使用することも可能である)、例えばエッジ位置の依存を低減すること、及び次の段階に行く前にデータサイズを低減することである。層S1において、16個の15×15特徴マップ(すなわち、各々15×15ピクセルの異なるアレイ16個)が存在する。層S1から層C2に行くシナプスCB2は、S1内のマップを4×4フィルタにより1ピクセルのフィルタシフトでスキャンする。層C2において、22個の12×12特徴マップが存在する。層C2から層S2へ行く前には、各特徴マップ内の重なり合わずに連続する2×2領域からの値をプールする活性化関数P2(プーリング)が適用される。層S2において、22個の6×6特徴マップが存在する。層S2から層C3へ行くシナプスCB3では活性化関数(プーリング)が適用され、ここで層C3内の全てのニューロンは、CB3のそれぞれのシナプスを介して層S2内の全てのマップに接続する。層C3において、64個のニューロンが存在する。層C3から出力層S3へと行くシナプスCB4は、C3をS3に完全に接続する、すなわち、層C3内の全てのニューロンは、層S3内の全てのニューロンに接続される。S3における出力は、10個のニューロンを含み、ここで出力が最も高いニューロンが、クラスを決定する。この出力は、例えば、元の画像の内容の同定又は分類(クラス分け)を示すことができる。
シナプスの各層は、不揮発性メモリセルのアレイ又はアレイの一部を使用して実装される。
図9は、その目的のために使用可能なシステムのブロック図である。VMMシステム32は、不揮発性メモリセルを含み、ある層と次の層との間のシナプス(図6のCB1、CB2、CB3、及びCB4など)として利用される。具体的には、VMMシステム32は、行及び列に配置された不揮発性メモリセルを備えるVMMアレイ33、消去ゲート及びワード線ゲートデコーダ34、制御ゲートデコーダ35、ビット線デコーダ36、並びにソース線デコーダ37を備え、それらのデコーダは、不揮発性メモリセルアレイ33に対するそれぞれの入力をデコードする。VMMアレイ33への入力は、消去ゲート及びワード線ゲートデコーダ34から、又は制御ゲートデコーダ35から行うことができる。この例におけるソース線デコーダ37はまた、VMMアレイ33の出力をデコードする。代替的に、ビット線デコーダ36が、VMMアレイ33の出力をデコードすることができる。
VMMアレイ33は、2つの目的を果たす。第1に、それは、VMMシステム32によって使用される重みを記憶する。第2に、VMMアレイ33は、効果的に、入力に、VMMアレイ33に記憶された重みを乗算し、それらを出力線(ソース線又はビット線)ごとに合計して出力を生成し、これは、次の層への入力又は最後の層への入力になる。乗算及び加算の関数を実行することによって、VMMアレイ33は、別個の乗算及び加算の論理回路の必要性をなくし、また、その場でのメモリ計算により電力効率も良い。
VMMアレイ33の出力は、VMMアレイ33の出力を合計してその畳み込み用の単一の値を作成する、差動加算器(加算オペアンプ又は加算電流ミラーなど)38に供給される。差動加算器38は、正の重み入力及び負の重み入力両方の総和を実行して単一の値を出力するように配置される。
差動加算器38の合計された出力値は、次に出力を整流する活性化関数回路39に供給される。活性化関数回路39は、シグモイド関数、tanh関数、ReLU関数、又は任意の他の非線形関数を提供し得る。活性化関数回路39の整流された出力値は、次の層(例えば図8のC1)の特徴マップの要素になり、次いで、次のシナプスに適用されて次の特徴マップ層又は最後の層を生成する。したがって、この例では、VMMアレイ33は、複数のシナプス(それらは、ニューロンの前の層から、又は画像データベースなどの入力層から、入力を受信する)を構成し、加算器38及び活性化関数回路39は、複数のニューロンを構成する。
図9のVMMシステム32への入力(WLx、EGx、CGx、及び任意選択的にBLx及びSLx)は、アナログレベル、バイナリレベル、デジタルパルス(この場合、パルス-アナログ変換器PACが、パルスを適切な入力アナログレベルに変換するために必要とされ得る)又はデジタルビット(この場合、DACが、デジタルビットを適切な入力アナログレベルに変換するために提供される)であり得、出力は、アナログレベル、バイナリレベル、デジタルパルス、又はデジタルビットであり得る(この場合、出力ADCが、出力アナログレベルをデジタルビットに変換するために提供される)。
図10は、図中でVMMシステム32a、32b、32c、32d及び32eとして標示されたVMMシステム32の多数の層の使用を示すブロック図である。図10に示されるように、入力(Inputxで示される)は、デジタル-アナログ変換器31によってデジタルからアナログに変換され、入力VMMシステム32aに提供される。変換されたアナログ入力は、電圧又は電流であり得る。第1の層の入力D/A変換は、入力VMMシステム32aの行列乗算器の適切なアナログレベルに入力Inputxをマッピングする関数又はLUT(ルックアップテーブル)を使用することによって行うことができる。入力変換はまた、外部アナログ入力を入力VMMシステム32aへのマッピングされたアナログ入力に変換するように、アナログ-アナログ(A/A)変換器によって行うこともできる。入力変換はまた、外部デジタル入力を入力VMMシステム32aへのマッピングされたデジタルパルス(単数又は複数)に変換するために、デジタル-デジタルパルス(D/P)変換器によって行うこともできる。
入力VMMシステム32aによって生成された出力は、次に、次のVMMシステム(隠しレベル1)32bへの入力として提供され、次に、次のVMMシステム32bは、入力VMMシステム(隠しレベル2)32cへの入力として提供される出力を生成する、などとなる。VMMシステム32の様々な層は、畳み込みニューラルネットワーク(convolutional neural network、CNN)のシナプス及びニューロンの各層として機能する。VMMシステム32a、32b、32c、32d及び32eはそれぞれ、対応の不揮発性メモリアレイを備える、スタンドアローンの物理的システムとすることができ、又は複数のVMMシステムは、同じ物理的不揮発性メモリアレイの異なる部分を利用することができ、又は複数のVMMシステムは、同じ物理的不揮発性メモリアレイの重なり合う部分を利用することができる。各VMMシステム32a、32b、32c、32d、及び32eはまた、そのアレイ又はニューロンの様々な部分に対して時間多重化され得る。図10に示される例は、5つの層(32a、32b、32c、32d、32e)、すなわち、1つの入力層(32a)、2つの隠れ層(32b、32c)、及び2つの完全に接続された層(32d、32e)を含む。当業者であれば、これは単なる例示であり、代わりにシステムが2つを超える隠れ層及び2つを超える完全に接続された層を含み得ることを理解するであろう。
<VMMアレイ>
図11は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1100を示す。VMMアレイ1100は、不揮発性メモリセルのメモリアレイ1101と、不揮発性基準メモリセルの基準アレイ1102(アレイの頂部に位置する)と、を含む。代替的に、別の基準アレイが底部に位置することができる。
VMMアレイ1100では、制御ゲート線1103などの制御ゲート線が垂直方向に延びており(したがって、行方向の基準アレイ1102が、制御ゲート線1103に直交する)、消去ゲート線1104などの消去ゲート線が水平方向に延びている。ここで、VMMアレイ1100への入力は、制御ゲート線(CG0、CG1、CG2、CG3)に提供され、VMMアレイ1100の出力は、ソース線(SL0、SL1)に現れる。一実施形態では、偶数行のみが使用され、別の実施形態では、奇数行のみが使用される。各ソース線(それぞれSL0、SL1)に加えられる電流は、その特定のソース線に接続されたメモリセルからの全ての電流の合計関数を実行する。
ニューラルネットワークについて本明細書に記載されているように、VMMアレイ1100の不揮発性メモリセル、すなわちVMMアレイ1100のフラッシュメモリは、サブスレッショルド領域で動作するように構成されることが好ましい。
本明細書に記載される不揮発性基準メモリセル及び不揮発性メモリセルは、以下のように弱い反転でバイアスされる:
Ids=Io*(Vg-Vth)/nVt=w*Io*(Vg)/nVt
式中、w=e(-Vth)/nVtであり、
式中、Idsは、ドレイン-ソース間電流であり、Vgは、メモリセルのゲート電圧であり、Vthは、メモリセルのスレッショルド電圧であり、Vtは、熱電圧=k*T/qであり、kは、ボルツマン定数、Tは、ケルビン温度、qは、電子電荷であり、nは、傾斜係数=1+(Cdep/Cox)であり、Cdep=空乏層の容量、及びCoxは、ゲート酸化物層の容量であり、Ioは、スレッショルド電圧に等しいゲート電圧におけるメモリセル電流であり、Ioは、(Wt/L)**Cox*(n-1)*Vt2に比例し、式中、uは、キャリア移動度であり、Wt及びLはそれぞれ、メモリセルの幅及び長さである。
メモリセル(基準メモリセル又は周辺メモリセルなど)又はトランジスタを使用して入力電流Idsを入力電圧Vgに変換するI-Vログ変換器を使用した場合:
Vg=n*Vt*log[Ids/wp*Io]
式中、wpは、基準又は周辺メモリセルのwである。
メモリセル(基準メモリセル又は周辺メモリセルなど)又はトランジスタを使用して入力電流Idsを入力電圧Vgに変換するI-Vログ変換器を使用した場合:
Vg=n*Vt*log[Ids/wp*Io]
式中、wpは、基準又は周辺メモリセルのwである。
ベクトル行列乗算器VMMアレイとして使用されるメモリアレイについて、出力電流は以下である:
Iout=wa*Io*(Vg)/nVt、すなわち
Iout=(wa/wp)*Iin=W*Iin
W=e(Vthp-Vtha)/nVt
Iin=wp*Io*(Vg)/nVt
式中、メモリアレイの各メモリセルのwa=wである。
ワード線又は制御ゲートは、入力電圧のためのメモリセルの入力として使用することができる。
代替的に、本明細書に記載されたVMMアレイの不揮発性メモリセルは、線形領域で動作するように構成することができる。
Ids=ベータ*(Vgs-Vth)*Vds; ベータ=u*Cox*Wt/L
W α (Vgs-Vth)
すなわち、直線領域における重みWは、(Vgs-Vth)に比例する。
ワード線又は制御ゲート又はビット線又はソース線は、線形領域内で動作するメモリセルの入力として使用することができる。ビット線又はソース線は、メモリセルの出力として使用することができる。
I-V線形変換器用に、線形領域で動作するメモリセル(基準メモリセル又は周辺メモリセルなど)若しくはトランジスタ、又は抵抗器を使用して、入出力電流を入出力電圧に線形変換することができる。
代替的に、本明細書に記載されたVMMアレイのメモリセルは、飽和領域で動作するように構成することができる。
Ids=1/2*ベータ*(Vgs-Vth)2; ベータ=u*Cox*Wt/L
W α (Vgs-Vth)2、すなわち重みWは、(Vgs-Vth)2に比例する。
ワード線、制御ゲート、又は消去ゲートは、飽和領域内で動作するメモリセルの入力として使用することができる。ビット線又はソース線は、出力ニューロンの出力として使用することができる。
代替的に、本明細書に記載されるVMMアレイのメモリセルは、全ての領域又はそれらの組み合わせ(サブスレッショルド、線形、又は飽和)で使用することができる。
図9のVMMアレイ33のための他の実施形態は、参照により本明細書に組み込まれる米国特許出願第15/826,345号に記載されている。上記出願に記載されているように、ソース線又はビット線は、ニューロン出力(電流和出力)として使用することができる。
図12は、図2に示されるメモリセル210に特に適したニューロンVMMアレイ1200を示し、入力層と次の層との間のシナプスとして利用される。VMMアレイ1200は、不揮発性メモリセルのメモリアレイ1203と、第1の不揮発性基準メモリセルの基準アレイ1201と、第2の不揮発性基準メモリセルの基準アレイ1202と、を含む。アレイの列方向に配置された基準アレイ1201及び1202は、端子BLR0、BLR1、BLR2、及びBLR3に流入する電流入力を電圧入力WL0、WL1、WL2、及びWL3に変換するように機能する。実際には、第1及び第2の不揮発性基準メモリセルは、電流入力が流入する状態で、マルチプレクサ1214(一部のみ示す)を通してダイオード接続される。基準セルは、目標基準レベルにチューニング(例えば、プログラム)される。目標基準レベルは、基準ミニアレイ行列(図示せず)によって提供される。
メモリアレイ1203は、2つの目的を果たす。第1に、それは、VMMアレイ1200により使用される重みを、それぞれのメモリセルに記憶する。第2に、メモリアレイ1203は、メモリセルアレイ1203に記憶された重みによって、入力(すなわち、端子BLR0、BLR1、BLR2、及びBLR3に提供された電流入力であり、これを基準アレイ1201及び1202が入力電圧に変換して、ワード線WL0、WL1、WL2、及びWL3に供給する)を有効に乗算して、次いで、全ての結果(メモリセル電流)を加算して、それぞれのビット線(BL0~BLN)の出力を生成し、この出力は次の層への入力又は最後の層への入力となる。メモリアレイ1203が乗算及び加算の関数を実行することで、別個の乗算及び加算の論理回路の必要性はなくなり、また、電力効率も良い。ここで、電圧入力はワード線WL0、WL1、WL2、及びWL3に提供され、出力は、読み出し(推論)動作中にそれぞれのビット線BL0~BLNに現れる。各々のビット線BL0~BLNに配置された電流は、その特定のビット線に接続された全ての不揮発性メモリセルからの電流の合計関数を実行する。
表5は、VMMアレイ1200の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示し、FLTは、浮遊、すなわち電圧が印加されないことを示す。行は、読み出し、消去、及びプログラムの動作を示す。
表5:図12のVMMアレイ1200の動作
Figure 0007329151000005
図13は、図2に示されるメモリセル210に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1300を示す。VMMアレイ1300は、不揮発性メモリセルのメモリアレイ1303と、第1の不揮発性基準メモリセルの基準アレイ1301と、第2の不揮発性基準メモリセルの基準アレイ1302と、を備える。基準アレイ1301及び1302は、VMMアレイ1300の行方向に延びる。VMMアレイは、VMMアレイ1300においてワード線が垂直方向に延びることを除いて、VMM 1000と同様である。ここで、入力はワード線(WLA0、WLB0、WLA1、WLB2、WLA2、WLB2、WLA3、WLB3)に提供され、出力は、読み出し動作中にソース線(SL0、SL1)に現れる。各ソース線に加えられる電流は、その特定のソース線に接続されたメモリセルからの全ての電流の合計関数を実行する。
表6は、VMMアレイ1300の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
表6:図13のVMMアレイ1300の動作
Figure 0007329151000006
図14は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1400を示す。VMMアレイ1400は、不揮発性メモリセルのメモリアレイ1403と、第1の不揮発性基準メモリセルの基準アレイ1401と、第2の不揮発性基準メモリセルの基準アレイ1402と、を含む。基準アレイ1401及び1402は、端子BLR0、BLR1、BLR2、及びBLR3に流入する電流入力を電圧入力CG0、CG1、CG2、及びCG3に変換するように機能する。実際には、第1及び第2の不揮発性基準メモリセルは、電流入力がBLR0、BLR1、BLR2、及びBLR3を通って流入する状態で、マルチプレクサ1412(一部のみ示す)を通してダイオード接続される。マルチプレクサ1412は、読み出し動作中に第1及び第2の不揮発性基準メモリセルの各々のビット線(BLR0など)の一定電圧を確実にするために、それぞれのマルチプレクサ1405及びカスコーディングトランジスタ1404を各々含む。基準セルは、目標基準レベルにチューニングされる。
メモリアレイ1403は、2つの目的を果たす。第1に、それは、VMMアレイ1400によって使用される重みを記憶する。第2に、メモリアレイ1403は、入力(端子BLR0、BLR1、BLR2、及びBLR3に提供された電流入力であり、基準アレイ1401及び1402がこれらの電流入力を入力電圧に変換して、制御ゲート(CG0、CG1、CG2、及びCG3)に供給するに、メモリセルアレイに記憶された重みを掛けて、次いで、全ての結果(セル電流)を加算して出力を生成し、この出力はBL0~BLNに出現し、次の層への入力又は最後の層への入力となる。メモリアレイが乗算及び加算の関数を実行することで、別個の乗算及び加算の論理回路の必要性がなくなり、また、電力効率も良い。ここで、入力は制御ゲート線(CG0、CG1、CG2、及びCG3)に提供され、出力は、読み出し動作中にビット線(BL0~BLN)に現れる。各ビット線に加えられる電流は、その特定のビット線に接続されたメモリセルからの全ての電流の合計関数を実行する。
VMMアレイ1400は、メモリアレイ1403内の不揮発性メモリセルの一方向チューニングを実装する。すなわち、各不揮発性メモリセルは消去され、次いで、浮遊ゲート上の所望の電荷に達するまで部分的にプログラムされる。これは、例えば、以下に記載される精密プログラミング技術を使用して実行することができる。過度に多くの電荷が浮遊ゲートに加えられる場合(誤った値がセルに記憶されるなど)、セルは消去されなければならず、一連の部分的なプログラミング動作をやり直さなければならない。示されるように、同じ消去ゲート(EG0又はEG1など)を共有する2つの行は、一緒に消去される必要があり(ページ消去として知られる)、その後、各セルは、浮遊ゲート上の所望の電荷に達するまで部分的にプログラムされる。
表7は、VMMアレイ1400の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルの制御ゲート、選択セルと同じセクタ内の非選択セルの制御ゲート、選択セルとは異なるセクタ内の非選択セルの制御ゲート、選択セルの消去ゲート、非選択セルの消去ゲート、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
表7:図14のVMMアレイ1400の動作
Figure 0007329151000007
図15は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1500を示す。VMMアレイ1500は、不揮発性メモリセルのメモリアレイ1503と、第1の不揮発性基準メモリセルの基準アレイ1501と、第2の不揮発性基準メモリセルの基準アレイ1502と、を備える。EG線EGR0、EG0、EG1、及びEGR1は垂直に延び、CG線CG0、CG1、CG2、及びCG3並びにSL線WL0、WL1、WL2、及びWL3は水平に延びる。VMMアレイ1500は、VMMアレイ1500が双方向チューニングを実装することを除いてVMMアレイ1400と同様であり、各個々のセルは、個別のEG線の使用により、浮遊ゲートの所望の電荷量に達するために、完全に消去され、部分的にプログラムされ、必要に応じて部分的に消去することができる。示されるように、基準アレイ1501及び1502は、端子BLR0、BLR1、BLR2及びBLR3内の入力電流を制御ゲート電圧CG0、CG1、CG2及びCG3に変換し(マルチプレクサ1514を介したダイオード接続された基準セルの作用を通じて)、これらの電圧は行方向でメモリセルに印加される。電流出力(ニューロン)は、ビット線BL0~BLN中にあり、各ビット線は、その特定のビット線に接続された不揮発性メモリセルからの全ての電流を合計する。
表8は、VMMアレイ1500の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルの制御ゲート、選択セルと同じセクタ内の非選択セルの制御ゲート、選択セルとは異なるセクタ内の非選択セルの制御ゲート、選択セルの消去ゲート、非選択セルの消去ゲート、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
表8:図15のVMMアレイ1500の動作
Figure 0007329151000008
図16は、図2に示されるメモリセル210に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1600を示す。VMMアレイ1600では、入力INPUT0、...、INPUTNは、ビット線BL0、...、BLNでそれぞれ受信され、出力OUTPUT1、OUTPUT2、OUTPUT3、及びOUTPUT4は、ソース線SL0、SL1、SL2、及びSL3にそれぞれ生成される。
図17は、図2に示されるメモリセル210に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1700を示す。この例では、入力INPUT0、INPUT1、INPUT2、及びINPUT3は、ソース線SL0、SL1、SL2、及びSL3でそれぞれ受信され、出力OUTPUT0、...、OUTPUTNは、ビット線BL0、...、BLNに生成される。
図18は、図2に示されるメモリセル210に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1800を示す。この例では、入力INPUT0、...、INPUTMは、ワード線WL0、...、WLMでそれぞれ受信され、出力OUTPUT0、...、OUTPUTNは、ビット線BL0、...、BLNに生成される。
図19は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1900を示す。この例では、入力INPUT0、...、INPUTMは、ワード線WL0、...、WLMでそれぞれ受信され、出力OUTPUT0、...、OUTPUTNは、ビット線BL0、...、BLNに生成される。
図20は、図4に示されるメモリセル410に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ2000を示す。この例では、入力INPUT0、...、INPUTnがそれぞれ垂直制御ゲート線CG0、...、CGNで受信され、出力OUTPUT1及びOUTPUT2がソース線SL0及びSL1に生成される。
図21は、図4に示されるメモリセル410に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ2100を示す。この例では、入力INPUT0、...、INPUTNは、ビット線BL0、...、BLNにそれぞれ結合されているビット線制御ゲート2901-1、2901-2、...、2901-(N-1)及び2901-Nのゲートでそれぞれ受信される。例示的な出力OUTPUT1及びOUTPUT2が、ソース線SL0及びSL1に生成される。
図22は、図3に示されるメモリセル310、図5に示されるメモリセル510、及び図7に示されるメモリセル710に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ2200を示す。この例では、入力INPUT0、...、INPUTMは、ワード線WL0、...、WLMで受信され、出力OUTPUT0、...、OUTPUTNは、ビット線BL0、...、BLNにそれぞれ生成される。
図23は、図3に示されるメモリセル310、図5に示されるメモリセル510、及び図7に示されるメモリセル710に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ2300を示す。この例では、入力INPUT0、...、INPUTMは、制御ゲート線CG0、...、CGMで受信される。出力OUTPUT0、...、OUTPUTNは、垂直ソース線SL0、...、SLNにそれぞれ生成され、各ソース線SLiは、列i内の全てのメモリセルのソース線に結合されている。
図24は、図3に示されるメモリセル310、図5に示されるメモリセル510、及び図7に示されるメモリセル710に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ2400を示す。この例では、入力INPUT0、...、INPUTMは、制御ゲート線CG0、...、CGMで受信される。出力OUTPUT0、...、OUTPUTNは、垂直ビット線BL0、...、BLNにそれぞれ生成され、各ビット線BLiは、列i内の全てのメモリセルのビット線に結合されている。
<長・短期メモリ>
先行技術は、長・短期メモリ(long short-term memory、LSTM)として知られる概念を含む。LSTMは、人工ニューラルネットワークで使用されることが多い。LSTMは、人工ニューラルネットワークが、所定の任意の期間にわたって情報を覚え、後続の動作においてその情報を使用することを可能にする。従来のLSTMは、セル、入力ゲート、出力ゲート、及び忘却ゲートを含む。3つのゲートは、セル内及びセル外への情報の流れ、及び情報がLSTM内で記憶される期間を調節する。VMMは、LSTMにおいて特に有用である。
図25は、例示的なLSTM2500を示す。この例におけるLSTM2500は、セル2501、2502、2503、及び2504を含む。セル2501は、入力ベクトルx0を受け取り、出力ベクトルh0及びセル状態ベクトルc0を生成する。セル2502は、入力ベクトルx1と、セル2501からの出力ベクトル(隠れ状態)h0と、セル2501からのセル状態c0と、を受け取り、出力ベクトルh1と、セル状態ベクトルc1と、を生成する。セル2503は、入力ベクトルx2と、セル2502からの出力ベクトル(隠れ状態)h1と、セル2502からのセル状態c1と、を受け取り、出力ベクトルh2と、セル状態ベクトルc2と、を生成する。セル2504は、入力ベクトルx3と、セル2503からの出力ベクトル(隠れ状態)h2と、セル2503からのセル状態c2と、を受け取り、出力ベクトルh3を生成する。追加のセルも使用可能であり、4つのセルを有するLSTMは、単なる例である。
図26は、図25のセル2501、2502、2503、及び2504に使用可能なLSTMセル2600の例示的な実装を示す。LSTMセル2600は、入力ベクトルx(t)と、先行するセルからのセル状態ベクトルc(t-1)と、先行するセルからの出力ベクトルh(t-1)と、を受け取り、セル状態ベクトルc(t)及び出力ベクトルh(t)を生成する。
LSTMセル2600は、シグモイド関数デバイス2601、2602、及び2603を含み、各々が0~1の数を適用することで、入力ベクトルの各成分が出力ベクトルに寄与する程度を制御する。LSTMセル2600はまた、入力ベクトルに双曲線正接関数を適用するためのtanhデバイス2604及び2605と、2つのベクトルを乗算するための乗算器デバイス2606、2607、及び2608と、2つのベクトルを加算するための加算器デバイス2609と、を含む。出力ベクトルh(t)は、システム内の次のLSTMセルに提供することができるか、又は他の目的でアクセスすることができる。
図27は、LSTMセル2600の一実装の一例であるLSTMセル2700を示す。読者の便宜のために、LSTMセル2600からの同じ採番方法が、LSTMセル2700で使用される。シグモイド関数デバイス2601、2602、及び2603、並びにtanhデバイス2604は各々、複数のVMMアレイ2701及び活性化回路ブロック2702を含む。したがって、VMMアレイは、特定のニューラルネットワークシステムで使用されるLSTMセルにおいて特に有用であることが分かる。
LSTMセル2700の代替例(及びLSTMセル2600の一実装の別の例)を図28に示す。図28では、シグモイド関数デバイス2601、2602及び2603、並びにtanhデバイス2604は、同じ物理ハードウェア(VMMアレイ2801及び活性化関数ブロック2802)を、時分割多重化された方式で共有し得る。LSTMセル2800はまた、2つのベクトルを乗算するための乗算器デバイス2803と、2つのベクトルを加算するための加算器デバイス2808と、(活性化回路ブロック2802を含む)tanhデバイス2605と、シグモイド関数ブロック2802から出力される値i(t)を記憶するレジスタ2807と、マルチプレクサ2810を介して乗算器デバイス2803から出力される値f(t)*c(t-1)を記憶するレジスタ2804と、マルチプレクサ2810を介して乗算器デバイス2803から出力される値i(t)*u(t)を記憶するレジスタ2805と、マルチプレクサ2810を介して乗算器デバイス2803から出力される値o(t)*c~(t)を記憶するレジスタ2806と、マルチプレクサ2809と、を含む。
LSTMセル2700がVMMアレイ2701とそれぞれの活性化関数ブロック2702との複数のセットを含むのに対し、LSTMセル2800は、LSTMセル2800の実施形態において複数の層を表すために使用されるVMMアレイ2801と活性化関数ブロック2802との1つのセットのみを含む。LSTMセル2800は、LSTMセル2700と比較して、VMM及び活性化関数ブロックのために必要とするスペースは1/4で済むので、LSTMセル2800は、LSTM2700よりも必要とするスペースが少ない。
LSTMユニットは典型的には複数のVMMアレイを含み、これらは各々、加算器及び活性化回路ブロック及び高電圧生成ブロックなどの、VMMアレイの外側の特定の回路ブロックによって提供される機能を必要とすることを更に理解することができる。各VMMアレイのための別個の回路ブロックを提供することは、半導体デバイス内にかなりの量のスペースを必要とし、幾分非効率的であろう。したがって、以下に記載される実施形態では、VMMアレイ自体の外側に必要とされる回路の最小化を試みる。
<ゲート付き回帰型ユニット>
アナログVMM実装を、ゲート付き回帰型ユニット(gated recurrent unit、GRU)に利用することができる。GRUは、反復人工ニューラルネットワーク内のゲート機構である。GRUは、GRUセルが一般にLSTMセルよりも少ない構成要素を含むことを除いて、LSTMに類似している。
図29は、例示的なGRU2900を示す。この例におけるGRU2900は、セル2901、2902、2903、及び2904を含む。セル2901は、入力ベクトルx0を受け取り、出力ベクトルh0を生成する。セル2902は、入力ベクトルx1と、セル2901からの出力ベクトルh0と、を受け取り、出力ベクトルh1を生成する。セル2903は、入力ベクトルx2と、セル2902からの出力ベクトル(隠れ状態)h1と、を受け取り、出力ベクトルh2を生成する。セル2904は、入力ベクトルx3と、セル2903からの出力ベクトル(隠れ状態)h2と、を受け取り、出力ベクトルh3を生成する。追加のセルも使用可能であり、4つのセルを有するGRUは、単なる例である。
図30は、図29のセル2901、2902、2903、及び2904に使用することができるGRUセル3000の例示的な実装を示す。GRUセル3000は、入力ベクトルx(t)と、先行するGRUセルからの出力ベクトルh(t-1)と、を受け取り、出力ベクトルh(t)を生成する。GRUセル3000は、シグモイド関数デバイス3001及び3002を含み、それらの各々が、出力ベクトルh(t-1)及び入力ベクトルx(t)からの成分に0~1の数を適用する。GRUセル3000はまた、入力ベクトルに双曲線正接関数を適用するためのtanhデバイス3003と、2つのベクトルを乗算するための複数の乗算器デバイス3004、3005、及び3006と、2つのベクトルを加算するための加算器デバイス3007と、1から入力を減算して出力を生成するための相補デバイス3008と、を含む。
図31は、GRUセル3000の一実装の一例であるGRUセル3100を示す。読者の便宜のために、GRUセル3000からの同じ採番方法が、GRUセル3100で使用される。図31から分かるように、シグモイド関数デバイス3001及び3002、並びにtanhデバイス3003は各々、複数のVMMアレイ3101及び活性化関数ブロック3102を含む。したがって、VMMアレイは、特定のニューラルネットワークシステムで使用されるGRUセルにおいて特に使用されることが分かる。
GRUセル3100の代替例(及びGRUセル3000の一実装の別の例)を図32に示す。図32において、GRUセル3200は、VMMアレイ3201及び活性化関数ブロック3202を使用しており、シグモイド関数として構成された場合には、0~1の数を適用することで、入力ベクトルの各成分が出力ベクトルに寄与する程度を制御する。図32では、シグモイド関数デバイス3001及び3002、並びにtanhデバイス3003は、同じ物理ハードウェア(VMMアレイ3201及び活性化関数ブロック3202)を、時分割多重化された方式で共有する。GRUセル3200はまた、2つのベクトルを乗算するための乗算器デバイス3203と、2つのベクトルを加算するための加算器デバイス3205と、1から入力を減算して出力を生成するための相補デバイス3209と、マルチプレクサ3204と、マルチプレクサ3204を介して乗算器デバイス3203から出力される値h(t-1)*r(t)を保持するためのレジスタ3206と、マルチプレクサ3204を介して乗算器デバイス3203から出力される値h(t-1)*z(t)を保持するためのレジスタ3207と、マルチプレクサ3204を介して乗算器デバイス3203から出力される値h^(t)*(1-z((t))を保持するためのレジスタ3208と、を備える。
GRUセル3100がVMMアレイ3101と活性化関数ブロック3102との複数のセットを含むのに対し、GRUセル3200は、GRUセル3200の実施形態において複数の層を表すために使用されるVMMアレイ3201と活性化関数ブロック3202の1つのセットのみを含む。GRUセル3200は、GRUセル3100と比較して、VMM及び活性化関数ブロックのために必要とするスペースは1/3で済むので、GRUセル3200は、GRUセル3100よりも必要とするスペースが少ない。
GRUを利用するシステムは、典型的には複数のVMMアレイを含み、これらの各々は、加算器及び活性化回路ブロック及び高電圧生成ブロックなどの、VMMアレイの外側の特定の回路ブロックによって提供される機能を必要とすることを更に理解することができる。各VMMアレイのための別個の回路ブロックを提供することは、半導体デバイス内にかなりの量のスペースを必要とし、幾分非効率的であろう。したがって、以下に記載される実施形態では、VMMアレイ自体の外側に必要とされる回路の最小化を試みる。
VMMアレイへの入力は、アナログレベル、バイナリレベル、タイミングパルス、又はデジタルビットであり得、出力は、アナログレベル、バイナリレベル、タイミングパルス、又はデジタルビット(この場合、出力アナログレベルの電流又は電圧をデジタルビットに変換するために出力ADCが必要とされる)であり得る。
VMMアレイ内の各メモリセルに関して、各重みwは、単一のメモリセルによって、又は差分セルによって、又は2つのブレンドメモリセル(2つ以上のセルの平均)によって実装することができる。差分セルの場合では、重みwを差分重み(w=w+ - w-)として実装するために、2つのメモリセルが必要とされる。2つのブレンドメモリセルの場合は、2つのセルの平均として重みwを実装するために2つのメモリセルが必要とされる。
<VMM内のセルの正確なチューニングのための実施形態>
図33は、VMMシステム3300のブロック図を示す。VMMシステム3300は、VMMアレイ3301、行デコーダ3302、高電圧デコーダ3303、列デコーダ3304、ビット線ドライバ3305、入力回路3306、出力回路3307、制御ロジック3308、及びバイアス生成器3309を備える。VMMシステム3300は、チャージポンプ3311、チャージポンプ調節器3312、及び高電圧レベル生成器3313を備える高電圧生成ブロック3310を更に備える。VMMシステム3300は、アルゴリズムコントローラ3314、アナログ回路3315、制御論理3316、及び試験制御論理3317を更に備える。以下に記載されるシステム及び方法は、VMMシステム3300に実装することができる。
入力回路3306は、DAC(デジタル-アナログ変換器)、DPC(デジタル-パルス変換器)、AAC(電流-電圧変換器などのアナログ-アナログ変換器)、PAC(パルス-アナログレベル変換器)、又は任意の他のタイプの変換器などの回路を含み得る。入力回路3306は、正規化関数、スケーリング関数、又は算術関数を実装し得る。入力回路3306は、入力のための温度補償関数を実装し得る。入力回路3306は、ReLU又はシグモイド関数などの活性化関数を実装し得る。
出力回路3307は、ADC(ニューロンアナログ出力をデジタルビットに変換するための、アナログ-デジタル変換器)、AAC(電流-電圧変換器などのアナログ変換器)、APC(アナログ-パルス変換器)、又は任意の他のタイプの変換器などの回路を含み得る。出力回路3307は、ReLU又はシグモイド関数などの活性化関数を実装し得る。出力回路3307は、ニューロン出力のための正規化関数、スケーリング関数、又は算術関数を実装し得る。出力回路3307は、以下に記載されるように、ニューロン出力又はアレイ出力(ビット線出力など)のための温度補償関数を実装し得る。
図34は、VMMシステム3300内のアルゴリズムコントローラ3314によって実行することができるチューニング補正方法3400を示す。チューニング補正方法3400は、セル出力及びセルの元の目標から生じる最終誤差に基づいて適応目標を生成する。この方法は、典型的には、チューニングコマンドが受信されることに応答して開始する(ステップ3401)。選択されたセル、又は選択されたセルのグループの(プログラム/検証アルゴリズムに使用される)初期電流目標Itargetv(i)は、関数又はルックアップテーブルを使用することなどによって予測目標モデルを使用して決定され、変数DeltaErrorは、0に設定される(ステップ3402)。目標関数は、使用される場合、選択された一つのメモリセル又はセルのグループのI-Vプログラム曲線に基づくであろう。目標関数はまた、セルが示すプログラム乱れの程度(それはセクタ内のセルアドレス及びセルレベルに依存し、ここで、セルは、それがより比較的多くの乱れを示す場合、抑制条件でより多くのプログラム時間に供され、ここで、より高い電流を有するセルは、典型的にはより多くの乱れを有する)、セル間連結、及び様々なタイプのアレイノイズなどのアレイ特性によって引き起こされる様々な変動に依存する。これらの変動は、PVT(プロセス、電圧、温度)上のケイ素上で特徴付けることができる。ルックアップテーブルは、使用される場合、I-V曲線及び様々な変動をエミュレートするための同じ方法で特徴付けることができる。
次いで、ソフト消去が、VMM内の全てのセルに対して実行され、このソフト消去は、各セルが、読み出し動作中に例えば約3~5μAの電流を引き込むように、全てのセルに対して中間弱消去レベルに消去を行う(ステップ3403)。ソフト消去は、例えば、中間セル電流に達するまで、セルに増分消去パルス電圧を印加することによって実行される。次に、ディーププログラミング動作が、全て未使用セルに対して実行されて(ステップ3404)、例えば、<pA電流レベルを得る。次いで、誤差結果に基づく目標調整(補正)が実行される。セルがプログラミング中にオーバーシュートを受けたことを意味する、DeltaError>0の場合、Itargetv(i+1)は、Itarget+シータ*DeltaErrorに設定され、シータは、例えば、1、又は1に近い数である(ステップ3405A)。
Itarget(i+1)はまた、適切な誤差目標調整/補正を用いて、前のItarget(i)に基づいて調整され得る。DeltaError<0である場合、セルがプログラミング中にアンダーシュートを受けたことを意味するが、これは、セル電流がまだ目標に達しないことを意味し、その後、Itargetv(i+1)は、前の目標Itargetv(i)に設定される(ステップ3405B)。
次に、粗い及び/又は微細プログラム並びに検証動作が実行される(ステップ3406)。精密(微細)プログラミングステップを実行する前に、複数の徐々に小さくなる粗い目標を目標とすることなどによって、複数の適応型の粗いプログラミング方法を使用して、プログラミングを加速することができる。適応型の精密プログラミングは、例えば、微細(精密)増分プログラム電圧パルス又は定常プログラムタイミングパルスで行われる。粗いプログラミング及び微細プログラミングを実行するためのシステム及び方法の例は、本出願と同じ譲受人によって2019年11月11日に出願された、「Precise Programming Method and Apparatus for Analog Neural Memory in a Deep Learning Artificial Neural Network」と題する米国仮特許出願第62/933,809号に記載されており、これは、参照により本明細書に組み込まれる。
Icellを、選択されたセルで測定する(ステップ3407)。例えば、セル電流は、電流計回路によって測定することができる。例えば、セル電流は、ADC(アナログ-デジタル変換器)回路によって測定することができ、この場合、出力は、デジタルビットによって表される。例えば、セル電流は、I-V(電流-電圧変換器)回路によって測定することができ、この場合、出力は、アナログ電圧によって表される。DeltaErrorは計算され、これは、測定されたセルにおける実際の電流(Icell)と目標電流(Itarget)との間の差を表す、Icell-Itargetである。|DeltaError|<DeltaMarginの場合、セルは、特定の許容範囲(DeltaMargin)内の目標電流を達成しており、方法は終了する(ステップ3410)。|DeltaError|=abs(DeltaError)=DeltaErrorの絶対値。そうでない場合、方法は、ステップ3403に戻り、ステップを再び順次実行する(ステップ3410)。
図35A及び図35Bは、VMMシステム3300内のアルゴリズムコントローラ3314によって実行することができるチューニング補正方法3500を示す。図35Aを参照すると、方法が開始し(ステップ3501)、これは、典型的には、チューニングコマンドが受信されることに応じて行われる。VMMアレイ全体は、ソフト消去法などによって消去される(ステップ3502)。ディーププログラミング動作は、全ての未使用セルに対して実行され(ステップ3503)、セル電流<pAレベルを得る。VMMアレイ内の全てのセルは、粗い及び/又は微細プログラミングサイクルを使用して、0.5~1.0μAなどの中間値にプログラムされる(ステップ3504)。粗いプログラミング及び微細プログラミングを実行するためのシステム及び方法の例は、本出願と同じ譲受人によって2019年11月11日に出願された、「Precise Programming Method and Apparatus for Analog Neural Memory in a Deep Learning Artificial Neural Network」と題する米国仮特許出願第62/933,809号に記載されており、これは、参照により本明細書に組み込まれる。予測目標は、上記のように、関数又はルックアップテーブルを使用して使用されるセルに設定される(ステップ3505)。次に、セクタチューニング方法3507は、VMMの各セクタに対して実行される(ステップ3506)。セクタは、典型的には、アレイ内の2つ以上の隣接する行からなる。
図35Bは、適応目標セクタチューニング方法3507を示す。セクタ内の全てのセルは、(1)粗い/微細/定常P/Vサイクル、(2)CG+(CG増分のみ)若しくはEG+(EG増分のみ)、又は相補的CG+/EG-(CG増分及びEG減分)、並びに(3)最初に最も深いプログラムされたセル(セルをグループにグループ化することを意味し、グループが、最初に最低電流プログラムされたセルを有する、漸進的グループ化など)、などの個々又は組み合わせのプログラム/検証(P/V)方法を使用して、最終的な所望の値(例えば、1nA~50nA)にプログラムされる)(ステップ3508A)。次に、Icell<Itargetであるかどうかに関する決定が行われる(ステップ3508B)。はいの場合、方法は、ステップ3509に進む。いいえの場合、方法は、ステップ3508Aを繰り返す。ステップ3509において、測定されたIcell-Itarget(i+1)に等しい、DeltaErrorを測定する(ステップ3509)。|DeltaError|<DeltaMarginであるかどうかに関する決定が行われる(ステップ3510)。はいの場合、方法は、完了する(ステップ3511)。いいえの場合、目標調整が実行される。セルがプログラミング中にオーバーシュートを受けたことを意味する、DeltaError>0の場合、目標は、新しい目標をItarget+シータ*DeltaErrorに設定することによって調整され、ここで、シータは、典型的には=1である(ステップ3512A)。Itarget(i+1)はまた、適切な誤差目標調整/補正を用いて、前のItarget(i)に基づいて調整され得る。DeltaError<0の場合、セルがプログラミング中にアンダーシュートを受けたことを意味するが、これは、セルがまだ目標に達していないことを意味し、目標は、Itargetv(i+1)=Itargetv(i)を意味する、前の目標を維持することによって調整される(ステップ3512B)。セクタをソフト消去する(ステップ3513)。セクタ内の全てのセルを中間値にプログラムし(ステップ 3514)、ステップ3509に戻る。
典型的なニューラルネットワークは、正の重みw+及び負の重みw-を有し得、合計重み=w+ - w-。w+及びw-は、メモリセルによって各々実装され(それぞれIw+及びIw-)、合計重み(Iw=Iw+ - Iw-、電流減算)は、(アレイビット線出力回路などにおける)周辺回路レベルで実行することができる。したがって、合計重みの重みチューニング実施形態は、表8に示される例として、w+セルとw-セルの両方を同時にチューニングすること、w+セルのみをチューニングすること、又はw-セルのみをチューニングすることを含み得る。チューニングは、図34/図35A/図35Bに関して前述したプログラム/検証及び誤差目標調整方法を使用して実行される。検証は、合計重みのみ(例えば、合計重み電流を測定/読み出すが、個々の正のw+セル電流若しくはw-セル電流を測定/読み出さないこと、w+セル電流のみ、又はw-セル電流のみについて実行することができる。
例えば、3naの合計Iwの場合、Iw+は3naであり得、Iw-は0naであり得る。あるいは、Iw+は13naであり得、Iw-は10naであり得、これは、正の重みIw+と負の重みIw-の両方がゼロではないことを意味する(例えば、ゼロは、深くプログラムされたセルを示し得る)。これは、Iw+とIw-の両方がノイズの影響をより受けにくくなるはずであるため、特定の動作条件で好ましい場合がある。
:重みチューニング方法
Figure 0007329151000009
図36Aは、(一例としてスブスレッショルド領域における)温度にわたるデータ挙動(I-V曲線)を示し、図36Bは、VMMシステムの動作中のデータドリフトによって生じた問題を示し、図36C及び図36Dは、データドリフトを補償するためのブロックを示し、図36Cに関しては、温度変化を補償するためのブロックを示す。
図36Aは、動作温度が増加するにつれて、VMMアレイ内の任意の所与の選択された不揮発性メモリセル内の検知電流がサブスレッショルド領域内で増加するか、飽和領域内で減少するか、又は概して線形領域内で減少するような特性である、VMMシステムの既知の特性を示す。
図36Bは、時間使用(データドリフト)にわたるアレイ電流分布を示し、これは、(VMMアレイ内の全てのビット線からの電流の合計である)VMMアレイからの集合出力が、動作時間使用にわたって右に(又は、使用される技術によっては、左に)シフトすることを示しており、これは、総集合出力が、VMMシステムの寿命使用にわたってドリフトすることを意味する。この現象は、データが環境要因による使用条件及び劣化によってドリフトするときの、データドリフトとして知られている。
図36Cは、データドリフトを補償するために、ビット線出力回路3610の出力に補償電流iCOMPを注入することを含み得るビット線補償回路3600を示す。ビット線補償回路3600は、抵抗器又はコンデンサネットワークに基づいて、スケーラ回路によって出力を上又は下にスケーリングすることを含み得る。ビット線補償回路3600は、その抵抗器又はコンデンサネットワークに基づいて、シフト回路によって出力をシフト又はオフセットすることを含み得る。
図36Dは、データドリフトの量を検出するデータドリフトモニタ3620を示す。次いで、その情報は、ビット線補償回路3600への入力として使用され、その結果、iCOMPの適切なレベルが選択され得る。
図37は、図36のビット線補償回路3600の一実施形態であるビット線補償回路3700を示す。ビット線補償回路3700は、調整可能な電流源3701及び調整可能な電流源3702を備え、これらは、一緒になってiCOMPを生成し、iCOMPは、調整可能な電流源3701から生成された電流から、調整可能な電流源3701によって生成された電流を引いた電流に等しい。
図38は、図36のビット線補償回路3600の一実施形態であるビット線補償回路3700を示す。ビット線補償回路3800は、演算増幅器3801、調整可能な抵抗器3802、及び調整可能な抵抗器3803を備える。演算増幅器3801は、その非反転端子上で基準電圧VREFを受信し、その反転端子上でVINPUTを受信し、ここで、VINPUTは、図36Cのビット線出力回路3610から受信された電圧であり、VOUTPUTの出力を生成し、ここで、VOUTPUTは、抵抗器3803と抵抗器3802の比に基づいてデータドリフトを補償するためのVINPUTのスケーリングされたバージョンである。抵抗器3803及び/又は3802の値を構成することにより、VOUTPUTは、上又は下にスケーリングされ得る。
図39は、図36のビット線補償回路3600の一実施形態であるビット線補償回路3900を示す。ビット線補償回路3900は、演算増幅器3901、電流源3902、スイッチ3904、及び調整可能な積分出力コンデンサ3903を備える。ここで、電流源3902は、実際には、VMMアレイにおいて、単一のビット線、又は複数のビット線の集合体(正の重みw+を合計するための1つ、及び負の重みw-を合計するための1つなど)の出力電流である。演算増幅器3901は、その非反転端子上で基準電圧VREFを受信し、その反転端子上でVINPUTを受信し、ここで、VINPUTは、図36Cのビット線出力回路3610から受信された電圧である。ビット線補償回路3900は、調整可能な積分時間においてコンデンサ3903を通る電流Ineuを積分して出力電圧VOUTPUTを生成する積分器として機能し、ここで、VOUTPUT=Ineu*積分時間/C3903であり、ここで、C3903は、コンデンサ3903の値である。したがって、出力電圧VOUTPUTは、(ビット線)出力電流Ineuに比例し、積分時間に比例し、コンデンサ3903の容量に反比例する。ビット線補償回路3900は、VOUTPUTの出力を生成し、ここで、VOUTPUTの値は、コンデンサ3903の構成値及び/又はデータドリフトを補償するための積分時間に基づいてスケーリングされる。
図40は、図36のビット線補償回路3600の一実施形態であるビット線補償回路4000を示す。ビット線補償回路4000は、M:N比を有する電流ミラー4010を備え、これは、ICOMP=(M/N)*inputを意味する。電流ミラー4010は、電流iINPUTを受信し、その電流をミラーリングし、任意選択的に、その電流をスケールしてiCOMPを生成する。したがって、M及び/又はN個のパラメータを構成することによって、iCOMPは、上方又は下方にスケーリングされ得る。
図41は、図36のビット線補償回路3600の一実施形態であるビット線補償回路4100を示す。ビット線補償回路4100は、演算増幅器4101、調整可能なスケーリング抵抗器4102、調整可能なシフト抵抗器4103、及び調整可能な抵抗器4104を備える。演算増幅器4101は、その非反転端子上で基準電圧VREFを受信し、その反転端子上でVINを受信する。VINは、VINPUT及びVshftに応答して生成され、ここで、VINPUTは、図36Cのビット線出力回路3610から受信された電圧であり、Vshftは、VINPUTとVOUTPUTとの間でシフトを実装することを意図した電圧である。
したがって、VOUTPUTは、データドリフトを補償するための、VINPUTのスケーリング及びシフトされたバージョンである。
図42は、図36のビット線補償回路3600の一実施形態であるビット線補償回路4200を示す。ビット線補償回路4200は、演算増幅器4201、入力電流源Ineu4202、電流シフタ4203、スイッチ4205及び4206、並びに調整可能な積分出力コンデンサ4204を備える。ここで、電流源4202は、実際には、VMMアレイ内の単一のビット線又は複数のビット線上の出力電流Ineuである。演算増幅器4201は、その非反転端子上で基準電圧VREFを受信し、その反転端子上でIINを受信することであって、ここで、IINは、Ineuと、電流シフタ4203によって出力された電流との合計である、受信することと、VOUTPUTの出力を生成することであって、ここで、VOUTPUTは、データドリフトを補償するために、(コンデンサ4204に基づいて)スケーリングされ、(Ishifter4203に基づいて)シフトされる、生成することと、を行う。
図43~図48は、プログラミング又は読み出し動作中に、各選択されたセルにプログラム又は読み出されるW値を提供するために使用され得る様々な回路を示す。
図43は、調整可能な電流源4301及び調整可能な電流源4302を備えるニューロン出力回路4300を示し、これらは、一緒になってIOUTを生成し、IOUTは、調整可能な電流源4301によって生成された電流IW+から、調整可能な電流源4302によって生成された電流IW-を引いた電流に等しい。調整可能な電流Iw+4301は、正の重みを実装するために、セル電流又はニューロン電流(ビット線電流など)のスケーリングされた電流である。調整可能な電流Iw-4302は、負の重みを実装するために、セル電流又はニューロン電流(ビット線電流など)のスケーリングされた電流である。電流スケーリングは、M:N比電流ミラー回路、Iout=(M/N)*Iinなどによって行われる。
図44は、調整可能なコンデンサ4401、制御トランジスタ4405、スイッチ4402、スイッチ4403、及び調整可能な電流源4404Iw+を備えるニューロン出力回路4400を示し、このIw+は、M:N電流ミラー回路などによってセル電流又は(ビット線)ニューロン電流のスケーリングされた出力電流である。トランジスタ4405は、例えば、電流4404に固定バイアス電圧を課すために使用される。回路4404は、VOUTを生成し、ここで、VOUTは、コンデンサ4401に反比例し、調整可能な積分時間(スイッチ4403が閉じスイッチ4402が開いた時間)に比例し、調整可能な電流源4404によって生成された電流IW+に比例する。VOUTは、V+-((Iw+*積分時間)/C4401)に等しく、ここで、C4401は、コンデンサ4401の値である。コンデンサ4401の正の端子V+は正の供給電圧に接続され、コンデンサ4401の負の端子V-は出力電圧VOUTに接続される。
図45は、コンデンサ4401及び調整可能な電流源4502を備えるニューロン回路4500を示し、これは、M:N電流ミラーなどによってセル電流又は(ビット線)ニューロン電流のスケーリングされた電流である。回路4500は、VOUTを生成し、ここで、VOUTは、コンデンサ4401に反比例し、調整可能な積分時間(スイッチ4501が開いた時間)に比例し、調整可能な電流源4502によって生成された電流IWiに比例する。コンデンサ4401は、電流Iw+を積分する動作を完了した後、ニューロン出力回路44から再使用される。次いで、正の端子及び負の端子(V+及びV-)は、ニューロン出力回路45内で交換され、そこでは、正の端子は、出力電圧VOUTに接続され、これは、電流Iw-によって積分解除される。負の端子は、クランプ回路(図示せず)によって前の電圧値に保持される。実際には、出力回路44は、正の重み実装に使用され、回路45は、負の重み実装に使用され、コンデンサ4401上の最終電荷は、合計重み(Qw=Qw+ - Qw-)を効果的に表す。
図46は、調整可能なコンデンサ4601、スイッチ4602、制御トランジスタ4604、及び調整可能な電流源4603を備えるニューロン回路4600を示す。回路4600は、VOUTを生成し、ここで、VOUTは、コンデンサ4601に反比例し、調整可能な積分時間(スイッチ4602が開いた時間)に比例し、調整可能な電流源4603によって生成された電流IW-に比例する。コンデンサ4601の負の端子V-は、例えば、接地に等しい。コンデンサ4601の正の端子V+は、例えば、電流Iw-を積分する前に、正の電圧に最初にプリチャージされる。ニューロン回路4600は、ニューロン回路4400と共にニューロン回路4500の代わりに使用して、合計重み(Qw=Qw+ - Qw-)を実装することができる。
図47は、演算増幅器4703及び4706、調整可能な電流源Iw+4701及びIw-4702、並びに調整可能な抵抗器4704、4705、及び4707を備えるニューロン回路4700を示す。ニューロン回路4700は、VOUTを生成し、これは、R4707 *(Iw+ - Iw-)に等しい。調整可能な抵抗器4707は、出力のスケーリングを実装する。調整可能な電流源Iw+4701及びIw-4702はまた、M:N比電流ミラー回路(Iout=(M/N)*Iin)などによる出力のスケーリングを実装する。
図48は、演算増幅器4803及び4806、スイッチ4808及び4809、調整可能な電流源Iw-4802及びIw+4801、調整可能なコンデンサ4804、4805、及び4807を備えるニューロン回路4800を示す。ニューロン回路4800は、VOUTを生成し、これは、(Iw+ - Iw-)に比例し、積分時間(スイッチ4808及び4809が開いた時間)に比例し、コンデンサ4807の容量に反比例する。調整可能なコンデンサ4807は、出力のスケーリングを実装する。調整可能な電流源Iw+4801及びIw-4802はまた、M:N比電流ミラー回路(Iout=(M/N)*Iin)などによる出力のスケーリングを実装する。積分時間もまた、出力スケーリングを調整することができる。
図49A、図49B、及び図49Cは、図33の出力回路3307などの出力回路のブロック図を示す。
図49Aでは、出力回路4901は、ADC回路4911を備え、これは、アナログニューロン出力4910を直接デジタル化してデジタル出力ビット4912を提供するために使用される。
図49Bでは、出力回路4902は、ニューロン出力回路4921及びADC4911を備える。ニューロン出力回路4921は、ニューロン出力4920を受信し、それを整形し、その後、それをADC回路4911によってデジタル化して、出力4912を生成する。ニューロン出力回路4921は、前述のような正規化、スケーリング、シフト、マッピング、算術演算、活性化、及び/又は温度補償に使用することができる。ADC回路は、シリアル(傾斜若しくはランプ若しくはカウント)ADC、SAR ADC、パイプラインADC、シグマデルタADC、又は任意のタイプのADCであり得る。
図49Cでは、出力回路は、ニューロン出力4930を受信するニューロン出力回路4921を備え、変換器回路4931は、ニューロン出力回路4921からの出力を出力4932に変換するためのものである。変換器4931は、ADC、AAC(電流-電圧変換器などのアナログ-アナログ変換器)、APC(アナログ-パルス変換器)、又は任意の他のタイプの変換器を備えることができる。ADC4911又は変換器4931は、例えば、ビットマッピング(例えば、量子化)又はクリッピング(例えば、クリップピングされたReLU)によって、活性化関数を実装するために使用され得る。ADC4911及び変換器4931は、より低い又はより高い精度(例えば、より低い又はより高い数のビット)、より低い又はより高い性能(例えば、より遅い又はより速い速度)などのように構成可能であり得る。
スケーリング及びシフトのための別の実施形態は、アレイ(ビット線)出力を、より少ない又はより多いビット精度を有するものなどのデジタルビットに変換し、次いで、特定の関数(例えば、線形又は非線形、圧縮、非線形活性化など)に従って、正規化(例えば、12ビットから8ビット)、シフト、又は再マッピングなどによってデジタル出力ビットを操作するために使用される、(シリアルADC、SAR ADC、パイプラインADC、傾斜ADCなどの)ADC(アナログ-デジタル)変換回路を構成することによるものである。ADC変換回路の例は、本出願と同じ譲受人によって2019年11月11日に出願された、「Precise Programming Method and Apparatus for Analog Neural Memory in a Deep Learning Artificial Neural Network」と題する米国仮特許出願第62/933,809号に記載されており、これは、参照により本明細書に組み込まれる。
10は、読み出し、消去、及びプログラム動作を実行するための代替アプローチを示す。
10:フラッシュメモリセルの動作
Figure 0007329151000010
読み出し及び消去動作は、前の表と同様である。しかしながら、プログラミングのための2つの方法は、ファウラーノルドハイム(FN)トンネリング機構によって実装される。
入力をスケーリングするための実施形態は、一度にVMMの特定の数の行を可能にし、次いで、結果を完全に組み合わせることなどによって行うことができる。
別の実施形態は、入力電圧をスケーリングし、正規化のために出力を適切に再スケーリングすることである。
パルス幅変調入力をスケーリングするための別の実施形態は、パルス幅のタイミングを変調することによるものである。この技術の一例は、本出願と同じ譲受人によって2019年6月21日に出願された、「Configurable Input Blocks and Output Blocks and Physical Layout for Analog Neural Memory in Deep Learning Artificial Neural Network」と題する米国特許出願第16/449,201号に記載されており、これは、参照により本明細書に組み込まれる。
入力をスケーリングするための別の実施形態は、例えば、8ビット入力IN7:0について、一度に1つずつ入力バイナリビットを可能にし、順番にそれぞれIN0、IN1、...、IN7を評価し、次いで、出力結果を適切なバイナリビット重み付けと組み合わせることによるものである。この技術の一例は、本出願と同じ譲受人によって2019年6月21日に出願された、「Configurable Input Blocks and Output Blocks and Physical Layout for Analog Neural Memory in Deep Learning Artificial Neural Network」と題する米国特許出願第16/449,201号に記載されており、これは、参照により本明細書に組み込まれる。
任意選択的に、上記の実施形態では、電流を検証又は読み出す目的でセル電流を測定することは、例えば、8~32回、平均の又は複数の測定値を取って、(RTN若しくは任意のランダムノイズの)ノイズの影響を低減し、及び/又は欠陥があり冗長ビットによって置き換えられる必要があるいずれかの外れ値ビットを検出することであり得る。
本明細書で使用される場合、「の上方に(over)」及び「に(on)」という用語は両方とも、「の上に直接」(中間材料、要素、又は間隙がそれらの間に配設されていない)、及び「の上に間接的に」(中間材料、要素、又は間隙がそれらの間に配設されている)を包括的に含むことに留意されるべきである。同様に、「隣接した」という用語は、「直接隣接した」(中間材料、要素、又は間隙がそれらの間に配設されていない)、及び「間接的に隣接した」(中間材料、要素、又は間隙がそれらの間に配設されている)を含み、「に取り付けられた」は、「に直接取り付けられた」(中間材料、要素、又は間隙がそれらの間に配設されていない)、及び「に間接的に取り付けられた」(中間材料、要素、又は間隙がそれらの間に配設されている)を含み、「電気的に結合された」は、「に直接電気的に結合された」(要素を一緒に電気的に接続する中間材料又は要素がそれらの間にない)、及び「に間接的に電気的に結合された」(要素を一緒に電気的に接続する中間材料又は要素がそれらの間にある)を含む。例えば、要素を「基板の上方に」形成することは、その要素を基板に直接、中間材料/要素をそれらの間に伴わずに形成すること、及びその要素を基板の上に間接的に1つ以上の中間材料/要素をそれらの間に伴って形成することを含み得る。

Claims (24)

  1. ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路であって、前記回路が、
    データドリフトを示す出力を生成するために、前記アレイに結合されたデータドリフト監視回路と、
    前記データドリフト監視回路からの前記出力に応答して補償電流を生成し、前記補償電流を前記アレイの1つ以上のビット線に注入するためのビット線補償回路と、を備える、回路。
  2. 前記ビット線補償回路が、第1の調整可能な電流源及び第2の調整可能な電流源を備え、前記補償電流が、前記第1の調整可能な電流源によって生成された電流と、前記第2の調整可能な電流源によって生成された電流との間の差である、請求項1に記載の回路。
  3. 前記ビット線補償回路が、演算増幅器、第1の調整可能な抵抗器、及び第2の調整可能な抵抗器を備える、請求項1に記載の回路。
  4. 前記ビット線補償回路が、演算増幅器、電流源、及び調整可能なコンデンサを備える、請求項1に記載の回路。
  5. 前記ビット線補償回路が、M:N電流ミラーを備える、請求項1に記載の回路。
  6. 前記ビット線補償回路が、演算増幅器、第1の調整可能な抵抗器、第2の調整可能な抵抗器、及び第3の調整可能な抵抗器を備える、請求項1に記載の回路。
  7. 前記ビット線補償回路が、演算増幅器、電流源、電流シフタ、及び調整可能なコンデンサを備える、請求項1に記載の回路。
  8. ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路であって、前記回路が、
    補償電流を生成し、前記補償電流を前記アレイの1つ以上のビット線に注入してドリフト誤差を補償するためのビット線補償回路を備える、回路。
  9. 前記ビット線補償回路が、加算的補償電流を備える、請求項8に記載の回路。
  10. 前記ビット線補償回路が、減算的補償電流を含む、請求項8に記載の回路。
  11. 前記ベクトル行列乗算アレイが、スプリットゲート不揮発性メモリセルから形成される、請求項8に記載の回路。
  12. ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路であって、前記回路が、
    前記アレイの出力をスケーリングしてドリフト誤差を補償するためのビット線補償回路と、を備える、回路。
  13. 前記ビット線補償回路が、前記出力をシフトさせる、請求項12に記載の回路。
  14. 前記スケーリングが、上方スケーリングを含む、請求項12に記載の回路。
  15. 前記スケーリングが、下方スケーリングを含む、請求項12に記載の回路。
  16. 前記スケーリングが、2つの抵抗器の比によって決定される、請求項12に記載の回路。
  17. 前記スケーリングが、2つのコンデンサの比によって決定される、請求項12に記載の回路。
  18. 前記ベクトル行列乗算アレイが、スプリットゲート不揮発性メモリセルから形成される、請求項12に記載の回路。
  19. ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償するための回路であって、前記回路が、
    前記アレイの出力をシフトしてドリフト誤差を補償するためのビット線補償回路、を備える、回路。
  20. 前記ベクトル行列乗算アレイが、スプリットゲート不揮発性メモリセルから形成される、請求項19に記載の回路。
  21. 前記ベクトル行列乗算アレイ内の1つ以上のセルが、ファウラーノルドハイムトンネリングを使用してプログラムされている、請求項19に記載の回路。
  22. 前記ベクトル行列乗算アレイ内の1つ以上のセルが、ファウラーノルドハイムトンネリングを使用してプログラムされている、請求項20に記載の回路。
  23. ベクトル行列乗算アレイにおける読み出し動作中にドリフト誤差を補償する方法であって、前記方法が、
    前記ベクトル行列乗算アレイにおけるデータドリフトを監視するステップと、
    前記データドリフトに応答してビット線補償電流を生成するステップと、
    読み出し動作中に前記ビット線補償電流を前記ベクトル行列乗算アレイの1つ以上のビット線に注入して、ドリフト誤差を補償するステップと、を含む、方法。
  24. 前記ベクトル行列乗算アレイが、スプリットゲート不揮発性メモリセルから形成される、請求項23に記載の方法。
JP2022540418A 2020-01-03 2020-09-03 人工ニューラルネットワーク内のアナログニューラルメモリにおけるデータドリフトを補償するための回路 Active JP7329151B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062957013P 2020-01-03 2020-01-03
US62/957,013 2020-01-03
US16/830,733 US20210209457A1 (en) 2020-01-03 2020-03-26 Circuitry to compensate for data drift in analog neural memory in an artificial neural network
US16/830,733 2020-03-26
PCT/US2020/049235 WO2021137900A1 (en) 2020-01-03 2020-09-03 Circuitry to compensate for data drift in analog neural memory in an artificial neural network

Publications (2)

Publication Number Publication Date
JP2023509636A JP2023509636A (ja) 2023-03-09
JP7329151B2 true JP7329151B2 (ja) 2023-08-17

Family

ID=76654025

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2022540417A Active JP7404542B2 (ja) 2020-01-03 2020-07-02 人工ニューラルネットワークにおけるアナログニューラルメモリのための精密なデータ調整方法及び装置
JP2022540418A Active JP7329151B2 (ja) 2020-01-03 2020-09-03 人工ニューラルネットワーク内のアナログニューラルメモリにおけるデータドリフトを補償するための回路
JP2023209950A Pending JP2024028955A (ja) 2020-01-03 2023-12-13 人工ニューラルネットワークにおけるアナログニューラルメモリのための精密なデータ調整方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022540417A Active JP7404542B2 (ja) 2020-01-03 2020-07-02 人工ニューラルネットワークにおけるアナログニューラルメモリのための精密なデータ調整方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023209950A Pending JP2024028955A (ja) 2020-01-03 2023-12-13 人工ニューラルネットワークにおけるアナログニューラルメモリのための精密なデータ調整方法及び装置

Country Status (7)

Country Link
US (3) US11636322B2 (ja)
EP (2) EP4085461B1 (ja)
JP (3) JP7404542B2 (ja)
KR (2) KR20220104004A (ja)
CN (2) CN114930458A (ja)
TW (3) TWI785435B (ja)
WO (2) WO2021137894A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11475946B2 (en) * 2020-01-16 2022-10-18 International Business Machines Corporation Synapse weight update compensation
US11532354B2 (en) * 2020-03-22 2022-12-20 Silicon Storage Technology, Inc. Precision tuning of a page or word of non-volatile memory cells and associated high voltage circuits for an analog neural memory array in an artificial neural network
US11514326B2 (en) * 2020-06-18 2022-11-29 International Business Machines Corporation Drift regularization to counteract variation in drift coefficients for analog accelerators
US11335401B1 (en) * 2021-01-28 2022-05-17 National Tsing Hua University Memory unit with multiple word lines for nonvolatile computing-in-memory applications and current calibrating method thereof
CN113392591B (zh) * 2021-07-12 2022-04-19 哈尔滨工程大学 一种基于硅微结构分析的mems加速度计温漂误差估计方法
US11935603B2 (en) * 2021-11-04 2024-03-19 Infineon Technologies LLC Erase power loss indicator (EPLI) implementation in flash memory device
US11942144B2 (en) 2022-01-24 2024-03-26 Stmicroelectronics S.R.L. In-memory computation system with drift compensation circuit
TWI833192B (zh) * 2022-03-31 2024-02-21 國立陽明交通大學 電漿放電電流分類系統及方法
WO2023196000A1 (en) * 2022-04-07 2023-10-12 Silicon Storage Technology, Inc. Vector-by-matrix-multiplication array utilizing analog inputs
US11894052B2 (en) 2022-04-12 2024-02-06 Stmicroelectronics S.R.L. Compensated analog computation for an in-memory computation system
EP4390934A1 (en) * 2022-12-23 2024-06-26 STMicroelectronics S.r.l. In-memory computation device having improved drift compensation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030128567A1 (en) 2002-01-07 2003-07-10 Chih-Kang Chiu Sensing apparatus for a ROM memory device
JP2006114078A (ja) 2004-10-12 2006-04-27 Toshiba Corp 不揮発性半導体記憶装置及びその動作方法
US20110122684A1 (en) 2009-11-20 2011-05-26 Industrial Technology Research Institute Voltage compensation circuit, multi-level memory device with the same, and voltage compensation method for reading the multi-level memory device

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029130A (en) 1990-01-22 1991-07-02 Silicon Storage Technology, Inc. Single transistor non-valatile electrically alterable semiconductor memory device
JPH08249893A (ja) * 1995-03-07 1996-09-27 Toshiba Corp 半導体記憶装置
WO2002059706A2 (en) * 2001-01-26 2002-08-01 True Circuits, Inc. Programmable current mirror
US6747310B2 (en) 2002-10-07 2004-06-08 Actrans System Inc. Flash memory cells with separated self-aligned select and erase gates, and process of fabrication
US7193898B2 (en) * 2005-06-20 2007-03-20 Sandisk Corporation Compensation currents in non-volatile memory read operations
EP1865398A1 (en) * 2006-06-07 2007-12-12 Patent-Treuhand-Gesellschaft für elektrische Glühlampen mbH A temperature-compensated current generator, for instance for 1-10V interfaces
US7551028B1 (en) * 2006-12-11 2009-06-23 Marvell International Ltd. Signal generators for current-mode three-level digital amplifiers
KR100843144B1 (ko) * 2006-12-20 2008-07-02 삼성전자주식회사 저항체를 이용한 비휘발성 메모리 장치 및 그 구동 방법
KR100891005B1 (ko) * 2007-06-28 2009-03-31 삼성전자주식회사 고온 스트레스로 인한 읽기 마진의 감소를 보상하기 위한플래시 메모리 장치 및 그것의 읽기 전압 조정 방법
KR20100074667A (ko) * 2008-12-24 2010-07-02 주식회사 하이닉스반도체 플래시 메모리 장치의 동작 방법
US7928784B2 (en) * 2009-06-26 2011-04-19 Texas Instruments Incorporated Method and apparatus to improve and control the propagation delay in a current slewing circuit
US8779777B2 (en) * 2010-06-04 2014-07-15 Linear Technology Corporation Dynamic compensation of aging drift in current sense resistor
US9490023B2 (en) * 2014-03-19 2016-11-08 Apple Inc. Mitigation of retention drift in charge-trap non-volatile memory
WO2017200883A1 (en) 2016-05-17 2017-11-23 Silicon Storage Technology, Inc. Deep learning neural network classifier using non-volatile memory array
US10346740B2 (en) 2016-06-01 2019-07-09 Kla-Tencor Corp. Systems and methods incorporating a neural network and a forward physical model for semiconductor applications
US10340010B2 (en) * 2016-08-16 2019-07-02 Silicon Storage Technology, Inc. Method and apparatus for configuring array columns and rows for accessing flash memory cells
EP3577689A4 (en) * 2017-02-04 2021-06-02 Monolithic 3D Inc. 3D SEMICONDUCTOR COMPONENT AND STRUCTURE
KR102532204B1 (ko) * 2017-09-15 2023-05-16 삼성전자 주식회사 레퍼런스 셀을 포함하는 저항성 메모리 장치 및 그것의 동작 방법
US10510393B2 (en) * 2017-09-15 2019-12-17 Samsung Electronics Co., Ltd Resistive memory device including reference cell and operating method thereof
US10748630B2 (en) 2017-11-29 2020-08-18 Silicon Storage Technology, Inc. High precision and highly efficient tuning mechanisms and algorithms for analog neuromorphic memory in artificial neural networks
US10504587B2 (en) * 2017-12-20 2019-12-10 Intel Corporation Method and system for compensating for floating gate-to-floating gate (fg-fg) interference in flash memory cell read operations
US10475510B2 (en) * 2017-12-21 2019-11-12 Macronix International Co., Ltd. Leakage compensation read method for memory device
EP3743857A4 (en) * 2018-01-23 2021-12-29 Anaflash Inc. Neural network circuits having non-volatile synapse arrays
US10910061B2 (en) 2018-03-14 2021-02-02 Silicon Storage Technology, Inc. Method and apparatus for programming analog neural memory in a deep learning artificial neural network
US10446246B2 (en) * 2018-03-14 2019-10-15 Silicon Storage Technology, Inc. Method and apparatus for data refresh for analog non-volatile memory in deep learning neural network
US10522226B2 (en) * 2018-05-01 2019-12-31 Silicon Storage Technology, Inc. Method and apparatus for high voltage generation for analog neural memory in deep learning artificial neural network
KR102504836B1 (ko) * 2018-06-15 2023-02-28 삼성전자 주식회사 보상 회로를 구비하는 저항성 메모리 장치
US10643119B2 (en) 2018-07-24 2020-05-05 Sandisk Technologies Llc Differential non-volatile memory cell for artificial neural network
CN110189788A (zh) * 2019-04-24 2019-08-30 深圳市金泰克半导体有限公司 闪存的读电压确定方法、装置、计算机设备和存储介质
US20200364583A1 (en) 2019-05-14 2020-11-19 Robert D. Pedersen Iot sensor network artificial intelligence warning, control and monitoring systems and methods
CN209657299U (zh) 2019-05-16 2019-11-19 北京知存科技有限公司 模拟向量-矩阵乘法运算电路以及芯片
US11507816B2 (en) * 2019-09-19 2022-11-22 Silicon Storage Technology, Inc. Precision tuning for the programming of analog neural memory in a deep learning artificial neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030128567A1 (en) 2002-01-07 2003-07-10 Chih-Kang Chiu Sensing apparatus for a ROM memory device
JP2006114078A (ja) 2004-10-12 2006-04-27 Toshiba Corp 不揮発性半導体記憶装置及びその動作方法
US20110122684A1 (en) 2009-11-20 2011-05-26 Industrial Technology Research Institute Voltage compensation circuit, multi-level memory device with the same, and voltage compensation method for reading the multi-level memory device

Also Published As

Publication number Publication date
TW202309789A (zh) 2023-03-01
TW202129552A (zh) 2021-08-01
JP2024028955A (ja) 2024-03-05
EP4085461A1 (en) 2022-11-09
KR20220104004A (ko) 2022-07-25
US11636322B2 (en) 2023-04-25
TWI785435B (zh) 2022-12-01
JP2023509636A (ja) 2023-03-09
TWI799355B (zh) 2023-04-11
JP7404542B2 (ja) 2023-12-25
US20220374699A1 (en) 2022-11-24
WO2021137900A1 (en) 2021-07-08
EP4085461B1 (en) 2024-04-10
US20210209457A1 (en) 2021-07-08
KR20220104005A (ko) 2022-07-25
US20210209456A1 (en) 2021-07-08
CN114930458A (zh) 2022-08-19
JP2023509635A (ja) 2023-03-09
CN114902339A (zh) 2022-08-12
EP4085464A1 (en) 2022-11-09
WO2021137894A1 (en) 2021-07-08
US11847556B2 (en) 2023-12-19
TWI815065B (zh) 2023-09-11
TW202134910A (zh) 2021-09-16

Similar Documents

Publication Publication Date Title
JP7329151B2 (ja) 人工ニューラルネットワーク内のアナログニューラルメモリにおけるデータドリフトを補償するための回路
JP2023515531A (ja) 深層学習人工ニューラルネットワークにおけるアナログニューラルメモリセルの超精密チューニング
JP7201831B2 (ja) 深層学習人工ニューラルネットワークにおけるアナログニューラルメモリ用の精密プログラミング回路
JP2022549112A (ja) 深層学習人工ニューラルネットワークにおけるアナログニューラルメモリのプログラミングのための精密な調整
JP2023525771A (ja) 論理セル及び改善されたプログラミング機構を備える人工ニューラルネットワーク内のアナログニューラルメモリアレイ
TWI809663B (zh) 用於人工神經網路中之類比神經記憶體之精確資料調校方法及裝置
KR20230110360A (ko) 딥 러닝 인공 신경망에서의 아날로그 신경 메모리를위한 디지털 출력 메케니즘
JP2023533719A (ja) 人工ニューラルネットワークにおけるアナログニューラルメモリアレイの適応バイアスデコーダ
US20210209458A1 (en) Precise data tuning method and apparatus for analog neural memory in an artificial neural network
US20240120009A1 (en) Programming of a Selected Non-volatile Memory Cell by Changing Programming Pulse Characteristics
TWI843232B (zh) 決定施加至神經網路中的一或多個記憶體胞元的偏壓
TWI842636B (zh) 深度學習人工神經網路中類比神經記憶體的輸出電路
US20240062813A1 (en) Determination of a bias voltage to apply to one or more memory cells in a neural network
US20230154528A1 (en) Determination of a bias voltage to apply to one or more memory cells in a neural network
WO2024063792A1 (en) Verification method and system in artificial neural network array
CN118043889A (zh) 要施加到神经网络中的一个或多个存储器单元的偏置电压的确定

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230804

R150 Certificate of patent or registration of utility model

Ref document number: 7329151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150