JP2023515679A - 人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ - Google Patents

人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ Download PDF

Info

Publication number
JP2023515679A
JP2023515679A JP2022552598A JP2022552598A JP2023515679A JP 2023515679 A JP2023515679 A JP 2023515679A JP 2022552598 A JP2022552598 A JP 2022552598A JP 2022552598 A JP2022552598 A JP 2022552598A JP 2023515679 A JP2023515679 A JP 2023515679A
Authority
JP
Japan
Prior art keywords
array
cells
columns
analog
memory cells
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022552598A
Other languages
English (en)
Inventor
バン トラン、ヒュー
ブー、サン
トリン、ステファン
ホン、スタンレー
リ、アン
ティワリ、ビピン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Silicon Storage Technology Inc
Original Assignee
Silicon Storage Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Silicon Storage Technology Inc filed Critical Silicon Storage Technology Inc
Publication of JP2023515679A publication Critical patent/JP2023515679A/ja
Priority to JP2024087159A priority Critical patent/JP2024116189A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/04Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS
    • G11C16/0408Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors
    • G11C16/0416Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors comprising cells containing a single floating gate transistor and no select transistor, e.g. UV EPROM
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/04Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS
    • G11C16/0408Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors
    • G11C16/0425Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors comprising cells containing a merged floating gate and select transistor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/08Address circuits; Decoders; Word-line control circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/24Bit-line control circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/26Sensing or reading circuits; Data output circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/26Sensing or reading circuits; Data output circuits
    • G11C16/28Sensing or reading circuits; Data output circuits using differential sensing or reference cells, e.g. dummy cells
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3418Disturbance prevention or evaluation; Refreshing of disturbed memory data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3418Disturbance prevention or evaluation; Refreshing of disturbed memory data
    • G11C16/3427Circuits or methods to prevent or reduce disturbance of the state of a memory cell when neighbouring cells are read or written
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/12Bit line control circuits, e.g. drivers, boosters, pull-up circuits, pull-down circuits, precharging circuits, equalising circuits, for bit lines
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/14Dummy cell management; Sense reference voltage generators
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/005Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements using switched capacitors, e.g. dynamic amplifiers; using switched capacitors as resistors in differential amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/45Differential amplifiers
    • H03F3/45071Differential amplifiers with semiconductor devices only
    • H03F3/45076Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier
    • H03F3/45475Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier using IC blocks as the active amplifying circuit
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/14Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit
    • H03M1/145Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit the steps being performed sequentially in series-connected stages
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/14Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit
    • H03M1/16Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit with scale factor modification, i.e. by changing the amplification between the steps
    • H03M1/164Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit with scale factor modification, i.e. by changing the amplification between the steps the steps being performed sequentially in series-connected stages
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2203/00Indexing scheme relating to amplifiers with only discharge tubes or only semiconductor devices as amplifying elements covered by H03F3/00
    • H03F2203/45Indexing scheme relating to differential amplifiers
    • H03F2203/45526Indexing scheme relating to differential amplifiers the FBC comprising a resistor-capacitor combination and being coupled between the LC and the IC
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2203/00Indexing scheme relating to amplifiers with only discharge tubes or only semiconductor devices as amplifying elements covered by H03F3/00
    • H03F2203/45Indexing scheme relating to differential amplifiers
    • H03F2203/45536Indexing scheme relating to differential amplifiers the FBC comprising a switch and being coupled between the LC and the IC
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/34Analogue value compared with reference values
    • H03M1/38Analogue value compared with reference values sequentially only, e.g. successive approximation type
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/34Analogue value compared with reference values
    • H03M1/38Analogue value compared with reference values sequentially only, e.g. successive approximation type
    • H03M1/46Analogue value compared with reference values sequentially only, e.g. successive approximation type with digital/analogue converter for supplying reference values to converter
    • H03M1/466Analogue value compared with reference values sequentially only, e.g. successive approximation type with digital/analogue converter for supplying reference values to converter using switched capacitors
    • H03M1/468Analogue value compared with reference values sequentially only, e.g. successive approximation type with digital/analogue converter for supplying reference values to converter using switched capacitors in which the input S/H circuit is merged with the feedback DAC array
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/50Analogue/digital converters with intermediate conversion to time interval
    • H03M1/56Input signal compared with linear ramp

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Power Engineering (AREA)
  • Non-Volatile Memory (AREA)
  • Read Only Memory (AREA)
  • Networks Using Active Elements (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Static Random-Access Memory (AREA)
  • Semiconductor Memories (AREA)

Abstract

アナログニューラルメモリアレイの多数の実施形態が、開示されている。一実施形態では、アナログニューラルメモリシステムは、不揮発性メモリセルのアレイを備え、セルは、行及び列に配置され、列は、物理的に隣接する列の対に配置され、各隣接する対内で、隣接する対の1つの列は、W+値を記憶するセルを備え、隣接する対の1つの列は、W-値を記憶するセルを備え、隣接する対の隣接するセルは、式W=(W+)-(W-)に従って、差分重みWを記憶する。別の実施形態では、アナログニューラルメモリシステムは、W+値を記憶する不揮発性メモリセルの第1のアレイ及びW-値を記憶する第2のアレイを備える。【選択図】 図21A

Description

(優先権の主張)
本出願は、2020年3月5日に出願され「Analog Neural Memory Array in Artificial Neural Network With Accurate Array Source Impedance With Adaptive Weight Mapping and Distributed Power」と題する米国特許仮出願第62/985,826号、及び、2020年8月6日に出願され「Analog Neural Memory Array Storing Synapsis Weights In Differential Cell Pairs in Artificial Neural Network」と題する米国特許出願第16/987,101号の優先権を主張する。
(発明の分野)
アナログニューラルメモリアレイの多数の実施形態が、開示されている。特定の実施形態では、シナプシス重みは、アレイ内の差分セル対に記憶される。特定の実施形態では、電力消費は、セルが読み出されるときに、アレイ内のビット線からビット線まで実質的に一定である。特定の実施形態では、重みマッピングは、電力及びノイズにおける最適な性能のために適応的に実行される。
人工ニューラルネットワークは、生物学的ニューラルネットワーク(動物の中枢神経系、特に脳)を模倣しており、多数の入力に依存し得、かつ、一般的に未知である関数を推定する又は近似するために使用される。人工ニューラルネットワークは、概して、メッセージを交換する相互接続した「ニューロン」の層を含む。
図1は、人工ニューラルネットワークを示しており、図中、円は、入力又はニューロンの層を表わす。接続(シナプスと呼ばれる)は、矢印によって表され、経験に基づいてチューニングされ得る数値の重みを有する。これにより、人工ニューラルネットワークは入力に適応し、学習可能になる。典型的には、人工ニューラルネットワークは、複数の入力の層を含む。典型的には、1つ以上のニューロンの中間層、及びニューラルネットワークの出力を提供するニューロンの出力層が存在する。各レベルでニューロンは、シナプスから受信したデータに基づいて個々に又は集合的に決定を行う。
高性能情報処理用の人工ニューラルネットワークの開発における主要な課題の1つは、適切なハードウェア技術の欠如である。実際には、実用人工ニューラルネットワークは、非常に多数のシナプスに依拠しており、これによりニューロン間の高い接続性、すなわち、非常に高度な計算処理の並列化が可能となる。原理的には、このような複雑性は、デジタルスーパーコンピュータ又は専用グラフィックプロセッシングユニットクラスタによって実現が可能である。しかしながら、高コストに加え、これらのアプローチはまた、生物学的ネットワークが主として低精度のアナログ計算を実施するのではるかに少ないエネルギーしか消費しないのと比較して、エネルギー効率が劣っていることに悩まされている。人工ニューラルネットワークにはCMOSアナログ回路が使用されてきたが、ほとんどのCMOS実装シナプスは、多数のニューロン及びシナプスを前提とすると、嵩高過ぎていた。
出願人は以前に、参照により組み込まれる米国特許公開第2017/0337466号として公開された米国特許出願第15/594,439号において、シナプスとして1つ以上の不揮発性メモリアレイを利用する人工(アナログ)ニューラルネットワークを開示した。不揮発性メモリアレイは、アナログニューロモーフィックメモリとして動作する。本明細書で使用される場合、ニューロモーフィックという用語は、神経システムのモデルを実装する回路を意味する。アナログニューロモーフィックメモリは、第1の複数の入力を受信して、それから第1の複数の出力を生成するように構成されている第1の複数のシナプス、及び、第1の複数の出力を受信するように構成された第1の複数のニューロンを含む。第1の複数のシナプスは複数のメモリセルを含み、各メモリセルは、半導体基板内に形成された、間にチャネル領域が延在している離間したソース領域及びドレイン領域と、チャネル領域の第1の部分の上方に配設され、チャネル領域の第1の部分から絶縁された浮遊ゲートと、チャネル領域の第2の部分の上方に配設され、チャネル領域の第2の部分から絶縁された非浮遊ゲートと、を含む。複数のメモリセルの各々は、浮遊ゲート上の多くの電子に対応する重み値を記憶するように構成されている。複数のメモリセルは、第1の複数の入力に、記憶された重み値を乗算して第1の複数の出力を生成するように構成される。この様式で配置されるメモリセルのアレイは、ベクトル行列乗算(vector by matrix multiplication、VMM)アレイと称され得る。
ここで、VMMで使用することができる異なる不揮発性メモリセルの例を考察する。
<<不揮発性メモリセル>>
様々な種類の既知の不揮発性メモリセルをVMMアレイに使用することができる。例えば、参照により本明細書に組み込まれる、米国特許第5,029,130号(「’130号特許」)は、フラッシュメモリセルの一種であるスプリットゲート不揮発性メモリセルのアレイを開示する。このようなメモリセル210を図2に示す。各メモリセル210は、半導体基板12内に形成されたソース領域14とドレイン領域16とを含み、ソース領域14とドレイン領域16の間にはチャネル領域18がある。浮遊ゲート20は、チャネル領域18の第1の部分の上方に絶縁されて形成され(並びに、チャネル領域18の第1の部分の導電性を制御して)、ソース領域14の一部分の上方にかけて形成される。ワード線端子22(典型的には、ワード線に結合される)は、チャネル領域18の第2の部分の上方に配設され、チャネル領域18の第2の部分から絶縁された、(並びに、チャネル領域18の第2の部分の導電性を制御する)第1の部分と、浮遊ゲート20の上方で上に延在する第2の部分と、を有する。浮遊ゲート20及びワード線端子22は、ゲート酸化物によって基板12から絶縁される。ビット線端子24はドレイン領域16に結合される。
ワード線端子22に高圧正電圧を印加することによって、メモリセル210に対して消去が行われ(電子が浮遊ゲートから除去される)、これによって、浮遊ゲート20の電子は、浮遊ゲート20からワード線端子22までそれらの間にある絶縁体の中をファウラー・ノルドハイム(Fowler-Nordheim)トンネリングを介して通過する。
メモリセル210は、ワード線端子22に正電圧、及びソース領域14に正電圧を印加することによってプログラムされる(電子が浮遊ゲートに印加される)。電子電流は、ドレイン領域16からソース領域14(ソース線端子)に向かって流れる。電子は加速し、ワード線端子22と浮遊ゲート20との間の間隙に達すると、エネルギーを与えられる(発熱する)。熱せられた電子の一部が、浮遊ゲート20からの静電引力に起因して、浮遊ゲート20にゲート酸化物を介して注入される。
メモリセル210は、ドレイン領域16及びワード線端子22に正の読み出し電圧を印加する(ワード線端子の下方のチャネル領域18の部分をオンにする)ことによって、読み出される。浮遊ゲート20が正に帯電する(すなわち、電子を消去する)と、浮遊ゲート20の下方のチャネル領域18の部分も同様にオンになり、電流はチャネル領域18を流れ、これは、消去された状態つまり「1」の状態として感知される。浮遊ゲート20が負に帯電する(すなわち、電子でプログラムされる)と、浮遊ゲート20の下方のチャネル領域の部分はほとんど又は完全にオフになり、電流はチャネル領域18を流れず(又はほとんど流れず)、これは、プログラムされた状態つまり「0」の状態として感知される。
表1は、読み出し、消去、及びプログラム動作を実行するためのメモリセル110の端子に印加され得る、典型的な電圧範囲を示す。
表1:図2のフラッシュメモリセル210の動作
Figure 2023515679000002
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子に出力される読み出しモードである。
図3は、制御ゲート(control gate、CG)端子28を追加した、図2のメモリセル210と同様のメモリセル310を示す。制御ゲート端子28は、プログラミング中に高電圧(例えば、10V)、消去中に低又は負電圧(例えば、0v/-8V)、読み出し中に低又は中程度電圧(例えば、0v/2.5V)でバイアスされる。他の端子は、図2の端子と同様にバイアスされる。
図4は、ソース領域14と、ドレイン領域16と、チャネル領域18の第1の部分の上方にある浮遊ゲート20と、チャネル領域18の第2の部分の上方にある選択ゲート22(典型的には、ワード線、WL、に結合される)と、浮遊ゲート20の上方にある制御ゲート28と、ソース領域14の上方にある消去ゲート30と、を備える、4ゲートメモリセル410を示す。この構成は、あらゆる目的のため参照により本明細書に組み込まれる、米国特許第6,747,310号に記載されている。ここで、全てのゲートは、浮遊ゲート20を除いて、非浮遊ゲートであり、つまり、それらは電圧源に電気的に接続される又は接続可能である。プログラミングは、熱せられた電子がチャネル領域18から浮遊ゲート20にその電子自体を注入することによって実行される。消去は、電子が浮遊ゲート20から消去ゲート30へトンネリングすることによって実行される。
表2は、読み出し、消去、及びプログラム動作を実行するためのメモリセル410の端子に印加され得る典型的な電圧範囲を示す。
表2:図4のフラッシュメモリセル410の動作
Figure 2023515679000003
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子に出力される読み出しモードである。
図5は、メモリセル510が消去ゲート(erase gate、EG)端子を含まないことを除いて、図4のメモリセル410と同様のメモリセル510を示す。消去は、基板18を高電圧にバイアスし、制御ゲートCG端子28を低電圧又は負電圧にバイアスすることによって行われる。代替的に、ワード線端子22を正電圧にバイアスし、制御ゲート端子28を負電圧にバイアスすることによって、消去が行われる。プログラミング及び読み出しは、図4のものと同様である。
図6は、別の種類のフラッシュメモリセルである、3ゲートメモリセル610を示す。メモリセル610は、メモリセル610が別個の制御ゲート端子を有しないことを除いて、図4のメモリセル410と同一である。(消去ゲート端子の使用を通じて消去が起こる)消去動作及び読み出し動作は、制御ゲートバイアスが印加されないことを除いて、図4のものと同様である。プログラミング動作もまた、制御ゲートバイアスなしで行われるため、結果として、プログラム動作中は、制御ゲートバイアスの不足を補償するため、より高い電圧がソース線端子に印加されなければならない。
表3は、読み出し、消去、及びプログラム動作を実行するためのメモリセル610の端子に印加され得る典型的な電圧範囲を示す。
表3:図6のフラッシュメモリセル610の動作
Figure 2023515679000004
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子に出力される読み出しモードである。
図7は、別の種類のフラッシュメモリセルである、積層ゲートメモリセル710を示す。メモリセル710は、浮遊ゲート20がチャネル領域18全体の上方にわたって延在し、制御ゲート端子22(ワード線に結合される)が絶縁層(図示せず)によって分離されて浮遊ゲート20の上方に延在することを除いて、図2のメモリセル210と同様である。プログラミングは、チャネル18から、ドレイン領域16の隣のチャネル領域内の浮遊ゲート20へのホット電子注入を使用して実行され、消去は、浮遊ゲート20から基板12へのファウラー・ノルドハイム電子トンネリングによって実行される。読み出し動作は、メモリセル210について前述したものと同様の様式で動作する。
表4は、読み出し、消去、及びプログラム動作を実行するためのメモリセル710及び基板12の端子に印加され得る典型的な電圧範囲を示す。
表4:図7のフラッシュメモリセル710の動作
Figure 2023515679000005
「読み出し1」は、セル電流がビット線に出力される読み出しモードである。「読み出し2」は、セル電流がソース線端子に出力される読み出しモードである。任意選択的に、メモリセル210、310、410、510、610、又は710の行及び列を含むアレイでは、ソース線は、メモリセルの1行又はメモリセルの隣接する2行に結合され得る。すなわち、ソース線端子は、メモリセルの隣接する行によって共有され得る。
図8は、ツインスプリットゲートメモリセル810を示す。ツインスプリットゲートメモリセル810は、一対のメモリセル(左側にA及び右側にB)を備え、メモリセルの各々は、基板12の上方にそれから絶縁されて配設された浮遊ゲート(FGA、FGB)20と、浮遊ゲート20の上方にそれらから絶縁されて配設された制御ゲート28(CGA、CGB)と、浮遊ゲート及び制御ゲート20/28に隣接してそれらから絶縁されて配設され、かつ基板12の上方にそれから絶縁されて配設された消去ゲート30(EG)であって、消去ゲートはT字形で作成され、その結果、各制御ゲートのCGA、CGBの上隅部が、T字形消去ゲートのそれぞれの内側隅部に面して消去効率を改善させる、消去ゲート30(EG)と、浮遊ゲート20に隣接した基板内のドレイン領域16(DRA、DRB)(それぞれのドレイン拡散領域16(DRA、DRB)に接続されたビット線コンタクト24(BLA、BLB)を有する)と、を備える。メモリセルは、共通消去ゲート30を共有するメモリセルの対として形成される。このセル設計は、少なくとも、消去ゲートEGの下のソース領域を欠き、選択ゲート(ワード線とも称される)を欠き、各メモリセルのチャネル領域を欠く点で、図2~7を参照して上で考察されるメモリセルとは異なる。代わりに、単一の連続チャネル領域18が両メモリセルの下に延在する(すなわち、一方のメモリセルのドレイン領域16から他方のメモリセルのドレイン領域16まで延在する)。一方のメモリセルの読み出し又はプログラムを行うためには、他方のメモリセルの制御ゲート28を十分な電圧まで上昇させて、それらの間にある浮遊ゲート20への電圧結合によって、下にあるチャネル領域部分を起動させる(例えば、セルAの読み出し又はプログラムを行うためには、CGBからの電圧結合によってFGB上の電圧を上昇させて、FGB下のチャネル領域を起動させる)。消去は、浮遊ゲート20A及び/又は浮遊ゲート20Bから消去ゲート30へのファウラー・ノルドハイム電子トンネリングを使用して実行される。プログラミングは、チャネル18から浮遊ゲート20へのホット電子注入を使用して実行される。
表5は、読み出し、消去、及びプログラム動作を実行するためのメモリセル810の端子に印加され得る典型的な電圧範囲を示す。セルA(FG、CGA、BLA)は、読み出し、プログラム、及び消去動作のために選択される。
表5:図8のフラッシュメモリセル810の動作
Figure 2023515679000006
上記の不揮発性メモリセルの種類のうちの1つを備えるメモリアレイを人工ニューラルネットワークにおいて利用するために、一実施形態では、2つの修正が行われる。第1に、以下に更に説明されるように、アレイ内の他のメモリセルのメモリ状態に悪影響を与えずに各メモリセルを個々にプログラム、消去、及び読み出しできるように線を構成する。第2に、メモリセルの連続(アナログ)プログラミングを提供する。
具体的には、アレイ内の各メモリセルのメモリ状態(すなわち、浮遊ゲート上の電荷)を、完全に消去された状態から完全にプログラムされた状態へ、独立して、かつ他のメモリセルの乱れが最小で、連続的に変えることができる。別の実施形態では、アレイ内の各メモリセルのメモリ状態(すなわち、浮遊ゲートの電荷)を、完全にプログラムされた状態から完全に消去された状態へ、又は完全に消去された状態から完全にプログラムされた状態へ、独立して、かつ他のメモリセルの乱れが最小で、連続的に変えることができる。これは、セル記憶がアナログであるか、又は多数の不連続値(16個又は256個の異なる値など)のうちの1つを最低限記憶することができることを意味し、それは、メモリアレイ内の全てのセルの非常に精確、かつ個々のチューニングを可能とし、かつそれは、メモリアレイを、ニューラルネットワークの微細チューニングされたシナプシス重みを記憶及び作成するために理想的なものにする。
本明細書に記載される方法及び手段は、限定することなく、FINFETスプリットゲートフラッシュ又はスタックゲートフラッシュ、SONOS(ケイ素-酸化物-窒化物-酸化物-ケイ素、窒化物中の電荷トラップ)、MONOS(金属-酸化物-窒化物-酸化物-ケイ素、窒化物中の金属電荷トラップ)、ReRAM(抵抗変化型メモリ)、PCM(相変化メモリ)、MRAM(磁気抵抗メモリ)、FeRAM(強誘電体メモリ)、OTP(バイレベル又はマルチレベルの1回のみのプログラム可能)及びCeRAM(強相関電子メモリ)などの他の不揮発性メモリ技術に適用することができる。本明細書に記載される方法及び手段は、限定することなく、SRAM、DRAM、及び他の揮発性シナプスセルなどのニューラルネットワークに使用される揮発性メモリ技術に適用することができる。
<<不揮発性メモリセルアレイを使用するニューラルネットワーク>>
図9は、本実施形態の不揮発性メモリアレイを利用するニューラルネットワークの非限定例を概念的に示す。この例は、顔認識アプリケーション用に不揮発性メモリアレイニューラルネットワークを使用するが、不揮発性メモリアレイベースのニューラルネットワークを使用して他の適切なアプリケーションを実装することも可能である。
S0は、入力層であり、この例では、5ビット精度の32×32ピクセルRGB画像である(すなわち、各色R、G、及びBにつき1つずつで3つの32×32ピクセルアレイであり、各ピクセルは、5ビット精度である)。入力層S0から層C1に行くシナプスCB1は、一部のインスタンスには異なる重みのセットを適用し、他のインスタンスには共有の重みを適用し、入力画像を3×3ピクセルの重なり合うフィルタ(カーネル)でスキャンし、1ピクセル(又はモデルによっては2ピクセル以上)ずつフィルタをシフトする。具体的には、画像の3×3部分における9ピクセルの値(すなわち、フィルタ又はカーネルと称される)は、シナプスCB1に提供され、そこで、これらの9個の入力値に適切な重みを乗算し、その乗算の出力を合算後、単一の出力値が決定され、層C1の特徴マップの1つのピクセルを生成するためにCB1の第1のシナプスによって提供される。3×3フィルタは次に、入力層S0内で右側に1ピクセルだけシフトされ(すなわち、3ピクセルの列を右側に追加し、左側で3ピクセルの列をドロップする)、これにより、この新しく位置づけられたフィルタの9ピクセル値はシナプスCB1に提供され、そこでそれらに上記と同じ重みを乗算し、関連するシナプスによって第2の単一の出力値を決定する。このプロセスを、3×3フィルタが入力層S0の32×32ピクセル画像全体にわたって3色全て及び全てのビット(精度値)についてスキャンするまで続ける。プロセスは次に、層C1の特徴マップ全てが計算されるまで、異なる重みのセットを使用して繰り返されて、C1の異なる特徴マップを生成する。
本例では、層C1において、各々30×30ピクセルを有する16個の特徴マップが存在する。各ピクセルは、入力とカーネルとの乗算から抽出された新しい特徴ピクセルであり、したがって、各特徴マップは、2次元アレイであり、したがってこの例では、層C1は、2次元アレイの16層を構成する(本明細書で言及される層及びアレイは、必ずしも物理的関係ではなく論理的な関係であり、すなわち、アレイは必ずしも物理的な2次元アレイに配向されないことに留意されたい)。層C1内の16個の特徴マップの各々は、フィルタスキャンに適用される異なるシナプス重みのセット16個のうちの1つによって生成される。C1特徴マップは全て、境界識別など、同じ画像特徴の異なる態様を対象とすることができる。例えば、第1のマップ(この第1のマップを生成するために使用される全てのスキャンに共有される第1の重みセットを使用して生成される)は、円形エッジを識別することができ、第2のマップ(第1の重みセットと異なる第2の重みセットを使用して生成される)は、長方形エッジ又は特定の特徴のアスペクト比などを識別することができる。
層C1から層S1へ行く前には、各特徴マップ内の重なり合わずに連続する2×2領域からの値をプールする活性化関数P1(プーリング)が適用される。プーリング関数P1の目的は、近隣の位置を平均すること(又はmax関数を使用することも可能である)、例えばエッジ位置の依存性を低減すること、及び次の段階に行く前にデータサイズを低減することである。層S1において、16個の15×15特徴マップ(すなわち、各々15×15ピクセルの異なるアレイ16個)が存在する。層S1から層C2に行くシナプスCB2は、層S1内のマップを4×4フィルタにより1ピクセルのフィルタシフトでスキャンする。層C2において、22個の12×12特徴マップが存在する。層C2から層S2へ行く前には、各特徴マップ内の重なり合わずに連続する2×2領域からの値をプールする活性化関数P2(プーリング)が適用される。層S2において、22個の6×6特徴マップが存在する。層S2から層C3へ行くシナプスCB3では活性化関数(プーリング)が適用され、ここで層C3内の全てのニューロンは、CB3のそれぞれのシナプスを介して層S2内の全てのマップに接続する。層C3において、64個のニューロンが存在する。層C3から出力層S3へ行くシナプスCB4は、C3をS3に完全に接続する、すなわち、層C3内の全てのニューロンは、層S3内の全てのニューロンに接続される。S3における出力は、10個のニューロンを含み、ここで出力が最も高いニューロンが、クラス(分類)を決定する。この出力は、例えば、元の画像の内容の識別又は分類を示すことができる。
シナプスの各層は、不揮発性メモリセルのアレイ又はアレイの一部を使用して実装される。
図10は、その目的のために使用可能なシステムのブロック図である。VMMシステム32は、不揮発性メモリセルを含み、ある層と次の層との間のシナプス(図6のCB1、CB2、CB3、及びCB4など)として利用される。具体的には、VMMシステム32は、行及び列に配置された不揮発性メモリセルを備えるVMMアレイ33、消去ゲート及びワード線ゲートデコーダ34、制御ゲートデコーダ35、ビット線デコーダ36、並びにソース線デコーダ37を備え、それらのデコーダは、不揮発性メモリセルアレイ33に対するそれぞれの入力をデコードする。VMMアレイ33への入力は、消去ゲート及びワード線ゲートデコーダ34から、又は制御ゲートデコーダ35から行うことができる。この例におけるソース線デコーダ37はまた、VMMアレイ33の出力をデコードする。代替的に、ビット線デコーダ36が、VMMアレイ33の出力をデコードすることができる。
VMMアレイ33は、2つの目的を果たす。第1に、VMMシステム32によって使用される重みを記憶する。第2に、VMMアレイ33は、効果的に、入力に、VMMアレイ33に記憶された重みを乗算し、それらを出力線(ソース線又はビット線)ごとに加算して出力を生成し、これは、次の層への入力又は最後の層への入力になる。乗算及び加算の関数を実行することによって、VMMアレイ33は、別個の乗算及び加算の論理回路の必要性をなくし、また、その場でのメモリ計算により電力効率も良い。
VMMアレイ33の出力は、不揮発性メモリセルアレイ33の出力を合算してその畳み込み用の単一の値を作成する、差動合算器(合算演算増幅器又は合算電流ミラーなど)38に供給される。差動合算器38は、正の重み入力及び負の重み入力両方の合算を実行して単一の値を出力するように配置される。
差動合算器38の合算された出力値は、次に出力を整流する活性化関数回路39に供給される。活性化関数回路39は、シグモイド関数、tanh関数、ReLU関数、又は任意の他の非線形関数を提供し得る。活性化関数回路39の整流された出力値は、次の層(例えば図8のC1)の特徴マップの要素になり、次いで、次のシナプスに適用されて次の特徴マップ層又は最後の層を生成する。したがって、この例では、VMMアレイ33は、複数のシナプス(それは、ニューロンの前の層から、又は画像データベースなどの入力層から、入力を受信する)を構成し、合算器38及び活性化関数回路39は、複数のニューロンを構成する。
図10のVMMシステム32への入力(WLx、EGx、CGx、及び任意選択的にBLx及びSLx)は、アナログレベル、バイナリレベル、デジタルパルス(この場合、パルスを適切な入力アナログレベルに変換するために、パルス-アナログ変換器PACが必要とされ得る)又はデジタルビット(この場合、デジタルビットを適切な入力アナログレベルに変換するために、DACが提供される)であり得、出力は、アナログレベル(例えば、電流、電圧、又は電荷)、バイナリレベル、デジタルパルス、又はデジタルビット(この場合、出力アナログレベルをデジタルビットに変換するために、出力ADCが提供される)であり得る。
図11は、図中でVMMシステム32a、32b、32c、32d及び32eとして標示されたVMMシステム32の多数の層の使用を示すブロック図である。図11に示されるように、入力(Inputxで示される)は、デジタル-アナログ変換器31によってデジタルからアナログに変換され、入力VMMシステム32aに提供される。変換されたアナログ入力は、電圧又は電流であり得る。第1の層の入力D/A変換は、入力VMMシステム32aの行列乗算器の適切なアナログレベルに入力Inputxをマッピングする関数又はLUT(ルックアップテーブル)を使用することによって行うことができる。入力変換はまた、外部アナログ入力を入力VMMシステム32aへのマッピングされたアナログ入力に変換するように、アナログ-アナログ(A/A)変換器によって行うこともできる。入力変換はまた、外部デジタル入力を入力VMMシステム32aへのマッピングされたデジタルパルス(単数又は複数)に変換するように、デジタル-デジタルパルス(D/P)変換器によって行うこともできる。
入力VMMシステム32aによって生成された出力は、次に、次のVMMシステム(隠しレベル1)32bへの入力として提供され、次に、次のVMMシステムが、さらに次の入力VMMシステム(隠しレベル2)32cへの入力として提供される出力を生成する、などとなる。VMMシステム32の様々な層は、畳み込みニューラルネットワーク(convolutional neural network、CNN)のシナプス及びニューロンの各層として機能する。VMMシステム32a、32b、32c、32d及び32eはそれぞれ、対応の不揮発性メモリアレイを備える、スタンドアローンの物理的システムとすることができ、又は複数のVMMシステムは、同じ物理的不揮発性メモリアレイの異なる部分を利用することができ、又は複数のVMMシステムは、同じ物理的不揮発性メモリアレイの重なり合う部分を利用することができる。各VMMシステム32a、32b、32c、32d、及び32eはまた、そのアレイ又はニューロンの様々な部分に対して時間多重化され得る。図11に示される例は、5つの層(32a、32b、32c、32d、32e)、すなわち、1つの入力層(32a)、2つの隠れ層(32b、32c)、及び2つの完全に接続された層(32d、32e)を含む。当業者であれば、これは単なる例示であり、代わりにシステムが2つを超える隠れ層及び2つを超える完全に接続された層を含み得ることを理解するであろう。
<<VMMアレイ>>
図12は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1200を示す。VMMアレイ1200は、不揮発性メモリセルのメモリアレイ1201と、不揮発性基準メモリセルの基準アレイ1202(アレイの頂部に位置する)と、を備える。代替的に、別の基準アレイが底部に位置することができる。
VMMアレイ1200では、制御ゲート線1203などの制御ゲート線が垂直方向に延びており(したがって、行方向の基準アレイ1202が、制御ゲート線1203に直交する)、消去ゲート線1204などの消去ゲート線が水平方向に延びている。ここで、VMMアレイ1200への入力は、制御ゲート線(CG0、CG1、CG2、CG3)に提供され、VMMアレイ1200の出力は、ソース線(SL0、SL1)に現れる。一実施形態では、偶数行のみが使用され、別の実施形態では、奇数行のみが使用される。各ソース線(それぞれSL0、SL1)に加えられる電流は、その特定のソース線に接続されたメモリセルからの全ての電流の合算関数を実行する。
ニューラルネットワークについて本明細書に記載されているように、VMMアレイ1200の不揮発性メモリセルは、好ましくは、サブスレッショルド領域で動作するように構成される。
本明細書に記載される不揮発性基準メモリセル及び不揮発性メモリセルは、サブスレッショルド領域でバイアスされる:
Ids=Io*(Vg-Vth)/nVt=w*Io*(Vg)/nVt
式中、w=e(-Vth)/nVtであり、
式中、Idsは、ドレイン-ソース間電流であり、Vgはメモリセルのゲート電圧であり、Vthは、メモリセルのスレッショルド電圧であり、Vtは熱電圧=k*T/qであり、kはボルツマン定数、Tはケルビン温度、qは電子電荷であり、nは傾斜係数=1+(Cdep/Cox)であり、Cdep=空乏層の容量、及びCoxはゲート酸化物層の容量であり、Ioは、スレッショルド電圧に等しいゲート電圧におけるメモリセル電流であり、Ioは、(Wt/L)**Cox*(n-1)*Vt2に比例し、式中、uはキャリア移動度であり、Wt及びLはそれぞれ、メモリセルの幅及び長さである。
メモリセル(基準メモリセル又は周辺メモリセルなど)又はトランジスタを使用して入力電流Idsを入力電圧Vgに変換するI-Vログ変換器を使用した場合:
Vg=n*Vt*log[Ids/wp*Io]
式中、wpは、基準又は周辺メモリセルのwである。
メモリセル(基準メモリセル又は周辺メモリセルなど)又はトランジスタを使用して入力電流Idsを入力電圧Vgに変換するI-Vログ変換器を使用した場合:
Vg=n*Vt*log[Ids/wp*Io]
式中、wpは、基準又は周辺メモリセルのwである。
ベクトル行列乗算器VMMアレイとして使用されるメモリアレイについて、出力電流は以下である:
Iout=wa*Io*(Vg)/nVt、すなわち
Iout=(wa/wp)*Iin=W*Iin
W=e(Vthp-Vtha)/nVt
Iin=wp*Io*(Vg)/nVt
式中、メモリアレイ内の各メモリセルのwa=wであり、wpは、基準又は周辺メモリセルのwである。
ワード線又は制御ゲートは、入力電圧のためのメモリセルの入力として使用することができる。
代替的に、本明細書に記載されたVMMアレイの不揮発性メモリセルは、線形領域で動作するように構成することができる。
Ids=ベータ*(Vgs-Vth)*Vds; ベータ=u*Cox*Wt/L
W α (Vgs-Vth)
すなわち、線形領域における重みWは、(Vgs-Vth)に比例する。
ワード線又は制御ゲート又はビット線又はソース線は、線形領域内で動作するメモリセルの入力として使用することができる。ビット線又はソース線は、メモリセルの出力として使用することができる。
I-V線形変換器用に、線形領域で動作するメモリセル(基準メモリセル又は周辺メモリセルなど)若しくはトランジスタ、又は抵抗器を使用して、入出力電流を入出力電圧に線形変換することができる。
代替的に、本明細書に記載されたVMMアレイのメモリセルは、飽和領域で動作するように構成することができる。
Ids=1/2*ベータ*(Vgs-Vth)2; ベータ=u*Cox*Wt/L
W α (Vgs-Vth)2、すなわち、重みWは(Vgs-Vth)2に比例する
ワード線、制御ゲート、又は消去ゲートは、飽和領域内で動作するメモリセルの入力として使用することができる。ビット線又はソース線は、出力ニューロンの出力として使用することができる。
代替的に、本明細書に記載されるVMMアレイのメモリセルは、ニューラルネットワークの各層又は多層に対して、全ての領域又はそれらの組み合わせ(サブスレッショルド、線形、又は飽和)で使用することができる。
図13は、図2に示されるメモリセル210に特に適したニューロンVMMアレイ1300を示し、入力層と次の層との間のシナプスとして利用される。VMMアレイ1300は、不揮発性メモリセルのメモリアレイ1303と、第1の不揮発性基準メモリセルの基準アレイ1301と、第2の不揮発性基準メモリセルの基準アレイ1302と、を備える。アレイの列方向に配置された基準アレイ1301及び1302は、端子BLR0、BLR1、BLR2、及びBLR3に流入する電流入力を電圧入力WL0、WL1、WL2、及びWL3に変換するように機能する。実際には、第1及び第2の不揮発性基準メモリセルは、電流入力が流入する状態で、マルチプレクサ1314(一部のみ示す)を通してダイオード接続される。基準セルは、目標基準レベルにチューニング(例えば、プログラム)される。目標基準レベルは、基準ミニアレイ行列(図示せず)によって提供される。
メモリアレイ1303は、2つの目的を果たす。第1に、VMMアレイ1300により使用される重みを、それぞれのメモリセルに記憶する。第2に、メモリアレイ1303は、メモリセルアレイ1303に記憶された重みによって、入力(すなわち、端子BLR0、BLR1、BLR2、及びBLR3に提供された電流入力であり、これを基準アレイ1301及び1302が入力電圧に変換して、ワード線WL0、WL1、WL2、及びWL3に供給する)を有効に乗算して、次いで、全ての結果(メモリセル電流)を加算して、それぞれのビット線(BL0~BLN)に出力を生成し、この出力は次の層への入力又は最後の層への入力となる。メモリアレイ1303が乗算及び加算の関数を実行することで、別個の乗算及び加算の論理回路の必要性はなくなり、また、電力効率も良い。ここで、電圧入力はワード線WL0、WL1、WL2、及びWL3に提供され、出力は、読み出し(推論)動作中にそれぞれのビット線BL0~BLNに現れる。各々のビット線BL0~BLNに加えられた電流は、その特定のビット線に接続された全ての不揮発性メモリセルからの電流の合算関数を実行する。
表6は、VMMアレイ1300の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示し、FLTは、浮遊、すなわち電圧が印加されないことを示す。行は、読み出し、消去、及びプログラムの動作を示す。
表6:図13のVMMアレイ1300の動作
Figure 2023515679000007
図14は、図2に示されるメモリセル210に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1400を示す。VMMアレイ1400は、不揮発性メモリセルのメモリアレイ1403と、第1の不揮発性基準メモリセルの基準アレイ1401と、第2の不揮発性基準メモリセルの基準アレイ1402と、を備える。基準アレイ1401及び1402は、VMMアレイ1400の行方向に延びる。VMMアレイは、VMMアレイ1400においてワード線が垂直方向に延びることを除いて、VMM1300と同様である。ここで、入力はワード線(WLA0、WLB0、WLA1、WLB2、WLA2、WLB2、WLA3、WLB3)に提供され、出力は、読み出し動作中にソース線(SL0、SL1)に現れる。各ソース線に加えられる電流は、その特定のソース線に接続されたメモリセルからの全ての電流の合算関数を実行する。
表7は、VMMアレイ1400の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
表7:図14のVMMアレイ1400の動作
Figure 2023515679000008
図15は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1500を示す。VMMアレイ1500は、不揮発性メモリセルのメモリアレイ1503と、第1の不揮発性基準メモリセルの基準アレイ1501と、第2の不揮発性基準メモリセルの基準アレイ1502と、を備える。基準アレイ1501及び1502は、端子BLR0、BLR1、BLR2、及びBLR3に流入する電流入力を電圧入力CG0、CG1、CG2、及びCG3に変換するように機能する。実際には、第1及び第2の不揮発性基準メモリセルは、電流入力がBLR0、BLR1、BLR2、及びBLR3を通って流入する状態で、マルチプレクサ1512(一部のみ示す)を通してダイオード接続される。マルチプレクサ1512は、読み出し動作中に第1及び第2の不揮発性基準メモリセルの各々のビット線(BLR0など)の一定電圧を確実にするために、それぞれのマルチプレクサ1505及びカスコーディングトランジスタ1504を各々含む。基準セルは、目標基準レベルにチューニングされる。
メモリアレイ1503は、2つの目的を果たす。第1に、それはVMMアレイ1500によって使用される重みを記憶する。第2に、メモリアレイ1503は、入力(端子BLR0、BLR1、BLR2、及びBLR3に提供された電流入力であり、基準アレイ1501及び1502がこれらの電流入力を入力電圧に変換して、制御ゲート(CG0、CG1、CG2、及びCG3)に供給する)、メモリセルアレイに記憶された重みを掛けて、次いで、全ての結果(セル電流)を加算して出力を生成し、この出力はBL0~BLNに出現し、次の層への入力又は最後の層への入力となる。メモリアレイが乗算及び加算の関数を実行することで、別個の乗算及び加算の論理回路の必要性がなくなり、また、電力効率も良い。ここで、入力は制御ゲート線(CG0、CG1、CG2、及びCG3)に提供され、出力は、読み出し動作中にビット線(BL0~BLN)に現れる。各ビット線に加えられる電流は、その特定のビット線に接続されたメモリセルからの全ての電流の合算関数を実行する。
VMMアレイ1500は、メモリアレイ1503内の不揮発性メモリセルの一方向チューニングを実装する。すなわち、各不揮発性メモリセルは消去され、次いで、浮遊ゲート上の所望の電荷に達するまで部分的にプログラムされる。過度に多くの電荷が浮遊ゲートに加えられる場合(その場合は誤った値がセルに記憶される)、セルは消去され、一連の部分的なプログラミング動作が再開される。示されるように、同じ消去ゲート(EG0又はEG1など)を共有する2つの行は、一緒に消去される必要があり(ページ消去として知られる)、その後、各セルは、浮遊ゲート上の所望の電荷に達するまで部分的にプログラムされる。
表8は、VMMアレイ1500の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルの制御ゲート、選択セルと同じセクタ内の非選択セルの制御ゲート、選択セルとは異なるセクタ内の非選択セルの制御ゲート、選択セルの消去ゲート、非選択セルの消去ゲート、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
表8:図15のVMMアレイ1500の動作
Figure 2023515679000009
図16は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1600を示す。VMMアレイ1600は、不揮発性メモリセルのメモリアレイ1603と、基準アレイ1601又は第1の不揮発性基準メモリセルと、第2の不揮発性基準メモリセルの基準アレイ1602と、を備える。EG線EGR0、EG0、EG1、及びEGR1は垂直に延び、CG線CG0、CG1、CG2、及びCG3並びにSL線WL0、WL1、WL2、及びWL3は水平に延びる。VMMアレイ1600は、VMMアレイ1600が双方向チューニングを実装することを除いてVMMアレイ1600と同様であり、各個々のセルは、個別のEG線の使用により、浮遊ゲートの所望の電荷量に達するために、完全に消去され、部分的にプログラムされ、必要に応じて部分的に消去することができる。示されるように、基準アレイ1601及び1602は、端子BLR0、BLR1、BLR2及びBLR3内の入力電流を制御ゲート電圧CG0、CG1、CG2及びCG3に変換し(マルチプレクサ1614を介したダイオード接続された基準セルの作用を通じて)、これらの電圧は行方向でメモリセルに印加される。電流出力(ニューロン)は、ビット線BL0~BLN中にあり、各ビット線は、その特定のビット線に接続された不揮発性メモリセルからの全ての電流を合算する。
表9は、VMMアレイ1600の動作電圧を示す。表中の列は、選択セルのワード線、非選択セルのワード線、選択セルのビット線、非選択セルのビット線、選択セルの制御ゲート、選択セルと同じセクタ内の非選択セルの制御ゲート、選択セルとは異なるセクタ内の非選択セルの制御ゲート、選択セルの消去ゲート、非選択セルの消去ゲート、選択セルのソース線、及び非選択セルのソース線に加えられる電圧を示す。行は、読み出し、消去、及びプログラムの動作を示す。
表9:図16のVMMアレイ1600の動作
Figure 2023515679000010
VMMアレイへの入力は、アナログレベル、バイナリレベル、タイミングパルス、又はデジタルビットであり得、出力は、アナログレベル、バイナリレベル、タイミングパルス、又はデジタルビット(この場合、出力アナログレベルの電流又は電圧をデジタルビットに変換するために出力ADCが必要とされる)であり得る。
VMMアレイ内の各メモリセルに関して、各重みWは、単一のメモリセルによって、又は差分セルによって、又は2つのブレンドメモリセル(2つ以上のセルの平均)によって実装することができる。差分セルの場合では、重みWを差分重み(W=W+ - W-)として実装するために、2つのメモリセルが必要とされる。2つのブレンドメモリセルの場合は、2つのセルの平均として重みWを実装するために2つのメモリセルが必要とされる。
不揮発性メモリセルの先行技術のアレイの1つの欠点は、アレイのソースインピーダンスに、及びアレイの出力線(ビット線など)に沿って、大きなばらつきがあり、セル及びその状態が、読み出し、プログラム、又は消去動作のために選択されることに応じて、精度及び電力消費に結果として生じるばらつきがあることである。別の欠点は、ノイズの影響を受けやすい場合があることである。
必要なことは、ノイズに対して低い感受性を有する改善されたVMMシステムである。
更に必要とされるのは、どのセル又はセル(複数)が選択されるかに関係なく、動作(読み出し、プログラム、又は消去)中にアレイの実質的に一定のソースインピーダンスを有する改善されたVMMシステムである。
更に必要とされるのは、どのセル又はセル(複数)が選択されるかに関係なく、動作(読み出し、プログラム、又は消去)中に実質的に一定の電力消費を有する改善されたVMMシステムである。
アナログニューラルメモリアレイの多数の実施形態が、開示されている。特定の実施形態では、アレイ内の各メモリセルは、そのセルが動作しているときに、ほぼ一定のソースインピーダンスを有する。特定の実施形態では、電力消費は、セルが読み出されるときに、アレイ内のビット線からビット線まで実質的に一定である。特定の実施形態では、重みマッピングが、電力及びノイズにおける最適な性能のために適応的に実行される。
一実施形態では、アナログニューラルメモリシステムは、不揮発性メモリセルのアレイを備え、セルは行及び列に配置され、列は、物理的に隣接する列の対に配置され、各隣接する対内で、隣接する対の1つの列は、W+値を記憶するセルを備え、隣接する対の1つの列は、W-値を記憶するセルを備え、隣接する対の隣接するセルは、式W=(W+)-(W-)に従って、差分重みWを記憶する。
別の実施形態では、アナログニューラルメモリシステムは、不揮発性メモリセルの第1のアレイであって、セルは、行及び列に配置され、列の1つ以上内の不揮発性メモリセルは、W+値を記憶する、第1のアレイと、不揮発性メモリセルの第2のアレイであって、セルは、行及び列に配置され、列の1つ以上内の不揮発性メモリセルは、W-値を記憶する、第2のアレイと、を備え、第1のアレイ及び第2のアレイからのセルの対が、式W=(W+)-(W-)に従って、差分重みWを記憶する。
先行技術の人工ニューラルネットワークを示す。 先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 別の先行技術のスプリットゲートフラッシュメモリセルを示す。 先行技術の積層ゲートフラッシュメモリセルを示す。 ツインスプリットゲートメモリセルを示す。 1つ以上のVMMアレイを利用する例示的な人工ニューラルネットワークの異なるレベルを示す。 VMMアレイ及び他の回路を備えるVMMシステムを示す。 1つ以上のVMMシステムを利用する例示的な人工ニューラルネットワークを示す。 VMMアレイの実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMアレイの別の実施形態を示す。 VMMシステムを示す。 先行技術のVMMアレイを示す。 先行技術のVMMアレイを示す。 先行技術のVMMアレイを示す。 改善されたVMMアレイを示す。 改善されたVMMアレイを示す。 改善されたVMMアレイを示す。 別の改善されたVMMアレイを示す。 別の改善されたVMMアレイを示す。 別の改善されたVMMアレイを示す。 冗長アレイを備える別の改善されたVMMアレイを示す。 2つのVMMアレイ及び共有ダミービット線スイッチング回路を備える別の改善されたVMMシステムを示す。 別の改善されたVMMシステムを示す。 合算器回路の実施形態を示す。 合算器回路の別の実施形態を示す。 合算器回路の別の実施形態を示す。 合算器回路の別の実施形態を示す。 出力回路の実施形態を示す。 出力回路の別の実施形態を示す。 出力回路の別の実施形態を示す。 ニューロン出力回路を示す。 アナログ-デジタル変換器の実施形態を示す。 アナログ-デジタル変換器の別の実施形態を示す。 アナログ-デジタル変換器の別の実施形態を示す。 アナログ-デジタル変換器の別の実施形態を示す。
本発明の人工ニューラルネットワークは、CMOS技術及び不揮発性メモリアレイの組み合わせを利用する。
<<改善されたVMMシステムの実施形態>>
図17は、VMMシステム1700のブロック図を示す。VMMシステム1700は、VMMアレイ1701、行デコーダ1702、高電圧デコーダ1703、列デコーダ1704、ビット線ドライバ1705、入力回路1706、出力回路1707、制御ロジック1708、及びバイアス生成器1709を備える。VMMシステム1700は、チャージポンプ1711、チャージポンプ調節器1712、及び高電圧レベル生成器1713を備える高電圧生成ブロック1710を更に備える。VMMシステム1700は、アルゴリズムコントローラ1714、アナログ回路1715、制御ロジック1716、及び試験制御ロジック1717を更に備える。以下に記載されるシステム及び方法は、VMMシステム1700に実装することができる。
入力回路1706は、DAC(デジタル-アナログ変換器)、DPC(デジタル-パルス変換器)、DTC(デジタル-時間変換器)、AAC(電流-電圧変換器などのアナログ-アナログ変換器)、PAC(パルス-アナログレベル変換器)、又は任意の他の種類の変換器などの回路を含み得る。入力回路1706は、正規化関数、スケーリング関数、又は算術関数を実装し得る。入力回路1706は、温度の関数として出力電圧/電流/時間/パルスを変調するなど、入力に温度補償関数を実装し得る。入力回路1706は、ReLU又はシグモイドなどの活性化関数を実装し得る。
出力回路1707は、ADC(ニューロンアナログ出力をデジタルビットに変換するための、アナログ-デジタル変換器)、AAC(電流-電圧変換器などのアナログ-アナログ変換器)、ATC(アナログ-時間変換器)、APC(アナログ-パルス変換器)、又は任意の他の種類の変換器などの回路を含み得る。出力回路1707は、ReLU又はシグモイドなどの活性化関数を実装し得る。出力回路1707は、VMMアレイ1701の出力であるニューロン出力に統計的な正規化、正則化、アップ/ダウンスケーリング関数、統計的丸め、又は算術関数(例えば、加算、減算、除算、乗算、シフト、対数)を実装し得る。出力回路1707は、VMMアレイ1701の電力消費をほぼ一定に保つために、又はI-V勾配をほぼ同じに保つことによってなど、VMMアレイ1701(ニューロン)出力の精度を改善するためになど、ニューロン出力(電圧/電流/時間/パルスなど)又はアレイ出力(ビット線出力など)に温度補償関数を実装し得る。
図18Aは、先行技術のVMMシステム1800を示す。VMMシステム1800は、例示的なセル1801及び1802、例示的なビット線スイッチ1803a、1803b、1803c、1803d(ビット線を感知回路に接続する)、例示的なダミービット線スイッチ1804a、1804b、1804c、1004d(読み出しにおいて接地(又は接地近く)レベルなどの低バイアスレベルに結合する)、並びに例示的なダミーセル1805及び1806(ソース線プルダウンセル)を備える。ビット線スイッチ1803aは、VMMシステム1800にデータを記憶するために使用される、セル1801及び1802を含むセルの列に結合される。ダミービット線スイッチ1804a、1804b、1804c、1804は各々、ダミーセルであるセルの列(ビット線)に結合され、VMMシステム1800にデータを記憶するために使用されない。ソース線プルダウンビット線とも称され得る、このダミービット線は、読み出し動作中にソース線プルダウンとして使用され、これは、ダミービット線のダミーセルを介して、接地(又は接地近く)などの低バイアスレベルにソース線を引っ張るために使用されることを意味する。ダミービット線スイッチ1804a、1804b、1804c、1804、及びビット線スイッチ1803a、1803b、1803c、1803dは両方とも、アレイの同じ端に現れ、すなわち、それらは全て、結合されるセルの列の共通端に現れ、こうして単一の行に配列されていることに留意されたい。
VMMシステム1800の1つの欠点は、各セルの入力インピーダンスが、関連するビット線スイッチ、セル自体、及び関連するダミービット線スイッチを通る電気経路の長さに起因して大きく変化することである。例えば、図18Bは、ビット線スイッチ1803、セル1801、ダミーセル1805、及びダミービット線スイッチ1804を通る電気経路を示す。同様に、図18Cは、ビット線スイッチ1803、垂直金属ビット線1807、セル1802、ダミーセル1806、垂直金属ビット線1808、及びダミービット線スイッチ1804を通る電気経路を示す。分かるように、セル1802を通る経路は、著しく大きい長さのビット線及びダミービット線を横断し、これは、より高い静電容量及びより高い抵抗に関連付けられる。これは、図18Bのセル1801よりもビット線又はソース線においてより大きな寄生インピーダンスを有するセル1802をもたらす。この変動性は、例えば、アレイ内のセルの位置に応じて、セルの読み出し又は検証(プログラム/消去チューニングサイクルのための)に適用されるセル出力の精度においてばらつきをもたらすため、欠点である。
図19Aは、先行技術のVMMシステム1800を改善するVMMシステム1900を示す。VMMシステム1900は、例示的なセル1901及び1902と、ビット線を感知回路に接続する、例示的なビット線スイッチ1903a、1903b、1903c、及び1903dと、ソース線プルダウンセルとして機能することができる、例示的なダミーセル1905及び1906と、例示的なダミービット線スイッチ1904a、1904b、1904c、及び1904dと、を備える。例として、読み出し動作中に、ダミービット線スイッチ1904aの一端は、接地などの低電圧レベルに接続し、他端は、ソース線プルダウンとして使用されるダミーセル1905及び1906に接続する。見られるように、例示的なダミービット線スイッチ1904a及び他のダミービット線スイッチは、ビット線スイッチ1903a及び他のビット線スイッチからアレイの反対端に位置する。
この設計の利点は、図19B及び19Cに見ることができる。図19Bでは、読み出しのためにセル1901が選択され、図19Cでは、読み出しのためにセル1902が選択される。
図19Bは、ビット線スイッチ1903、セル1901、ダミーセル1905(ソース線プルダウンセル)、垂直金属ビット線1908、及びダミービット線スイッチ1904(読み出し動作中に接地などの低レベルに結合する)を通る電気経路を示す。図19Cは、ビット線スイッチ1903、垂直金属線1907、セル1902、ダミーセル1906(ソース線プルダウンセル)、及びダミービット線スイッチ1904を通る電気経路を示す。経路は、相互接続長に関して実質的に同じであり、これは、VMMシステム1900の全てのセルに当てはまる。結果として、各セルのビット線インピーダンス+ソース線インピーダンスのインピーダンスは実質的に同じであり、これは、アレイ内の各セルの動作の読み出し又は検証中に引き出される寄生電圧降下の量のばらつきが実質的に同じであることを意味する。
図20は、グローバルソース線プルダウンビット線を備えたVMMシステム2000を示す。VMMシステム2000は、ダミービット線2005a~2005n又は2007a~2007nが、一緒に接続される(読み出し又は検証中にメモリセルソース線を接地レベルに引っ張るためのグローバルソース線プルダウン線として作用するために)ことと、ダミービット線スイッチ2001及び2002などのダミービット線スイッチが、ARYGND(アレイ接地)とラベル付けされた共通接地に接続又は結合されることと、ソース線が、ソース線を接地に選択的に引っ張る、ソース線スイッチ2004に一緒に結合されることと、を除いて、VMMシステム1900と同様である。これらの変更は、読み出し又は検証動作中のアレイ内の各セルの寄生インピーダンスのばらつきを更に低減する。
代替的な実施形態では、1つ以上のダミービット線及び1つ以上のダミービット線スイッチを、ソース線スイッチ2004の代わりに使用して、ソース線を接地に引っ張ることができる。
別の実施形態では、行間の(2つの隣接するセルの)FG-FG結合を回避するために、物理的障壁として行間にダミー行を利用することができる。
図21Aは、VMMシステム2100を示す。いくつかの実施形態では、VMMに記憶された重みWは、差動対、W+(正の重み)及びW-(負の重み)、として記憶され、ここでW=(W+)-(W-)。VMMシステム2100において、ビット線の半分はW+線として指定され、すなわち、正の重みW+を記憶するメモリセルに接続するビット線であり、ビット線の他の半分はW-線として指定され、すなわち、負の重みW-を実装するメモリセルに接続するビット線である。W-線は、W+線の間に交互に散在される。減算演算は、合算回路2101及び2102のような、W+線及びW-線から電流を受信する合算回路によって実行される。W+線の出力及びW-線の出力を一緒に組み合わせて、(W+、W-)線の全ての対の(W+、W-)セルの各対に対して効果的にW=W+ - W-を与える。任意選択的に、図19及び図20に示されるものなどのダミービット線及びソース線プルダウンビット線を、VMMシステム2100で使用して(2つの隣接するセルの)FG-FG結合を回避し、及び/又は読み出し又は検証動作中にソース線のIR電圧降下を低減することができる。
図21Bは、別の実施形態を示す。VMMシステム2110において、正の重みW+は第1のアレイ2111に実装され、負の重みW-は第1のアレイとは別個の第2のアレイ2112に実装され、結果として生じる重みは、合算回路2113によって適切に一緒に組み合わされる。任意選択的に、図19及び図20に示されるものなどのダミービット線及びソース線プルダウンビット線を、VMMシステム2110で使用して、FG-FG結合を回避し、及び/又は読み出し又は検証動作中にソース線のIR電圧降下を低減することができる。
VMMシステムは、FGからFGへの結合を低減させるか、アレイ及び出力回路にわたって、より均一な様式で電力消費を分散させる様態で、W+及びW-の対がアレイ内に配置されるように設計することができる。これは、表10及び表11を参照して以下に記載される。FGからFGへの結合現象に関する追加の詳細は、同じ譲受人によって2020年2月26日に出願され、「Ultra-Precise Tuning of Analog Neural Memory Cells in a Deep Learning Artificial Neural Network」と題する、米国特許仮出願第62/981,757号に見出され、それは、参照により本明細書に組み込まれる。
表10Aは、2つの対の(W+、W-)ビット線の配置の例示的な物理的レイアウトを示す。1つの対は、BL0及びBL1であり、第2の対は、BL2及びBL3である。この例では、4行がソース線プルダウンビット線BLPWDNに結合される。BLPWDNは、各対の(W+、W-)ビット線の間に配置されて、1つの対の(W+、W-)ビット線と別の対の(W+、W-)ビット線との間の結合(例えば、FGからFGへの結合)を防止する。したがって、BLPWDNは、(W+、W-)ビット線の対間の物理的バリアとして機能する。
表10A:W、W-対の例示的なレイアウト
Figure 2023515679000011
表10Bは、異なる例示的な重みの組み合わせを示す。「1」は、セルが使用され、実際の出力値を有することを意味し、「0」は、セルが使用されておらず、値を有さない、又は有意な出力値を有さないことを意味する。
表10B:W+、W-対の例示的な重み組み合わせ
Figure 2023515679000012
表11Aは、(w+、w-)対線BL0/1及びBL2/3の物理的配置の別のアレイの実施形態を示す。アレイは、冗長線BL01及びBL23並びにソース線プルダウンビット線BLPWDNを含む。冗長ビット線BL01は、対BL0/1から値を再マップするために使用され、冗長ビット線BL23は、対BL2/3から値を再マップするために使用され、これは、後の表に示される。
表11A:W+、W-対の例示的なレイアウト
Figure 2023515679000013
表11Bは、分散された重み値が再マッピングを必要としない例を示し、基本的に、隣接するビット線間に隣接する「1」が存在しない。
表11B:W+、W-対の例示的な重み組み合わせ
Figure 2023515679000014
表11Cは、分散された重みを再マッピングする必要がある例を示す。ここでは、BL1及びBL3に隣接する「1」が存在し、それは、隣接するビット線結合を引き起こす。したがって、この値は、表11Dに示されるように再マッピングされ、隣接するビット線間に隣接する「1」値がないことをもたらす。加えて、再マッピングによって、ビット線に沿った総電流が減少し、そのビット線におけるより正確な値につながり、これはまた、ビット線に沿ったより分散された電力消費につながる。任意選択的に、追加のビット線(BL01、BL23)を、任意選択的に、冗長列として作用するように使用することができる。
表11C:w+、w-対の例示的な重み組み合わせ
Figure 2023515679000015
表11D:w+、w-対の再マッピングされた重み組み合わせ
Figure 2023515679000016
表11E及び表11Fは、表11EのBL01、BL23、又は表11FのBL0B及びBL1Bなどの冗長列にノイズの多いセル(又は欠陥のあるセル)を再マッピングする別の実施形態を示す。
表11E:w+、w-対の再マッピングされた重み組み合わせ
Figure 2023515679000017
表11F:w+、w-対の再マッピングされた重み組み合わせ
Figure 2023515679000018
表11Gは、図21Bに好適なアレイの物理的配置の実施形態を示す。各ビット線は、正の重み又は負の重みのいずれかを有するため、ソース線プルダウンとして作用するダミービット線、又は実際のダミービット線(使用されない、例えば、深く若しくは部分的にプログラムされているか、又は部分的に消去されている)、及びFG-FG結合を回避するための物理的障壁が、各ビット線に必要である。
表11G:w+、w-対の例示的なレイアウト
Figure 2023515679000019
図10x~11xでは、ソース線プルダウンビット線BLPWDNは、実際のダミービット線BLDUMとして、又は隔離ビット線BLISOとして実装することができ、これらのビット線は、データビット線を互いに隔離するのに役立つため、隣接するセルのFG-FG結合が回避されることを意味する。これらのビット線は使用されず、それにより、それらは、FG-FG結合を引き起こさない状態にチューニング(プログラム若しくは消去)されるか、又は同じ行若しくは同じセクタでチューニングされている(プログラム若しくは消去されている)他のセル、例えば、FG電圧が低レベル状態であるように、深く若しくは部分的にプログラムされているセル若しくは部分的に消去されたセル、によって妨害されやすいままにする。
別の実施形態では、セルの列に結合されたチューニングビット線は、セルの列に結合された目標ビット線に隣接し、チューニングビット線セルは、隣接するセル間のFG-FG結合を使用して、プログラミング動作中に目標ビット線セルを所望の目標値にチューニングするために使用される。任意選択的に、ソース線プルダウンビット線は、チューニングビット線に隣接する側の反対側の目標ビット線の側に使用することができる。
ノイズの多い又は欠陥のあるセルをマッピングするための代替の実施形態は、そのようなセルが非使用のセルとして指定される場合に実装することができ、それらがニューロン出力にいかなる値も寄与しないように(深く)プログラムされることを意味する。
高速セル(典型的なセルよりも速く特定の値に到達するようにプログラムすることができるセルである)を識別するための代替的な実施形態を実装することができ、ここでは、高速セルが識別され、プログラミング動作中に目標をオーバーシュートしないように、より正確なチューニングアルゴリズムを受ける。
図22は、VMMシステム2200を示す。VMMシステム2200は、これまでに考察されたVMMアレイのうちのいずれかに含まれ得る冗長アレイ2201を備える。冗長アレイ2201は、ビット線スイッチに取り付けられた列のいずれかが欠陥があると見なされる場合に、欠陥のある列を置き換えるための冗長性として使用することができる。冗長アレイは、独自の冗長アレイ(ニューロン)出力(例えば、ビット線)、及び/又は冗長書き込み及び検証回路、並びに/又は冗長性目的のためのADC回路を有することができる。例えば、冗長性が必要な場合、冗長ADCの出力は、悪いビット線のADCの出力に置き換わる。冗長アレイ2201はまた、表10A及び表10Bに記載されるような重みマッピングに使用されて、ビット線の間で比較的均一な電力分散を達成することができる。
図23は、アレイ2301、アレイ2302、列マルチプレクサ2303、ローカルビット線LBL2305a~2305d、グローバルビット線GBL2308及び2309、及びダミービット線スイッチ2305a~2305dを備えるVMMシステム2300を示す。列マルチプレクサ2303は、アレイ2301のそれぞれの頂部ローカルビット線2305又はアレイ2302の底部ローカルビット線2305をグローバルビット線2308に選択するために使用される。一実施形態では、(金属)グローバルビット線2308は、ローカルビット線の数と同じ数の線、例えば、8本又は16本を有する。別の実施形態では、グローバルビット線2308は、例えば8本又は16本のローカルビット線当たり1本のグローバルビット線というように、N本のローカルビット線当たり1本の(金属)線のみを有する。列マルチプレクサ2303は、隣接するグローバルビット線(GBL2309など)を、対象となるグローバルビット線(GBL2308など)に多重化して、現在のグローバルビット線の幅を効果的に増加させることができる。これは、対象となるグローバルビット線(GBL2308)にわたる電圧降下を低減する。
ここで、本明細書に記載のVMMシステムのいずれかと共に使用することができる様々な出力回路を説明する。
図24は、VMMシステム2400を示す。VMMシステム2400は、アレイ2410と、シフトレジスタ(shift register、SR)2401と、SR2401からの入力を受信し、同等の(アナログ若しくは擬似アナログ)レベル又は情報(例えば、電圧/タイミング)を出力する、デジタル-アナログ変換器(DAC)2402と、合算器回路2403と、アナログ-デジタル変換器(ADC)2404と、ビット線スイッチ(図示せず)と、を備える。ダミービット線及びダミービット線スイッチが存在するが、図示されていない。示されるように、ADC回路を一緒に組み合わせて、より高い精度(すなわち、より多くの数のビット)を有する単一のADCを作成することができる。
合算器回路2403は、図25~図27に示される回路を含むことができる。それは、限定することなく、正規化、スケーリング、算術演算(例えば、加算、減算)、活性化、又は統計的丸めのための回路を含み得る。
図25は、(VMMアレイのビット線から受信した電流である)電流Ineu(1)、...、Ineu(n)をそれぞれ引き込む電流源2501-1、...、2501-n、演算増幅器2502、可変保持コンデンサ2504、及び可変抵抗器2503を備える、可変抵抗器によって調整可能な電流-電圧合算器回路2500を示す。演算増幅器2502は、電圧Vneuout=R2503*(Ineu(1)+...+Ineu(n))を出力し、これは、電流Ineu(1)、...、Ineu(n)の合計に比例する。保持コンデンサ2504は、スイッチ2506が開いているときに出力電圧を保持するために使用される。この保持出力電圧は、例えば、ADC回路によってデジタルビットに変換するために使用される。
図26は、(VMMアレイのビット線から受信した電流である)電流Ineu(1)、...、Ineu(n)をそれぞれ引き込む電流源2601-1、...、2601-n、演算増幅器2602、可変コンデンサ2603、及びスイッチ2604を備える、可変コンデンサ(基本的に積分器)によって調整可能な電流-電圧合算器回路2600を示す。演算増幅器2602は、電圧Vneuout2605=(Ineu(1)+、...、+Ineu(n))*積分時間/C2603を出力し、これは、電流Ineu(1)、...、Ineu(n)の合計に比例する。
図27Aは、可変コンデンサ(すなわち、スイッチキャップSC回路)によって調整可能な電圧合算器2700を示し、それは、スイッチ2701及び2702、可変キャパシタ2703及び2704、演算増幅器2705、可変コンデンサ2706、並びにスイッチS12707を備える。スイッチ2701が閉じられると、入力Vin0は、演算増幅器2705に提供される。スイッチ2702が閉じられると、入力Vin1は、演算増幅器2705に提供される。任意選択的に、スイッチ2701及び2702は同時に閉じられない。演算増幅器2705は、入力(スイッチ2701及び2702の中でどのスイッチが閉じられるかに応じて、Vin0及び/又はVin1のいずれか)の増幅バージョンである出力Voutを生成する。すなわち、Vout=Cin/Cout*(Vin)であり、CinはC2703又はC2704であり、CoutはC2706である。例えば、Vout=Cin/Cout*Σ(Vinx)、Cin=C2703=C2704であり、ここで、Vinxは、Vin0又はVin1のいずれかであり得る。一実施形態では、Vin0は、W+電圧であり、Vin1は、W-電圧であり、電圧合算器2700は、それらを一緒に加えて(W+ - W-、スイッチの適切な極性を可能にすることによって)、出力電圧Voutを生成する。
図27Bは、スイッチ2751(S1)、2752(S3)、2753(S2)、及び2754(S4)、可変入力コンデンサ2758、演算増幅器2755、可変フィードバックコンデンサ2756、並びにスイッチ2757(S5)を備える電圧合算器2750を示す。一実施形態では、Vin0は、W+電圧であり、Vin1は、W-電圧であり、電圧合算器2750は、それらを一緒に加えて、出力電圧Vout(W+ - W-、スイッチの適切な極性を可能にすることによって)を生成する。
入力=Vin0の場合:スイッチ2754及び2751が閉じられ、スイッチ2753、2752及び2757が開かれたときに、入力Vin0は、コンデンサ2758の頂部端子に提供され、その底部端子はVREFに接続される。次いで、スイッチ2751が開かれ、スイッチ2753が閉じられて、コンデンサ2758からフィードバックコンデンサ2756に電荷を移す。基本的にその後、出力VOUT=(C2758/C2756)*Vin0(例えば、VREF=0の場合)。
入力=Vin1の場合:スイッチ2753、2754、及び2757が閉じられ、スイッチ2751、2752、及び2757が開かれたとき、コンデンサ2758の両方の端子がVREFに放電される。次いで、スイッチ2754を開き、スイッチ2752を閉じ、コンデンサ2758の底部端子をVin1に充電し、次にフィードバックコンデンサ2756をVOUT=-(C2758/C2756)*Vin1(VREF=0の場合)に充電する。
したがって、Vin0について上述したシーケンスが実施された後に、Vin1入力について上述したシーケンスが実施される場合、例としてVREF=0の場合、VOUT=(C2758/C2756)*(Vin0-Vin1)となる。これは、例えば、W=W+ - W-を実現するために使用される。
図27に示される各ADCは、ADCの適切な設計を用いて、より高いビット実装のために次のADCと組み合わせるように構成することができる。
再び図17を参照すると、VMMアレイ1701への入力及びVMMアレイ1701からの出力は、デジタル形式又はアナログ形式であることができる。例えば:
・DACへの順次入力IN[0:q]:
・一実施形態では、入力回路1706は、IN0から始まり、次いでIN1、...、次いでINqのシーケンスでデジタル入力を受信する。全ての入力ビットは、同じVCGinを有する。入力ビットはDACに提供され、次いで、アナログ信号をVMMアレイ1701への入力として印加する。全てのビット線(ニューロン)出力は、ADCの前又はADCの後のいずれかで、調整バイナリインデックス乗算器で合算される。
・別の実施形態では、調整ニューロン(ビット線)バイナリインデックス乗算器法が使用される。図20に示すように、例示的な合算器は、2つのビット線BL0及びBlnを有する。重みは、複数のビット線BL0からBLnにわたって分散される。例えば、4つのビット線BL0、BL1、BL2、BL3がある。ビット線BL0からの出力は、2^0=1で乗算される。n番目のバイナリビット位置を表すビット線BLnからの出力は、2^nで乗算され、例えば、n=3の場合、2^3=8である。次いで、バイナリビット位置2^nで適切に乗算された後の全てのビット線からの出力が、一緒に合算される。次いで、これはADCによってデジタル化される。この方法は、全てのセルがバイナリ範囲のみを有することを意味し、マルチレベル範囲(nビット)は、周辺回路によって(「合算器回路によって」を意味する)達成される。したがって、全てのビット線の電圧降下は、メモリセルの最高バイアスレベルについてほぼ同じである。
・別の実施形態では、デジタル入力IN0、IN1、...、次いでINqが順次方式で適用される。各入力ビットは、対応するアナログ値VCGinを有する。全てのニューロン出力は、ADCの前又はADCの後のいずれかで、全ての入力ビット評価について合算される。
・DACへの並列入力:
・別の実施形態では、入力IN0、...INqは、DACに並列方式で提供される。各入力IN[0:q]は、対応するアナログ値VCGinを有する。全てのニューロン出力は、ADCの前又はADCの後のいずれかで、調整バイナリインデックス乗算器法で合算される。
アレイの順次動作を伴う実施形態では、電力は、より均等に分散される。
ニューロン(ビット線)バイナリインデックス法を利用する実施形態では、ビット線に結合された各セルが、バイナリレベルを含むのみであるため、電力消費は、アレイ内で低減され、2^nレベルは、合算器回路によって達成される。
図28A、図28B、及び図28Cは、図24の合算器回路2403及びアナログ-デジタル変換器2404に使用することができる出力回路を示す。
図28Aは、ニューロン出力2801を受信し、出力デジタルビット2803を出力するアナログ-デジタル変換器2802を備える出力回路2800を示す。
図28Bは、ニューロン出力回路2811及びアナログ-デジタル変換器2812を備える出力回路2810を示し、これらは合わせてニューロン出力2801を受信し、出力2813を生成する。
図28Cは、ニューロン出力回路2821及び変換器2822を備える出力回路2820を示し、これらは合わせてニューロン出力2801を受信し、出力2823を生成する。
ニューロン出力回路2811又は2821は、限定することなく、例えば、合算、スケーリング、正規化、又は算術演算を実行することができる。変換器2822は、限定することなく、例えば、ADC、PDC、AAC、又はAPC動作を実行することができる。
図29は、調整可能な(スケーリング)電流源2901及び調整可能な(スケーリング)電流源2902を備え、これらが一緒になってニューロン出力である出力iOUTを生成する、ニューロン出力回路2900を示す。この回路は、正の重みW+及び負の重みW-の合算、すなわちW=W+ - W-、を行うことができ、かつ、出力ニューロン電流のアップ又はダウンスケーリング(調整可能な電流源2901及び2902の調整を介して)を同時に行うことができる。すなわち、IW+は、W+のスケーリングされたバージョンであり、IW-は、W-のスケーリングされたバージョンである。
図30は、構成可能なシリアルアナログ-デジタル変換器3000を示す。それは、ニューロン出力電流を積分コンデンサ3002(Cint)に積分する積分器3070を含む。
一実施形態では、VRAMP3050が、コンパレータ3004の反転入力に提供される。デジタル出力(カウント値)3021は、コンパレータ3004が極性を切り替えるまでVRAMP3050をランプすることによって生成され、カウンタ3020は、ランプの開始からクロックパルスをカウントする。
別の実施形態では、VREF3055が、コンパレータ3004の反転入力に提供される。VC3010は、VOUT3003がVREF3055に到達するまでランプ電流3051(IREF)によってランプダウンされ、その時点で、EC3005信号は、カウンタ3020のカウントを無効にする。(nビット)ADC3000は、目標アプリケーションに応じて、より低い精度(nビットよりも少ない)又はより高い精度(nビットよりも多い)を有するように構成可能である。精度のコンフィギュアビリティは、限定することなく、コンデンサ3002の静電容量、電流3051(IREF)、VRAMP3050のランピング速度、又はクロック3041のクロック周波数を構成することによって行われる。
別の実施形態では、VMMアレイのADC回路は、nビットよりも低い精度を有するように構成され、別のVMMアレイのADC回路は、ビットよりも高い精度を有するように構成される。
別の実施形態では、1つのニューロン回路のシリアルADC回路3000の1つのインスタンスは、次のニューロン回路のシリアルADC回路3000の別のインスタンスと組み合わせて、シリアルADC回路3000の2つのインスタンスの積分コンデンサ3002を組み合わせることによってなど、nビットよりも高い精度を有するADC回路を生成するように構成されている。
図31は、構成可能なニューロンSAR(逐次近似レジスタ)アナログ-デジタル変換器3100を示す。この回路は、バイナリコンデンサを使用した電荷再分散に基づく、逐次近似変換器である。それは、バイナリCDAC(コンデンサに基づくDAC)3101、演算増幅器/コンパレータ3102、並びにSARロジック及びレジスタ3103を含む。示されるように、GndV3104は、低電圧基準レベル、例えば、接地レベルである。SARロジック及びレジスタ3103は、デジタル出力3106を提供する。
図32は、構成可能なニューロンのコンボSARアナログ-デジタル変換器回路3200を示す。この回路は、2つのニューロン回路からの2つのnビットADCを1つに組み合わせて、nビットよりも高い精度を達成し、例えば、1つのニューロン回路の4ビットADCの場合、この回路は、2つの4ビットADCを組み合わせることにより、8ビットADC精度などの4ビットを超える精度を達成することができる。コンボ回路トポロジは、スプリットキャップ(ブリッジコンデンサ(キャップ)又はアテンションキャップ)SAR ADC回路と同等であり、例えば、8ビット4C-4C SAR ADCは、2つの隣接する4ビット4C SAR ADC回路を組み合わせることによってもたらされる。これを成し遂げるためにブリッジ回路3204(Cスプリット)を使用し、この回路の静電容量=(CDACキャップユニットの総数/CDACキャップユニットの総数-1)である。
図33は、次のSAR ADCと組み合わせてパイプライン方式でビット数を増加させるために使用することができるパイプライン型SAR ADC回路3300を示す。SAR ADC回路3300は、バイナリCDAC(コンデンサに基づくDAC)3301、演算増幅器/コンパレータ3302、演算増幅器/コンパレータ3303、SARロジック及びレジスタ3304を備える。示されるように、GndV3104は、低電圧基準レベル、例えば、接地レベルである。SARロジック及びレジスタ3103は、デジタル出力3106を提供する。Vinは、入力電圧にあり、VREFは、基準電圧であり、GndVは、接地電圧である。V残余は、コンデンサ3305によって生成され、SAR ADCの次のステージへの入力として提供される。
構成可能な出力ニューロン(構成可能なニューロンADCなど)の回路に関する追加の実装詳細は、同じ譲受人によって2019年6月21日に出願され、「Configurable Input Blocks and Output Blocks and Physical Layout for Analog Neural Memory in a Deep Learning Artificial Neural Network」と題する、米国特許出願第16/449,201号に見出すことができ、それは、参照により本明細書に組み込まれる。
本明細書で使用される場合、「の上方に(over)」及び「に(on)」という用語は両方とも、「の上に直接」(中間材料、要素、又は間隙がそれらの間に配設されていない)、及び「の上に間接的に」(中間材料、要素、又は間隙がそれらの間に配設されている)を包括的に含むことに留意されるべきである。同様に、「隣接した」という用語は、「直接隣接した」(中間材料、要素、又は間隙がそれらの間に配設されていない)、及び「間接的に隣接した」(中間材料、要素、又は間隙がそれらの間に配設されている)を含み、「に取り付けられた」は、「に直接取り付けられた」(中間材料、要素、又は間隙がそれらの間に配設されていない)、及び「に間接的に取り付けられた」(中間材料、要素、又は間隙がそれらの間に配設されている)を含み、「電気的に結合された」は、「に直接電気的に結合された」(要素を一緒に電気的に接続する中間材料又は要素がそれらの間にない)、及び「に間接的に電気的に結合された」(要素を一緒に電気的に接続する中間材料又は要素がそれらの間にある)を含む。例えば、要素を「基板の上方に」形成することは、その要素を基板に直接、中間材料/要素をそれらの間に伴わずに形成すること、及びその要素を基板の上に間接的に1つ以上の中間材料/要素をそれらの間に伴って形成することを含み得る。
図8は、ツインスプリットゲートメモリセル810を示す。ツインスプリットゲートメモリセル810は、一対のメモリセル(左側にA及び右側にB)を備え、メモリセルの各々は、基板12の上方にそれから絶縁されて配設された浮遊ゲート(FGA、FGB)20と、浮遊ゲート20の上方にそれらから絶縁されて配設された制御ゲート28(CGA、CGB)と、浮遊ゲート及び制御ゲート20/28に隣接してそれらから絶縁されて配設され、かつ基板12の上方にそれから絶縁されて配設された消去ゲート30(EG)であって、消去ゲートはT字形で作成され、その結果、各浮遊ゲートのGA、GBの上隅部が、T字形消去ゲートのそれぞれの内側隅部に面して消去効率を改善させる、消去ゲート30(EG)と、浮遊ゲート20に隣接した基板内のドレイン領域16(DRA、DRB)(それぞれのドレイン領域16(DRA、DRB)に接続されたビット線コンタクト24(BLA、BLB)を有する)と、を備える。メモリセルは、共通消去ゲート30を共有するメモリセルの対として形成される。このセル設計は、少なくとも、消去ゲートEGの下のソース領域を欠き、選択ゲート(ワード線とも称される)を欠き、各メモリセルのチャネル領域を欠く点で、図2~7を参照して上で考察されるメモリセルとは異なる。代わりに、単一の連続チャネル領域18が両メモリセルの下に延在する(すなわち、一方のメモリセルのドレイン領域16から他方のメモリセルのドレイン領域16まで延在する)。一方のメモリセルの読み出し又はプログラムを行うためには、他方のメモリセルの制御ゲート28を十分な電圧まで上昇させて、それらの間にある浮遊ゲート20への電圧結合によって、下にあるチャネル領域部分を起動させる(例えば、セルAの読み出し又はプログラムを行うためには、CGBからの電圧結合によってFGB上の電圧を上昇させて、FGB下のチャネル領域を起動させる)。消去は、浮遊ゲート20A及び/又は浮遊ゲート20Bから消去ゲート30へのファウラー・ノルドハイム電子トンネリングを使用して実行される。プログラミングは、チャネル18から浮遊ゲート20へのホット電子注入を使用して実行される。
図16は、図3に示されるメモリセル310に特に適しており、かつ入力層と次の層との間でシナプス及びニューロンの一部として利用される、ニューロンVMMアレイ1600を示す。VMMアレイ1600は、不揮発性メモリセルのメモリアレイ1603と、第1の不揮発性基準メモリセルの基準アレイ1601と、第2の不揮発性基準メモリセルの基準アレイ1602と、を備える。EG線EGR0、EG0、EG1、及びEGR1は垂直に延び、CG線CG0、CG1、CG2、及びCG3並びにSL線WL0、WL1、WL2、及びWL3は水平に延びる。VMMアレイ1600は、VMMアレイ1600が双方向チューニングを実装することを除いてVMMアレイ1600と同様であり、各個々のセルは、個別のEG線の使用により、浮遊ゲートの所望の電荷量に達するために、完全に消去され、部分的にプログラムされ、必要に応じて部分的に消去することができる。示されるように、基準アレイ1601及び1602は、端子BLR0、BLR1、BLR2及びBLR3内の入力電流を制御ゲート電圧CG0、CG1、CG2及びCG3に変換し(マルチプレクサ1614を介したダイオード接続された基準セルの作用を通じて)、これらの電圧は行方向でメモリセルに印加される。電流出力(ニューロン)は、ビット線BL0~BLN中にあり、各ビット線は、その特定のビット線に接続された不揮発性メモリセルからの全ての電流を合算する。
表11Gは、図21Bに好適なアレイの物理的配置の実施形態を示す。各ビット線は、正の重み又は負の重みのいずれかを有するため、ソース線プルダウンとして作用するダミービット線、又は実際のダミービット線(使用されない、例えば、深く若しくは部分的にプログラムされているか、又は部分的に消去されている)、及びFG-FG結合を回避するための物理的障壁が、各ビット線に必要である。
表11G:w+、w-対の例示的なレイアウト
Figure 2023515679000061
10x~11xでは、ソース線プルダウンビット線BLPWDNは、実際のダミービット線BLDUMとして、又は隔離ビット線BLISOとして実装することができ、これらのビット線は、データビット線を互いに隔離するのに役立つため、隣接するセルのFG-FG結合が回避されることを意味する。これらのビット線は使用されず、それにより、それらは、FG-FG結合を引き起こさない状態にチューニング(プログラム若しくは消去)されるか、又は同じ行若しくは同じセクタでチューニングされている(プログラム若しくは消去されている)他のセル、例えば、FG電圧が低レベル状態であるように、深く若しくは部分的にプログラムされているセル若しくは部分的に消去されたセル、によって妨害されやすいままにする。

Claims (33)

  1. アナログニューラルメモリシステムであって、
    不揮発性メモリセルのアレイを備え、前記セルは、行及び列に配置され、前記列は、物理的に隣接する列の対に配置されており、
    各隣接する対内で、前記隣接する対の1つの列は、W+値を記憶するセルを備え、前記隣接する対の1つの列は、W-値を記憶するセルを備え、前記隣接する対の隣接するセルは、式W=(W+)-(W-)に従って、差分重みWを記憶する、アナログニューラルメモリシステム。
  2. 前記隣接する列の対のうちの少なくとも1つの隣にダミー列を更に含む、請求項1に記載のシステム。
  3. 前記ダミー列は、ソース線プルダウンビット線として機能する、請求項2に記載のシステム。
  4. 前記アレイは、冗長アレイとして利用される不揮発性メモリセルの一組の列を含む、請求項1に記載のシステム。
  5. 前記アレイ内の前記不揮発性メモリセルは、スプリットゲートフラッシュメモリセルである、請求項1に記載のシステム。
  6. 前記アレイ内の前記不揮発性メモリセルは、積層ゲートフラッシュメモリセルである、請求項1に記載のシステム。
  7. 1つ以上のビット線からの出力を合算するための合算器を更に備える、請求項1に記載のシステム。
  8. 前記合算器は、可変抵抗器に基づいて調整可能である、請求項7に記載のシステム。
  9. 前記合算器は、可変コンデンサに基づいて調整可能である、請求項7に記載のシステム。
  10. 前記合算器は、スイッチトキャパシタ回路及び演算増幅器を備える、請求項7に記載のシステム。
  11. 前記合算器の出力をデジタル信号に変換するためのアナログ-デジタル変換器を更に備える、請求項7に記載のシステム。
  12. 前記アナログ-デジタル変換器は、逐次近似レジスタを備える、請求項11に記載のシステム。
  13. 前記アナログ-デジタル変換器は、パイプライン型アナログ-デジタル変換器である、請求項12に記載のシステム。
  14. 冗長列を更に含み、W+列又はW-列に記憶された値は、前記冗長列に再マッピングされる、請求項1に記載のシステム。
  15. 前記再マッピングは、隣接する列の対内の2つの隣接するセル間の結合を除去する、請求項14に記載のシステム。
  16. 前記再マッピングは、ビット線間で電力又は電圧降下のうちの1つ以上を再分散させる、請求項14に記載のシステム。
  17. 前記再マッピングは、ノイズセルを前記冗長列に再マッピングする、請求項14に記載のシステム。
  18. アナログニューラルメモリシステムであって、
    不揮発性メモリセルの第1のアレイであって、前記セルは、行及び列に配置され、前記列の1つ以上内の前記不揮発性メモリセルは、W+値を記憶する、第1のアレイと、
    不揮発性メモリセルの第2のアレイであって、前記セルは、行及び列に配置され、前記列の1つ以上内の前記不揮発性メモリセルは、W-値を記憶する、第2のアレイと、を備え、
    前記第1のアレイ及び前記第2のアレイからのセルの対は、式W=(W+)-(W-)に従って、差分重みWを記憶する、アナログニューラルメモリシステム。
  19. ソース線プルダウンビット線を更に備える、請求項18に記載のシステム。
  20. 冗長列を更に含む、請求項18に記載のシステム。
  21. 前記冗長列は、W+又はW-列から重みを再マッピングするために使用される、請求項20に記載のシステム。
  22. 前記冗長列は、浮遊ゲートから浮遊ゲートへの結合を回避するために重みを再マッピングするために使用される、請求項21に記載のシステム。
  23. 前記冗長列は、重みを再マッピングして、前記列の間でより均等に電力を分散させるために使用される、請求項21に記載のシステム。
  24. 前記冗長列は、ノイズの多い又は欠陥のあるセルから重みを再マッピングするために使用される、請求項21に記載のシステム。
  25. 前記第1のアレイ及び前記第2のアレイ内の前記不揮発性メモリセルは、スプリットゲートフラッシュメモリセルである、請求項18に記載のシステム。
  26. 前記第1のアレイ及び前記第2のアレイ内の前記不揮発性メモリセルは、積層ゲートフラッシュメモリセルである、請求項18に記載のシステム。
  27. 1つ以上のビット線からの出力を合算するための合算器を更に備える、請求項18に記載のシステム。
  28. 前記合算器は、可変抵抗器に基づいて調整可能である、請求項27に記載のシステム。
  29. 前記合算器は、可変コンデンサに基づいて調整可能である、請求項27に記載のシステム。
  30. 前記合算器は、スイッチトキャパシタ回路及び演算増幅器を備える、請求項27に記載のシステム。
  31. 前記合算器の出力をデジタル信号に変換するためのアナログ-デジタル変換器を更に備える、請求項27に記載のシステム。
  32. 前記アナログ-デジタル変換器は、逐次近似レジスタを備える、請求項31に記載のシステム。
  33. 前記アナログ-デジタル変換器は、パイプライン型アナログ-デジタル変換器である、請求項31に記載のシステム。
JP2022552598A 2020-03-05 2020-09-04 人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ Pending JP2023515679A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024087159A JP2024116189A (ja) 2020-03-05 2024-05-29 人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062985826P 2020-03-05 2020-03-05
US62/985,826 2020-03-05
US16/987,101 2020-08-06
US16/987,101 US11600321B2 (en) 2020-03-05 2020-08-06 Analog neural memory array storing synapsis weights in differential cell pairs in artificial neural network
PCT/US2020/049294 WO2021178003A1 (en) 2020-03-05 2020-09-04 Analog neural memory array storing synapsis weights in differential cell pairs in artificial neural network

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024087159A Division JP2024116189A (ja) 2020-03-05 2024-05-29 人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ

Publications (1)

Publication Number Publication Date
JP2023515679A true JP2023515679A (ja) 2023-04-13

Family

ID=77556303

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2022552600A Active JP7428820B2 (ja) 2020-03-05 2020-09-03 適応型重みマッピング及び分散電力を有する実質的に一定のアレイソースインピーダンスを有する人工ニューラルネットワーク内のアナログニューラルメモリアレイ
JP2022552598A Pending JP2023515679A (ja) 2020-03-05 2020-09-04 人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ
JP2024009484A Pending JP2024056734A (ja) 2020-03-05 2024-01-25 適応型重みマッピング及び分散電力を有する実質的に一定のアレイソースインピーダンスを有する人工ニューラルネットワーク内のアナログニューラルメモリアレイ
JP2024087159A Pending JP2024116189A (ja) 2020-03-05 2024-05-29 人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022552600A Active JP7428820B2 (ja) 2020-03-05 2020-09-03 適応型重みマッピング及び分散電力を有する実質的に一定のアレイソースインピーダンスを有する人工ニューラルネットワーク内のアナログニューラルメモリアレイ

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2024009484A Pending JP2024056734A (ja) 2020-03-05 2024-01-25 適応型重みマッピング及び分散電力を有する実質的に一定のアレイソースインピーダンスを有する人工ニューラルネットワーク内のアナログニューラルメモリアレイ
JP2024087159A Pending JP2024116189A (ja) 2020-03-05 2024-05-29 人工ニューラルネットワーク内の差分セル対にシナプシス重みを記憶するアナログニューラルメモリアレイ

Country Status (7)

Country Link
US (3) US11600321B2 (ja)
EP (3) EP4407874A2 (ja)
JP (4) JP7428820B2 (ja)
KR (2) KR20220144382A (ja)
CN (2) CN115210811A (ja)
TW (3) TWI769710B (ja)
WO (2) WO2021178002A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7480391B2 (ja) 2022-07-13 2024-05-09 旺宏電子股▲ふん▼有限公司 インメモリコンピューティングのための記憶装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6708146B2 (ja) * 2017-03-03 2020-06-10 株式会社デンソー ニューラルネットワーク回路
US20210125049A1 (en) * 2019-10-29 2021-04-29 Taiwan Semiconductor Manufacturing Co., Ltd. System for executing neural network
US11532354B2 (en) * 2020-03-22 2022-12-20 Silicon Storage Technology, Inc. Precision tuning of a page or word of non-volatile memory cells and associated high voltage circuits for an analog neural memory array in an artificial neural network
US20210350217A1 (en) * 2020-05-10 2021-11-11 Silicon Storage Technology, Inc. Analog neural memory array in artificial neural network with source line pulldown mechanism
US11875852B2 (en) * 2020-07-06 2024-01-16 Silicon Storage Technology, Inc. Adaptive bias decoder to provide a voltage to a control gate line in an analog neural memory array in artificial neural network
JP2023088730A (ja) * 2021-12-15 2023-06-27 キオクシア株式会社 演算システム
KR20240017546A (ko) * 2022-08-01 2024-02-08 에스케이하이닉스 주식회사 메모리 장치 및 이의 동작 방법
KR102705669B1 (ko) * 2022-11-22 2024-09-11 경북대학교 산학협력단 합성곱 신경망의 하드웨어 커널 시스템
CN116486857B (zh) * 2023-05-17 2024-04-02 北京大学 一种基于电荷再分配的存内计算电路

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
JP2019519059A (ja) * 2016-05-18 2019-07-04 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. 改善されたフラッシュメモリセル及び関連するデコーダ
US20190213234A1 (en) * 2018-01-11 2019-07-11 Mentium Technologies Inc. Vector-by-matrix multiplier modules based on non-volatile 2d and 3d memory arrays
WO2019212699A1 (en) * 2018-05-01 2019-11-07 Silicon Storage Technology, Inc. Method and apparatus for high voltage generation for analog neural memory in deep learning artificial neural network
JP2020009112A (ja) * 2018-07-06 2020-01-16 株式会社デンソー ニューラルネットワーク回路
WO2020040893A1 (en) * 2018-08-21 2020-02-27 Silicon Storage Technology, Inc. Analog neural memory system for deep learning neural network comprising multiple vector-by-matrix multiplication arrays and shared components

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5022009A (en) 1988-06-02 1991-06-04 Mitsubishi Denki Kabushiki Kaisha Semiconductor memory device having reading operation of information by differential amplification
US5023837A (en) 1989-09-05 1991-06-11 Texas Instruments Incorporated Bitline segmentation in logic arrays
US5029130A (en) 1990-01-22 1991-07-02 Silicon Storage Technology, Inc. Single transistor non-valatile electrically alterable semiconductor memory device
KR100316060B1 (ko) 1998-06-16 2002-02-19 박종섭 플래시메모리의레이아웃및그형성방법
US6069824A (en) * 1999-03-03 2000-05-30 Matsushita Electric Industrial Co., Ltd. Semiconductor memory device
US6747310B2 (en) 2002-10-07 2004-06-08 Actrans System Inc. Flash memory cells with separated self-aligned select and erase gates, and process of fabrication
US7313023B2 (en) 2005-03-11 2007-12-25 Sandisk Corporation Partition of non-volatile memory array to reduce bit line capacitance
KR101380187B1 (ko) 2007-10-08 2014-04-03 삼성전자주식회사 저전력, 낮은 독출 디스터번스를 갖는 비휘발성 메모리 장치 및 그것의 프리챠지 방법 및 독출 방법
KR101434401B1 (ko) * 2007-12-17 2014-08-27 삼성전자주식회사 집적 회로 메모리 장치
US8379456B2 (en) * 2009-10-14 2013-02-19 Samsung Electronics Co., Ltd. Nonvolatile memory devices having dummy cell and bias methods thereof
CN106531212B (zh) 2015-09-11 2020-02-07 硅存储技术公司 将存储器单元用作源极线下拉电路的闪速存储器系统
CN116842306A (zh) * 2016-03-23 2023-10-03 Gsi 科技公司 存储器内矩阵乘法及其在神经网络中的使用
JP6833873B2 (ja) 2016-05-17 2021-02-24 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. 不揮発性メモリアレイを使用したディープラーニングニューラルネットワーク分類器
US9910827B2 (en) 2016-07-01 2018-03-06 Hewlett Packard Enterprise Development Lp Vector-matrix multiplications involving negative values
US9875780B1 (en) 2016-08-30 2018-01-23 International Business Machines Corporation STT MRAM source line configuration
US10303998B2 (en) * 2017-09-28 2019-05-28 International Business Machines Corporation Floating gate for neural network inference
US11354562B2 (en) 2018-01-03 2022-06-07 Silicon Storage Technology, Inc. Programmable neuron for analog non-volatile memory in deep learning artificial neural network
US10957392B2 (en) * 2018-01-17 2021-03-23 Macronix International Co., Ltd. 2D and 3D sum-of-products array for neuromorphic computing system
US10719296B2 (en) * 2018-01-17 2020-07-21 Macronix International Co., Ltd. Sum-of-products accelerator array
US10242737B1 (en) * 2018-02-13 2019-03-26 Macronix International Co., Ltd. Device structure for neuromorphic computing system
US10735675B2 (en) * 2018-04-13 2020-08-04 Cornell University Configurable image processing system and methods for operating a configurable image processing system for multiple applications
CN108695332B (zh) * 2018-05-18 2021-05-07 上海华虹宏力半导体制造有限公司 分栅式闪存及其形成方法、控制方法
KR102105936B1 (ko) 2018-06-25 2020-05-28 포항공과대학교 산학협력단 웨이트 행렬 입력 회로 및 웨이트 행렬 회로
US11568229B2 (en) 2018-07-11 2023-01-31 Silicon Storage Technology, Inc. Redundant memory access for rows or columns containing faulty memory cells in analog neural memory in deep learning artificial neural network
US10643119B2 (en) * 2018-07-24 2020-05-05 Sandisk Technologies Llc Differential non-volatile memory cell for artificial neural network
US11042797B2 (en) * 2019-01-08 2021-06-22 SimpleMachines Inc. Accelerating parallel processing of data in a recurrent neural network
US11132176B2 (en) * 2019-03-20 2021-09-28 Macronix International Co., Ltd. Non-volatile computing method in flash memory
US11507642B2 (en) 2019-05-02 2022-11-22 Silicon Storage Technology, Inc. Configurable input blocks and output blocks and physical layout for analog neural memory in deep learning artificial neural network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
JP2019519059A (ja) * 2016-05-18 2019-07-04 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. 改善されたフラッシュメモリセル及び関連するデコーダ
US20190213234A1 (en) * 2018-01-11 2019-07-11 Mentium Technologies Inc. Vector-by-matrix multiplier modules based on non-volatile 2d and 3d memory arrays
WO2019212699A1 (en) * 2018-05-01 2019-11-07 Silicon Storage Technology, Inc. Method and apparatus for high voltage generation for analog neural memory in deep learning artificial neural network
JP2020009112A (ja) * 2018-07-06 2020-01-16 株式会社デンソー ニューラルネットワーク回路
WO2020040893A1 (en) * 2018-08-21 2020-02-27 Silicon Storage Technology, Inc. Analog neural memory system for deep learning neural network comprising multiple vector-by-matrix multiplication arrays and shared components

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7480391B2 (ja) 2022-07-13 2024-05-09 旺宏電子股▲ふん▼有限公司 インメモリコンピューティングのための記憶装置

Also Published As

Publication number Publication date
US11355184B2 (en) 2022-06-07
TWI832710B (zh) 2024-02-11
TW202322128A (zh) 2023-06-01
JP2023515680A (ja) 2023-04-13
WO2021178002A1 (en) 2021-09-10
CN115210811A (zh) 2022-10-18
US20210280239A1 (en) 2021-09-09
EP4115423A1 (en) 2023-01-11
KR20220125305A (ko) 2022-09-14
TW202141496A (zh) 2021-11-01
TW202203226A (zh) 2022-01-16
JP2024056734A (ja) 2024-04-23
JP7428820B2 (ja) 2024-02-06
US11908513B2 (en) 2024-02-20
EP4115343A1 (en) 2023-01-11
US11600321B2 (en) 2023-03-07
WO2021178003A1 (en) 2021-09-10
TWI790551B (zh) 2023-01-21
US20210280240A1 (en) 2021-09-09
TWI769710B (zh) 2022-07-01
KR20220144382A (ko) 2022-10-26
EP4115423B1 (en) 2024-07-24
JP2024116189A (ja) 2024-08-27
EP4407874A2 (en) 2024-07-31
US20230178147A1 (en) 2023-06-08
CN115280327A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
JP7428820B2 (ja) 適応型重みマッピング及び分散電力を有する実質的に一定のアレイソースインピーダンスを有する人工ニューラルネットワーク内のアナログニューラルメモリアレイ
JP7523674B2 (ja) アナログニューラルメモリにおける書き込みと検証との同時動作
JP2024096888A (ja) 論理セル及び改善されたプログラミング機構を備える人工ニューラルネットワーク内のアナログニューラルメモリアレイ
JP2024105278A (ja) ソース線プルダウン機構を備えた人工ニューラルネットワーク内のアナログニューラルメモリアレイ
JP7493089B2 (ja) 人工ニューラルネットワークにおけるアナログニューラルメモリアレイの適応バイアスデコーダ
KR20240137066A (ko) I-v 기울기 구성을 위한 기준 어레이를 포함하는 인공 신경망
JP2024518884A (ja) 深層学習人工ニューラルネットワークにおけるアナログニューラルメモリ用のスプリットアレイアーキテクチャ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240319