CN115280327A - 在人工神经网络中的差分单元对中存储突触权重的模拟神经存储器阵列 - Google Patents

在人工神经网络中的差分单元对中存储突触权重的模拟神经存储器阵列 Download PDF

Info

Publication number
CN115280327A
CN115280327A CN202080097943.4A CN202080097943A CN115280327A CN 115280327 A CN115280327 A CN 115280327A CN 202080097943 A CN202080097943 A CN 202080097943A CN 115280327 A CN115280327 A CN 115280327A
Authority
CN
China
Prior art keywords
array
cells
columns
memory cells
analog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080097943.4A
Other languages
English (en)
Inventor
H·V·特兰
T·乌
S·特林
S·洪
A·李
V·蒂瓦里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Silicon Storage Technology Inc
Original Assignee
Silicon Storage Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Silicon Storage Technology Inc filed Critical Silicon Storage Technology Inc
Publication of CN115280327A publication Critical patent/CN115280327A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/04Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS
    • G11C16/0408Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors
    • G11C16/0416Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors comprising cells containing a single floating gate transistor and no select transistor, e.g. UV EPROM
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/04Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS
    • G11C16/0408Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors
    • G11C16/0425Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells containing floating gate transistors comprising cells containing a merged floating gate and select transistor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/08Address circuits; Decoders; Word-line control circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/24Bit-line control circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/26Sensing or reading circuits; Data output circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/26Sensing or reading circuits; Data output circuits
    • G11C16/28Sensing or reading circuits; Data output circuits using differential sensing or reference cells, e.g. dummy cells
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3418Disturbance prevention or evaluation; Refreshing of disturbed memory data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/06Auxiliary circuits, e.g. for writing into memory
    • G11C16/34Determination of programming status, e.g. threshold voltage, overprogramming or underprogramming, retention
    • G11C16/3418Disturbance prevention or evaluation; Refreshing of disturbed memory data
    • G11C16/3427Circuits or methods to prevent or reduce disturbance of the state of a memory cell when neighbouring cells are read or written
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/12Bit line control circuits, e.g. drivers, boosters, pull-up circuits, pull-down circuits, precharging circuits, equalising circuits, for bit lines
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/14Dummy cell management; Sense reference voltage generators
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/005Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements using switched capacitors, e.g. dynamic amplifiers; using switched capacitors as resistors in differential amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F3/00Amplifiers with only discharge tubes or only semiconductor devices as amplifying elements
    • H03F3/45Differential amplifiers
    • H03F3/45071Differential amplifiers with semiconductor devices only
    • H03F3/45076Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier
    • H03F3/45475Differential amplifiers with semiconductor devices only characterised by the way of implementation of the active amplifying circuit in the differential amplifier using IC blocks as the active amplifying circuit
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/14Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit
    • H03M1/145Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit the steps being performed sequentially in series-connected stages
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/14Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit
    • H03M1/16Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit with scale factor modification, i.e. by changing the amplification between the steps
    • H03M1/164Conversion in steps with each step involving the same or a different conversion means and delivering more than one bit with scale factor modification, i.e. by changing the amplification between the steps the steps being performed sequentially in series-connected stages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2203/00Indexing scheme relating to amplifiers with only discharge tubes or only semiconductor devices as amplifying elements covered by H03F3/00
    • H03F2203/45Indexing scheme relating to differential amplifiers
    • H03F2203/45526Indexing scheme relating to differential amplifiers the FBC comprising a resistor-capacitor combination and being coupled between the LC and the IC
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03FAMPLIFIERS
    • H03F2203/00Indexing scheme relating to amplifiers with only discharge tubes or only semiconductor devices as amplifying elements covered by H03F3/00
    • H03F2203/45Indexing scheme relating to differential amplifiers
    • H03F2203/45536Indexing scheme relating to differential amplifiers the FBC comprising a switch and being coupled between the LC and the IC
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/34Analogue value compared with reference values
    • H03M1/38Analogue value compared with reference values sequentially only, e.g. successive approximation type
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/34Analogue value compared with reference values
    • H03M1/38Analogue value compared with reference values sequentially only, e.g. successive approximation type
    • H03M1/46Analogue value compared with reference values sequentially only, e.g. successive approximation type with digital/analogue converter for supplying reference values to converter
    • H03M1/466Analogue value compared with reference values sequentially only, e.g. successive approximation type with digital/analogue converter for supplying reference values to converter using switched capacitors
    • H03M1/468Analogue value compared with reference values sequentially only, e.g. successive approximation type with digital/analogue converter for supplying reference values to converter using switched capacitors in which the input S/H circuit is merged with the feedback DAC array
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/50Analogue/digital converters with intermediate conversion to time interval
    • H03M1/56Input signal compared with linear ramp

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Hardware Design (AREA)
  • Power Engineering (AREA)
  • Non-Volatile Memory (AREA)
  • Read Only Memory (AREA)
  • Networks Using Active Elements (AREA)
  • Static Random-Access Memory (AREA)
  • Semiconductor Memories (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

公开了模拟神经存储器阵列的许多实施方案。在一个实施方案中,一种模拟神经存储器系统包括非易失性存储器单元阵列,其中这些单元按行和列布置,这些列按物理上相邻的列对布置,其中在每个相邻对内,该相邻对中的一个列包括存储W+值的单元,并且该相邻对中的一个列包括存储W‑值的单元,其中该相邻对中的相邻单元存储根据公式W=(W+)–(W‑)所得的差分权重W。在另一个实施方案中,一种模拟神经存储器系统包括存储W+值的非易失性存储器单元的第一阵列和存储W‑值的非易失性存储器单元的第二阵列。

Description

在人工神经网络中的差分单元对中存储突触权重的模拟神经 存储器阵列
优先权声明
本申请要求于2020年3月5日提交的并且名称为“人工神经网络中具有准确的阵列源阻抗、具有适应性权重映射和分布式功率的模拟神经存储器阵列(Analog NeuralMemory Array in Artificial Neural Network With Accurate Array SourceImpedance With Adaptive Weight Mapping and Distributed Power)”的第62/985,826号美国临时申请以及于2020年8月6日提交的并且名称为“在人工神经网络中的差分单元对中存储突触权重的模拟神经存储器阵列(Analog Neural Memory Array StoringSynapsis Weights In Differential Cell Pairs in Artificial Neural Network)”的第16/987,101号美国专利申请的优先权。
技术领域
公开了模拟神经存储器阵列的许多实施方案。在某些实施方案中,突触权重存储在阵列中的差分单元对中。在某些实施方案中,当读取单元时,阵列内的从位线到位线的功率消耗基本上恒定。在某些实施方案中,自适应地执行权重映射以获得功率和噪声方面的最佳性能。
背景技术
人工神经网络模拟生物神经网络(动物的中枢神经系统,特别是大脑),并且用于估计或近似可取决于大量输入并且通常未知的函数。人工神经网络通常包括互相交换消息的互连“神经元”层。
图1示出了人工神经网络,其中圆圈表示神经元的输入或层。连接部(称为突触)用箭头表示,并且具有可以根据经验进行调整的数值权重。这使得人工神经网络适应于输入并且能够学习。通常,人工神经网络包括多个输入的层。通常存在神经元的一个或多个中间层,以及提供神经网络的输出的神经元的输出层。处于每一级别的神经元分别地或共同地根据从突触所接收的数据作出决定。
在开发用于高性能信息处理的人工神经网络方面的主要挑战中的一个挑战是缺乏足够的硬件技术。实际上,实际人工神经网络依赖于大量的突触,从而实现神经元之间的高连通性,即非常高的计算并行性。原则上,此类复杂性可通过数字超级计算机或专用图形处理单元集群来实现。然而,相比于生物网络,这些方法除了高成本之外,能量效率也很普通,生物网络主要由于其执行低精度的模拟计算而消耗更少的能量。CMOS模拟电路已被用于人工神经网络,但由于给定大量的神经元和突触,大多数CMOS实现的突触都过于庞大。
申请人先前在美国专利申请号15/594,439(公开为美国专利公布2017/0337466)中公开了一种利用一个或多个非易失性存储器阵列作为突触的人工(模拟)神经网络,该专利申请以引用方式并入本文。非易失性存储器阵列作为模拟神经形态存储器操作。如本文所用的术语“神经形态”是指实现神经系统模型的电路。模拟神经形态存储器包括被配置成接收第一多个输入并从其生成第一多个输出的第一多个突触,以及被配置成接收第一多个输出的第一多个神经元。第一多个突触包括多个存储器单元,其中存储器单元中的每个存储器单元包括:形成于半导体衬底中的间隔开的源极区和漏极区,其中沟道区在源极区和漏极区之间延伸;设置在沟道区的第一部分上方并且与第一部分绝缘的浮栅;以及设置在沟道区的第二部分上方并且与第二部分绝缘的非浮栅。多个存储器单元中的每个存储器单元被配置成存储与浮栅上的多个电子相对应的权重值。多个存储器单元被配置成将第一多个输入乘以所存储的权重值以生成第一多个输出。以这种方式布置的存储器单元阵列可被称为矢量矩阵乘法(VMM)阵列。
现在将讨论可以在VMM中使用的不同非易失性存储器单元的示例。
非易失性存储器单元
在VMM阵列中可以使用各种类型的已知非易失性存储器单元。例如,美国专利5,029,130(“130专利”),其以引用方式并入本文,公开了分裂栅非易失性存储器单元的阵列,它是一种闪存存储器单元。此类存储器单元210在图2中示出。每个存储器单元210包括形成于半导体衬底12中的源极区14和漏极区16,其间具有沟道区18。浮栅20形成在沟道区18的第一部分上方并且与其绝缘(并控制其电导率),并且形成在源极区14的一部分上方。字线端子22(其通常被耦接到字线)具有设置在沟道区18的第二部分上方并且与该沟道区的第二部分绝缘(并且控制其电导率)的第一部分,以及向上延伸并且位于浮栅20上方的第二部分。浮栅20和字线端子22通过栅极氧化物与衬底12绝缘。位线端子24耦接到漏极区16。
通过将高的正电压置于字线端子22上来对存储器单元210进行擦除(其中电子从浮栅去除),这导致浮栅20上的电子经由福勒-诺德海姆隧穿从浮栅20到字线端子22隧穿通过中间绝缘体。
通过将正的电压置于字线端子22上以及将正的电压置于源极区14上来编程存储器单元210(其中电子被置于浮栅上)。电子电流将从漏极区16流向源极区14(源极线端子)。当电子到达字线端子22和浮栅20之间的间隙时,电子将加速并且变为被激发的(加热的)。由于来自浮栅20的静电引力,一些加热的电子将通过栅极氧化物被注入到浮栅20上。
通过将正的读取电压置于漏极区16和字线端子22(其接通沟道区18的在字线端子下方的部分)上来读取存储器单元210。如果浮栅20带正电(即,电子被擦除),则沟道区18的在浮栅20下方的部分也被接通,并且电流将流过沟道区18,该沟道区被感测为擦除状态或“1”状态。如果浮栅20带负电(即,通过电子进行了编程),则沟道区的在浮栅20下方的部分被大部分或完全关断,并且电流将不会(或者有很少的电流)流过沟道区18,该沟道区被感测为编程状态或“0”状态。
表1示出可施加到存储器单元110的端子用于执行读取操作、擦除操作和编程操作的典型电压范围:
表1:图2的闪存存储器单元210的操作
WL BL SL
读取1 0.5-3V 0.1-2V 0V
读取2 0.5-3V 0-2V 2-0.1V
擦除 约11-13V 0V 0V
编程 1V-2V 1-3μA 9-10V
“读取1”是其中单元电流在位线上输出的读取模式。“读取2”是其中单元电流在源极线端子上输出的读取模式。
图3示出了存储器单元310,其与图2的存储器单元210类似,但增加了控制栅(CG)端子28。控制栅端子28在编程中被偏置在高电压处(例如,10V),在擦除中被偏置在低电压或负电压处(例如,0v/-8V),在读取中被偏置在低电压或中等电压处(例如,0v/2.5V)。其他端子类似于图2那样偏置。
图4示出了四栅极存储器单元410,其包括源极区14、漏极区16、在沟道区18的第一部分上方的浮栅20、在沟道区18的第二部分上方的选择栅22(通常耦接到字线WL)、在浮栅20上方的控制栅28、以及在源极区14上方的擦除栅30。这种配置在美国专利6,747,310中有所描述,该专利以引用方式并入本文以用于所有目的。这里,除了浮栅20之外,所有的栅极均为非浮栅,这意味着它们电连接到或能够电连接到电压源。编程由来自沟道区18的将自身注入到浮栅20的加热的电子执行。擦除通过从浮栅20隧穿到擦除栅30的电子来执行。
表2示出可施加到存储器单元410的端子用于执行读取操作、擦除操作和编程操作的典型电压范围:
表2:图4的闪存存储器单元410的操作
WL/SG BL CG EG SL
读取1 0.5-2V 0.1-2V 0-2.6V 0-2.6V 0V
读取2 0.5-2V 0-2V 0-2.6V 0-2.6V 2-0.1V
擦除 -0.5V/0V 0V 0V/-8V 8-12V 0V
编程 1V 1μA 8-11V 4.5-9V 4.5-5V
“读取1”是其中单元电流在位线上输出的读取模式。“读取2”是其中单元电流在源极线端子上输出的读取模式。
图5示出了存储器单元510,除了不含擦除栅EG端子,存储器单元510与图4的存储器单元410类似。通过将衬底18偏置到高电压并将控制栅CG端子28偏置到低电压或负电压来执行擦除。另选地,通过将字线端子22偏置到正电压并将控制栅端子28偏置到负电压来执行擦除。编程和读取类似于图4的那样。
图6示出三栅极存储器单元610,其为另一种类型的闪存存储器单元。存储器单元610与图4的存储器单元410相同,除了存储器单元610没有单独的控制栅端子。除了没有施加控制栅偏置,擦除操作(通过使用擦除栅端子进行擦除)和读取操作类似于图4的操作。在没有控制栅偏置的情况下,编程操作也被完成,并且结果,在编程操作期间必须在源极线端子上施加更高的电压,以补偿控制栅偏置的缺乏。
表3示出可施加到存储器单元610的端子用于执行读取操作、擦除操作和编程操作的典型电压范围:
表3:图6的闪存存储器单元610的操作
WL/SG BL EG SL
读取1 0.5-2.2V 0.1-2V 0-2.6V 0V
读取2 0.5-2.2V 0-2V 0-2.6V 2-0.1V
擦除 -0.5V/0V 0V 11.5V 0V
编程 1V 2-3μA 4.5V 7-9V
“读取1”是其中单元电流在位线上输出的读取模式。“读取2”是其中单元电流在源极线端子上输出的读取模式。
图7示出堆叠栅存储器单元710,其为另一种类型的闪存存储器单元。存储器单元710与图2的存储器单元210类似,不同的是浮栅20在整个沟道区18上方延伸,并且控制栅端子22(其在这里将耦接到字线)在浮栅20上方延伸,由绝缘层(未示出)分开。使用从沟道18到靠近漏极区16的沟道区中的浮栅20的热电子注入来执行编程,并且使用从浮栅20到衬底12的福勒-诺德海姆(Fowler-Nordheim)电子隧穿来执行擦除。读取操作以与先前针对存储器单元210所述类似的方式操作。
表4示出可以施加到存储器单元710和衬底12的端子用于执行读取、擦除和编程操作的典型电压范围:
表4:图7的闪存存储器单元710的操作
CG BL SL 衬底
读取1 0-5V 0.1–2V 0-2V 0V
读取2 0.5-2V 0-2V 2-0.1V 0V
擦除 -8至-10V/0V FLT FLT 8-10V/15-20V
编程 8-12V 3-5V/0V 0V/3-5V 0V
“读取1”是其中单元电流在位线上输出的读取模式。“读取2”是其中单元电流在源极线端子上输出的读取模式。任选地,在包括存储器单元210、310、410、510、610或710的行和列的阵列中,源极线可耦接到一行存储器单元或相邻的两行存储器单元。即,源极线端子可由相邻行的存储器单元共享。
图8示出双分裂栅存储器单元810。双分裂栅存储器单元810包括一对存储器单元(左侧的A和右侧的B),其中每个存储器单元包括:浮栅(FGA、FGB)20,其设置在衬底12上方并与该衬底绝缘;控制栅28(CGA、CGB),其设置在浮栅20上并与该浮栅绝缘;擦除栅30(EG),其设置成与浮栅20和控制栅28相邻并与该浮栅和控制栅绝缘并且设置在衬底12上并与该衬底绝缘,其中擦除栅以T形创建,使得每个控制栅CGA、CGB的顶角面向T形擦除栅的相应内角以提高擦除效率;以及在衬底中与浮栅20相邻的漏极区16(DRA、DRB)(具有连接到相应漏极扩散区16(DRA、DRB)的位线接触件24(BLA、BLB))。存储器单元形成为共享共同擦除栅30的存储器单元对。此单元设计与上文参考图2-图7讨论的存储器单元的不同之处至少在于,该单元缺少擦除栅EG下方的源极区,缺少选择栅(也称为字线),并且缺少用于每个存储器单元的沟道区。相反,单个连续沟道区18在两个存储器单元下方延伸(即,从一个存储器单元的漏极区16延伸到另一个存储器单元的漏极区16)。为了读取或编程一个存储器单元,将另一个存储器单元的控制栅28升高到足够的电压,以经由电压耦合到其间的浮栅20接通底层沟道区部分(例如,为了读取或编程单元A,经由来自CGB的电压耦接升高FGB上的电压以接通FGB下方的沟道区部分)。使用从浮栅20A和/或浮栅20B到擦除栅30的福勒-诺德海姆电子隧穿来执行擦除。使用从沟道18到浮栅20的热电子注射来执行编程。
表5示出可施加到存储器单元810的端子用于执行读取操作、擦除操作和编程操作的典型电压范围。选择单元A(FG、CGA、BLA)进行读取操作、编程操作和擦除操作。
表5:图8的闪存存储器单元810的操作
Figure BDA0003827252360000071
为了在人工神经网络中利用包括上述类型的非易失性存储器单元之一的存储器阵列,在一些实施方案中进行了两个修改。第一,对线路进行配置,使得每个存储器单元可被单独编程、擦除和读取,而不会不利地影响阵列中的其他存储器单元的存储器状态,如下文进一步解释。第二,提供存储器单元的连续(模拟)编程。
具体地,阵列中的每个存储器单元的存储器状态(即,浮栅上的电荷)可在独立地并且对其他存储器单元的干扰最小的情况下连续地从完全擦除状态变为完全编程状态。在另一个实施方案,阵列中的每个存储器单元的存储器状态(即,浮栅上的电荷)可在独立地并且对其他存储器单元的干扰最小的情况下连续地从完全编程状态变为完全擦除状态,或从完全擦除状态变为完全编程状态。这意味着单元存储装置是模拟的,或者至少可存储许多离散值(诸如16或256个不同的值)中的一个离散值,这允许对存储器阵列中的所有单元进行非常精确且单独的调谐,并且这使得存储器阵列对于存储和对神经网络的突触权重进行微调是理想的。
本文所述的方法和装置可应用于其他非易失性存储器技术,诸如但不限于FINFET分裂栅闪存或堆叠栅闪存、SONOS(硅-氧化物-氮化物-氧化物-硅,电荷捕获在氮化物中)、MONOS(金属-氧化物-氮化物-氧化物-硅,金属电荷捕获在氮化物中)、ReRAM(电阻式ram)、PCM(相变存储器)、MRAM(磁性ram)、FeRAM(铁电ram)、OTP(双层或多层式一次可编程)和CeRAM(关联电子ram)等。本文所述的方法和装置可应用于用于神经网络的易失性存储器技术,诸如但不限于SRAM、DRAM和/或易失性突触单元。
采用非易失性存储器单元阵列的神经网络
图9概念性地示出本实施方案的使用非易失性存储器阵列的神经网络的非限制性示例。该示例将非易失性存储器阵列神经网络用于面部识别应用,但任何其他适当的应用也可使用基于非易失性存储器阵列的神经网络来实现。
对于该示例,S0为输入层,其为具有5位精度的32×32像素RGB图像(即,三个32×32像素阵列,分别用于每个颜色R、G和B,每个像素为5位精度)。从输入层S0到层C1的突触CB1在一些情况下应用不同的权重集,在其他情况下应用共享权重,并且用3×3像素重叠滤波器(内核)扫描输入图像,将滤波器移位1个像素(或根据模型所指示的多于1个像素)。具体地,将图像的3×3部分中的9个像素的值(即,称为滤波器或内核)提供给突触CB1,其中将这9个输入值乘以适当的权重,并且在对该乘法的输出求和之后,由CB1的第一突触确定并提供单个输出值以用于生成层C1的特征映射中的一者的像素。然后将3×3滤波器在输入层S0内向右移位一个像素(即,添加右侧的三个像素的列,并释放左侧的三个像素的列),由此将该新定位的滤波器中的9个像素值提供给突触CB1,其中将它们乘以相同的权重并且由相关联的突触确定第二单个输出值。继续该过程,直到3×3滤波器在输入层S0的整个32×32像素图像上扫描所有三种颜色和所有位(精度值)。然后使用不同组的权重重复该过程以生成C1的不同特征映射,直到计算出层C1的所有特征映射。
在层C1处,在本示例中,存在16个特征映射,每个特征映射具有30×30像素。每个像素是从输入和内核的乘积中提取的新特征像素,因此每个特征映射是二维阵列,因此在该示例中,层C1由16层的二维阵列构成(记住本文所引用的层和阵列是逻辑关系,而不必是物理关系,即阵列不必定向于物理二维阵列)。在层C1中的16个特征映射中的每个特征映射均由应用于滤波器扫描的十六个不同组的突触权重中的一组生成。C1特征映射可全部涉及相同图像特征的不同方面,诸如边界识别。例如,第一映射(使用第一权重组生成,针对用于生成该第一映射的所有扫描而共享)可识别圆形边缘,第二映射(使用与第一权重组不同的第二权重组生成)可识别矩形边缘,或某些特征的纵横比,以此类推。
在从层C1转到层S1之前,应用激活函数P1(池化),该激活函数将来自每个特征映射中连续的非重叠2×2区域的值进行池化。池化函数P1的目的是对邻近位置求均值(或者也可使用max函数),以例如减少边缘位置的依赖性,并在进入下一阶段之前减小数据大小。在层S1处,存在16个15×15特征映射(即,十六个每个特征映射15×15像素的不同阵列)。从层S1到层C2的突触CB2利用4×4滤波器扫描层S1中的映射,其中滤波器移位1个像素。在层C2处,存在22个12×12特征映射。在从层C2转到层S2之前,应用激活函数P2(池化),该激活函数将来自每个特征映射中连续的非重叠2×2区域的值进行池化。在层S2处,存在22个6×6特征映射。将激活函数(池化)应用于从层S2到层C3的突触CB3,其中层C3中的每个神经元经由CB3的相应突触连接至层S2中的每个映射。在层C3处,存在64个神经元。从层C3到输出层S3的突触CB4完全将C3连接至S3,即层C3中的每个神经元都连接到层S3中的每个神经元。S3处的输出包括10个神经元,其中最高输出神经元确定类。例如,该输出可指示对原始图像的内容的识别或分类。
使用非易失性存储器单元的阵列或阵列的一部分来实现每层的突触。
图10为可用于该目的的系统的框图。VMM系统32包括非易失性存储器单元,并且用作一层与下一层之间的突触(诸如图6中的CB1、CB2、CB3和CB4)。具体地,VMM系统32包括VMM阵列33(包括以行和列布置的非易失性存储器单元)、擦除栅和字线栅解码器34、控制栅解码器35、位线解码器36和源极线解码器37,这些解码器对非易失性存储器单元阵列33的相应输入进行解码。对VMM阵列33的输入可来自擦除栅和字线栅解码器34或来自控制栅解码器35。在该示例中,源极线解码器37还对VMM阵列33的输出进行解码。另选地,位线解码器36可对VMM阵列33的输出进行解码。
VMM阵列33用于两个目的。首先,它存储将由VMM系统32使用的权重。其次,VMM阵列33有效地将输入与存储在VMM阵列33中的权重相乘并且每个输出线(源极线或位线)将它们相加以产生输出,该输出将作为下一层的输入或最终层的输入。通过执行乘法和加法函数,VMM阵列33消除了对单独的乘法和加法逻辑电路的需要,并且由于其原位存储器计算也是高功效的。
将VMM阵列33的输出提供至差分求和器(诸如求和运算放大器或求和电流镜)38,该差分求和器对非易失性存储器单元阵列33的输出进行求和,以为该卷积创建单个值。差分求和器38被布置用于执行正权重输入和负权重输入两者的求和,以输出单个值。
然后将差分求和器38的输出值求和后提供至激活函数电路39,该激活函数电路对输出进行修正。激活函数电路39可提供sigmoid、tanh、ReLU函数或任何其他非线性函数。激活函数电路39的经修正的输出值成为作为下一层(例如,图8中的层C1)的特征映射的元素,然后被应用于下一个突触以产生下一个特征映射层或最终层。因此,在该示例中,VMM阵列33构成多个突触(其从现有神经元层或从输入层诸如图像数据库接收它们的输入),并且求和器38和激活函数电路39构成多个神经元。
图10中对VMM系统32的输入(WLx、EGx、CGx以及任选的BLx和SLx)可为模拟电平(例如,电流、电压或电荷)、二进制电平、数字脉冲(在这种情况下,可能需要脉冲-模拟转换器PAC来将脉冲转换至合适的输入模拟电平)或数字位(在这种情况下,提供DAC以将数字位转换至合适的输入模拟电平);输出可为模拟电平、二进制电平、数字脉冲或数字位(在这种情况下,提供输出ADC以将输出模拟电平转换成数字位)。
图11为示出多层VMM系统32(此处标记为VMM系统32a、32b、32c、32d和32e)的使用的框图。如图11所示,通过数模转换器31将输入(表示为Inputx)从数字转换为模拟,并将其提供至输入VMM系统32a。转换的模拟输入可以是电压或电流。第一层的输入D/A转换可通过使用将输入Inputx映射到输入VMM系统32a的矩阵乘法器的适当模拟电平的函数或LUT(查找表)来完成。输入转换也可由模拟至模拟(A/A)转换器完成,以将外部模拟输入转换成到输入VMM系统32a的映射模拟输入。输入转换也可由数字至数字脉冲(D/P)转换器完成,以将外部数字输入转换成到输入VMM系统32a的映射的一个或多个数字脉冲。
由输入VMM系统32a产生的输出被作为到下一个VMM系统(隐藏级别1)32b的输入提供,该输入继而生成作为下一VMM系统(隐藏级别2)32c的输入而提供的输出,以此类推。VMM系统32的各层用作卷积神经网络(CNN)的突触和神经元的不同层。每个VMM系统32a、32b、32c、32d和32e可以是包括相应非易失性存储器阵列的独立物理系统、或者多个VMM系统可利用相同物理非易失性存储器阵列的不同部分、或者多个VMM系统可利用相同物理非易失性存储器阵列的重叠部分。每个VMM系统32a、32b、32c、32d和32e也可针对其阵列或神经元的不同部分进行时分复用。图11所示的示例包含五个层(32a,32b,32c,32d,32e):一个输入层(32a)、两个隐藏层(32b,32c)和两个完全连接的层(32d,32e)。本领域的普通技术人员将会知道,这仅仅是示例性的,并且相反,系统可包括两个以上的隐藏层和两个以上的完全连接的层。
VMM阵列
图12示出神经元VMM阵列1200,该神经元VMM阵列特别适用于图3所示的存储器单元310,并且用作输入层与下一层之间的神经元的突触和部件。VMM阵列1200包括非易失性存储器单元的存储器阵列1201和非易失性参考存储器单元的参考阵列1202(在阵列的顶部)。另选地,可将另一个参考阵列置于底部。
在VMM阵列1200中,控制栅线(诸如控制栅线1203)在竖直方向上延伸(因此参考阵列1202在行方向上与控制栅线1203正交),并且擦除栅线(诸如擦除栅线1204)在水平方向上延伸。此处,VMM阵列1200的输入设置在控制栅线(CG0,CG1,CG2,CG3)上,并且VMM阵列1200的输出出现在源极线(SL0,SL1)上。在一个实施方案中,仅使用偶数行,并且在另一个实施方案中,仅使用奇数行。置于各源极线(分别为SL0、SL1)上的电流执行来自连接到该特定源极线的存储器单元的所有电流的求和函数。
如本文针对神经网络所述,VMM阵列1200的非易失性存储器单元优选地被配置成在亚阈值区中操作。
在亚阈值区中偏置本文所述的非易失性参考存储器单元和非易失性存储器单元:
Ids=Io*e(Vg-Vth)/nVt=w*Io*e(Vg)/nVt
其中w=e(-Vth)/nVt
其中Ids为漏极到源极电流;Vg为存储器单元上的栅极电压;Vth是存储器单元的阈值电压;Vt是热电压=k*T/q,其中k是玻尔兹曼常数,T是以开尔文为单位的温度,并且q是电子电荷;n是斜率因子=1+(Cdep/Cox),其中Cdep=耗尽层的电容,并且Cox是栅极氧化物层的电容;Io是等于阈值电压的栅极电压下的存储器单元电流,Io与(Wt/L)*u*Cox*(n-1)*Vt2成比例,其中u是载流子迁移率,并且Wt和L分别是存储器单元的宽度和长度。
对于使用存储器单元(诸如参考存储器单元或外围存储器单元)或晶体管将输入电流Ids转换为输入电压Vg的I到V对数转换器:
Vg=n*Vt*log[Ids/wp*Io]
此处,wp为参考存储器单元或外围存储器单元的w。
对于使用存储器单元(诸如参考存储器单元或外围存储器单元)或晶体管将输入电流Ids转换为输入电压Vg的I到V对数转换器:
Vg=n*Vt*log[Ids/wp*Io]
此处,wp为参考存储器单元或外围存储器单元的w。
对于用作矢量矩阵乘法器VMM阵列的存储器阵列,输出电流为:
Iout=wa*Io*e(Vg)/nVt,即
Iout=(wa/wp)*Iin=W*Iin
W=e(Vthp-Vtha)/nVt
Iin=wp*Io*e(Vg)/nVt
在此,wa=存储器阵列中每个存储器单元的w,并且wp为参考或外围存储器单元的w。
字线或控制栅可用作输入电压的存储器单元的输入。
另选地,本文所述的VMM阵列的非易失性存储器单元可被配置成在线性区域中操作:
Ids=β*(Vgs-Vth)*Vds;β=u*Cox*Wt/L,
Wα(Vgs-Vth),
即线性区域中的权重W与(Vgs-Vth)成比例
字线或控制栅或位线或源极线可以用作在线性区域中操作的存储器单元的输入。位线或源极线可用作存储器单元的输出。
对于I到V线性转换器,在线性区域工作的存储器单元(例如参考存储器单元或外围存储器单元)或晶体管或电阻器可以用来将输入/输出电流线性转换成输入/输出电压。
另选地,本文所述的VMM阵列的存储器单元可被配置成在饱和区域中操作:
Ids=1/2*β*(Vgs-Vth)2;β=u*Cox*Wt/L
Wα(Vgs-Vth)2,即权重W与(Vgs-Vth)2成比例
字线、控制栅或擦除栅可以用作在饱和区域中操作的存储器单元的输入。位线或源极线可用作输出神经元的输出。
另选地,本文所述的VMM阵列的存储器单元可用于神经网络的每个层或多个层的所有区域或其组合(亚阈值、线性或饱和区域)。
图13示出神经元VMM阵列1300,该神经元VMM阵列特别适用于图2所示的存储器单元210,并且用作输入层与下一层之间的突触。VMM阵列1300包括非易失性存储器单元的存储器阵列1303、第一非易失性参考存储器单元的参考阵列1301和第二非易失性参考存储器单元的参考阵列1302。沿阵列的列方向布置的参考阵列1301和1302用于将流入端子BLR0、BLR1、BLR2和BLR3的电流输入转换为电压输入WL0、WL1、WL2和WL3。实际上,第一非易失性参考存储器单元和第二非易失性参考存储器单元通过多路复用器1314(仅部分示出)二极管式连接,其中电流输入流入其中。参考单元被调谐(例如,编程)为目标参考电平。目标参考电平由参考微阵列矩阵(未示出)提供。
存储器阵列1303用于两个目的。首先,它将VMM阵列1300将使用的权重存储在其相应的存储器单元上。第二,存储器阵列1303有效地将输入(即,在端子BLR0、BLR1、BLR2和BLR3中提供的电流输入,参考阵列1301和1302将它们转换成输入电压以提供给字线WL0、WL1、WL2和WL3)乘以存储在存储器阵列1303中的权重,然后将所有结果(存储器单元电流)相加以在相应的位线(BL0-BLN)上产生输出,该输出将是下一层的输入或最终层的输入。通过执行乘法和加法函数,存储器阵列1303消除了对单独的乘法逻辑电路和加法逻辑电路的需要,并且也是高功效的。这里,电压输入在字线(WL0、WL1、WL2和WL3)上提供,并且输出在读取(推断)操作期间出现在相应位线(BL0-BLN)上。置于位线BL0-BLN中的每个位线上的电流执行来自连接到该特定位线的所有非易失性存储器单元的电流的求和函数。
表6示出用于VMM阵列1300的工作电压。表中的列指示置于用于所选单元的字线、用于未选单元的字线、用于所选单元的位线、用于未选单元的位线、用于所选单元的源极线和用于未选单元的源极线上的电压,其中FLT指示浮动,即未施加电压。行指示读取、擦除和编程操作。
表6:图13的VMM阵列1300的操作
WL WL-未选 BL BL-未选 SL SL-未选
读取 0.5-3.5V -0.5V/0V 0.1-2V(Ineuron) 0.6V-2V/FLT 0V 0V
擦除 约5-13V 0V 0V 0V 0V 0V
编程 1V-2V -0.5V/0V 0.1-3uA Vinh约2.5V 4-10V 0-1V/FLT
图14示出神经元VMM阵列1400,该神经元VMM阵列特别适用于图2所示的存储器单元210,并且用作输入层与下一层之间的神经元的突触和部件。VMM阵列1400包括非易失性存储器单元的存储器阵列1403、第一非易失性参考存储器单元的参考阵列1401和第二非易失性参考存储器单元的参考阵列1402。参考阵列1401和1402在VMM阵列1400的行方向上延伸。VMM阵列与VMM 1300类似,不同的是在VMM阵列1400中,字线在竖直方向上延伸。这里,输入设置在字线(WLA0、WLB0、WLA1、WLB2、WLA2、WLB2、WLA3、WLB3)上,并且输出在读取操作期间出现在源极线(SL0、SL1)上。置于各源极线上的电流执行来自连接到该特定源极线的存储器单元的所有电流的求和函数。
表7示出用于VMM阵列1400的工作电压。表中的列指示置于用于所选单元的字线、用于未选单元的字线、用于所选单元的位线、用于未选单元的位线、用于所选单元的源极线和用于未选单元的源极线上的电压。行指示读取、擦除和编程操作。
表7:图14的VMM阵列1400的操作
Figure BDA0003827252360000151
图15示出神经元VMM阵列1500,该神经元VMM阵列特别适用于图3所示的存储器单元310,并且用作输入层与下一层之间的神经元的突触和部件。VMM阵列1500包括非易失性存储器单元的存储器阵列1503、第一非易失性参考存储器单元的参考阵列1501和第二非易失性参考存储器单元的参考阵列1502。参考阵列1501和1502用于将流入端子BLR0、BLR1、BLR2和BLR3的中的电流输入转换为电压输入CG0、CG1、CG2和CG3。实际上,第一非易失性参考存储器单元和第二非易失性参考存储器单元通过多路复用器1512(仅部分示出)二极管式连接,其中电流输入通过BLR0、BLR1、BLR2和BLR3流入其中。多路复用器1512各自包括相应的多路复用器1505和共源共栅晶体管1504,以确保在读取操作期间第一非易失性参考存储器单元和第二非易失性参考存储器单元中的每一者的位线(诸如BLR0)上的恒定电压。将参考单元调谐至目标参考电平。
存储器阵列1503用于两个目的。首先,它存储将由VMM阵列1500使用的权重。第二,存储器阵列1503有效地将输入(提供到端子BLR0、BLR1、BLR2和BLR3的电流输入,参考阵列1501和1502将这些电流输入转换成输入电压以提供给控制栅CG0、CG1、CG2和CG3)乘以存储在存储器阵列中的权重,然后将所有结果(单元电流)相加以产生输出,该输出出现在BL0-BLN并且将是下一层的输入或最终层的输入。通过执行乘法和加法函数,存储器阵列消除了对单独的乘法和加法逻辑电路的需要,并且也是高功效的。这里,输入提供在控制栅线(CG0、CG1、CG2和CG3)上,输出在读取操作期间出现在位线(BL0–BLN)上。置于各位线上的电流执行来自连接到该特定位线的存储器单元的所有电流的求和函数。
VMM阵列1500为存储器阵列1503中的非易失性存储器单元实现单向调谐。也就是说,每个非易失性存储器单元被擦除,然后被部分编程,直到达到浮栅上的所需电荷。如果在浮栅上放置过多电荷(使得错误的值存储在单元中),则必须擦除单元,并且部分编程操作的序列必须重新开始。如图所示,共享同一擦除栅(诸如EG0或EG1)的两行需要一起擦除(其被称为页面擦除),并且此后,每个单元被部分编程,直到达到浮栅上的所需电荷。
表8示出用于VMM阵列1500的工作电压。表中的列指示置于用于所选单元的字线、用于未选单元的字线、用于所选单元的位线、用于未选单元的位线、用于所选单元的控制栅、用于与所选单元相同扇区中的未选单元的控制栅、用于与所选单元不同扇区中的未选单元的控制栅、用于所选单元的擦除栅、用于未选单元的擦除栅、用于所选单元的源极线、用于未选单元的源极线上的电压。行指示读取、擦除和编程操作。
表8:图15的VMM阵列1500的操作
Figure BDA0003827252360000171
图16示出神经元VMM阵列1600,该神经元VMM阵列特别适用于图3所示的存储器单元310,并且用作输入层与下一层之间的神经元的突触和部件。VMM阵列1600包括非易失性存储器单元的存储器阵列1603、第一非易失性参考存储器单元的参考阵列1601和第二非易失性参考存储器单元的参考阵列1602。EG线EGR0、EG0、EG1和EGR1竖直延伸,而CG线CG0、CG1、CG2和CG3以及SL线WL0、WL1、WL2和WL3水平延伸。VMM阵列1600与VMM阵列1600类似,不同的是VMM阵列1600实现双向调谐,其中每个单独的单元可以根据需要被完全擦除、部分编程和部分擦除,以由于使用单独的EG线而在浮栅上达到期望的电荷量。如图所示,参考阵列1601和1602将端子BLR0、BLR1、BLR2和BLR3中的输入电流转换成要在行方向上施加到存储器单元的控制栅电压CG0、CG1、CG2和CG3(通过经由多路复用器1614的二极管连接的参考单元的动作)。电流输出(神经元)在位线BL0-BLN中,其中每个位线对来自连接到该特定位线的非易失性存储器单元的所有电流求和。
表9示出用于VMM阵列1600的工作电压。表中的列指示置于用于所选单元的字线、用于未选单元的字线、用于所选单元的位线、用于未选单元的位线、用于所选单元的控制栅、用于与所选单元相同扇区中的未选单元的控制栅、用于与所选单元不同扇区中的未选单元的控制栅、用于所选单元的擦除栅、用于未选单元的擦除栅、用于所选单元的源极线、用于未选单元的源极线上的电压。行指示读取、擦除和编程操作。
表9:图16的VMM阵列1600的操作
Figure BDA0003827252360000181
VMM阵列的输入可为模拟电平、二进制电平、定时脉冲、或数字位,并且输出可为模拟电平、二进制电平、定时脉冲或数字位(在这种情况下,需要输出ADC来将输出模拟电平电流或电压转换成数字位)。
对于VMM阵列中的每个存储器单元,每个权重W可由单个存储器单元或由差分单元或由两个混合存储器单元(2个或更多个单元的平均值)来实现。在差分单元的情况下,需要两个存储器单元来实现权重W作为差分权重(W=W+–W-)。在两个混合存储器单元中,需要两个存储器单元来实现权重W作为两个单元的平均值。
现有技术的非易失性存储器单元阵列的一个缺点是,阵列的源阻抗和沿着阵列输出线(诸如位线)的源阻抗存在较大差异,并且由此导致精度和功率消耗的差异,这取决于为读取操作、编程操作或擦除操作选择的单元及其状态。另一缺点是它可能易受噪声影响。
需要一种具有较低噪声敏感性的改进的VMM系统。
进一步需要一种改进的VMM系统,该VMM系统在操作(读取、编程或擦除)期间具有阵列的基本上恒定的源阻抗,而不管选择了哪个单元或哪些单元。
进一步需要一种改进的VMM系统,该VMM系统在操作(读取、编程或擦除)期间具有基本上恒定的功率消耗,而不管选择了哪个单元或哪些单元。
发明内容
公开了模拟神经存储器阵列的许多实施方案。在某些实施方案中,当阵列中的每个存储器单元在操作时,这些单元具有大致恒定的源阻抗。在某些实施方案中,当读取单元时,阵列内的从位线到位线的功率消耗基本上恒定。在某些实施方案中,自适应地执行权重映射以获得功率和噪声方面的最佳性能。
在一个实施方案中,模拟神经存储器系统包括非易失性存储器单元阵列,其中该单元按行和列布置,该列按物理上相邻的列对布置;其中在每个相邻对内,该相邻对中的一个列包括存储W+值的单元,并且该相邻对中的一个列包括存储W-值的单元,其中该相邻对中的相邻单元存储根据公式W=(W+)–(W-)所得的差分权重W。
在另一实施方案中,模拟神经存储器系统包括:非易失性存储器单元的第一阵列,其中该单元按行和列布置,并且该列中的一个或多个列中的该非易失性存储器单元存储W+值;以及非易失性存储器单元的第二阵列,其中该单元按行和列布置,并且该列中的一个或多个列中的该非易失性存储器单元存储W-值;其中来自该第一阵列和该第二阵列的单元对存储根据公式W=(W+)–(W-)所得的差分权重W。
附图说明
图1示出现有技术的人工神经网络。
图2示出现有技术的分裂栅闪存存储器单元。
图3示出另一现有技术的分裂栅闪存存储器单元。
图4示出另一现有技术的分裂栅闪存存储器单元。
图5示出另一现有技术的分裂栅闪存存储器单元。
图6示出另一现有技术的分裂栅闪存存储器单元。
图7示出现有技术的堆叠栅闪存存储器单元。
图8示出双分裂栅存储器单元。
图9示出使用一个或多个VMM阵列的示例性人工神经网络的不同层级。
图10示出包括VMM阵列和其他电路的VMM系统。
图11示出使用一个或多个VMM系统的示例性人工神经网络。
图12示出VMM阵列的实施方案。
图13示出VMM阵列的另一实施方案。
图14示出VMM阵列的另一实施方案。
图15示出VMM阵列的另一实施方案。
图16示出VMM阵列的另一实施方案。
图17示出VMM系统。
图18A、图18B和图18C示出现有技术的VMM阵列。
图19A、图19B和图19C示出改进的VMM阵列。
图20示出另一改进的VMM阵列。
图21A和图21B示出另一改进的VMM阵列。
图22示出包括冗余阵列的另一改进的VMM阵列。
图23示出包括两个VMM阵列和共享虚拟位线切换电路的另一改进的VMM系统。
图24示出另一改进的VMM系统。
图25示出求和器电路的实施方案。
图26示出求和器电路的另一实施方案。
图27A示出求和器电路的另一实施方案。
图27B示出求和器电路的另一实施方案。
图28A示出输出电路的实施方案。
图28B示出输出电路的另一实施方案。
图28C示出输出电路的另一实施方案。
图29示出神经元输出电路。
图30示出模数转换器的实施方案。
图31示出模数转换器的另一实施方案。
图32示出模数转换器的另一实施方案。
图33示出模数转换器的另一实施方案。
具体实施方式
本发明的人工神经网络利用CMOS技术和非易失性存储器阵列的组合。
改进的VMM系统的实施方案
图17示出VMM系统1700的框图。VMM系统1700包括VMM阵列1701、行解码器1702、高电压解码器1703、列解码器1704、位线驱动器1705、输入电路1706、输出电路1707、控制逻辑部件1708和偏置发生器1709。VMM系统1700还包括高电压生成块1710,该高电压生成块包括电荷泵1711、电荷泵调节器1712和高电压电平发生器1713。VMM系统1700还包括算法控制器1714、模拟电路1715、控制逻辑部件1716和测试控制逻辑部件1717。下文描述的系统和方法可以在VMM系统1700中实现。
输入电路1706可以包括电路,诸如DAC(数模转换器)、DPC(数字到脉冲转换器)、DTC(数字到时间转换器)、AAC(模拟到模拟转换器,诸如电流到电压转换器)、PAC(脉冲到模拟电平转换器)或任何其他类型的转换器。输入电路1706可以实现归一化、尺度函数或算术函数。输入电路1706可以在输入上实现温度补偿函数,诸如根据温度调制输出电压/电流/时间/脉冲。输入电路1706可以实现激活函数,诸如ReLU或sigmoid函数。
输出电路1707可以包括电路,诸如ADC(模数转换器,用于将神经元模拟输出转换为数字位)、AAC(模拟到模拟转换器,诸如电流到电压转换器)、ATC(模拟到时间转换器)、APC(模拟到脉冲转换器)或任何其他类型的转换器。输出电路1707可以实现激活函数,诸如ReLU或sigmoid。输出电路1707可以在神经元输出上实现统计归一化、正则化、上/向下缩放函数、统计舍入或算术函数(例如,加法、减法、除法、乘法、移位、对数),该输出为VMM阵列1701的输出。输出电路1707可以在神经元输出(诸如电压/电流/时间/脉冲)或阵列输出(诸如位线输出)上实现温度补偿函数,以便保持VMM阵列1701的功率消耗大致恒定或诸如通过使V-I斜率保持大致相同来提高VMM阵列1701(神经元)输出的精度。
图18A示出现有技术的VMM系统1800。VMM系统1800包括示例性单元1801和1802、示例性位线开关1803a、1803b、1803c、1803d(其将位线连接到感测电路)、示例性虚拟位线开关1804a、1804b、1804c、1004d(其耦接到低偏置电平,诸如读取中的接地(或接近接地)电平)以及示例性虚拟单元1805和1806(源极线下拉单元)。位线开关1803a耦接到单元列,包括用于在VMM系统1800中存储数据的单元1801和1802。虚拟位线开关1804a、1804b、1804c、1804各自耦接到作为虚拟单元的单元的列(位线),这些虚拟单元不用于在VMM系统1800中存储数据。此虚拟位线(其也可以被称为源极线下拉位线)在读取操作期间用作源极线下拉,这意味着它用于通过虚拟位线中的虚拟单元将源极线拉至低偏置电平,诸如接地(或接近接地)。应注意,虚拟位线开关1804a、1804b、1804c、1804和位线开关1803a、1803b、1803c、1803d均出现在阵列的同一端上,即它们全部出现在它们耦接的单元列的共同端处,并且因此被排列在单个行中。
VMM系统1800的一个缺点是,由于通过相关位线开关、单元本身和相关虚拟位线开关的电路径的长度,每个单元的输入阻抗变化很大。例如,图18B示出了通过位线开关1803、单元1801、虚拟单元1805和虚拟位线开关1804的电路径。类似地,图18C示出了通过位线开关1803、竖直金属位线1807、单元1802、虚拟单元1806、竖直金属位线1808和虚拟位线开关1804的电路径。可以看出,通过单元1802的路径穿过的位线和虚拟位线的长度要大得多,这与更高的电容和更高的电阻相关联。这使得单元1802在位线或源极线中的寄生阻抗大于图18B中的单元1801的寄生阻抗。例如,这种可变性是缺点,因为它会导致应用于读取或验证(对于编程/擦除调谐周期)单元的单元输出精度取决于这些单元在阵列中的位置而变化。
图19A示出VMM系统1900,该VMM系统改进了现有技术的VMM系统1800。VMM系统1900包括:示例性单元1901和1902;示例性位线开关1903a、1903b、1903c和1903d,这些位线开关将位线连接到感测电路;示例性虚拟单元1905和1906,这些虚拟单元可以用作源极线下拉单元;以及示例性虚拟位线开关1904a、1904b、1904c和1904d。作为示例,虚拟位线开关1904a的一端在读取操作期间连接到低电压电平,诸如接地,并且另一端连接到被用作源极线下拉的虚拟单元1905和1906。可以看出,示例性虚拟位线开关1904a和其他虚拟位线开关位于阵列的与位线开关1903a和其他位线开关相对的端上。
在图19B和19C中可以看到这种设计的益处。在图19B中,选择单元1901进行读取,并且在图19C中,选择单元1902进行读取。
图19B示出通过位线开关1903、单元1901、虚拟单元1905(源极线下拉单元)、竖直金属位线1908和虚拟位线开关1904(其在读取操作期间耦接到诸如接地之类的低电平)的电路径。图19C示出通过位线开关1903、竖直金属线1907、单元1902、虚拟单元1906(源极线下拉单元)和虚拟位线开关1904的电路径。这些路径在互连长度方面基本上相同,这适用于VMM系统1900中的所有单元。因此,每个单元的位线阻抗加上源极线阻抗的阻抗基本上相同,这意味着在阵列中每个单元的读取操作或验证操作期间被汲取的寄生电压降的量的变化基本上相同。
图20示出具有全局源极线下拉位线的VMM系统2000。VMM系统2000类似于VMM系统1900,不同的是:虚拟位线2005a-2005n或2007a-2007n连接在一起(以充当全局源极线下拉线以在读取或验证期间将存储器单元源极线拉至接地电平);虚拟位线交换机,诸如虚拟位线开关2001和2002,连接或耦接到标记为ARYGND的共同接地(阵列接地);并且源极线一起耦接到源极线开关2004,该源极线开关选择性地将源极线拉至接地。这些变化进一步减小在读取或验证操作期间阵列中的每个单元的寄生阻抗的变化。
在替代实施方案中,可以使用一个或多个虚拟位线和一个或多个虚拟位线开关代替源极线开关2004以将源极线拉至接地。
在另一实施方案中,虚拟行可用作行之间的物理屏障,以避免行之间的(两个相邻单元的)FG-FG耦接。
图21A示出VMM系统2100。在一些实施方案中,存储在VMM中的权重W被存储为差分对W+(正权重)和W-(负权重),其中W=(W+)-(W-)。在VMM系统2100中,位线的一半被指定为W+线,即连接到将存储正权重W+的存储器单元的位线,并且位线的另一半被指定为W-线,即连接到实现负权重W-的存储器单元的位线。W-线以交替方式散布在W+线之间。减法操作由求和电路(诸如求和电路2101和2102)执行,该求和电路从W+线和W-线接收电流。W+线的输出和W-的输出组合在一起,以对于所有(W+、W-)线对的每个(W+、W-)单元对有效地给出W=W+-W-。任选地,诸如图19和图20所示的那些虚拟位线和源极线下拉位线可以在VMM系统2100中使用以避免(两个相邻单元的)FG-FG耦接和/或在读取或验证操作期间减少源极线中的IR电压降。
图21B示出另一实施方案。在VMM系统2110中,在第一阵列2111中实现正权重W+,并且在与第一阵列分开的第二阵列2112中实现负权重W-,并且所得权重通过求和电路2113适当地组合在一起。任选地,虚拟位线和源极线下拉位线,诸如图19和20所示的那些,可以在VMM系统2110中使用以避免FG-FG耦接和/或减少在读取或验证操作期间源极线中的IR电压降。
VMM系统可以被设计成使得W+和W-对以减少FG到FG耦接的方式放置在阵列内,或者以更均匀方式跨阵列和输出电路分配功率消耗。下面参考表10和表11描述这一点。关于FG到FG耦接现象的更多详细信息,请参阅同一受让人于2020年2月26日提交的并且名称为“深度学习人工神经网络中模拟神经存储器单元的超精密调谐(Ultra-Precise Tuning ofAnalog Neural Memory Cells in a Deep Learning Artificial Neural Network)”第62/981,757号美国临时专利申请,该美国临时专利申请通过引用并入本文中。
表10A示出了两对(W+、W-)位线的布置的示例性物理布局。一对为BL0和BL1,并且第二对为BL2和BL3。在此示例中,4个行耦接到源极线下拉位线BLPWDN。BLPWDN放置在每对(W+、W-)位线之间,以防止一对(W+、W-)位线与另一对(W+、W-)位线之间耦接(例如,FG到FG耦接)。因此,BLPWDN用作成对(W+、W-)位线之间的物理屏障。
表10A:用于W+、W-对的示例性布局
<u>BLPWDN</u> <u>BL0</u> <u>BL1</u> <u>BLPWDN</u> <u>BL2</u> <u>BL3</u> <u>BLPWDN</u>
row0 W01+ W01- W02+ W02-
row1 W11+ W11- W12+ W12-
row2 W21+ W21- W22+ W22-
row3 W31+ W31- W32+ W32-
表10B示出了不同的示例性权重组合。‘1’意味着使用单元并且具有真实输出值,并且‘0’意味着不使用单元并且没有值或没有显著的输出值。
表10B:用于W+、W-对的示例性权重组合
<u>BLPWDN</u> <u>BL0</u> <u>BL1</u> <u>BLPWDN</u> <u>BL2</u> <u>BL3</u> <u>BLPWDN</u>
row0 1 0 1 0
row1 0 1 0 1
row2 0 1 1 0
row3 1 1 1 1
表11A示出了(w+、w-)对线BL0/1和BL2/3的物理布置的另一阵列实施方案。阵列包括冗余线BL01和BL23以及源极线下拉位线BLPWDN。冗余位线BL01用于重新映射来自对BL0/1的值,并且冗余位线BL23用于重新映射来自对BL2/3的值,这将在后面的表中示出。
表11A:用于W+、W-对的示例性布局
<u>BLPWDN</u> <u>BL01</u> <u>BL0</u> <u>BL1</u> <u>BL2</u> <u>BL3</u> <u>BL23</u> <u>BLPWDN</u>
row0 W01+ W01- W02+ W02-
row1 W11+ W11- W12+ W12-
row2 W21+ W21- W22+ W22-
row3 W31+ W31- W32+ W32-
表11B示出了在相邻位线之间不需要重新映射的分布式权重值,相邻位线之间基本上没有相邻的‘1’的示例。
表11B:W+、W-对的示例性权重组合
<u>BLPWDN</u> <u>BL01</u> <u>BL0</u> <u>BL1</u> <u>BL2</u> <u>BL3</u> <u>BL23</u> <u>BLPWDN</u>
row0 1 0 1 0
row1 0 1 0 1
row2 1 0 1 0
row3 0 1 0 1
表11C示出了需要重新映射分布式权重的示例。此处,BL1和BL3中存在相邻的‘1’,这会使得相邻的位线耦接。因此,这些值被重新映射,如表11D所示,使得任何相邻位线之间没有相邻的‘1’值。此外,通过重新映射,现在沿位线的总电流减少,这使得该位线中的值更精确,这也导致沿位线的分布式功率消耗更多。任选地,附加的位线(BL01、BL23)可以任选地用于充当冗余列。
表11C:w+、w-对的示例性权重组合
<u>BLPWDN</u> <u>BL01</u> <u>BL0</u> <u>BL1</u> <u>BL2</u> <u>BL3</u> <u>BL23</u> <u>BLPWDN</u>
row0 0 1 1 0
row1 0 1 1 0
row2 0 1 1 0
row3 0 1 1 0
表11D:用于w+、w-对的重新映射的权重组合
<u>BLPWDN</u> <u>BL01</u> <u>BL0</u> <u>BL1</u> <u>BL2</u> <u>BL3</u> <u>BL23</u> <u>BLPWDN</u>
row0 0 0 1 0 0 1
row1 1 0 0 1 0 0
row2 0 0 1 0 0 1
row3 1 0 0 1 0 0
表11E和11F示出将噪声单元(或缺陷单元)重新映射到冗余列(诸如表11E中的BL01、BL23或表11F中的BL0B和BL1B)的另一实施方案。
表11E:用于w+、w-对的重新映射的权重组合
Figure BDA0003827252360000261
表11F:用于w+、w-对的重新映射的权重组合
Figure BDA0003827252360000262
表11G示出了适用于图21B的阵列的物理布置的实施方案。由于每个位线具有正权重或负权重,因此虚拟位线充当源极线下拉位线或真正的虚拟位线(未使用,例如深入或部分被编程或部分被擦除)和物理屏障以避免每个位线的FG-FG耦接。
表11G:用于w+、w-对的示例性布局
<u>BLPWDN</u> <u>BL0</u> <u>BLPWDN</u> <u>BL1</u> <u>BLPWDN</u>
row0 W01+/- W02+/-
row1 W11+/- W12+/-
row2 W21+/- W22+/-
row3 W31+/- W32+/-
在图10x至图11x中,源极线下拉位线BLPWDN可以实现为真正的虚拟位线BLDUM或隔离位线BLISO,这意味着这些位线用于将数据位线彼此隔离,从而避免了相邻单元的FG-FG耦接。不使用这些位线,因此它们被调谐(编程或擦除)至不会引起FG-FG耦接或使它们易受在同一行或同一扇区中被调谐(被编程或被擦除)的其他单元(例如,深入或部分被编程的单元或部分被擦除的单元)的干扰的状态,使得FG电压处于低水平状态。
在另一实施方案中,耦接到单元列的调谐位线与耦接到单元列的目标位线相邻,并且调谐位线单元用于在使用相邻单元之间的FG-FG耦接的编程操作期间将目标位线单元调谐至期望的目标值。任选地,源极线下拉位线可以在与调谐位线相邻的一侧相对的目标位线的一侧上使用。
可以在将这类单元指定为非使用单元的情况下实现用于映射噪声单元或缺陷单元的替代实施方案,这意味着它们将被(深入地)编程以不对神经元输出贡献任何值。
可以实现用于识别快速单元(其为可以比典型的单元更快地达到某个值的单元)的替代实施方案,其中快速单元被识别并且经历更精确的调谐算法以在编程操作期间不超过目标。
图22示出VMM系统2200。VMM系统2200包括冗余阵列2201,该冗余阵列可以包含在迄今为止讨论的VMM阵列中的任一VMM阵列中。如果附接到位线开关的任何列被认为是有缺陷的,则冗余阵列2201可以用作冗余来替换缺陷列。冗余阵列可以具有其自身的冗余阵列(神经元)输出(例如,位线)和/或冗余写入和验证电路,和/或用于冗余目的的ADC电路。例如,当需要冗余时,冗余ADC的输出将替换坏位线的ADC的输出。冗余阵列2201还可以用于如表10A和10B中所述的权重映射,以在位线之间实现相对均匀的功率分布。
图23示出VMM系统2300,该VMM系统包括阵列2301、阵列2302、列多路复用器2303、本地位线LBL 2305a-d、全局位线GBL 2308和2309以及虚拟位线开关2305a-2305d。列多路复用器2303用于将阵列2301的相应顶部局部位线2305或阵列2302的底部局部位线2305选择至全局位线2308中。在一个实施方案中,(金属)全局位线2308具有与局部位线的数量相同的线数量,例如8或16。在另一实施方案中,全局位线2308每N个局部位线仅具有一个(金属)线,例如每8或16个局部位线具有一个全局位线。列多路复用器2303可以将相邻的全局位线(诸如GBL 2309)多路复用成感兴趣的全局位线(诸如GBL 2308),以有效地增加当前全局位线的宽度。这减少了感兴趣的全局位线(GBL 2308)两端的电压降。
现在将描述可以与本文所述的任何VMM系统一起使用的各种输出电路。
图24示出VMM系统2400。VMM系统2400包括:阵列2410;移位寄存器(SR)2401;数模转换器(DAC)2402,其从SR 2401接收输入并且输出等效(模拟或伪模拟)电平或信息(例如,电压/定时);求和器电路2403;模数转换器(ADC)2404;以及位线开关(未示出)。存在虚拟位线和虚拟位线开关,但未示出。如图所示,ADC电路可以组合在一起以产生具有更大精度(即,更大的位数)的单个ADC。
求和器电路2403可以包括图25-图27中所示的电路。它可以包括用于归一化、缩放、算术运算(例如,加法、减法)、激活或统计舍入的电路,但不限于此。
图25示出可由可变电阻器调节的电流到电压求和器电路2500,该求和器电路包括电流源2501-1、...、2501-n汲取电流Ineu(1)、...、Ineu(n)(这些分别为从VMM阵列的位线接收到的电流)、运算放大器2502、可变保持电容器2504和可变电阻器2503。运算放大器2502输出电压,即Vneuout=R2503*(Ineu(1)+...+Ineu(n)),该电压与电流Ineu(1)、...、Ineu(n)的总和成比例。当开关2506断开时,保持电容器2504用于保持输出电压。这种保持输出电压例如用于通过ADC电路转换为数字位。
图26示出可由可变电容器(基本上为积分器)调节的电流到电压求和器电路2600,该求和器电路包括电流源2601-1、...、2601-n汲取电流Ineu(1)、...、Ineu(n)(其分别为从VMM阵列的位线接收到的电流)、运算放大器2602、可变电容器2603和开关2604。运算放大器2602输出电压,即Vneuout 2605=(Ineu(1)+,...,+Ineu(n))*integration time/C2603,该电压与电流Ineu(1)、...、Ineu(n)的总和成比例。
图27A示出可由可变电容器(即,开关电容器SC电路)调节的电压求和器2700,该电压求和器包括开关2701和2702、可变电容器2703和2704、运算放大器2705、可变电容器2706和开关S1 2707。当开关2701闭合时,输入Vin0被提供至运算放大器2705。当开关2702闭合时,输入Vin1被提供至运算放大器2705。任选地,开关2701和2702不同时闭合。运算放大器2705生成输出Vout,该输出Vout为输入的放大版本(Vin0和/或Vin1,这取决于闭合开关2701与2702之间的哪个开关)。即Vout=Cin/Cout*(Vin),Cin为C2703或C2704,Cout为C2706。例如,Vout=Cin/Cout*∑(Vinx)、Cin=C2703=C2704,其中Vinx可为Vin0或Vin1。在一个实施方案中,Vin0为W+电压,并且Vin1为W-电压,并且电压求和器2700将它们添加在一起(即W+-W-,通过适当启用开关的极性)以产生输出电压Vout。
图27b示出电压求和器2750,该电压求和器包括开关2751(S1)、2752(S3)、2753(S2)和2754(S4)、可变输入电容器2758、运算放大器2755、可变反馈电容器2756和开关2757(S5)。在一个实施方案中,Vin0为W+电压,Vin1为W-电压,电压求和器2750将它们添加在一起(即W+-W-,通过适当启用开关的极性)以产生输出电压Vout。
对于输入=Vin0,当开关2754和2751闭合并且开关2753、2752和2757断开时,将输入Vin0提供至电容器2758的顶部端子,其底部端子连接到VREF。然后,断开开关2751并且闭合开关2753,以将电荷从电容器2758转移至反馈电容器2756。基本上,接着输出VOUT=(C2758/C2756)*Vin0(对于具有例如VREF=0的情况)。
对于输入=Vin1:当开关2753、2754和2757闭合,并且开关2751、2752和2757断开时,电容器2758的两个端子都放电至VREF。然后,断开开关2754并且闭合开关2752,将电容器2758的底部端子充电至Vin1,这又将反馈电容器2756充电至VOUT=-(C2758/C2756)*Vin1(对于VREF=0的情况)。
因此,如果在实现上述用于Vin0的序列之后实现上述用于Vin1输入的序列,则例如在VREF=0的情况下,VOUT=(C2758/C2756)*(Vin 0-Vin1)。这用于例如实现W=W+-W-。
如图27所示的每个ADC可以被配置成与下一个ADC组合,用于具有适当ADC设计的更高位的具体实施。
再次参考图17,VMM阵列1701的输入和输出可以呈数字或模拟形式。例如:
·IN[0:q]至DAC的顺序输入:
·在一个实施方案中,输入电路1706按顺序接收数字输入,从IN0开始,然后是IN1,…,然后是INq。所有输入位具有相同的VCGin。将输入位提供到DAC,该DAC随后将模拟信号作为输入应用于VMM阵列1701。在ADC之前或ADC之后,所有位线(神经元)输出使用调节二进制索引乘法器进行求和。
·在另一实施方案中,使用调节神经元(位线)二进制索引乘法器方法。如图20所示,示例性求和器具有两个位线BL0和Bln。权重分布在多个位线BL0到BLn之间。例如,存在4个位线BL0、BL1、BL2、BL3。位线BL0的输出乘以2^0=1。位线BLn的代表第n个二进制位位置的输出乘以2^n,例如,对于n=3,2^3=8。然后将适当乘以二进制位位置2^n后的所有位线的输出进行求和。然后由ADC进行数字化。此方法意味着所有单元仅具有二进制范围,多级范围(n位)由外围电路(即求和器电路)完成。因此,对于存储器单元的最高偏置电平,所有位线的电压降大致相同。
·在另一实施方案中,以顺序方式应用数字输入IN0、IN1、...、然后是INq。每个输入位具有对应的模拟值VCGin。在ADC之前或ADC之后,所有神经元输出均被求和为所有输入位评估。
·DAC的并行输入:
·在另一个实施方案中,以并行方式将输入IN0、...INq提供至DAC。[0:q]中的每个输入均具有对应的模拟值VCGin。在ADC之前或在ADC之后,使用调整二进制索引乘法器方法对所有神经元输出进行求和。
在涉及阵列的顺序操作的实施方案中,功率分布更均匀。
在利用神经元(位线)二进制索引方法的实施方案中,阵列中的功率消耗降低,因为耦接到位线的每个单元仅包含二进制电平,2^n电平由求和器电路实现。
图28A、图28B和图28C示出可用于图24中的求和器电路2403和模数转换器2404的输出电路。
图28A示出输出电路2800,该输出电路包括接收神经元输出2801并输出输出数字位2803的模数转换器2802。
图28B示出输出电路2810,该输出电路包括一起接收神经元输出2801并产生输出2813的神经元输出电路2811和模数转换器2812。
图28C示出输出电路2820,该输出电路包括一起接收神经元输出2801并产生输出2823的神经元输出电路2821和转换器2822。
神经元输出电路2811或2821可以例如执行求和、缩放、归一化或算术运算,但不限于此。例如,转换器2822可以执行ADC、PDC、AAC或APC操作,但不限于此。
图29示出神经元输出电路2900,该神经元输出电路包括可调节(缩放)电流源2901和可调节(缩放)电流源2902,这两个电流源一起产生输出iOUT,即神经元输出。该电路可以同时执行正权重W+和负权重W-的求和,即W=W+-W-,和输出神经元电流的上下缩放(通过调节可调节电流源2901和2902)。也就是说,IW+为W+的缩放版本,并且IW-为W-的缩放版本。
图30示出可配置的串行模数转换器3000。它包括积分器3070,该积分器将神经元输出电流集成到积分电容器3002(Cint)中。
在一个实施方案中,将VRAMP 3050提供至比较器3004的反相输入。数字输出(计数值)3021通过使VRAMP 3050斜变产生,直到比较器3004切换极性,其中计数器3020从斜变开始对时钟脉冲进行计数。
在另一实施方案中,将VREF 3055提供至比较器3004的反相输入。VC 3010通过斜变电流3051(IREF)斜降,直到VOUT 3003达到VREF 3055,此时EC 3005信号禁用计数器3020的计数。(n位)ADC 3000可被配置成具有较低精度(小于n位)或较高精度(大于n位),这取决于目标应用。精度的可配置性通过配置电容器3002的电容、电流3051(IREF)、VRAMP 3050的斜变速率或时钟3041的时钟频率来实现,但不限于此。
在另一实施方案中,VMM阵列的ADC电路被配置成具有低于n位的精度,而另一VMM阵列的ADC电路被配置成具有高于这些位的高精度。
在另一实施方案中,一个神经元电路的串行ADC电路3000的一个实例被配置成与下一神经元电路的串行ADC电路3000的另一实例组合,以例如通过组合串行ADC电路3000的两个实例的积分电容器3002来产生具有高于n位精度的ADC电路。
图31示出可配置神经元SAR(逐次逼近寄存器)模数转换器3100。该电路是基于使用二进制电容器进行电荷再分配的逐次逼近转换器。该电路包括二进制CDAC(基于电容器的DAC)3101、运算放大器/比较器3102、SAR逻辑和寄存器3103。如图所示,GndV 3104是低电压参考电平,例如接地电平。SAR逻辑和寄存器3103提供数字输出3106。
图32示出可配置的神经元组合SAR模数转换器电路3200。该电路将来自两个神经元电路的两个n位ADC组合为一个,以实现比n位更高的精度,例如,对于一个神经元电路的4位ADC,该电路可以通过组合两个4位ADC来实现>4位精度,诸如8位ADC精度。组合电路拓扑相当于分割电容器(桥接电容器(cap)或关注cap)SAR ADC电路,例如通过组合两个相邻的4位4C SAR ADC电路而产生的8位4C-4C SAR ADC。使用桥接电路3204(Csplit)来实现这一点,该电路的电容为=(CDAC电容器单元的总数/CDAC电容器单元的总数-1)。
图33示出流水线SAR ADC电路3300,该电路可用于与下一个SAR ADC组合,以按流水线方式增加位数。SAR ADC电路3300包括二进制CDAC(基于电容器的DAC)3301、运算放大器/比较器3302、运算放大器/比较器3303、SAR逻辑和寄存器3304。如图所示,GndV 3104是低电压参考电平,例如接地电平。SAR逻辑和寄存器3103提供数字输出3106。Vin为输入电压,VREF为参考电压,并且GndV为接地电压。Vresidue由电容器3305产生,并作为输入提供至SAR ADC的下一级。
关于可配置输出神经元(诸如可配置神经元ADC)电路的附加具体实施细节,请参见同一受让人于2019年6月21日提交的并且名称为“深度学习人工神经网络中模拟神经存储器的可配置输入块和输出块以及物理布局(Configurable Input Blocks and OutputBlocks and Physical Layout for Analog Neural Memory in a Deep LearningArtificial Neural Network)”的第16/449,201号美国专利,该美国专利通过引用的方式并入本文。
应当指出,如本文所用,术语“在…上方”和“在…上”两者包容地包括“直接在…上”(之间未设置中间材料、元件或空间)和“间接在…上”(之间设置有中间材料、元件或空间)。类似地,术语“相邻”包括“直接相邻”(之间没有设置中间材料、元件或空间)和“间接相邻”(之间设置有中间材料、元件或空间),“安装到”包括“直接安装到”(之间没有设置中间材料、元件或空间)和“间接安装到”(之间设置有中间材料、元件或空间),并且“电耦接至”包括“直接电耦接至”(之间没有将元件电连接在一起的中间材料或元件)和“间接电耦接至”(之间有将元件电连接在一起的中间材料或元件)。例如,“在衬底上方”形成元件可包括在两者间没有中间材料/元件的情况下在衬底上直接形成元件,以及在两者间有一个或多个中间材料/元件的情况下在衬底上间接形成元件。

Claims (33)

1.一种模拟神经存储器系统,包括:
非易失性存储器单元阵列,其中所述单元按行和列布置,所述列按物理上相邻的列对布置;
其中在每个相邻对内,所述相邻对中的一个列包括存储W+值的单元,并且所述相邻对中的一个列包括存储W-值的单元,其中所述相邻对中的相邻单元存储根据公式W=(W+)–(W-)所得的差分权重W。
2.根据权利要求1所述的系统,还包括靠近所述相邻的列对中的至少一对的虚拟列。
3.根据权利要求2所述的系统,其中所述虚拟列用作源极线下拉位线。
4.根据权利要求1所述的系统,其中所述阵列包括用作冗余阵列的一组非易失性存储器单元列。
5.根据权利要求1所述的系统,其中所述阵列中的所述非易失性存储器单元为分裂栅闪存存储器单元。
6.根据权利要求1所述的系统,其中所述阵列中的所述非易失性存储器单元为堆叠栅闪存存储器单元。
7.根据权利要求1所述的系统,还包括用于对来自一个或多个位线的输出进行求和的求和器。
8.根据权利要求7所述的系统,其中所述求和器能够基于可变电阻器进行调节。
9.根据权利要求7所述的系统,其中所述求和器能够基于可变电容器进行调节。
10.根据权利要求7所述的系统,其中所述求和器包括开关式电容器电路和运算放大器。
11.根据权利要求7所述的系统,还包括用于将所述求和器的输出转换为数字信号的模数转换器。
12.根据权利要求11所述的系统,其中所述模数转换器包括逐次逼近寄存器。
13.根据权利要求12所述的系统,其中所述模数转换器包括流水线模数转换器。
14.根据权利要求1所述的系统,还包括:
冗余列,其中存储在W+列或W-列中的值被重新映射到所述冗余列。
15.根据权利要求14所述的系统,其中所述重新映射去除相邻的列对中的两个相邻单元之间的耦接。
16.根据权利要求14所述的系统,其中所述重新映射在位线之间重新分配电力或电压降中的一者或多者。
17.根据权利要求14所述的系统,其中所述重新映射将噪声单元重新映射到所述冗余列中。
18.一种模拟神经存储器系统,包括:
非易失性存储器单元的第一阵列,其中所述单元按行和列布置,并且所述列中的一个或多个列中的所述非易失性存储器单元存储W+值;以及
非易失性存储器单元的第二阵列,其中所述单元按行和列布置,并且所述列中的一个或多个列中的所述非易失性存储器单元存储W-值;
其中来自所述第一阵列和所述第二阵列的单元对存储根据公式W=(W+)–(W-)所得的差分权重W。
19.根据权利要求18所述的系统,还包括源极线下拉位线。
20.根据权利要求18所述的系统,还包括冗余列。
21.根据权利要求20所述的系统,其中所述冗余列用于从W+列或W-列重新映射权重。
22.根据权利要求21所述的系统,其中所述冗余列用于重新映射权重以避免浮栅到浮栅的耦接。
23.根据权利要求21所述的系统,其中所述冗余列用于重新映射权重以在所述列之间更均匀地分配电力。
24.根据权利要求21所述的系统,其中所述冗余列用于从噪声单元或缺陷单元重新映射权重。
25.根据权利要求18所述的系统,其中所述第一阵列和所述第二阵列中的所述非易失性存储器单元为分裂栅闪存存储器单元。
26.根据权利要求18所述的系统,其中所述第一阵列和所述第二阵列中的所述非易失性存储器单元为堆叠栅闪存存储器单元。
27.根据权利要求18所述的系统,还包括用于对来自一个或多个位线的输出进行求和的求和器。
28.根据权利要求27所述的系统,其中所述求和器能够基于可变电阻器进行调节。
29.根据权利要求27所述的系统,其中所述求和器能够基于可变电容器进行调节。
30.根据权利要求27所述的系统,其中所述求和器包括开关式电容器电路和运算放大器。
31.根据权利要求27所述的系统,还包括用于将所述求和器的输出转换为数字信号的模数转换器。
32.根据权利要求31所述的系统,其中所述模数转换器包括逐次逼近寄存器。
33.根据权利要求31所述的系统,其中所述模数转换器为流水线模数转换器。
CN202080097943.4A 2020-03-05 2020-09-04 在人工神经网络中的差分单元对中存储突触权重的模拟神经存储器阵列 Pending CN115280327A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062985826P 2020-03-05 2020-03-05
US62/985,826 2020-03-05
US16/987,101 US11600321B2 (en) 2020-03-05 2020-08-06 Analog neural memory array storing synapsis weights in differential cell pairs in artificial neural network
US16/987,101 2020-08-06
PCT/US2020/049294 WO2021178003A1 (en) 2020-03-05 2020-09-04 Analog neural memory array storing synapsis weights in differential cell pairs in artificial neural network

Publications (1)

Publication Number Publication Date
CN115280327A true CN115280327A (zh) 2022-11-01

Family

ID=77556303

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202080097957.6A Pending CN115210811A (zh) 2020-03-05 2020-09-03 人工神经网络中具有基本上恒定阵列源极阻抗、具有适应性权重映射和分布式功率的模拟神经存储器阵列
CN202080097943.4A Pending CN115280327A (zh) 2020-03-05 2020-09-04 在人工神经网络中的差分单元对中存储突触权重的模拟神经存储器阵列

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202080097957.6A Pending CN115210811A (zh) 2020-03-05 2020-09-03 人工神经网络中具有基本上恒定阵列源极阻抗、具有适应性权重映射和分布式功率的模拟神经存储器阵列

Country Status (7)

Country Link
US (3) US11600321B2 (zh)
EP (2) EP4115423A1 (zh)
JP (3) JP7428820B2 (zh)
KR (2) KR20220144382A (zh)
CN (2) CN115210811A (zh)
TW (3) TWI769710B (zh)
WO (2) WO2021178002A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6708146B2 (ja) * 2017-03-03 2020-06-10 株式会社デンソー ニューラルネットワーク回路
US20210125049A1 (en) * 2019-10-29 2021-04-29 Taiwan Semiconductor Manufacturing Co., Ltd. System for executing neural network
US11532354B2 (en) * 2020-03-22 2022-12-20 Silicon Storage Technology, Inc. Precision tuning of a page or word of non-volatile memory cells and associated high voltage circuits for an analog neural memory array in an artificial neural network
US20210350217A1 (en) * 2020-05-10 2021-11-11 Silicon Storage Technology, Inc. Analog neural memory array in artificial neural network with source line pulldown mechanism
US11875852B2 (en) * 2020-07-06 2024-01-16 Silicon Storage Technology, Inc. Adaptive bias decoder to provide a voltage to a control gate line in an analog neural memory array in artificial neural network
JP2023088730A (ja) * 2021-12-15 2023-06-27 キオクシア株式会社 演算システム
US20240028211A1 (en) 2022-07-13 2024-01-25 Macronix International Co., Ltd. Memory device for computing in-memory
CN116486857B (zh) * 2023-05-17 2024-04-02 北京大学 一种基于电荷再分配的存内计算电路

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5022009A (en) 1988-06-02 1991-06-04 Mitsubishi Denki Kabushiki Kaisha Semiconductor memory device having reading operation of information by differential amplification
US5023837A (en) 1989-09-05 1991-06-11 Texas Instruments Incorporated Bitline segmentation in logic arrays
US5029130A (en) 1990-01-22 1991-07-02 Silicon Storage Technology, Inc. Single transistor non-valatile electrically alterable semiconductor memory device
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
KR100316060B1 (ko) 1998-06-16 2002-02-19 박종섭 플래시메모리의레이아웃및그형성방법
US6069824A (en) 1999-03-03 2000-05-30 Matsushita Electric Industrial Co., Ltd. Semiconductor memory device
US6747310B2 (en) 2002-10-07 2004-06-08 Actrans System Inc. Flash memory cells with separated self-aligned select and erase gates, and process of fabrication
US7313023B2 (en) 2005-03-11 2007-12-25 Sandisk Corporation Partition of non-volatile memory array to reduce bit line capacitance
KR101380187B1 (ko) 2007-10-08 2014-04-03 삼성전자주식회사 저전력, 낮은 독출 디스터번스를 갖는 비휘발성 메모리 장치 및 그것의 프리챠지 방법 및 독출 방법
KR101434401B1 (ko) * 2007-12-17 2014-08-27 삼성전자주식회사 집적 회로 메모리 장치
US8379456B2 (en) * 2009-10-14 2013-02-19 Samsung Electronics Co., Ltd. Nonvolatile memory devices having dummy cell and bias methods thereof
CN106531212B (zh) 2015-09-11 2020-02-07 硅存储技术公司 将存储器单元用作源极线下拉电路的闪速存储器系统
CN109074845B (zh) * 2016-03-23 2023-07-14 Gsi 科技公司 存储器内矩阵乘法及其在神经网络中的使用
WO2017200883A1 (en) 2016-05-17 2017-11-23 Silicon Storage Technology, Inc. Deep learning neural network classifier using non-volatile memory array
US9953719B2 (en) 2016-05-18 2018-04-24 Silicon Storage Technology, Inc. Flash memory cell and associated decoders
US9910827B2 (en) 2016-07-01 2018-03-06 Hewlett Packard Enterprise Development Lp Vector-matrix multiplications involving negative values
US9875780B1 (en) 2016-08-30 2018-01-23 International Business Machines Corporation STT MRAM source line configuration
US10303998B2 (en) * 2017-09-28 2019-05-28 International Business Machines Corporation Floating gate for neural network inference
US11354562B2 (en) 2018-01-03 2022-06-07 Silicon Storage Technology, Inc. Programmable neuron for analog non-volatile memory in deep learning artificial neural network
US10552510B2 (en) 2018-01-11 2020-02-04 Mentium Technologies Inc. Vector-by-matrix multiplier modules based on non-volatile 2D and 3D memory arrays
US10719296B2 (en) * 2018-01-17 2020-07-21 Macronix International Co., Ltd. Sum-of-products accelerator array
US10957392B2 (en) * 2018-01-17 2021-03-23 Macronix International Co., Ltd. 2D and 3D sum-of-products array for neuromorphic computing system
US10242737B1 (en) * 2018-02-13 2019-03-26 Macronix International Co., Ltd. Device structure for neuromorphic computing system
US10735675B2 (en) * 2018-04-13 2020-08-04 Cornell University Configurable image processing system and methods for operating a configurable image processing system for multiple applications
JP7124498B2 (ja) 2018-07-06 2022-08-24 株式会社デンソー ニューラルネットワーク回路
US10522226B2 (en) 2018-05-01 2019-12-31 Silicon Storage Technology, Inc. Method and apparatus for high voltage generation for analog neural memory in deep learning artificial neural network
CN108695332B (zh) * 2018-05-18 2021-05-07 上海华虹宏力半导体制造有限公司 分栅式闪存及其形成方法、控制方法
KR102105936B1 (ko) 2018-06-25 2020-05-28 포항공과대학교 산학협력단 웨이트 행렬 입력 회로 및 웨이트 행렬 회로
US11568229B2 (en) 2018-07-11 2023-01-31 Silicon Storage Technology, Inc. Redundant memory access for rows or columns containing faulty memory cells in analog neural memory in deep learning artificial neural network
US10643119B2 (en) * 2018-07-24 2020-05-05 Sandisk Technologies Llc Differential non-volatile memory cell for artificial neural network
US10860918B2 (en) 2018-08-21 2020-12-08 Silicon Storage Technology, Inc. Analog neural memory system for deep learning neural network comprising multiple vector-by-matrix multiplication arrays and shared components
US11042797B2 (en) * 2019-01-08 2021-06-22 SimpleMachines Inc. Accelerating parallel processing of data in a recurrent neural network
US11132176B2 (en) * 2019-03-20 2021-09-28 Macronix International Co., Ltd. Non-volatile computing method in flash memory
US20200349422A1 (en) 2019-05-02 2020-11-05 Silicon Storage Technology, Inc. Output array neuron conversion and calibration for analog neural memory in deep learning artificial neural network

Also Published As

Publication number Publication date
TW202141496A (zh) 2021-11-01
US20210280239A1 (en) 2021-09-09
US11355184B2 (en) 2022-06-07
WO2021178002A1 (en) 2021-09-10
KR20220125305A (ko) 2022-09-14
US20230178147A1 (en) 2023-06-08
TW202203226A (zh) 2022-01-16
TWI769710B (zh) 2022-07-01
TW202322128A (zh) 2023-06-01
US11908513B2 (en) 2024-02-20
JP7428820B2 (ja) 2024-02-06
TWI832710B (zh) 2024-02-11
WO2021178003A1 (en) 2021-09-10
JP2023515679A (ja) 2023-04-13
US11600321B2 (en) 2023-03-07
EP4115423A1 (en) 2023-01-11
CN115210811A (zh) 2022-10-18
KR20220144382A (ko) 2022-10-26
JP2024056734A (ja) 2024-04-23
US20210280240A1 (en) 2021-09-09
TWI790551B (zh) 2023-01-21
EP4115343A1 (en) 2023-01-11
JP2023515680A (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
TWI790551B (zh) 人工神經網路中於差異單元對中儲存有突觸權重的類比神經記憶體陣列
CN115298738A (zh) 用于人工神经网络中的模拟神经存储器阵列的非易失性存储器单元的页或字的精度调谐和相关联的高电压电路
CN115885345A (zh) 模拟神经存储器中的并发写入和验证操作
US20240079064A1 (en) Neural network array comprising one or more coarse cells and one or more fine cells
TWI785574B (zh) 具有源極線下拉機制之人工神經網路中之類比神經記憶體陣列
TWI780719B (zh) 非揮發性記憶體系統
US20230244903A1 (en) Artificial neural network comprising an analog array and a digital array
US20220374696A1 (en) Split array architecture for analog neural memory in a deep learning artificial neural network
US20230048411A1 (en) Input circuitry for analog neural memory in a deep learning artificial neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination