CN108154225A - 一种使用模拟计算的神经网络芯片 - Google Patents

一种使用模拟计算的神经网络芯片 Download PDF

Info

Publication number
CN108154225A
CN108154225A CN201611110147.1A CN201611110147A CN108154225A CN 108154225 A CN108154225 A CN 108154225A CN 201611110147 A CN201611110147 A CN 201611110147A CN 108154225 A CN108154225 A CN 108154225A
Authority
CN
China
Prior art keywords
conducting wire
longitudinal
neural network
current potential
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611110147.1A
Other languages
English (en)
Other versions
CN108154225B (zh
Inventor
戴瑾
郭民
郭一民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ciyu Information Technologies Co Ltd
Original Assignee
Shanghai Ciyu Information Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ciyu Information Technologies Co Ltd filed Critical Shanghai Ciyu Information Technologies Co Ltd
Priority to CN201611110147.1A priority Critical patent/CN108154225B/zh
Publication of CN108154225A publication Critical patent/CN108154225A/zh
Application granted granted Critical
Publication of CN108154225B publication Critical patent/CN108154225B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/02Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements
    • G11C11/16Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements using elements in which the storage effect is based on magnetic spin effect
    • G11C11/165Auxiliary circuits
    • G11C11/1653Address circuits or decoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Computer Hardware Design (AREA)
  • Semiconductor Memories (AREA)

Abstract

本发明公开了一种使用模拟计算的神经网络芯片,包括:阵列形式的多个突触,其中每个突触由一个忆阻器和一个选择器串联组成,阵列中的各个突触经由横向导线和纵向导线,所有的权重存储在这个阵列中;预定层的全部或部分神经元的输出接到阵列的横向导线,与所述预定层相邻的层的全部和部分神经元的输入连接到纵向导线。

Description

一种使用模拟计算的神经网络芯片
技术领域
本发明涉及半导体芯片领域以及人工智能领域,尤其涉及一种使用模拟计算的神经网络芯片。
背景技术
人脑是一个由大量神经元复杂连接的网络。每个神经元通过大量的树突连接大量的其他神经元,接收信息,每一个连接点叫突触(Synapse)。在外部刺激积累到一定程度后,产生一个刺激信号,通过轴突传送出去。轴突有大量的末梢,通过突触,连接到大量其他神经元的树突。就是这样一个由简单功能的神经元组成的网络,实现了人类所有的智能活动。人的记忆和智能,普遍被认为存储在每一个突触的不同的耦合强度里。
神经元的反应频率不超过100Hz,现代计算机的CPU比人脑快1000万倍,但处理很多复杂问题的能力不如人脑。这促使了计算机行业开始模仿人脑。最早的对人脑的模仿,是在软件层面的。
神经网络(Neural Networks)是计算机学习中常用的算法。神经网络算法中的神经元就是一个函数,它有很多个输入,每一个输入都对应着一个权重。一般的算法是每一个输入乘以权重在相加。它输出0或1(由一个阈值决定),或者一个介于0和1之间的值。一个典型的神经网络,是把大量细胞阵列(Neuron)的输出输入连接在一起的网络,通常组织成多级架构。它内部有很多个参数(权重、阈值),学习训练的过程就是调整这些参数。这是一个需要海量计算的函数优化。这类算法,已经取得了丰富的成果,得到广泛应用。
神经网络算法中的网络都是分成很多层的。最早的网络,上一层的每一个神经元和下一层的每一个神经元连接,成为全连通的网络。全连通网络的一个问题,在于图像处理这类应用中,图像的像素很多,每一层需要的权重数量正比于像素平方,由此该方案占用内存太大,计算量更是无法应付。
在卷积神经网络中,前面的很多层不再是全连通的。每一层的神经元作为一个图像被排成阵列。下一层的每一个神经元只和这一层的一个小区域连通。小区域常常是一个边长为k的方形区域,k称为卷积网络的内核尺寸(Kernel Size),如图1所示。
卷积神经网络(Convolutional Neural Network,CNN)因为对这个小区域的各个点加权重的求和类似卷积而得名。这一组权重在各个同一层细胞中的各个点都是一样的(既平移不变性),从而跟全连通网络相比大幅度减少权重数量,使得高分辨率的图像处理成为可能。一个卷积神经网络包括多个这样连通的层,以及其他种类的层。
随着深度学习应用的普及,人们开始开发专用的神经网络芯片。用专用电路实现神经元计算的加法和乘法,比用CPU或者GPU高效得多。
磁阻式随机访问存储器(Magnetic Random Access Memory,MRAM)是一种新的内存和存储技术,可以像SRAM/DRAM一样快速随机读写,并且比DRAM快;还可以像闪存一样在断电后永久保留数据,并且不像NAND它可以不限次地擦写。
MRAM的经济性想当地好,单位容量占用的硅片面积比SRAM(通常作为CPU的缓存)有很大的优势,有望接近DRAM的水平。它的性能也相当好,读写时延接近最好的SRAM,功耗则在各种内存和存储技术最好。而且MRAM不像DRAM以及闪存那样与标准CMOS半导体工艺不兼容。MRAM可以和逻辑电路集成到一个芯片中。有了MRAM技术,就可以把内存、存储、计算三个功能集成到一个芯片上来。新的计算架构就有可能。
MRAM的原理是基于一个叫做MTJ(磁性隧道结)的结构。它是由两层铁磁性材料(记忆层10和参考层30)夹着一层非常薄的非铁磁绝缘材料层(隧道势垒层20)组成的,如图1所示。下面的一层铁磁材料是具有固定磁化方向的参考层30,上面的铁磁材料是可变磁化方向的记忆层10,它的磁化方向可以和固定磁化层相平行或反平行。由于量子物理的效应,电流可以穿过中间的隧道势垒层20,但是MTJ的电阻和可变磁化层的磁化方向有关。图2示出了低电阻的情况,图3示出了高电阻的情况。
读取MRAM的过程就是对MTJ的电阻进行测量。使用比较新的STT-MRAM技术,写MRAM也比较简单:使用比读更强的电流穿过MTJ进行写操作。一个自下而上的电流把可变磁化层置成与固定层平行的方向,自上而下的电路把它置成反平行的方向。
如图4所示,每个MRAM的记忆单元由一个MTJ和一个MOS管组成。每一个存储单元需要连接三根线:MOS管的栅极连接到芯片的字线负责接通或切断这个单元;MOS管的一极连在源极线上;MOS管的另一极和MTJ的一极相连,MTJ的另一极连在位线上。
目前的神经网络芯片大都使用数字电路,内部嵌入SRAM或MRAM存储权重。但是,这种方案会消耗大量电能,并且效率不高。而且,目前的全连通神经网络计算量非常大,采用怎样的硬件设计提供快速的计算是一个挑战。
因此,本领域的技术人员致力于开发一种更省电更高效而且计算更快的技术方案。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是提供一种更省电更高效而且计算更快的使用模拟计算的神经网络芯片。
为实现上述目的,本发明提供了一种使用模拟计算的神经网络芯片,包括:阵列形式的多个突触,其中每个突触由一个忆阻器(电阻可控器件)和一个选择器串联组成,阵列中的各个突触经由横向导线和纵向导线,所有的权重存储在这个阵列中;预定层的全部或部分神经元的输出接到阵列的横向导线,与所述预定层相邻的层的全部和部分神经元的输入连接到纵向导线。
在所述的使用模拟计算的神经网络芯片中,选择器是一个在两个方向超过预定电压即导通的器件,可以是使从横向导线到纵向导线的方向上正向导通的二极管。
在所述的使用模拟计算的神经网络芯片中,每个神经元包括电荷积分器和脉冲发生器;其中,预定层的神经元的输出脉冲经由具有不同电阻的突触接收而产生相应电流,所述相应电流流入到与所述预定层相邻的层的神经元的电流积分器而被积累起来以产生被积累的电荷,被积累的电荷在导致相应的脉冲发射器发射脉冲后清零。
在所述的使用模拟计算的神经网络芯片中,忆阻器是磁性隧道结。
在所述的使用模拟计算的神经网络芯片中,在每一个神经元的输入输出端配置有写驱动电路,用于控制相关横向导线和纵向导线的电位以完成写操作。
在所述的使用模拟计算的神经网络芯片中,每一个权重存储单元配置有一个突触作为参考单元,参考单元的二极管的在横向导线至纵向导线的方向上的导通方向与作为存储单元的所述阵列形式的多个突触相反。
在所述的使用模拟计算的神经网络芯片中,神经元输出时向存储单元或参考单元发射相反的脉冲,向存储单元发射的脉冲分别比基准电位高预定电压,向参考单元发射的脉冲分别比基准电位低预定电压。
在所述的使用模拟计算的神经网络芯片中,存储单元或参考单元的位线都通过开关管连接到相应电荷积分器的输入端。
在所述的使用模拟计算的神经网络芯片中,所有电荷积分器具有相同的基准电位。
在所述的使用模拟计算的神经网络芯片中,所述忆阻器是MTJ,而且在每一个神经元的输入输出端加入写驱动电路来控制相关横向导线和纵向导线的电位。
在所述的使用模拟计算的神经网络芯片中,在每一个神经元的输入输出端加入写驱动电路来控制相关横向导线和纵向导线的电位的步骤包括:
首先相关横向导线置高电位,需要写入0的纵向导线置低电位,相关横向导线电位与需要写入0的纵向导线的电位差等于二极管正向导通压降与发生写入操作时MTJ需要的压降之和,其它横向导线置等于或低于这些纵向导线的电位,其它纵向导线等于或高于该横向导线的电位,由此所有的0得到写入;
然后相关横向导线置低电位,需要写入1的纵向导线的置高电位,相关横向导线与需要写入1的纵向导线的电位差等于二极管的反向导通压降与发生写入操作时MTJ需要的压降之和,其它横向导线电位低于这些纵向导线而且高于这些纵向导线电位减去二极管的反向导通压降的差,其它纵向导线电位等于或高于其它横向导线的电位而且低于这些纵向导线电位减去发生写入操作时MTJ需要的压降的差,由此所有的1得到写入。
在所述的使用模拟计算的神经网络芯片中,在每一个神经元的输入输出端加入写驱动电路来控制相关横向导线和纵向导线的电位的步骤包括:
首先相关纵向导线置高电位,需要写入0的横向导线置低电位,相关纵向导线电位与需要写入0的横向导线的电位差等于二极管正向导通压降与发生写入操作时MTJ需要的压降之和,其它纵向导线置等于或低于这些横向导线的电位,其它横向导线等于或高于该纵向导线的电位,由此所有的0得到写入;
然后相关纵向导线置低电位,需要写入1的横向导线的置高电位,相关纵向导线与需要写入1的横向导线的电位差等于二极管的反向导通压降与发生写入操作时MTJ需要的压降之和,其它纵向导线电位低于这些横向导线而且高于这些横向导线电位减去二极管的反向导通压降的差,其它横向导线电位等于或高于其它纵向导线的电位而且低于这些横向导线电位减去发生写入操作时MTJ需要的压降的差,由此所有的1得到写入。
在所述的使用模拟计算的神经网络芯片中,权重有多个比特,所有权重的相应位置的比特存储在相同的阵列中,第1个比特的存储单元的脉冲高度为V_f+V_read;对于第1个比特之外的其它比特,第n个比特的存储单元的脉冲高度为V_f+2^(n-1)V_read,参考单元的脉冲高度为Vb-[V_f+(2^n–1)V_read];其中,n为权重的比特数,V_f是二极管正向导通压降,V_read是存储单元的读取电压。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
结合附图,并通过参考下面的详细描述,将会更容易地对本发明有更完整的理解并且更容易地理解其伴随的优点和特征,其中:
图1是卷积神经网络的架构。
图2是MRAM的磁性隧道结的结构低电阻的情况的示意图。
图3是MRAM的磁性隧道结的结构高电阻的情况的示意图。
图4是MRAM存储单元的架构示意图。
图5是根据本发明优选实施例的使用模拟计算的神经网络芯片的总体结构示意图。
图6是根据本发明优选实施例的突触阵列的截面示意图。
图7是根据本发明优选实施例的使用模拟计算的神经网络芯片的电流流通示意图。
图8是根据本发明优选实施例的示意图。
需要说明的是,附图用于说明本发明,而非限制本发明。注意,表示结构的附图可能并非按比例绘制。并且,附图中,相同或者类似的元件标有相同或者类似的标号。
具体实施方式
本发明提出使用MTJ+选择器(选通二极管)的阵列,直接使用MTJ的电阻进行神经网络的计算,由此使得可以在一个周期内完成全连通网络的所有计算,极大地提高了芯片性能。
图5是根据本发明优选实施例的使用模拟计算的神经网络芯片的总体结构示意图。
如图5所示,根据本发明优选实施例的使用模拟计算的神经网络芯片包括:阵列形式的多个突触40,其中每个突触40由一个忆阻器41和一个选择器(例如,二极管42)串联组成,阵列中的各个突触经由横向导线50和纵向导线60,所有的权重存储在这个阵列中。
优选地,忆阻器41是相变存储器(PCRAM)和阻变式存储器(Resistive RandomAccess Memory,RRAM)的存储器件、或者MRAM的存储器件磁性隧道结MTJ。
预定层(例如,第N层)的全部或部分神经元N1、N2、N3、N4、N5的输出接到阵列的横向导线50,与所述预定层相邻的层(例如,第N+1层)的全部和部分神经元N10、N20、N30、N40的输入连接到纵向导线60,二极管在从横向导线50到纵向导线60的方向上导通。
每个神经元包括电荷积分器和脉冲发生器;其中,预定层的神经元的输出脉冲经由具有不同电阻的突触接收而产生相应电流,所述相应电流流入到与所述预定层相邻的层的神经元的电流积分器而被积累起来以产生被积累的电荷(并例如进行类脑计算),被积累的电荷在导致相应的脉冲发射器发射脉冲后清零。
如图7所示,加入二极管使得一个神经元的输出和另一个一个神经元的输入之间只有一条电流通路。
在具体应用时,如果由于导线上的负载等技术限制,这个阵列可能不能做得太大。两个全连通神经网络层前一层的神经元可以划分为X组,后一层的神经元Y组,网络可以由X*Y个这样的阵列组成。
其中,在忆阻器41是MTJ的情况下,优选地,在每一个神经元的输入输出端加入写驱动电路来控制相关横向导线50和纵向导线60的电位。具体地,例如可以采用如下步骤:(在此,引发从行到列的写电流把MTJ置于一个状态,称之为0,称相反状态的状态是1)
a)至少分两次写入同一行上的所有突触
i.首先该横向导线50置高电位,需要写入0的纵向导线60置低电位,二者电位的差=V_f(二极管正向导通压降)+V_w(发生写入操作时MTJ需要的压降),其它横向导线50置等于或略低于这些纵向导线60的电位,其它纵向导线60等于或略高于该横向导线50的电位,由此所有的0得到写入。(必要条件是V_f+V_w<V_r二极管的反向导通压降);
ii.然后横向导线50置低电位,需要写入1的纵向导线60的置高电位,二者电位的差=V_r(二极管的反向导通压降)+V_w,其它横向导线50电位低于这些纵向导线60而且高于这些纵向导线60电位-Vr,其它纵向导线60电位等于或略高于其它横向导线50的电位而且低于这些纵向导线60电位-V_w,由此所有的1得到写入。
b)上述操作中横向导线50和纵向导线60可以互换。
如图8所示,为保证能够提供0权重,可以为每一个权重存储单元配一个突触作为参考单元70,参考单元的二极管的在横向导线至纵向导线的方向上的导通方向与存储单元(即,阵列形式的多个突触)相反。神经元输出时向存储单元或参考单元发射相反的脉冲,分别比基准电位Vb高、低相同的电压(V_f+V_read,其中V_read是存储单元的读取电压)。存储单元或参考单元的位线都通过开关管连接到相应电荷积分器的输入端。
例如,所有电荷积分器具有相同的基准电位Vb,而且开关管的门极都连接到同一路神经元输入(例如,第N层神经元x)。而且,例如,当前纵向导线60连接至第N+1层神经元y,例如。这样当存储单元处于高阻态时,电荷积分约等于0。
如图8所示,例如,如果权重有n个比特(例如,权值bit1、bit2、bit3和bit4),所有权重的第二个比特存储在另一个相同的阵列中,存储单元的脉冲高度为V_f+2V_read,第三个V_f+4V_read和第四个Vb-V_f+8V_read,参考单元的脉冲高度为Vb-[V_f+(2^n–1)V_read],例如图8所示的Vb-V_f-15V_read。或者参考单元的脉冲可以降低,尺寸做大降低电阻达到同样的效果(条件是所有脉冲高度必须低于写电压V_w)。
在本明中提出一种与基于细胞阵列的神经网络架构的架构,由众多兼具存储功能的神经元计算器以及密集网络连接组成。这种新架构将在大型计算、大数据处理、人工智能等领域中得到广泛的应用。
本发明使用模拟计算,可以在一个周期内完成两层全连通神经网络之间完所有的乘法和加法计算,速度极快。而且本发明使用模拟计算,如果精度要求不很高,则使用的电压在几十mV甚至更小,非常省电。此外,本发明使用的二极管比MOS管面积小,非常经济。
上述说明示出并描述了本发明的优选实施例,如前所述,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (13)

1.一种使用模拟计算的神经网络芯片,其特征在于包括:阵列形式的多个突触,其中每个突触由一个忆阻器和一个选择器串联组成,阵列中的各个突触经由横向导线和纵向导线,所有的权重存储在这个阵列中;预定层的全部或部分神经元的输出接到阵列的横向导线,与所述预定层相邻的层的全部和部分神经元的输入连接到纵向导线。
2.如权利要求1所述的使用模拟计算的神经网络芯片,其特征在于,选择器是一个在两个方向超过预定电压即导通的器件,选择器可以是使从横向导线到纵向导线的方向上正向导通的二极管。
3.如权利要求1或2所述的使用模拟计算的神经网络芯片,其特征在于,每个神经元包括电荷积分器和脉冲发生器;其中,预定层的神经元的输出脉冲经由具有不同电阻的突触接收而产生相应电流,所述相应电流流入到与所述预定层下一层的神经元的电流积分器而被积累起来以产生被积累的电荷,被积累的电荷在导致相应的脉冲发射器发射脉冲后清零。
4.如权利要求1或2所述的使用模拟计算的神经网络芯片,其特征在于,忆阻器是磁性隧道结。
5.如权利要求3所述的使用模拟计算的神经网络芯片,其特征在于,在每一个神经元的输入输出端配置有写驱动电路,用于控制相关横向导线和纵向导线的电位以完成写操作。
6.如权利要求1或2所述的使用模拟计算的神经网络芯片,其特征在于,每一个权重存储单元配置有一个突触作为参考单元,参考单元的二极管的在横向导线至纵向导线的方向上的导通方向与作为存储单元的所述阵列形式的多个突触相反。
7.如权利要求5所述的使用模拟计算的神经网络芯片,其特征在于,神经元输出时向存储单元或参考单元发射相反的脉冲,向存储单元发射的脉冲分别比基准电位高预定电压,向参考单元发射的脉冲分别比基准电位低预定电压。
8.如权利要求5所述的使用模拟计算的神经网络芯片,其特征在于,存储单元或参考单元的位线都通过开关管连接到相应电荷积分器的输入端。
9.如权利要求1或2所述的使用模拟计算的神经网络芯片,其特征在于,所有电荷积分器具有相同的基准电位。
10.如权利要求1或2所述的使用模拟计算的神经网络芯片,其特征在于,所述忆阻器是MTJ,而且在每一个神经元的输入输出端加入写驱动电路来控制相关横向导线和纵向导线的电位。
11.如权利要求10所述的使用模拟计算的神经网络芯片,其特征在于,在每一个神经元的输入输出端加入写驱动电路来控制相关横向导线和纵向导线的电位的步骤包括:
首先相关横向导线置高电位,需要写入0的纵向导线置低电位,相关横向导线电位与需要写入0的纵向导线的电位差等于二极管正向导通压降与发生写入操作时MTJ需要的压降之和,其它横向导线置等于或低于这些纵向导线的电位,其它纵向导线等于或高于该横向导线的电位,由此所有的0得到写入;
然后相关横向导线置低电位,需要写入1的纵向导线的置高电位,相关横向导线与需要写入1的纵向导线的电位差等于二极管的反向导通压降与发生写入操作时MTJ需要的压降之和,其它横向导线电位低于这些纵向导线而且高于这些纵向导线电位减去二极管的反向导通压降的差,其它纵向导线电位等于或高于其它横向导线的电位而且低于这些纵向导线电位减去发生写入操作时MTJ需要的压降的差,由此所有的1得到写入。
12.如权利要求10所述的使用模拟计算的神经网络芯片,其特征在于,在每一个神经元的输入输出端加入写驱动电路来控制相关横向导线和纵向导线的电位的步骤包括:
首先相关纵向导线置高电位,需要写入0的横向导线置低电位,相关纵向导线电位与需要写入0的横向导线的电位差等于二极管正向导通压降与发生写入操作时MTJ需要的压降之和,其它纵向导线置等于或低于这些横向导线的电位,其它横向导线等于或高于该纵向导线的电位,由此所有的0得到写入;
然后相关纵向导线置低电位,需要写入1的横向导线的置高电位,相关纵向导线与需要写入1的横向导线的电位差等于二极管的反向导通压降与发生写入操作时MTJ需要的压降之和,其它纵向导线电位低于这些横向导线而且高于这些横向导线电位减去二极管的反向导通压降的差,其它横向导线电位等于或高于其它纵向导线的电位而且低于这些横向导线电位减去发生写入操作时MTJ需要的压降的差,由此所有的1得到写入。
13.如权利要求1或2所述的使用模拟计算的神经网络芯片,其特征在于,权重有多个比特,所有权重的相应位置的比特存储在相同的阵列中,第1个比特的存储单元的脉冲高度为V_f+V_read;对于第1个比特之外的其它比特,第n个比特的存储单元的脉冲高度为V_f+2^(n-1)V_read,参考单元的脉冲高度为Vb-[V_f+(2^n–1)V_read];其中,n为权重的比特数,V_f是二极管正向导通压降,V_read是存储单元的读取电压。
CN201611110147.1A 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片 Active CN108154225B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611110147.1A CN108154225B (zh) 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611110147.1A CN108154225B (zh) 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片

Publications (2)

Publication Number Publication Date
CN108154225A true CN108154225A (zh) 2018-06-12
CN108154225B CN108154225B (zh) 2021-09-03

Family

ID=62467978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611110147.1A Active CN108154225B (zh) 2016-12-06 2016-12-06 一种使用模拟计算的神经网络芯片

Country Status (1)

Country Link
CN (1) CN108154225B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102072A (zh) * 2018-08-31 2018-12-28 江西理工大学 一种基于单电子晶体管的忆阻突触脉冲神经网络电路设计方法
CN111506147A (zh) * 2019-01-30 2020-08-07 广达电脑股份有限公司 感测和补偿系统和补偿温度效应的方法
CN112101539A (zh) * 2020-11-18 2020-12-18 南京优存科技有限公司 一种存算一体电路及人工智能芯片
CN112750477A (zh) * 2019-10-30 2021-05-04 合肥睿科微电子有限公司 基于含单向选择器的otp存储阵列的神经网络推理加速器
CN113841165A (zh) * 2018-12-17 2021-12-24 芯成半导体(开曼)有限公司 用于训练人工神经网络的系统和方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102110464A (zh) * 2009-12-26 2011-06-29 上海芯豪微电子有限公司 宽带读写存储器装置
CN102411990A (zh) * 2011-11-11 2012-04-11 上海新储集成电路有限公司 一种位级双口非易失性静态随机存取存储器及其实现方法
CN102668085A (zh) * 2009-12-11 2012-09-12 国际商业机器公司 掺杂氮的氧化镁内的电阻开关
CN102884580A (zh) * 2010-05-06 2013-01-16 高通股份有限公司 在双稳态元件的群集状态中对多电平存储器进行概率性编程的方法和设备
US20130117209A1 (en) * 2011-11-09 2013-05-09 Qualcomm Incorporated Method and apparatus for using memory in probabilistic manner to store synaptic weights of neural network
CN103201610A (zh) * 2010-10-29 2013-07-10 国际商业机器公司 带有使用模拟学习的突触权重的神经形态-突触器脉冲神经网络
CN103282919A (zh) * 2010-12-30 2013-09-04 国际商业机器公司 强化学习的电子突触
CN105719000A (zh) * 2016-01-21 2016-06-29 广西师范大学 一种神经元硬件结构及用这种结构模拟脉冲神经网络的方法
CN105740946A (zh) * 2015-07-29 2016-07-06 上海磁宇信息科技有限公司 一种应用细胞阵列计算系统实现神经网络计算的方法
CN105913119A (zh) * 2016-04-06 2016-08-31 中国科学院上海微系统与信息技术研究所 行列互联的异构多核心类脑芯片及其使用方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102668085A (zh) * 2009-12-11 2012-09-12 国际商业机器公司 掺杂氮的氧化镁内的电阻开关
CN102110464A (zh) * 2009-12-26 2011-06-29 上海芯豪微电子有限公司 宽带读写存储器装置
CN102884580A (zh) * 2010-05-06 2013-01-16 高通股份有限公司 在双稳态元件的群集状态中对多电平存储器进行概率性编程的方法和设备
CN103201610A (zh) * 2010-10-29 2013-07-10 国际商业机器公司 带有使用模拟学习的突触权重的神经形态-突触器脉冲神经网络
CN103282919A (zh) * 2010-12-30 2013-09-04 国际商业机器公司 强化学习的电子突触
US20140310220A1 (en) * 2010-12-30 2014-10-16 International Business Machines Corporation Electronic synapses for reinforcement learning
US20130117209A1 (en) * 2011-11-09 2013-05-09 Qualcomm Incorporated Method and apparatus for using memory in probabilistic manner to store synaptic weights of neural network
CN102411990A (zh) * 2011-11-11 2012-04-11 上海新储集成电路有限公司 一种位级双口非易失性静态随机存取存储器及其实现方法
CN105740946A (zh) * 2015-07-29 2016-07-06 上海磁宇信息科技有限公司 一种应用细胞阵列计算系统实现神经网络计算的方法
CN105719000A (zh) * 2016-01-21 2016-06-29 广西师范大学 一种神经元硬件结构及用这种结构模拟脉冲神经网络的方法
CN105913119A (zh) * 2016-04-06 2016-08-31 中国科学院上海微系统与信息技术研究所 行列互联的异构多核心类脑芯片及其使用方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANDY THOMAS: "Memristor-based neural networks", 《JOURNAL OF PHYSICS D: APPLIED PHYSICS》 *
王国权,刘亮: "忆阻器应用于人工神经网络的前景与展望", 《中国新技术新产品》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102072A (zh) * 2018-08-31 2018-12-28 江西理工大学 一种基于单电子晶体管的忆阻突触脉冲神经网络电路设计方法
CN109102072B (zh) * 2018-08-31 2021-11-23 江西理工大学 一种基于单电子晶体管的忆阻突触脉冲神经网络电路设计方法
CN113841165A (zh) * 2018-12-17 2021-12-24 芯成半导体(开曼)有限公司 用于训练人工神经网络的系统和方法
CN111506147A (zh) * 2019-01-30 2020-08-07 广达电脑股份有限公司 感测和补偿系统和补偿温度效应的方法
CN111506147B (zh) * 2019-01-30 2022-06-17 广达电脑股份有限公司 感测和补偿系统和补偿温度效应的方法
CN112750477A (zh) * 2019-10-30 2021-05-04 合肥睿科微电子有限公司 基于含单向选择器的otp存储阵列的神经网络推理加速器
CN112101539A (zh) * 2020-11-18 2020-12-18 南京优存科技有限公司 一种存算一体电路及人工智能芯片
CN112101539B (zh) * 2020-11-18 2021-07-20 南京优存科技有限公司 一种存算一体电路及人工智能芯片

Also Published As

Publication number Publication date
CN108154225B (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN108154225A (zh) 一种使用模拟计算的神经网络芯片
US10388350B2 (en) Memory system, semiconductor storage device, and signal processing system
CN104919528B (zh) 写入到自旋矩磁随机存取存储器的方法
Eshraghian et al. Memristive device fundamentals and modeling: Applications to circuits and systems simulation
US11568223B2 (en) Neural network circuit
CN107368888B (zh) 类脑计算系统及其突触
US11829863B2 (en) Neural network circuit device
CN107194462A (zh) 三值神经网络突触阵列及利用其的神经形态计算网络
JP2013530479A (ja) 双安定素子のクラスタ状態にあるマルチレベルメモリの確率的なプログラミングの方法および装置
US11514301B2 (en) Magnetic domain wall drift for an artificial leaky integrate-and-fire neuron
CN104778966B (zh) 一种基于自旋霍尔效应磁隧道结的非易失性逻辑门电路
CN108073982B (zh) 类脑计算系统
JPWO2017195874A1 (ja) メモリ装置及びメモリシステム
CN108154226A (zh) 一种使用模拟计算的神经网络芯片
CN108154227A (zh) 一种使用模拟计算的神经网络芯片
CN203573660U (zh) 存储系统
Lalchhandama et al. CoMIC: Complementary Memristor based in-memory computing in 3D architecture
CN102426855B (zh) 嵌入dram存储矩阵的8值存储单元的8值信息刷新方法及相关电路
Suh et al. An associative memory device using a magnetic tunnel junction
US20230263070A1 (en) Magnetoresistive device, method for changing resistance state thereof, and synapse learning module
WO2017101143A1 (zh) 存储阵列、存储对象逻辑关系的存储芯片及方法
Junsangsri et al. A non-volatile low-power TCAM design using racetrack memories
Arkhangelsky et al. Bit-vector pattern matching systems on the basis of analog-digital field reprogrammable arrays
Kang et al. Programmable stateful in-memory computing paradigm via a single resistive device
KR102571118B1 (ko) 뉴로모픽 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant