CN111095417B - 使用非易失性半导体存储元件的神经网络运算电路 - Google Patents

使用非易失性半导体存储元件的神经网络运算电路 Download PDF

Info

Publication number
CN111095417B
CN111095417B CN201880057229.5A CN201880057229A CN111095417B CN 111095417 B CN111095417 B CN 111095417B CN 201880057229 A CN201880057229 A CN 201880057229A CN 111095417 B CN111095417 B CN 111095417B
Authority
CN
China
Prior art keywords
semiconductor memory
nonvolatile semiconductor
memory element
neural network
coupling weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880057229.5A
Other languages
English (en)
Other versions
CN111095417A (zh
Inventor
河野和幸
小野贵史
中山雅义
持田礼司
早田百合子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Panasonic Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Holdings Corp filed Critical Panasonic Holdings Corp
Publication of CN111095417A publication Critical patent/CN111095417A/zh
Application granted granted Critical
Publication of CN111095417B publication Critical patent/CN111095417B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/0023Address circuits or decoders
    • G11C13/0028Word-line or row circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/02Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements
    • G11C11/16Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements using elements in which the storage effect is based on magnetic spin effect
    • G11C11/165Auxiliary circuits
    • G11C11/1653Address circuits or decoders
    • G11C11/1657Word-line or row circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/02Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements
    • G11C11/16Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using magnetic elements using elements in which the storage effect is based on magnetic spin effect
    • G11C11/165Auxiliary circuits
    • G11C11/1673Reading or sensing circuits or methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0004Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements comprising amorphous/crystalline phase transition cells
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/004Reading or sensing circuits or methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/21Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements
    • G11C11/22Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using ferroelectric elements
    • G11C11/225Auxiliary circuits
    • G11C11/2253Address circuits or decoders
    • G11C11/2257Word-line or row circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/21Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements
    • G11C11/22Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using ferroelectric elements
    • G11C11/225Auxiliary circuits
    • G11C11/2273Reading or sensing circuits or methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C13/00Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
    • G11C13/0002Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
    • G11C13/0021Auxiliary circuits
    • G11C13/004Reading or sensing circuits or methods
    • G11C2013/0042Read using differential sensing, e.g. bit line [BL] and bit line bar [BLB]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2213/00Indexing scheme relating to G11C13/00 for features not covered by this group
    • G11C2213/70Resistive array aspects
    • G11C2213/79Array wherein the access device being a transistor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Computer Hardware Design (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Semiconductor Memories (AREA)

Abstract

在根据输入数据(x0~xn)与耦合权重系数(w0~wn)的积和运算结果将输出数据(y)输出的神经网络运算电路中,具备运算机构(PU0~PUn),该运算机构中,非易失性半导体存储元件(RP)和单元晶体管(T0)串联连接在数据线(BL0、SL0)之间,非易失性半导体存储元件(RN)和单元晶体管(T1)串联连接在数据线(BL1、SL1)之间,在单元晶体管(T0、T1)的栅极连接有字线(WL0~WLn);在RP、RN中保存耦合权重系数(w0~wn),字线选择电路(30)根据x0~xn将WL0~WLn设为选择状态或非选择状态,判定电路(50)通过判定流过BL0、BL1的电流值,将输出数据(y)输出。

Description

使用非易失性半导体存储元件的神经网络运算电路
技术领域
本发明涉及能够实现低功耗化和大规模集成化的使用非易失性半导体存储元件的神经网络运算电路及其动作方法。
背景技术
随着信息通信技术的进展,所有的事物与因特网相连的IoT(Internet ofThings)技术的到来受到关注。在IoT技术中,通过将各种电子设备连接到因特网,期待设备的高性能化,但作为实现更高性能化的技术,近年来活跃地开展电子设备自己进行学习和判断的人工智能(AI:Artificial Intelligence)技术的研究开发。
在人工智能技术中,使用对人的脑型信息处理进行工学上的模仿的神经网络技术,并且以高速、低功耗执行神经网络运算的半导体集成电路的研究开发正在火热地进行。
在专利文献1、专利文献2、专利文献3中公开了以往的神经网络运算电路。神经网络电路由将多个输入以分别具有不同的耦合权重系数的被称作突触(synapse)的耦合来连接的被称作神经元(neuron)(也有被称作感知器(perceptron)的情况)的基本元件构成,通过将多个神经元相互连接,能够进行图像识别及声音识别这样的高级的运算处理。在神经元中,进行对将各输入与各耦合权重系数相乘后的值全部进行相加的乘加运算动作。乘加运算电路由保存输入及耦合权重系数的存储器电路和寄存器电路、将输入与耦合权重系数相乘的乘法电路、将乘法结果累积相加的累加器(accumulator)电路、以及进行这些电路块的动作控制的控制电路构成。这些电路块全部由数字电路构成。
在非专利文献1中,公开了以往的神经网络运算电路的另一例。其使用能够设定模拟电阻值(电导)的电阻变化型非易失性存储器而构成神经网络运算电路,在非易失性存储器元件中保存相当于耦合权重系数的模拟电阻值(电导),对非易失性存储器元件施加相当于输入的模拟电压值,利用此时流过非易失性存储器元件中的模拟电流值。由神经元进行的乘加运算动作通过以下这样进行:将多个耦合权重系数作为模拟电阻值(电导)保存到多个非易失性存储器元件中,向多个非易失性存储器元件施加相当于多个输入的多个模拟电压值,得到将流过多个非易失性存储器元件中的电流值合计的模拟电流值作为乘加运算结果。使用非易失性存储器元件的神经网络运算电路与上述的由数字电路构成的神经网络运算电路相比能够实现低功耗化,近年来,火热地开展能够设定模拟电阻值(电导)的电阻变化型非易失性存储器的工艺开发、器件开发及电路开发。
现有技术文献
专利文献
专利文献1:日本特开2001-188767号公报
专利文献2:日本特开平6-259585号公报
专利文献3:日本特开平2-161556号公报
非专利文献
非专利文献1:M.Prezioso,et al.,“Training and operation of anintegrated neuromorphic network based on metal-oxide memristors,”Nature,no.521,pp.61-64,2015.
发明内容
发明要解决的课题
但是,上述的以往的神经网络运算电路有以下所示的问题。
即,在由数字电路构成的神经网络运算电路中,需要搭载保存大量的输入数据及耦合权重系数的大容量的存储器电路和寄存器电路、进行以浮点小数表现的大量的输入数据与耦合权重系数的乘加运算的大规模的乘法电路和累积加法电路(累加器电路)、以及进行这些电路块的动作控制的大规模的控制电路,半导体集成电路的芯片面积增大是个问题。
此外,为了进行高速的神经网络运算,需要使大规模的数字电路高速地动作,所以目前被产品化的进行神经网络运算处理的半导体芯片的功耗为几十瓦特到几百瓦特,非常大,半导体集成电路的功耗增大也是个问题。
另一方面,为了解决由数字电路构成的神经网络运算电路的功耗增大,近年来提出了使用能够设定模拟电阻值(电导)的电阻变化型非易失性存储器的神经网络运算电路。其将多个耦合权重系数作为模拟电阻值(电导)保存到多个非易失性存储器元件中,向多个非易失性存储器元件施加相当于多个输入数据的多个模拟电压值,得到将多个非易失性存储器元件中流过的电流值合计的模拟电流值作为乘加运算结果,由此进行乘加运算动作,但是,由于神经元的输入及输出被以模拟电压值或模拟电流值进行处理,所以需要以模拟值进行神经元间的信息传递,有难以将大规模的神经网络电路向半导体集成电路安装、即难以实现大规模的半导体集成化的问题。为了使神经元间的信息传递变得容易,也有使用模拟-数字变换电路(AD变换电路)将模拟值变换为数字值而进行信息传递、使用数字-模拟变换电路(DA变换电路)将数字值变换为模拟值的方法,但在安装大规模的神经网络电路的情况下,需要搭载大量的模拟-数字变换电路(AD变换电路)和数字-模拟变换电路(DA变换电路),从半导体集成化的观点看并不优选。
本发明是鉴于上述问题而做出的,目的是提供一种能够实现低功耗化和大规模集成化的使用非易失性半导体存储元件的神经网络运算电路。
用来解决课题的手段
本发明的使用非易失性半导体存储元件的神经网络运算电路,根据能够取第1逻辑值或第2逻辑值的数据的多个输入数据、与多个输入数据分别对应的多个耦合权重系数、以及多个输入数据与对应的耦合权重系数的乘加运算结果,输出第1逻辑值或第2逻辑值的输出数据,其特征在于,具备:多个字线;第1数据线;第2数据线;第3数据线;第4数据线;多个运算机构,由第1非易失性半导体存储元件与第1单元晶体管的串联连接构成,第1非易失性半导体存储元件的一端连接于第1数据线,第1单元晶体管的一端连接于第2数据线,第1单元晶体管的栅极连接于字线,并且由第2非易失性半导体存储元件与第2单元晶体管的串联连接构成,第2非易失性半导体存储元件的一端连接于第3数据线,第2单元晶体管的一端连接于第4数据线,第2单元晶体管的栅极连接于字线;字线选择电路,将多个字线设为选择状态或非选择状态;以及判定电路,判定在第1数据线和第3数据线、或者第2数据线和第4数据线中发生的电压值或电流值的大小关系,输出第1逻辑值或第2逻辑值的数据;在多个运算机构的第1非易失性半导体存储元件和第2非易失性半导体存储元件中保存多个耦合权重系数;字线选择电路根据多个输入数据,将多个字线设为选择状态或非选择状态;判定电路将输出数据输出。
此外,在本发明的使用非易失性半导体存储元件的神经网络运算电路中,也可以是,在多个耦合权重系数向多个运算机构的第1非易失性半导体存储元件和第2非易失性半导体存储元件的保存中,在耦合权重系数为正值的情况下,向第1非易失性半导体存储元件进行写入,以使流过第1非易失性半导体存储元件的电流值成为与耦合权重系数的值成比例的电流值;在耦合权重系数为负值的情况下,向第2非易失性半导体存储元件进行写入,以使流过第2非易失性半导体存储元件的电流值成为与耦合权重系数的值成比例的电流值。
此外,在本发明的使用非易失性半导体存储元件的神经网络运算电路中,也可以是,在多个耦合权重系数向多个运算机构的第1非易失性半导体存储元件和第2非易失性半导体存储元件的保存中,在耦合权重系数为正值的情况下,向第1非易失性半导体存储元件和第2非易失性半导体存储元件进行写入,以使流过第1非易失性半导体存储元件的电流值比流过第2非易失性半导体存储元件的电流值大,并且其电流差成为与耦合权重系数的值成比例的电流值;在耦合权重系数为负值的情况下,向第1非易失性半导体存储元件和第2非易失性半导体存储元件进行写入,以使流过第2非易失性半导体存储元件的电流值比流过第1非易失性半导体存储元件的电流值大,并且其电流差成为与耦合权重系数的值成比例的电流值。
此外,在本发明的使用非易失性半导体存储元件的神经网络运算电路中,也可以是,字线选择电路在输入数据是第1逻辑值的情况下,将对应的字线设为非选择状态;在输入数据是第2逻辑值的情况下,将对应的字线设为选择状态。
此外,在本发明的使用非易失性半导体存储元件的神经网络运算电路中,也可以是,在第1数据线或第2数据线中,流过与耦合权重系数为正值的多个输入数据和对应的正值的耦合权重系数的乘加运算结果对应的电流值;在第3数据线或第4数据线中,流过与耦合权重系数为负值的多个输入数据和对应的正值的耦合权重系数的乘加运算结果对应的电流值。
此外,在本发明的使用非易失性半导体存储元件的神经网络运算电路中,也可以是,判定电路在流过第1数据线或第2数据线的电流值比流过第3数据线或第4数据线的电流值小的情况下,输出第1逻辑值;在流过第1数据线或第2数据线的电流值比流过第3数据线或第4数据线的电流值大的情况下,输出第2逻辑值。
此外,在本发明的使用非易失性半导体存储元件的神经网络运算电路中,也可以是,第1非易失性半导体存储元件和第2非易失性半导体存储元件是由电阻变化型元件形成的电阻变化型存储元件、由磁阻变化型元件形成的磁阻变化型存储元件、由相变型元件形成的相变型存储元件、由强电介质型元件形成的强电介体型存储元件中的哪一种都可以。
发明效果
本发明的使用非易失性半导体存储元件的神经网络运算电路,是神经元的输入数据和输出数据能够取0数据或1数据的2值的数字值的神经网络电路,具备运算机构,该运算机构由串联连接在第1数据线与第2数据线之间的第1非易失性半导体存储元件和第1单元晶体管、串联连接在第3数据线与第4数据线之间的第2非易失性半导体存储元件和第2单元晶体管构成;将耦合权重系数例如作为电阻值(电导)保存到第1非易失性半导体存储元件和第2非易失性半导体存储元件中。
这里,在耦合权重系数为正值的情况下,向第1非易失性半导体存储元件进行写入,以使流过第1非易失性半导体存储元件的电流值成为与耦合权重系数的值成比例的电流值(流过第2非易失性半导体存储元件的电流值为零),在耦合权重系数为负值的情况下,向第2非易失性半导体存储元件进行写入,以使流过第2非易失性半导体存储元件的电流值成为与耦合权重系数的值成比例的电流值(流过第1非易失性半导体存储元件的电流值为零)。
或者,在耦合权重系数为正值的情况下,向第1非易失性半导体存储元件和第2非易失性半导体存储元件进行写入,以使流过第1非易失性半导体存储元件的电流值比流过第2非易失性半导体存储元件的电流值大,并且其电流差成为与耦合权重系数的值成比例的电流值,在耦合权重系数为负值的情况下,向第1非易失性半导体存储元件和第2非易失性半导体存储元件进行写入,以使流过第2非易失性半导体存储元件的电流值比流过第1非易失性半导体存储元件的电流值大,并且其电流差成为与耦合权重系数的值成比例的电流值。该写入方法在不能将流过非易失性半导体存储元件的电流值设定为零的情况下、或在不能仅用1个非易失性半导体存储元件设定与耦合权重系数的值成比例的电流值的情况下是有效的。
字线选择电路根据输入数据(0数据或1数据),将连接在第1单元晶体管和第2单元晶体管的栅极上的字线设为非选择状态(0数据的情况)或选择状态(1数据的情况),由此将运算机构设为非激活状态或激活状态。
在第1非易失性半导体存储元件所连接的第1数据线中,流过与耦合权重系数为正值的多个输入数据和对应的正值的耦合权重系数的乘加运算结果对应的电流值,在第2非易失性半导体存储元件所连接的第3数据线中,流过与耦合权重系数为负值的多个输入数据和对应的负值的耦合权重系数的乘加运算结果对应的电流值。
判定电路判定流过第1数据线的电流值与流过第3数据线的电流值的大小关系,将输出数据(0数据或1数据)输出。即,在输入数据与耦合权重系数的乘加运算结果是负值的情况下输出0数据,在正值的情况下输出1数据。
本发明的使用非易失性半导体存储元件的神经网络运算电路通过上述的动作,使用流过非易失性半导体存储元件的电流值进行神经网络电路的乘加运算动作。由此,不搭载以往的由数字电路构成的大容量的存储器电路或寄存器电路、大规模的乘法电路或累积加法电路(累加器电路)、以及复杂的控制电路就能够进行乘加运算动作,所以能够实现神经网络运算电路的低功耗化及半导体集成电路的芯片面积缩小化。此外,由于是神经元的输入数据和输出数据能够取0数据或1数据的2值的数字数据的神经网络电路,所以能够使神经元间的信息传递成为数字传送,容易进行使用多个神经元的大规模的神经网络电路的安装,能够进行半导体集成化。
即,本发明的使用非易失性半导体存储元件的神经网络运算电路能够实现低功耗化和大规模集成化。详细情况通过后述的实施例公开。
附图说明
图1A是表示在神经网络运算中使用的神经元的图。
图1B是表示进行图1A的神经元的运算处理的详细电路结构的图。
图2是表示深度神经网络的结构的图。
图3是表示神经网络运算中的神经元的计算的图。
图4是表示在神经网络运算中的神经元的计算中,将偏倚系数b的运算分配给输入x0和耦合权重系数w0的情况下的计算的图。
图5是表示有关实施方式的神经网络运算中的神经元的激活函数f的图。
图6是表示的有关实施方式的使用非易失性半导体存储元件的神经网络运算电路的整体结构的图。
图7A表示构成图6中的存储器单元阵列的非易失性半导体存储元件即存储器单元MC的电路图的图。
图7B表示存储器单元MC的剖视图。
图7C是表示存储器单元MC的各动作模式下的施加电压的图。
图8A是表示示出有关实施方式的神经网络运算电路的动作原理的计算的图。
图8B是表示有关实施方式的运算机构PUi的动作的图。
图9A是表示运算机构PUi的动作的图。
图9B是表示有关实施方式的运算机构PUi的与输入xi对应的字线WLi的状态的图。
图9C是表示有关实施方式的运算机构PUi的电阻变化元件RP、RN的电流范围、以及向电阻变化元件写入的电流值的计算的图。
图9D是表示有关实施方式的运算机构PUi的输入xi与耦合权重系数wi的乘加运算动作的图。
图10A是表示有关第1实施方式的神经网络运算的结构、以及耦合权重系数的值的图。
图10B是表示有关第1实施方式的神经网络运算的耦合权重系数的值的图。
图11是表示有关第1实施方式的神经网络运算电路的详细结构的图。
图12A是表示有关第1实施方式的运算机构的电阻变化元件的电流范围、以及向电阻变化元件写入的电流值的图。
图12B是表示有关第1实施方式的运算机构PU0~PU3的电阻变化元件RP、RN的电流范围、以及向电阻变化元件RP、RN写入的电流值(电阻值)的图。
图13A是表示有关第2实施方式的神经网络运算的结构的图。
图13B是表示有关第2实施方式的神经网络电路的真值表的图。
图13C是表示有关第2实施方式的神经网络电路的耦合权重系数的图。
图13D是表示有关第2实施方式的神经网络电路的输入层、隐藏层、输出层的运算动作的图。
图14A是表示有关第2实施方式的运算机构的电阻变化元件的电流范围、以及向电阻变化元件写入的电流值的图。
图14B是表示有关第2实施方式的神经网络运算电路的运算机构的电阻变化元件的电流范围、以及向电阻变化元件写入的电流值的图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。
图1A及图1B是表示有关实施方式的使用非易失性半导体存储元件的神经网络运算电路的详细结构的图。图1A是表示在神经网络运算中使用的神经元的图,图1B是表示由本发明实施图1A的神经元进行的运算处理的情况下的详细电路结构的图,是表示本发明的特征的代表图。关于图1A及图1B在后述中详细地进行说明。
<神经网络运算>
首先,对神经网络运算的基础理论进行说明。
图2是表示深度神经网络的结构的图。神经网络由供输入数据输入的输入层1、接受输入层1的输入数据而进行运算处理的隐藏层2(也有称作中间层的情况)、接受隐藏层2的输出数据而进行运算处理的输出层3构成。在输入层1、隐藏层2、输出层3各自中,存在许多被称作神经元10的神经网络的基本元件,各个神经元10经由耦合权重11被连接。多个耦合权重11分别具有不同的耦合权重系数而将神经元间连接。神经元10中被输入多个输入数据,神经元10中进行这些多个输入数据与对应的耦合权重系数的乘加运算动作,并作为输出数据输出。这里,隐藏层2是将多级(在图2中是4级)神经元连结的结构,在形成较深的神经网络的意义上,图2所示那样的神经网络被称作深度神经网络。
图3是表示神经网络运算中的神经元的计算的图,在图3的式(1)、式(2)中表示神经元10进行的计算式。神经元10通过分别具有耦合权重系数w1~wn的耦合权重连接有n个输入x1~xn,进行输入x1~xn与耦合权重系数w1~wn的乘加运算。神经元10具有偏倚系数b,对输入x1~xn与耦合权重系数w1~wn的乘加运算结果加上偏倚系数b。神经元10具有激活函数f,对于对输入x1~xn与耦合权重系数w1~wn的乘加运算结果加上偏倚系数b后的结果,进行激活函数的运算处理,将输出y输出。
图4是表示在神经网络运算中的神经元的计算中、将偏倚系数b的运算分配给输入x0和耦合权重系数w0的情况下的计算的图,在图4的式(1)、式(2)中表示神经元10进行的计算式。在上述的图3中,神经元10进行输入x1~xn与耦合权重系数w1~wn的乘加运算和偏倚系数b的加法运算,但如图4所示,可以将偏倚系数b的加法运算设为输入x0=1、耦合权重系数w0=b,解释为将n+1个输入x0~xn用分别具有耦合权重系数w0~wn的耦合权重连接的神经元10。如图4的式(1)、式(2)所示,能够将神经元10的计算仅用输入x0~xn与耦合权重系数w0~wn的乘加运算来简单地表现。在本实施方式中,如图4所示,将偏倚系数b的加法运算表现为输入x0=1和耦合权重系数w0=b。
图5是表示有关实施方式的神经网络运算中的神经元的激活函数f的图,x轴是激活函数f的输入u,y轴是激活函数f的输出f(u)。在本发明的实施方式中,激活函数f使用阶跃函数。在本实施方式中,作为激活函数而使用阶跃函数,但作为在神经网络运算中使用的其他的激活函数,有S形函数等。如图5所示,阶跃函数是在输入u为负值(<0)的情况下将输出f(u)=0输出、在输入u为正值(≧0)的情况下将输出f(u)=1输出的函数。在上述的图4的神经元10中,在使用阶跃函数的激活函数f的情况下,在输入x0~xn与耦合权重系数w0~wn的乘加运算结果为负值的情况下将输出y=0输出,在乘加运算结果为正值的情况下将输出y=1输出。
<使用非易失性半导体存储元件的神经网络运算电路的整体结构>
图6是表示有关实施方式的使用非易失性半导体存储元件的神经网络运算电路的整体结构的图。本发明的神经网络运算电路具备存储器单元阵列20、字线选择电路30、列选通器40、判定电路50、写入电路60、控制电路70。
存储器单元阵列20以矩阵状配置有非易失性半导体存储元件,在非易失性半导体存储元件中保存有在神经网络运算中使用的耦合权重系数。存储器单元阵列20具有多个字线WL0~WLn、多个位线BL0~BLm、多个源极线SL0~SLm。
字线选择电路30是驱动存储器单元阵列20的字线WL0~WLn的电路。与神经网络运算的神经元的输入对应地将字线设为选择状态或非选择状态(后述)。
列选通器40是与位线BL0~BLm、源极线SL0~SLm连接,从多个位线、多个源极线中选择规定的位线、源极线并连接到后述的判定电路50、写入电路60的电路。
判定电路50是经由列选通器40连接着位线BL0~BLm、源极线SL0~SLm,检测位线或源极线中流过的电流值并将输出数据输出的电路。进行保存在存储器单元阵列20的存储器单元中的数据的读出、以及神经网络运算的神经元的输出数据的输出(后述)。
写入电路60是经由列选通器40连接着位线BL0~BLm、源极线SL0~SLm,向存储器单元阵列20的非易失性半导体存储元件施加改写电压的电路。
控制电路70是对存储器单元阵列20、字线选择电路30、列选通器40、判定电路50、写入电路60的动作进行控制的电路,进行对于存储器单元阵列20的存储器单元的读出动作、写入动作、以及神经网络运算动作的控制。
<非易失性半导体存储元件的结构>
图7A~图7C是有关实施方式的非易失性半导体存储元件的电路图、剖视图、以及表示各动作中的施加电压的图。
图7A表示构成图6的存储器单元阵列20的非易失性半导体存储元件即存储器单元MC的电路图。存储器单元MC由电阻变化元件RP和单元晶体管T0的串联连接结构构成,是由1个单元晶体管T0和1个电阻变化元件RP构成的“1T1R”型的存储器单元。电阻变化元件RP是被称作电阻变化型存储器ReRAM(Resistive Random Access Memory)的非易失性半导体存储元件。存储器单元MC的字线WL连接于单元晶体管T0的栅极端子,位线BL连接于电阻变化元件RP,源极线SL连接于单元晶体管T0的源极端子。
图7B表示存储器单元MC的剖视图。在半导体基板80上形成有扩散区域81a、81b,扩散区域81a作为单元晶体管T0的源极端子、扩散区域81b作为单元晶体管的漏极端子发挥作用。扩散区域81a、81b间作为单元晶体管T0的沟道区域发挥作用,在该沟道区域上形成有氧化膜82、由多晶硅形成的栅极电极83,作为单元晶体管T0而动作。单元晶体管T0的作为源极端子的扩散区域81a经由导通孔84a连接于作为第1布线层85a的源极线SL。单元晶体管T0的作为漏极端子的扩散区域81b经由导通孔84b连接于第1布线层85b。进而,第1布线层85b经由导通孔86连接于第2布线层87,第2布线层87经由导通孔88连接于电阻变化元件RP。电阻变化元件RP由下部电极89、电阻变化层90、上部电极91构成。电阻变化元件RP经由导通孔92连接于作为第3布线层93的位线BL。
图7C是表示存储器单元MC的各动作模式下的施加电压的图。
对复位动作(高电阻化)而言,通过向字线WL施加Vg_reset(例如2V)的电压而使单元晶体管T0成为选择状态,向位线BL施加Vreset(例如2.0V)的电压,向源极线SL施加接地电压VSS(0V)。由此,电阻变化元件RP的上部电极上被施加正电压,电阻变化为高电阻状态。对置位动作(低电阻化)而言,通过向字线WL施加Vg_set(例如2.0V)的电压而使单元晶体管T0成为选择状态,向位线BL施加接地电压VSS(0V),向源极线SL施加Vset(例如2.0V)的电压。由此,电阻变化元件RP的下部电极上被施加正电压,电阻变化为低电阻状态。
对读出动作而言,通过向字线WL施加Vg_read(例如1.1V)的电压,使单元晶体管T0成为选择状态,向位线BL施加Vread(例如0.4V)的电压,向源极线SL施加接地电压VSS(0V)。由此,在电阻变化元件RP是高电阻状态(复位状态)的情况下流过较小的存储器单元电流,此外,在电阻变化元件RP为低电阻状态(置位状态)的情况下流过较大的存储器单元电流,通过由判定电路判定该电流值的差异,进行保存在存储器单元中的数据的读出动作。
在将存储器单元MC作为保存0数据或1数据的半导体存储器使用的情况下,电阻变化元件RP的电阻值仅能够取高电阻状态(0数据)和低电阻状态(1数据)这2个电阻状态(数字),但在作为本发明的神经网络运算电路使用的情况下,将电阻变化元件RP的电阻值设定为多个等级(模拟)的值而使用。
<使用非易失性半导体存储元件的神经网络运算电路的详细结构>
图1A及图1B是表示有关实施方式的使用非易失性半导体存储元件的神经网络运算电路的详细结构的图。
图1A是表示在神经网络运算中使用的神经元的图,与图4相同。神经元10中,n+1个输入x0~xn分别具有耦合权重系数w0~wn而被输入,输入x0~xn能够取0数据或1数据的某个值,耦合权重系数w0~wn能够取多等级(模拟)的值。对于输入x0~xn与耦合权重系数w0~wn的乘加运算结果,进行图5所示的作为阶跃函数的激活函数f的运算,将输出y输出。
图1B是表示进行图1A的神经元10的运算处理的详细电路结构的图。存储器单元阵列具有多个字线WL0~WLn、多个位线BL0、BL1、多个源极线SL0、SL1。
作为神经元10的输入x0~xn,对应着字线WL0~WLn,输入x0对应于字线WL0,输入x1对应于字线WL1,输入xn-1对应于字线WLn-1,输入xn对应于字线WLn。字线选择电路30是根据输入x0~xn将字线WL0~WLn设为选择状态或非选择状态的电路。在输入为0数据的情况下将字线设为非选择状态,在输入为1数据的情况下将字线设为选择状态。在神经网络运算中,由于输入x0~xn分别能够任意地取0数据或1数据的值,所以在输入x0~xn之中有多个1数据的情况下,字线选择电路30将多个字线同时多路选择。
作为神经元10的耦合权重系数w0~wn,对应着由存储器单元构成的运算机构PU0~PUn,耦合权重系数w0对应于运算机构PU0,耦合权重系数w1对应于运算机构PU1,耦合权重系数wn-1对应于运算机构PUn-1,耦合权重系数wn对应于运算机构PUn。
运算机构PU0通过由电阻变化元件RP和单元晶体管T0构成的存储器单元、以及由电阻变化元件RN和单元晶体管T1构成的存储器单元构成。即,1个运算机构由2个存储器单元构成。运算机构PU0连接于字线WL0、位线BL0、BL1、源极线SL0、SL1,字线WL0连接于单元晶体管T0、T1的栅极端子,位线BL0连接于电阻变化元件RP,源极线SL0连接于单元晶体管T0的源极端子,位线BL1连接于电阻变化元件RN,源极线SL1连接于单元晶体管T1的源极端子。输入x0作为运算机构PU0的字线WL0被输入,耦合权重系数w0作为电阻值(电导)被保存到运算机构PU0的2个电阻变化元件RP、RN中。运算机构PU1、PUn-1、PUn的结构也与运算机构PU0的结构是同样的,所以省去详细的说明。即,输入x0~xn作为分别连接于运算机构PU0~PUn的字线WL0~WLn被输入,耦合权重系数w0~wn分别作为电阻值(电导)被保存到运算机构PU0~PUn的电阻变化元件RP、RN中。
位线BL0经由列选通晶体管YT0连接于判定电路50,位线BL1经由列选通晶体管YT1连接于判定电路50。列选通晶体管YT0、YT1的栅极端子连接于列选通控制信号YG,如果列选通器控制信号YG被激活,则位线BL0、BL1连接于判定电路50。源极线SL0经由放电晶体管DT0连接于接地电压,源极线SL1经由放电晶体管DT1连接于接地电压。放电晶体管DT0、DT1的栅极端子连接于放电控制信号DIS,如果放电控制信号DIS被激活,则源极线SL0、SL1被设定为接地电压。在进行神经网络运算动作的情况下,通过使列选通器控制信号YG、放电控制信号DIS激活,将位线BL0、BL1连接到判定电路50,将源极线SL0、SL1连接到接地电压。
判定电路50是检测在经由列选通晶体管YT0、YT1连接的位线BL0、BL1中流过的电流值、进行比较并将输出y输出的电路。输出y能够取0数据或1数据的某个值。在流过位线BL0的电流值比流过位线BL1的电流值小的情况下输出0数据的输出y,在流过位线BL0的电流值比流过位线BL1的电流值大的情况下输出1数据的输出y。即,判定电路50是判定流过位线BL0、BL1的电流值的大小关系并将输出y输出的电路。
关于如以上那样构成的使用非易失性半导体存储元件的神经网络运算电路的动作原理和动作方法、以及将耦合权重系数向电阻变化元件保存的方法,以后详细地进行说明。
<使用非易失性半导体存储元件的神经网络运算电路的动作原理>
图8A及图8B是表示示出有关实施方式的神经网络运算电路的动作原理的计算、及运算机构的动作的图。
图8A是表示示出有关实施方式的神经网络运算电路的动作原理的计算的图。如图8A的式(1)所示,神经元10进行的运算是对输入xi与耦合权重系数wi的乘加运算结果进行了作为阶跃函数的激活函数f的运算处理。在本发明中,如图8A的式(2)所示,其特征在于,将耦合权重系数wi替换为流过电阻变化元件(存储器单元)的电流值Ii,进行输入xi与流过电阻变化元件(存储器单元)的电流值Ii的乘加运算。
这里,神经网络运算中的耦合权重系数wi取正值(≧0)、负值(<0)的两者,在乘加运算动作中输入xi与耦合权重系数wi的乘积是正值的情况下进行加法,在负值的情况下进行减法。但是,由于流过电阻变化元件(存储器单元)的电流值Ii只能取正值,所以输入xi与耦合权重系数wi的乘积为正值的情况下的加法运算能够通过电流值Ii的加法来实现,但要使用正值的电流值Ii来进行输入xi与耦合权重系数wi的乘积为负值的情况下的减算运算,需要研究。
图8B是表示有关实施方式的运算机构PUi的动作的图。运算机构PUi的结构是在图1A及图1B中说明的结构,省去详细的说明。本发明的特征是将耦合权重系数wi保存到2个电阻变化元件RP、RN中,将对电阻变化元件RP设定的电阻值设为Rpi,将对电阻变化元件RN设定的电阻值设为Rni,将向位线BL0、BL1施加的电压设为Vbl,将流过电阻变化元件RP、RN的电流值设为Ipi、Ini。在本发明中,其特征在于,将正的乘加运算结果与流过位线BL0的电流相加,将负的乘加运算结果与流过位线BL1的电流相加,设定电阻变化元件RP、RN的电阻值Rpi、Rni(电流值Ipi、Ini)以使得如上述那样电流流过。通过如图1B所示将输入x0~xn(耦合权重系数w0~wn)的个数的该运算机构PUi并联连接于位线BL0、BL1,能够得到神经元10的正的乘加运算结果作为流过位线BL0的电流值,得到负的乘加运算结果作为流过位线BL1的电流值。在图8A的式(3)、式(4)、式(5)中表示上述的动作的计算。即,通过对运算机构PUi的电阻变化元件RP、RN适当地写入相当于耦合权重系数wi的电阻值Rpi、Rni,能够在位线BL0、BL1中分别得到与正的乘加运算结果、负的乘加运算结果对应的电流值。
在图8A的式(5)中,激活函数f是阶跃函数(在输入是负值(<0)的情况下为0数据输出,在正值的情况下(≧0)为1数据输出),所以通过以如下方式检测并判定流过位线BL0、BL1的电流值,能够使用具有电阻变化元件RP、RN的运算机构PUi来进行神经元10的神经网络运算,上述方式为,在作为正的乘加运算结果的流过位线BL0的电流值比作为负的乘加运算结果的流过位线BL1的电流值小的情况下、即在全部的乘加运算结果是负值的情况下输出0数据,在作为正的乘加运算结果的流过位线BL0的电流值比作为负的乘加运算结果的流过位线BL1的电流值大的情况下、即在全部的乘加运算结果是正值的情况下输出1数据。
图9A~图9D是表示有关实施方式的运算机构的详细动作的图。图9A是表示运算机构PUi的动作的图,由于与图8B相同,所以省去详细的说明。以下,对运算机构PUi的输入xi与耦合权重系数wi的乘加运算动作进行说明。
图9B是表示有关实施方式的运算机构PUi的与输入xi对应的字线WLi的状态的图。输入xi取0数据或1数据的某个值,在输入xi为0数据的情况下,字线WLi被设为非选择状态,在输入xi为1数据的情况下,字线WLi被设为选择状态。字线WLi连接于单元晶体管T0、T1的栅极端子,在字线WLi为非选择状态的情况下,单元晶体管T0、T1为非激活状态(断路状态),不论电阻变化元件RP、RN的电阻值Rpi、Rni如何,在位线BL0、BL1中都不流过电流。另一方面,在字线WLi为选择状态的情况下,单元晶体管T0、T1为激活状态(连接状态),基于电阻变化元件RP、RN的电阻值Rpi、Rni,在位线BL0、BL1中流过电流。
图9C是表示有关实施方式的运算机构PUi的电阻变化元件RP、RN的电流范围、以及向电阻变化元件写入的电流值的计算的图。设电阻变化元件RP、RN中流过的电流值的可取的范围为从最小值Imin到最大值Imax而进行说明。进行标准化以使向神经元输入的耦合权重系数的绝对值|wi|成为0~1的范围,决定向电阻变化元件写入的电流值以成为与标准化后的耦合权重系数|wi|成比例的电流值(模拟值)。
在耦合权重系数wi是正值(≧0)的情况下,为了将输入xi(0数据或1数据)与耦合权重系数wi(≧0)的乘加运算结果(≧0)作为电流值加到正的乘加运算结果的电流流过的位线BL0中,对于与位线BL0连接的电阻变化元件RP,进行与耦合权重系数的绝对值|wi|成比例的电流值Imin+(Imax-Imin)×|wi|流动的电阻值Rpi的写入,对于与位线BL1连接的电阻变化元件RN,进行成为电流值Imin(相当于耦合权重系数0)的电阻值Rni的写入。
另一方面,在耦合权重系数wi为负值(<0)的情况下,为了将输入xi(0数据或1数据)与耦合权重系数wi(<0)的乘加运算结果(<0)作为电流值加到负的乘加运算结果的电流流过的位线BL1中,对与位线BL1连接的电阻变化元件RN,进行与耦合权重系数的绝对值|wi|成比例的电流值Imin+(Imax-Imin)×|wi|流过的电阻值Rni的写入,对于与位线BL0连接的电阻变化元件RP,进行成为电流值Imin(相当于耦合权重系数0)的电阻值Rpi的写入。
通过如上述那样设定向电阻变化元件RP、RN写入的电阻值(电流值),得到流过位线BL0的电流(相当于正的乘加运算结果)与流过位线BL1的电流(相当于负的乘加运算结果)的差分电流(Imax-Imin)×|wi|,作为相当于输入与耦合权重系数的乘加运算结果的电流值。关于将耦合权重系数的绝对值|wi|标准化为0~1的范围的方法的详细情况,在后面叙述。
图9D是表示有关实施方式的运算机构PUi的输入xi与耦合权重系数wi的乘加运算动作的图。
在输入xi是0数据的情况下,与耦合权重系数wi的值无关,乘加运算结果xi×wi为0。由于输入xi是0数据,所以字线WLi为非选择状态,单元晶体管T0、T1为非激活状态(断路状态),所以流过位线BL0、BL1的电流值Ipi、Ini为0。即,由于乘加运算结果xi×wi是0,所以在相当于正的乘加运算结果的电流流过的位线BL0、相当于负的乘加运算结果的电流流过的位线BL1双方中都不流过电流。
在输入xi是1数据、耦合权重系数wi是正值(≧0)的情况下,乘加运算结果xi×wi为正值(≧0)。由于输入xi是1数据,所以字线WLi为选择状态,由于单元晶体管T0、T1为激活状态(连接状态),所以基于电阻变化元件RP、RN的电阻值,在位线BL0、BL1中流过在图9C中说明的电流Ipi、Ini。流过位线BL0的相当于正的乘加运算结果的电流Ipi与流过位线BL1的相当于负的乘加运算结果的电流Ini的差分电流(Imax-Imin)×|wi|成为相当于输入xi与耦合权重系数wi的乘加运算结果xi×wi(≧0)的电流,在位线BL0中与位线BL1相比更多地流过。
在输入xi是1数据、耦合权重系数wi是负值(<0)的情况下,乘加运算结果xi×wi为负值(<0)。由于输入xi是1数据,所以字线WLi为选择状态,单元晶体管T0、T1为激活状态(连接状态),所以基于电阻变化元件RP、RN的电阻值,在位线BL0、BL1中流过在图9C中说明的电流Ipi、Ini。流过位线BL0的相当于正的乘加运算结果的电流Ipi与流过位线BL1的相当于负的乘加运算结果的电流Ini的差分电流(Imax-Imin)×|wi|成为相当于输入xi与耦合权重系数wi的乘加运算结果xi×wi(≦0)的电流,在位线BL1中与位线BL0相比更多地流过。
这样,在位线BL0、BL1中流过相当于输入xi与耦合权重系数wi的乘加运算结果的电流,在正的乘加运算结果的情况下在位线BL0中与位线BL1相比更多地流过,在负的乘加运算结果的情况下在位线BL1中与位线BL0相比更多地流过。通过将输入x0~xn(耦合权重系数w0~wn)的个数的运算机构PUi并联连接于位线BL0、BL1,能够得到神经元10的乘加运算结果作为流过位线BL0的电流与流过位线BL1的电流的差分电流。
这里,如果使用连接于位线BL0、BL1的判定电路,使得在流过位线BL0的电流值比流过位线BL1的电流值小的情况下、即在乘加运算结果为负值的情况下输出0数据的输出数据,并在流过位线BL0的电流值比流过位线BL1的电流值大的情况下、即在乘加运算结果为正值的情况下输出1数据的输出数据,则相当于判定电路进行作为阶跃函数的激活函数的运算,能够实现进行乘加运算和激活函数的运算处理的神经网络运算。
<使用非易失性半导体存储元件的神经网络运算电路的第1实施方式>
在上述中对本发明的使用非易失性半导体存储元件的神经网络运算电路的动作原理进行了说明。以下,对具体的实施方式进行说明。
图10A是表示有关第1实施方式的神经网络运算的结构的图,图10B是表示有关第1实施方式的神经网络运算的耦合权重系数的值的图。如图10A所示,神经元10具有与4个输入x0~x3对应的耦合权重系数w0~w3,在图10A的式(1)中表示神经元10进行的运算。神经元10的激活函数f是阶跃函数。
如图10B所示,神经元10具有的耦合权重系数是w0=+0.6、w1=-0.9、w2=-1.2、w3=+1.5。以下,对进行图10A及图10B所示的神经元10的运算动作的使用非易失性半导体存储元件的神经网络运算电路进行说明。
图11是表示有关第1实施方式的神经网络运算电路的详细结构的图。在图11中,对于与图1B的构成要件相同的构成要件赋予相同的标号、号码,省去其详细的说明。第1实施方式的神经网络运算电路是4输入、1输出的神经元,具备保存耦合权重系数w0~w3的4个运算机构PU0~PU3、以及与输入x0~x3对应的4条字线WL0~WL3、连接有电阻变化元件RP和单元晶体管T0的位线BL0、源极线SL0,连接有电阻变化元件RN和单元晶体管T1的位线BL1、源极线SL1。
在进行神经网络运算动作的情况下,根据输入x0~x3将字线WL0~WL3分别设为选择状态、非选择状态,将运算机构PU0~PU3的单元晶体管T0、T1设为选择状态、非选择状态。位线BL0、BL1经由列选通器YT0、YT1被从判定电路50供给位线电压,源极线SL0、SL1经由放电晶体管DT0、DT1连接于接地电压。由此,在位线BL0中流过相当于正的乘加运算结果的电流,在位线BL1中流过相当于负的乘加运算结果的电流。判定电路50通过检测及判定流过位线BL0、BL1的电流的大小关系,将输出y输出。即,在神经元10的乘加运算结果是负值(<0)的情况下输出0数据,在正值(≧0)的情况下输出1数据。判定电路50输出以乘加运算结果为输入的激活函数f(阶跃函数)的运算结果。
图12A及图12B是表示有关第1实施方式的运算机构PU0~PU3的电阻变化元件RP、RN的电流范围、以及向电阻变化元件RP、RN写入的电流值(电阻值)的图。如图12A所示,在第1实施方式中,假设电阻变化元件RP、RN中流过的电流值的能够取的范围为0uA到50uA。即,电流值的最小值Imin是0uA,电流值的最大值Imax是50uA,使用50uA的电流范围(动态范围)。
如图12B所示,首先将耦合权重系数w0~w3进行标准化以成为0~1的范围。在本实施方式中,耦合权重系数w0~w3的绝对值最大的是w3=+1.5,将该耦合权重系数的标准化后的值设为w3=+1.0。通过该标准化,其余的耦合权重系数的标准化后的值成为w0=+0.4、w1=-0.6、w2=-0.8。
接着,如图12A所示,使用被标准化的耦合权重系数决定向运算机构PU0~PU3的电阻变化元件RP、RN写入的电流值。在图12B中表示向电阻变化元件RP、RN写入的电流值的计算结果。由于耦合权重系数w0的标准化后的值是+0.4,为正值,所以向电阻变化元件RP写入的电流值为20uA,向电阻变化元件RN写入的电流值为0uA。由于耦合权重系数w1的标准化后的值是-0.6,为负值,所以向电阻变化元件RP写入的电流值为0uA,向电阻变化元件RN写入的电流值为30uA。由于耦合权重系数w2的标准化后的值是-0.8,为负值,所以向电阻变化元件RP写入的电流值为0uA,向电阻变化元件RN写入的电流值为40uA。由于耦合权重系数w3的标准化后的值是+1.0,为正值,所以向电阻变化元件RP写入的电流值为50uA,向电阻变化元件RN写入的电流值为0uA。这样,通过向运算机构PU0~PU3的电阻变化元件RP、RN写入电流值(电阻值),能够进行神经网络运算。
<使用非易失性半导体存储元件的神经网络运算电路的第2实施方式>
图13A~图13D是表示有关第2实施方式的神经网络电路的结构、真值表、耦合权重系数的值、以及输入层、隐藏层、输出层的运算动作的图。
图13A是表示有关第2实施方式的神经网络电路的结构的图。第2实施方式的神经网络电路是具有输入层1、隐藏层2、输出层3的多层神经网络电路。
输入层1具有3个输入x0~x2,输入x0是总为1数据的输入,如在上述的图4中表示那样,通过输入x0和其耦合权重系数进行隐藏层2的偏倚系数的运算。2个输入x1、x2从外部作为输入数据而被输入。
隐藏层2具有1个输入y0和3个神经元y1~y3,输入y0是总为1数据的输入,如在上述的图4中表示那样,通过输入y0和其耦合权重系数进行输出层3的偏倚系数的运算。3个神经元y1~y3分别从输入层1接受3个输入x0~x2和其耦合权重系数,将输出y1~y3输出。
输出层3具有1个神经元z1,从隐藏层2接受4个输入y0~y3和其耦合权重系数,将输出z1输出。
在图13A的式(1)和式(2)中表示神经元y1~y3、z1的神经网络运算的计算。这里,耦合权重系数wik_y是在隐藏层2的神经元y1~y3的计算中使用的耦合权重系数,耦合权重系数wik_z是在输出层3的计算中使用的耦合权重系数,激活函数f是阶跃函数。
图13B是表示有关第2实施方式的神经网络电路的真值表的图。2个输入的x1、x2、输出z1取0数据或1数据的值,输出z1仅在输入x1、x2都是1数据的情况下输出1数据,在其他情况下输出0数据。即,有关第2实施方式的神经网络电路是输出z1对输入x1、x2的AND逻辑进行输出。
图13C是表示有关第2实施方式的神经网络电路的耦合权重系数的图。隐藏层2的神经元y1~y3分别具有与3个输入x0~x2对应的3个耦合权重系数。此外,输出层3的神经元z1具有与4个输入y0~y3对应的4个耦合权重系数。
图13D是表示有关第2实施方式的神经网络电路的输入层、隐藏层、输出层的运算动作的图。输入层1的输入的组合是4种。隐藏层2的接受到来自输入层1的输入x0~x2的神经元y1~y3的乘加运算结果和以乘加运算结果为输入的激活函数(阶跃函数)的输出结果、以及输出层3的接受到来自隐藏层2的输入y0~y3的神经元z1的乘加运算结果和以乘加运算结果为输入的激活函数(阶跃函数)的输出结果如图13D,如图13B的真值表所示,输出z1对输入x1、x2的AND逻辑进行输出。
图14A及图14B是表示有关第2实施方式的神经网络运算电路的运算机构的电阻变化元件的电流范围、以及向电阻变化元件写入的电流值的图。如图14A所示,与第1实施方式同样,在第2实施方式中,假设电阻变化元件RP、RN中流过的电流值的能够取的范围为0uA到50uA。即,电流值的最小值Imin是0uA,电流值的最大值Imax是50uA,使用50uA的电流范围(动态范围)。
图14B是表示将在隐藏层2的神经元y1~y3、输出层3的神经元z1的神经网络运算中使用的耦合权重系数向运算机构的电阻变化元件RP、RN写入的电流值的图。首先,计算将耦合权重系数标准化为0~1的范围的耦合权重系数,根据标准化后的耦合权重系数,决定向电阻变化元件RP、RN写入的电流值。耦合权重系数的标准化按每个神经元来实施。
说明计算将隐藏层2的神经元y1的耦合权重系数w10_y=+0.8、w11_y=-0.6、w12_y=-0.4向电阻变化元件RP、RN写入的电流值的方法。将3个耦合权重系数分别作为电阻值(电流值)向3个运算机构的电阻变化元件RP、RN写入。当进行耦合权重系数的标准化时,耦合权重系数w10_y、w11_y、w12_y的绝对值最大的是w10_y=+0.8,将该耦合权重系数的标准化后的值设为w10_y=+1.0。通过该标准化,其余的耦合权重系数的标准化后的值成为w11_y=-0.75、w12_y=-0.5。
接着,如图14A所示,使用标准化后的耦合权重系数,决定向运算机构的电阻变化元件RP、RN写入的电流值。在图14B中表示向电阻变化元件RP、RN写入的电流值的计算结果。由于耦合权重系数w10_y的标准化后的值是+1.0,为正值,所以向电阻变化元件RP写入的电流值为50uA,向电阻变化元件RN写入的电流值为0uA。由于耦合权重系数w11_y的标准化后的值是-0.75,为负值,所以向电阻变化元件RP写入的电流值为0uA,向电阻变化元件RN写入的电流值为37.5uA。由于耦合权重系数w12_y的标准化后的值是-0.5,为负值,所以向电阻变化元件RP写入的电流值为0uA,向电阻变化元件RN写入的电流值为25uA。同样,在图14B中表示对于隐藏层2的神经元y2、y3、输出层3的神经元z1计算向运算机构的电阻变化元件RP、RN写入的电流值的结果。
在神经网络电路的运算动作中,对于配置在存储器单元阵列中的多个运算机构的电阻变化元件RP、RN写入图14B所示的电流值(电阻值),首先以输入层1的输入数据为输入,选择保存有隐藏层2的运算所需要的耦合权重系数的运算机构,检测及判定流过位线的电流,由此决定隐藏层2的输出数据。接着,以隐藏层2的输出数据为输入,选择保存有输出层3的运算所需要的耦合权重系数的运算机构,检测及判定流过位线的电流,由此决定输出层3的输出数据。通过这样动作,能够进行多层神经网络运算。
<结论>
如以上这样,本发明的使用非易失性半导体存储元件的神经网络运算电路使用流过非易失性半导体存储元件的电流值进行神经网络电路的乘加运算动作。由此,不用搭载由以往的数字电路构成的大容量的存储器电路或寄存器电路、大规模的乘法电路或累积电路(累加器电路)、以及复杂的控制电路就能够进行乘加运算动作,所以能够实现神经网络运算电路的低功耗化、以及半导体集成电路的芯片面积缩小化。此外,由于是神经元的输入数据和输出数据能够取0数据或1数据的2值的数字数据的神经网络电路,所以能够使神经元间的信息传递成为数字传送,容易进行使用多个神经元的大规模的神经网络电路的安装,能够实现大规模的神经网络电路的半导体集成化。即,本发明的使用非易失性半导体存储元件的神经网络运算电路能够实现低功耗化和大规模集成化。
以上,说明了本发明的实施方式,但本发明的使用非易失性半导体存储元件的神经网络运算电路并不仅限定于上述的例示,对于在不脱离本发明的主旨的范围内施加了各种变更等的形态也是有效的。
例如,上述实施方式的使用非易失性半导体存储元件的神经网络运算电路是电阻变化型非易失性存储器(ReRAM)的例子,但本发明在磁阻型非易失性存储器(MRAM)、相变型非易失性存储器(PRAM)、强电介质型非易失性存储器(FeRAM)等电阻变化型存储器以外的非易失性半导体存储元件中也能够应用。
产业上的可利用性
有关本发明的使用非易失性半导体存储元件的神经网络运算电路由于是使用非易失性半导体存储元件进行乘加运算动作的结构,所以不用搭载以往的使用数字电路的乘法电路或累积电路(累加器电路)等就能够进行乘加运算动作。此外,通过将输入数据和输出数据进行2值的数字化,能够容易地将大规模的神经网络电路集成化。
因而,具有能够实现神经网络运算电路的低功耗化和大规模集成化的效果,例如对于搭载有自己进行学习和判断的人工智能(AI:ArtificialIntelligence)技术的半导体集成电路、以及搭载有这些的电子设备等是有用的。
标号说明
1 输入层
2 隐藏层
3 输出层
10 神经元
11 耦合权重
20 存储器单元阵列
30 字线选择电路
40 列选通器
50 判定电路
60 写入电路
70 控制电路
80 半导体基板
81a、81b 扩散区域
82 氧化膜
83 栅极电极(字线)
84a、84b、86、88、92 导通孔
85a、85b 第1布线层
87 第2布线层
89 下部电极
90 电阻变化层
91 上部电极
93 第3布线层
x0~xn 输入
w0~wn 耦合权重系数
b 偏倚系数
f 激活函数
y 输出
PU0~PUn 运算机构
MC 存储器单元
T0、T1 单元晶体管
RP、RN 电阻变化元件
YT0、YT1 列选通晶体管
DT0、DT1 放电晶体管
WL0~WLn 字线
BL0~BLm 位线
SL0~SLm 源极线
YG 列选通器选择信号
DIS 放电控制信号
Vbl 位线电压
Rpi、Rni 电阻变化元件的电阻值
Ipi、Ini 流过电阻变化元件的电流值

Claims (10)

1.一种使用非易失性半导体存储元件的神经网络运算电路,根据能够取第1逻辑值或第2逻辑值的数据的多个输入数据、与多个输入数据分别对应的多个耦合权重系数、以及多个输入数据与对应的耦合权重系数的乘加运算结果,输出第1逻辑值或第2逻辑值的输出数据,其特征在于,具备:
多个字线;
第1数据线;
第2数据线;
第3数据线;
第4数据线;
多个运算机构,各运算机构包括由第1非易失性半导体存储元件与第1单元晶体管的串联连接、以及由第2非易失性半导体存储元件与第2单元晶体管的串联连接,第1非易失性半导体存储元件的一端连接于第1数据线,第1单元晶体管的一端连接于第2数据线,第2非易失性半导体存储元件的一端连接于第3数据线,第2单元晶体管的一端连接于第4数据线,第1单元晶体管的栅极及第2单元晶体管的栅极一起连接于多个字线中的对应的一个字线;
字线选择电路,根据多个输入数据将多个字线设为选择状态或非选择状态;以及
判定电路,在神经网络运算电路进行神经网络运算动作的情况下,判定在第1数据线和第3数据线上产生的电流值的大小关系,输出第1逻辑值或第2逻辑值的数据作为输出数据;
在多个运算机构的第1非易失性半导体存储元件和第2非易失性半导体存储元件中保存多个耦合权重系数,
在神经网络运算电路进行神经网络运算动作的情况下,第1数据线和第3数据线连接于判定电路,第2数据线和第4数据线连接于接地电压。
2.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
在上述多个耦合权重系数向上述多个运算机构的第1非易失性半导体存储元件和第2非易失性半导体存储元件的保存中,
在上述耦合权重系数为正值的情况下,向上述第1非易失性半导体存储元件进行写入,以使流过上述第1非易失性半导体存储元件的电流值成为与上述耦合权重系数的值成比例的电流值,
在上述耦合权重系数为负值的情况下,向上述第2非易失性半导体存储元件进行写入,以使流过上述第2非易失性半导体存储元件的电流值成为与上述耦合权重系数的值成比例的电流值。
3.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
在上述多个耦合权重系数向上述多个运算机构的第1非易失性半导体存储元件和第2非易失性半导体存储元件的保存中,
在上述耦合权重系数为正值的情况下,向上述第1非易失性半导体存储元件和第2非易失性半导体存储元件进行写入,以使流过上述第1非易失性半导体存储元件的电流值比流过上述第2非易失性半导体存储元件的电流值大,并且其电流差成为与上述耦合权重系数的值成比例的电流值,
在上述耦合权重系数为负值的情况下,向上述第1非易失性半导体存储元件和第2非易失性半导体存储元件进行写入,以使流过上述第2非易失性半导体存储元件的电流值比流过上述第1非易失性半导体存储元件的电流值大,并且其电流差成为与上述耦合权重系数的值成比例的电流值。
4.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
上述字线选择电路在上述输入数据是第1逻辑值的情况下,将对应的字线设为非选择状态,
上述字线选择电路在上述输入数据是第2逻辑值的情况下,将对应的字线设为选择状态。
5.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
在上述第1数据线中,流过与耦合权重系数为正值的多个输入数据和对应的正值的耦合权重系数的乘加运算结果对应的电流值,
在上述第3数据线中,流过与耦合权重系数为负值的多个输入数据和对应的负值的耦合权重系数的乘加运算结果对应的电流值。
6.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
上述判定电路在流过上述第1数据线的电流值比流过上述第3数据线的电流值小的情况下,输出第1逻辑值,
上述判定电路在流过上述第1数据线的电流值比流过上述第3数据线的电流值大的情况下,输出第2逻辑值。
7.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
上述第1非易失性半导体存储元件和上述第2非易失性半导体存储元件是由电阻变化型元件形成的电阻变化型存储元件。
8.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
上述第1非易失性半导体存储元件和上述第2非易失性半导体存储元件是由磁阻变化型元件形成的磁阻变化型存储元件。
9.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
上述第1非易失性半导体存储元件和上述第2非易失性半导体存储元件是由相变型元件形成的相变型存储元件。
10.如权利要求1所述的使用非易失性半导体存储元件的神经网络运算电路,其特征在于,
上述第1非易失性半导体存储元件和上述第2非易失性半导体存储元件是由强电介质型元件形成的强电介质型存储元件。
CN201880057229.5A 2017-09-07 2018-08-29 使用非易失性半导体存储元件的神经网络运算电路 Active CN111095417B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-171846 2017-09-07
JP2017171846 2017-09-07
PCT/JP2018/031899 WO2019049741A1 (ja) 2017-09-07 2018-08-29 不揮発性半導体記憶素子を用いたニューラルネットワーク演算回路

Publications (2)

Publication Number Publication Date
CN111095417A CN111095417A (zh) 2020-05-01
CN111095417B true CN111095417B (zh) 2023-08-29

Family

ID=65634088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880057229.5A Active CN111095417B (zh) 2017-09-07 2018-08-29 使用非易失性半导体存储元件的神经网络运算电路

Country Status (6)

Country Link
US (1) US11604974B2 (zh)
EP (1) EP3680907A4 (zh)
JP (1) JP6858870B2 (zh)
CN (1) CN111095417B (zh)
TW (1) TWI674534B (zh)
WO (1) WO2019049741A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI698810B (zh) * 2019-06-14 2020-07-11 旺宏電子股份有限公司 類神經計算裝置
US11233049B2 (en) 2019-06-14 2022-01-25 Macronix International Co., Ltd. Neuromorphic computing device
US11514300B2 (en) 2019-06-14 2022-11-29 Macronix International Co., Ltd. Resistor circuit, artificial intelligence chip and method for manufacturing the same
US20210011732A1 (en) * 2019-07-09 2021-01-14 MemryX Inc. Matrix Data Reuse Techniques in Processing Systems
US10915248B1 (en) * 2019-08-07 2021-02-09 Macronix International Co., Ltd. Memory device
CN110751279B (zh) * 2019-09-02 2022-10-14 北京大学 一种铁电电容耦合神经网络电路结构及神经网络中向量与矩阵的乘法运算方法
JP2021057446A (ja) * 2019-09-30 2021-04-08 ソニーセミコンダクタソリューションズ株式会社 半導体素子、不揮発性記憶装置、積和演算装置、及び半導体素子の製造方法
US11663455B2 (en) * 2020-02-12 2023-05-30 Ememory Technology Inc. Resistive random-access memory cell and associated cell array structure
CN111681696B (zh) * 2020-05-28 2022-07-08 中国科学院微电子研究所 基于非易失存储器的存储和数据处理方法、装置及设备
JP7150787B2 (ja) 2020-07-31 2022-10-11 ウィンボンド エレクトロニクス コーポレーション 抵抗変化型クロスバーアレイ装置
US11748062B2 (en) 2021-01-28 2023-09-05 Macronix International Co., Ltd. Multiplication and addition operation device and control method for multiplication and addition operation thereof
KR102582800B1 (ko) * 2021-04-09 2023-09-26 광운대학교 산학협력단 분할된 비트라인 기반 계산 메모리 장치를 이용한 곱의 합 연산을 수행하는 방법
KR20220141652A (ko) 2021-04-13 2022-10-20 삼성전자주식회사 멀티-비트 연산 장치 및 방법
KR20220148558A (ko) * 2021-04-29 2022-11-07 삼성전자주식회사 뉴로모픽 컴퓨팅 장치 및 그 설계 방법
WO2023171683A1 (ja) * 2022-03-11 2023-09-14 ヌヴォトンテクノロジージャパン株式会社 ニューラルネットワーク演算回路
WO2023171406A1 (ja) * 2022-03-11 2023-09-14 ヌヴォトンテクノロジージャパン株式会社 演算回路ユニット、ニューラルネットワーク演算回路、および、ニューラルネットワーク演算回路の駆動方法
US20230326499A1 (en) * 2022-04-12 2023-10-12 Stmicroelectronics S.R.L. Signed and binary weighted computation for an in-memory computation system
CN115019856B (zh) * 2022-08-09 2023-05-16 之江实验室 一种基于rram多值存储的存内计算方法与系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676582A (ja) * 1992-08-27 1994-03-18 Hitachi Ltd 半導体装置
CN1396602A (zh) * 2001-07-06 2003-02-12 株式会社东芝 非易失性半导体存储装置
CN104160450A (zh) * 2012-03-07 2014-11-19 松下电器产业株式会社 非易失性半导体存储装置
CN105404925A (zh) * 2015-11-02 2016-03-16 上海新储集成电路有限公司 一种三维神经网络芯片

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02161556A (ja) 1988-12-14 1990-06-21 Sumitomo Electric Ind Ltd ニューラルネットワークシステム
JPH06259585A (ja) 1993-03-10 1994-09-16 Toyota Central Res & Dev Lab Inc ニューラルネットワーク装置
TW318933B (en) * 1996-03-08 1997-11-01 Hitachi Ltd Semiconductor IC device having a memory and a logic circuit implemented with a single chip
JP2001188767A (ja) 1999-12-28 2001-07-10 Fuji Xerox Co Ltd ニューラルネットワーク演算装置及びニューラルネットワークの演算方法
JP4248187B2 (ja) * 2002-03-27 2009-04-02 シャープ株式会社 集積回路装置及びニューロ素子
US7302513B2 (en) * 2006-04-03 2007-11-27 Blaise Laurent Mouttet Programmable crossbar signal processor
JP5155843B2 (ja) * 2008-12-22 2013-03-06 シャープ株式会社 情報処理装置及びこれを用いたニューラルネットワーク回路
US8018758B2 (en) * 2009-07-06 2011-09-13 Magic Technologies, Inc. Gate drive voltage boost schemes for memory array
FR2977350B1 (fr) * 2011-06-30 2013-07-19 Commissariat Energie Atomique Reseau de neurones artificiels a base de dispositifs memristifs complementaires
US10474948B2 (en) * 2015-03-27 2019-11-12 University Of Dayton Analog neuromorphic circuit implemented using resistive memories
JP6602279B2 (ja) * 2016-09-20 2019-11-06 株式会社東芝 メムキャパシタ、ニューロ素子およびニューラルネットワーク装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676582A (ja) * 1992-08-27 1994-03-18 Hitachi Ltd 半導体装置
CN1396602A (zh) * 2001-07-06 2003-02-12 株式会社东芝 非易失性半导体存储装置
CN104160450A (zh) * 2012-03-07 2014-11-19 松下电器产业株式会社 非易失性半导体存储装置
CN105404925A (zh) * 2015-11-02 2016-03-16 上海新储集成电路有限公司 一种三维神经网络芯片

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
David J. Mountain.Technology considerations for neuromorphic computing.《2016 IEEE International Conference on Rebooting Computing》.2016,第1-6页. *

Also Published As

Publication number Publication date
EP3680907A4 (en) 2020-10-28
TW201921282A (zh) 2019-06-01
JPWO2019049741A1 (ja) 2020-07-30
US11604974B2 (en) 2023-03-14
US20200202204A1 (en) 2020-06-25
TWI674534B (zh) 2019-10-11
WO2019049741A1 (ja) 2019-03-14
EP3680907A1 (en) 2020-07-15
CN111095417A (zh) 2020-05-01
JP6858870B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
CN111095417B (zh) 使用非易失性半导体存储元件的神经网络运算电路
CN111052154B (zh) 使用非易失性半导体存储元件的神经网络运算电路
US11663457B2 (en) Neural network circuits having non-volatile synapse arrays
Sun et al. XNOR-RRAM: A scalable and parallel resistive synaptic architecture for binary neural networks
CN110825345A (zh) 使用非易失性存储器单元的乘法
CN110782028A (zh) 具有差分二进制非易失性存储器单元结构的可配置精密神经网络
CN110729011B (zh) 用于类神经网路的存储器内运算装置
KR102567160B1 (ko) 비휘발성의 시냅스 배열을 가지는 신경망 회로
US20210117500A1 (en) Methods to tolerate programming and retention errors of crossbar memory arrays
US20230059091A1 (en) Neuromorphic circuit based on 2t2r rram cells
WO2023171683A1 (ja) ニューラルネットワーク演算回路
US11881260B2 (en) Neuromorphic computing device and method of designing the same
KR102656337B1 (ko) 삼항 정밀도 xor 논리 연산을 기반으로 하는 반도체 소자 및 이를 포함하는 뉴로모픽 컴퓨팅 시스템
CN111656371B (zh) 具有非易失性突触阵列的神经网络电路
JP2023505178A (ja) 容量性処理ユニット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Osaka, Japan

Applicant after: Panasonic Holding Co.,Ltd.

Address before: Osaka, Japan

Applicant before: Matsushita Electric Industrial Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant