CN111460365B - 一种基于忆阻线性神经网络的方程组求解器及其操作方法 - Google Patents
一种基于忆阻线性神经网络的方程组求解器及其操作方法 Download PDFInfo
- Publication number
- CN111460365B CN111460365B CN202010160498.3A CN202010160498A CN111460365B CN 111460365 B CN111460365 B CN 111460365B CN 202010160498 A CN202010160498 A CN 202010160498A CN 111460365 B CN111460365 B CN 111460365B
- Authority
- CN
- China
- Prior art keywords
- memristor
- neural network
- linear
- equation set
- memristor array
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/12—Simultaneous equations, e.g. systems of linear equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/13—Differential equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Operations Research (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Analogue/Digital Conversion (AREA)
Abstract
本发明公开了一种基于忆阻线性神经网络的方程组求解器及其操作方法,求解器包括数模转换模块,忆阻器阵列,电流减法电路,模数转换模块,比较模块和电导调制模块,忆阻器作为神经网络的神经突触,执行模拟式矢量‑矩阵乘法操作,完成忆阻线性神经网络的训练过程,最终求解方程组。本发明在求解神经网络的训练过程中求解了系数矩阵的矩阵逆,在求解微分方程时,仅需一次训练过程,即可通过迭代将数值解扩展到整个时域上,减少了电路复杂度,减少了一次数据传输的过程,降低了电路功耗,同时相比起传统的利用计算机求解线性方程组的过程,采用该电路可有效降低时间复杂度,实现存储与计算的融合,大幅节约运算能耗和时间,可靠性高。
Description
技术领域
本发明属于模拟电路领域,更具体地,涉及一种基于忆阻线性神经网络的方程组求解器及其操作方法。
背景技术
线性方程组是诸多实际问题的基本数学模型,而同时,诸多的难以得到解析解的微分方程可以通过有限差分法转化为线性方程组得到微分方程的数值解,这进一步扩展了微分方程的应用范围,因此需要一种高效,迅速的线性方程组求解系统来满足实际应用的需要。
传统的线性方程组求解系统基于冯·诺依曼计算机架构,这种存储器与计算器分离的计算架构在进行求解计算时,数据在处理器与存储器之间频繁传输,造成了巨大的功耗与延时,而传统的求解线性方程组的数学方法诸如高斯消元法、雅克比行列式迭代法等因其求解过程中需要反复进行迭代操作,在系数矩阵规模巨大时,这个问题变得愈发严重,因此迫切需要一种新型的计算架构和运算方法来解决这个问题。
发明内容
针对现有技术的缺陷,本发明的目的在于提供一种基于忆阻线性神经网络的方程组求解器及其操作方法,采用了神经网络的思想,以解决现有数学方法与运算电路存在的延时高、功耗高的问题。
为实现上述目的,按照本发明的一方面,提供了一种基于忆阻线性神经网络的方程组求解器,包括一个数模转换模块,一个忆阻器阵列,n个电流减法电路,一个模数转换模块,一个比较模块和一个电导调制模块;数模转换将输入的数字量转换为电压矢量作为所述忆阻器阵列的输入;忆阻器阵列利用忆阻器存储的电导值输出电流;电流减法电路依次连接在忆阻器阵列的列输出线上,将输入到其上的两列输出电流相减,并将相减后的输出电流转换为电压;模数转换模块将所述电流减法电路输出的电压量转换为相应的数字量;比较模块将所述模数转换模块输出的数字量与目标值相比较,并计算误差,确定需要调整的忆阻线性神经网络的权重值并反馈给电导调制模块;电导调制模块将所述需要调整的忆阻线性神经网络的权重值转换为需要调制的电导值,并利用电脉冲调制忆阻器阵列中对应的电导值;调整后的忆阻线性神经网络的权重值代表系数矩阵的逆矩阵,从而求得目标矢量下的解。
其中,忆阻器阵列为十字交叉结构,忆阻器件处于电极线的交叉点上,所述忆阻器阵列大小为n×2n规格,适用于n×n规模的非奇异系数矩阵的线性方程组的求解;n为大于等于2的正整数。忆阻器具有多阶可调制电导,可以作为神经网络的神经突触使用,可以执行模拟式矢量-矩阵乘法操作,因此忆阻器阵列可以加速神经网络的训练过程。同时由于神经网络的权值存储在忆阻器阵列里,基于忆阻器阵列的模拟式矢量-矩阵乘法运算是存算一体的,具有电路面积小,功耗低的特点。
进一步地,电流减法电路包括两个跨阻放大器和一个电压减法器,跨阻放大器将电流转换为等比例电压,电压减法器完成电压相减。
进一步地,忆阻线性神经网络不含任何隐藏层,仅含有输入层和输出层,且输入和输出关系为O=∑I·W,其中O为输出,W为忆阻线性神经网络的权重值,I为输入。
按照本发明的另一方面,提供了一种线性方程求解器的操作方法,包括以下步骤:
S1.确定需要求解的线性方程组的系数矩阵,并保证系数矩阵非奇异,将系数矩阵作为忆阻线性神经网络的训练集,将与系数矩阵同维度的单位矩阵作为忆阻线性神经网络的训练目标,设置忆阻线性神经网络的训练精度,设置忆阻线性神经网络的学习率;
S2.将系数矩阵输入线性方程组求解器,系数矩阵先经过数模转换器转换为电压量并被施加在忆阻器阵列的行输入端上,经由忆阻器阵列执行矢量矩阵乘法并在忆阻器阵列的列输出端得到电流量,电流量经过电流减法电路和模数转换器转换为数值矩阵;
S3.将S2得到的数值矩阵与单位矩阵比较,若误差大于S1设置的训练精度,则将误差转换为需要调整的权重值并输入到电导调制模块;若误差小于等于S1设置的训练精度,则结束忆阻线性神经网络的训练过程;误差定义方法为:
其中,D为目标矢量,B为输出矢量;
权值更新方法为:
其中,η为学习率,бi为忆阻器阵列第i个输出端口的输出误差;
电导与权值直接的映射关系为:
W=α(G+-G_)
其中G+为电流减法电路正向输入端上的器件,G-电流减法电路负向输入端上的器件,ɑ为线性系数;
S4.电导调制模块将S3输入的数值转换为需要调整的电导值并利用脉冲信号调制忆阻器阵列相应位置的忆阻器的电导值;
S5.重复步骤S2至S4,直到误差小于等于S1设置的训练精度,完成忆阻线性神经网络的训练过程;
S6.将线性方程组AX=b的目标矢量b输入求解器,经由数模转换器转换为电压量并施加在忆阻器阵列的行输入端上,经由忆阻器阵列执行矢量矩阵乘法并在忆阻器阵列的列输出端得到电流量,电流量经过模数转换器转换为数值量,该数值量即为线性方程组AX=b的解X。
进一步地,由于微分方程系统可利用有限差分的方式离散为线性方程组,该求解器也可用于求解微分方程。
更进一步地,由于任意的同维度的微分方程的离散系数矩阵相同,该方程求解器仅需经历一次训练过程即可针对多个方程进行求解。
更进一步地,由于时变偏微分方程在时间变化的过程中系数矩阵不发生改变,该方程求解器仅需一次训练过程即可用于求解时变偏微分方程。
通过本发明所构思的以上技术方案,与现有技术相比,本发明在进行线性方程组求解时使用上述求解器,该求解器基于忆阻神经网络的特性,由于忆阻器具有高速、低功耗、易集成以及与CMOS工艺相兼容等优点,其具有多级电导调控特性,可以通过电导存储运算用的数据矩阵,以实现矢量-矩阵乘法,本发明在求解神经网络的训练过程中求解了系数矩阵的矩阵逆,在求解微分方程时,仅需一次训练过程,即可通过迭代将数值解扩展到整个时域上,减少了电路复杂度,减少了一次数据传输的过程,降低了电路功耗,同时相比起传统的利用计算机求解线性方程组的过程,采用该电路可有效降低时间复杂度,实现存储与计算的融合,大幅节约运算能耗和时间,可靠性高。
附图说明
图1是本发明提供的基于忆阻器的忆阻器阵列结构示意图;
图2是本发明提供的忆阻器阵列执行矢量-乘法的操作方式示意图;
图3是本发明提供的基于忆阻器的线性方程组求解器的求解流程示意图;
图4是本发明提供的线性神经网络结构示意图和忆阻器阵列实现方式示意图;
图5是本发明提供的电流减法电路的结构示意图;
图6是本发明实施例一提供的基于忆阻器的线性方程组求解器的系数矩阵求逆过程示意图;
图7是本发明实施例二提供的基于忆阻器的线性方程组求解器的求解过程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间不构成冲突就可以相互组合。
图1为本发明使用的忆阻器阵列结构示意图,包括一个数模转换模块,一个忆阻器阵列,n个电流减法电路,一个模数转换模块,一个比较模块和一个电导调制模块;数模转换将输入的数字量转换为电压矢量作为所述忆阻器阵列的输入;忆阻器阵列利用忆阻器存储的电导值输出电流;电流减法电路依次连接在忆阻器阵列的列输出线上,将输入到其上的两列输出电流相减,并将相减后的输出电流转换为电压;模数转换模块将所述电流减法电路输出的电压量转换为相应的数字量;比较模块将所述模数转换模块输出的数字量与目标值相比较,并计算误差,确定需要调整的忆阻线性神经网络的权重值并反馈给电导调制模块;电导调制模块将所述需要调整的忆阻线性神经网络的权重值转换为需要调制的电导值,并利用电脉冲调制忆阻器阵列中对应的电导值;调整后的忆阻线性神经网络的权重值代表系数矩阵的逆矩阵,从而求得目标矢量下的解。
该忆阻器阵列为十字交叉结构,具有多阶可调电导特征的忆阻器处于阵列的十字交叉点上,该阵列为2n×n规格,其中每相邻两列构成一个差动对,用于实现神经网络的负权值,差动对中左侧一列为“+”右侧一列为“-”,该忆阻器阵列具有一个行输入端和一个列输出端,分别输入电压信号输出电流信号。
具体地,电流减法电路包括两个跨阻放大器和一个电压减法器,跨阻放大器将电流转换为等比例电压,电压减法器完成电压相减。
具体地,忆阻线性神经网络不含任何隐藏层,仅含有输入层和输出层,且输入和输出关系为O=∑I·W,其中O为输出,W为忆阻线性神经网络的权重值,I为输入。
图2为本发明使用的忆阻器阵列执行矢量-矩阵乘法操作的示意图,在执行矢量-矩阵乘法操作时,将数值矢量映射为电压矢量施加在忆阻器阵列的输入端,将矩阵映射为电导存储在忆阻器阵列中,设矩阵为A,则A中的元素为amn,则矩阵元素在忆阻阵列中的存储方式为根据欧姆定律,i=u·g,即对于忆阻阵列中的每一个单元都会得到一个电流量,而根据基尔霍夫电流定律,阵列的每一列的输出电流是这一列上每一个单元的电流之和,则每一列的输出电流为由此可在列线上得到一系列输出的电流,这些电流就构成了电流矢量,由此,忆阻阵列完成了一次基于模拟量的矢量矩阵乘法。
图3为本发明执行线性方程组求解和偏微分方程求解的流程图,包括以下步骤:
S1.确定需要求解的线性方程组的系数矩阵,并保证系数矩阵非奇异,将系数矩阵作为忆阻线性神经网络的训练集,将与系数矩阵同维度的单位矩阵作为忆阻线性神经网络的训练目标,设置忆阻线性神经网络的训练精度,设置忆阻线性神经网络的学习率;
S2.将系数矩阵输入线性方程组求解器,系数矩阵先经过数模转换器转换为电压量并被施加在忆阻器阵列的行输入端上,经由忆阻器阵列执行矢量矩阵乘法并在忆阻器阵列的列输出端得到电流量,电流量经过电流减法电路和模数转换器转换为数值矩阵;
S3.将S2得到的数值矩阵与单位矩阵比较,若误差大于S1设置的训练精度,则将误差转换为需要调整的权重值并输入到电导调制模块;若误差小于等于S1设置的训练精度,则结束忆阻线性神经网络的训练过程;
S4.电导调制模块将S3输入的数值转换为需要调整的电导值并利用脉冲信号调制忆阻器阵列相应位置的忆阻器的电导值;
S5.重复步骤S2至S4,直到误差小于等于S1设置的训练精度,完成忆阻线性神经网络的训练过程;
S6.将线性方程组AX=b的目标矢量b输入求解器,经由数模转换器转换为电压量并施加在忆阻器阵列的行输入端上,经由忆阻器阵列执行矢量矩阵乘法并在忆阻器阵列的列输出端得到电流量,电流量经过模数转换器转换为数值量,该数值量即为线性方程组AX=b的解X。
在进行求解前需要确定待求解的线性方程组AX=b,保证系数矩阵A为非奇异矩阵,然后,搭建基于忆阻器阵列的线性神经网络,网络大小与系数矩阵A的维度相同,网络搭建好后设置网络训练参数,一般推荐网络学习率为0.015,训练精度0.0001,将线性方程组系数矩阵A作为训练集,将与A同维度的单位矩阵作为网络的训练目标。完成训练后,网络的权值矩阵即为A的逆矩阵,在将矢量b作为训练好的神经网络的输入,则得到的输出就是该线性方程组的解X,若需要求解微分方程,则需要将微分方程转换为线性方程组后输入网络。
图4为本发明所使用的线性神经网络结构示意图和忆阻器阵列实现方式,线性神经网络不含有隐藏层仅含有输入输出层,且网络的输入输出关系为O=∑I·W,其形式恰好为矢量-矩阵乘法的形式,因此一个线性神经网络的权连接层可由单个忆阻器阵列实现,网络权值与本发明使用的忆阻器阵列直接的映射关系为W=α(G+-G-),其中α为线性系数。
图5为本发明使用的电流减法电路的结构示意图,如左图所示,考虑到电压型模拟-数字转换器比电流型模拟-数字转换器更易于实习,电流减法器的主要作用为将一个差动对里编号为“+”的列的输出电流I+与编号为“-”的列的输出电流“I-”相减后转换为电压输出。同时考虑到电压减法电路比电流减法电路更易于实现,本发明提供的电流减法电路现将电流I+与I-转换为电压再进行电压减法,本发明使用跨阻放大器实现电流-电压转换,跨阻放大器的输入/输出关系为V=-R1·I,电压减法电路的输入/输出关系为选取R1=1KΩ,R2=R3=1KΩ可以等比例的完成电流减法与电压电流转换。
图6为本发明实施例1,利用基于忆阻阵列求解线性方程组的整体架构与网络训练过程,确定网络大小并设置好线性神经网络的训练参数后,首先,线性方程组系数矩阵A通过数模转换模块转换为电压矢量并施加在忆阻器阵列的输入端上,进行模拟式矢量-矩阵乘法在忆阻阵列的输出端得到电流矢量,电流矢量经过电流减法电路完成相减并转换为电压矢量进入模数转换模块,转换为数字量并输入比较模块,比较模块将输出结果与单位矩阵相比较确定误差,误差计算方程为并将误差输入到电导调制模块,电导调制模块确定需要调制的权值量Δw,其中 并通过如前所述的权值映射方式确定需要调制的电导值,利用电压脉冲调制忆阻器阵列中相应位置的忆阻器的权值。重复上述过程直到误差小于所设置的训练精度,则训练成功,忆阻阵列此时存储的网络权值即为系数矩阵A的逆矩阵A-1。
图7为本发明实施例2,利用基于忆阻器阵列求解线性方程组的求解过程,在完成网络训练过程后,因为A·A-1=I,所以忆阻阵列存储的网络权值即为A-1,又对于AX=b有X=b·A-1,因此将矢量b输入求解器,b经过数模转换模块转换为模拟量,进行矢量-矩阵乘法后得到的电流矢量经过电流减法电路和模数转换器得到的数值矢量即使是线性方程组AX=b的解X。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于忆阻线性神经网络的方程组求解器,其特征在于,包括一个数模转换模块,一个忆阻器阵列,n个电流减法电路,一个模数转换模块,一个比较模块和一个电导调制模块;所述数模转换模块将输入的数字量转换为电压矢量作为所述忆阻器阵列的输入;所述忆阻器阵列利用忆阻器存储的电导值输出电流;所述电流减法电路依次连接在所述忆阻器阵列的列输出线上,将输入到其上的两列输出电流相减,并将相减后的输出电流转换为电压;所述模数转换模块将所述电流减法电路输出的电压量转换为相应的数字量;所述比较模块将所述模数转换模块输出的数字量与目标值相比较,并计算误差,确定需要调整的忆阻线性神经网络的权重值并反馈给电导调制模块;所述电导调制模块将所述需要调整的忆阻线性神经网络的权重值转换为需要调制的电导值,并利用电脉冲调制忆阻器阵列中对应的电导值;调整后的忆阻线性神经网络的权重值代表系数矩阵的逆矩阵,从而求得目标矢量下的解;
其中,n为大于等于2的正整数。
2.根据权利要求1所述的方程组求解器,其特征在于,所述忆阻器阵列为十字交叉结构,忆阻器件处于电极线的交叉点上,所述忆阻器阵列大小为n×2n规格,适用于n×n规模的非奇异系数矩阵的线性方程组的求解。
3.根据权利要求1所述的方程组求解器,其特征在于,所述电流减法电路包括两个跨阻放大器和一个电压减法器,跨阻放大器将电流转换为等比例电压,电压减法器完成电压相减。
4.根据权利要求1所述的方程组求解器,其特征在于,所述忆阻线性神经网络不含任何隐藏层,仅含有输入层和输出层,且输入和输出关系为O=∑I·W,其中O为输出,W为忆阻线性神经网络的权重值,I为输入。
5.一种基于权利要求1至4任一项所述的方程组求解器的操作方法,其特征在于,包括以下步骤:
S1.确定需要求解的线性方程组的系数矩阵,并保证系数矩阵非奇异,将系数矩阵作为忆阻线性神经网络的训练集,将与系数矩阵同维度的单位矩阵作为忆阻线性神经网络的训练目标,设置忆阻线性神经网络的训练精度,设置忆阻线性神经网络的学习率;
S2.将系数矩阵输入线性方程组求解器,系数矩阵先经过数模转换器转换为电压量并被施加在忆阻器阵列的行输入端上,经由忆阻器阵列执行矢量矩阵乘法并在忆阻器阵列的列输出端得到电流量,电流量经过电流减法电路和模数转换器转换为数值矩阵;
S3.将S2得到的数值矩阵与单位矩阵比较,若误差大于S1设置的训练精度,则将误差转换为需要调整的权重值并输入到电导调制模块;若误差小于等于S1设置的训练精度,则结束忆阻线性神经网络的训练过程;
S4.电导调制模块将S3输入的数值转换为需要调整的电导值并利用脉冲信号调制忆阻器阵列相应位置的忆阻器的电导值;
S5.重复步骤S2至S4,直到误差小于等于S1设置的训练精度,完成忆阻线性神经网络的训练过程;
S6.将线性方程组AX=b的目标矢量b输入求解器,经由数模转换器转换为电压量并施加在忆阻器阵列的行输入端上,经由忆阻器阵列执行矢量矩阵乘法并在忆阻器阵列的列输出端得到电流量,电流量经过模数转换器转换为数值量,该数值量即为线性方程组AX=b的解X。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010160498.3A CN111460365B (zh) | 2020-03-10 | 2020-03-10 | 一种基于忆阻线性神经网络的方程组求解器及其操作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010160498.3A CN111460365B (zh) | 2020-03-10 | 2020-03-10 | 一种基于忆阻线性神经网络的方程组求解器及其操作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111460365A CN111460365A (zh) | 2020-07-28 |
CN111460365B true CN111460365B (zh) | 2021-12-03 |
Family
ID=71682702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010160498.3A Active CN111460365B (zh) | 2020-03-10 | 2020-03-10 | 一种基于忆阻线性神经网络的方程组求解器及其操作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111460365B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111988031B (zh) * | 2020-08-28 | 2022-05-20 | 华中科技大学 | 一种忆阻存内矢量矩阵运算器及运算方法 |
CN112511166B (zh) * | 2020-11-27 | 2022-12-09 | 西安交通大学 | 基于忆阻器神经网络的高精度快速adc及模数转换方法 |
CN113076827B (zh) * | 2021-03-22 | 2022-06-17 | 华中科技大学 | 一种传感器信号智能处理系统 |
CN113642723B (zh) * | 2021-07-29 | 2024-05-31 | 安徽大学 | 一种实现原-异位训练的gru神经网络电路 |
CN114282478B (zh) * | 2021-11-18 | 2023-11-17 | 南京大学 | 一种修正可变电阻器件阵列点乘误差的方法 |
CN114186667B (zh) * | 2021-12-07 | 2024-08-23 | 华中科技大学 | 一种循环神经网络权重矩阵向忆阻阵列的映射方法 |
CN116504281A (zh) * | 2022-01-18 | 2023-07-28 | 浙江力德仪器有限公司 | 计算单元、阵列及计算方法 |
CN114418080A (zh) * | 2022-01-28 | 2022-04-29 | Oppo广东移动通信有限公司 | 存算一体运算方法、忆阻器神经网络芯片及存储介质 |
US20240192921A1 (en) * | 2022-12-09 | 2024-06-13 | International Business Machines Corporation | Fixed asymmetry compensation for multiply and accumulate operations |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017105517A1 (en) * | 2015-12-18 | 2017-06-22 | Hewlett Packard Enterprise Development Lp | Memristor crossbar arrays to activate processors |
JP2018147159A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社デンソー | ニューラルネットワーク回路 |
CN109460818A (zh) * | 2018-09-25 | 2019-03-12 | 电子科技大学 | 一种基于忆阻桥和阵列的多层神经网络设计方法 |
CN109472348A (zh) * | 2018-10-23 | 2019-03-15 | 华中科技大学 | 一种基于忆阻交叉阵列的lstm神经网络系统 |
CN109558946A (zh) * | 2018-10-29 | 2019-04-02 | 南京邮电大学 | 一种基于忆阻器阵列的识别系统 |
CN109800870A (zh) * | 2019-01-10 | 2019-05-24 | 华中科技大学 | 一种基于忆阻器的神经网络在线学习系统 |
CN109816096A (zh) * | 2019-01-23 | 2019-05-28 | 长安大学 | 一种基于忆阻器的感知器神经网络电路及其调节方法 |
CN110443356A (zh) * | 2019-08-07 | 2019-11-12 | 南京邮电大学 | 一种基于多阻态忆阻器的电流型神经网络 |
CN110443168A (zh) * | 2019-07-23 | 2019-11-12 | 华中科技大学 | 一种基于忆阻器的神经网络人脸识别系统 |
CN110796241A (zh) * | 2019-11-01 | 2020-02-14 | 清华大学 | 基于忆阻器的神经网络的训练方法及其训练装置 |
CN110842915A (zh) * | 2019-10-18 | 2020-02-28 | 南京大学 | 一种基于忆阻交叉阵列的机器人控制系统及方法 |
-
2020
- 2020-03-10 CN CN202010160498.3A patent/CN111460365B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017105517A1 (en) * | 2015-12-18 | 2017-06-22 | Hewlett Packard Enterprise Development Lp | Memristor crossbar arrays to activate processors |
JP2018147159A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社デンソー | ニューラルネットワーク回路 |
CN109460818A (zh) * | 2018-09-25 | 2019-03-12 | 电子科技大学 | 一种基于忆阻桥和阵列的多层神经网络设计方法 |
CN109472348A (zh) * | 2018-10-23 | 2019-03-15 | 华中科技大学 | 一种基于忆阻交叉阵列的lstm神经网络系统 |
CN109558946A (zh) * | 2018-10-29 | 2019-04-02 | 南京邮电大学 | 一种基于忆阻器阵列的识别系统 |
CN109800870A (zh) * | 2019-01-10 | 2019-05-24 | 华中科技大学 | 一种基于忆阻器的神经网络在线学习系统 |
CN109816096A (zh) * | 2019-01-23 | 2019-05-28 | 长安大学 | 一种基于忆阻器的感知器神经网络电路及其调节方法 |
CN110443168A (zh) * | 2019-07-23 | 2019-11-12 | 华中科技大学 | 一种基于忆阻器的神经网络人脸识别系统 |
CN110443356A (zh) * | 2019-08-07 | 2019-11-12 | 南京邮电大学 | 一种基于多阻态忆阻器的电流型神经网络 |
CN110842915A (zh) * | 2019-10-18 | 2020-02-28 | 南京大学 | 一种基于忆阻交叉阵列的机器人控制系统及方法 |
CN110796241A (zh) * | 2019-11-01 | 2020-02-14 | 清华大学 | 基于忆阻器的神经网络的训练方法及其训练装置 |
Non-Patent Citations (6)
Title |
---|
High-Precision Symmetric Weight Update of Memristor by Gate Voltage Ramping Method for Convolutional Neural Network Accelerator;Jia Chen;《IEEE Electron Device Letters》;20200121;第41卷(第3期);第353-356页 * |
Technological Exploration of RRAM Crossbar Array for Matrix-Vector Multiplication;Lixue Xia;《Computer Architecture and Systems》;20160131;第31卷(第1期);第3-16页 * |
基于忆阻器的神经网络应用研究;陈佳 等;《微纳电子与智能制造》;20191215;第1卷(第4期);第24-38页 * |
忆阻器模型电路设计与忆阻器混沌电路研究;郭子叶;《中国优秀硕士学位论文全文数据库信息科技辑》;20170315(第3期);第I135-887页 * |
忆阻电路系统的建模与控制;温世平;《中国优秀博士学位论文全文数据库信息科技辑》;20131015(第10期);第C042-33页 * |
时滞切换系统的动力学及其在忆阻神经网络中的应用;李宁;《中国优秀博士学位论文全文数据库信息科技辑》;20160815(第8期);第I140-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111460365A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460365B (zh) | 一种基于忆阻线性神经网络的方程组求解器及其操作方法 | |
CN111507464B (zh) | 一种基于忆阻器阵列的方程求解器及其操作方法 | |
CN108009640B (zh) | 基于忆阻器的神经网络的训练装置及其训练方法 | |
CN108780492B (zh) | 模拟协处理器 | |
CN109800876B (zh) | 一种基于NOR Flash模块的神经网络的数据运算方法 | |
JP7384925B2 (ja) | ビットオーダバイナリ加重乗算器/積算器 | |
CN109146070B (zh) | 一种支撑基于rram的神经网络训练的外围电路及系统 | |
CN105390520B (zh) | 忆阻器交叉阵列的参数配置方法 | |
CN111478703B (zh) | 基于忆阻交叉阵列的处理电路及输出电流的补偿方法 | |
CN111125616B (zh) | 一种二维离散傅里叶变换运算电路及运算方法 | |
CN113924581A (zh) | 用于存储器内计算的无晶体管全忆阻器神经形态电路 | |
EP4022426B1 (en) | Refactoring mac operations | |
US20190156181A1 (en) | Neural network device and computing device | |
US11886972B2 (en) | Non-volatile memory accelerator for artificial neural networks | |
CN111652360B (zh) | 一种基于脉动阵列的卷积运算装置 | |
CN110378475A (zh) | 一种基于多位并行二进制突触阵列的神经形态计算电路 | |
CN108268938A (zh) | 神经网络及其信息处理方法、信息处理系统 | |
Lepri et al. | Modeling and compensation of IR drop in crosspoint accelerators of neural networks | |
CN109709802A (zh) | 基于迭代学习控制的有源电子梯形电路的控制方法 | |
WO2023087910A1 (zh) | 一种修正可变电阻器件阵列点乘误差的方法 | |
TW202137075A (zh) | 基於記憶體內運算電路架構之量化方法及其系統 | |
CN112749784B (zh) | 一种计算设备及神经网络的加速方法 | |
US11556770B2 (en) | Auto weight scaling for RPUs | |
CN111988031B (zh) | 一种忆阻存内矢量矩阵运算器及运算方法 | |
Bochev | Distributed arithmetic implementation of artificial neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |