CN108805270B - 一种基于存储器的卷积神经网络系统 - Google Patents
一种基于存储器的卷积神经网络系统 Download PDFInfo
- Publication number
- CN108805270B CN108805270B CN201810532151.XA CN201810532151A CN108805270B CN 108805270 B CN108805270 B CN 108805270B CN 201810532151 A CN201810532151 A CN 201810532151A CN 108805270 B CN108805270 B CN 108805270B
- Authority
- CN
- China
- Prior art keywords
- module
- layer circuit
- circuit module
- flash
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
- Semiconductor Memories (AREA)
Abstract
本发明公开一种基于存储器的卷积神经网络系统,包括:输入模块、卷积层电路模块、池化电路模块、激活函数模块、全连接层电路模块以及输出模块,卷积核值或突触权重值储存在NOR FLASH单元中;输入模块将输入信号转换成卷积神经网络所需的电压信号;卷积层电路模块将输入信号对应的电压信号和卷积核值进行卷积运算并将结果传入激活函数模块;激活函数模块将信号进行激活;池化层电路将激活后的信号进行池化操作;全连接层电路模块将池化操作后的信号与突触权重值进行乘法运算实现分类,softmax函数模块分类结果归一化为概率值,作为整个网络的输出。本发明满足数据实时处理的需求,且硬件成本低。
Description
本申请要求于2018年5月8日提交中国国家知识产权局专利局、申请号为201810434049.6、发明名称为“一种基于NOR FLASH的卷积神经网络系统”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本发明涉及人工神经网络技术领域,更具体地,涉及一种基于存储器的卷积神经网络系统。
背景技术
卷积神经网络(Convolutional Neural Network,CNN)的网络结构是Fukushima第一个在1980年提出的。但是由于训练算法难以实现,所以还没有得到广泛的应用。在20世纪90年代,LeCun等人将一种基于梯度的学习算法应用于CNN,并取得了很好的结果。之后,研究人员进一步完善了CNN,并在图像识别领域取得了强有力的成果。最近,Ciresan等人提出了多层CNN来识别数字,字母,汉字和交通标志。CNN也被设计为模仿人类的视觉处理,并且在处理二维图像时有高度优化的结构来。此外,CNN可以有效地学习2D特征的提取和抽象。除了深度神经网络的共同优点之外,CNN还具有其他所需的特性。卷积神经网络是一种特殊的深层的神经网络模型,它的特殊性体现在两个方面,一方面它的神经元间的连接是非全连接的,另一方面同一层中某些神经元之间的连接的权重是共享的(即相同的)。它的非全连接和权值共享的网络结构使之更类似于生物神经网络,降低了网络模型的复杂度(对于很难学习的深层结构来说,这是非常重要的),减少了权值的数量。
然而,大多数软件卷积神经网络算法是由传统冯诺依曼体系结构下的CPU和GPU实现的。由于深卷积神经网络总是需要大量的训练数据,并利用重量参数达到108级,从存储器获取数据并将其发送给CPU和GPU进行计算以及将结果发送回存储将变得相当耗时,不能满足数据实时处理的需求,并且还可能导致巨大的硬件成本。随着人工智能的高速兴起,我们需要寻找高效的卷积神经网络的硬件实现方案,超越冯诺依曼体系结构的大脑启发式计算架构,实现存储和计算的集成,从而支持更高速度和更低硬件成本的软件算法。
发明内容
针对现有技术的缺陷,本发明的目的在于解决现有深卷积神经网络总是需要大量的训练数据,并利用重量参数达到108级,从存储器获取数据并将其发送给CPU和GPU进行计算以及将结果发送回存储将变得相当耗时,不能满足数据实时处理的需求,并且还可能导致巨大的硬件成本的技术问题。
为实现上述目的,本发明提供一种基于存储器的卷积神经网络系统,包括:输入模块、由NOR FLASH阵列作为卷积核构成的卷积层电路模块、基于NOR FLASH阵列的池化电路模块、激活函数模块、由NOR FLASH阵列作为突触构成的全连接层电路模块、softmax函数模块以及输出模块,卷积核值或突触权重值储存在NOR FLASH单元中;
输入模块将输入信号转换成卷积神经网络所需的电压信号,并将结果传入卷积层电路模块;卷积层电路模块将所述输入信号对应的电压信号和存储在NOR FLASH单元中的卷积核值进行卷积运算并将结果传入所述激活函数模块;激活函数模块将信号进行激活并将结果传入所述池化层电路模块;池化层电路将激活后的信号和存储在NOR FLASH单元中的卷积核值进行池化操作,并将结果传入全连接层电路模块;所述全连接层电路模块将池化操作后的信号与存储在NOR FLASH单元中的突触权重值进行乘法运算实现分类作用,并将分类结果传入所述softmax函数模块;所述softmax函数模块将全连接层电路模块的输出结果归一化为概率值,并将结果传入所述输出模块,作为整个网络的输出。
可以理解的是,本发明中使用的存储器为NOR FLASH,本领域技术人员还可根据实际需要选择其他类型的存储器,本发明对此不做唯一性限定,以下不再做特别说明。
可选地,该系统还包括:权重处理模块;所述权重处理模块用于连接卷积层电路模块、池化层电路模块以及全连接层电路模块;所述权重处理模块包括:转换模块和驱动模块;转换模块将卷积核值或突触权重值进行相应的矩阵转换映射,并将卷积核矩阵或权重值矩阵转换为NOR FLASH的阈值特性,如果卷积核矩阵元素或权重值矩阵为1或-1时,NORFLASH阈值电压被调整为低阈值,阈值调整信号设为1;如果卷积核矩阵元素或权重值矩阵为0时,NOR FLASH阈值电压被调整为高阈值,阈值调整信号设为0,并将阈值调整信号发送给驱动模块;驱动模块接收转换模块发送的阈值调整信号,并根据该信号向卷积层电路模块、池化层电路模块以及全连接层电路模块发送脉冲,调整NOR FLASH的阈值,即将卷积核矩阵元素或突触权重值存储到NOR FLASH中。
可选地,卷积核值和突触权重值通过离线学习方式获得,在离线学习算法中,会有一个训练集和测试集,这个训练集包含多个训练实例,每个训练实例以一个概率分布从实例空间中独立同分布地抽取,目标是根据这个训练集构造一个分类器,模型训练好后,再将模型用于测试集来评估模型的好坏。
可选地,输入模块将外界输入信号转换成所述卷积神经网络所需的电压信号,输入信号与电压信号遵循正比例关系,输入信号值越大,所对应电压信号就越大,反之,所对应电压信号就越小。
可选地,卷积层电路模块将信号与存储在NOR FLASH单元中的卷积核值进行卷积运算,为了表示正负卷积核值,电路用两列NOR FLASH阵列作为一个卷积核,卷积核转换为两个矩阵K+和K-,相应地输入信号X转换为一维矩阵,K+阵列输出端连接到卷积层电路模块包括的运算放大器的正向输入端,K-阵列输出端连接到运算放大器的负向输入端,则输出结果为y=[(K+)-(K-)]*X,有效的卷积核值为(K+)-(K-),即可实现正值和负值的卷积核值,为了将输入信号能一步进行卷积操作而不需要中间复杂的存储层,将软件中确定的卷积核的数值存储在NOR FLASH单元时,卷积核值被映射成可以与整个输入信号进行矩阵乘法运算的矩阵,卷积核被扩展为大型稀疏矩阵,同一行的NOR FLASH栅端连接在一起连接输入模块接口,在NOR FLASH源端连接一个驱动电压,同一列NOR FLASH单元漏极连接在一起,收集阵列漏端的电流即得到卷积运算的结果,同一列上的电流汇集在一起实现加法计算,漏端连接到运算放大器后将运算放大器所得结果传递到激活函数模块。
可选地,池化层电路模块主要分为平均池化操作和最大池化操作,电路结构是卷积层电路结构,两种操作对应的卷积核值不同,同一行的NOR FLASH栅端连接在一起并连接激活函数模块,在NOR FLASH源端连接一个驱动电压,同一列NOR FLASH单元漏极连接在一起并分别连接到池化层电路模块包括的运算放大器的输入端,收集运算放大器的输出结果即得到池化操作的结果,同一列上的电流汇集在一起实现加法计算,然后将运算放大器所得结果传递到全连接层电路模块。
可选地,激活函数模块所包括的激活函数主要有:sigmoid函数、双曲正切函数和修正线性单函数;所述激活函数模块分别连接卷积层电路模块和池化层电路模块,将卷积运算结果进行激活并得到输出值y,同时将输出值转换成电压信号以便作为池化层的输入。
可选地,全连接层电路模块分别连接池化层模块和softmax函数模块,全连接层将最后的输出映射到线性可分的空间,即实现分类的功能,全连接层电路模块其与卷积层电路模块的权重的分布的不同,所述全连接层电路模块完成在感知器网络中简单的一系列乘法加法运算,用于存储与计算权重矩阵,卷积运算电路用于存储与计算一组卷积核数组;为了实现正负权重值,全连接层电路模块使用两个NOR FLASH单元作为一个突触,NOR FLASH单元栅极连接池化层输出模块,源极连接驱动电压,存储正权重值的NOR FLASH单元漏端连接运算放大器正向输入端,反之,连接负向输入端,运算放大器输出端连接softmax函数模块,运算放大器输出结果即为全连接层操作结果,输出结果y=[W1-W2]*X,W1和W2为NORFLASH单元存储的两个权重值,则突触的有效权重值为W1-W2,即可实现正负突触权重值,池化操作后的信号经过全连接层处理后再经过softmax函数模块,将全连接层输出的值归一化为概率值,然后将结果传入输出模块即得到整个网络的输出。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
本发明提供的基于存储器的卷积神经网络系统,权重处理模块将软件模拟所得卷积核和突触权重值修改成NOR FLASH工作方式,将卷积核和突触权重值存储到NOR FLASH中。输入模块接收外部信息,该信息经过卷积运算,池化操作,激活函数,全连接层以及激活函数逐层计算后,最终输出模块产生输出结果。NOR FLASH阵列构成的卷积层电路模块中,为了表示正负卷积核值,将两列NOR FLASH阵列用作一个卷积核。全连接电路模块中,为了表示正负突触权重值,用两个NOR FLASH单元作为一个突触。利用NOR FLASH的多阶阈值调控功能来模拟卷积神经网络中卷积核和突触权重值的连续调节。传统的冯诺依曼体系结构的大脑启发式计算架构耗时,不能满足数据实时处理的需求,并且还会导致巨大的硬件成本。与上述现有技术的缺陷对比,本发明将卷积神经网络实现硬件化可以实现存储和计算的集成,可以很好地解决上述缺点。
附图说明
图1为本发明实施例提供的基于存储器的卷积神经网络系统结构示意图;
图2为本发明实施例提供的卷积运算原理示意图;
图3为本发明实施例提供的由两个NOR FLASH单元组成一个突触的结构示意图;
图4为本发明实施例提供的权重处理模块结构示意图;
图5为本发明实施例提供的输入模块结构示意图;
图6为本发明实施例提供的基于NOR FLASH的卷积运算层电路模块结构示意图;
图7为本发明实施例提供的卷积核矩阵和输入矩阵的映射公式示意图;图7(a)为卷积核矩阵K转换成矩阵K+和K-示意图,图7(b)为输入矩阵X转换为一维矩阵示意图;
图8为本发明实施例提供的激活函数模块结构示意图;
图9为本发明实施例提供的池化层电路模块结构示意图;
图10为本发明实施例提供的全连接层电路模块结构示意图;
图11是本发明实施例提供的softmax函数模块结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明的目的在于提供一种基于存储器的卷积神经网络系统。图1是本发明实施例提供的基于存储器的卷积神经网络系统结构示意图。如图1所示,该系统包括:权重处理模块、输入模块、由NOR FLASH阵列作为卷积核构成的卷积层电路模块、基于NOR FLASH阵列的池化层电路模块、激活函数模块、由NOR FLASH阵列作为突触构成的全连接电路模块、softmax函数模块以及输出模块。
权重处理模块将软件所得卷积核数值或全连接层权重值转换成对应的NOR FLASH阈值,并存储在卷积层电路模块、池化层电路模块以及全连接层电路模块。
输入模块将外界输入信息转换成所述卷积神经网络所需的电压信号,输入信号与电压信号遵循正比映射关系,输入信号值越大,所对应电压就越大,反之,所对应电压就越小,并将电压信号传入卷积层电路模块。
卷积层电路模块将输入信号和存储在NOR FLASH单元中的卷积核值进行卷积运算并将结果传入所述激活函数模块。
激活函数模块将信号进行激活并将结果传入池化层电路模块。池化层电路将激活后的信号和存储在NOR FLASH单元中的值进行池化操作,并将结果传入所述全连接层电路模块。
全连接层电路模块将前面整合后的信号与存储在NOR FLASH单元中的权重值进行乘法运算实现分类作用,并将结果传入softmax函数模块将输出结果归一化为概率值,然后将概率值传入所述输出模块,得到整个网络的输出结果。
需要说明的是,卷积运算作为一种广义的积分概念,在图像处理和数字信号处理等方面有很重要的应用,卷积核(算子)是用来做图像处理时的矩阵,图像处理时也称为掩膜,是与原图像做运算的参数。卷积核通常是一个四方形的网格结构,该区域上每个方格都有一个权重值。使用卷积进行计算时,先将卷积核进行180°反转,将卷积核的中心放置在要计算的像素上,一次计算核中每个元素和其覆盖的图像像素值的乘积并求和,得到的结构就是该位置的新像素值。沿行方向右移一位继续计算重叠部分的乘积和得到下一个像素值,直到行方向全部重叠过,然后卷积核沿列方向移一位并回到行方向起始点,计算重叠部分乘积和,直到输入矩阵被卷积核全部重叠过。对于一个规模为m×m的输入矩阵经过一个n×n的卷积核后,得到的输出矩阵大小为(m-n+1)×(m-n+1)。图2演示了一个大小为4×4的输入矩阵经过一个2×2的卷积核后得到3×3的输出矩阵的卷积计算过程。
图3是本发明实施例提供的由两个NOR FLASH单元组成一个突触的示意图。NORFLASH单元通过编程或擦出操作来改变其阈值电压,从而来存储不同的逻辑值。卷积神经网络运算中存在大量的乘法操作,在NOR FLASH中的乘法运算,乘数可以通过编程或擦出存储到单元中,被乘数加载在栅极,两者共同决定了NOR FLASH的开启状态。在源端施加一个驱动电压,根据不同的开启状态可以得到不同的电流值,在每列NOR FLASH收集漏端电流即得到乘法运算的结果。使用两个NOR FLASH单元作为一个突触,可以实现正负权重值,两个NORFLASH单元的栅极连接在一起并连接输入信号对应的电压信号X,源极一起连接到驱动电压,两个漏极端分别连接运算放大器输入端,两个NOR FLASH单元分别存储的权重值为W+和W-,则运算放大器输出端的有效输出为y=[(W+)-(W-)]*X,突触的有效权重值则为[(W+)-(W-)],即可实现正负权重值,其中X为输入信号对应的电压信号。
图4是本发明提供的权重处理模块结构示意图,其连接卷积层电路模块,池化层电路模块和全连接层电路模块。包括:转换模块和驱动模块。转换模块将卷积核值和突触权重值进行相应的矩阵转换映射,并将卷积核矩阵和权重值矩阵转换为NOR FLASH的阈值特性,如果卷积核矩阵元素和权重值矩阵为1或-1时,NOR FLASH阈值电压被调整为低阈值;如果卷积核矩阵元素和权重值矩阵为0,NOR FLASH阈值电压被调整为高阈值,并将结果发送给驱动模块。驱动模块接收转换模块发送的阈值调整信号,并根据该信号向卷积层电路模块,池化层电路模块和全连接层电路模块发送脉冲,调整NOR FLASH的阈值,即将卷积核矩阵元素或突触权重值存储到NOR FLASH中。卷积核值和突触权重值由离线训练方式获得。
图5是本发明实施例中提供的输入模块结构示意图,其连接卷积层电路模块,输入模块将外界输入信息通过转换电路模块转换成所述卷积神经网络所需的电压信号,输入信号与电压信号遵循正比映射关系,输入信号值越大,所对应电压信号就越大,反之,所对应电压信号就越小,并将电压信号传入卷积层电路模块。
图6是本发明实施例中提供的基于NOR FLASH的卷积层电路模块结构示意图,用黑色圆点代表本发明实施例提供的NOR FLASH单元。本发明实施例输入信号采用MNIST手写字体数据库为例,该数据集包含
60,000个训练集和10,000个测试集共70,000张手写数字的灰度图片,其中每一张图片包含28×28个像素点。图中示出了输入矩阵为28×28,卷积核大小为9×9,输出矩阵大小为20×20的卷积运算电路。为了表示正负卷积核值,该电路用两列NOR FLASH单元阵列来表示,卷积核转换为两个矩阵K+和K-,输入信号X转换为一维矩阵,存储K+的阵列漏极连接到运算放大器正向输入端,存储K-的阵列漏极连接到运算放大器负向向输入端,则运算放大器输出结果为y=[(K+)-(K-)]*X,即可实现正值和负值的卷积核。在神经网络中我们还需加入偏置的作用,所以我们需要的NOR FLASH阵列结构为1569行,400列。同一行的NORFLASH栅端连接在一起连接输入模块接口,在NOR FLASH源端连接一个驱动电压,同一列NORFLASH单元漏极连接在一起并连接到运算放大器,收集阵列漏端的电流即得到卷积运算的结果,同一列上的电流汇集在一起实现加法计算,并将运算放大器所得结果传递到激活函数模块。为了将输入信号能一步进行卷积操作而不需要中间复杂的存储层,将软件中确定的卷积核的数值存储在NOR FLASH单元时,它们必须被设置成使得可以从矩阵乘法运算中确定整个特征映射。为此,卷积核被扩展为大型稀疏矩阵。以下我们以2×2卷积核矩阵K和3×3的输入信号矩阵X为实施例来演示。
图7(a)显示了使用所提出的方法基于NOR FLASH的卷积核矩阵K如何转换成矩阵K+和K-。卷积核被转换为两个矩阵,因此NOR FLASH阵列可以很容易地解释具有正值和负值的卷积核。由于输入信号矩阵X有9个元素,每个核心矩阵K+和K-必须有9行。
图7(b)显示了输入矩阵X如何转换为一维矩阵,分别乘以K+和K-。由于K的尺寸为2×2,X的尺寸为3×3,所以输出特征的尺寸为2×2。因此,卷积核矩阵必须有8列,每两列输出值分别连接到运算放大器输入端,在运算放大器输出端即得到四个输出值。图7显示的转换方法在权重处理模块中实现。
图8是本发明中的激活函数模块结构示意图,其中激活函数f主要有:S型函数(sigmoid函数)、双曲正切(tanh)函数和修正线性单(ReLU)函数。激活函数模块分别连接卷积层电路模块和池化层电路模块,将卷积运算结果进行激活并得到输出值y,同时将输出值转换成电压信号以便作为池化层的输入。
图9是本发明实施例中提供的池化层电路模块结构示意图,主要分为平均池化操作和最大池化操作。整个图片被不重叠的分割成若干个同样大小的小块。每个小块内只取最大的数字(或平均值),再舍弃其他节点后,保持原有的平面结构得输出。池化层电路模块分别连接激活函数模块和全连接层电路模块,池化操作是一个更简单的卷积操作,则电路结构也是卷积层电路结构,只是卷积核值发生改变,同一行的NOR FLASH栅端连接在一起连接输入模块接口,在NOR FLASH源端连接一个驱动电压,同一列NOR FLASH单元漏极连接在一起并分别连接运算放大器输入端,收集运算放大器输出端的结果即得到池化操作的结果,同一列上的电流汇集在一起实现加法计算,并将运算放大器输出端连接到全连接层电路模块。池化操作可以非常有效地缩小矩阵尺寸,从而减少最后全连接层中的参数,同时,使用池化层既可以加快计算速度也有防止过拟合问题的作用。本实施例中使用2×2矩阵大小的池化操作,由于卷积运算层的输出矩阵为20×20,则输出矩阵为10×10,所以池化层电路模块NOR FLASH阵列大小为801×100。如果使用平均池化操作,则池化层卷积核的值为经过权重处理模块后将值存储在NOR FLASH阵列中。池化操作处理后将结果传入全连接层电路模块。
图10是本发明实施例中提供的全连接层电路模块结构示意图,分别连接池化层电路模块和softmax函数模块,全连接层(也叫前馈层)将最后的输出映射到线性可分的空间,即实现分类的功能。全连接层电路模块与卷积运算电路非常相似,只是权重的分布的不同,它完成了在感知器网络中简单的一系列乘法加法运算。该电路用于存储权重矩阵,卷积运算电路用于存储一组卷积核数组。将软件所得全连接层权重值经过权重处理模块转换成对应的NOR FLASH单元的阈值,将其存储在NOR FLASH中。为了实现正负权重值,全连接层电路模块使用两个NOR FLASH单元来作为一个突触,分别存储正负权重值。同样,输入信号转换一维矩阵,NOR FLASH单元栅极连接池化层输出,源极连接驱动电压,存储正权重值的NORFLASH单元漏端连接运算放大器正向输入端,反之,连接负向输入端,运算放大器输出端连接激活函数模块,运算放大器输出结果即为全连接层操作结果。输出结果y=[W1-W2]*X。其中,W1和W2为NOR FLASH单元存储的两个有效权重值,则突触的有效权重值为W1-W2,即可实现正负突触权重值。池化层输入矩阵大小为10×10,如果最后的分类类别有10类,则本实施例中全连接层电路NOR FLASH阵列大小为101×10。信号经过全连接层处理后再经过softmax函数模块,然后将结果传入输出模块即得到整个网络的输出。
图11是本发明中的softmax函数模块结构示意图,分别连接全连接层电路模块和输出模块,softmax函数模块实现即将输出结果归一化为概率值的功能,公式中Xi表示输入信号X中的第i个元素,为所有输入信号元素指数和,y为输入信号Xi对应的概率输出值。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于存储器的卷积神经网络系统,其特征在于,包括:输入模块、由NOR FLASH阵列作为卷积核构成的卷积层电路模块、基于NOR FLASH阵列的池化层电路模块、激活函数模块、由NOR FLASH阵列作为突触构成的全连接层电路模块、softmax函数模块以及输出模块,卷积核值或突触权重值储存在NOR FLASH单元中;
所述输入模块将输入信号转换成卷积神经网络所需的电压信号,并将结果传入所述卷积层电路模块;
所述卷积层电路模块将所述输入信号对应的电压信号和存储在NOR FLASH单元中的卷积核值进行卷积运算并将结果传入所述激活函数模块;
所述激活函数模块将信号进行激活并将结果传入所述池化层电路模块;
所述池化层电路模块将激活后的信号和存储在NOR FLASH单元中的卷积核值进行池化操作,并将结果传入所述全连接层电路模块;
所述全连接层电路模块将池化操作后的信号与存储在NOR FLASH单元中的突触权重值进行乘法运算实现分类作用,并将分类结果传入所述softmax函数模块;
所述softmax函数模块将全连接层电路模块的输出结果归一化为概率值,并将结果传入所述输出模块,作为整个网络的输出。
2.根据权利要求1所述的基于存储器的卷积神经网络系统,其特征在于,还包括:权重处理模块;
所述权重处理模块用于连接卷积层电路模块、池化层电路模块以及全连接层电路模块;
所述权重处理模块包括:转换模块和驱动模块;
所述转换模块将卷积核值或突触权重值进行相应的矩阵转换映射,并将卷积核矩阵或权重值矩阵转换为NOR FLASH的阈值特性,如果卷积核矩阵元素或权重值矩阵为1或-1时,NOR FLASH阈值电压被调整为低阈值,阈值调整信号设为1;如果卷积核矩阵元素或权重值矩阵为0时,NOR FLASH阈值电压被调整为高阈值,阈值调整信号设为0,并将阈值调整信号发送给驱动模块;
所述驱动模块接收转换模块发送的阈值调整信号,并根据该信号向卷积层电路模块、池化层电路模块以及全连接层电路模块发送脉冲,调整NOR FLASH的阈值,即将卷积核矩阵元素或突触权重值存储到NOR FLASH中。
3.根据权利要求2所述的基于存储器的卷积神经网络系统,其特征在于,所述卷积核值和突触权重值通过离线学习方式获得,在离线学习算法中,有一个训练集和测试集,该训练集包含多个训练实例,每个训练实例以一个概率分布从实例空间中独立同分布地抽取,目标是根据这个训练集构造一个分类器,模型训练好后,将模型用于测试集来评估模型的好坏。
4.根据权利要求3所述的基于存储器的卷积神经网络系统,其特征在于,所述输入模块将外界输入信号转换成所述卷积神经网络所需的电压信号,输入信号与电压信号遵循正比例关系,输入信号值越大,所对应电压信号就越大,反之,所对应电压信号就越小。
5.根据权利要求1所述的基于存储器的卷积神经网络系统,其特征在于,卷积层电路模块将信号与存储在NOR FLASH单元中的卷积核值进行卷积运算,电路用两列NOR FLASH阵列作为一个卷积核,卷积核转换为两个矩阵K+和K-,相应地输入信号X转换为一维矩阵,K+阵列输出端连接到卷积层电路模块包括的运算放大器的正向输入端,K-阵列输出端连接到运算放大器的负向输入端,则输出结果为y=[(K+)-(K-)]*X,有效的卷积核值为(K+)-(K-),即可实现正值和负值的卷积核值,为了将输入信号能一步进行卷积操作而不需要中间复杂的存储层,将软件中确定的卷积核的数值存储在NOR FLASH单元时,卷积核值被映射成可以与整个输入信号进行矩阵乘法运算的矩阵,卷积核被扩展为大型稀疏矩阵,同一行的NORFLASH栅端连接在一起并连接输入模块接口,在NOR FLASH源端连接一个驱动电压,同一列NOR FLASH单元漏极连接在一起,收集阵列漏端的电流即得到卷积运算的结果,同一列上的电流汇集在一起实现加法计算,漏端连接到运算放大器后将运算放大器所得结果传递到激活函数模块。
6.根据权利要求1所述的基于存储器的卷积神经网络系统,其特征在于,所述池化层电路模块包括平均池化操作和最大池化操作,电路结构是卷积层电路结构,两种操作对应的卷积核值不同,同一行的NOR FLASH栅端连接在一起并连接激活函数模块,在NOR FLASH源端连接一个驱动电压,同一列NOR FLASH单元漏极连接在一起并分别连接到池化层电路模块包括的运算放大器的输入端,收集运算放大器的输出结果即得到池化操作的结果,同一列上的电流汇集在一起实现加法计算,然后将运算放大器所得结果传递到全连接层电路模块。
7.根据权利要求1所述的基于存储器的卷积神经网络系统,其特征在于,所述激活函数模块所包括的激活函数有:sigmoid函数、双曲正切函数和修正线性单函数;所述激活函数模块分别连接卷积层电路模块和池化层电路模块,将卷积运算结果进行激活并得到输出值y,同时将输出值转换成电压信号以便作为池化层电路模块的输入。
8.根据权利要求1所述的基于存储器的卷积神经网络系统,其特征在于,所述全连接层电路模块分别连接池化层电路模块和softmax函数模块,全连接层将最后的输出映射到线性可分的空间,即实现分类的功能,全连接层电路模块其与卷积层电路模块的权重的分布的不同,所述全连接层电路模块完成在感知器网络中简单的一系列乘法加法运算,用于存储与计算权重矩阵,卷积运算电路用于存储与计算一组卷积核数组;全连接层电路模块使用两个NOR FLASH单元作为一个突触,NOR FLASH单元栅极连接池化层输出模块,源极连接驱动电压,存储正权重值的NOR FLASH单元漏端连接运算放大器正向输入端,反之,连接负向输入端,运算放大器输出端连接softmax函数模块,运算放大器输出结果即为全连接层操作结果,输出结果y=[W1-W2]*X,X为输入信号,W1和W2为NOR FLASH单元存储的两个权重值,则突触的有效权重值为W1-W2,即可实现正负突触权重值,池化操作后的信号经过全连接层处理后再经过softmax函数模块,将全连接层输出的值归一化为概率值,然后将结果传入输出模块即得到整个网络的输出。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/090249 WO2019227518A1 (zh) | 2018-05-08 | 2018-06-07 | 一种基于存储器的卷积神经网络系统 |
US16/464,977 US11531880B2 (en) | 2018-05-08 | 2018-06-07 | Memory-based convolutional neural network system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810434049 | 2018-05-08 | ||
CN2018104340496 | 2018-05-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108805270A CN108805270A (zh) | 2018-11-13 |
CN108805270B true CN108805270B (zh) | 2021-02-12 |
Family
ID=64090795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810532151.XA Active CN108805270B (zh) | 2018-05-08 | 2018-05-29 | 一种基于存储器的卷积神经网络系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11531880B2 (zh) |
CN (1) | CN108805270B (zh) |
WO (1) | WO2019227518A1 (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11309026B2 (en) * | 2017-01-25 | 2022-04-19 | Peking University | Convolution operation method based on NOR flash array |
FR3085517B1 (fr) * | 2018-08-31 | 2020-11-13 | Commissariat Energie Atomique | Architecture de calculateur d'une couche de convolution dans un reseau de neurones convolutionnel |
WO2020107265A1 (zh) * | 2018-11-28 | 2020-06-04 | 深圳市大疆创新科技有限公司 | 神经网络处理装置、控制方法以及计算系统 |
US11005995B2 (en) * | 2018-12-13 | 2021-05-11 | Nice Ltd. | System and method for performing agent behavioral analytics |
KR102692218B1 (ko) * | 2018-12-19 | 2024-08-05 | 에스케이하이닉스 주식회사 | 오류 역전파를 이용하여 지도 학습을 수행하는 뉴로모픽 시스템 |
JP2020113809A (ja) * | 2019-01-08 | 2020-07-27 | ソニー株式会社 | 固体撮像素子およびその信号処理方法、並びに電子機器 |
CN109784483B (zh) * | 2019-01-24 | 2022-09-09 | 电子科技大学 | 基于fd-soi工艺的二值化卷积神经网络内存内计算加速器 |
DE102019106529A1 (de) | 2019-03-14 | 2020-09-17 | Infineon Technologies Ag | Fmcw radar mit störsignalunterdrückung mittels künstlichem neuronalen netz |
US12032089B2 (en) | 2019-03-14 | 2024-07-09 | Infineon Technologies Ag | FMCW radar with interference signal suppression using artificial neural network |
US11907829B2 (en) | 2019-03-14 | 2024-02-20 | Infineon Technologies Ag | FMCW radar with interference signal suppression using artificial neural network |
CN110288078B (zh) * | 2019-05-19 | 2023-03-24 | 南京惟心光电系统有限公司 | 一种针对GoogLeNet模型的加速器及其方法 |
CN110533160A (zh) * | 2019-07-22 | 2019-12-03 | 北京大学 | 基于nor flash模拟量计算阵列的深度神经网络 |
CN110475119A (zh) * | 2019-08-12 | 2019-11-19 | 北京大学 | 基于flash存算阵列的图像压缩系统和方法 |
CN110543933B (zh) * | 2019-08-12 | 2022-10-21 | 北京大学 | 基于flash存算阵列的脉冲型卷积神经网络 |
CN110852429B (zh) * | 2019-10-28 | 2022-02-18 | 华中科技大学 | 一种基于1t1r的卷积神经网络电路及其操作方法 |
CN111222626B (zh) * | 2019-11-07 | 2021-08-10 | 恒烁半导体(合肥)股份有限公司 | 一种基于NOR Flash模块的神经网络的数据切分运算方法 |
CN110991608B (zh) * | 2019-11-25 | 2021-08-13 | 恒烁半导体(合肥)股份有限公司 | 一种卷积神经网络量化计算方法及系统 |
CN110991623B (zh) * | 2019-12-20 | 2024-05-28 | 中国科学院自动化研究所 | 基于数模混合神经元的神经网络运算系统 |
CN113033792A (zh) * | 2019-12-24 | 2021-06-25 | 财团法人工业技术研究院 | 神经网络运算装置及方法 |
CN113496274A (zh) * | 2020-03-20 | 2021-10-12 | 郑桂忠 | 基于存储器内运算电路架构的量化方法及其系统 |
CN111144558B (zh) * | 2020-04-03 | 2020-08-18 | 深圳市九天睿芯科技有限公司 | 基于时间可变的电流积分和电荷共享的多位卷积运算模组 |
CN111639757B (zh) * | 2020-04-11 | 2023-04-18 | 复旦大学 | 一种基于柔性材料的模拟卷积神经网络 |
CN112115665B (zh) * | 2020-09-14 | 2023-11-07 | 上海集成电路研发中心有限公司 | 存算一体存储阵列及其卷积运算方法 |
CN112163374B (zh) * | 2020-09-27 | 2024-02-20 | 中国地质调查局自然资源综合调查指挥中心 | 一种多模态数据中间层融合全连接地质图预测模型的处理方法 |
CN112036561B (zh) * | 2020-09-30 | 2024-01-19 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN112347034B (zh) * | 2020-12-02 | 2024-07-12 | 北京理工大学 | 一种用于老年看护的多功能一体化片上系统 |
CN113132397B (zh) * | 2021-04-23 | 2023-03-24 | 信阳农林学院 | 一种基于深度学习的网络加密流量识别方法、装置及设备 |
CN112992232B (zh) * | 2021-04-28 | 2021-08-17 | 中科院微电子研究所南京智能技术研究院 | 一种多位正负单比特存内计算单元、阵列及装置 |
CN113608063B (zh) * | 2021-06-25 | 2023-04-18 | 北京智芯微电子科技有限公司 | 电力线路故障识别方法、装置及电子设备 |
CN113376172B (zh) * | 2021-07-05 | 2022-06-14 | 四川大学 | 一种基于视觉与涡流的焊缝缺陷检测系统及其检测方法 |
CN113466338B (zh) * | 2021-07-19 | 2024-02-20 | 中国工程物理研究院计量测试中心 | 一种基于神经网络的塑封电子元器件缺陷识别系统及方法 |
CN113592084B (zh) * | 2021-07-23 | 2022-11-11 | 东南大学 | 基于反向优化超结构卷积核的片上光子神经网络 |
CN113672854B (zh) * | 2021-08-25 | 2024-02-06 | 恒烁半导体(合肥)股份有限公司 | 一种基于电流镜和存储单元的存内运算方法、装置及其应用 |
CN113923723B (zh) * | 2021-10-15 | 2023-05-09 | 中国联合网络通信集团有限公司 | 流量重构方法、装置、设备及存储介质 |
KR102517601B1 (ko) * | 2021-12-27 | 2023-04-06 | 디즈니엔터프라이즈 유한회사 | Nft 블록체인을 이용한 디즈니콜라보작품 p2p 거래 서비스 제공 시스템 |
CN115049885B (zh) * | 2022-08-16 | 2022-12-27 | 之江实验室 | 一种存算一体卷积神经网络图像分类装置及方法 |
CN115902615B (zh) * | 2023-01-09 | 2023-05-16 | 佰聆数据股份有限公司 | 电力断路器缺陷分析方法及装置 |
CN116147130A (zh) * | 2023-04-18 | 2023-05-23 | 杭州行至云起科技有限公司 | 智能家居控制系统及其方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10685262B2 (en) * | 2015-03-20 | 2020-06-16 | Intel Corporation | Object recognition based on boosting binary convolutional neural network features |
JP6750203B2 (ja) * | 2015-10-20 | 2020-09-02 | 富士通株式会社 | 畳み込みニューラルネットワークの演算方法及び演算プログラム、情報処理装置 |
JP6754843B2 (ja) * | 2016-03-07 | 2020-09-16 | ハイラ・インコーポレイテッドHyla, Inc. | デバイスの画面損傷検出 |
CN107463990A (zh) * | 2016-06-02 | 2017-12-12 | 国家计算机网络与信息安全管理中心 | 一种卷积神经网络的fpga并行加速方法 |
CN106228240B (zh) * | 2016-07-30 | 2020-09-01 | 复旦大学 | 基于fpga的深度卷积神经网络实现方法 |
US9646243B1 (en) * | 2016-09-12 | 2017-05-09 | International Business Machines Corporation | Convolutional neural networks using resistive processing unit array |
US11309026B2 (en) * | 2017-01-25 | 2022-04-19 | Peking University | Convolution operation method based on NOR flash array |
CN107341518A (zh) * | 2017-07-07 | 2017-11-10 | 东华理工大学 | 一种基于卷积神经网络的图像分类方法 |
CN107679622B (zh) * | 2017-09-06 | 2020-08-14 | 清华大学 | 一种面向神经网络算法的模拟感知计算架构 |
US10572760B1 (en) * | 2017-11-13 | 2020-02-25 | Amazon Technologies, Inc. | Image text localization |
-
2018
- 2018-05-29 CN CN201810532151.XA patent/CN108805270B/zh active Active
- 2018-06-07 US US16/464,977 patent/US11531880B2/en active Active
- 2018-06-07 WO PCT/CN2018/090249 patent/WO2019227518A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN108805270A (zh) | 2018-11-13 |
US20200285954A1 (en) | 2020-09-10 |
US11531880B2 (en) | 2022-12-20 |
WO2019227518A1 (zh) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108805270B (zh) | 一种基于存储器的卷积神经网络系统 | |
CN109460817B (zh) | 一种基于非易失存储器的卷积神经网络片上学习系统 | |
WO2021244079A1 (zh) | 智能家居环境中图像目标检测方法 | |
Panda et al. | Unsupervised regenerative learning of hierarchical features in spiking deep networks for object recognition | |
Teow | Understanding convolutional neural networks using a minimal model for handwritten digit recognition | |
CN113705769B (zh) | 一种神经网络训练方法以及装置 | |
WO2022134391A1 (zh) | 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备 | |
WO2022001805A1 (zh) | 一种神经网络蒸馏方法及装置 | |
US10387774B1 (en) | Method for neuromorphic implementation of convolutional neural networks | |
CN114049513A (zh) | 一种基于多学生讨论的知识蒸馏方法和系统 | |
Parhi et al. | Brain-inspired computing: Models and architectures | |
Bouchain | Character recognition using convolutional neural networks | |
Sun et al. | Low-consumption neuromorphic memristor architecture based on convolutional neural networks | |
Gao et al. | Natural scene recognition based on convolutional neural networks and deep Boltzmannn machines | |
Tseng et al. | MiniNet: Dense squeeze with depthwise separable convolutions for image classification in resource-constrained autonomous systems | |
Morán et al. | Reservoir computing hardware with cellular automata | |
CN118114734A (zh) | 基于稀疏正则化理论的卷积神经网络优化方法及系统 | |
JP2022008236A (ja) | ニューロモルフィック装置及びニューラルネットワークを具現する方法 | |
Laleh et al. | Chaotic continual learning | |
Goltsev et al. | Modular neural networks with Hebbian learning rule | |
Lv et al. | Deep learning development review | |
Guo et al. | Exploration of input patterns for enhancing the performance of liquid state machines | |
Zhang et al. | Intrinsic plasticity based inference acceleration for spiking multi-layer perceptron | |
Vani et al. | Comparative analysis on variants of neural networks: an experimental study | |
Bhargavi et al. | A survey on recent deep learning architectures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |