CN114708639B - 一种基于异构脉冲神经网络的人脸识别的fpga芯片 - Google Patents
一种基于异构脉冲神经网络的人脸识别的fpga芯片 Download PDFInfo
- Publication number
- CN114708639B CN114708639B CN202210361630.6A CN202210361630A CN114708639B CN 114708639 B CN114708639 B CN 114708639B CN 202210361630 A CN202210361630 A CN 202210361630A CN 114708639 B CN114708639 B CN 114708639B
- Authority
- CN
- China
- Prior art keywords
- adder
- weight
- membrane potential
- memory
- pulse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 36
- 239000012528 membrane Substances 0.000 claims description 141
- 210000002569 neuron Anatomy 0.000 claims description 112
- 230000001629 suppression Effects 0.000 claims description 53
- 230000003993 interaction Effects 0.000 claims description 40
- 230000037221 weight management Effects 0.000 claims description 31
- 230000005764 inhibitory process Effects 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000009825 accumulation Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 4
- 230000000452 restraining effect Effects 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 230000002401 inhibitory effect Effects 0.000 claims description 2
- 210000004205 output neuron Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000002829 reductive effect Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010304 firing Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 210000001153 interneuron Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 1
- 230000001242 postsynaptic effect Effects 0.000 description 1
- 230000003518 presynaptic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于异构脉冲神经网络的人脸识别的FPGA芯片,包括编码网络模块、分类器、数据缓存模块和全局控制器;所述全局控制器分别与编码网络模块和分类器连接;所述数据缓存模块与编码网络模块和分类器控制器连接。本发明用于人脸识别,在保证识别率的情况下,能够降低人脸识别功耗。
Description
技术领域
本发明属于类脑智能和人工智能技术领域,具体涉及一种基于异构脉冲神经网络的人脸识别的FPGA芯片。
背景技术
人脸识别已经渗透进我们生活中的各个领域,如安防监控,移动支付等。但是目前人脸识别主要依靠传统的神经网络,或传统机器学习。这些方法算法模型大,计算资源需求大,能效低,往往要许多张GPU才能支持其工作,难以在嵌入式设备中实现人脸识别应用。在大脑中,仅需2w的功耗就能完成许多物体的识别。受人脑启发的脉冲神经网络可以很好地模拟人脑的特性,以脉冲序列为载体进行传递信息,而不是传统的实值,从而能够以高能效、低资源需求地进行人脸识别,给在嵌入式设备中实现人脸识别提供了新的思路。目前脉冲神经网络的研究已经有了一些成果,但它的应用仍然处于起步阶段。像是Temportron,SpikePro等模型,一方面这些算法涉及大量指数运算,难以在低成本、高速的嵌入式中实现人脸识别,另一方面,典型的脉冲神经网络特征提取能力较弱,难以胜任人脸识别工作。
因此,有必要开发一种基于异构脉冲神经网络的人脸识别的FPGA芯片。
发明内容
本发明的目的在于提供一种基于异构脉冲神经网络的人脸识别的FPGA芯片,用于人脸识别,在保证识别率的情况下,能降低人脸识别功耗。
本发明所述的一种基于异构脉冲神经网络的人脸识别的FPGA芯片,包括编码网络模块、分类器、数据缓存模块和全局控制器;
所述编码网络模块包括编码网络控制器,以及分别与编码网络控制器连接的外部脉冲交互单元和多个物理神经元,外部脉冲交互单元分别与各物理神经元连接;其中,所述外部脉冲交互单元用于负责脉冲的存储与发送;所述物理神经元用于负责膜电位更新及各项权重的学习;
所述编码网络控制器用于接收全局控制器发出的信号,并分发控制信号与输入数据地址,控制编码网络模块中物理神经元开始或停止膜电位更新、权重更新,以及协调控制外部脉冲交互单元与物理神经元之间进行脉冲交互;
所述分类器包括分类器控制器,以及分别与分类器控制器连接的误差管理单元、权重更新单元、第二膜电位更新单元、权重存储器、第二膜电位存储器、脉冲记录存储器和误差记录存储器;所述脉冲记录存储器和误差记录存储器分别与误差管理单元连接;所述第二膜电位更新单元分别与脉冲记录存储器和第二膜电位存储器连接;所述权重存储器分别与权重更新单元、第二膜电位更新单元连接;所述权重更新单元与误差管理单元连接;其中,所述分类器控制器用于接收全局控制器的控制信号,确定分类器处于分类阶段还是学习阶段,并分发各个存储器地址与读写信号;所述误差管理单元用于负责误差计算、存储以及发送误差给权重更新单元;所述权重更新单元用于负责权重的更新;所述膜电位更新单元用于负责对膜电位进行累积判断是否超过阈值,若超过则发射脉冲,并重置膜电位;所述权重存储器、第二膜电位存储器、脉冲记录存储器和误差记录存储器均用于存储数据;
所述数据缓存模块分别与编码网络模块和分类器连接,所述数据缓存模块缓存编码网络模块编码后的脉冲信号,并送入分类器进行分类,以防止分类器处理速度较慢时编码后数据丢失;
所述全局控制器分别与编码网络模块和分类器连接,所述全局控制器用于统筹控制整块芯片,发放控制信号给下级控制器,在无监督学习阶段,控制编码网络模块编码并更新权重,在有监督学习阶段,控制编码网络模块进行编码,以及控制分类器进行分类并更新权重,在常规工作阶段,控制编码网络模块编码,分类器进行分类。
可选地,所述物理神经元包括神经元控制器,以及分别与神经元控制器连接的内部脉冲交互单元、第一膜电位更新单元、前向权重管理单元、纵向抑制管理单元、阈值电压管理单元、前向权重存储器、纵向抑制存储器、阈值电压存储器和第一膜电位存储器;所述内部脉冲交互单元分别与第一膜电位更新单元、前向权重管理单元、纵向抑制管理单元和阈值电压管理单元连接;所述第一膜电位更新单元分别与第一膜电位存储器、前向权重管理单元、纵向抑制管理单元和阈值电压管理单元连接;所述前向权重管理单元与前向权重存储器连接;所述纵向抑制管理单元与纵向抑制存储器连接;所述阈值电压管理单元与阈值电压存储器连接;
其中,所述权重管理单元、纵向抑制管理单元和阈值电压管理单元,用于在编码阶段对应参数运算后发送至第一膜电位更新单元,以及在片上学习阶段用于负责对对应参数进行更新;
所述膜电位更新单元用于负责对接收到的参数进行累积更新,当达到阈值时清零膜电位,并发射脉冲;
所述前向权重存储器、纵向抑制存储器、阈值电压存储器和第一膜电位存储器用于存储数据;
所述神经元控制器用于接收编码网络控制器控制信号,控制物理神经元内部不同单元的工作,发放物理神经元内部存储器读写信号与地址,并控制物理神经元内部脉冲交互单元传输脉冲信号给其他物理神经元。
可选地,所述第一膜电位更新单元包括第一加法器、第二加法器、第一MUX数据选择器和第一比较器;
所述第一加法器分别与前向权重管理单元、纵向抑制管理单元连接;
所述第二加法器分别与第一加法器和第一膜电位存储器连接;
所述第一比较器分别与阈值电压管理单元和第二加法器连接;
所述第一MUX数据选择器分别与第二加法器和第一膜电位存储器连接;
其中,第一加法器用于将前向权重管理单元的输出电流与纵向抑制管理单元的抑制电流相加,进行膜电位累积的第一步;
所述第二加法器用于将第一加法器的输出与对应物理神经元前一个时间步的膜电位相加,得到当前物理神经元的膜电位;
所述第一MUX数据选择器用于根据第一比较器结果,若膜电位大于阈值则将当前膜电位置0,反之保留膜电位;
所述第一比较器用于比较当前膜电位与动态阈值管理单元输出的阈值电压大小,若大于阈值电压则产生脉冲,即输出1,脉冲送往内部脉冲交互单元,同时在第一膜电位更新单元内部也通过该脉冲判断膜电位是否置0。
其中,IW表示前向权重管理单元输出电流,作为输入图像的加权和,IQ表示纵向抑制管理单元输出电流,上一时刻发放脉冲的物理神经元的纵向抑制权重求和,Vth表示物理神经元的阈值电压。
可选地,所述前向权重管理单元包括第一乘法器、第二乘法器、第三乘法器、第三加法器、第四加法器、第五加法器、第二MUX数据选择器、第三MUX数据选择器和第一寄存器;
所述第一乘法器与第四加法器连接;
所述第二乘法器分别与前向权重存储器、第三乘法器和第五加法器连接;
所述第二MUX数据选择器分别与第五加法器和第一寄存器连接;
所述第四加法器分别与第三乘法器和第三MUX数据选择器连接;
所述第三加法器分别与第三MUX数据选择器和前向权重存储器连接;
其中,所述第一乘法器用于获取外部的图像输入像素值,内部脉冲交互单元所记录的神经元脉冲发放次数,以及完成图像输出与权重的乘法计算;
所述第二乘法器用于输入图像X与对应权重Q的乘积运算;
所述第三乘法器用于与将第二乘法器输出与内部脉冲交互单元记录的脉冲计数相乘,并将结果送往第四加法器进行下一步计算;
所述第三加法器用于将当前权重与权重增值相加完成权重的更新;
所述第四加法器用于完成权重增加值的计算;
所述第五加法器用于完成前向权重电流的累积求和;
所述第二MUX数据选择器用于在新的时间步到来的时候将放有前向电流累积和的第一寄存器清零;
所述第三MUX数据选择器用于接收来自控制器的信号,判断是否更新权重,不更新的话,将权重增加值变为0;
所述第一寄存器用于记录当前时间步的前向电流总和。
可选地,所述纵向抑制管理单元包括第六加法器、第七加法器、第八加法器、第四MUX数据选择器、第五MUX数据选择器、第六MUX数据选择器和第二寄存器;
所述第四MUX数据选择器分别与纵向抑制存储器和第六加法器连接;
所述第五MUX数据选择器分别与第六加法器和第二寄存器连接;
所述第七加法器分别与纵向抑制存储器和第四MUX数据选择器连接;
所述第六MUX数据选择器分别与第七加法器和第八加法器连接;
其中,所述第六加法器用于将第二寄存器中的已累积纵向抑制电流与第四MUX数据选择器送出的纵向抑制电流相加,完成当前时间步的纵向抑制电流累积;
所述第七加法器用于将当前纵向抑制权重与纵向抑制权重增量相加完成纵向抑制权重的更新;
所述第八加法器用于计算内部脉冲交互单元送出的神经元对一幅图像编码时产生的脉冲数量n与目标脉冲发射率p的差,从而计算纵向抑制增量;
所述第四MUX数据选择器用于通过脉冲交互单元送出上一个时间步神经元发射脉冲与否,判断是否产生神经元间的抑制,发射脉冲则选择纵向抑制权重,否则选择0;
所述第五MUX数据选择器用于接收神经元控制器发放的控制信号,在新的时间步到来时,清零累积的纵向抑制电流,重新开始累积;
所述第六MUX数据选择器用于接收神经元控制器发放的控制信号,判断是否进行更新,更新则通过纵向抑制增量,反之选择0;
所述第二寄存器用于存放当前时间步的累积纵向抑制电流。
可选地,所述阈值电压管理单元包括第九加法器、第十加法器和第七MUX数据选择器,所述第七MUX数据选择器分别与第九加法器和第十加法器连接;
所述第十加法器与阈值电压存储器连接;
其中,所述第九加法器用于计算动态阈值更新时的增量;
所述第十加法器用完成阈值更新,将当前阈值加上增量;
所述第七MUX数据选择器用于接收神经元控制器发放的控制信号,判断是否进行更新,更新则通过阈值增量,反之选择0。
可选地,所述第二膜电位更新单元包括第八MUX数据选择器、第十一加法器和第二比较器;
所述第十一加法器分别与纵向抑制管理单元、第二膜电位存储器和第八MUX数据选择器连接;
所述第二比较器分别与第十一加法器和存放分类器固定阈值的寄存器单元连接;
其中,所述第八MUX数据选择器用于通过分类器神经元膜电位大于阈值时产生的脉冲,来进行判断是否将膜电位置0,有脉冲则置0,反之保持;
所述第十一加法器用于累积分类器神经元膜电位;
所述第二比较器用于将当前膜电位与阈值进行比较,若大于阈值,则产生脉冲,即输出1,否则输出0。
可选地,所述权重更新单元包括第十二加法器、第四乘法器和第九MUX数据选择器;所述第十二加法器分别与权重存储器、第四乘法器和第九MUX数据选择器连接;第四乘法器分别与权重存储器、第八MUX数据选择器连接;
其中,所述第四乘法器用于将权重与误差信号相乘,等于权重的增量;
第九MUX数据选择器用于接收分类器控制器的控制信号判断是否要更新权重,若是,则选择权重增量,否则选择0;
所述第十二加法器用于完成权重的更新,将当前权重与增量相加。
本发明具有以下优点:
(1)提出了一个在保证识别率的情况下低功耗和高速VLSI硬件框架,用于人脸识别。把脉冲神经网络引入人脸识别中,又在典型脉冲神经网络中引入脉冲稀疏编码的特征提取方法,在保证识别率的情况下降低了人脸识别功耗。
(2)基于误差反传的脉冲神经网络分类器设计了简单高效的学习规则,避免了大量指数函数的出现,减少了乘法的使用,也减少了权重更新的比例,节省资源并提高处理性能,取得了良好的效果,具有应用价值和推广前景。
附图说明
图1为本实施例的流程图;
图2为本实施例的原理框图;
图3为本实施例中第一膜电位单元的原理框图(含第一膜电位存储器);
图4为本实施例中前向权重管理单元的原理框图(含前向权重存储器);
图5为本实施例中纵向抑制管理单元的原理框图(含纵向抑制存储器);
图6为本实施例中阈值电压管理单元的原理框图(含阈值电压存储器);
图7为本实施例中第二膜电位管理单元的原理框图(含第二膜电位存储器);
图8为本实施例中权重更新单元的原理框图(含权存储器);
图9为本实施例中在不同深度下,脉冲卷积神经网络系统的性能示意图。
具体实施方式
以下将结合附图对本发明进行详细的说明。
本发明以脉冲神经网络为基础理论设计方案框架,采用异构脉冲网络架构,分别对稀疏编码与特征提取的编码网络模块与分类器进行设计与优化,并对现有的神经元进行改进,使其易于硬件实现。最后根据优化后的异构人脸识别脉冲神经网络架构设计低功耗的人脸识别FPGA芯片,并进行验证。
首先,根据不同资源要求的嵌入式应用分别确定编码网络模块与分类器的拓扑结构、量化参数精度,进行人脸识别网络模型的设计,然后根据得到的异构脉冲人脸识别模型设计神经形态架构和计算引擎,最后完成加速器设计并在FPGA上验证设计原型,总体流程参见图1。
本实施例中,设计过程主要分为三个步骤:
1、设计针对人脸识别的异构脉冲神经网络模型;
2、设计异构脉冲神经网络架构和计算引擎;
3、FPGA原型验证。
以下对各个步骤进行详细的说明:
1、设计针对人脸识别的异构脉冲神经网络模型。
步骤1-1,设计编码网络模块的结构
网络由图像输入像素与输出泄露积分点火(LIF)神经元组成,输入与输出神经元采用全连接结构,输出神经元间则也有相互间两两相连的抑制突触,用于使输出脉冲更为稀疏。
输出神经元通过图像输入与相互抑制累计膜电压,当电压超过预先设定的阈值时,发射输出脉冲,膜电压重置为静息电位,如膜电压低于预先设定阈值,记录当前的电压值,并当膜电压低于静息电位时,将膜电压重置为静息电位0。将LIF神经元模型的膜电位V根据以下离散模式的公式进行描述:
Vj(t)←Vj(t-Δt)Nleak+∑iXiQij+∑mSm(t-Δt)Wjm
Sj=δ(Vj(t)-Vth)
其中:Vj(t)表示神经元j在t时刻的膜电位,Nleak表示每个时间步神经元膜电位的泄漏率,∑iXiQij代表输入电流I的和,等于在t时刻输入图像的加权和,Xi表示输入图像像素,Qij表示输入图像像素i与输出神经元j对应的权重,∑mSm(t-Δt)Wjm代表其他输出神经元给予的抑制电压,是其他输出神经元发射脉冲的加权和,Sm(t-Δt)表示上一时间步输出神经元m是否发射脉冲,是为1,反之为0,Wjm表示输出神经元。Δt为模拟的时间步长大小,本实施例中设置为0.156(1/64)ms,Sj是在t时刻神经元j发射脉冲的值(0,1),当发射脉冲时为1,不发射脉冲时为0,Vth是发射阈值大小,会根据脉冲设情况动态调整,发射脉冲则该神经元阈值增加,否则下降,以保证脉冲发射频率足够低。是单位脉冲函数。(x=Vj(t)-Vth)。
网络的学习规则为:
ΔQik=αni(Xk-niQik)
ΔWim=β(ninm-p2)
其中:ni为神经元i的脉冲发射数量,p为脉冲目标发射概率,α,β为学习率。
ΔQik表示输入k与输出i之间的前向权重的增加值,Xk表示第k个像素的像素值,Qik表示输入k与输出i之间的前向权重,ΔWim表示输出神经元间i与输出神经元m间的纵向抑制权重增加值,nm表示输出神经元m在一幅图像编码的过程中发放的脉冲数量。
步骤1-2,根据想要输出的稀疏度,脉冲发射数量,嵌入式设备的资源确定编码网络模块的输出神经元数量,脉冲发射率等参数,用于网络训练以及FPGA芯片的片上学习。
步骤1-3,将编码后带有人脸特征的脉冲存储用于分类器进行人脸识别。
步骤1-4,设计分类器的结构。
分类器由全连接的积分点火(IF)神经元组成,一共由两层IF神经元,分别是隐藏层与输出层,该网络输入层由编码网络输出层构成。该网络中的IF神经元通过接收脉冲来累计膜电位:
Vj(t)←∑i,jSi(t)wij
其中:Vj(t)表示神经元j在t时刻的膜电位,∑i,jSiwij代表输入电流I的和,等于在t时刻输入脉冲的加权和,Si(t)表示神经元接收的脉冲,wij表示对应突触前(前一层)神经元i与突触后(后一层)神经元j的权重。Δt为模拟的时间步长大小。与传统神经网络不同,分类器网络的输入与传递的信息均以脉冲的形式,这就使得在前馈过程中,可以使用选择器代替乘法器,从而节约硬件资源。
步骤1-5,优化分类器的学习规则。
对于典型的脉冲神经网络,损失函数通常以指数函数的形式出现,这使得片上学习实施困难,这里简化损失函数将其变为与目标脉冲的数量差,比如希望正确的输出神经元能够在每个时间步(共计64个)都能输出脉冲,实际该神经元只有一半的时间步发射了脉冲,故误差为32。反之,不正确的神经元则不希望其能够发射脉冲。这样损失函数就简化为了一个简单的减法运算,大大减少了运算量。同时误差的反传基于以下公式:
其中:为隐藏层误差,/>为损失函数,Hji为分类器前向权重,fj为神经元j是否发射过脉冲。基于以上误差,继续对学习规则进行优化:
其中,λ表示学习率。
通过上述公式,在更新神经元间权重是能够跳过不活跃的神经元,从而减少神经元权重更新占比。
2、设计异构脉冲神经网络架构和计算引擎。
步骤2-1总体架构设计
如图2所示,本实施例中,一种基于异构脉冲神经网络的人脸识别的FPGA芯片,包括编码网络模块、分类器、数据缓存模块和全局控制器。所述编码网络模块包括编码网络控制器,以及分别与编码网络控制器连接的外部脉冲交互单元和多个物理神经元,外部脉冲交互单元分别与各物理神经元连接;其中,所述外部脉冲交互单元用于负责脉冲的存储与发送;所述物理神经元用于负责膜电位更新及各项权重的学习。所述编码网络控制器用于接收全局控制器发出的信号,并分发控制信号与输入数据地址,控制编码网络模块中物理神经元开始或停止膜电位更新、权重更新,以及协调控制外部脉冲交互单元与物理神经元之间进行脉冲交互。所述分类器包括分类器控制器,以及分别与分类器控制器连接的误差管理单元、权重更新单元、第二膜电位更新单元、权重存储器、第二膜电位存储器、脉冲记录存储器和误差记录存储器;所述脉冲记录存储器和误差记录存储器分别与误差管理单元连接;所述第二膜电位更新单元分别与脉冲记录存储器和第二膜电位存储器连接;所述权重存储器分别与权重更新单元、第二膜电位更新单元连接;所述权重更新单元与误差管理单元连接;其中,所述分类器控制器用于接收全局控制器的控制信号,确定分类器处于分类阶段还是学习阶段,并分发各个存储器地址与读写信号;所述误差管理单元用于负责误差计算、存储以及发送误差给权重更新单元;所述权重更新单元用于负责权重的更新;所述膜电位更新单元用于负责对膜电位进行累积判断是否超过阈值,若超过则发射脉冲,并重置膜电位;所述权重存储器、第二膜电位存储器、脉冲记录存储器和误差记录存储器均用于存储数据。所述数据缓存模块分别与编码网络模块和分类器连接,所述数据缓存模块缓存编码网络模块编码后的脉冲信号,并送入分类器进行分类,以防止分类器处理速度较慢时编码后数据丢失。所述全局控制器分别与编码网络模块和分类器连接,所述全局控制器用于统筹控制整块芯片,发放控制信号给下级控制器,在无监督学习阶段,控制编码网络模块编码并更新权重,在有监督学习阶段,控制编码网络模块进行编码,以及控制分类器进行分类并更新权重,在常规工作阶段,控制编码网络模块编码,分类器进行分类。
如图2所示,本实施例中,所述物理神经元包括神经元控制器,以及分别与神经元控制器连接的内部脉冲交互单元、第一膜电位更新单元、前向权重管理单元、纵向抑制管理单元、阈值电压管理单元、前向权重存储器、纵向抑制存储器、阈值电压存储器和第一膜电位存储器;所述内部脉冲交互单元分别与第一膜电位更新单元、前向权重管理单元、纵向抑制管理单元和阈值电压管理单元连接;所述第一膜电位更新单元分别与第一膜电位存储器、前向权重管理单元、纵向抑制管理单元和阈值电压管理单元连接;所述前向权重管理单元与前向权重存储器连接;所述纵向抑制管理单元与纵向抑制存储器连接;所述阈值电压管理单元与阈值电压存储器连接。其中,所述权重管理单元、纵向抑制管理单元和阈值电压管理单元,用于在编码阶段对应参数运算后发送至第一膜电位更新单元,以及在片上学习阶段用于负责对对应参数进行更新。所述膜电位更新单元用于负责对接收到的参数进行累积更新,当达到阈值时清零膜电位,并发射脉冲。所述前向权重存储器、纵向抑制存储器、阈值电压存储器和第一膜电位存储器用于存储数据。所述神经元控制器用于接收编码网络控制器控制信号,控制物理神经元内部不同单元的工作,发放物理神经元内部存储器读写信号与地址,并控制物理神经元内部脉冲交互单元传输脉冲信号给其他物理神经元。
如图3所示,本实施例中,所述第一膜电位更新单元包括第一加法器1、第二加法器2、第一MUX数据选择器3和第一比较器4。所述第一加法器1分别与前向权重管理单元、纵向抑制管理单元连接。所述第二加法器2分别与第一加法器1和第一膜电位存储器连接。所述第一比较器4分别与阈值电压管理单元和第二加法器2连接。所述第一MUX数据选择器3分别与第二加法器2和第一膜电位存储器连接。其中,第一加法器1用于将前向权重管理单元的输出电流与纵向抑制管理单元的抑制电流相加,进行膜电位累积的第一步。所述第二加法器2用于将第一加法器的输出与对应物理神经元前一个时间步的膜电位相加,得到当前物理神经元的膜电位。所述第一MUX数据选择器3用于根据第一比较器4结果,若膜电位大于阈值则将当前膜电位置0,反之保留膜电位。所述第一比较器4用于比较当前膜电位与动态阈值管理单元输出的阈值电压大小,若大于阈值电压则产生脉冲,即输出1,脉冲送往内部脉冲交互单元,同时在第一膜电位更新单元内部也通过该脉冲判断膜电位是否置0。
如图3所示,图中的IW表示前向权重管理单元输出电流,作为输入图像的加权和,IQ表示纵向抑制管理单元输出电流,上一时刻发放脉冲的物理神经元的纵向抑制权重求和,Vth表示物理神经元的阈值电压。
如图4所示,本实施例中,所述前向权重管理单元包括第一乘法器5、第二乘法器10、第三乘法器9、第三加法器6、第四加法器8、第五加法器11、第二MUX数据选择器12、第三MUX数据选择器7和第一寄存器13。所述第一乘法器5与第四加法器8连接。所述第二乘法器10分别与前向权重存储器、第三乘法器9和第五加法器11连接。所述第二MUX数据选择器12分别与第五加法器11和第一寄存器13连接。所述第四加法器8分别与第三乘法器9和第三MUX数据选择器7连接。所述第三加法器6分别与第三MUX数据选择器7和前向权重存储器连接。其中,所述第一乘法器5用于获取外部的图像输入像素值,内部脉冲交互单元所记录的神经元脉冲发放次数,以及完成图像输出与权重的乘法计算,即前向权重更新公式(ΔQik=αni(Xk-niQik))中的niQik这一项的计算。所述第二乘法器10用于输入图像X与对应权重Q的乘积运算。所述第三乘法器9用于与将第二乘法器输出与内部脉冲交互单元记录的脉冲计数相乘,完成权重更新公式中的ni与括号内后一项相乘的功能,其结果送往第四加法器进行下一步计算。所述第三加法器6用于将当前权重与权重增值相加完成权重的更新。所述第四加法器8用于完成权重增加值的计算ΔQik=αni(Xk-niQik)。所述第五加法器11用于完成前向权重电流的累积求和。所述第二MUX数据选择器12用于在新的时间步到来的时候将放有前向电流累积和的第一寄存器13清零。所述第三MUX数据选择器7用于接收来自控制器的信号,判断是否更新权重,不更新的话,将权重增加值变为0。所述第一寄存器13用于记录当前时间步的前向电流总和。图4中的X表示输入图像的像素值,n表示内部脉冲交互单元所记录的神经元脉冲发放次数,即一个神经元在一副图像中发放的脉冲数量。
如图5所示,本实施例中,所述纵向抑制管理单元包括第六加法器15、第七加法器18、第八加法器20、第四MUX数据选择器14、第五MUX数据选择器16、第六MUX数据选择器19和第二寄存器17;所述第四MUX数据选择器14分别与纵向抑制存储器和第六加法器15连接;所述第五MUX数据选择器16分别与第六加法器15和第二寄存器17连接;所述第七加法器18分别与纵向抑制存储器和第四MUX数据选择器14连接;所述第六MUX数据选择器19分别与第七加法器18和第八加法器20连接;其中,所述第六加法器15用于将第二寄存器17中的已累积纵向抑制电流与第四MUX数据选择器14送出的纵向抑制电流相加,完成当前时间步的纵向抑制电流累积;所述第七加法器18用于将当前纵向抑制权重与纵向抑制权重增量相加完成纵向抑制权重的更新;所述第八加法器20用于计算内部脉冲交互单元送出的神经元对一幅图像编码时产生的脉冲数量n与目标脉冲发射率p的差,从而计算纵向抑制增量;所述第四MUX数据选择器14用于通过脉冲交互单元送出上一个时间步神经元发射脉冲与否,判断是否产生神经元间的抑制,发射脉冲则选择纵向抑制权重,否则选择0;所述第五MUX数据选择器16用于接收神经元控制器发放的控制信号,在新的时间步到来时(newtimestep=1),清零累积的纵向抑制电流,重新开始累积;所述第六MUX数据选择器19用于接收神经元控制器发放的控制信号,判断是否进行更新,更新则通过纵向抑制增量,反之选择0;所述第二寄存器17用于存放当前时间步的累积纵向抑制电流。
如图6所示,本实施例中,所述阈值电压管理单元包括第九加法器22、第十加法器24和第七MUX数据选择器23,所述第七MUX数据选择器23分别与第九加法器22和第十加法器24连接;所述第十加法器24与阈值电压存储器连接;其中,所述第九加法器22用于计算动态阈值更新时的增量;所述第十加法器24用完成阈值更新,将当前阈值加上增量;所述第七MUX数据选择器23用于接收神经元控制器发放的控制信号,判断是否进行更新,更新则通过阈值增量,反之选择0。
如图7所示,本实施例中,所述第二膜电位更新单元包括第八MUX数据选择器27、第十一加法器25和第二比较器26;所述第十一加法器25分别与纵向抑制管理单元、第二膜电位存储器和第八MUX数据选择器27连接;所述第二比较器26分别与第十一加法器25和存放分类器固定阈值的寄存器单元连接;其中,所述第八MUX数据选择器27用于通过分类器神经元膜电位大于阈值时产生的脉冲,来进行判断是否将膜电位置0,有脉冲则置0,反之保持;所述第十一加法器25用于累积分类器神经元膜电位;所述第二比较器26用于将当前膜电位与阈值进行比较,若大于阈值,则产生脉冲(输出1),否则输出0。
如图8所示,本实施例中,所述权重更新单元包括第十二加法器28、第四乘法器29和第九MUX数据选择器21;所述第十二加法器28分别与权重存储器、第四乘法器29和第九MUX数据选择器21连接;第四乘法器29分别与权重存储器、第九MUX数据选择器21连接。其中,所述第四乘法器29用于将权重与误差信号相乘,等于权重的增量。第九MUX数据选择器21用于接收分类器控制器的控制信号判断是否要更新权重,若是,则选择权重增量,否则选择0。所述第十二加法器28用于完成权重的更新,将当前权重与增量相加。
本实施例中,物理神经元相当于计算核,每个物理神经元负责多个虚拟神经元的各个步骤计算,本实施例中用了4个物理神经元并行计算。以512个神经元为例,每个物理神经元计算128个虚拟神经元,每个物理神经元的神经元控制器负责发地址,把每个神经元对应的数据从存储器里读出来。
如图3至图6所示,原始像素值以数据流的形式输入编码网络模块。编码网络模块的第一膜电位更新单元将会对其进行膜电位的累积与更新,参见图3,图3中IW,IQ,Vth为前向权重管理单元、纵向抑制管理单元和阈值电压管理单元通过加权求和的方式将数据输入给第一膜电位更新单元,在判断完膜电位超过阈值后,该第一膜电位更新单元产生脉冲,并将膜电位置0,否则就将第一膜电位存储器更新。输入图像会经过前向权重管理单元进行加权求和后送前馈电流IQ至第一膜电位更新单元,在新的时间步来到时,前向权重管理单元缓存前馈电流IQ的第一寄存器13会被置0,重新计算。前向权重管理单元还负责在学习阶段更新前馈权重,如权重更新公式(ΔQik=αni(Xk-niQik))所介绍。IW则是神经元间的相互抑制电流,根据上一个时间步的其他神经元脉冲发射情况进行累积,如果发射则寄存器就会加上对应抑制权重,直到加完所有其他神经元,然后送数据给第一膜电位更新单元,在新的时间步到来时寄存器会清空。同时也负责在学习阶段的抑制权重更新,如图5所示。阈值电压存储器负责送入对应输出物理神经元阈值给第一膜电位更新单元进行判断,参见图6。
如图2所示,分类器的核心由负责前馈计算的第二膜电位更新单元与负责片上学习的权重更新单元构成,其中,第二膜电位更新单元与编码网络模块基本一致,如图7所示,但是这里没有抑制电流,前馈电流也是简单由第八MUX数据选择器27求和得到,如果前一层神经元发射脉冲则加上对应权重,而不是传统神经网络的乘法计算,减少了计算资源。与编码网络模块不同的是,该网络分类器的阈值是给定的参数,而编码网络模块的神经元阈值是动态调整的。而权重更新单元则由简单的乘法器与加法器构成(参见图8),但是由于权重更新算法的优势,与稀疏编码提供的极为少量的脉冲,使得权重更新量本身就极为稀少,在控制器中,当判定到前一层神经元未曾发射过脉冲,便不再对其权重进行读写,在减少数据读写功耗的同时也降低了延迟。
3、异构脉冲神经网络实现
本实施例中,通过构建一个在ORL人脸数据集上使用的网络,以及MNIST数据集上使用的网络。
表I.针对ORL人脸数据集的脉冲神经网络
Model | Architecture |
编码网络 | 16×16-512 |
分类器 | 300-10 |
表Ⅱ.针对MNIST数据集的脉冲神经网络
Model | Architecture |
编码网络 | 28×28-1568 |
分类器 | 300-10 |
在不同深度下,脉冲卷积神经网络系统的性能,参见图9所示。
本实施例中所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,提出了一个结合脉冲稀疏编码与脉冲神经网络分类器的成本有效和高速VLSI硬件框架用于人脸识别。稀疏编码的自动特征选取以及脉冲神经网络的异步运算相结合,提高了能效,降低了运算量。充分发挥脉冲稀疏性能优势的分类器,通过少量权重更新即可完成片上学习,减少了片上学习大量的权重读写。所提出的系统架构即可以用于脉冲数据集(AER事件流数据集)也可用于传统图像数据集,以满足不同嵌入式应用场景。
以上实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。
Claims (8)
1.一种基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:包括编码网络模块、分类器、数据缓存模块和全局控制器;
所述编码网络模块包括编码网络控制器,以及分别与编码网络控制器连接的外部脉冲交互单元和多个物理神经元,外部脉冲交互单元分别与各物理神经元连接;其中,所述外部脉冲交互单元用于负责脉冲的存储与发送;所述物理神经元用于负责膜电位更新及各项权重的学习;所述编码网络控制器用于接收全局控制器发出的信号,并分发控制信号与输入数据地址,控制编码网络模块中物理神经元开始或停止膜电位更新、权重更新,以及协调控制外部脉冲交互单元与物理神经元之间进行脉冲交互;
所述分类器包括分类器控制器,以及分别与分类器控制器连接的误差管理单元、权重更新单元、第二膜电位更新单元、权重存储器、第二膜电位存储器、脉冲记录存储器和误差记录存储器;所述脉冲记录存储器和误差记录存储器分别与误差管理单元连接;所述第二膜电位更新单元分别与脉冲记录存储器和第二膜电位存储器连接;所述权重存储器分别与权重更新单元、第二膜电位更新单元连接;所述权重更新单元与误差管理单元连接;其中,所述分类器控制器用于接收全局控制器的控制信号,确定分类器处于分类阶段还是学习阶段,并分发各个存储器地址与读写信号;所述误差管理单元用于负责误差计算、存储以及发送误差给权重更新单元;所述权重更新单元用于负责权重的更新;所述膜电位更新单元用于负责对膜电位进行累积判断是否超过阈值,若超过则发射脉冲,并重置膜电位;所述权重存储器、第二膜电位存储器、脉冲记录存储器和误差记录存储器均用于存储数据;
所述数据缓存模块分别与编码网络模块和分类器连接,所述数据缓存模块缓存编码网络模块编码后的脉冲信号,并送入分类器进行分类,以防止分类器处理速度较慢时编码后数据丢失;
所述全局控制器分别与编码网络模块和分类器连接,所述全局控制器用于统筹控制整块芯片,发放控制信号给下级控制器,在无监督学习阶段,控制编码网络模块编码并更新权重,在有监督学习阶段,控制编码网络模块进行编码,以及控制分类器进行分类并更新权重,在常规工作阶段,控制编码网络模块编码,分类器进行分类。
2.根据权利要求1所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:所述物理神经元包括神经元控制器,以及分别与神经元控制器连接的内部脉冲交互单元、第一膜电位更新单元、前向权重管理单元、纵向抑制管理单元、阈值电压管理单元、前向权重存储器、纵向抑制存储器、阈值电压存储器和第一膜电位存储器;所述内部脉冲交互单元分别与第一膜电位更新单元、前向权重管理单元、纵向抑制管理单元和阈值电压管理单元连接;所述第一膜电位更新单元分别与第一膜电位存储器、前向权重管理单元、纵向抑制管理单元和阈值电压管理单元连接;所述前向权重管理单元与前向权重存储器连接;所述纵向抑制管理单元与纵向抑制存储器连接;所述阈值电压管理单元与阈值电压存储器连接;
其中,所述权重管理单元、纵向抑制管理单元和阈值电压管理单元,用于在编码阶段对应参数运算后发送至第一膜电位更新单元,以及在片上学习阶段用于负责对对应参数进行更新;
所述膜电位更新单元用于负责对接收到的参数进行累积更新,当达到阈值时清零膜电位,并发射脉冲;
所述前向权重存储器、纵向抑制存储器、阈值电压存储器和第一膜电位存储器用于存储数据;
所述神经元控制器用于接收编码网络控制器控制信号,控制物理神经元内部不同单元的工作,发放物理神经元内部存储器读写信号与地址,并控制物理神经元内部脉冲交互单元传输脉冲信号给其他物理神经元。
3.根据权利要求2所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:所述第一膜电位更新单元包括第一加法器(1)、第二加法器(2)、第一MUX数据选择器(3)和第一比较器(4);
所述第一加法器(1)分别与前向权重管理单元、纵向抑制管理单元连接;
所述第二加法器(2)分别与第一加法器(1)和第一膜电位存储器连接;
所述第一比较器(4)分别与阈值电压管理单元和第二加法器(2)连接;
所述第一MUX数据选择器(3)分别与第二加法器(2)和第一膜电位存储器连接;
其中,所述第一加法器(1)用于将前向权重管理单元的输出电流与纵向抑制管理单元的抑制电流相加,进行膜电位累积的第一步;
所述第二加法器(2)用于将第一加法器的输出与对应物理神经元前一个时间步的膜电位相加,得到当前物理神经元的膜电位;
所述第一MUX数据选择器(3)用于根据第一比较器(4)结果,若膜电位大于阈值则将当前膜电位置0,反之保留膜电位;
所述第一比较器(4)用于比较当前膜电位与动态阈值管理单元输出的阈值电压大小,若大于阈值电压则产生脉冲,即输出1,脉冲送往内部脉冲交互单元,同时在第一膜电位更新单元内部也通过该脉冲判断膜电位是否置0。
4.根据权利要求3所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:所述前向权重管理单元包括第一乘法器(5)、第二乘法器(10)、第三乘法器(9)、第三加法器(6)、第四加法器(8)、第五加法器(11)、第二MUX数据选择器(12)、第三MUX数据选择器(7)和第一寄存器(13);
所述第一乘法器(5)与第四加法器(8)连接;
所述第二乘法器(10)分别与前向权重存储器、第三乘法器(9)和第五加法器(11)连接;
所述第二MUX数据选择器(12)分别与第五加法器(11)和第一寄存器(13)连接;
所述第四加法器(8)分别与第三乘法器(9)和第三MUX数据选择器(7)连接;
所述第三加法器(6)分别与第三MUX数据选择器(7)和前向权重存储器连接;
其中,所述第一乘法器(5)用于获取外部的图像输入像素值,内部脉冲交互单元所记录的神经元脉冲发放次数,以及完成图像输出与权重的乘法计算;
所述第二乘法器(10)用于输入图像X与对应权重Q的乘积运算;
所述第三乘法器(9)用于与将第二乘法器(10)输出与内部脉冲交互单元记录的脉冲计数相乘,并将结果送往第四加法器(8)进行下一步计算;
所述第三加法器(6)用于将当前权重与权重增值相加完成权重的更新;
所述第四加法器(8)用于完成权重增加值的计算;
所述第五加法器(11)用于完成前向权重电流的累积求和;
所述第二MUX数据选择器(12)用于在新的时间步到来的时候将放有前向电流累积和的第一寄存器(13)清零;
所述第三MUX数据选择器(7)用于接收来自控制器的信号,判断是否更新权重,不更新的话,将权重增加值变为0;
所述第一寄存器(13)用于记录当前时间步的前向电流总和。
5.根据权利要求4所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:所述纵向抑制管理单元包括第六加法器(15)、第七加法器(18)、第八加法器(20)、第四MUX数据选择器(14)、第五MUX数据选择器(16)、第六MUX数据选择器(19)和第二寄存器(17);
所述第四MUX数据选择器(14)分别与纵向抑制存储器和第六加法器(15)连接;
所述第五MUX数据选择器(16)分别与第六加法器(15)和第二寄存器(17)连接;
所述第七加法器(18)分别与纵向抑制存储器和第四MUX数据选择器(14)连接;
所述第六MUX数据选择器(19)分别与第七加法器(18)和第八加法器(20)连接;
其中,所述第六加法器(15)用于将第二寄存器(17)中的已累积纵向抑制电流与第四MUX数据选择器(14)送出的纵向抑制电流相加,完成当前时间步的纵向抑制电流累积;
所述第七加法器(18)用于将当前纵向抑制权重与纵向抑制权重增量相加完成纵向抑制权重的更新;
所述第八加法器(20)用于计算内部脉冲交互单元送出的神经元对一幅图像编码时产生的脉冲数量n与目标脉冲发射率p的差,从而计算纵向抑制增量;
所述第四MUX数据选择器(14)用于通过脉冲交互单元送出上一个时间步神经元发射脉冲与否,判断是否产生神经元间的抑制,发射脉冲则选择纵向抑制权重,否则选择0;
所述第五MUX数据选择器(16)用于接收神经元控制器发放的控制信号,在新的时间步到来时,清零累积的纵向抑制电流,重新开始累积;
所述第六MUX数据选择器(19)用于接收神经元控制器发放的控制信号,判断是否进行更新,更新则通过纵向抑制增量,反之选择0;
所述第二寄存器(17)用于存放当前时间步的累积纵向抑制电流。
6.根据权利要求4或5所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:所述阈值电压管理单元包括第九加法器(22)、第十加法器(24)和第七MUX数据选择器(23),所述第七MUX数据选择器(23)分别与第九加法器(22)和第十加法器(24)连接;
所述第十加法器(24)与阈值电压存储器连接;
其中,所述第九加法器(22)用于计算动态阈值更新时的增量;
所述第十加法器(24)用完成阈值更新,将当前阈值加上增量;
所述第七MUX数据选择器(23)用于接收神经元控制器发放的控制信号,判断是否进行更新,更新则通过阈值增量,反之选择0。
7.根据权利要求6所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:所述第二膜电位更新单元包括第八MUX数据选择器(27)、第十一加法器(25)和第二比较器(26);
所述第十一加法器(25)分别与纵向抑制管理单元、第二膜电位存储器和第八MUX数据选择器(27)连接;
所述第二比较器(26)分别与第十一加法器(25)和存放分类器固定阈值的寄存器单元连接;
其中,所述第八MUX数据选择器(27)用于通过分类器神经元膜电位大于阈值时产生的脉冲,来进行判断是否将膜电位置0,有脉冲则置0,反之保持;
所述第十一加法器(25)用于累积分类器神经元膜电位;
所述第二比较器(26)用于将当前膜电位与阈值进行比较,若大于阈值,则产生脉冲,即输出1,否则输出0。
8.根据权利要求6所述的基于异构脉冲神经网络的人脸识别的FPGA芯片,其特征在于:所述权重更新单元包括第十二加法器(28)、第四乘法器(29)和第九MUX数据选择器(21);所述第十二加法器(28)分别与权重存储器、第四乘法器(29)和第九MUX数据选择器(21)连接;第四乘法器(29)分别与权重存储器、第九MUX数据选择器(21)连接;
其中,所述第四乘法器(29)用于将权重与误差信号相乘,等于权重的增量;
第九MUX数据选择器(21)用于接收分类器控制器的控制信号判断是否要更新权重,若是,则选择权重增量,否则选择0;
所述第十二加法器(28)用于完成权重的更新,将当前权重与增量相加。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210361630.6A CN114708639B (zh) | 2022-04-07 | 2022-04-07 | 一种基于异构脉冲神经网络的人脸识别的fpga芯片 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210361630.6A CN114708639B (zh) | 2022-04-07 | 2022-04-07 | 一种基于异构脉冲神经网络的人脸识别的fpga芯片 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114708639A CN114708639A (zh) | 2022-07-05 |
CN114708639B true CN114708639B (zh) | 2024-05-14 |
Family
ID=82171974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210361630.6A Active CN114708639B (zh) | 2022-04-07 | 2022-04-07 | 一种基于异构脉冲神经网络的人脸识别的fpga芯片 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114708639B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118236042B (zh) * | 2024-05-28 | 2024-08-09 | 华南理工大学 | 一种基于多通道异构脉冲神经网络的睡眠分期方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9552546B1 (en) * | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
WO2021012752A1 (zh) * | 2019-07-23 | 2021-01-28 | 中建三局智能技术有限公司 | 一种基于脉冲神经网络的短程跟踪方法及系统 |
CN112784976A (zh) * | 2021-01-15 | 2021-05-11 | 中山大学 | 一种基于脉冲神经网络的图像识别系统及方法 |
CN114091663A (zh) * | 2021-11-28 | 2022-02-25 | 重庆大学 | 基于脉冲神经网络的轻量级片上学习方法、系统及处理器 |
CN114187306A (zh) * | 2021-12-14 | 2022-03-15 | 杭州电子科技大学 | 一种基于脉冲神经网络u型模型的烧伤区域分割系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9460387B2 (en) * | 2011-09-21 | 2016-10-04 | Qualcomm Technologies Inc. | Apparatus and methods for implementing event-based updates in neuron networks |
US9367798B2 (en) * | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
US11281963B2 (en) * | 2016-09-26 | 2022-03-22 | Intel Corporation | Programmable neuron core with on-chip learning and stochastic time step control |
US20190102669A1 (en) * | 2017-09-29 | 2019-04-04 | Intel Corporation | Global and local time-step determination schemes for neural networks |
-
2022
- 2022-04-07 CN CN202210361630.6A patent/CN114708639B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9552546B1 (en) * | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
WO2021012752A1 (zh) * | 2019-07-23 | 2021-01-28 | 中建三局智能技术有限公司 | 一种基于脉冲神经网络的短程跟踪方法及系统 |
CN112784976A (zh) * | 2021-01-15 | 2021-05-11 | 中山大学 | 一种基于脉冲神经网络的图像识别系统及方法 |
CN114091663A (zh) * | 2021-11-28 | 2022-02-25 | 重庆大学 | 基于脉冲神经网络的轻量级片上学习方法、系统及处理器 |
CN114187306A (zh) * | 2021-12-14 | 2022-03-15 | 杭州电子科技大学 | 一种基于脉冲神经网络u型模型的烧伤区域分割系统 |
Non-Patent Citations (3)
Title |
---|
A Heterogeneous Spiking Neural Network for Computationally Efficient Face Recognition;Xichuan Zhou等;《2021 IEEE International Symposium on Circuits and Systems (ISCAS)》;20210427;全文 * |
基于FPGA的脉冲神经网络加速器设计;沈阳靖;沈君成;叶俊;马琪;;电子科技;20171015(10);全文 * |
面向人脸识别的高效异构脉冲神经网络设计;周政华;《万方数据》;20231101;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114708639A (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110555523B (zh) | 一种基于脉冲神经网络的短程跟踪方法及系统 | |
CN106250939B (zh) | 基于fpga+arm多层卷积神经网络的手写体字符识别方法 | |
CN111259601A (zh) | 基于随机ga-bp神经网络群的爆破块度预测方法、装置及介质 | |
CN113128113B (zh) | 一种基于深度学习和迁移学习的贫乏信息建筑负荷预测方法 | |
CN113196303B (zh) | 不适当神经网络输入检测和处理 | |
CN117117859B (zh) | 基于神经网络的光伏发电功率预测方法及系统 | |
CN112906828A (zh) | 一种基于时域编码和脉冲神经网络的图像分类方法 | |
CN114708639B (zh) | 一种基于异构脉冲神经网络的人脸识别的fpga芯片 | |
CN112633477A (zh) | 一种基于现场可编程阵列的量化神经网络加速方法 | |
CN113033769B (zh) | 一种概率计算神经网络方法和异步逻辑电路 | |
CN112232440B (zh) | 一种运用特异化神经元团实现脉冲神经网络信息记忆和区分的方法 | |
CN113935475A (zh) | 具有脉冲时刻偏移量的脉冲神经网络的仿真与训练方法 | |
CN114819114A (zh) | 脉冲神经网络硬件加速器及其在卷积运算中的优化方法 | |
CN111783688B (zh) | 一种基于卷积神经网络的遥感图像场景分类方法 | |
CN114186665A (zh) | 一种基于gpu的脉冲神经网络仿真方法 | |
CN110728303B (zh) | 基于卷积神经网络数据复杂度的动态自适应计算阵列 | |
Lan et al. | Efficient converted spiking neural network for 3d and 2d classification | |
CN116303386A (zh) | 一种基于关系图谱的缺失数据智能插补方法和系统 | |
CN116739130A (zh) | TCN-BiLSTM网络的多时间尺度负荷预测方法 | |
CN115984822A (zh) | 基于空间注意力的snn交通标志识别方法及相关装置 | |
CN113033795A (zh) | 基于时间步的二值脉冲图的脉冲卷积神经网络硬件加速器 | |
CN112464578B (zh) | 一种用于剩余使用寿命预测退化数据的扩增方法 | |
CN114040447A (zh) | 一种面向大速率星地链路通信业务智能流量负载均衡方法 | |
Dinh et al. | FBW-SNN: a fully binarized weights-spiking neural networks for edge-AI applications | |
CN118227448B (zh) | 基于深度学习的大语言模型系统负载预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |