CN114118378A - 基于阈值自适应神经元的硬件友好stdp学习方法和系统 - Google Patents

基于阈值自适应神经元的硬件友好stdp学习方法和系统 Download PDF

Info

Publication number
CN114118378A
CN114118378A CN202111456234.3A CN202111456234A CN114118378A CN 114118378 A CN114118378 A CN 114118378A CN 202111456234 A CN202111456234 A CN 202111456234A CN 114118378 A CN114118378 A CN 114118378A
Authority
CN
China
Prior art keywords
pulse
neuron
neurons
hardware
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111456234.3A
Other languages
English (en)
Inventor
陆宇婧
唐华锦
张宇豪
洪朝飞
王笑
袁孟雯
张梦骁
黄恒
赵文一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Zhejiang Lab
Original Assignee
Zhejiang University ZJU
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU, Zhejiang Lab filed Critical Zhejiang University ZJU
Priority to CN202111456234.3A priority Critical patent/CN114118378A/zh
Publication of CN114118378A publication Critical patent/CN114118378A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明属于脉冲神经网络技术领域,涉及一种基于阈值自适应神经元的硬件友好STDP学习方法和系统,该方法包括以下步骤:S1:采用频率编码将输入图片编码成脉冲序列并输入脉冲神经网络SNN;S2:SNN的兴奋层神经元接收输入脉冲,累积膜电位,当膜电压达到阈值时,发放脉冲且膜电位复位;S3:SNN抑制层与兴奋层神经元一对一连接,接收其输出脉冲并抑制兴奋层神经元;S4:根据STDP学习规则并采用硬件友好权重归一化方法,对输入层和兴奋层间的兴奋性突触权重进行更新;S5:学习完成后,利用兴奋层神经元的脉冲输出序列进行图像识别。本发明能够在保证准确率和稳定性的同时,降低算法在硬件实现的资源消耗。

Description

基于阈值自适应神经元的硬件友好STDP学习方法和系统
技术领域
本发明属于脉冲神经网络技术领域,涉及一种基于阈值自适应神经元的硬件友好STDP学习方法和系统。
背景技术
脉冲神经网络(Spiking Neural Network, SNN)被称为第三代人工神经网络,其中脉冲神经元将脉冲序列作为有效信息进行传输和计算,在神经元模型、突触模型以及脉冲发放机制等方面具有很强的生物合理性,与真实生物神经网络高度接近。Hebb学习规则表明突触的连接强度随着突触前和突触后神经元活动的变化而变化,而神经科学研究发现突触权值的变化与神经元发放脉冲的精确时间紧密相关,脉冲发放的相对时间差值对权重方向和大小的改变具有关键作用。这种基于突触前后脉冲发放时间相关的学习规则称为脉冲时间依赖可塑性(Spiking Timing Dependent Plasticity,STDP),属于一种无监督的局部学习规则,被认为是大脑学习与信息存储的重要机制。
STDP的标准权重归一化方法由于包含除法操作,硬件实现时需要消耗较多资源,难以在资源有限的专用硬件设备上高效部署。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提出了一种基于阈值自适应神经元的硬件友好STDP学习方法和系统,其具体技术方案如下:
基于阈值自适应神经元的硬件友好STDP学习方法,包括以下步骤:
S1:采用频率编码将输入图片编码成脉冲序列并输入脉冲神经网络SNN;
S2:SNN的兴奋层神经元接收输入脉冲,累积膜电位,当膜电压达到阈值时,发放脉冲且膜电位复位;
S3:SNN抑制层与兴奋层神经元一对一连接,接收其输出脉冲并抑制兴奋层神经元;
S4:根据STDP学习规则并采用硬件友好权重归一化方法,对输入层和兴奋层间的兴奋性突触权重进行更新;
S5:学习完成后,利用兴奋层神经元的脉冲输出序列进行图像识别。
进一步的,所述步骤S1采用频率编码将输入图片按照其像素大小编码为特定频率的脉冲序列,其中,频率编码表达式为:
Figure 80839DEST_PATH_IMAGE001
其中
Figure 713946DEST_PATH_IMAGE002
表示均匀分布的随机数,c表示缩放因子,
Figure 221150DEST_PATH_IMAGE003
表示归一化后的图像像素 值。
进一步的,所述脉冲神经网络,输入层是输入图片经过编码后的脉冲序列,输入层和兴奋层是全连接,抑制层的神经元的个数和兴奋层一致,每一个兴奋神经元都和一个抑制神经元一对一连接,每个抑制神经元抑制除对应神经元以外的兴奋神经元。
进一步的,所述兴奋层神经元通过调高阈值以维持脉冲发放率的平衡,该神经元模型表达式为:
Figure 417645DEST_PATH_IMAGE004
其中
Figure 326696DEST_PATH_IMAGE005
表示t时刻神经元的膜电位,
Figure 865124DEST_PATH_IMAGE006
表示复位电压,
Figure 751303DEST_PATH_IMAGE007
表示输入神经元和输出 神经元的连接权重,
Figure 95697DEST_PATH_IMAGE008
表示阈值,
Figure 796936DEST_PATH_IMAGE009
表示自适应参数,
Figure 958796DEST_PATH_IMAGE010
Figure 440593DEST_PATH_IMAGE011
分别表示神经元输入脉 冲和输出脉冲,根据是否发放脉冲取值为0或1,
Figure 729623DEST_PATH_IMAGE012
Figure 33172DEST_PATH_IMAGE013
分别表示两个衰减常数,
Figure 506879DEST_PATH_IMAGE014
表示阈值增加量。
进一步的,所述抑制层神经元是Leaky Integrate-And-Fire即LIF神经元模型,表达式为:
Figure 85759DEST_PATH_IMAGE015
进一步的,所述步骤S4,具体为:首先基于STDP学习规则,表达式为:
Figure 37534DEST_PATH_IMAGE016
Figure 962634DEST_PATH_IMAGE017
其中,
Figure 951450DEST_PATH_IMAGE018
表示突触前脉冲到达突触 j 的时刻,
Figure 407839DEST_PATH_IMAGE019
表示突触后神经元的放电时间,
Figure 586142DEST_PATH_IMAGE020
表示突触前和突触后的刺激引起的总权重变化量,
Figure 54163DEST_PATH_IMAGE021
表示STDP的学习函数,即学习 窗口,
Figure 869672DEST_PATH_IMAGE022
Figure 734729DEST_PATH_IMAGE023
分别表示时间常量,
Figure 903673DEST_PATH_IMAGE024
Figure 350835DEST_PATH_IMAGE025
表示学习率;对于STDP学习规则,如果突触前 神经元发放的脉冲在突触后神经元发放之前到达,则突触增强;反之,突触减弱;
采取一种STDP在线学习方法,即当接收输入脉冲或者发放输出脉冲时会更新权重,公式如下:
Figure 757152DEST_PATH_IMAGE026
其中,
Figure 63500DEST_PATH_IMAGE027
Figure 895190DEST_PATH_IMAGE028
分别表示t时刻的输入和输出神经元的脉冲轨迹,
Figure 587071DEST_PATH_IMAGE029
表示轨迹衰减常数,
Figure 416487DEST_PATH_IMAGE030
表示t时刻的权重更新量;
再进行归一化操作, 得到STDP原始归一化公式为:
Figure 69185DEST_PATH_IMAGE031
Figure 330664DEST_PATH_IMAGE032
Figure 690102DEST_PATH_IMAGE033
其中,
Figure 18315DEST_PATH_IMAGE034
是归一化常数,
Figure 17364DEST_PATH_IMAGE035
是指对于每一个突触后神经元,将它所有对应的 突触前神经元的权重求和;
最后借鉴Oja对原始赫布规则的归一化以及改进方法,提出一种硬件友好的STDP归一化方法,具体表达式如下:
Figure 394118DEST_PATH_IMAGE036
其中
Figure 935958DEST_PATH_IMAGE024
Figure 816100DEST_PATH_IMAGE025
取值趋近于0,取公式线性主部。
基于阈值自适应神经元的硬件友好STDP学习系统,包括:编码模块、兴奋模块、抑制模块、学习模块和输出模块,所述编码模块采用频率编码将输入图片编码成脉冲序列并输入脉冲神经网络;兴奋模块采用SNN兴奋层神经元接收输入脉冲,累积膜电位,当膜电压达到阈值时,发放脉冲且膜电位复位;抑制模块用于SNN抑制层与兴奋层神经元一对一连接,接收其输出脉冲并抑制兴奋层神经元;学习模块根据STDP学习规则并采用硬件友好权重归一化方法,对输入和兴奋层间的兴奋性突触权重进行更新;输出模块用于学习完成后,利用兴奋层神经元的脉冲输出序列进行图像识别。
有益效果:
本发明可以在保证准确率和稳定性的同时,降低算法在硬件实现的资源消耗。
附图说明
图1为根据本发明的实施例的基于阈值自适应神经元的硬件友好STDP学习方法的流程图;
图2 为根据本发明的实施例的阈值自适应神经元结构示意图;
图3为根据本发明的实施例的脉冲神经网络结构示意图;
图4为根据本发明实施例的STDP非监督学习算法流程图;
图5为根据本发明实施例的基于阈值自适应神经元的硬件友好STDP学习系统的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图,对本发明作进一步详细说明。
如图1所示,一种基于阈值自适应神经元的硬件友好STDP学习方法,包括以下步骤:
S1:采用频率编码将输入图片编码成脉冲序列并输入脉冲神经网络SNN;
其中,频率编码的公式为:
Figure 115494DEST_PATH_IMAGE037
其中
Figure 92677DEST_PATH_IMAGE038
表示均匀分布的随机数,c表示缩放因子,
Figure 879237DEST_PATH_IMAGE003
表示归一化后的图像像素 值;根据MNIST输入像素强度大小,设定输入神经元的发放频率为63.75Hz,即
Figure 283673DEST_PATH_IMAGE039
为0.06375。
S2:SNN的兴奋层神经元接收输入脉冲,累积膜电位,当膜电压达到阈值时,发放脉冲且膜电位复位;
如图2所示,兴奋层阈值自适应神经元通过调高阈值以维持脉冲发放率的平衡,防止出现先发放脉冲的神经元一直发放的现象,该神经元模型为:
Figure 273626DEST_PATH_IMAGE040
其中
Figure 54500DEST_PATH_IMAGE005
表示t时刻神经元的膜电位,
Figure 197031DEST_PATH_IMAGE006
表示复位电压,表示输入神经元和输出神 经元的连接权重,
Figure 37948DEST_PATH_IMAGE008
表示阈值,
Figure 515197DEST_PATH_IMAGE009
表示自适应参数,
Figure 99762DEST_PATH_IMAGE010
Figure 595334DEST_PATH_IMAGE011
分别表示神经元输入脉冲 和输出脉冲,根据是否发放脉冲取值为0或1,
Figure 607152DEST_PATH_IMAGE012
Figure 306118DEST_PATH_IMAGE013
分别表示两个衰减常数,
Figure 114281DEST_PATH_IMAGE014
表示阈值增加量。
S3:SNN抑制层与兴奋层神经元一对一连接,接收其输出脉冲并抑制兴奋层神经元;
抑制层神经元是Leaky Integrate-And-Fire即LIF神经元模型:
Figure 339726DEST_PATH_IMAGE041
其中,抑制作用可以使神经元对不同类别的样本产生不同的响应情况,从而可以学习到所有样本模式。
上述技术方案中的脉冲神经网络连接如图3所示,其中,输入层是输入图片经过编码后的脉冲序列,输入层和兴奋层是全连接,抑制层的神经元的个数和兴奋层一致,每一个兴奋神经元都和一个抑制神经元一对一连接,每个抑制神经元抑制除对应神经元以外的兴奋神经元。
S4:如图4所示,根据STDP学习规则并采用硬件友好权重归一化方法,对输入层和兴奋层间的兴奋性突触权重进行更新;
其中,STDP学习规则为:
Figure 397812DEST_PATH_IMAGE042
Figure 974286DEST_PATH_IMAGE043
其中,
Figure 759709DEST_PATH_IMAGE018
表示突触前脉冲到达突触 j 的时刻,
Figure 839660DEST_PATH_IMAGE019
表示突触后神经元的放电时间,
Figure 334226DEST_PATH_IMAGE020
表示突触前和突触后的刺激引起的总权重变化量,
Figure 555255DEST_PATH_IMAGE021
表示STDP的学习函数,即学习 窗口,
Figure 754155DEST_PATH_IMAGE022
Figure 829558DEST_PATH_IMAGE023
分别表示时间常量,
Figure 541031DEST_PATH_IMAGE024
Figure 560940DEST_PATH_IMAGE025
表示学习率;对于STDP学习规则,如果突触前 神经元发放的脉冲在突触后神经元发放之前到达,则突触增强;反之,突触减弱。
由于标准STDP学习方法需要寻找所有的脉冲时间差,不利于硬件实现,所以采取一种STDP在线学习方法,即当接收输入脉冲或者发放输出脉冲时会更新权重,公式如下:
Figure 970055DEST_PATH_IMAGE026
其中,
Figure 24599DEST_PATH_IMAGE027
Figure 77612DEST_PATH_IMAGE028
分别表示t时刻的输入和输出神经元的脉冲轨迹,
Figure 850396DEST_PATH_IMAGE029
表示轨迹衰减常数,
Figure 797624DEST_PATH_IMAGE030
表示t时刻的权重更新量。
根据所述STDP规则,脉冲输出会增大权重值,而权重值的增大又会导致输出脉冲的增多。循环往复,通常情况下学习会导致权重发散,因此需要采用归一化操作,让权重分布在一定的范围区间内,防止权重发散而导致无法识别目标。
进一步地,STDP原始归一化公式为:
Figure 706674DEST_PATH_IMAGE031
Figure 963212DEST_PATH_IMAGE032
Figure 629816DEST_PATH_IMAGE033
其中,
Figure 505368DEST_PATH_IMAGE034
是归一化常数,
Figure 160603DEST_PATH_IMAGE035
是指对于每一个突触后神经元,将它所有对应的 突触前神经元的权重求和。
由于硬件实现除法操作资源消耗较多,难以在资源有限的专用硬件设备上高效部署。因此,本发明借鉴Oja对原始赫布规则的归一化以及改进方法,提出了一种硬件友好的STDP归一化方法,具体形式如下:
Figure 197829DEST_PATH_IMAGE044
Figure 554992DEST_PATH_IMAGE024
Figure 968656DEST_PATH_IMAGE025
取值趋近于0,高阶无穷小量可以忽略不计,取公式线性主部。此外研 究表明在训练过程中,将权重动态求和值与
Figure 773670DEST_PATH_IMAGE034
同时约去可以使其收敛并省略除法计 算,因此可以在硬件上高效实现。
S5:学习完成后,利用兴奋层神经元的脉冲输出序列进行图像识别。
如图5所示,该基于阈值自适应神经元的硬件友好STDP学习系统10包括:编码模块100、兴奋模块200、抑制模块300、学习模块400和输出模块500。
其中,编码模块100采用频率编码将输入图片编码成脉冲序列并输入脉冲神经网络;兴奋模块200采用SNN兴奋层神经元接收输入脉冲,累积膜电位,当膜电压达到阈值时,发放脉冲且膜电位复位;抑制模块300 用于SNN抑制层与兴奋层神经元一对一连接,接收其输出脉冲并抑制兴奋层神经元;学习模块400根据STDP学习规则并采用硬件友好权重归一化方法,对输入和兴奋层间的兴奋性突触权重进行更新;输出模块500用于学习完成后,利用兴奋层神经元的脉冲输出序列进行图像识别。
本发明中的上述方法和系统,一方面,采用了阈值自适应和抑制层的操作,能够有效训练并提升准确率;另一方面,提出了硬件友好的权重归一化方法,减少硬件实现的资源消耗,使之可以在资源有限的专用硬件设备上高效部署,对硬件实现深度SNN的无监督学习方法提供新思路。
以上所述,仅为本发明的优选实施案例,并非对本发明做任何形式上的限制。虽然前文对本发明的实施过程进行了详细说明,对于熟悉本领域的人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行同等替换。凡在本发明精神和原则之内所做修改、同等替换等,均应包含在本发明的保护范围之内。

Claims (7)

1.基于阈值自适应神经元的硬件友好STDP学习方法,其特征在于,包括以下步骤:
S1:采用频率编码将输入图片编码成脉冲序列并输入脉冲神经网络SNN;
S2:SNN的兴奋层神经元接收输入脉冲,累积膜电位,当膜电压达到阈值时,发放脉冲且膜电位复位;
S3:SNN抑制层与兴奋层神经元一对一连接,接收其输出脉冲并抑制兴奋层神经元;
S4:根据STDP学习规则并采用硬件友好权重归一化方法,对输入层和兴奋层间的兴奋性突触权重进行更新;
S5:学习完成后,利用兴奋层神经元的脉冲输出序列进行图像识别。
2.如权利要求1所述的基于阈值自适应神经元的硬件友好STDP学习方法,其特征在于,所述步骤S1采用频率编码将输入图片按照其像素大小编码为特定频率的脉冲序列,其中,频率编码表达式为:
Figure 606503DEST_PATH_IMAGE001
其中
Figure 54802DEST_PATH_IMAGE002
表示均匀分布的随机数,c表示缩放因子,
Figure 365697DEST_PATH_IMAGE003
表示归一化后的图像像素值。
3.如权利要求1所述的基于阈值自适应神经元的硬件友好STDP学习方法,其特征在于,所述脉冲神经网络,输入层是输入图片经过编码后的脉冲序列,输入层和兴奋层是全连接,抑制层的神经元的个数和兴奋层一致,每一个兴奋神经元都和一个抑制神经元一对一连接,每个抑制神经元抑制除对应神经元以外的兴奋神经元。
4.如权利要求1所述的基于阈值自适应神经元的硬件友好STDP学习方法,其特征在于,所述兴奋层神经元通过调高阈值以维持脉冲发放率的平衡,该神经元模型表达式为:
Figure 495327DEST_PATH_IMAGE004
其中
Figure 840858DEST_PATH_IMAGE005
表示t时刻神经元的膜电位,
Figure 713522DEST_PATH_IMAGE006
表示复位电压,
Figure 511714DEST_PATH_IMAGE007
表示输入神经元和输出神经 元的连接权重,
Figure 241772DEST_PATH_IMAGE008
表示阈值,
Figure 441809DEST_PATH_IMAGE009
表示自适应参数,
Figure 966332DEST_PATH_IMAGE010
Figure 251819DEST_PATH_IMAGE011
分别表示神经元输入脉冲和 输出脉冲,根据是否发放脉冲取值为0或1,
Figure 519990DEST_PATH_IMAGE012
Figure 840113DEST_PATH_IMAGE013
分别表示两个衰减常数,
Figure 302580DEST_PATH_IMAGE014
表示阈值增加量。
5.如权利要求4所述的基于阈值自适应神经元的硬件友好STDP学习方法,其特征在于,所述抑制层神经元是Leaky Integrate-And-Fire即LIF神经元模型,表达式为:
Figure 75364DEST_PATH_IMAGE015
6.如权利要求1所述的基于阈值自适应神经元的硬件友好STDP学习方法,其特征在于,所述步骤S4,具体为:首先基于STDP学习规则,表达式为:
Figure 881646DEST_PATH_IMAGE016
Figure 56276DEST_PATH_IMAGE017
其中,
Figure 922600DEST_PATH_IMAGE018
表示突触前脉冲到达突触 j 的时刻,
Figure 182680DEST_PATH_IMAGE019
表示突触后神经元的放电时间,
Figure 792653DEST_PATH_IMAGE020
表 示突触前和突触后的刺激引起的总权重变化量,
Figure 821789DEST_PATH_IMAGE021
表示STDP的学习函数,即学习窗口,
Figure 626059DEST_PATH_IMAGE022
Figure 107856DEST_PATH_IMAGE023
分别表示时间常量,
Figure 521520DEST_PATH_IMAGE024
Figure 405163DEST_PATH_IMAGE025
表示学习率;对于STDP学习规则,如果突触前神经元 发放的脉冲在突触后神经元发放之前到达,则突触增强;反之,突触减弱;
采取STDP在线学习方法,即当接收输入脉冲或者发放输出脉冲时会更新权重,公式如下:
Figure 878869DEST_PATH_IMAGE026
其中,
Figure 51225DEST_PATH_IMAGE027
Figure 3000DEST_PATH_IMAGE028
分别表示t时刻的输入和输出神经元的脉冲轨迹,
Figure 6728DEST_PATH_IMAGE029
表 示轨迹衰减常数,
Figure 651336DEST_PATH_IMAGE030
表示t时刻的权重更新量;
再进行归一化操作, 得到STDP原始归一化公式为:
Figure 609190DEST_PATH_IMAGE031
Figure 364656DEST_PATH_IMAGE032
Figure 957312DEST_PATH_IMAGE033
其中,
Figure 772821DEST_PATH_IMAGE034
是归一化常数,
Figure 716506DEST_PATH_IMAGE035
是指对于每一个突触后神经元,将它所有对应的突触 前神经元的权重求和;
采用硬件友好的STDP归一化方法,具体表达式如下:
Figure 275664DEST_PATH_IMAGE037
Figure 988405DEST_PATH_IMAGE024
Figure 709236DEST_PATH_IMAGE025
取值趋近于0,取公式线性主部。
7.基于阈值自适应神经元的硬件友好STDP学习系统,包括编码模块(100)、兴奋模块(200)、抑制模块(300)、学习模块(400)和输出模块(500),其特征在于:所述编码模块(100)采用频率编码将输入图片编码成脉冲序列并输入脉冲神经网络;兴奋模块(200)采用SNN兴奋层神经元接收输入脉冲,累积膜电位,当膜电压达到阈值时,发放脉冲且膜电位复位;抑制模块(300)用于SNN抑制层与兴奋层神经元一对一连接,接收其输出脉冲并抑制兴奋层神经元;学习模块(400)根据STDP学习规则并采用硬件友好权重归一化方法,对输入和兴奋层间的兴奋性突触权重进行更新;输出模块(500)用于学习完成后,利用兴奋层神经元的脉冲输出序列进行图像识别。
CN202111456234.3A 2021-12-02 2021-12-02 基于阈值自适应神经元的硬件友好stdp学习方法和系统 Pending CN114118378A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111456234.3A CN114118378A (zh) 2021-12-02 2021-12-02 基于阈值自适应神经元的硬件友好stdp学习方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111456234.3A CN114118378A (zh) 2021-12-02 2021-12-02 基于阈值自适应神经元的硬件友好stdp学习方法和系统

Publications (1)

Publication Number Publication Date
CN114118378A true CN114118378A (zh) 2022-03-01

Family

ID=80369845

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111456234.3A Pending CN114118378A (zh) 2021-12-02 2021-12-02 基于阈值自适应神经元的硬件友好stdp学习方法和系统

Country Status (1)

Country Link
CN (1) CN114118378A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116663631A (zh) * 2023-07-28 2023-08-29 之江实验室 一种任务执行的方法、装置、存储介质及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116663631A (zh) * 2023-07-28 2023-08-29 之江实验室 一种任务执行的方法、装置、存储介质及电子设备
CN116663631B (zh) * 2023-07-28 2024-05-14 之江实验室 一种任务执行的方法、装置、存储介质及电子设备

Similar Documents

Publication Publication Date Title
Shrestha et al. Stable spike-timing dependent plasticity rule for multilayer unsupervised and supervised learning
Zhang et al. Fast and robust learning in spiking feed-forward neural networks based on intrinsic plasticity mechanism
CN112101535B (zh) 脉冲神经元的信号处理方法及相关装置
CN108304912B (zh) 一种运用抑制信号实现脉冲神经网络监督学习的系统和方法
CN114266351A (zh) 基于无监督学习时间编码的脉冲神经网络训练方法及系统
Zhang et al. Information-theoretic intrinsic plasticity for online unsupervised learning in spiking neural networks
Xu et al. Spike trains encoding and threshold rescaling method for deep spiking neural networks
CN114118383A (zh) 基于多突触可塑性脉冲神经网络快速记忆编码方法和装置
Zhang et al. Efficient spiking neural networks with logarithmic temporal coding
CN111310816B (zh) 基于无监督匹配追踪编码的仿脑架构图像识别方法
Amari Mathematical theory of neural learning
CN116796207A (zh) 一种基于脉冲神经网络的自组织映射聚类方法
CN114118378A (zh) 基于阈值自适应神经元的硬件友好stdp学习方法和系统
CN113628615B (zh) 语音识别方法、装置、电子设备及存储介质
CN107798384B (zh) 一种基于可进化脉冲神经网络的鸢尾花卉分类方法和装置
Zhang et al. Introduction to artificial neural network
CN110874629A (zh) 基于兴奋性与抑制性stdp的储备池网络的结构优化方法
Deng et al. Stdp and competition learning in spiking neural networks and its application to image classification
Paudel et al. Resiliency of SNN on black-box adversarial attacks
Allred et al. Stimulating stdp to exploit locality for lifelong learning without catastrophic forgetting
CN111582470B (zh) 基于stdp的自适应非监督学习图像识别方法及系统
Sun et al. Simplified spike-timing dependent plasticity learning rule of spiking neural networks for unsupervised clustering
CN115879518A (zh) 一种基于ai芯片的任务处理方法和装置
KR20200094354A (ko) 버스트 스파이크 기반한 스파이킹 신경망 생성 방법 및 스파이킹 신경망 기반 추론 장치
Ravichandran et al. Spiking neural networks with Hebbian plasticity for unsupervised representation learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination