CN114861838B - 一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 - Google Patents
一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 Download PDFInfo
- Publication number
- CN114861838B CN114861838B CN202210791105.8A CN202210791105A CN114861838B CN 114861838 B CN114861838 B CN 114861838B CN 202210791105 A CN202210791105 A CN 202210791105A CN 114861838 B CN114861838 B CN 114861838B
- Authority
- CN
- China
- Prior art keywords
- equation
- neuron
- time
- parameter
- alif
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了提供一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,包括步骤:S1建立R‑ALIF神经元的膜电压充电方程,对膜时间参数和突触时间参数进行区分;S2将电压阈值常数调整为随时间递归的参数,引入电压阈值调整方程;S3将膜电压充电方程以及阈值调整方程中的三个时间参数以及尺度参数和偏移参数均设置为可学习参数;S4构建具有复杂动力学的R‑ALIF脉冲神经网络。本发明采用的膜电压充电方程解除了对于两种时间参数的约束,使得神经元能够适应于多样化的输入特征,并更有利于找寻最优的参数组合方式;R‑ALIF神经元的三种时间参数、尺度参数以及偏移参数均为可学习参数,能够根据反向传播过程中的梯度实现自适应调整,并提升网络结构的异质性。
Description
技术领域
本发明涉及类脑智能及深度学习技术领域,具体地指一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,用于提升脉冲神经网络的性能。
背景技术
近年来,人工神经网络(ANN)发展迅速,并且能够在多种领域内取得优异的成果,例如计算机视觉、医学影像、工业数据以及脑电信号等。并且ANN中所提出的关键技术,如残差结构、注意力机制和非局部学习策略,这些技术保证了ANN可以采用深层次和多样化的网络结构,进而提升网络的性能、鲁棒性以及泛化能力。
虽然ANN相比于其它机器学习和深度学习方法具有诸多优势,但是它仍存在多方面的不足。第一,由于ANN采用模拟数值计算的特性,导致其需要消耗大量的计算资源,并且不具备硬件亲和性,目前在边缘设备中实施ANN依旧面临挑战;第二,尽管ANN能够在离线数据处理中展现出先进的性能,但是它在在线任务中的使用会受到限制,并且延迟性较高;第三,ANN以静态的方式处理数据,时序数据的时间维度仅被视为一个额外衍生的空间轴,这并不符合生物的学习规则,从而降低了网络学习数据时空信息的能力。
为了解决ANN中的缺陷,脉冲神经网络(SNN)被提出,它也被称为第三代神经网络。SNN通过以二进制数字信号的形式来携带和传递信息,能够极大程度减少在类脑芯片上的计算消耗。同时基于数字信号携带信息的丰富性、数字信号的抗干扰能力、事件触发性以及生物可解释性等特征,理论上,SNN比ANN更加强大。当前,影响SNN性能的因素包括多种,其中一个主要方面就是SNN中脉冲神经元的构建,现有的神经元建模包括Integrate-and-Fire (IF)、Leaky Integrate-and-Fire (LIF)、Iterative LIF、Adaptive LIF和Parametric LIF等,但是这些神经元的动力学方程设计过于简单,无法完成类似于生物神经元的真实行为,往往会限制模型的性能,例如,LIF神经元难以自适应的调整输出信号中脉冲的触发频率以及分布,从而影响网络信息的前向传播和学习过程。因此探索具有更加复杂动力学的神经元来提升脉冲神经网络的性能是非常有必要的。
发明内容
本发明的目的在于针对现有技术的不足之处,提出了一种构建具有复杂动力学的Reconstruction of Adaptive Leaky Integrate-and-Fire (R-ALIF)脉冲神经元和类脑智能模型的分类方法,分别提升了两种神经形态数据集CIFAR10-DVS、ASL-DVS以及一种静态图像数据集CIFAR-100的分类精度。
为实现上述目的,本发明所设计的一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,其特殊之处在于,所述方法包括步骤:
S1 建立R-ALIF神经元的膜电压充电方程,所述R-ALIF神经元的膜电压充电方程根据神经元的细胞膜与突触间隙具有不同的物理性质对膜时间参数τ m 和突触时间参数τ s 进行区分;
S2 将LIF神经元的电压阈值常数调整为随时间递归的参数,将阈值时间参数τ th 引入电压阈值调整方程;
S3 将膜电压充电方程以及阈值调整方程中的三个时间参数τ m 、τ s 、τ th 以及尺度参数β和偏移参数bias均设置为可学习参数,使得网络每一层神经元的动力学方程实现在学习过程中的自适应调整;
S4基于所述LIF神经元的膜电压充电方程和电压阈值调整方程构建一个具有复杂动力学的R-ALIF脉冲神经网络,R-ALIF神经元离散形式的动力学方程描述为:
其中第一个为膜电压充电方程,H(t)表示脉冲触发前细胞膜电压,V(t-1)是t-1时
刻的脉冲触发后膜电压,膜时间参数τ m 用于控制[t-1, t]时间段内膜电压的泄漏,突触时
间参数τ s 用于控制本时刻输入电流的泄漏;第二个为脉冲触发方程,S(t)是t时刻的输出脉
冲,为阶跃函数,当t时刻的触发脉冲前膜电压高于此时刻的电压阈值V th (t),神经元产
生脉冲,反之则不产生脉冲;第三个为电压重置方程,V(t)为脉冲触发后膜电压,V reset 为重
置电压,第四个为电压阈值调整方程,根据t时刻的脉冲生成情况,实现对于电压阈值的调
整,β和bias分别是尺度参数和偏移参数;
S5 基于时空反向传播STBP的学习规则对所述R-ALIF脉冲神经网络进行训练;
S6 采用数据集对所述R-ALIF脉冲神经网络进行验证;
S7将待检测数据输入至所述R-ALIF脉冲神经网络中,所述R-ALIF脉冲神经网络将具有最高脉冲触发频率的类别作为输入数据的预测分类结果。
优选地,步骤S1)中所述LIF神经元的膜电压充电方程为:
优选地,步骤S2)中所述电压阈值调整方程为:
其中V th (t)是可随时间迭代的电压阈值参数,尺度参数β和偏移参数bias分别用于控制电压阈值的变化区间。
优选地,步骤S3中将膜电压充电方程和电压阈值调整方程中的三个时间参数、尺度参数和偏移方程设置为可学习参数,采用参数变换方程:
其中m、s和p为直接可训练参数。
优选地,步骤S5中的反向传播过程中,将输出信号S(t)的计算图从电压重置方程以及阈值调整方程中剥离出来,用于优化网络的学习过程。
优选地,步骤S5中采用基于时间维度整体丢弃的TemDrop方法减缓SNN中的过拟合现象。
优选地,步骤S6中所述验证的数据集对象分别为两个神经形态数据集CIFAR10-DVS、ASL-DVS以及一个静态数据集CIFAR-100。
优选地,对于所述CIFAR10-DVS数据集采用神经形态数据增强,对于所述ASL-DVS数据集中不采用任何的增强措施,直接采用原始采集数据;对于所述CIFAR-100数据集依次利用随机水平翻转、随机图片切割的静态图像增强方法进行数据增强。
优选地,步骤S7中分别为三个数据集设计三个脉冲神经网络结构,输出层均与R-ALIF神经元相连接,R-ALIF脉冲神经网络将具有最高脉冲触发频率的类别作为输入数据的预测分类结果。
本发明还提出一种计算机设备,其包括存储器、处理器和存储在存储器中可供处理器运行的程序指令,其中所述处理器执行所述程序指令以实现上述一种基于神经元复杂动力学的脉冲神经类脑智能分类方法。
与现有技术相比,本发明的有益效果包括:
1)传统的LIF神经元可以在手写数据集等图像分类任务上达到较高的分类精度,但是它的动力学行为过于简单,首先LIF神经元将膜时间参数和突触间隙时间参数设置为同一个数值,即膜电压泄漏程度与突触间隙泄漏程度相同,这忽视了细胞膜与突触间隙的功能上的差异性。而本发明采用的膜电压充电方程解除了对于两种时间参数的约束,使得神经元能够适应于多样化的输入特征,并更有利于找寻最优的参数组合方式。
2)LIF神经元将电压阈值设置为常数,导致输出信号的脉冲触发频率主要收到输入信号的影响,而本层神经元无法实现自适应的调整。此外,当LIF神经元在某一时刻输入反向电流时,则之后时刻的脉冲产生均会收到固定程度的抑制,因此在基于LIF的神经网络中会出现欠激活现象,从而阻碍信息的前向传播。本发明中将电压阈值设置为可随时间递归的参数,并设计了一个电压阈值调整方程,能够解决欠激活和过度激活问题,从而平衡输出信号的脉冲触发频率。
3)LIF神经元的时间参数为超参数,需要人为的设定数值,导致需要耗费大量时间去寻找最优解,同时网络中每一层神经元的动力学方程均相同。本发明提出的R-ALIF神经元的三种时间参数、尺度参数以及偏移参数均为可学习参数,能够根据反向传播过程中的梯度实现自适应调整,并提升网络结构的异质性。
4)本发明提出了一个符合SNN计算规则的时序随机丢弃TemDrop策略,能够完成类似于ANN中Dropout的功能,实现特征点按概率的随机丢弃,用于减缓SNN中的过拟合现象。
5)本发明提出了一个针对于神经形态数据集的数据增强方法,用于解决现有神经形态数据集中数据量不足的问题。此外针对于CIFAR10-DVS、ASL-DVS和CIFAR-100数据集分别提出了三种脉冲神经网络模型结构,并且仅用少量的时间步长实现了81.0%、99.8%以及67.83%的top1精度,相比于其它基于STBP学习方法的SNN,能够实现更高的分类精度。
本发明所提出的R-ALIF神经元和TemDrop方法,不仅适用于所验证的三种数据集,而且能够适用于其他基于SNN的任务,同时为SNN的发展也铺垫了道路。
附图说明
图1为本发明的系统结构框图。
图2为恒定电流输入条件时,3种不同膜时间参数和突触间隙时间参数组合下的细胞膜电压变化以及脉冲的释放情况。
图3为两种电压阈值设定情况下神经元的脉冲触发情况。
图4为R-ALIF神经元单元的结构。
图5为时间步长为T的R-ALIF神经元中前向传播和反向传播路线。
图6为TemDrop的实现流程图。
图7为基于LIF和基于R-ALIF神经元的SNN中第二隐藏层中脉冲触发率的分布直方图。
图8为ASL-DVS数据集中的ROC曲线和T-SNE特征可视化图。
图9为ASL-DVS数据集中10次重复实验的top1准确度和top5准确度。
图10为模型中三层的R-ALIF神经元的时间参数随训练的变化过程。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述,但以下实施例仅是说明性的,本发明的保护范围并不受这些实施例的限制。
本发明提出一个具有复杂动力学的神经元用于提升脉冲神经网络的性能,图1展示了R-ALIF神经元的动力学行为以及在三种数据集上的预测方法,具体包括如下步骤:
S1)建立R-ALIF神经元的膜电压充电方程,考虑到神经元的细胞膜与突触间隙具有不同的物理性质,并且属于大脑中不同的结构,因此区分了膜时间参数和突触时间参数,并形成新的膜电压充电方程。
S2)将LIF神经元的电压阈值常数调整为随时间递归的参数,引入电压阈值调整方程,使得下一时刻的电压阈值受到上一时刻脉冲触发情况的影响,即当上一时刻有脉冲产生时,电压阈值会升高,从而提高产生脉冲的需求,否则电压阈值会降低,从而更容易达到生成脉冲的条件。
S3)将膜电压充电方程以及阈值调整方程中的三个时间参数以及尺度参数和偏移参数设置为可学习参数,使得网络每一层神经元的动力学方程实现在学习过程中的自适应调整。此外,采用参数变换方程,保证时间参数的变化区间为[1,+∞],从而将膜泄漏程度、突触间隙泄漏程度以及阈值电压衰减程度的变化区间限制为[0,1]。
S4)根据新膜电压充电方程和电压阈值调整方程,构建一个具有复杂动力学的Reconstruction of Adaptive Leaky Integrate-and-Fire (R-ALIF)神经元,其离散形式的动力学行为包括神经元膜充电、脉冲触发、膜电压重置以及电压阈值调整。
S5)基于时空反向传播(STBP)的学习规则被用于脉冲神经网络的训练,由于脉冲触发方程的阶跃函数不可导,因此采用替代函数的导数来代替阶跃函数的导数。此外,在反向传播过程中,输出信号S(t)的计算图从电压重置方程以及阈值调整方程中剥离出来,用于优化网络的学习过程。
S6)考虑到传统ANN中的Dropout针对的是单模拟数值特征点的随机丢弃,无法直接迁移于SNN中实现多时间步长数字信号特征点的丢弃。因此一种基于时间维度整体丢弃的Temporal Dropout (TemDrop)方法被提出,用于减缓SNN中的过拟合现象。
S7)验证的数据集对象分别为两个神经形态数据集CIFAR10-DVS、ASL-DVS以及一个静态数据集CIFAR-100。由于神经形态数据采集困难,同时容易受到传感器、仿真软件以及环境的噪声影响,导致此类数据集的数据量不足。因此提出一种针对于神经形态数据集的数据增强方法,用于实现数据量的扩充。
S8)将神经形态数据增强方法用于CIFAR10-DVS数据集,而ASL-DVS数据集中不采用任何的增强措施,直接采用原始采集数据。CIFAR-100数据集则依次利用随机水平翻转、随机图片切割的静态图像增强方法。
S9)分别为三个数据集设计三个脉冲神经网络结构,其中网络的输入采用自适应编码层,输出层均与R-ALIF神经元相连接,将具有最高脉冲触发频率的类别作为输入数据的预测分类结果。
下面对各步骤的实施过程进行详细说明:
步骤S1)中建立R-ALIF神经元的膜电压充电方程,考虑到膜电压的泄漏程度以及输入电流的泄漏程度,应分别与神经元细胞膜和突触间隙的物理性质与功能特性相关,因此区分了膜时间参数τ m 和突触时间参数τ s ,形成的新充电方程如下:
其中H(t)表示脉冲触发前细胞膜电压,V(t-1)是t-1时刻的脉冲触发后膜电压,V rest 为静息电位,为输入,其中N代表神经元链接的突触前神经元
的数目,I n (t)代表第n个神经元的输出,w n 是第n个突触权重。
图2展现了在恒定输入电流时, 3种不同τ m 和τ s 组合
中的细胞膜电压变化以及脉冲的释放情况,包括:方式(1) 1/τ m =1/τ s =1/100;方式(2) 1/τ m =1/τ s =1/50;方式(3) 1/τ m =1/100,1/τ s =1/50。对比方式(1)和方式(3),可以发现在每一时
间步长均有输入时,两种方式触发一次脉冲的时间步长数目分别为:69和29,这意味着如果
神经元的总编码步长数目小于69时,方式(1)会造成神经元死亡现象,即输出的脉冲信号始
终为“0”,降低SNN的信息表达能力。因此要使得方式(1)的神经元能够触发脉冲,那么所需
的编码步长至少为69,但会导致极大程度增加SNN的资源消耗和延迟性相比于方式(3),这
证明即使在简单的网格设置参数的实验中,将膜时间参数和突触间隙时间参数设置为相同
数值,也并非是合理的。另一方面,我们按照τ m =τ s 的约束将方式(3)转变为方式(2),虽然一
次脉冲触发的时间步长从69减为35,但是依然高于方式(3),从某种程度上来说,这种约束
会限制SNN性能的提升。
因此一个特殊的例子证明了,在电压充电方程中区分膜时间参数和突触间隙时间参数,有利于搜寻更优的参数组合方式。
步骤S2)中将LIF神经元的电压阈值V th 常数调整为随时间递归的参数V th (t),同时引入电压阈值调整方程:
其中τ th 是阈值时间参数,S(t)是指t时刻的输出脉冲,β和bias分别是尺度参数和偏移参数,用于控制电压阈值的变化区间。此电压阈值调整方程保证了当t时刻有脉冲产生时,t+1时刻的电压阈值V th (t+1)会增加,反之则t+1时刻的电压阈值V th (t+1)会减少,从而达到平衡输出信号的脉冲触发频率的效果,有利于解决脉冲神经网络的欠激活和过度激活的问题。
图3展现了在恒定输入电流时,采用和不采用电压阈值
调整方程的脉冲触发情况。在电压阈值保持恒定时,即使每次都接收到正输入,神经元在
100个时间步长内仅触发了1次脉冲,这将导致前向传播过程中的信息缺失。相比之下,在采
用电压阈值调整方程时,神经元可以通过控制电压阈值的波动范围,提升输出信号的脉冲
触发率,这也证明了调整电压阈值的有效性。
步骤S3)中将膜电压充电方程以及阈值调整方程中的三个时间参数τ m 、τ s 、τ th 以及尺度参数β和偏移参数bias均设置为可学习参数,使得网络每一层神经元的动力学方程实现在学习过程中的自适应调整。此外,采用以下参数变换方程:
其中m、s和p为直接可学习参量。此参数变换方程保证了时间参数τ m 、τ s 、τ th 的变化区间为[1,+∞],从而限制膜泄漏程度1/τ m 、突触间隙泄漏程度1/τ s 以及阈值电压衰减程度1/τ th 的变化区间为[0,1]。
步骤S4)中根据步骤1)和步骤2)的新膜电压充电方程和电压阈值调整方程,构建一个具有复杂动力学的Reconstruction of Adaptive Leaky Integrate-and-Fire (R-ALIF)神经元,其细胞单元结构如图4所示,R-ALIF神经元离散形式的动力学方程可以描述为:
第一个为膜电压充电方程,τ m 用于控制[t-1, t]时间段内膜电压的泄漏,τ s 用于控
制本时刻输入电流的泄漏;第二个为脉冲触发方程,其中为阶跃函数,当t时刻的触发脉
冲前膜电压高于此时刻的电压阈值V th (t),神经元产生脉冲,反之则不产生脉冲;第三个为
电压重置方程,具体是指硬置位方程,其中V(t)为脉冲触发后膜电压方程,V reset 为重置电
压,当t时刻有脉冲产生时,膜电压会重置为V reset ,而当t时刻没有脉冲产生时,膜电压会保
持不变,即V (t)=H(t);第四个为电压阈值调整方程,可以根据t时刻的脉冲生成情况,实现
对于电压阈值的调整。
步骤S5)中,基于时空反向传播(STBP)的学习规则被用于脉冲神经网络的训练,由于阶跃方程不可导,因此采用替代函数的导数来代替阶跃方程的导数,替代函数的表达式为:
其中α被设置为2。此外,在反向传播过程中,输出信号S(t)的计算图从电压重置方程以及阈值调整方程中剥离出来,用于优化网络的学习过程。图5展现了时间步长为T的R-ALIF神经元中前向传播和反向传播的路径。
假定L为模型训练过程中需要优化的损失值,则第k层的第r个神经元中触发前膜电压H(t)以及电压阈值V th (t)处的梯度可以被描述为:
这两个方程分别构建了梯度的递推式,因此只需求解递推公式中其余项进行,就能得到每一时间步长下H(t)和V th (t)的梯度。根据R-ALIF的递归动力学方程,可以得到:
其中是指替代函数σ的导数。到此,膜电压H(t)以及电压阈值V th (t)的梯度均
可以被获取。再者,由膜电压充电方程和电压阈值调整方程可知,τ m 、τ s 的梯度受H(t)的影
响,τ th 的梯度受V th (t)的影响,同时结合参数变换方程,最终可以得到直接可训练参数m、s
和p的梯度:
步骤S6)中针对于SNN中数据形式,采用随机特征点丢弃策略Temporal Dropout(TemDrop)减缓SNN中的过拟合现象,防止模型过于依赖于某些局部特征。图6展现了TemDrop的实现流程。
具体来说,TemDrop首先根据SNN中某一隐藏层的输入张量的形状,构建一个全张量其中B为批处理尺寸,C为
通道数,H和W分别为高度和宽度。然后对X one 实施概率为P的随机丢弃策略,并将未丢弃点的
数值乘以1/1-P 以保证特征的数学期望值不变,得到张量。最后,
利用Pytorch中的广播机制得到输出张量,实
现对SNN中随机特征点的脉冲触发率置0。
步骤S7)中,验证的数据集对象分别为两个神经形态数据集CIFAR10-DVS、ASL-DVS以及一个静态数据集CIFAR-100。由于神经形态数据采集困难,同时容易受到传感器、仿真软件以及环境的噪声影响,导致此类数据集的数据量不足。因此提出一种针对于神经形态数据集的数据增强方法,用于实现数据量的扩充。
具体来说,此神经形态数据增强方法,首先,对于每一个时间步骤,帧周围都实现
了相同的补零方法,并得到其次,随机选取,并且以H start 和W start 分别为高和宽的起点,在每一
个时间步长上截取相同区域内高度为H,宽度为W的图像,然后数据被转换为。接着,随机选取当满足H pro <50时,每一
个时间步长上帧的像素值将会沿垂直方向翻转,帧的水平方向采用类似的规则。最终,将得
到经过变换后的数据,但是数据的尺寸依旧保持不变。
步骤S8)中,将神经形态数据增强方法用于CIFAR10-DVS数据集,而ASL-DVS数据集中不采用任何的增强措施,直接采用原始采集数据。CIFAR-100数据集则依次利用概率为0.5的随机水平翻转、32×32的随机图片切割(补零层数为4)的静态图像增强方法,并且像素值被归一化为[-1,1]。
步骤9)中,分别为三个数据集设计三个脉冲神经网络结构,其中网络的输入采用自适应编码层,输出层均与R-ALIF神经元相连接,并将具有最高脉冲触发频率的类别作为输入数据的预测分类结果。表1、表2和表3分别展现了用于CIFAR10-DVS、ASL-DVS以及CIFAR-100数据集的模型结构。
此外三种神经网络模型的R-ALIF神经元均采用了相同的初始化设置方法:静息电位V rest 和重置电位V reset 均被设置为0,t=0时刻的电压阈值设置为1,初始时刻的膜电压为0,直接可训练参数m、s和p被初始化为0,尺度参数β和偏移参数bias被分别初始化为1和0。三种数据集的其他超参数设置如表4所示。
在CIFAR10-DVS数据集中,模型与先进方法的比较结果如表5所示,可见,基于R-ALIF神经元的SNN模型实现了最高精度81.0%,在最先进的方法上提高了6.2%,这充分表明了R-ALIF神经元在已有脉冲神经元建模中出色能力。
此外,图7分别展示基于LIF和基于R-ALIF神经元的SNN中第二隐藏层中脉冲触发率的分布直方图。它显示出在基于LIF的SNN中脉冲触发率为0的神经元占比超过80%,由于网络的底层需要提取丰富的特征,过高占比的0脉冲触发率的神经元将导致特征的信息在传播过程中的大量缺失,并降低模型的性能。相反,基于R-ALIF的SNN中脉冲触发率的分布更加平滑,其中脉冲触发率为0的神经元占比大约为31%,而触发率大于0.5的神经元占比小于5%,这保证了大多数神经元能够前向传播信息,同时模型又满足稀疏学习的规则。这也证明了电压阈值调整方程能够平衡输出信号的脉冲触发率。
在ASL-DVS数据集中,基于R-ALIF神经元的SNN模型与已有方法的比较结果如表6所示。可见,大部分对比方法均为图神经网络或图卷积神经网络,这些网络在ANN的衍生架构中有着卓越的性能。然而,基于R-ALIF的SNN模型在最先进方法的基础上提高了9.7%,并且最终能达到99.8%的分类准确度,意味着它可以在ASL-DVS数据集上实现几乎无误差分类,这充分表明了此模型性能的卓越性。
图8展示了ASL-DVS数据集中24个类别的ROC曲线和T-SNE特征可视化图。可以发现,每一个类别的AUC值(ROC曲线与x轴之间的面积)均趋近于1,同时T-SNE可视化图表明每种类别的特征分别聚集于特定的区域,并且区域和区域之间存在一定的距离。这充分证明了基于R-ALIF的SNN模型在ASL-DVS数据集中分类结果的可靠性。
图9展示了10次重复实验的结果,可见top1准确度的波动范围为99.36%~99.83%,top5准确度的波动范围为99.73%~99.95%,说明了此模型性能的稳定性和鲁棒性。
图10展示了模型中三层的R-ALIF神经元的时间参数随训练的变化过程。可见自适应参数有利于实现模型结构的多样性和异质性,使特定层的R-ALIF神经元能具备特有的功能。
在CIFAR-100数据集中,表7展示了基于R-ALIF神经元的SNN模型与已有方法的比较。CIFAR-100数据集共有100个类别,但是每个类别仅有500张图片用于训练,每张图片的尺寸为32×32,因此是一个非常具有挑战性的图像分类任务。尽管如此,基于R-ALIF神经元的SNN模型能够在时间步长为8时,实现67.83%的分类精度。这也进一步表明了R-ALIF神经元在已有脉冲神经元建模中的先进性。
CIFAR10-DVS、ASL-DVS以及CIFAR-100数据集的训练和测试过程均在Python 3.6和PyTorch 1.7.0环境下完成。
本发明还提出一种计算机设备,其包括存储器、处理器和存储在存储器中可供处理器运行的程序指令,其中所述处理器执行所述程序指令以实现上述的一种基于神经元复杂动力学的脉冲神经类脑智能分类方法。
以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。本领域的技术人员容易理解,以上所述仅为本发明专利的较佳实施例而已,并不用以限制本发明专利,凡在本发明专利的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明专利的保护范围之内。
本说明书未作详细描述的内容属于本领域专业技术人员公知的现有技术。
Claims (10)
1.一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,其特征在于:所述方法包括如下步骤:
S1建立R-ALIF神经元的膜电压充电方程,所述R-ALIF神经元的膜电压充电方程根据神经元的细胞膜与突触间隙具有不同的物理性质对膜时间参数τm和突触时间参数τs进行区分;
S2将LIF神经元的电压阈值常数调整为随时间递归的参数,将阈值时间参数τth引入电压阈值调整方程;
S3将膜电压充电方程以及阈值调整方程中的三个时间参数τm、τs、τth以及尺度参数β和偏移参数bias均设置为可学习参数,使得网络每一层神经元的动力学方程实现在学习过程中的自适应调整;
S4基于所述LIF神经元的膜电压充电方程和电压阈值调整方程构建一个具有复杂动力学的R-ALIF脉冲神经网络,R-ALIF神经元离散形式的动力学方程描述为:
其中第一个为膜电压充电方程,H(t)表示脉冲触发前细胞膜电压,V(t-1)是t-1时刻的脉冲触发后膜电压,膜时间参数τm用于控制[t-1,t]时间段内膜电压的泄漏,突触时间参数τs用于控制本时刻输入电流的泄漏,Vrest为静息电位,X(t)为输入;第二个为脉冲触发方程,S(t)是t时刻的输出脉冲,Θ为阶跃函数,当t时刻的触发脉冲前膜电压高于此时刻的电压阈值Vth(t),神经元产生脉冲,反之则不产生脉冲;第三个为电压重置方程,V(t)为脉冲触发后膜电压,Vreset为重置电压,第四个为电压阈值调整方程,根据t时刻的脉冲生成情况,实现对于电压阈值的调整,β和bias分别是尺度参数和偏移参数;
S5基于时空反向传播STBP的学习规则对所述R-ALIF脉冲神经网络进行训练;
S6采用数据集对所述R-ALIF脉冲神经网络进行验证;
S7将待检测数据输入至所述R-ALIF脉冲神经网络中,所述R-ALIF脉冲神经网络将具有最高脉冲触发频率的类别作为输入数据的预测分类结果。
5.根据权利要求1所述的一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,其特征在于:步骤S5中的反向传播过程中,将输出信号S(t)的计算图从电压重置方程以及阈值调整方程中剥离出来,用于优化网络的学习过程。
6.根据权利要求1所述的一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,其特征在于:步骤S5中采用基于时间维度整体丢弃的TemDrop方法减缓SNN中的过拟合现象。
7.根据权利要求1所述的一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,其特征在于:步骤S6中所述验证的数据集对象分别为两个神经形态数据集CIFAR10-DVS、ASL-DVS以及一个静态数据集CIFAR-100。
8.根据权利要求7所述的一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,其特征在于:对于所述CIFAR10-DVS数据集采用神经形态数据增强,对于所述ASL-DVS数据集中不采用任何的增强措施,直接采用原始采集数据;对于所述CIFAR-100数据集依次利用随机水平翻转、随机图片切割的静态图像增强方法进行数据增强。
9.根据权利要求7所述的一种基于神经元复杂动力学的脉冲神经类脑智能分类方法,其特征在于:步骤S7中分别为三个数据集设计三个脉冲神经网络结构,输出层均与R-ALIF神经元相连接,R-ALIF脉冲神经网络将具有最高脉冲触发频率的类别作为输入数据的预测分类结果。
10.一种计算机设备,其包括存储器、处理器和存储在存储器中可供处理器运行的程序指令,其中所述处理器执行所述程序指令以实现权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210791105.8A CN114861838B (zh) | 2022-07-06 | 2022-07-06 | 一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210791105.8A CN114861838B (zh) | 2022-07-06 | 2022-07-06 | 一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114861838A CN114861838A (zh) | 2022-08-05 |
CN114861838B true CN114861838B (zh) | 2022-09-27 |
Family
ID=82625677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210791105.8A Active CN114861838B (zh) | 2022-07-06 | 2022-07-06 | 一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114861838B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115429293B (zh) * | 2022-11-04 | 2023-04-07 | 之江实验室 | 一种基于脉冲神经网络的睡眠类型分类方法和装置 |
CN115862338B (zh) * | 2023-03-01 | 2023-05-16 | 天津大学 | 一种机场交通流量预测方法、系统、电子设备及介质 |
CN117037287B (zh) * | 2023-10-08 | 2023-12-29 | 武汉理工大学 | 一种基于3d脉冲神经网络的行为识别方法、系统及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150269482A1 (en) * | 2014-03-24 | 2015-09-24 | Qualcomm Incorporated | Artificial neural network and perceptron learning using spiking neurons |
US11551074B2 (en) * | 2017-01-20 | 2023-01-10 | Tsinghua University | Self-adaptive threshold neuron information processing method, self-adaptive leakage value neuron information processing method, system computer device and readable storage medium |
CN106875003B (zh) * | 2017-01-20 | 2020-08-04 | 清华大学 | 自适应泄漏值神经元信息处理方法和系统 |
CN106875005B (zh) * | 2017-01-20 | 2019-09-20 | 清华大学 | 自适应阈值神经元信息处理方法和系统 |
-
2022
- 2022-07-06 CN CN202210791105.8A patent/CN114861838B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114861838A (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114861838B (zh) | 一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 | |
CN109559329A (zh) | 一种基于深度去噪自动编码器的粒子滤波跟踪方法 | |
Ohata et al. | Investigation of the sense of agency in social cognition, based on frameworks of predictive coding and active inference: A simulation study on multimodal imitative interaction | |
Zhang et al. | Evolving neural network classifiers and feature subset using artificial fish swarm | |
Salimi et al. | Extended mixture of MLP experts by hybrid of conjugate gradient method and modified cuckoo search | |
Shariff et al. | Artificial (or) fake human face generator using generative adversarial network (GAN) machine learning model | |
Bi et al. | Avoiding the local minima problem in backpropagation algorithm with modified error function | |
Tareen et al. | Convolutional neural networks for beginners | |
Tesfaldet et al. | Attention-based neural cellular automata | |
Harikrishnan et al. | Handwritten digit recognition with feed-forward multi-layer perceptron and convolutional neural network architectures | |
CN110188621A (zh) | 一种基于ssf-il-cnn的三维人脸表情识别方法 | |
Wang et al. | Depth learning standard deviation loss function | |
Zhang et al. | Weight asynchronous update: Improving the diversity of filters in a deep convolutional network | |
Talafha et al. | Biologically inspired sleep algorithm for variational auto-encoders | |
Hu | A web application for crowd counting by building parallel and direct connection-based CNN architectures | |
Sumera et al. | Implementation of CNN and ANN for Fashion-MNIST-Dataset using Different Optimizers | |
Lacko | From perceptrons to deep neural networks | |
Gangadia | Activation Functions: Experimentation and Comparison | |
Gryshchuk et al. | Go ahead and do not forget: Modular lifelong learning from event-based data | |
Kartheeswaran et al. | A hybrid genetic algorithm and back-propagation artificial neural network based simulation system for medical image reconstruction in noise-added magnetic resonance imaging data | |
WO2021073738A1 (en) | Learning a data density function | |
Pajouheshgar et al. | NoiseNCA: Noisy Seed Improves Spatio-Temporal Continuity of Neural Cellular Automata | |
Ashin et al. | Image Classification in the Era of Deep Learning | |
Walter | Deep Learning for Parameter Reduction on Real-World Topography Data | |
Le Nguyen | Constraint programming in spiking neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |