CN111639754A - 一种神经网络的构建、训练、识别方法和系统、存储介质 - Google Patents

一种神经网络的构建、训练、识别方法和系统、存储介质 Download PDF

Info

Publication number
CN111639754A
CN111639754A CN202010503980.2A CN202010503980A CN111639754A CN 111639754 A CN111639754 A CN 111639754A CN 202010503980 A CN202010503980 A CN 202010503980A CN 111639754 A CN111639754 A CN 111639754A
Authority
CN
China
Prior art keywords
pulse
training
layer
neural network
pulse sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010503980.2A
Other languages
English (en)
Inventor
耿天玉
肖蓉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202010503980.2A priority Critical patent/CN111639754A/zh
Publication of CN111639754A publication Critical patent/CN111639754A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种神经网络的构建、训练、识别方法和系统、存储介质。由于神经元内部状态变量及误差函数的不连续性,本发明利用时间脉冲的卷积核函数构建输入层脉冲序列;在隐藏层,利用漏电‑整合‑激发神经元模型,求解突触后神经元的膜电压。当膜电压超过预先定义的阈值,将激发一个脉冲传递到下一层;在网络输出层,训练误差通过想要的脉冲序列和真实的脉冲序列之间的差值进行计算;然后利用一种对Widrow‑Hoff(WH)学习规则的模拟,来进行梯度的误差降低和反传;该神经网络模型具有强大的处理复杂的时序数据的能力(如视频中目标识别和语音识别),将有助于实现类脑计算在实际中的应用。

Description

一种神经网络的构建、训练、识别方法和系统、存储介质
技术领域
本发明属于机器学习、模式分类和识别技术领域,特别涉及一种处理复杂时空模式分类问题的多层多脉冲神经网络模型构建方法及训练方法,以及基于该模型的模式识别系统、样本识别方法,以及存储介质。
背景技术
由于神经元之间的可塑性使得生物神经系统具有强大的学习和适应环境的能力,因此在建模中考虑由外界环境变化和神经过程引起的神经突触的变化的调整能力是极为重要的。突触权重(Synaptic Weights)定义了两个神经元之间连接的强弱,Hebb提出了第一个有关于神经突触权重修改的假设,基于此假设的学习算法可被总结为“同时激发的神经元连接在一起”,它被认为是学习跟记忆的根本机制并作为线性相关器被广泛应用于不同的神经网络模型中。虽然脉冲神经网络更为注重神经生理学的学习方法,但目前生物神经系统中完整的学习过程和机制仍然不清楚。随着精确脉冲定时(Precise Spike Timing)和突触前激发和突触后激发之间的时间间隔被发现,毫秒级精度学习受到了热切关注。在过去的几十年里,科研人员从生物实验现象和结论中汲取灵感来探索神经突触可塑性(即学习)理论。通过引入突触前后脉冲之间的时间相关性(Temporal Correlation),提出了脉冲时间依赖的可塑性(Spike-Timing Dependent Plasticity,STDP)机制并被推广到不同的脉冲学习机制。STDP根据脉冲发放的先后顺序,调整神经元之间的连结强度:反复出现的突触前脉冲有助于紧随其后产生的突触后动作电位并将导致长期增强(Long-termPotentiation,LTP);相反的时间关系将导致长期抑制(Long-term Depression,LTD)。
由于STDP原本是无监督学习机制,为了解决SNN的监督学习问题,人们将STDP机制与其他权值调整方法结合,这其中主要包含梯度下降和Widrow-Hoff规则,以此推导出不同的监督学习算法。此外,采用多脉冲输入-输出映射的神经元作为计算单元是设计高效和大学习容量的SNN的基础。然而,现有SNN学习算法并不能直接适用于多层多脉冲神经网络的训练,虽然已经有一些多层的学习算法,但存在很大的局限性。比如限制了在输出层只能发放单脉冲,且不能进行在线学习;或者无法确认神经元或突触的激发性能,不适用于输出精确脉冲的学习算法。这是由于其学习过程中隐藏层的不稳定性(不激发任何脉冲),造成较低的学习容量,限制了这些算法在复杂和大样本的学习问题中的应用。
因此,通过分析现有的神经网络学习算法,结合梯度下降规则和W-H规则,修改隐含层和输出层的权值,找到一种既可以实现多层多脉冲映射,又能达到较强的精度和快速学习的SNN算法,进而实现样本的高精度、高速度识别。这将具有重要的理论和实际意义。
发明内容
根据以上所述,为了解决多层多脉冲神经网络学习算法在处理复杂时空模式分类中存在的问题,所述复杂时空模式为既包含时间信息又包含空间信息的模式,本发明提出了一种神经网络的构建、训练、识别方法和系统、存储介质。具体的技术方案如下所述。
一种多层多脉冲神经网络学习模型的构建方法,其特征在于包括以下步骤:
S1:将时序数据经输入层输入,构建输入层脉冲序列;
S2:在网络输出层,利用想要的脉冲序列和真实的脉冲序列之间的差值进行误差函数构造,利用梯度下降的方法更新输出层和隐藏层的权值;进而构造多层多脉冲神经网络学习模型。
上述技术方案中,所述步骤S1中构建输入层脉冲序列的具体步骤如下:
S1.1:将时序数据库的数据,按原始结构导入脉冲神经网络学习模型;
S1.2:通过卷积核函数,得到输入层脉冲序列。
上述技术方案中,所述步骤S2的具体包括如下步骤:
S2.1:对步骤S1中构建的输入层脉冲序列进行传递、计算,直至网络的最后一层;
S2.2:对每一个输出层神经元进行计算,判断在想要的脉冲时间是否发放了脉冲,若发放了,进一步判断所发放的脉冲是否为想要的脉冲,若是,则不做任何改变;若不是,则引入一种对Widrow-Hoff(WH)学习规则的模拟,利用梯度下降的方法来降低当前的连接权值;若未发放,则需要加强当前的连接权值。
上述技术方案中,所述步骤S1.2步骤具体包括如下步骤:
S1.2.1:利用漏电-整合-激发神经元模型,基于权值求和,计算突触后神经元的膜电压;
S1.2.2:当膜电压超过预先定义的阈值,将激发一个输入层脉冲序列传递到下一层,并将当前膜电压置为0;否则,继续计算。
本发明结合梯度下降规则和W-H规则,修改隐含层和输出层的权值,提高了隐含层的稳定性,找到了一种既可以实现多层多脉冲映射,又能达到较强的精度和快速学习的SNN算法,进而实现样本的高精度、高速度识别。
本发明还涉及一种多层多脉冲神经网络学习模型的训练方法,其用于训练采用前述构建方法构造的多层多脉冲神经网络学习模型,具体步骤是:在多层多脉冲神经网络学习模型的训练过程中,包括步骤S3:通过Van Rossum(VR)距离来测量想要的脉冲序列和真实的脉冲序列之间的差值,基于该差值判断神经网络学习模型是否训练成功。
在上述技术方案中,步骤S3具体包括如下步骤:
S3.1:通过步骤S1到步骤S2进行网络训练,在网络的训练过程中,通过Van Rossum(VR)距离来测量想要的脉冲序列和真实的脉冲序列之间的差值,当该距离小于某个特定的值,认为网络训练成功;否则继续训练直到到达最大的训练次数;
S3.2:将当前类别时序数据的脉冲序列作为正样本,其他类别数据的脉冲序列作为负样本;
S3.3:使用提出的构建方法训练这两个样本,得到当前类别的分类器;
S3.4:重复步骤S3.1到步骤S3.3的操作,得到所有类别的分类器。
本发明通过上述方法,提高了多层多脉冲神经网络学习模型的训练速度,进而可节约训练时间,提高效率。
本发明还涉及一种模式识别系统,其将由上述训练方法得到的分类器联合构成模式识别系统。
进一步地,所述模式识别系统还包括输入模块、处理模块和输出模块,所述输入模块用于将时序数据构建输入层脉冲序列;所述处理模块用于对输入层脉冲序列进行分类处理,所述输出模块用于结果输出。
本发明还涉及一种样本识别方法,其基于上述训练方法,用于对复杂时空模式样本进行识别,将待识别复杂时空模式样本导入到训练好的多层多脉冲神经网络学习模型,进而识别出该样本。
本发明还涉及一种存储介质,其用于存储上述构建方法,和/或上述训练方法,和/或上述样本识别方法。,
因为本发明采用上述技术方案,因此具备以下有益效果:
本发明一种处理复杂时空模式分类问题的多层多脉冲神经网络学习算法,采用多层多脉冲神经网络对比传统的深度网络模型具有多个优点:
(1)提高了隐藏层的稳定性,实现了在输出层发放多脉冲,可进行在线学习;提高了学习容量,实现了复杂时空样本的识别;
(2)有效的保留时间信息,能更好的处理复杂时序数据,大大提高了模式识别精度和鲁棒性;
(3)更好地模拟了神经系统大脑皮层的信号处理和识别过程,充分利用脉冲神经网络对时序数据处理的强大计算能力,将有助于实现类脑计算在实际中的应用;
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一种多层多脉冲神经网络学习算法实现示意图;
图2为一种多层多脉冲神经网络学习模型的构建方法流程图;
图3为步骤S1流程图;
图4为步骤S1.2流程图;
图5为步骤S2流程图;
图6为一种多层多脉冲神经网络学习模型的训练方法流程图;
图7为步骤S3流程图;
图8为一种模式识别系统;
1、输入层;2、隐藏层;3、网络层;4、想要的脉冲序列;5、反传;6、输入模块;7、处理模块;8、输出模块。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
为详细说明本发明的技术内容、构造特征、所实现目的及效果,以下结合实施方式并配合附图详予说明。
本发明提出了多层多脉冲神经网络学习模型的构建方法,在复杂时序数据识别上取得良好的效果。整个算法实现示意图如图1所示,包括步骤:
S1:将时序数据,导入脉冲神经网络模型先进行时间脉冲的卷积,构建一个输入层脉冲序列;
S2:在网络输出层,利用想要的脉冲序列和真实的脉冲序列之间的差值进行误差函数构造,利用梯度下降的方法更新输出层和隐藏层的权值。
由于神经元内部状态变量及误差函数的不连续性,本发明尝试利用时间脉冲的卷积表示数据的时序信息,找到一个更好的卷积核函数。构造下列公式(1)、(2)和(3)作为卷积结果,加快脉冲神经网络训练的收敛速度。本发明定义如下脉冲序列:
Si(t)=∑fδ(t-tf) (1)
Figure BDA0002525438900000071
Figure BDA0002525438900000081
其中,tf表示第f个脉冲激发时间,κ(t)表示核函数,τm为膜电位时延常数,τs为突触电流时延常数,V0是归一化因子,用以核函数标准化。
上述步骤S1包括以下几个步骤:
S1.1:对时序数据库的数据,不做任何变换,按原始导入脉冲神经网络学习模型;
S1.2:脉冲神经网络学习模型的第一步为脉冲序列构建过程,通过卷积核函数,得到输入层脉冲序列,对输入层脉冲序列进行遍历,求解突触后神经元的膜电压,计算下一层脉冲输入。
具体地,利用漏电-整合-激发(LIF)神经元模型,求解突触后神经元的膜电压。当膜电压超过预先定义的阈值,将激发一个输入层脉冲序列传递到下一层且将当前膜电压置为0;
S1.2.1:对输入层脉冲序列,利用漏电-整合-激发神经元模型,基于权值求和,计算突触后神经元的膜电压;LIF神经元模型的动力学公式描述如下:
Figure BDA0002525438900000082
其中,V是神经元的膜电位;τm=RmCm,是膜电位时延常数,Cm表示膜电容,Rm表示膜电阻;Vrest表示静息电位;Ins是背景电流;Isyn是总的突触电流。
总的突触电流为每个突触后电流的加权和,可以表示为:
Figure BDA0002525438900000091
其中,ωi是第i个树突,即第i个输入神经元的突触权重;
Figure BDA0002525438900000092
为对应的突触后电流。
将神经元输入信号离散化成二值脉冲事件流,
Figure BDA0002525438900000093
可以表示为:
Figure BDA0002525438900000094
其中,ti表示第i个输入神经元输入的脉冲时间;H函数指的是Heaviside函数,当应变量大于等于0时返回1,小于0时返回0,即只计算在时间点t前输入的脉冲对突触后电流的影响。
S1.2.2:在计算机仿真中一般不考虑背景电流,神经元的膜电位可以表示为:
Figure BDA0002525438900000095
当膜电位V超过阈值电位时,神经元就会发放一个输入层脉冲序列,并将膜电位重置为Vrest,在计算机仿真中一般将静息电位Vrest设置为0。随后神经元将进入一段时间的不应期,期间神经元膜电位不改变。
上述步骤S2,在网络输出层,利用想要的脉冲序列和真实的脉冲序列之间的差值进行误差函数构造,并引入一种对Widrow-Hoff(WH)学习规则的模拟,利用梯度下降的方法更新输出层和隐藏层的权值,达到学习多层多脉冲神经网络的目的。
上述步骤S2具体为:
步骤2.1:对S1中生成的脉冲序列进行传递、计算,直至网络的最后一层;
步骤2.2:对每一个输出层神经元进行计算,若当前时刻真实激发的脉冲时间不是想要的脉冲,引入一种对Widrow-Hoff(WH)学习规则的模拟,利用梯度下降的方法来降低当前的连接权值;若在想要的脉冲时间未发放脉冲,需要加强当前的连接权值;若相等,则不做任何改变。
在输出层和隐藏层的权值修改规则为:
Figure BDA0002525438900000101
其中,η是学习因子;在输入层和隐藏层的权值修改规则为:
Figure BDA0002525438900000102
本发明提出一种多层多脉冲神经网络学习模型的训练方法,用于训练采用前述构建方法构造的多层多脉冲神经网络学习模型;在网络的训练过程中,采用如下步骤:
步骤S3,通过Van Rossum(VR)距离来测量想要的脉冲序列和真实的脉冲序列之间的差值;基于该差值判断神经网络学习模型是否训练成功。
具体地,对S1中生成的输出层脉冲序列,需要进一步进行测量,包括以下几个步骤:
步骤S3.1:通过步骤S1到步骤S2进行网络训练,在网络的训练过程中,通过VanRossum(VR)距离来测量想要的脉冲序列和真实的脉冲序列之间的差值,当该距离小于某个特定的值,认为网络训练成功;否则继续训练直到到达最大的训练次数;对于测量函数的构造,本实施例通过Van Rossum(VR)距离来测量,可以很容易地揭示神经元是如何进行训练的,构造公式:
Figure BDA0002525438900000111
其中,τ是一个自由参数,f(t)和g(t)是两个脉冲序列被滤波的信号;
步骤S3.2:将当前类别时序数据的脉冲序列作为正样本,其他类别数据的脉冲序列作为负样本;
步骤S3.3:使用提出的学习算法训练这两个样本,得到当前类别的分类器;
步骤S3.4:重复步骤S3.1到步骤S3.3的操作,得到所有类别的分类器。
本发明提出一种模式识别系统,其采用前述训练方法得到所有类别的分类器,将所有类别的分类器联合后构成整个模式识别系统。
如图8所示,所述模式识别系统还包括输入模块6、处理模块7和输出模块8,所述输入模块6用于将时序数据构建输入层脉冲序列;所述处理模块7用于对输入层脉冲序列进行分类处理,所述输出模块8用于结果输出。
本发明提出一种基于前述训练方法的样本识别方法,将待识别时序数据,将待识别复杂时空模式样本导入到训练好的多层多脉冲神经网络学习模型,进而识别出该样本,所述复杂时空模式样为本包含时间信息和空间信息的样本;
具体地,对时序数据进行脉冲序列生成,用于多层多脉冲神经网络学习模型进行训练,可实现很好的分类效果,包括以下几个步骤:
步骤4:对待识别样本,通过步骤S1的脉冲序列生成,导入多层多脉冲神经网络学习算法模型即可识别出该样本。
本发明提出一种存储介质,用于存储前述构建方法,和/或前述训练方法,和/或前述的样本识别方法。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种多层多脉冲神经网络学习模型的构建方法,其特征在于包括以下步骤:
S1:将时序数据经输入层输入,构建输入层脉冲序列;
S2:在网络输出层,利用想要的脉冲序列和真实的脉冲序列之间的差值进行误差函数构造,利用梯度下降的方法更新输出层和隐藏层的权值;进而构造多层多脉冲神经网络学习模型。
2.根据权利要求1所述的多层多脉冲神经网络学习模型的构建方法,其特征在于:所述S1步骤具体包括如下步骤:
S1.1:将时序数据库的数据,按原始结构导入脉冲神经网络学习模型;
S1.2:通过卷积核函数,得到输入层脉冲序列。
3.根据权利要求1所述的多层多脉冲神经网络学习模型的构建方法,其特征在于:所述S2步骤具体包括如下步骤:
S2.1:对步骤S1中构建的输入层脉冲序列进行传递、计算,直至网络的最后一层;
S2.2:对每一个输出层神经元进行计算,判断在想要的脉冲时间是否发放了脉冲,若发放了,进一步判断所发放的脉冲是否为想要的脉冲,若是,则不做任何改变;若不是,则引入一种对Widrow-Hoff(WH)学习规则的模拟,利用梯度下降的方法来降低当前的连接权值;若未发放,则需要加强当前的连接权值。
4.根据权利要求2所述的多层多脉冲神经网络学习模型的构建方法,其特征在于:所述S1.2步骤具体包括如下步骤:
S1.2.1:利用漏电-整合-激发神经元模型,基于权值求和,计算突触后神经元的膜电压;
S1.2.2:当膜电压超过预先定义的阈值,将激发一个输入层脉冲序列传递到下一层,并将当前膜电压置为0;否则,继续计算。
5.一种多层多脉冲神经网络学习模型的训练方法,用于训练根据权利要求1-4之一所述的构建方法构造的多层多脉冲神经网络学习模型,其特征在于:在多层多脉冲神经网络学习模型的训练过程中,包括步骤S3:通过Van Rossum(VR)距离来测量想要的脉冲序列和真实的脉冲序列之间的差值,基于该差值判断神经网络学习模型是否训练成功。
6.根据权利要求5所述的训练方法,其特征在于:所述步骤S3具体包括如下步骤:
S3.1:通过步骤S1到步骤S2进行网络训练,在网络的训练过程中,通过Van Rossum(VR)距离来测量想要的脉冲序列和真实的脉冲序列之间的差值,当该距离小于某个特定的值,认为网络训练成功;否则继续训练直到到达最大的训练次数;
S3.2:将当前类别时序数据的脉冲序列作为正样本,其他类别数据的脉冲序列作为负样本;
S3.3:使用提出的构建方法训练这两个样本,得到当前类别的分类器;
S3.4:重复步骤S3.1到步骤S3.3的操作,得到所有类别的分类器。
7.一种基于根据权利要求6所述的训练方法的模式识别系统,其特征在于:将权利要求6得到的分类器联合构成模式识别系统。
8.根据权利要求7所述的模式识别系统,其特征在于:还包括输入模块、处理模块和输出模块,所述输入模块用于将时序数据构建输入层脉冲序列;所述处理模块用于对输入层脉冲序列进行分类处理,所述输出模块用于结果输出。
9.一种基于根据权利要求6所述的训练方法的样本识别方法,其特征在于:所述样本为复杂时空模式样本,将待识别复杂时空模式样本导入到训练好的多层多脉冲神经网络学习模型,进而识别出该样本。
10.一种存储介质,其特征在于,用于存储根据权利要求1-4之一所述的构建方法,和/或根据权利要求5-6之一所述的训练方法,和/或根据权利要求9的样本识别方法。
CN202010503980.2A 2020-06-05 2020-06-05 一种神经网络的构建、训练、识别方法和系统、存储介质 Pending CN111639754A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010503980.2A CN111639754A (zh) 2020-06-05 2020-06-05 一种神经网络的构建、训练、识别方法和系统、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010503980.2A CN111639754A (zh) 2020-06-05 2020-06-05 一种神经网络的构建、训练、识别方法和系统、存储介质

Publications (1)

Publication Number Publication Date
CN111639754A true CN111639754A (zh) 2020-09-08

Family

ID=72330338

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010503980.2A Pending CN111639754A (zh) 2020-06-05 2020-06-05 一种神经网络的构建、训练、识别方法和系统、存储介质

Country Status (1)

Country Link
CN (1) CN111639754A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463532A (zh) * 2020-11-24 2021-03-09 江南大学 构建snn工作负载自动映射器的方法及自动映射器
CN112633497A (zh) * 2020-12-21 2021-04-09 中山大学 一种基于重加权膜电压的卷积脉冲神经网络的训练方法
CN112734012A (zh) * 2021-01-07 2021-04-30 北京灵汐科技有限公司 脉冲神经网络训练方法、数据处理方法、电子设备和介质
CN112953972A (zh) * 2021-04-08 2021-06-11 周士博 一种单脉冲神经网络时域编码神经元的网络入侵检测方法
CN113255905A (zh) * 2021-07-16 2021-08-13 成都时识科技有限公司 脉冲神经网络中神经元的信号处理方法及该网络训练方法
CN113901869A (zh) * 2021-09-02 2022-01-07 电子科技大学 一种基于Spiking神经网络的无接触液位检测方法
CN113988276A (zh) * 2021-12-27 2022-01-28 中科南京智能技术研究院 一种目标识别方法及系统
CN114781608A (zh) * 2022-04-19 2022-07-22 安徽科技学院 一种基于数字孪生的煤矿供电系统故障预警方法
CN115862338A (zh) * 2023-03-01 2023-03-28 天津大学 一种机场交通流量预测方法、系统、电子设备及介质
CN115994563A (zh) * 2022-10-31 2023-04-21 天津大学 用于智能辅助驾驶的类脑情境学习模型构建与训练方法
CN116080688A (zh) * 2023-03-03 2023-05-09 北京航空航天大学 一种类脑启发的智能驾驶视觉辅助方法、装置及存储介质

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463532B (zh) * 2020-11-24 2022-09-09 江南大学 构建snn工作负载自动映射器的方法及自动映射器
CN112463532A (zh) * 2020-11-24 2021-03-09 江南大学 构建snn工作负载自动映射器的方法及自动映射器
CN112633497A (zh) * 2020-12-21 2021-04-09 中山大学 一种基于重加权膜电压的卷积脉冲神经网络的训练方法
CN112633497B (zh) * 2020-12-21 2023-08-18 中山大学 一种基于重加权膜电压的卷积脉冲神经网络的训练方法
CN112734012A (zh) * 2021-01-07 2021-04-30 北京灵汐科技有限公司 脉冲神经网络训练方法、数据处理方法、电子设备和介质
US11941526B2 (en) 2021-01-07 2024-03-26 Lynxi Technologies Co., Ltd. Methods, electronic devices, and computer-readable media for training, and processing data through, a spiking neuron network
CN112734012B (zh) * 2021-01-07 2024-03-05 北京灵汐科技有限公司 脉冲神经网络训练方法、数据处理方法、电子设备和介质
CN112953972A (zh) * 2021-04-08 2021-06-11 周士博 一种单脉冲神经网络时域编码神经元的网络入侵检测方法
CN113255905A (zh) * 2021-07-16 2021-08-13 成都时识科技有限公司 脉冲神经网络中神经元的信号处理方法及该网络训练方法
WO2023284142A1 (zh) * 2021-07-16 2023-01-19 成都时识科技有限公司 脉冲神经网络中神经元的信号处理方法及该网络训练方法
CN113901869B (zh) * 2021-09-02 2023-04-21 电子科技大学 一种基于Spiking神经网络的无接触液位检测方法
CN113901869A (zh) * 2021-09-02 2022-01-07 电子科技大学 一种基于Spiking神经网络的无接触液位检测方法
CN113988276A (zh) * 2021-12-27 2022-01-28 中科南京智能技术研究院 一种目标识别方法及系统
CN114781608A (zh) * 2022-04-19 2022-07-22 安徽科技学院 一种基于数字孪生的煤矿供电系统故障预警方法
CN115994563A (zh) * 2022-10-31 2023-04-21 天津大学 用于智能辅助驾驶的类脑情境学习模型构建与训练方法
CN115994563B (zh) * 2022-10-31 2023-08-18 天津大学 用于智能辅助驾驶的类脑情境学习模型构建与训练方法
CN115862338A (zh) * 2023-03-01 2023-03-28 天津大学 一种机场交通流量预测方法、系统、电子设备及介质
CN116080688A (zh) * 2023-03-03 2023-05-09 北京航空航天大学 一种类脑启发的智能驾驶视觉辅助方法、装置及存储介质

Similar Documents

Publication Publication Date Title
CN111639754A (zh) 一种神经网络的构建、训练、识别方法和系统、存储介质
CN111858989B (zh) 一种基于注意力机制的脉冲卷积神经网络的图像分类方法
CN107092959B (zh) 基于stdp非监督学习算法的脉冲神经网络模型构建方法
Sporea et al. Supervised learning in multilayer spiking neural networks
Alaloul et al. Data processing using artificial neural networks
US20180075345A1 (en) Spatio-temporal spiking neural networks in neuromorphic hardware systems
Shrestha et al. Stable spike-timing dependent plasticity rule for multilayer unsupervised and supervised learning
KR20160130398A (ko) 사진 관리
EP3881241A1 (en) Spiking neural network
KR20170031695A (ko) 신경망들에서의 콘볼루션 동작의 분해
US20150212861A1 (en) Value synchronization across neural processors
WO2023010663A1 (zh) 计算设备及电子设备
US20150278685A1 (en) Probabilistic representation of large sequences using spiking neural network
CN112288080A (zh) 面向脉冲神经网络的自适应模型转化方法及系统
CN114266351A (zh) 基于无监督学习时间编码的脉冲神经网络训练方法及系统
Stanojevic et al. An exact mapping from ReLU networks to spiking neural networks
Jastrzebska et al. Fuzzy cognitive map-driven comprehensive time-series classification
US9449272B2 (en) Doppler effect processing in a neural network model
CN115879518A (zh) 一种基于ai芯片的任务处理方法和装置
CN111582470B (zh) 基于stdp的自适应非监督学习图像识别方法及系统
KR102535635B1 (ko) 뉴로모픽 컴퓨팅 장치
LI et al. Research on learning algorithm of spiking neural network
Wong et al. Neural networks and genetic algorithm for economic forecasting
Hossain et al. Hybrid neural network for efficient training
Chen et al. Multilayer Self-Organizing Impulse Neural Network For Handwritten Digit Recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200908

RJ01 Rejection of invention patent application after publication