CN103890787A - 用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置 - Google Patents

用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置 Download PDF

Info

Publication number
CN103890787A
CN103890787A CN201280051748.3A CN201280051748A CN103890787A CN 103890787 A CN103890787 A CN 103890787A CN 201280051748 A CN201280051748 A CN 201280051748A CN 103890787 A CN103890787 A CN 103890787A
Authority
CN
China
Prior art keywords
weight
resource
cynapse
time
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201280051748.3A
Other languages
English (en)
Inventor
J·F·亨泽格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN103890787A publication Critical patent/CN103890787A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0409Adaptive resonance theory [ART] networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

本公开的某些方面支持用于尖峰神经网络中的自然多尖峰序列的神经学习的技术。可取决于与突触相关联的资源来适配突触权重,该资源可以因权重变化而被消耗并且可以随时间推移而恢复。在本公开的一个方面,权重适配可以取决于自从上一次显著的权重变化以来的时间。

Description

用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置
背景技术
领域
本公开的某些方面一般涉及神经系统工程,更具体地涉及用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置。
背景
典型的取决于尖峰定时的可塑性(STDP)学习规则基于单对尖峰前(输入)与尖峰后(输出)之间的定时来适配突触权重。然而,自然尖峰序列(例如,在生物学中)和尖峰神经网络中的尖峰序列一般不具有清晰分开的尖峰对。因此,多个输入和输出尖峰表示一般情形。然而,基于STDP的学习可能因权重增大和减小的振荡而不能收敛。不仅如此,基本STDP学习规则可能未能计及多尖峰上下文中生物学上观察到的学习。
已在文献中基于理论提议了两种主要模型。一种方法需要基于所有组合对(突触前和突触后)的计算。然而,这种办法往往在计算上是昂贵的。另一种方法解释基于速率的效应,而非与时间编码有关的时间效应。此外,这种办法可以取决于神经元动态模型并且可能需要多个时标上的复杂滤波。
因此,希望有在计算上实用的、为在时间编码上下文中操作的尖峰网络提供稳定性和快速学习的、且还能够是生物学上似真的方法。
概述
本公开的某些方面提供一种神经学习的方法。该方法一般包括:通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;以及基于与突触相关联的资源、自从该权重的上一次改变以来的时间、或者突触前神经元与突触后神经元的尖峰定时中的至少一者来适配突触的权重。
本公开的某些方面提供了一种用于神经学习的装置。该装置一般包括:第一电路,配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;以及第二电路,配置成基于与突触相关联的资源、自从该权重的上一次改变以来的时间、或者突触前神经元与突触后神经元的尖峰定时中的至少一者来适配突触的权重。
本公开的某些方面提供了一种用于神经学习的设备。该设备一般包括:用于通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入的装置;以及用于基于与突触相关联的资源、自从该权重的上一次改变以来的时间、或者突触前神经元与突触后神经元的尖峰定时中的至少一者来适配突触的权重的装置。
本公开的某些方面提供了一种用于神经学习的计算机程序产品。该计算机程序产品一般包括计算机可读介质,该计算机可读介质包括用于执行以下操作的代码:通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入,以及基于与突触相关联的资源、自从该权重的上一次改变以来的时间、或者突触前神经元与突触后神经元的尖峰定时中的至少一者来适配突触的权重。
本公开的某些方面提供一种神经学习的方法。该方法一般包括:通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重;以及基于突触前神经元和突触后神经元的先前尖峰之间的一个或多个定时关系来确定该资源考虑。
本公开的某些方面提供了一种用于神经学习的装置。该装置一般包括:第一电路,配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;第二电路,配置成基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重;以及第三电路,配置成基于突触前神经元和突触后神经元的先前尖峰之间的一个或多个定时关系来确定该资源考虑。
本公开的某些方面提供了一种用于神经学习的设备。该设备一般包括:用于通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入的装置;用于基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重的装置;以及用于基于突触前神经元和突触后神经元的先前尖峰之间的一个或多个定时关系来确定该资源考虑的装置。
本公开的某些方面提供了一种用于神经学习的计算机程序产品。该计算机程序产品一般包括计算机可读介质,该计算机可读介质包括用于执行以下操作的代码:通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重;以及基于突触前神经元和突触后神经元的先前尖峰之间的一个或多个定时关系来确定该资源考虑。
本公开的某些方面提供一种神经学习的方法。该方法一般包括:通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重;以及基于自从对该权重的改变的先前交付履行以来的时间量来确定该资源考虑。
本公开的某些方面提供了一种用于神经学习的装置。该装置一般包括:第一电路,配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;第二电路,配置成基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重;以及第三电路,配置成基于自从对该权重的改变的先前交付履行以来的时间量来确定该资源考虑。
本公开的某些方面提供了一种用于神经学习的设备。该设备一般包括:用于通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入的装置;用于基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重的装置;以及用于基于自从对该权重的改变的先前交付履行以来的时间量来确定该资源考虑的装置。
本公开的某些方面提供了一种用于神经学习的计算机程序产品。该计算机程序产品一般包括计算机可读介质,该计算机可读介质包括用于以下操作的代码:通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入;基于与突触相关联的资源考虑和突触前神经元与突触后神经元的尖峰定时来适配突触的权重;以及基于自从对该权重的改变的先前交付履行以来的时间量来确定该资源考虑。
附图简述
为了能详细理解本公开的以上陈述的特征所用的方式,可参照各方面来对以上简要概述的内容进行更具体的描述,其中一些方面在附图中解说。然而应该注意,附图仅解说了本公开的某些典型方面,故不应被认为限定其范围,因为本描述可允许有其他等同有效的方面。
图1解说根据本公开的某些方面的神经元的示例网络。
图2解说了根据本公开的某些方面的突触前和突触后神经元尖峰和突触权重适配的示例。
图3解说了根据本公开的某些方面的突触前和突触后神经元尖峰发放和突触权重适配的另一示例。
图4解说了根据本公开的某些方面的突触前和突触后神经元尖峰发放和突触权重适配的另一示例。
图5解说了根据本公开的某些方面的突触前和突触后神经元尖峰发放和突触权重适配的另一示例。
图6解说了根据本公开的某些方面的神经学习的示例操作。
图6A解说了能够执行图6中解说的操作的示例组件。
图7解说了根据本公开的某些方面的神经学习的其他示例操作。
图7A解说了能够执行图7中解说的操作的示例组件。
图8解说了根据本公开的某些方面的神经学习的其他示例操作。
图8A解说了能够执行图8中解说的操作的示例组件。
图9解说了根据本公开的某些方面的使用通用处理器进行神经学习的示例软件实现。
图10解说了根据本公开的某些方面的神经学习的示例实现,其中存储器可与个体分布式处理单元对接。
图11解说了根据本公开的某些方面的基于分布式存储器和分布式处理单元的
神经学习的示例实现。
详细描述
以下参照附图更全面地描述本公开的各个方面。然而,本公开可用许多不同形式来实施并且不应解释为被限定于本公开通篇给出的任何具体结构或功能。相反,提供这些方面是为了使得本公开将是透彻和完整的,并且其将向本领域技术人员完全传达本公开的范围。基于本文中的教导,本领域技术人员应领会,本公开的范围旨在覆盖本文中所披露的本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用本文所阐述的任何数目的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为本文中所阐述的本公开的各种方面的补充或者与之不同的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,本文中所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
措辞“示例性”在本文中用于表示“用作示例、实例或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文中描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、系统配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的详细描述中解说。详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
示例神经系统
图1解说根据本公开的某些方面的具有多级神经元的示例神经系统100。神经系统100可包括神经元级102,该神经元级102通过突触连接网络104连接到另一神经元级106。为简单起见,图1中仅解说了两个神经元级,但在典型的神经系统中可存在更少或更多个神经元级。
如图1中所解说的,级102中的每个神经元可接收输入信号108,输入信号108可以是由前一级(图1中未示出)的多个神经元所生成的。信号108可表示级102的神经元的输入电流。该电流可在神经元膜上累积以对膜电位进行充电。当膜电位达到其阈值时,该神经元可激发并生成输出尖峰,该输出尖峰将被传递到下一神经元级(例如,级106)。
尖峰从一个神经元级向另一个神经元级的传递可通过突触连接(或简称“突触”)网络104来达成,如图1中所解说的。突触104可以从级102的神经元(相对于突触104而言的突触前神经元)接收输出信号(即,尖峰),并且根据可调节突触权重
Figure BDA0000493959620000061
(其中,P是级102和级106的神经元之间的突触连接总数)来缩放那些信号。此外,经缩放信号可被组合以作为级106中每个神经元(相对于突触104而言的突触后神经元)的输入信号。级106中的每个神经元可基于对应的经组合输入信号来生成输出尖峰110。随后可使用另一突触连接网络(图1中未示出)将这些输出尖峰110传递给另一神经元级。
神经系统100可以通过电路来仿真并且可以在大范围的应用中利用,诸如图像和模式识别、机器学习、电机控制及类似应用等。神经系统100中的每个神经元可被实现为神经元电路。被充电至发起输出尖峰的阈值的神经元膜可被实现为例如对流经其的电流进行积分的电容器。
在一方面,电容器作为神经元电路的电流积分器件可被除去,并且可使用较小的忆阻器元件来替代它。这种办法可应用于神经元电路中,以及其中大容量电容器被用作电流积分器的各种其他应用中。另外,每个突触104可基于忆阻器元件来实现,其中突触权重改变可与忆阻器电阻的变化有关。使用纳米特征尺寸的忆阻器,可显著地减小神经元电路和突触的面积,这可使得实现超大规模神经系统硬件实现变得可行。
尖峰神经网络(诸如来自图1的神经网络100)中的学习通常可以采用基于生物学上观察到的数据的取决于尖峰定时的可塑性(STDP)规则。此类典型学习可以基于突触前神经元输入尖峰与突触后神经元尖峰之间的时间差来适配突触的权重(例如,来自图1的突触104的权重)。然而,较自然的尖峰序列(例如,在生物学或工程网络中发生)可包括多个尖峰(突触前和突触后两者)。当如在自然尖峰序列中那样有多个突触前和突触后尖峰时,根据STDP规则的学习可能是不稳定的并且不能收敛,这是因为权重调整可能由于是长期增强(LTP)还是长期抑压(LTD)取决于精确的时间可占主导地位的敏感性而被平均掉或者振荡。可能出现的另一问题是神经元的过激发或欠激发。无论是将成对STDP规则应用于尖峰对的所有组合还是应用于毗邻尖峰对的序列,这都可能是个问题。
本公开的某些方面支持基于资源概念的工程解决方案以使多尖峰学习稳定和加速。近来,已找到与典型STDP规则相反的新生物学证据。已提议某些理论和模型来解释多尖峰或尖峰速率现象。然而,这些模型较复杂,其需要维护先前尖峰时间的历史,计算多个滤波器,并且有较大数目的性能敏感参数。另外,这些模型在计算上不独立于工程设计出的尖峰神经网络的其他方面。本公开中所提议的基于资源的方法在计算上较简单、很大程度上可分开、并且性能胜过其他方法。
基于取决于尖峰定时的可塑性规则的多尖峰序列的学习
STDP学习规则可根据突触前神经元A的尖峰时间tpre与突触后神经元B的尖峰时间tpost之间的时间差(即,Δt=tpost-tpre)来有效地适配将神经元A连接到神经元B的突触的突触权重。STDP的典型公式是若该时间差为正(突触前神经元在突触后神经元之前激发)则增大突触权重(即,增强该突触),以及若该时间差为负(突触后神经元在突触前神经元之前激发)则减小突触权重(即,抑压该突触)。突触权重的变化可通常使用指数衰退来达成,如由下式给出的:
Δw = A sign ( Δt ) · e - | Δt | / τ sign ( Δt ) , - - - ( 1 )
其中τsign(Δt)是时间常数并且Asign(Δt)是缩放幅值,其中τsign(Δt)和Asign(Δt)两者通常都可取决于时间差为正还是为负。
如果有一个突触前尖峰和一个突触后尖峰,则STDP学习规则是清楚的。另一方面,如果有多个尖峰,则STDP学习规则是不清楚的,这是因为不清楚应当使用哪个时间。一种简单的工程解决方案可以是使用最后(最近期)尖峰时间。换言之,不是考虑所有对组合,而是代之以仅考虑顺序的尖峰对。然而,这种办法有至少两个问题。
第一,在典型的STDP规则下使用最后尖峰时间可能不足以确保稳定学习。例如,突触前神经元A的尖峰之后可能跟随着突触后神经元B的尖峰,而突触后神经元B的该尖峰之后跟随着突触前神经元A的另一尖峰(前-后-前三元组)。现在,问题是应当增大还是减小将神经元A连接到神经元B的突触的权重。根据STDP规则,权重将首先被增大并且随后被减小。总变化将基于独立的第一突触前尖峰和突触后尖峰对以及第二突触前尖峰和突触后尖峰对的定时。然而,权重变化显然彼此冲突。这种情况在有更多尖峰并且权重更新不是立即执行而是累积执行的情况下可能变得更糟。
第二,在典型STDP学习规则的情况下使用最后尖峰时间在自然多尖峰序列中并未预言在生物学上观察到的学习效果。相反,STDP规则可能往往预言完全相反的学习效果(例如,增大突触权重而非减小突触权重)。在文献中已提议某些理论和方法来对此类观察到的多尖峰序列进行解释和建模。然而,这些先前的方法有若干问题。
一种所提议的方法可要求基于所有组合对(突触前和突触后)的计算。这种办法可能出于若干原因而有问题。第一,权重适配是所有尖峰的定时的函数。因此,神经网络的工程设计可能要求跟踪突触前和突触后尖峰的历史以便能够基于考虑已发生的所有可能的尖峰对来计算权重适配。这在计算上可能是非常繁重的,因为其可能要求考虑:(i)每个神经元n在时间tn,i和tn,i-1的相继尖峰之间的时间差以便计算每个尖峰i的功效,
ϵ n , i = 1 - e - ( t n , i - t n , i - 1 ) / τ e , - - - ( 2 )
其中τe是取决于神经元在突触前还是突触后的时间常数,以及(ii)在过去发生的突触前和突触后尖峰对的每个组合,这是因为权重变化是由下式给出的:
Δw m , n = Σ j Σ i ϵ n , j ϵ m , i A sign ( Δt ) e - | Δt | / τ sign ( Δt ) , - - - ( 3 )
其中n表示突触后神经元,m表示突触前神经元,并且i和j是该对应神经元的所有先前尖峰的索引。显然,对于具有较多尖峰的多尖峰序列而言,这可能变得越来越繁重(在存储器和计算两者意义上而言)。
第二,就准确和精确地预言在生物学上观察到的数据的意义而言,这种方法可能对功效滤波器的时间常数参数敏感。例如,一种设置可较好地预言尖峰三元组,而对尖峰四元组的学习却得到较差的预言。第三,由于对功效变量的依存性,学习可能不能与尖峰发放行为完全分开。
另一种所提议的用阈值类型的简单神经模型(具有两个区划的自适应指数积分激发模型)来预言神经活动的方法可以解释基于速率的效应。然而,这种方法出于若干原因也是有问题的。第一,权重适配可以基于多个滤波器,包括(来自突触前神经元m的突触输入xm(t)的)突触踪迹滤波器和突触后神经元n的膜电位un(t)的两个分开的滤波器。这些滤波器采取微分方程的形式。例如,突触后膜电位滤波器之一可被描述为:
τ + = d u ‾ + ( t ) dt = - u ‾ + ( t ) + u ( t ) . - - - ( 4 )
所有这些滤波器(每突触一个滤波器并且每神经元两个滤波器)是对神经元本身的模型的补充。这些滤波器一般而言是以时间常数(即,对于突触前神经元有一个时间常数并且对于突触后神经元有两个时间常数)和阈值(对于权重增大有一个阈值并且对于权重减小有一个阈值)的形式来定义的。第二,这明显是复杂的,因为这些阈值和时间常数可以取决于正被使用的神经元模型并且它们是神经元膜电位的函数而不是尖峰发放的函数(例如,无论是使用带泄漏积分激发神经元模型还是Izhikevich简单神经元模型,或其他)。例如,在这一办法中,神经元模型可能十分复杂,即,由下式给出的自适应指数积分激发模型:
C du ( t ) dt = - g L ( u - E L ) + g L Δ T e ( u - V T ) / Δ T - w ad + z + I , - - - ( 5 )
其中C是膜电容,gL是漏电导、EL是静息电位,ΔT斜率因子,并且VT是阈值电位。换言之,如果神经元动态被改变,则可能不得不改变这些阈值和时间常数。
第三,虽然这种方法可以根据尖峰发放速率来预言一些生物学上观察到的学习,但是该方法无法可靠地预言取决于尖峰定时的学习(诸如针对皮层)。观察这一点的一种简单的方式是,在由式(5)定义的模型中将不发生学习,除非由于权重适配公式表示中的经校正项
Figure BDA0000493959620000093
而已有新近的突触后活动(在突触前-突触后对之前),
dw m , n dt = A + x ‾ m ( t ) ( u ( t ) - θ + ) + ( u ‾ + ( t ) - θ - ) + + A - X m ( t ) u = ( t ) ( u ‾ - ( t ) - θ - ) + . - - - ( 6 )
第四,权重适配规则可能不能与神经元动态分开。第五,对于所有滤波器和变量可能均需要存储器和计算资源。
本公开中所提议的方法通过取决于与突触相关联的学习资源来适配突触权重的方式来解决上述问题,该学习资源可以因权重变化而被消耗并且随时间推移而恢复。在本公开的优选实施例中,权重适配可以仅取决于自从上一次显著权重变化以来的时间。因此,这种方法是可分开的并且可以不要求尖峰踪迹存储器,以及甚至能够降低权重变化的频度。
本公开中所提议的方法可以提供胜过其他方法的多个优点。第一,该方法在多尖峰序列上下文中以及在单尖峰上下文中均能得到稳定且快速的学习,并且在单尖峰和多尖峰上下文中可准确且精确地预言生物学上观察到的学习效果。第二,所提议的方法具有非常低的复杂度。学习或适配可以仅取决于一个变量,并且因此可以不要求历史、滤波、或其他复杂的操作。第三,所提议的方法可以在计算上与其他神经元操作分开。权重适配可以取决于上一次适配的诸方面,而不取决于尖峰历史或神经元动态的诸方面。该方法还可以独立于神经元模型(无论是积分激发、泄漏积分激发、Izhikevich简单模型、还是任何其他的尖峰发放模型)。第四,所提议的方法甚至可以相对于典型的顺序成对STDP而言减小计算复杂度。这可以是因为在优选实施例中可以取决于先前的适配而实际上避免权重适配。因此,神经网络的工程设计可以通过具有较少的权重变化来较快地操作,且仍能具有较佳的性能。所有这些优点将在本公开中解释和说明。
用于多尖峰神经学习的新颖方法
本公开的某些方面提供取决于可用学习资源和尖峰定时来适配突触权重。在一方面,学习资源可以因突触修改而被消耗并且可以随时间推移而恢复。突触修改量可以受可用的学习资源量所限制。根据本公开的某些方面,学习资源可被建模为可供特定神经元或区划或突触使用的单个量。在本公开的优选方面,资源可以是每神经元每突触的。
在一示例性情形中,每个神经元n可以是尖峰发放带泄漏积分激发神经元,其膜电压vn(t)例如由以下动态来支配:
dv n ( t ) dt = αv n ( t ) + β Σ m w m , n y m ( t - Δt m , n ) , - - - ( 7 )
其中α和β是参数,wm,n是将突触前神经元m连接至突触后神经元n的突触的突触权重,并且ym(t)是神经元m的尖峰发放输出,其可被延迟达根据Δtm,n的树突或轴突延迟后才抵达神经元n的胞体。
在本公开的一方面,对将突触前神经元m连接至突触后神经元n的突触的突触权重的适配可以由下式给出:
Δw m , n = r m , n A sign ( Δt ) e - | Δt | / τ sign ( Δt ) , - - - ( 8 )
或者在丢弃索引之后为:
Δw = r A sign ( Δt ) e - | Δt | / τ sign ( Δt ) , - - - ( 9 )
其中Δt是突触后尖峰与突触前尖峰之间的时间差,并且r(或即rm,n)表示可用资源。
在一方面,如果所有资源均可用,则rm,n=1。另一方面,如果没有资源可用,则rm,n=0。应注意,如果没有资源可用,则甚至可以不要求计算时间差、符号或指数。例如,对于这些中的每一者,可以使用最新值,或即在本公开中提议,权重适配具有相关联的资源时间tr(无论其是否是权重变化或任何其他操作的实际时间),该资源时间tr表示对突触变化作出交付履行的时间。在一方面,资源时间可以基于突触前尖峰时间或者突触后尖峰时间来确定,以较晚者为准,即:
tr=max(tn,tm)。    (10)
在本公开的一优选方面,由式(10)定义的时间可以是权重适配的有效时间(若有权重变化)。换言之,权重的改变可以在(突触前激发之后的)突触后激发之际或者在(突触后激发之后的)突触前激发之际被触发。
根据某些方面,在发生权重变化时,资源可能用尽。在考虑下一权重适配时,可以首先确定可用资源量。在一个方面,可用资源量可以根据下式来计算:
Figure BDA0000493959620000114
其中已省略资源r的神经元下标以改善清楚性。在一方面,如果这是在潜在权重适配的时间进行的,则tr=t(当前时间)并且
Figure BDA0000493959620000115
是前次(上一次)资源使用(权重适配)的时间。
由于资源已在先前已被消耗,因而用于资源恢复的更一般化模型可以如下式给出:
Figure BDA0000493959620000121
替换地,资源恢复可以按离散时间建模。在本公开的一方面,资源变量r可以使用逐步无限冲激响应(IIR)滤波器来恢复,如由下式给出的:
r=1-c(1-r),        (13)
其中取决于期望时间常数,系数c可以是小于1的值。等效地,作为资源可用性r的代替,可以对资源的缺乏性r’进行建模,其中r=1-r’。因此,式(12)可被简化成:
r'=cr',        (14)
其中在定义权重适配的式(9)中应当用变量(1-r’)来替代资源变量r。
有效地,先前使用的资源(r上一次)可以用时间常数τr来恢复至最多达最大值(例如,不失一般性,最多达值1)。在一方面,在权重变化之际使用的资源可被表达为权重变化的函数:
r已使用=f(Δw)。      (15)
权重变化的函数的示例可以是利用在范围[0,1]中的权重,并且将权重变化的绝对值用作用掉的资源,或即r已使用=|Δw|。另外,可以应用缩放因子r已使用=Au|Δw|。
图2解说了根据本公开的某些方面的突触前和突触后神经元尖峰发放和突触权重适配的示例200。图2中的迹线202描绘了可用资源量。最初,尚无先前的活动,所以突触后神经元处的可用资源为1(最大值)。当突触后尖峰206跟随突触前尖峰204时,突触权重可以因其相对邻近性而被增大较大的量(由图2中的箭头208表示)。此较大的修改可能用掉显著的资源量以改变权重。资源202可以缓慢地得到补充(恢复),但是到第二突触前尖峰210的时间为止可能仍不能完全恢复。因此,尽管突触前尖峰210紧邻突触后尖峰206,但是权重的抑压可能是有限的,如图2中的小箭头212所解说的。权重的抑压212可能用掉较小的资源量,如由资源迹线202中重合的下陷所指示的。
图3解说了根据本公开的某些方面的突触前和突触后神经元尖峰发放和突触权重适配的示例300。在这一情形中,第一权重变化302(因后-前定时导致的抑压)不受资源所限制(如由迹线304解说的),但是由于尖峰306与308之间较大的时间差而可能较小。因此,可以仅用掉较小的资源量,并且资源在下一突触后尖峰310的时间之际可几乎完全恢复。因此,可以完全能够驾驭较大的权重变化312(由于尖峰308与310邻近)。如图3中所解说的,权重增大312可以相应地用掉许多资源,如由迹线304所表示。
现在可以观察到所提议的方法的一些优点。第一,该方法可以在计算上不繁重。第二,所提议的方法可以仅需要知道可用资源而无需知道先前尖峰是何时发生的,可用资源可以仅是自从上一次资源使用以来的时间的函数。第三,所提议的方法可以高效地与任何尖峰发放神经元模型一起工作。尽管用带泄漏积分激发神经元模型来演示,但是所提议的方法不依赖于此,而仅取决于适配定时。不仅如此,这种方法甚至可以不取决于权重变化规则(无论是如图2-3中所解说的指数型还是其他规则)。可以仅要求通过可用资源来调制或约束权重改变并且计及资源使用。还应当注意,所提议的方法不管多个权重变化是乘性的(1+Δw=(1+Δw1)·(1+Δw2)…)的还是加性的(Δw=Δw1+Δw2+…)的情况下均可工作。
所提议的方法的其他优点可以在优选实施例中获得。具体地,可以减少计算。不是在每个潜在事件(前-后或后-前)之际改变权重,而是可代之以将阈值应用于权重变化。即,除非有充分的阈值量可用资源,否则可以不改变权重,即:
Δw = ( r > θ r ) A sign ( Δt ) e - | Δt | / τ sign ( Δt ) , - - - ( 16 )
其中rm,nr是产生0或1的逻辑表达,并且θr是第一资源阈值。如果资源低于阈值,则可以不要求计算权重变化。这可以节省针对诸时间差的计算和存储器查找。
此外,资源使用可以取决于最小权重变化为条件,即:
如果Δwm,nw,则r已使用=f(Δwm,n),否则r已使用=0,    (17)
其中θw是最小变化的阈值。例如,f(Δwm,n)=1可被用于使此操作独立于权重变化量。在此公式表示中,要么完全使用资源要么完全不使用资源(即,r已使用=1或0)。
可以观察到,可以不要求跟踪资源r,而是跟踪上一次非零资源使用的时间
Figure BDA0000493959620000131
这是因为权重变化考虑可以由下式给出:
Figure BDA0000493959620000141
Δw = ( r > θ r ) A sign ( Δt ) e - | Δt | / τ sign ( Δt ) . - - - ( 19 )
在给定了τr的值的情况下,可以在下式中针对
Figure BDA0000493959620000143
来求解式(18):
Figure BDA0000493959620000144
获得参数Δtr可以通过下式给出:
Δtr=-τrlog(1-θr)。      (21)
因此,由式(19)定义的权重变化可以由下式给出:
Δw = ( t - > t r last > Δt r ) A sign ( Δt ) e - | Δt | / τ sign ( Δt ) . - - - ( 22 )
根据式(22),如果自从上一次资源使用以来的时间大于Δtr,则可以通过计算式(22)的余数来考虑权重适配。此外,如果权重变化的绝对值高于θw,则设置
Figure BDA0000493959620000146
否则,要么使
Figure BDA0000493959620000147
保持不变要么设置
Figure BDA0000493959620000148
图4解说了根据本公开的某些方面的突触前和突触后神经元尖峰发放和突触权重适配的示例400。在这一示例中,可用资源由迹线402指示,但是可以不需要被建模,因为可以替代地使用
Figure BDA0000493959620000149
图4中的线404指示资源阈值θr。同样,可以不需要该阈值,因为可以替代地利用Δtr。在给定了尖峰408与410邻近的情况下,第一权重变化406在阈值以上。如图4中所解说的,资源402可以随后变为0和/或权重变化的时间可被记录为
Figure BDA00004939596200001410
到第二突触前尖峰412的时间为止,Δtr尚未过去和/或资源402尚未恢复到阈值404以上的程度。因此,在这一情形中,可以不计算或作出权重变化。
图5解说了根据本公开的某些方面的突触前和突触后神经元尖峰发放和突触权重适配的示例500。图5中的线502描绘权重改变阈值(而非资源阈值),并且迹线504指示随时间推移的可用资源。由于第一权重改变506(抑压)较小(因尖峰508和510的时间分开),因而可以不需要记录资源使用和/或可以不需要重置
Figure BDA00004939596200001411
因此,当发生第二突触后尖峰512时,可发生全增强权重改变514,并且资源使用可被记录(如由图5中的迹线504所解说的)。
本公开中所提议的突触权重适配方法可以提供稳定且快速的学习,并且还可以预言生物学学习,这是由于可需要资源来改变突触权重。在文献中已建立如下理论:长期增强(LTP,权重增大)或长期抑压(LTD,权重减小)是独立的过程。然而,触发机制(若两者均基于Ca2+动态)可能不是独立的并且由此LTP和LTD可以相关。换言之,用于权重变化的触发机制可以是共通的并且使得使用单个资源模型在生物学上是现实的。然而,在该方法中可以不必仅使用一个资源。
本公开中所提议的方法可被扩展成利用两个或更多个资源并且将这些资源中的每一个资源指派给特定的权重适配操作。例如,一个资源可被用于LTP(长期权重增大)并且另一资源可被用于LTD(长期权重减小)。替换地,一个资源可被用于较长期变化,并且一个资源可被用于短期变化,或者其组合。例如,
Figure BDA0000493959620000151
其中j是特定的资源类型索引。
替换地,相同的资源可被用于一种或多种类型的权重变化,但是取决于在
Figure BDA0000493959620000152
处发生的修改类型而具有不同的参数τr(j),即:
Figure BDA0000493959620000153
根据某些方面,如果资源是在权重变化之后而非之前计算的,则该资源模型也可以良好地工作。这在资源时间常数被设置成比由式(22)定义的优选实施例中的资源时间常数短得多的情况下可以是特别有效的。各种其他变型是可能的,诸如以上提及的修改、量化、和操作重排序的组合。
图6解说了根据本公开的某些方面的神经学习的示例操作600。在602处,可通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入。在604处,可以基于与突触相关联的资源、自从权重的上一次改变以来的时间、或者突触前神经元和突触后神经元的尖峰定时中的至少一者来适配突触的权重。
根据本公开的某些方面,可以与适配突触的权重相关地来修改资源。此外,资源可以随时间推移向该资源在修改之前的值恢复。在一个方面,修改资源可包括减少资源。例如,资源可被减少达与突触权重在适配期间的变化的绝对值成比例的量。另外,如果突触权重在适配期间的变化的绝对值高于一阈值,则资源可被减少到0。
在一方面,如果资源在一阈值以下,则突触权重在适配期间的变化可以不被应用。在另一方面,如果自从上一次改变以来的时间在一阈值以下,则突触权重在适配期间的变化可以不被应用。此外,随时间推移恢复资源可包括在时间延迟之后将资源恢复到该资源在修改之前的值。
在一方面,修改资源可以在对适配权重进行交付履行时进行。在另一方面,修改资源可以在确定适配权重的一方面时进行,并且适配权重可以在稍后时间进行。例如,适配权重的该方面可包括权重变化量、或者权重变化方向中的至少一者。
根据本公开的某些方面,适配突触权重可进一步包括:在突触后神经元或者突触前神经元的尖峰发放时间更新突触权重为生效;在权重更新的时间将更新权重的时间存储为该资源上一次被使用的时间;在更新权重的另一时间根据该另一时间和该资源上一次被使用的时间来计算资源;以及根据计算出的资源来获得突触权重的变化。在一个方面,如果突触权重的变化幅值在一阈值以下,则资源上一次被使用的时间的值可以不被覆写。此外,如果该另一时间减去资源上一次被使用的时间的值在一阈值以下,则权重变化可以为0。
在本公开的一方面,可以使权重变化晚于权重变化被出发的时间。例如,可以在突触前或突触后事件处触发权重变化,并且取决于将在未来发生的权重变化的量,可以在该时间或者稍后时交付履行(计及)相关联的资源。实际的突触权重可以随后在稍后时间(分开地)修改。权重变化甚至可以被累积并且一起应用或者在较长的时间上缓慢地应用。因此,应当理解,实际的权重变化和资源建模可以在时间上分开。
在本公开的一方面,可以由先前的突触前和突触后尖峰对之间的多个相对定时和那些对之间的相对定时的等效函数来对资源进行建模。换言之,适配突触权重可以基于与突触相关联的资源考虑以及突触前神经与突触后神经元的尖峰定时,其中资源考虑可以基于突触前和突触后神经元尖峰之间的多个定时关系以及该多个定时关系之间的定时关系来确定。
图7解说了根据本公开的某些方面的神经学习的示例操作700。在702处,可通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入。在704处,突触的权重可以基于与突触相关联的资源考虑以及突触前神经元与突触后神经元的尖峰定时来适配。在706处,资源考虑可以基于突触前和突触后神经元的先前尖峰之间的一个或多个定时关系来确定。
在本公开的一方面,该一个或多个定时关系可以包括关于突触前和突触后神经元的一对先前尖峰之间的时间差的信息。在另一方面,该一个或多个定时关系可以包括关于一对先前尖峰与另一对先前尖峰之间的时间差的信息。在又一方面,该一个或多个定时关系包括关于自从一对先前尖峰发生以来的时间的信息。
图8解说了根据本公开的某些方面的神经学习的示例操作800。在802处,可以通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入。在804处,可以基于与突触相关联的资源考虑以及突触前神经元和突触后神经元的尖峰定时来适配突触的权重。在806,可以基于自从对权重的改变的先前交付履行以来的时间量来确定资源考虑。在本公开的一方面,权重的改变可以在权重改变的交付履行之后的时间发生。
图9解说了根据本公开的某些方面的用于使用通用处理器902进行神经学习的前述方法的示例软件实现900。与计算网络(神经网络)的每条连接(突触)相关联的权重可以存储在存储器块904中,而与正在通用处理器902处执行的神经学习有关的指令可以从程序存储器906加载。在本公开的一方面,加载到通用处理器902中的指令可以包括用于通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入的代码,用于基于与突触相关联的资源(资源考虑)、自从权重的上一次改变以来的时间、或者突触前神经元和突触后神经元的尖峰定时中的至少一者来适配突触的权重的代码,用于基于突触前和突触后神经元的先前尖峰之间的一个或多个定时关系来确定资源考虑的代码,以及用于基于自从对权重的改变的先前交付履行以来的时间量来确定资源考虑的代码。
图10解说了根据本公开的某些方面的用于神经学习的前述方法的示例实现1000,其中存储器1002可以经由互连网络1004与计算网络(神经网络)的个体(分布式)处理单元(神经处理器)1006对接。与计算网络(神经网络)的一条或多条连接(突触)相关联的一个或多个权重可以经由互连网络1004的(诸)连接从存储器1002加载到每个处理单元(神经处理器)1006中。在本公开的一方面,处理单元1006可被配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入,基于与突触相关联的资源(资源考虑)、自从权重的上一次改变以来的时间、或者突触前神经元和突触后神经元的尖峰定时中的至少一者来适配突触的权重,基于突触前和突触后神经元的先前尖峰之间的一个或多个定时关系来确定资源考虑,以及基于自从对权重改变的先前交付履行以来的时间量来确定资源考虑。
图11解说了根据本公开的某些方面的基于分布式权重存储器1102和分布式处理单元(神经处理器)1104的以上所提及的用于神经学习的方法的示例实现1100。如图11中所解说的,一个存储器组1102可直接与计算网络(神经网络)的一个处理单元1104对接,其中该存储器组1102可存储与该处理单元(神经处理器)1104相关联的一个或多个连接(突触)的一个或多个权重。在本公开的一方面,处理单元1104可被配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从突触前神经元至突触后神经元的输入,基于与突触相关联的资源(资源考虑)、自从权重的上一次改变以来的时间、或者突触前神经元和突触后神经元的尖峰定时中的至少一者来适配突触的权重,基于突触前和突触后神经元的先前尖峰之间的一个或多个定时关系来确定资源考虑,以及基于自从对权重改变的先前交付履行以来的时间量来确定资源考虑。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可包括各种硬件和/或软件组件和/或模块,包括但不限于电路、专用集成电路(ASIC)或处理器。一般而言,在附图中解说操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。例如,图6、7和8中所解说的操作600、700和800对应于图6A、7A和8A中所解说的组件600A、700A和800A。
如本文所使用的,术语“确定”涵盖各种各样的动作。例如,“确定”可包括演算、计算、处理、推导、研究、查找(例如,在表、数据库或其他数据结构中查找)、探知及诸如此类。而且,“确定”可包括接收(例如,接收信息)、访问(例如,访问存储器中的数据)及诸如此类。而且,“确定”还可包括解析、选择、选取、确立及类似动作。
如本文中所使用的,引述一列项目中的“至少一个”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c、以及a-b-c。
结合本公开所描述的各种解说性逻辑框、模块、以及电路可用设计成执行本文所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列信号(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件或其任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何市售的处理器、控制器、微控制器或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协同的一个或多个微处理器或任何其它此类配置。
结合本公开描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中实施。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM,等等。软件模块可包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合到处理器以使得该处理器能从/向该存储介质读写信息。替换地,存储介质可以被整合到处理器。
本文所公开的方法包括用于达成所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁存储设备、或能被用来携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其他介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和蓝光
Figure BDA0000493959620000201
碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可包括瞬态计算机可读介质(例如,信号)。以上的组合也应被包括在计算机可读介质的范围内。
因此,某些方面可包括用于执行本文中给出的操作的计算机程序产品。例如,此种计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
软件或指令还可以在传输介质上传送。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或诸如红外、无线电、以及微波等无线技术从web站点、服务器或其它远程源传送而来的,则该同轴电缆、光纤电缆、双绞线、DSL、或诸如红外、无线电以及微波等无线技术就被包括在传输介质的定义里。
此外,应当领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由用户终端和/或基站在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文所述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘等物理存储介质等)来提供,以使得一旦将该存储装置耦合至或提供给用户终端和/或基站,该设备就能获得各种方法。此外,能利用适于向设备提供本文中所描述的方法和技术的任何其他合适的技术。
应该理解的是,权利要求并不被限定于以上所解说的精确配置和组件。可在以上所描述的方法和装置的布局、操作和细节上作出各种改动、更换和变形而不会脱离权利要求的范围。
尽管上述内容针对本公开的各方面,然而可设计出本公开的其他和进一步的方面而不会脱离其基本范围,且其范围是由所附权利要求来确定的。

Claims (80)

1.一种神经学习的方法,包括:
通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;以及
基于与所述突触相关联的资源、自从所述权重的上一次改变以来的时间、或者所述突触前神经元与所述突触后神经元的尖峰定时中的至少一者来适配突触的权重。
2.如权利要求1所述的方法,其特征在于,进一步包括:
与适配突触的权重相关地来修改所述资源;以及
随时间推移朝所述资源在所述修改之前的值恢复所述资源。
3.如权利要求2所述的方法,其特征在于,修改所述资源包括减少所述资源。
4.如权利要求3所述的方法,其特征在于,所述资源被减少与突触的权重在所述适配期间的变化的绝对值成比例的量。
5.如权利要求3所述的方法,其特征在于,如果突触的权重在所述适配期间的变化的绝对值高于阈值,则所述资源被减少到0。
6.如权利要求2所述的方法,其特征在于,随时间推移恢复所述资源包括:
在一时间延迟之后将所述资源恢复到所述修改之前的值。
7.如权利要求2所述的方法,其特征在于,修改所述资源发生在对适配所述权重的交付履行之时。
8.如权利要求2所述的方法,其特征在于:
修改所述资源发生在确定适配所述权重的一方面时;以及
适配所述权重发生在此后的时间。
9.如权利要求8所述的方法,其特征在于,适配所述权重的所述方面包括以下各项中的至少一项:所述权重的变化量、或者所述权重的变化方向。
10.如权利要求1所述的方法,其特征在于,如果所述资源低于一阈值,则突触的权重在所述适配期间的变化不被应用。
11.如权利要求1所述的方法,其特征在于,如果自从所述上一次改变以来的时间低于一阈值,则突触的权重在所述适配期间的变化不被应用。
12.如权利要求1所述的方法,其特征在于,适配突触的权重进一步包括:
在所述突触后神经元或所述突触前神经元的尖峰发放的时间更新突触的权重为生效;
在所述权重更新的时间将更新所述权重的时间存储为所述资源上一次被使用的时间;
在更新所述权重的另一时间根据所述另一时间和所述资源上一次被使用的时间来计算所述资源;以及
根据计算出的资源来获得突触的权重的变化。
13.如权利要求12所述的方法,其特征在于,如果突触的权重的所述变化的幅值低于一阈值,则所述资源上一次被使用的时间的值不被覆写。
14.如权利要求12所述的方法,其特征在于,如果所述另一时间减去所述资源上一次被使用的时间的值小于一阈值,则所述权重的变化为0。
15.一种用于神经学习的装置,包括:
第一电路,配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;以及
第二电路,配置成基于与所述突触相关联的资源、自从所述权重的上一次改变以来的时间、或者所述突触前神经元与所述突触后神经元的尖峰定时中的至少一者来适配突触的权重。
16.如权利要求15所述的装置,其特征在于,进一步包括:
第三电路,配置成与适配突触的权重相关地来修改所述资源;以及
第四电路,配置成随时间推移朝所述资源在所述修改之前的值恢复所述资源。
17.如权利要求16所述的装置,其特征在于,修改所述资源包括减少所述资源。
18.如权利要求17所述的装置,其特征在于,所述资源被减少与突触的权重在所述适配期间的变化的绝对值成比例的量。
19.如权利要求17所述的装置,其特征在于,如果突触的权重在所述适配期间的变化的绝对值高于一阈值,则所述资源被减少到0。
20.如权利要求16所述的装置,其特征在于,所述第四电路还被配置成:
在一时间延迟之后将所述资源恢复到所述修改之前的值。
21.如权利要求16所述的装置,其特征在于,修改所述资源发生在对适配所述权重的交付履行之时。
22.如权利要求16所述的装置,其特征在于:
修改所述资源发生在确定适配所述权重的一方面时;以及
适配所述权重发生在此后的时间。
23.如权利要求22所述的装置,其特征在于,适配所述权重的所述方面包括以下各项中的至少一项:所述权重的变化量、或者所述权重的变化方向。
24.如权利要求15所述的装置,其特征在于,如果所述资源低于一阈值,则突触的权重在所述适配期间的变化不被应用。
25.如权利要求15所述的装置,其特征在于,如果自从所述上一次改变以来的所述时间低于一阈值,则突触的权重在所述适配期间的变化不被应用。
26.如权利要求15所述的装置,其特征在于,所述第二电路还被配置成:
在所述突触后神经元或所述突触前神经元的尖峰发放的时间更新突触的权重为生效;
在所述权重更新的时间将更新所述权重的时间存储为所述资源上一次被使用的时间;
在更新所述权重的另一时间根据所述另一时间和所述资源上一次被使用的时间来计算所述资源;以及
根据计算出的资源来获得突触的权重的变化。
27.如权利要求26所述的装置,其特征在于,如果突触的权重的所述变化的幅值低于一阈值,则所述资源上一次被使用的时间的值不被覆写。
28.如权利要求26所述的装置,其特征在于,如果所述另一时间减去所述资源上一次被使用的时间的值小于一阈值,则所述权重的变化为0。
29.一种用于神经学习的设备,包括:
用于通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入的装置;以及
用于基于与所述突触相关联的资源、自从所述权重的上一次改变以来的时间、或者所述突触前神经元与所述突触后神经元的尖峰定时中的至少一者来适配突触的权重的装置。
30.如权利要求29所述的设备,其特征在于,进一步包括:
用于与适配突触的权重相关地来修改所述资源的装置;以及
用于随时间推移朝所述资源在所述修改之前的值恢复所述资源的装置。
31.如权利要求30所述的设备,其特征在于,所述用于修改资源的装置包括用于减少所述资源的装置。
32.如权利要求31所述的设备,其特征在于,所述资源被减少与突触的权重在所述适配期间的变化的绝对值成比例的量。
33.如权利要求31所述的设备,其特征在于,如果突触的权重在所述适配期间的变化的绝对值高于一阈值,则所述资源被减少到0。
34.如权利要求30所述的设备,其特征在于,所述用于随时间推移恢复资源的装置包括:
用于在一时间延迟之后将所述资源恢复到所述修改之前的值的装置。
35.如权利要求30所述的设备,其特征在于,修改所述资源发生在对适配所述权重的交付履行之时。
36.如权利要求30所述的设备,其特征在于:
修改所述资源发生在确定适配所述权重的一方面时;以及
适配所述权重发生在此后的时间。
37.如权利要求36所述的设备,其特征在于,适配所述权重的所述方面包括以下各项中的至少一项:所述权重的变化量、或者所述权重的变化方向。
38.如权利要求29所述的设备,其特征在于,如果所述资源低于一阈值,则所述突触的权重在所述适配期间的变化不被应用。
39.如权利要求29所述的设备,其特征在于,如果自从所述上一次改变以来的时间低于一阈值,则所述突触的权重在所述适配期间的变化不被应用。
40.如权利要求29所述的设备,其特征在于,所述用于适配突触的权重的装置包括:
用于在所述突触后神经元或所述突触前神经元的尖峰发放的时间更新所述突触的权重为生效的装置;
用于在所述权重更新的时间将更新所述权重的时间存储为所述资源上一次被使用的时间的装置;
用于在更新所述权重的另一时间根据所述另一时间和所述资源上一次被使用的时间来计算所述资源的装置;以及
用于根据计算出的资源来获得突触的权重的变化的装置。
41.如权利要求40所述的设备,其特征在于,如果突触的权重的所述变化的幅值低于一阈值,则所述资源上一次被使用的时间的值不被覆写。
42.如权利要求40所述的设备,其特征在于,如果所述另一时间减去所述资源上一次被使用的时间的值小于一阈值,则所述权重的变化为0。
43.一种用于神经学习的计算机程序产品,所述计算机程序产品包括计算机可读介质,所述计算机可读介质包括用于以下动作的代码:
通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;以及
基于与所述突触相关联的资源、自从所述权重的上一次改变以来的时间、或者所述突触前神经元与所述突触后神经元的尖峰定时中的至少一者来适配突触的权重。
44.如权利要求43所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
与适配突触的权重相关地来修改所述资源;以及
随时间推移朝所述资源在所述修改之前的值恢复所述资源。
45.如权利要求44所述的计算机程序产品,其特征在于,修改所述资源包括减少所述资源。
46.如权利要求45所述的计算机程序产品,其特征在于,所述资源被减少与突触的权重在所述适配期间的变化的绝对值成比例的量。
47.如权利要求45所述的计算机程序产品,其特征在于,如果突触的权重在所述适配期间的变化的绝对值高于一阈值,则所述资源被减少到0。
48.如权利要求44所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
在一时间延迟之后将所述资源恢复到所述修改之前的值。
49.如权利要求44所述的计算机程序产品,其特征在于,修改所述资源发生在对适配所述权重的交付履行之时。
50.如权利要求44所述的计算机程序产品,其特征在于,
修改所述资源发生在确定适配所述权重的一方面时;以及
适配所述权重发生在此后的时间。
51.如权利要求50所述的计算机程序产品,其特征在于,适配所述权重的所述方面包括以下各项中的至少一项:所述权重的变化量、或者所述权重的变化方向。
52.如权利要求43所述的计算机程序产品,其特征在于,如果所述资源低于一阈值,则突触的权重在所述适配期间的变化不被应用。
53.如权利要求43所述的计算机程序产品,其特征在于,如果自从所述上一次改变以来的时间低于一阈值,则突触的权重在所述适配期间的变化不被应用。
54.如权利要求43所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
在所述突触后神经元或所述突触前神经元的尖峰发放的时间更新所述突触的权重为生效;
在所述权重更新的时间将更新所述权重的时间存储为所述资源上一次被使用的时间;
在更新所述权重的另一时间根据所述另一时间和所述资源上一次被使用的时间来计算所述资源;以及
根据计算出的资源来获得突触的权重的变化。
55.如权利要求54所述的计算机程序产品,其特征在于,如果突触的权重的所述变化的幅值低于一阈值,则所述资源上一次被使用的时间的值不被覆写。
56.如权利要求54所述的计算机程序产品,其特征在于,如果所述另一时间减去所述资源上一次被使用的时间的值小于一阈值,则所述权重的变化为0。
57.一种神经学习的方法,包括:
通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;
基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配突触的权重;以及
基于所述突触前神经元和所述突触后神经元的先前尖峰之间的一个或多个定时关系来确定所述资源考虑。
58.如权利要求57所述的方法,其特征在于,所述一个或多个定时关系包括关于所述突触前神经元和所述突触后神经元的一对先前尖峰之间的时间差的信息。
59.如权利要求57所述的方法,其特征在于,所述一个或多个定时关系包括关于一对先前尖峰与另一对先前尖峰之间的时间差的信息。
60.如权利要求57所述的方法,其特征在于,所述一个或多个定时关系包括关于自从一对先前尖峰发生以来的时间的信息。
61.一种用于神经学习的装置,包括:
第一电路,配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;
第二电路,配置成基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配突触的权重;以及
第三电路,配置成基于所述突触前神经元和所述突触后神经元的先前尖峰之间的一个或多个定时关系来确定所述资源考虑。
62.如权利要求61所述的装置,其特征在于,所述一个或多个定时关系包括关于所述突触前神经元和所述突触后神经元的一对先前尖峰之间的时间差的信息。
63.如权利要求61所述的装置,其特征在于,所述一个或多个定时关系包括关于一对先前尖峰与另一对先前尖峰之间的时间差的信息。
64.如权利要求61所述的装置,其特征在于,所述一个或多个定时关系包括关于自从一对先前尖峰发生以来的时间的信息。
65.一种用于神经学习的设备,包括:
用于通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入的装置;
用于基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配突触的权重的装置;以及
用于基于所述突触前神经元和所述突触后神经元的先前尖峰之间的一个或多个定时关系来确定所述资源考虑的装置。
66.如权利要求65所述的设备,其特征在于,所述一个或多个定时关系包括关于所述突触前神经元和所述突触后神经元的一对先前尖峰之间的时间差的信息。
67.如权利要求65所述的设备,其特征在于,所述一个或多个定时关系包括关于一对先前尖峰与另一对先前尖峰之间的时间差的信息。
68.如权利要求65所述的设备,其特征在于,所述一个或多个定时关系包括关于自从一对先前尖峰发生以来的时间的信息。
69.一种用于神经学习的计算机程序产品,所述计算机程序产品包括计算机可读介质,所述计算机可读介质包括用于以下动作的代码:
通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;
基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配所述突触的权重;以及
基于所述突触前神经元和所述突触后神经元的先前尖峰之间的一个或多个定时关系来确定所述资源考虑。
70.如权利要求69所述的计算机程序产品,其特征在于,所述一个或多个定时关系包括关于所述突触前神经元和所述突触后神经元的一对先前尖峰之间的时间差的信息。
71.如权利要求69所述的计算机程序产品,其特征在于,所述一个或多个定时关系包括关于一对先前尖峰与另一对先前尖峰之间的时间差的信息。
72.如权利要求69所述的计算机程序产品,其特征在于,所述一个或多个定时关系包括关于自从一对先前尖峰发生以来的时间的信息。
73.一种神经学习的方法,包括:
通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;
基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配突触的权重;以及
基于自从对所述权重的改变的先前交付履行以来的时间量来确定所述资源考虑。
74.如权利要求73所述的方法,其特征在于,权重的改变是在对所述权重的改变的交付履行之后的时间发生的。
75.一种用于神经学习的装置,包括:
第一电路,配置成通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;
第二电路,配置成基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配突触的权重;以及
第三电路,配置成基于自从对所述权重的改变的先前交付履行以来的时间量来确定所述资源考虑。
76.如权利要求75所述的装置,其特征在于,所述权重的改变是在对所述权重的改变的交付履行之后的时间发生的。
77.一种用于神经学习的设备,包括:
用于通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入的装置;
用于基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配突触的权重的装置;以及
用于基于自从对所述权重的改变的先前交付履行以来的时间量来确定所述资源考虑的装置。
78.如权利要求77所述的设备,其特征在于,所述权重的改变是在对所述权重的改变的交付履行之后的时间发生的。
79.一种用于神经学习的计算机程序产品,所述计算机程序产品包括计算机可读介质,所述计算机可读介质包括用于以下动作的代码:
通过将突触前神经元与突触后神经元相连接的突触的权重来调制从所述突触前神经元至所述突触后神经元的输入;
基于与所述突触相关联的资源考虑以及所述突触前神经元和所述突触后神经元的尖峰定时来适配所述突触的权重;以及
基于自从对所述权重的改变的先前交付履行以来的时间量来确定所述资源考虑。
80.如权利要求79所述的计算机程序产品,其特征在于,所述权重的改变是在对所述权重的改变的交付履行之后的时间发生的。
CN201280051748.3A 2011-10-19 2012-10-19 用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置 Pending CN103890787A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/276,812 US9111224B2 (en) 2011-10-19 2011-10-19 Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US13/276,812 2011-10-19
PCT/US2012/061167 WO2013059703A1 (en) 2011-10-19 2012-10-19 Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks

Publications (1)

Publication Number Publication Date
CN103890787A true CN103890787A (zh) 2014-06-25

Family

ID=47172894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280051748.3A Pending CN103890787A (zh) 2011-10-19 2012-10-19 用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置

Country Status (7)

Country Link
US (1) US9111224B2 (zh)
EP (1) EP2769339A1 (zh)
JP (1) JP5944518B2 (zh)
KR (1) KR101683436B1 (zh)
CN (1) CN103890787A (zh)
IN (1) IN2014CN02127A (zh)
WO (1) WO2013059703A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107003989A (zh) * 2014-12-19 2017-08-01 英特尔公司 用于人工神经网络中的分布式与协作计算的方法和装置
CN106997485A (zh) * 2016-01-26 2017-08-01 三星电子株式会社 基于神经网络的识别设备和训练神经网络的方法

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US9147155B2 (en) 2011-08-16 2015-09-29 Qualcomm Incorporated Method and apparatus for neural temporal coding, learning and recognition
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US20130297539A1 (en) * 2012-05-07 2013-11-07 Filip Piekniewski Spiking neural network object recognition apparatus and methods
US9224090B2 (en) * 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9129221B2 (en) * 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
CN103336222B (zh) * 2013-06-06 2015-07-15 西南交通大学 基于模糊推理脉冲神经膜系统的电力系统故障诊断方法
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9275329B2 (en) * 2013-08-12 2016-03-01 Qualcomm Incorporated Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models
US9418332B2 (en) 2013-08-16 2016-08-16 Qualcomm Incorporated Post ghost plasticity
US9710749B2 (en) * 2013-09-03 2017-07-18 Qualcomm Incorporated Methods and apparatus for implementing a breakpoint determination unit in an artificial nervous system
US9886663B2 (en) 2013-10-08 2018-02-06 Qualcomm Incorporated Compiling network descriptions to multiple platforms
US20150112909A1 (en) * 2013-10-17 2015-04-23 Qualcomm Incorporated Congestion avoidance in networks of spiking neurons
KR102051041B1 (ko) 2013-10-25 2019-11-29 삼성전자주식회사 3단자 시냅스 소자 및 그 동작방법
US20150220831A1 (en) * 2014-02-06 2015-08-06 Qualcomm Incorporated Short-term synaptic memory based on a presynaptic spike
US20150242745A1 (en) * 2014-02-21 2015-08-27 Qualcomm Incorporated Event-based inference and learning for stochastic spiking bayesian networks
US20150242741A1 (en) * 2014-02-21 2015-08-27 Qualcomm Incorporated In situ neural network co-processing
US9672464B2 (en) * 2014-02-28 2017-06-06 Qualcomm Incorporated Method and apparatus for efficient implementation of common neuron models
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US20150269485A1 (en) * 2014-03-24 2015-09-24 Qualcomm Incorporated Cold neuron spike timing back-propagation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
WO2016072964A1 (en) 2014-11-03 2016-05-12 Hewlett Packard Enterprise Development Lp Device with multiple resistance switches with different switching characteristics
US10474948B2 (en) 2015-03-27 2019-11-12 University Of Dayton Analog neuromorphic circuit implemented using resistive memories
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US10885429B2 (en) 2015-07-06 2021-01-05 University Of Dayton On-chip training of memristor crossbar neuromorphic processing systems
US10552731B2 (en) 2015-12-28 2020-02-04 International Business Machines Corporation Digital STDP synapse and LIF neuron-based neuromorphic system
US10891543B2 (en) 2015-12-28 2021-01-12 Samsung Electronics Co., Ltd. LUT based synapse weight update scheme in STDP neuromorphic systems
US10748058B2 (en) 2015-12-28 2020-08-18 International Business Machines Corporation LUT based neuron membrane potential update scheme in STDP neuromorphic systems
US10176425B2 (en) 2016-07-14 2019-01-08 University Of Dayton Analog neuromorphic circuits for dot-product operation implementing resistive memories
CN111164615A (zh) 2017-12-15 2020-05-15 英特尔公司 在尖峰神经网络中使用尖峰波进行基于上下文的搜索
DE112017008202T5 (de) * 2017-12-15 2020-08-06 Intel Corporation Parsen von regulären Ausdrücken mit gepulsten neuralen Netzwerken
EP3756144A4 (en) * 2018-02-23 2022-06-22 INTEL Corporation METHOD, DEVICE AND SYSTEM FOR GENERATION OF BAYESIAN INFERENCE WITH A SPIKING NEURAL NETWORK
US10642723B1 (en) 2019-02-05 2020-05-05 Bank Of America Corporation System for metamorphic relationship based code testing using mutant generators
US11195085B2 (en) * 2019-03-21 2021-12-07 International Business Machines Corporation Spiking synaptic elements for spiking neural networks
US11630992B2 (en) 2019-07-05 2023-04-18 Electronics And Telecommunications Research Institute Neural network generation method for neuromorphic computing and apparatus for the same
US10825512B1 (en) * 2019-08-27 2020-11-03 Nxp Usa, Inc. Memory reads of weight values
KR102526636B1 (ko) * 2019-12-11 2023-04-27 국민대학교산학협력단 분산 클라우드 환경에서의 뉴럴 네트워크 파라미터 처리 방법 및 장치
KR102635968B1 (ko) 2020-11-27 2024-02-13 충북대학교 산학협력단 스파이크 트레인 신호 생성 장치 및 방법
TWI782573B (zh) * 2021-01-28 2022-11-01 旺宏電子股份有限公司 記憶體內運算器及記憶體內運算方法
JP7447034B2 (ja) 2021-02-24 2024-03-11 株式会社東芝 シナプス回路およびニューラルネットワーク装置
EP4303766A1 (en) * 2022-07-07 2024-01-10 Centre national de la recherche scientifique A neuro-synaptic system for real time processing of trading data and associated computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1578968A (zh) * 2001-08-29 2005-02-09 霍尼韦尔国际公司 用于受监督的神经网络学习的组合方法
CN101310294A (zh) * 2005-11-15 2008-11-19 伯纳黛特·加纳 神经网络的训练方法

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5222195A (en) * 1989-05-17 1993-06-22 United States Of America Dynamically stable associative learning neural system with one fixed weight
WO1993018474A1 (en) 1992-03-11 1993-09-16 University College London Devices for use in neural processing
JP3178884B2 (ja) 1992-03-30 2001-06-25 株式会社東芝 ニューラルネットワーク装置
JP3345478B2 (ja) 1993-09-20 2002-11-18 株式会社東芝 ニューラルネットワーク装置およびその学習方法
US5666079A (en) 1994-05-06 1997-09-09 Plx Technology, Inc. Binary relative delay line
EP0892956A4 (en) 1996-02-09 2002-07-24 Sarnoff Corp METHOD AND APPARATUS FOR FORMING A NEURONAL NETWORK FOR THE DETECTION AND CLASSIFICATION OF OBJECTS WITH UNCERTAINED TRAINING DATA
US6284794B1 (en) 1996-11-05 2001-09-04 Head Explorer Aps Method for treating tension-type headache with inhibitors of nitric oxide and nitric oxide synthase
US6581046B1 (en) 1997-10-10 2003-06-17 Yeda Research And Development Co. Ltd. Neuronal phase-locked loops
US6505182B1 (en) 1998-10-09 2003-01-07 Van Den Heuvel Raymond C. Recognition engine with time referenced neurons
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
WO2003044687A1 (en) 2001-11-16 2003-05-30 Yuan Yan Chen Pausible neural network with supervised and unsupervised cluster analysis
US7412428B2 (en) 2002-03-12 2008-08-12 Knowmtech, Llc. Application of hebbian and anti-hebbian learning to nanotechnology-based physical neural networks
US7174325B1 (en) 2002-06-07 2007-02-06 George Mason Intellectual Properties, Inc. Neural processor
US7430546B1 (en) 2003-06-07 2008-09-30 Roland Erwin Suri Applications of an algorithm that mimics cortical processing
EP1696999A4 (en) 2003-07-21 2008-05-28 Ai Semi Ltd THERAPEUTIC SYSTEM FOR ADAPTIVE RESYNCHRONIZATION
WO2006126185A2 (en) 2005-05-27 2006-11-30 A.I. Medical Semiconductor Ventricle pacing during atrial fibrillation episodes
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
US8346692B2 (en) * 2005-12-23 2013-01-01 Societe De Commercialisation Des Produits De La Recherche Appliquee-Socpra-Sciences Et Genie S.E.C. Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
EP2046445A4 (en) 2006-07-17 2013-02-13 A I Medical Semiconductor INTELLIGENT CONTROL SYSTEM FOR AN ADAPTIVE DEVICE FOR CARDIAC RESYNCHRONIZATION THERAPY
US8037010B2 (en) 2007-02-28 2011-10-11 Numenta, Inc. Spatio-temporal learning algorithms in hierarchical temporal networks
GB0811057D0 (en) 2008-06-17 2008-07-23 Univ Ulster Artificial neural network architecture
WO2010025130A1 (en) * 2008-08-28 2010-03-04 Massachusetts Institute Of Technology Circuits and methods representative of spike timing dependent plasticity of neurons
US8250011B2 (en) * 2008-09-21 2012-08-21 Van Der Made Peter A J Autonomous learning dynamic artificial neural computing device and brain inspired system
JP5155843B2 (ja) * 2008-12-22 2013-03-06 シャープ株式会社 情報処理装置及びこれを用いたニューラルネットワーク回路
US8630966B2 (en) 2009-01-27 2014-01-14 Salk Institute For Biological Studies Temporally dynamic artificial neural networks
US7978510B2 (en) 2009-03-01 2011-07-12 International Businesss Machines Corporation Stochastic synapse memory element with spike-timing dependent plasticity (STDP)
US8447714B2 (en) * 2009-05-21 2013-05-21 International Business Machines Corporation System for electronic learning synapse with spike-timing dependent plasticity using phase change memory
US8250010B2 (en) * 2009-05-21 2012-08-21 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements
US8527438B2 (en) * 2009-12-22 2013-09-03 International Business Machines Corporation Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array
US8625337B2 (en) 2010-05-06 2014-01-07 Qualcomm Incorporated Method and apparatus of probabilistic programming multi-level memory in cluster states of bi-stable elements
US8694452B2 (en) 2010-07-07 2014-04-08 Qualcomm Incorporated Methods and systems for CMOS implementation of neuron synapse
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US8892485B2 (en) 2010-07-08 2014-11-18 Qualcomm Incorporated Methods and systems for neural processor training by encouragement of correct output
US8606732B2 (en) 2010-08-04 2013-12-10 Qualcomm Incorporated Methods and systems for reward-modulated spike-timing-dependent-plasticity
US9269042B2 (en) 2010-09-30 2016-02-23 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
US8515885B2 (en) * 2010-10-29 2013-08-20 International Business Machines Corporation Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation
US8473439B2 (en) * 2010-12-08 2013-06-25 International Business Machines Corporation Integrate and fire electronic neurons
US8768865B2 (en) 2011-01-19 2014-07-01 Qualcomm Incorporated Learning situations via pattern matching
US9147156B2 (en) * 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US8706662B2 (en) 2011-07-21 2014-04-22 Qualcomm Incorporated Method and apparatus of controlling noise associated with synaptic inputs based on neuronal firing rate
US9147155B2 (en) 2011-08-16 2015-09-29 Qualcomm Incorporated Method and apparatus for neural temporal coding, learning and recognition
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1578968A (zh) * 2001-08-29 2005-02-09 霍尼韦尔国际公司 用于受监督的神经网络学习的组合方法
CN101310294A (zh) * 2005-11-15 2008-11-19 伯纳黛特·加纳 神经网络的训练方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DOMINIC STANDAGE等: "The trouble with weight-dependent STDP", 《NEURAL NETWORKS-INTERNATION JOINT CONFERENCE ON IEEE》, 1 October 2007 (2007-10-01) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107003989A (zh) * 2014-12-19 2017-08-01 英特尔公司 用于人工神经网络中的分布式与协作计算的方法和装置
US10997273B2 (en) 2014-12-19 2021-05-04 Intel Corporation Method and apparatus for distributed and cooperative computation in artificial neural networks
US12032653B2 (en) 2014-12-19 2024-07-09 Intel Corporation Method and apparatus for distributed and cooperative computation in artificial neural networks
CN106997485A (zh) * 2016-01-26 2017-08-01 三星电子株式会社 基于神经网络的识别设备和训练神经网络的方法

Also Published As

Publication number Publication date
EP2769339A1 (en) 2014-08-27
US20130103626A1 (en) 2013-04-25
IN2014CN02127A (zh) 2015-05-29
WO2013059703A1 (en) 2013-04-25
US9111224B2 (en) 2015-08-18
KR20140084219A (ko) 2014-07-04
KR101683436B1 (ko) 2016-12-20
JP5944518B2 (ja) 2016-07-05
JP2014532907A (ja) 2014-12-08

Similar Documents

Publication Publication Date Title
CN103890787A (zh) 用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置
CN109328362B (zh) 渐进式神经网络
US9542643B2 (en) Efficient hardware implementation of spiking networks
US10339447B2 (en) Configuring sparse neuronal networks
US20130226851A1 (en) Method and apparatus for modeling neural resource based synaptic placticity
US20150206049A1 (en) Monitoring neural networks with shadow networks
KR20170041724A (ko) 비동기 펄스 변조를 이용한 인공 뉴런들 및 스파이킹 뉴런들
CN105989441A (zh) 模型参数调整方法和装置
US20150248609A1 (en) Neural network adaptation to current computational resources
US9652711B2 (en) Analog signal reconstruction and recognition via sub-threshold modulation
WO2015148189A2 (en) Differential encoding in neural networks
US20150212861A1 (en) Value synchronization across neural processors
CN105531724A (zh) 用于调制神经设备的训练的方法和装置
US20140258194A1 (en) Generic method for designing spike-timing dependent plasticity (stdp) curves
US20150248607A1 (en) Method and apparatus for efficient implementation of common neuron models
CN105637539A (zh) 用于修改神经动态的自动化方法
TW201602923A (zh) 使用尖峰發放神經網路對大序列的概率性表示
CN110110372B (zh) 一种用户时序行为自动切分预测方法
Li et al. A dynamic neural network method for time series prediction using the KIII model
KR102072820B1 (ko) 정책망 및 가치망을 이용한 온라인 쇼핑몰에서의 프로모션 이미지 수정 장치
CN105659261A (zh) 尖峰神经元网络中的拥塞避免
US9460384B2 (en) Effecting modulation by global scalar values in a spiking neural network
KR20160071437A (ko) 스냅스 지연의 동적 할당 및 검사
WO2019194128A1 (ja) モデル学習装置、モデル学習方法、プログラム
CN116975686A (zh) 训练学生模型的方法、行为预测方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20140625

RJ01 Rejection of invention patent application after publication