CN103814387A - 用于尖峰神经网络中的结构化延迟可塑性的方法和装置 - Google Patents

用于尖峰神经网络中的结构化延迟可塑性的方法和装置 Download PDF

Info

Publication number
CN103814387A
CN103814387A CN201280046283.2A CN201280046283A CN103814387A CN 103814387 A CN103814387 A CN 103814387A CN 201280046283 A CN201280046283 A CN 201280046283A CN 103814387 A CN103814387 A CN 103814387A
Authority
CN
China
Prior art keywords
delay
spike
cynapse
peak
adjusting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280046283.2A
Other languages
English (en)
Other versions
CN103814387B (zh
Inventor
J·F·亨泽格
V·H·陈
J·A·莱文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN103814387A publication Critical patent/CN103814387A/zh
Application granted granted Critical
Publication of CN103814387B publication Critical patent/CN103814387B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Semiconductor Memories (AREA)
  • Semiconductor Integrated Circuits (AREA)

Abstract

本公开的某些方面涉及应用于尖峰神经网络中的自适应结构化延迟可塑性的技术。采用所提出的结构化延迟可塑性的方法,可避免对多个具有不同延迟的突触进行建模的需求。在这种情况下,应当只要对少得多的潜在突触进行建模以用于学习。

Description

用于尖峰神经网络中的结构化延迟可塑性的方法和装置
背景
领域
本公开的某些方面一般涉及神经系统工程,更具体地涉及用于尖峰神经网络中的自适应结构化延迟可塑性的方法和装置。
背景
神经网络中的神经元可接收来自该网络中的一个或多个其它神经元的潜在输入。输入的相对重要性可被学习,以使得只有一些潜在输入可成为活跃的突触。然而,随着电路或网络中的潜在输入(神经元)的数目增加,处理和存储器访问要求可能显著提高。例如,如果存在M个神经元,每个神经元具有N≤M个可能的输入,则可能存在至少M×N个潜在的突触。另外,如果连接(突触)具有可变的时间延迟(由于变化的连接距离),则每神经元的潜在输入数目可倍乘以可能的不同时间延迟的数目(例如,从0至T在时间分辨率为dt的情况下得到R=T/dt个可能性,则该网络有总计M×N×R个潜在的突触)。应当注意的是,突触延迟的范围可能为从0至25ms或甚至更高。由于可能要求1毫秒或远小于此(例如,0.1或1微秒)的神经尖峰定时精度,这可能会急剧地提高已经很显著的处理(时间)和存储器要求(例如,分别提高250或25,000倍)。因此,希望得到复杂性降低的计算方案用于机器学习。
生物神经网络可采用结构化可塑性(树突或轴突生长或收缩、脊或结翻转、或脊能动性)来解决这一问题。然而,用于在神经系统工程中解决这一问题的方法仍然是未知的。
概述
本公开的某些方面提供了一种方法。该方法一般包括调适神经网络中的突触前神经元电路和突触后神经元电路之间的突触连接的延迟,其中该调适基于突触后神经元电路的第一尖峰和突触前神经元电路的第二尖峰之间的时间。
本公开的某些方面提供了一种用于神经时间编码的装置。该装置一般包括第一电路,所述第一电路被配置成调适神经网络中的突触前神经元电路和突触后神经元电路之间的突触连接的延迟,其中该调适基于突触后神经元电路的第一尖峰和突触前神经元电路的第二尖峰之间的时间。
本公开的某些方面提供了一种用于神经时间编码的设备。该设备一般包括用于调适神经网络中的突触前神经元电路和突触后神经元电路之间的突触连接的延迟的装置,其中该调适基于突触后神经元电路的第一尖峰和突触前神经元电路的第二尖峰之间的时间。
本公开的某些方面提供一种计算机程序产品。该计算机程序产品一般包括计算机可读介质,该计算机可读介质包括用于调适神经网络中的突触前神经元电路和突触后神经元电路之间的突触连接的延迟的代码,其中该调适基于突触后神经元电路的第一尖峰和突触前神经元电路的第二尖峰之间的时间。
附图简要说明
为了能详细理解本公开的以上陈述的特征所用的方式,可参照各方面来对以上简要概述的内容进行更具体的描述,其中一些方面在附图中解说。然而应该注意,附图仅解说了本公开的某些典型方面,故不应被认为限定其范围,因为本描述可允许有其他等同有效的方面。
图1解说了根据本公开的某些方面的示例神经网络。
图2解说了根据本公开的某些方面的突触前和突触后尖峰发放的示例。
图3解说了根据本公开的某些方面的突触前和突触后尖峰发放的另一示例。
图4解说了根据本公开的某些方面的突触前和突触后尖峰发放的另一示例。
图5解说了根据本公开的某些方面的自适应结构化延迟可塑性的示例图表。
图6解说了根据本公开的某些方面的自适应结构化延迟可塑性的操作。
图6A解说了能够执行图6中解说的操作的示例组件。
图7解说了根据本公开的某些方面的突触延迟多样性的示例。
图8解说了根据本公开的某些方面的使用通用处理器的自适应结构化延迟可塑性的示例软件实现。
图9解说了根据本公开的某些方面的自适应结构化延迟可塑性的示例实现,其中突触延迟存储器与各个分布式处理单元对接。
图10解说根据本公开的某些方面的基于分布式突触延迟存储器和分布式处理单元的自适应结构化延迟可塑性的示例实现。
详细描述
以下参照附图更全面地描述本公开的各个方面。然而,本公开可用许多不同形式来实施并且不应解释为被限定于本公开通篇给出的任何具体结构或功能。确切而言,提供这些方面是为了使得本公开将是透彻和完整的,并且其将向本领域技术人员完全传达本公开的范围。基于本文中的教导,本领域技术人员应领会,本公开的范围旨在覆盖本文中所披露的本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用任何数目个本文中所阐述的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为本文中所阐述的本公开的各种方面的补充或者与之不同的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,本文中所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
本文中使用措辞“示例性”来表示“用作示例、实例或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文中描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、系统配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的详细描述中解说。详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
示例神经系统
图1解说根据本公开的某些方面的具有多级神经元的示例神经系统100。神经系统100可包括神经元级102,该级神经元102通过突触连接网络104连接到另一级神经元106。为简单起见,图1中仅解说了两级神经元,但在典型的神经系统中可存在更少或更多级神经元。
如图1所解说的,级102中的每一神经元可接收输入信号108,输入信号108可以是由前一级(图1中未示出)的多个神经元所生成的。信号108可表示级102的神经元的输入电流。该电流可在神经元膜上累积以对膜电位进行充电。当膜电位达到其阈值时,该神经元可激发并生成输出尖峰,该输出尖峰将被传递到下一级神经元(例如,级106)。
尖峰从一级神经元向另一级神经元的传递可通过突触连接(或简称“突触”)网络104来达成,如图1所解说的。突触104可接收来自级102的神经元的输出信号(即,尖峰),根据可调节突触权重
Figure BDA0000480493180000041
…,来按比例缩放那些信号(其中P是级102的神经元与级106的神经元之间的突触连接的总数),并且将经按比例缩放的信号组合为级106中的每一个神经元的输入信号。此外,每个突触104可与一延迟(即,级i的神经元的输出尖峰抵达级i+1的神经元的胞体的时间)相关联。
级106中的神经元可基于源自级102的一个或多个神经元的相应组合输入信号生成输出尖峰110。随后可使用另一突触连接网络(图1中未示出)将这些输出尖峰110传递到另一级神经元。
神经系统100可以通过电路来仿真并且可以用在大范围的应用中,诸如图像和模式识别、机器学习、电机控制及类似应用等。神经系统100中的每一神经元可被实现为神经元电路或神经处理器。被充电至发起输出尖峰的阈值的神经元膜可被实现为例如对流经其的电流进行积分的电容器。
在一方面,电容器作为神经元电路的电流积分设备可被除去,并且可使用较小的忆阻器元件来替代它。这种办法可应用于神经元电路中,以及其中大容量电容器被用作电流积分器的各种其他应用中。另外,每个突触104可基于忆阻器元件来实现,其中突触权重改变可与忆阻器电阻的变化有关。使用纳米特征尺寸的忆阻器,可显著地减小神经元电路和突触的面积,这可使得实现超大规模神经系统硬件实现变得可行。
本公开的某些方面支持学习(调适)突触延迟的方法。突触延迟的调适可伴随着对突触权重(强度或重要性)的调适。后者通常被称为突触可塑性。前者可被认为是结构化可塑性,其体现在脊“移”向具有不同延迟的位置这一意义上。更具生物学一致性地,这可被认为是脊收缩以及另一脊在新的位置上生长(但连接到同一输入神经元的轴突),这招致不同的延迟。采用所提出的结构化延迟可塑性的方法,可避免对多个具有不同延迟的突触进行建模的需要。在这种情况下,可能只需要对少得多的潜在突触进行建模以用于学习。虽然这最初看上去可能很简单,但当运行具有正在学习中的动态神经元或具有复现或横向连接的系统时,调适延迟的方法会变得艰难。这可能是因为对输入延迟的调整能更改突触后神经元的激发,并由此更改依赖于尖峰定时的可塑性以及网络中的其它神经元。本公开提出了一种以稳定的且允许很宽范围的延迟采样发展起来的方式调适突触延迟的方法。
突触类型
在神经网络的硬件和软件模型中,突触相关功能的处理可基于突触类型。突触类型可包括非可塑突触(权重和延迟没有改变)、可塑突触(权重可改变)、结构化延迟可塑突触(权重和延迟可改变)、全可塑突触(权重、延迟和输入可改变)、以及基于此的变型(例如,延迟可改变,但在权重或输入方面没有改变)。此举的优点在于处理可以被细分。例如,非可塑突触不可要求执行可塑性功能(或等待此类功能完成)。类似地,延迟和权重可塑性可被细分成可一起或分开地、顺序地或并行地运作的操作。不同类型的突触对于适用的每一种不同的可塑性类型可具有不同的查找表或公式/参数。因此,这些方法将针对该突触的类型来访问相关的表。
指出还牵涉到取决于尖峰定时的结构化可塑性可以独立于突触可塑性地来执行这一事实可能也是有价值的。结构化可塑性即使在权重幅值没有改变的情况下(例如,如果权重已达最小或最大值、或者其由于某种其他原因而不改变)也可执行,因为结构化可塑性(即,延迟改变的量)可以是前-后尖峰时间差的直接函数。替换地,可将其设置为权重改变量的函数或基于与界限有关的条件的函数。例如,突触延迟可仅在权重改变发生时或者在权重到达0的情况下才改变,但在权重达到最大时不改变。然而,具有独立函数以使得这些过程能被并行化从而减少存储器访问的次数和交叠可能是有利的。
延迟分辨率
神经网络模型的执行(无论是软件还是硬件形式)一般可以时间步长(诸如1ms之类)为单位来进行。然而,可能想要用实际所使用的更高分辨率来调节突触延迟。为此,可能需要将延迟以比执行所需要或所分辨的分辨率更高的分辨率存储在存储器中。然而,结构化延迟可塑性可对存储着的高分辨率延迟进行微调,该微调可累积至对实际的执行分辨率有所影响的点。这可避免不得不按延迟中的差量变化对取决于尖峰定时的结构化延迟可塑性曲线进行量化的问题,这与可基于取决于尖峰定时的可塑性(STDP)对权重作出的增量变化非常类似。
此外,通过在将延迟量化到可分辨的执行时间步长之前向高分辨率延迟值添加一很小的随机分量(诸如神经元数目的散列和时间步长的函数之类),就可以统计方式获得更高分辨率的延迟。
突触的合并和拆分
根据本公开的某些方面,实现一个或多个与合并有关的功能可能是有用的。合并可发生在将相同的突触前神经元连接到相同的突触后神经元的两个突触具有相同(或非常相似)的延迟之时。此时,可以通过将两个突触的权重相加(采取线性积分)将这两个突触合并成一个,而另一个突触可被重新使用。在这种情况下,用于避免使第二突触重新发展出同样的延迟的方法可能是有利的。替换地,可实现合并保护以避免突触发展出同样的延迟。以下将解释合并的方法和合并保护的方法,并且两者可都被采用。
合并的突触可通过将合并中的突触的权重相加并且将其中一个突触设置为该权重来组合。这在该权重不超过最大值时可以做到。随后,可将另一个(或几个)突触的权重设置成零(或设置成重新初始化值)。一般来说,如果想要选取输入的另一个延迟样本,则延迟也可被改变。替换地,突触可被重新指派给另一输入,其中可能想要来自同一输入的另一延迟样本。在这种情况下,延迟可被设置成最小值,该最小值是一小于先前延迟的随机值。为了理解为什么这可能是需要的,应当注意的是,如果突触强度在增长中,则结构化延迟可塑性可能会倾向于驱使延迟上升。因此,如果存在长于当前延迟的另一有效的延迟采样时间,则现有突触可能会仅仅因为可塑性而在那个方向上传播。然而,如果存在短于当前延迟的一有效的延迟采样时间,则抵达该点的唯一途径可能是在一较低(具有较小延迟的)点开始。如果存在多个这样的点,则随机化可能是有益的。相反,如果允许合并的突触存在,则两个合并的突触可被允许在将来拆分。
作为对合并的突触进行组合的替代,可以维持多个突触。随后,这些突触可被允许拆分。如果延迟的增大会驱使这两个突触都具有更大的延迟,则可改为仅对这些突触中的一个(如果已经有差量,则选择具有最大延迟的那个)施加该增加。此外,对于减小,可执行相反的情形。可仅对具有最短延迟的突触减小延迟。这可允许突触的拆分和对相同输入的多延迟采样。
在本公开的一个方面,还可使用合并保护。在这种情况下,突触的组合可被阻止。如果两个突触最终将具有相同(或相近)延迟,则延迟调节可被阻止。这可与以上所描述的有条件延迟调节结合使用。换言之,延迟调节可被限制于输入的突触子集,条件是这些突触在时间上接近。
应当注意的是,以上所讨论的合并控制可对硬件或软件有额外的处理要求。然而,这些要求可取决于所使用的方法而改变。通过允许多个突触存在但对它们的调节施加约束,额外要求的处理可以得到限制。
关于对突触的重新使用,可使用顺序地试验不同延迟下的不同突触的方法。然而,顺序地试验不同延迟下的不同突触可能是有问题的。虽然与每神经元多个突触相比,这可以降低存储器要求,但处理时间可能仍然非常高(甚至高于采用多个突触的情况),这不仅是因为这一系列的尝试,还因为间接原因。即,试验在不同(未经调适的)延迟下的(即顺序地试验)突触的突触可塑性可能会限制突触可塑性的收敛,因此突触权重可能是不稳定的或者耗时甚至更久来收敛。
延迟指派
在本公开的一个方面,可基于观测到的延迟来直接指派突触延迟。在这种情况下,突触延迟可根据前-后时间差量来改变。
然而,延迟指派的概念具有某些伴生问题。例如,如果去极化至尖峰时间为非零,则神经元尖峰时间可被持续推迟。去极化时间可以是可根据输入定时和幅值而变化的。此外,更改神经元激发时间可更改抑制(侧向)时间并影响其它神经元。延迟指派的概念还可能具有由于延迟范围(以及实际输出时间)导致的限制。
结构化延迟可塑性
借助于取决于尖峰定时的可塑性,学习(调适)效果通常基于突触前事件(神经元的输入)和突触后事件(神经元的输出)(尖峰)之间的定时关系而发生。借助于取决于尖峰定时的可塑性,就可根据这一时间差量来调节权重。本公开的某些方面支持在类似框架中检视结构化延迟可塑性。
因果性考虑
首先,可考虑突触后尖峰发生在突触前尖峰之后的情况。在标准的取决于尖峰定时的可塑性的情况下,突触强度(权重)将被驱至上升。图2解说了根据本公开的某些方面的突触前和突触后尖峰发放的示例,其中时间被表示在x轴(水平轴)上。突触前尖峰(即,图2中的尖峰2021、2022或2023)的实际激发时间可被延迟(例如延迟了一树突延迟)以在某个较晚时刻(即,分别在尖峰2041、2042或2043的时刻)抵达突触后神经元的胞体。作为结果,突触后尖峰(即,分别是尖峰2061、2062或2063)可稍晚发生。
根据本公开的某些方面,由于后-前时间差为正,因此延迟可能被增大。在图2中解说了三个时间序列情形,其中为清楚起见,所有的三个情形均已被对齐到突触后尖峰。在第一个情形中,一增大会将输入抵达胞体(即尖峰2041)延迟到尖峰2081指示的时间,该时间处在充分去极化时间(例如,图2中的时间210)之前。在第二个情形中,此改变将把尖峰2042的抵达延迟到尖峰2082所指示的时间,该时间处在充分去极化210与峰值电压点212之间。在第三个情形中,对尖峰2043的抵达的改变将由于最大延迟约束(即,延迟到由尖峰2083所指示的时间)而受到限制。
在本公开中,更详细地检视为什么存在从建立了充分输入的时间(即,时间210)直至突触后神经元实际激发的时间(即,到时间212)的延迟。在动态尖峰神经元模型(诸如Izhikevich简单模型)中,如果在去极化阈值vt与峰值尖峰电压vpeak之间有差量,则可能招致时间延迟。例如,在该简单模型中,神经元胞体动态可由关于电压和恢复的微分方程对来支配,即:
dv dt = ( k ( v - v t ) ( v - v r ) - u + i ) / C , - - - ( 1 )
du dv = a ( b ( v - v r - u ) ) . - - - ( 2 )
此外,当v>vpeak时,神经元可发放尖峰。如果v>>vr,给定b<0,则du/dt可将u驱至负,从而加速了v增大超过阈值。然而,当a<<1时,改变可相对较小并且可给出对于这部分忽略u的动机。另外,如果没有进一步的输入,则以下式可成立:
t &cong; &Integral; v s v p C k / ( v - v t ) ( v - v r ) , - - - ( 3 )
t &cong; C qk ln | 2 v - ( v t + v r ) - q 2 v - ( v t + v r ) + q | v s v p , - - - ( 4 )
其中如果vs=vt、t→∞,但如果阈上至少是10mV(40mV),则式(3)-(4)所定义的t可高达6ms(1.2ms)。
关于这方面有几个关键点。首先,有超过阈值的充分输入以去极化与突触后尖峰时间之间的延迟可取决于输入的量和那些输入之间的相对定时而变化。因此,优选的可能是缓慢调节延迟,以使得突触后尖峰不被移动或者学习不被减稳。其次,在尖峰是否发生这一意义上,充分去极化与尖峰之间的任何输入可能是多余的,但仍然可能缩短发放尖峰的时间。虽然对于其他神经元模型而言上述的第一和第二点可能不会发生,但仍然可存在第三点:任何带泄漏积分和激发神经元模型均可能具有对于输入的相对定时的敏感性,因为那些输入泄漏(衰退)。因此,在时间上将输入移来移去可能使突触后激发时间减稳。作为结果,可能想要对延迟进行相对较小或较慢的调节。
鉴于上述几点,如果显现正的后-前关系的突触的延迟增大了一将使新的抵达时间进入到去极化至尖峰发放窗里的量,则可能仅仅是延迟了突触后尖峰。重复这样做可将突触后尖峰在时间上越推越迟。因此,简单地将延迟增大后-前时间差量或甚至任何大的量可能招致这一风险。这可以表达为突触s的延迟增大将具有不想要的效果的概率,该概率基于当前延迟
Figure BDA0000480493180000092
延迟边界[Tmin,Tmax]、后-前时间差量
Figure BDA0000480493180000093
及针对突触后神经元的所有其他输入统计Xt(n)的函数,即:
p u + ( s ) = f ( C t d ( s ) , [ T min , T max ] , &Delta;t t n ( s ) , X t ( n ) ) . - - - ( 5 )
为了简化式(5),优选的是忽略会导致在计算上繁重的演算的一个或多个复杂因素。例如,可以观察到在移到更靠近突触后尖峰时间时该风险一般会增大。因此,式(5)可被简化成:
Figure BDA0000480493180000095
其中,T是归一化时间因子。
接着,可考虑如果延迟被约束到上界会发生什么。类似地,可观察到命中该边界的概率可随着后-前延迟量增大而增大(与前述相反)。再一次,这一概率可实际上取决于所有的相同参数,但同样可以被简化成:
p l + ( s ) ~ &Delta; t t n ( s ) . - - - ( 7 )
换言之,如果预先知道不太可能达到所要求的延迟量,则尝试激进地以增量形式增大延迟可能是不可取的。
根据本公开的某些方面,式(6)-(7)所定义的两个概率可表示一平衡中状况。如果后-前延迟较大,则可能不是那么想要增大延迟。并且,如果后-前延迟较小,则可能不是那么想要增大延迟。如果后-前延迟处于两者之间,则可能显著增大延迟是优选的。本质上,延迟增大的量可与风险的概率逆相关,即:
&Delta; C t d ( s ) ~ ( 1 - p u + ( s ) ) &CenterDot; ( 1 - p l + ( s ) ) . - - - ( 8 )
根据上述推理所启示的计算的一个示例可以是将延迟增大(调适)一定量,
&Delta; C t d ( s ) = &alpha; + ( &Delta;t t n ( s ) ) &CenterDot; ( 1 - &Delta;t t n ( s ) / T ) , - - - ( 9 )
其中,α+可以被用于增益(调适率)控制或归一化。
非因果性考虑
接着,可考虑突触后尖峰发生在突触前尖峰之前的情形。图3中解说了三个示例性时间序列情形。同样,为了清楚起见,所有的三个情形均已被对齐到突触后尖峰。突触前尖峰(尖峰3021或尖峰3022)的实际激发时间可发生在突触后尖峰(尖峰3041或尖峰3042)之前,或者可发生在突触后尖峰之后(图3中的尖峰3023相对于尖峰3043)。然而,对于尖峰定时可塑性,应当考虑抵达突触后神经元的胞体的时间(即图3中尖峰3061、3062或3063的时间),该突触后神经元可在该抵达时间之前(即尖峰3041、3042或3043的时间)发放尖峰。在这种情况下,标准的取决于尖峰定时的可塑性可驱使此突触的权重(强度)下降。然而,如果实际的突触前尖峰在突触后尖峰之前,则使这一因果关系进入到学习该突触后神经元的可能性的范围内可以是有可能的。
如图3中所解说的,考虑三个演示性的可能性。在第一个情形中,如果突触前尖峰(即,尖峰3021)实际上发生得比突触后尖峰(即,尖峰3041)早,则可能优选的是使尖峰3061的延迟减小以趋向因果关系(例如,图3中解说的尖峰3081的延迟没有被充分地减少)。在第二个情形中,如果延迟能够被充分地减少(例如,具有减少延迟的尖峰3082),则可能仍然优选避免使经延迟的突触后尖峰(在胞体处)进入到去极化至尖峰时间窗中(例如,进入到图3中的时刻310与312之间的时间段中)。在第三个情形中,如果后-前关系是正的,则可能不希望减少延迟,例如减少到尖峰3083
该情况可类似于之前提到的因果性情形,但有一些例外。即,动机可以是考虑使经延迟的突触前尖峰输入时间进入到去极化至尖峰区域中的概率(或风险)以及不能抵达因果性一侧(因为最小延迟边界,或因为与实际时间的关系并非是因果性的)的概率。
出于计算方面的目的,动机是要对基于所有因素来考虑这些概率的方式进行简化(如以上所讨论的因果性情形)。通过与因果性情形相似的推理,下式可成立:
&Delta; C t d ( s ) = - &alpha; - ( &Delta;t t n ( s ) ) &CenterDot; ( 1 - &Delta;t t n ( s ) / T ) , - - - ( 10 )
区别在于该式可对
Figure BDA0000480493180000112
为负的情形成立,并且其中α-可被用于增益(调适率)控制或归一化。在本公开的一个方面,因果性和非因果性等式(9)和(10)可被组合成一通式。在另一方面,因果性和非因果性情形可被分别计算(或应用)。此外,延迟调节可被量化。
因果性和非因果性考虑
在学习过程中,突触前尖峰既可发生在突触后尖峰之前也可发生在其之后。这带来了从统计观点来看平衡延迟调适效果的议题。例如,可考虑到不太可能使一个晚的非因果性输入回到有用的因果性区域中,因为可能期望避开去极化至尖峰窗。然而,或许非直观的是,可能优选的是对于延迟减小比对于延迟增大表现得更激进。这一现象的原因以及进一步的考量在考虑了在取决于同时或并行尖峰定时的可塑性的上下文中的延迟调适时可变得明白。
图4解说了两个示例情形。在第一情形中,实际和经延迟的突触前尖峰可以是因果性的(分别是尖峰4021和4041)和非因果性的(分别是尖峰4022和4042),并且可以远离突触后尖峰时间(即,尖峰4061的尖峰发放时间408)。在第二情形中,实际的突触前尖峰(即,尖峰4023、4024)可以是因果性的,但经延迟的尖峰(即,尖峰4043、4044)可以分别是因果性的和非因果性的,并且可以靠近尖峰4062的突触后尖峰时间408。
如果输入既发生在突触后尖峰之前也发生在突触后尖峰之后,但在时间上相距甚远,则问题在于以下哪一个是优选的:是将晚的输入移到早一些还是将早的输入移到晚一些。一方面,可考虑这一连接(输入和输出神经元对)仅有一个突触。尽管有去极化至尖峰区域410,优选的可以是减小延迟以(a)使突触后神经元的处理延迟最小化,以及(b)使突触后神经元能够学习一紧密因果性关系或激发速率关系的机会最大化。然而,如果希望非预期的或新的输入在开始时对突触后激发时间具有最小程度的影响,则在这一情形中同样有理由增大延迟(通过具有大的延迟,则它们很可能在调适之前是非因果性的)。在以下的讨论中,前者将被用于各示例中。
图5中解说了典型的取决于尖峰定时的可塑性曲线502。可以注意到在大的正后-前延迟处的权重的正增长可以小于在大的负后-前延迟处的权重的负增长。换言之,如果发生上述情形,则累积的权重变化可以是负的(忽略变化的延迟)。对于小的正后-前延迟相比小的负后-前延迟,情形将相反。因此,优选的是在小延迟情况下反过来做。然而,与将突触前尖峰时间移到去极化至尖峰区域中相关联的风险要比这重要。
连同取决于尖峰定时的突触可塑性曲线502,图5中解说了组合的取决于尖峰定时的结构化延迟可塑性曲线504。可以注意到,延迟调适的减小一般可大于延迟调适的增加,并且增加可比减少更快地衰退到零。然而,取决于尖峰定时的结构化延迟可塑性曲线的确切形状可以变化。
在实值延迟分辨率的情况下,突触延迟可被调节任何分数量。然而,通常来说,延迟可能在模型中具有有限的分辨率,诸如1ms的时间步长。在这种情况下,也许不可能将延迟增大小于这个量的延迟,因为这实际上将等效于零调节。取而代之地,调节可能需要至少一个时间单位才能有任何效果。此外,如果优选的是偏向减小方向,则选项可以是在非因果性一侧上将延迟减少甚至大于1ms。图5中用曲线506解说了量化的示例。曲线504和506已被与曲线502不同地归一化,并且它们表示与曲线502不同的项。曲线502的y轴表示权重变化(其中+1和-1是权重改变边界)。曲线504和506解说延迟变化(其中仅为了该图表的清楚起见,最大延迟变化是在半程点附近任意地设定的)。实际的延迟变化边界可以是例如+1ms和-2ms。
在算法实现的意义上,延迟可基于对权重的标称调节来调节(结构化延迟可塑性是突触可塑性的函数)。这可在对突触可塑性施加边界(权重最大值或最小值)之前考虑。因此,当
Figure BDA0000480493180000122
是在限界之前的突触权重调节时,下式可成立:
&Delta;C t d ( s ) = &alpha; + ( &Delta;C t w ( s ) > 0 ) ( 1 - &Delta;C t w ( s ) &beta; + ) ( &Delta;C t w ( s ) &beta; + ) - - &alpha; - ( &Delta;C t w ( s ) < 0 ) ( 1 - &Delta;C t w ( s ) &beta; - ) ( &Delta;C t w ( s ) &beta; - ) - - - ( 11 )
其中β+和β-是权重学习速率归一化因子。接着,可对调整施加舍入,以获得对延迟步长还有边界的整数调节,或者这些可在调节之后施加,从而
C t d ( s ) = max ( T min , min ( T max , round ( C t d ( s ) + &Delta;C t d ( s ) ) ) ) . - - - ( 12 )
根据本公开的某些方面,可以要求使延迟调适为权重调适的函数。来自图5的曲线504的任何形状可以通过直接关系来获得而非将该曲线表达为突触可塑性曲线的函数。简单但与式(11)类似的表达将是
&Delta;C t d ( s ) = &alpha; + ( &Delta;t t w ( s ) > 0 ) ( 1 - &Delta;t t w ( s ) T + ) ( &Delta;t t w ( s ) T + ) - - &alpha; - ( &Delta;t t w ( s ) < 0 ) ( 1 - &Delta;t t w ( s ) T - ) ( &Delta;t t w ( s ) T - ) - - - ( 13 )
在每突触前神经元和突触后神经元对有多个突触的情况下,允许这多个突触收敛到不同的延迟可能是优选的。这可能仅仅因为先决条件(例如,随机的初始延迟)或因为不同的延迟边界而发生。然而,施加合并和反合并条件也可能是优选的。
图6解说了根据本公开的某些方面的自适应结构化延迟可塑性的操作600。在602,神经网络的突触前神经元电路和突触后神经元电路之间的突触连接的延迟可被调适,其中该调适可基于突触后神经元电路的第一尖峰和突触前神经元电路的第二尖峰之间的时间。
一方面,调适延迟可包括如果第一尖峰发生在第二尖峰之后,则使延迟增加第一量。另一方面,调适延迟可包括如果第一尖峰发生在第二尖峰之前,则使延迟减少第二量。如果在第二尖峰后发生第一尖峰之间的时间段与在第一尖峰后发生第二尖峰之间的另一时间段相同,则第二量可大于第一量。
一方面,调适延迟可包括如果如图5中的曲线504所解说的,第一和第二尖峰之间的时间位于一时间范围内,则使延迟增加最大的可能量。此外,如果突触后神经元电路和突触前神经元电路没有激发,则可不改变延迟。一方面,突触连接的延迟可在此调适之后被限界和/或量化。
图7解说了根据本公开的某些方面的突触延迟多样性的示例700。在示例700中,解说了具有相同或不同输入的突触的权重-延迟分布,其中可基于图5中解说的前述取决于尖峰定时的结构化延迟可塑性概念来获得权重和延迟。应当注意的是,相同输入上的突触可能并不收敛到相同的延迟。仅当输入中不存在多样性时,该输入上的所有突触可收敛到相同的延迟,除非施加了合并保护。如果输入中存在多样性,则可发展出多个延迟,尤其是在采用群体编码的情况下。还应当注意的是,侧向抑制可降低在同一输入上发展出突触的多个延迟的机会。
在本公开的一个方面,具有结构化延迟可塑性的权重调适可导致权重的极化,即权重可收敛到零或一。以此方式,模式识别可更为可靠。
图8解说了根据本公开的某些方面的使用通用处理器802的自适应结构化延迟可塑性的示例软件实现800。与计算网络(神经网络)的连接(突触)相关联的权重和延迟可被存储在存储器块804中。正在通用处理器802上执行的与自适应结构化延迟可塑性有关的指令可从程序存储器806中加载。在本公开的一方面,加载到通用处理器802中的指令可包括用于调适神经网络的突触前神经元和突触后神经元之间的突触连接的延迟的代码,其中该调适可基于突触后神经元的第一尖峰与突触前神经元的第二尖峰之间的时间。
图9解说了根据本公开的某些方面的自适应结构化延迟可塑性的示例实现900,其中存储器902可经由互连网络904与计算网络(神经网络)的个体(分布式)处理单元(神经处理器)906对接。与计算网络(神经网络)的一个或多个连接(突触)相关联的一个或多个权重和延迟可经由互联网络904的(诸)连接从存储器902被加载到每个处理单元(神经处理器)906。在本公开的一个方面,处理单元906可被配置成调适神经网络的突触前神经元和突触后神经元之间的突触连接的延迟,其中该调适可基于突触后神经元的第一尖峰和突触前神经元的第二尖峰之间的时间。
图10解说了根据本公开的某些方面的基于分布式权重/延迟存储器1002和分布式处理单元(神经处理器)1014的自适应结构化延迟可塑性的示例实现1000。如图10中所解说的,一个存储器组1002可直接与计算网络(神经网络)的一个处理单元1004对接,其中该存储器组1002可存储与该处理单元(神经处理器)1004相关联的一个或多个连接(突触)的一个或多个权重和延迟。在本公开的一个方面,处理单元1004可被配置成调适神经网络的突触前神经元和突触后神经元之间的突触连接的延迟,其中该调适可基于突触后神经元的第一尖峰和突触前神经元的第二尖峰之间的时间。
所提出的自适应结构化延迟可塑性的方法有几项主要益处。首先,可实现网络执行处理以及尖峰路由和存储器访问(无论是软件还是硬件)上的多重简并。第二,可获得学习速率/时间上的多重加速。第三,可实现描述连通性所需的存储器上的减少。第四,可能纳入/关联更多突触输入,这能够改善模式匹配以及其它的神经网络功能。第五,在线学习可被稳定化,即使对于侧向抑制、复现、动态神经元模型等等亦是如此。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可包括各种硬件和/或软件组件和/或模块,包括但不限于电路、专用集成电路(ASIC)、或处理器。一般而言,在附图中解说操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。例如,图6中所解说的操作600对应于图6A中所解说的组件600A。
如本文中所使用的,引述一列项目中的“至少一个”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c、以及a-b-c。
上面描述的方法的各种操作可由能够执行这些操作的任何合适的装置来执行,诸如各种硬件和/或软件组件、电路、和/或模块。一般而言,在附图中所解说的任何操作可由能够执行这些操作的相对应的功能性装置来执行。
结合本公开所描述的各种解说性逻辑框、模块、以及电路可用设计成执行本文所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列信号(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件或其任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何市售的处理器、控制器、微控制器或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协同的一个或更多个微处理器或任何其它此类配置。
结合本公开描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中实施。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM,等等。软件模块可包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合到处理器以使得该处理器能从/向该存储介质读写信息。替换地,存储介质可以被整合到处理器。
本文所公开的方法包括用于达成所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁存储设备、或能被用来携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其他介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和蓝光
Figure BDA0000480493180000161
碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可包括瞬态计算机可读介质(例如,信号)。上述组合应被包括在计算机可读介质的范围内。
因此,某些方面可包括用于执行本文中给出的操作的计算机程序产品。例如,此种计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
软件或指令还可以在传输介质上传送。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或诸如红外、无线电、以及微波等无线技术从web站点、服务器或其它远程源传送而来的,则该同轴电缆、光纤电缆、双绞线、DSL、或诸如红外、无线电以及微波等无线技术就被包括在传输介质的定义里。
此外,应当领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由用户终端和/或基站在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文所述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘等物理存储介质等)来提供,以使得一旦将该存储装置耦合至或提供给用户终端和/或基站,该设备就能获得各种方法。此外,能利用适于向设备提供本文中所描述的方法和技术的任何其他合适的技术。
应该理解的是,权利要求并不被限定于以上所解说的精确配置和组件。可在以上所描述的方法和装置的布局、操作和细节上作出各种改动、更换和变形而不会脱离权利要求的范围。
尽管上述内容针对本公开的各方面,然而可设计出本公开的其他和进一步的方面而不会脱离其基本范围,且其范围是由所附权利要求来确定的。

Claims (36)

1.一种方法,包括:
调适神经网络的突触前神经元电路与突触后神经元电路之间的突触连接的延迟,
其中所述调适基于所述突触后神经元电路的第一尖峰与所述突触前神经元电路的第二尖峰之间的时间。
2.如权利要求1所述的方法,其特征在于,调适所述延迟包括:
如果所述第一尖峰发生在所述第二尖峰之后,则使所述延迟增加第一量;以及
如果所述第一尖峰发生在所述第二尖峰之前,则使所述延迟减少第二量。
3.如权利要求2所述的方法,其特征在于,如果在所述第二尖峰之后发生所述第一尖峰之间的时间段与在所述第一尖峰之后发生所述第二尖峰之间的另一时间段相同,则所述第二量大于所述第一量。
4.如权利要求1所述的方法,其特征在于,调适所述延迟包括:
如果所述第一尖峰与第二尖峰之间的时间位于一时间范围内,则使所述延迟增加最大的可能量。
5.如权利要求1所述的方法,其特征在于,如果所述突触后神经元电路和所述突触前神经元电路不激发,则不改变所述延迟。
6.如权利要求1所述的方法,其特征在于,还包括:
在所述调适之后对突触连接的延迟限界。
7.如权利要求1所述的方法,其特征在于,还包括:
在所述调适之后对突触连接的延迟进行量化。
8.如权利要求1所述的方法,其特征在于,调适所述延迟还包括:
基于对与所述突触连接相关联的权重的标称调节来调节所述延迟。
9.如权利要求1所述的方法,其特征在于,还包括:
在所述调适之前,基于观测到的所述突触连接的延迟来指派所述延迟。
10.一种装置,包括:
第一电路,所述第一电路被配置成调适神经网络的突触前神经元电路与突触后神经元电路之间的突触连接的延迟,
其中所述调适基于所述突触后神经元电路的第一尖峰与所述突触前神经元电路的第二尖峰之间的时间。
11.如权利要求10所述的装置,其特征在于,所述第一电路还被配置成:
如果所述第一尖峰发生在所述第二尖峰之后,则使所述延迟增加第一量;以及
如果所述第一尖峰发生在所述第二尖峰之前,则使所述延迟减少第二量。
12.如权利要求11所述的装置,其特征在于,如果在所述第二尖峰之后发生所述第一尖峰之间的时间段与在所述第一尖峰之后发生所述第二尖峰之间的另一时间段相同,则所述第二量大于所述第一量。
13.如权利要求10所述的装置,其特征在于,所述第一电路还被配置成:
如果所述第一尖峰与第二尖峰之间的时间位于一时间范围内,则使所述延迟增加最大的可能量。
14.如权利要求10所述的装置,其特征在于,如果所述突触后神经元电路和所述突触前神经元电路不激发,则不改变所述延迟。
15.如权利要求10所述的装置,其特征在于,还包括:
第二电路,所述第二电路被配置成在所述调适之后对突触连接的延迟限界。
16.如权利要求10所述的装置,其特征在于,进一步包括:
第二电路,所述第二电路被配置成在所述调适之后对突触连接的延迟进行量化。
17.如权利要求10所述的装置,其特征在于,所述第一电路还被配置成:
基于对与所述突触连接相关联的权重的标称调节来调节所述延迟。
18.如权利要求10所述的装置,其特征在于,进一步包括:
第二电路,所述第二电路被配置成在所述调适之前,基于观测到的所述突触连接的延迟来指派所述延迟。
19.一种设备,包括:
用于调适神经网络的突触前神经元电路与突触后神经元电路之间的突触连接的延迟的装置,
其中所述调适基于所述突触后神经元电路的第一尖峰与所述突触前神经元电路的第二尖峰之间的时间。
20.如权利要求19所述的设备,其特征在于,所述用于调适延迟的装置包括:
用于如果所述第一尖峰发生在所述第二尖峰之后,则使所述延迟增加第一量的装置;以及
用于如果所述第一尖峰发生在所述第二尖峰之前,则使所述延迟减少第二量的装置。
21.如权利要求20所述的设备,其特征在于,如果在所述第二尖峰之后发生所述第一尖峰之间的时间段与在所述第一尖峰之后发生所述第二尖峰之间的另一时间段相同,则所述第二量大于所述第一量。
22.如权利要求19所述的设备,其特征在于,所述用于调适延迟的装置包括:
用于如果所述第一尖峰与第二尖峰之间的时间位于一时间范围内,则使所述延迟增加最大的可能量的装置。
23.如权利要求19所述的设备,其特征在于,如果所述突触后神经元电路和所述突触前神经元电路不激发,则不改变所述延迟。
24.如权利要求19所述的设备,其特征在于,进一步包括:
用于在所述调适之后对突触连接的延迟限界的装置。
25.如权利要求19所述的设备,其特征在于,进一步包括:
用于在所述调适之后对突触连接的延迟进行量化的装置。
26.如权利要求19所述的设备,其特征在于,所述用于调适延迟的装置还包括:
用于基于对与所述突触连接相关联的权重的标称调节来调节所述延迟的装置。
27.如权利要求19所述的设备,其特征在于,进一步包括:
用于在所述调适之前,基于观测到的所述突触连接的延迟来指派所述延迟的装置。
28.一种计算机程序产品,包括计算机可读介质,所述计算机可读介质包括用于执行以下动作的代码:
调适神经网络的突触前神经元电路与突触后神经元电路之间的突触连接的延迟,
其中所述调适基于所述突触后神经元电路的第一尖峰与所述突触前神经元电路的第二尖峰之间的时间。
29.如权利要求28所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
如果所述第一尖峰发生在所述第二尖峰之后,则使所述延迟增加第一量;以及
如果所述第一尖峰发生在所述第二尖峰之前,则使所述延迟减少第二量。
30.如权利要求29所述的计算机程序产品,其特征在于,如果在所述第二尖峰之后发生所述第一尖峰之间的时间段与在所述第一尖峰之后发生所述第二尖峰之间的另一时间段相同,则所述第二量大于所述第一量。
31.如权利要求28所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
如果所述第一尖峰与第二尖峰之间的时间位于一时间范围内,则使所述延迟增加最大的可能量。
32.如权利要求28所述的计算机程序产品,其特征在于,如果所述突触后神经元电路和所述突触前神经元电路不激发,则不改变所述延迟。
33.如权利要求28所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
在所述调适之后对突触连接的延迟限界。
34.如权利要求28所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
在所述调适之后对突触连接的延迟进行量化。
35.如权利要求28所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
基于对与所述突触连接相关联的权重的标称调节来调节所述延迟。
36.如权利要求28所述的计算机程序产品,其特征在于,所述计算机可读介质还包括用于执行以下动作的代码:
在所述调适之前,基于观测到的所述突触连接的延迟来指派所述延迟。
CN201280046283.2A 2011-09-21 2012-09-21 用于尖峰神经网络中的结构化延迟可塑性的方法和装置 Expired - Fee Related CN103814387B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/238,088 US9092735B2 (en) 2011-09-21 2011-09-21 Method and apparatus for structural delay plasticity in spiking neural networks
US13/238,088 2011-09-21
PCT/US2012/056723 WO2013044143A1 (en) 2011-09-21 2012-09-21 Method and apparatus for structural delay plasticity in spiking neural networks

Publications (2)

Publication Number Publication Date
CN103814387A true CN103814387A (zh) 2014-05-21
CN103814387B CN103814387B (zh) 2016-09-14

Family

ID=47144073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280046283.2A Expired - Fee Related CN103814387B (zh) 2011-09-21 2012-09-21 用于尖峰神经网络中的结构化延迟可塑性的方法和装置

Country Status (7)

Country Link
US (1) US9092735B2 (zh)
EP (1) EP2758917A1 (zh)
JP (1) JP6009570B2 (zh)
KR (1) KR101594724B1 (zh)
CN (1) CN103814387B (zh)
TW (1) TW201329876A (zh)
WO (1) WO2013044143A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106796668A (zh) * 2016-03-16 2017-05-31 香港应用科技研究院有限公司 用于人工神经网络中比特深度减少的方法和系统
CN107016437A (zh) * 2016-01-13 2017-08-04 国际商业机器公司 用于核基神经形态系统中的随机尖峰模式的有效生成的方法、系统和计算机可读存储介质
CN109416759A (zh) * 2016-06-30 2019-03-01 Hrl实验室有限责任公司 具有生物行为的神经集成电路
CN113408612A (zh) * 2021-06-18 2021-09-17 电子科技大学 一种基于DW-Tempotron算法的图像分类方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US9147155B2 (en) 2011-08-16 2015-09-29 Qualcomm Incorporated Method and apparatus for neural temporal coding, learning and recognition
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US8977583B2 (en) * 2012-03-29 2015-03-10 International Business Machines Corporation Synaptic, dendritic, somatic, and axonal plasticity in a network of neural cores using a plastic multi-stage crossbar switching
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision
US9600762B2 (en) 2013-04-12 2017-03-21 Qualcomm Incorporated Defining dynamics of multiple neurons
US9542643B2 (en) * 2013-05-21 2017-01-10 Qualcomm Incorporated Efficient hardware implementation of spiking networks
US9275329B2 (en) * 2013-08-12 2016-03-01 Qualcomm Incorporated Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models
US9305256B2 (en) 2013-10-02 2016-04-05 Qualcomm Incorporated Automated method for modifying neural dynamics
US9536190B2 (en) 2013-10-17 2017-01-03 Qualcomm Incorporated Dynamically assigning and examining synaptic delay
US20150242742A1 (en) * 2014-02-21 2015-08-27 Qualcomm Incorporated Imbalanced cross-inhibitory mechanism for spatial target selection
US10552734B2 (en) 2014-02-21 2020-02-04 Qualcomm Incorporated Dynamic spatial target selection
US9542645B2 (en) 2014-03-27 2017-01-10 Qualcomm Incorporated Plastic synapse management
CN105373829B (zh) * 2014-09-02 2018-05-04 北京大学 一种全连接神经网络结构
CN106250981B (zh) * 2015-06-10 2022-04-01 三星电子株式会社 减少存储器访问和网络内带宽消耗的脉冲神经网络
US11106973B2 (en) 2016-03-16 2021-08-31 Hong Kong Applied Science and Technology Research Institute Company Limited Method and system for bit-depth reduction in artificial neural networks
CN106845634B (zh) * 2016-12-28 2018-12-14 华中科技大学 一种基于忆阻器件的神经元电路
KR102356787B1 (ko) * 2019-04-15 2022-01-28 한국과학기술원 신경망을 이용한 기억 장치 및 그의 정확성-저장용량 트레이드오프에 기반한 정보의 자동적 재분배 및 가변적 저장 용량 구현을 위한 동작 방법
KR102481847B1 (ko) * 2020-05-04 2022-12-27 고려대학교 산학협력단 드롭커넥트 신경망 시스템 및 이를 이용한 학습 방법
CN112101535B (zh) * 2020-08-21 2024-04-09 深圳微灵医疗科技有限公司 脉冲神经元的信号处理方法及相关装置
CN113313240B (zh) * 2021-08-02 2021-10-15 成都时识科技有限公司 计算设备及电子设备
KR102514656B1 (ko) * 2021-11-04 2023-03-29 서울대학교산학협력단 스파이킹 뉴럴 네트워크 제공 장치 및 그 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US696497A (en) * 1900-08-29 1902-04-01 Gen Electric Fuse-box.
JP2001148619A (ja) * 1999-09-29 2001-05-29 Lucent Technol Inc スパイキングニューロン回路

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993018474A1 (en) 1992-03-11 1993-09-16 University College London Devices for use in neural processing
JP3178884B2 (ja) 1992-03-30 2001-06-25 株式会社東芝 ニューラルネットワーク装置
JP3345478B2 (ja) 1993-09-20 2002-11-18 株式会社東芝 ニューラルネットワーク装置およびその学習方法
US5666079A (en) 1994-05-06 1997-09-09 Plx Technology, Inc. Binary relative delay line
WO1997029437A1 (en) 1996-02-09 1997-08-14 Sarnoff Corporation Method and apparatus for training a neural network to detect and classify objects with uncertain training data
US6284794B1 (en) 1996-11-05 2001-09-04 Head Explorer Aps Method for treating tension-type headache with inhibitors of nitric oxide and nitric oxide synthase
US6581046B1 (en) 1997-10-10 2003-06-17 Yeda Research And Development Co. Ltd. Neuronal phase-locked loops
US6505182B1 (en) 1998-10-09 2003-01-07 Van Den Heuvel Raymond C. Recognition engine with time referenced neurons
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US7287014B2 (en) 2001-11-16 2007-10-23 Yuan Yan Chen Plausible neural network with supervised and unsupervised cluster analysis
US7412428B2 (en) 2002-03-12 2008-08-12 Knowmtech, Llc. Application of hebbian and anti-hebbian learning to nanotechnology-based physical neural networks
US7174325B1 (en) 2002-06-07 2007-02-06 George Mason Intellectual Properties, Inc. Neural processor
US7430546B1 (en) 2003-06-07 2008-09-30 Roland Erwin Suri Applications of an algorithm that mimics cortical processing
EP1696999A4 (en) 2003-07-21 2008-05-28 Ai Semi Ltd THERAPEUTIC SYSTEM FOR ADAPTIVE RESYNCHRONIZATION
WO2006126185A2 (en) 2005-05-27 2006-11-30 A.I. Medical Semiconductor Ventricle pacing during atrial fibrillation episodes
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
EP1964036A4 (en) 2005-12-23 2010-01-13 Univ Sherbrooke ROOM-TIME PATTERN RECOGNITION USING A NEURONAL SPIKING NETWORK AND PROCESSING THEREOF FOR A PORTABLE AND / OR DISTRIBUTED COMPUTER
EP2046445A4 (en) * 2006-07-17 2013-02-13 A I Medical Semiconductor INTELLIGENT CONTROL SYSTEM FOR AN ADAPTIVE DEVICE FOR CARDIAC RESYNCHRONIZATION THERAPY
WO2008106615A1 (en) 2007-02-28 2008-09-04 Numenta, Inc. Spatio-temporal learning algorithms in hierarchical temporal networks
GB0811057D0 (en) 2008-06-17 2008-07-23 Univ Ulster Artificial neural network architecture
WO2010025130A1 (en) 2008-08-28 2010-03-04 Massachusetts Institute Of Technology Circuits and methods representative of spike timing dependent plasticity of neurons
US8250011B2 (en) 2008-09-21 2012-08-21 Van Der Made Peter A J Autonomous learning dynamic artificial neural computing device and brain inspired system
US8630966B2 (en) 2009-01-27 2014-01-14 Salk Institute For Biological Studies Temporally dynamic artificial neural networks
US7978510B2 (en) 2009-03-01 2011-07-12 International Businesss Machines Corporation Stochastic synapse memory element with spike-timing dependent plasticity (STDP)
US8447714B2 (en) 2009-05-21 2013-05-21 International Business Machines Corporation System for electronic learning synapse with spike-timing dependent plasticity using phase change memory
US8250010B2 (en) 2009-05-21 2012-08-21 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements
US8527438B2 (en) 2009-12-22 2013-09-03 International Business Machines Corporation Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array
US8625337B2 (en) 2010-05-06 2014-01-07 Qualcomm Incorporated Method and apparatus of probabilistic programming multi-level memory in cluster states of bi-stable elements
US8694452B2 (en) 2010-07-07 2014-04-08 Qualcomm Incorporated Methods and systems for CMOS implementation of neuron synapse
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US8892485B2 (en) 2010-07-08 2014-11-18 Qualcomm Incorporated Methods and systems for neural processor training by encouragement of correct output
US8606732B2 (en) 2010-08-04 2013-12-10 Qualcomm Incorporated Methods and systems for reward-modulated spike-timing-dependent-plasticity
US9269042B2 (en) 2010-09-30 2016-02-23 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
US8515885B2 (en) 2010-10-29 2013-08-20 International Business Machines Corporation Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation
US8473439B2 (en) 2010-12-08 2013-06-25 International Business Machines Corporation Integrate and fire electronic neurons
US8768865B2 (en) 2011-01-19 2014-07-01 Qualcomm Incorporated Learning situations via pattern matching
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US8706662B2 (en) 2011-07-21 2014-04-22 Qualcomm Incorporated Method and apparatus of controlling noise associated with synaptic inputs based on neuronal firing rate
US9147155B2 (en) 2011-08-16 2015-09-29 Qualcomm Incorporated Method and apparatus for neural temporal coding, learning and recognition
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US696497A (en) * 1900-08-29 1902-04-01 Gen Electric Fuse-box.
JP2001148619A (ja) * 1999-09-29 2001-05-29 Lucent Technol Inc スパイキングニューロン回路

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHRISTIAN W.EURICH等: "Dynamic of Self-Organized Dalay Adaptation", 《PHYSICAL REVIEW LETTERS》, 15 February 1999 (1999-02-15), pages 1594 - 1597 *
L.BAKO等: "Hardware Implementation of Delay-coded Spiking-RBF Neural Network for Unsupe", 《OPTIMIZATION OF ELECTRICAL AND ELECTRONIC EPUIPMENT》, 24 May 2008 (2008-05-24), pages 51 - 56 *
PAOLO ARENA等: "STDP with adaptive synaptic delay for robot navigation Control", 《MICROTECHNOLOGIES FOR THE NEW MILLENNIUM》, 22 May 2007 (2007-05-22) *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016437A (zh) * 2016-01-13 2017-08-04 国际商业机器公司 用于核基神经形态系统中的随机尖峰模式的有效生成的方法、系统和计算机可读存储介质
CN107016437B (zh) * 2016-01-13 2020-08-04 国际商业机器公司 随机尖峰模式的生成的方法和系统
US11574183B2 (en) 2016-01-13 2023-02-07 International Business Machines Corporation Efficient generation of stochastic spike patterns in core-based neuromorphic systems
CN106796668A (zh) * 2016-03-16 2017-05-31 香港应用科技研究院有限公司 用于人工神经网络中比特深度减少的方法和系统
CN106796668B (zh) * 2016-03-16 2019-06-14 香港应用科技研究院有限公司 用于人工神经网络中比特深度减少的方法和系统
CN109416759A (zh) * 2016-06-30 2019-03-01 Hrl实验室有限责任公司 具有生物行为的神经集成电路
CN109416759B (zh) * 2016-06-30 2020-04-28 Hrl实验室有限责任公司 具有生物行为的神经集成电路
CN113408612A (zh) * 2021-06-18 2021-09-17 电子科技大学 一种基于DW-Tempotron算法的图像分类方法
CN113408612B (zh) * 2021-06-18 2023-04-07 电子科技大学 一种基于DW-Tempotron算法的图像分类方法

Also Published As

Publication number Publication date
US9092735B2 (en) 2015-07-28
KR20140069179A (ko) 2014-06-09
WO2013044143A1 (en) 2013-03-28
US20130073501A1 (en) 2013-03-21
TW201329876A (zh) 2013-07-16
KR101594724B1 (ko) 2016-02-16
JP6009570B2 (ja) 2016-10-19
EP2758917A1 (en) 2014-07-30
JP2014530428A (ja) 2014-11-17
CN103814387B (zh) 2016-09-14

Similar Documents

Publication Publication Date Title
CN103814387A (zh) 用于尖峰神经网络中的结构化延迟可塑性的方法和装置
Han et al. A structure optimisation algorithm for feedforward neural network construction
CN104798088A (zh) 分段线性神经元建模
WO2015112261A1 (en) Configuring neural network for low spiking rate
CN105723383A (zh) 因果凸显性时间推断
CN104094293A (zh) 用于尖峰神经计算的方法和装置
US20150095273A1 (en) Automated method for modifying neural dynamics
US9672464B2 (en) Method and apparatus for efficient implementation of common neuron models
CN105659262A (zh) 在尖峰神经网络中使用重放来实现突触学习
TW201602924A (zh) 在尖峰神經網路中藉由全域標量值來調制可塑性
CN105580031A (zh) 在多维范围上对包括可分离子系统的系统的评估
Saini et al. Univariant Time Series forecasting of Agriculture load by using LSTM and GRU RNNs
US9460384B2 (en) Effecting modulation by global scalar values in a spiking neural network
Razmi et al. Neural network based on a genetic algorithm for power system loading margin estimation
Xiao et al. Online sequential extreme learning machine algorithm for better prediction of the real-time electricity price under dynamic environmental changes
CN103548042B (zh) 用于对初级视皮层简单细胞和其他神经电路的输入突触进行无监督训练的方法和设备
Reddy et al. An optimal neural network model for software effort estimation
US20140365413A1 (en) Efficient implementation of neural population diversity in neural system
KR20230090915A (ko) Artificial Neural Network를 이용한 closed-loop 선형 모델 gain update 방법
Velasco et al. Performance analysis of artificial neural networks training algorithms and activation functions in day-ahead base, intermediate, and peak load forecasting
US20150100531A1 (en) Method and apparatus to control and monitor neural model execution remotely
Moberg et al. Bayesian linear regression on deep representations
Gajzler Hybrid advisory systems and the possibilities of it usage in the process of industrial flooring repairs
Popova et al. Neural Network Prediction of the Electricity Consumption of Trolleybus and Tram Transport in Sofia City
Chen et al. A Bridge Health Diagnosis Approach Base on Deep Neural Networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160914

Termination date: 20180921

CF01 Termination of patent right due to non-payment of annual fee