CN106164939A - 尖峰发放深度置信网络(dbn)中的训练、识别、以及生成 - Google Patents

尖峰发放深度置信网络(dbn)中的训练、识别、以及生成 Download PDF

Info

Publication number
CN106164939A
CN106164939A CN201580016027.2A CN201580016027A CN106164939A CN 106164939 A CN106164939 A CN 106164939A CN 201580016027 A CN201580016027 A CN 201580016027A CN 106164939 A CN106164939 A CN 106164939A
Authority
CN
China
Prior art keywords
result set
chain
neuron
node cluster
spike
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580016027.2A
Other languages
English (en)
Inventor
V·S·R·安纳普莱蒂
D·J·朱里安
A·莎拉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN106164939A publication Critical patent/CN106164939A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种分布式计算方法,包括:使用第一处理节点群来在第一计算链中计算第一结果集以及将第一结果集传递给第二处理节点群。该方法还包括在传递第一结果集之后使第一处理节点群进入第一休息状态以及使用第二处理节点群基于第一结果集在第一计算链中计算第二结果集。该方法进一步包括将第二结果集传递给第一处理节点群,在传递第二结果集之后使第二处理节点群进入第二休息状态,以及协调第一计算链。

Description

尖峰发放深度置信网络(DBN)中的训练、识别、以及生成
相关申请的交叉引用
本申请要求于2014年3月26日提交的题为“TRAINING,RECOGNITION,ANDGENERATION IN A SPIKING DEEP BELIEF NETWORK(DBN)(尖峰发放深度置信网络(DBN)中的训练、识别、以及生成)”的美国临时专利申请No.61/970,807的权益,其公开内容通过援引全部明确纳入于此。
背景技术
领域
本公开的某些方面一般涉及计算节点,尤其涉及用于分布式计算的系统和方法。
背景技术
可包括一群互连的人工神经元(即,神经元模型)的人工神经网络是一种计算设备或者表示将由计算设备执行的方法。人工神经网络可具有生物学神经网络中的对应的结构和/或功能。然而,人工神经网络可为其中传统计算技术是麻烦的、不切实际的、或不胜任的某些应用提供创新且有用的计算技术。由于人工神经网络能从观察中推断出功能,因此这样的网络在因任务或数据的复杂度使得通过常规技术来设计该功能较为麻烦的应用中是特别有用的。
概述
在本公开的一方面,给出了一种分布式计算方法。该方法包括使用第一处理节点群来在第一计算链中计算第一结果集以及将第一结果集传递给第二处理节点群。该方法还包括在传递第一结果集之后使第一处理节点群进入第一休息状态以及使用第二处理节点群基于第一结果集在第一计算链中计算第二结果集。该方法进一步包括将第二结果集传递给第一处理节点群,在传递第二结果集之后使第二处理节点群进入第二休息状态,以及协调第一计算链。
在本公开的另一方面,给出了一种用于分布式计算的装置。该装置包括:存储器;以及耦合到存储器的至少一个处理器。该一个或多个处理器被配置成:使用第一处理节点群来在第一计算链中计算第一结果集以及将第一结果集传递给第二处理节点群。(诸)处理器还被配置成在传递第一结果集之后使第一处理节点群进入第一休息状态以及使用第二处理节点群基于第一结果集在第一计算链中计算第二结果集。(诸)处理器还被配置成:将第二结果集传递给第一处理节点群;在传递第二结果集之后使第二处理节点群进入第二休息状态;以及协调第一计算链。
在本公开的又一方面,给出了一种用于分布式计算的设备。该设备包括:用于使用第一处理节点群来在第一计算链中计算第一结果集的装置;以及用于将第一结果集传递给第二处理节点群的装置。该设备还包括:用于在传递第一结果集之后使第一处理节点群进入第一休息状态的装置;以及用于使用第二处理节点群基于第一结果集在第一计算链中计算第二结果集的装置。该设备进一步包括用于将所述第二结果集传递给所述第一处理节点群的装置;用于在传递第二结果集之后使第二处理节点群进入第二休息状态的装置;以及用于协调第一计算链的装置。
在本公开的又一方面,给出了一种用于分布式计算的计算机程序产品。该计算机程序产品包括其上编码有程序代码的非瞬态计算机可读介质。该程序代码包括用于以下操作的程序代码:使用第一处理节点群来在第一计算链中计算第一结果集以及将第一结果集传递给第二处理节点群。该程序代码还包括用于以下操作的程序代码:在传递第一结果集之后使第一处理节点群进入第一休息状态以及使用第二处理节点群基于第一结果集在第一计算链中计算第二结果集。该程序代码进一步包括用于以下操作的程序代码:将第二结果集传递给第一处理节点群;在传递第二结果集之后使第二处理节点群进入第二休息状态;以及协调第一计算链。
这已较宽泛地勾勒出本公开的特征和技术优势以便下面的详细描述可以被更好地理解。本公开的附加特征和优点将在下文描述。本领域技术人员应该领会,本公开可容易地被用作修改或设计用于实施与本公开相同的目的的其他结构的基础。本领域技术人员还应认识到,这样的等效构造并不脱离所附权利要求中所阐述的本公开的教导。被认为是本公开的特性的新颖特征在其组织和操作方法两方面连同进一步的目的和优点在结合附图来考虑以下描述时将被更好地理解。然而,要清楚理解的是,提供每一幅附图均仅用于解说和描述目的,且无意作为对本公开的限定的定义。
附图简述
在结合附图理解下面阐述的详细描述时,本公开的特征、本质和优点将变得更加明显,在附图中,相同附图标记始终作相应标识。
图1解说了根据本公开的某些方面的示例神经元网络。
图2解说了根据本公开的某些方面的计算网络(神经系统或神经网络)的处理单元(神经元)的示例。
图3解说了根据本公开的某些方面的尖峰定时依赖可塑性(STDP)曲线的示例。
图4解说了根据本公开的某些方面的用于定义神经元模型的行为的正态相和负态相的示例。
图5解说了根据本公开的某些方面的使用通用处理器来设计神经网络的示例实现。
图6解说了根据本公开的某些方面的设计其中存储器可以与个体分布式处理单元对接的神经网络的示例实现。
图7解说了根据本公开的某些方面的基于分布式存储器和分布式处理单元来设计神经网络的示例实现。
图8解说了根据本公开的某些方面的神经网络的示例实现。
图9是解说根据本公开的各方面的示例性RBM的框图。
图10是解说根据本公开的各方面的示例性DBN的框图。
图11是解说根据本公开的各方面的RBM中的并行采样链的框图。
图12是解说根据本公开的各方面的具有协调器神经元的RBM的框图。
图13A-F是解说根据本公开的各方面的被训练用于分类、识别、以及生成的示例性DBN的框图。
图14-15解说根据本公开的各方面的用于分布式计算的方法。
详细描述
以下结合附图阐述的详细描述旨在作为各种配置的描述,而无意表示可实践本文中所描述的概念的仅有的配置。本详细描述包括具体细节以便提供对各种概念的透彻理解。然而,对于本领域技术人员将显而易见的是,没有这些具体细节也可实践这些概念。在一些实例中,以框图形式示出众所周知的结构和组件以便避免淡化此类概念。
基于本教导,本领域技术人员应领会,本公开的范围旨在覆盖本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用所阐述的任何数目的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为所阐述的本公开的各个方面的补充或者与之不同的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
措辞“示例性”在本文中用于表示“用作示例、实例或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、系统配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的描述中解说。详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
示例神经系统、训练及操作
图1解说了根据本公开的某些方面的具有多级神经元的示例人工神经系统100。神经系统100可具有神经元级102,该神经元级102通过突触连接网络104(即,前馈连接)来连接到另一神经元级106。为简单起见,图1中仅解说了两级神经元,尽管神经系统中可存在更少或更多级神经元。应注意,一些神经元可通过侧向连接来连接至同层中的其他神经元。此外,一些神经元可通过反馈连接来后向连接至先前层中的神经元。
如图1所解说的,级102中的每一个神经元可以接收可由前级的神经元(未在图1中示出)生成的输入信号108。信号108可表示级102的神经元的输入电流。该电流可在神经元膜上累积以对膜电位进行充电。当膜电位达到其阈值时,该神经元可激发并生成输出尖峰,该输出尖峰将被传递到下一级神经元(例如,级106)。在一些建模办法中,神经元可以连续地向下一级神经元传递信号。该信号通常是膜电位的函数。此类行为可在硬件和/或软件(包括模拟和数字实现,诸如以下所述那些实现)中进行仿真或模拟。
在生物学神经元中,在神经元激发时生成的输出尖峰被称为动作电位。该电信号是相对迅速、瞬态的神经脉冲,其具有约为100mV的振幅和约为1ms的历时。在具有一系列连通的神经元(例如,尖峰从图1中的一级神经元传递至另一级神经元)的神经系统的特定实施例中,每个动作电位都具有基本上相同的振幅和历时,并且因此该信号中的信息可仅由尖峰的频率和数目、或尖峰的时间来表示,而不由振幅来表示。动作电位所携带的信息可由尖峰、发放了尖峰的神经元、以及该尖峰相对于一个或数个其他尖峰的时间来确定。尖峰的重要性可由向各神经元之间的连接所应用的权重来确定,如以下所解释的。
尖峰从一级神经元向另一级神经元的传递可通过突触连接(或简称“突触”)网络104来达成,如图1中所解说的。相对于突触104,级102的神经元可被视为突触前神经元,而级106的神经元可被视为突触后神经元。突触104可接收来自级102的神经元的输出信号(即,尖峰),并根据可调节突触权重来按比例缩放那些信号,其中P是级102的神经元与级106的神经元之间的突触连接的总数,并且i是神经元级的指示符。在图1的示例中,i表示神经元级102并且i+1表示神经元级106。此外,经按比例缩放的信号可被组合以作为级106中每个神经元的输入信号。级106中的每个神经元可基于对应的组合输入信号来生成输出尖峰110。可使用另一突触连接网络(图1中未示出)将这些输出尖峰110传递到另一级神经元。
生物学突触可以仲裁突触后神经元中的兴奋性或抑制性(超极化)动作,并且还可用于放大神经元信号。兴奋性信号使膜电位去极化(即,相对于静息电位增大膜电位)。如果在某个时间段内接收到足够的兴奋性信号以使膜电位去极化到高于阈值,则在突触后神经元中发生动作电位。相反,抑制性信号一般使膜电位超极化(即,降低膜电位)。抑制性信号如果足够强则可抵消掉兴奋性信号之和并阻止膜电位到达阈值。除了抵消掉突触兴奋以外,突触抑制还可对自发活跃神经元施加强力的控制。自发活跃神经元是指在没有进一步输入的情况下(例如,由于其动态或反馈而)发放尖峰的神经元。通过压制这些神经元中的动作电位的自发生成,突触抑制可对神经元中的激发模式进行定形,这一般被称为雕刻。取决于期望的行为,各种突触104可充当兴奋性或抑制性突触的任何组合。
神经系统100可由通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件、由处理器执行的软件模块、或其任何组合来仿真。神经系统100可用在大范围的应用中,诸如图像和模式识别、机器学习、电机控制、及类似应用等。神经系统100中的每一神经元可被实现为神经元电路。被充电至发起输出尖峰的阈值的神经元膜可被实现为例如对流经其的电流进行积分的电容器。
在一方面,电容器作为神经元电路的电流积分器件可被除去,并且可使用较小的忆阻器元件来替代它。这种办法可应用于神经元电路中,以及其中大容量电容器被用作电流积分器的各种其他应用中。另外,每个突触104可基于忆阻器元件来实现,其中突触权重变化可与忆阻器电阻的变化有关。使用纳米特征尺寸的忆阻器,可显著地减小神经元电路和突触的面积,这可使得实现大规模神经系统硬件实现更为切实可行。
对神经系统100进行仿真的神经处理器的功能性可取决于突触连接的权重,这些权重可控制神经元之间的连接的强度。突触权重可存储在非易失性存储器中以在掉电之后保留该处理器的功能性。在一方面,突触权重存储器可实现在与主神经处理器芯片分开的外部芯片上。突触权重存储器可与神经处理器芯片分开地封装成可更换的存储卡。这可向神经处理器提供多种多样的功能性,其中特定功能性可基于当前附连至神经处理器的存储卡中所存储的突触权重。
图2解说了根据本公开的某些方面的计算网络(例如,神经系统或神经网络)的处理单元(例如,神经元或神经元电路)202的示例性示图200。例如,神经元202可对应于来自图1的级102和106的任何神经元。神经元202可接收多个输入信号2041-204N,这些输入信号可以是该神经系统外部的信号、或是由同一神经系统的其他神经元所生成的信号、或这两者。输入信号可以是电流、电导、电压、实数值的和/或复数值的。输入信号可包括具有定点或浮点表示的数值。可通过突触连接将这些输入信号递送到神经元202,突触连接根据可调节突触权重2061-206N(W1-WN)对这些信号进行按比例缩放,其中N可以是神经元202的输入连接总数。
神经元202可组合这些经按比例缩放的输入信号,并且使用组合的经按比例缩放的输入来生成输出信号208(即,信号Y)。输出信号208可以是电流、电导、电压、实数值的和/或复数值的。输出信号可以是具有定点或浮点表示的数值。随后该输出信号208可作为输入信号传递至同一神经系统的其他神经元、或作为输入信号传递至同一神经元202、或作为该神经系统的输出来传递。
处理单元(神经元)202可由电路来仿真,并且其输入和输出连接可由具有突触电路的电连接来仿真。处理单元202及其输入和输出连接也可由软件代码来仿真。处理单元202还可由电路来仿真,而其输入和输出连接可由软件代码来仿真。在一方面,计算网络中的处理单元202可以是模拟电路。在另一方面,处理单元202可以是数字电路。在又一方面,处理单元202可以是具有模拟和数字组件两者的混合信号电路。计算网络可包括任何前述形式的处理单元。使用这样的处理单元的计算网络(神经系统或神经网络)可用在大范围的应用中,诸如图像和模式识别、机器学习、电机控制、及类似应用等。
在神经网络的训练过程期间,突触权重(例如,来自图1的权重和/或来自图2的权重2061-206N)可用随机值来初始化并根据学习规则而被增大或减小。本领域技术人员将领会,学习规则的示例包括但不限于尖峰定时依赖可塑性(STDP)学习规则、Hebb规则、Oja规则、Bienenstock-Copper-Munro(BCM)规则等。在一些方面,这些权重可稳定或收敛至两个值(即,权重的双峰分布)之一。该效应可被用于减少每个突触权重的位数、提高从/向存储突触权重的存储器读取和写入的速度、以及降低突触存储器的功率和/或处理器消耗。
突触类型
在神经网络的硬件和软件模型中,突触相关功能的处理可基于突触类型。突触类型可以是非可塑突触(权重和延迟没有改变)、可塑突触(权重可改变)、结构化延迟可塑突触(权重和延迟可改变)、全可塑突触(权重、延迟和连通性可改变)、以及基于此的变型(例如,延迟可改变,但在权重或连通性方面没有改变)。多种类型的优点在于处理可以被细分。例如,非可塑突触不会要求执行可塑性功能(或等待此类功能完成)。类似地,延迟和权重可塑性可被细分成可一起或分开地、顺序地或并行地运作的操作。不同类型的突触对于适用的每一种不同的可塑性类型可具有不同的查找表或公式以及参数。因此,这些方法将针对该突触的类型来访问相关的表、公式或参数。
还进一步牵涉到以下事实:尖峰定时依赖型结构化可塑性可独立于突触可塑性地来执行。结构化可塑性即使在权重幅值没有改变的情况下(例如,如果权重已达最小或最大值、或者其由于某种其他原因而不被改变)也可被执行,因为结构化可塑性(即,延迟改变的量)可以是pre-post(前-后)尖峰时间差的直接函数。替换地,结构化可塑性可被设为权重变化量的函数或者可基于与权重或权重变化的界限有关的条件来设置。例如,突触延迟可仅在权重变化发生时或者在权重到达0的情况下才改变,但在这些权重为最大值时则不改变。然而,具有独立函数以使得这些过程能被并行化从而减少存储器访问的次数和交叠可能是有利的。
突触可塑性的确定
神经元可塑性(或简称“可塑性”)是大脑中的神经元和神经网络响应于新的信息、感官刺激、发展、损坏、或机能障碍而改变其突触连接和行为的能力。可塑性对于生物学中的学习和记忆、以及对于计算神经元科学和神经网络是重要的。已经研究了各种形式的可塑性,诸如突触可塑性(例如,根据赫布理论)、尖峰定时依赖可塑性(STDP)、非突触可塑性、活动性依赖可塑性、结构化可塑性和自身稳态可塑性。
STDP是调节神经元之间的突触连接的强度的学习过程。连接强度是基于特定神经元的输出与收到输入尖峰(即,动作电位)的相对定时来调节的。在STDP过程下,如果至某个神经元的输入尖峰平均而言倾向于紧挨在该神经元的输出尖峰之前发生,则可发生长期增强(LTP)。于是使得该特定输入在一定程度上更强。另一方面,如果输入尖峰平均而言倾向于紧接在输出尖峰之后发生,则可发生长期抑压(LTD)。于是使得该特定输入在一定程度上更弱,并由此得名“尖峰定时依赖可塑性”。因此,使得可能是突触后神经元兴奋原因的输入甚至在将来作出贡献的可能性更大,而使得不是突触后尖峰的原因的输入在将来作出贡献的可能性更小。该过程继续,直至初始连接集合的子集保留,而所有其他连接的影响减小至无关紧要的水平。
由于神经元一般在其许多输入都在一短时段内发生(即,累积性足以引起输出)时产生输出尖峰,因此通常保留下来的输入子集包括倾向于在时间上相关的那些输入。另外,由于在输出尖峰之前发生的输入被加强,因此提供对相关性的最早充分累积性指示的那些输入将最终变成至该神经元的最后输入。
STDP学习规则可因变于突触前神经元的尖峰时间tpre与突触后神经元的尖峰时间tpost之间的时间差(即,t=tpost-tpre)来有效地适配将该突触前神经元连接到该突触后神经元的突触的突触权重。STDP的典型公式化是若该时间差为正(突触前神经元在突触后神经元之前激发)则增大突触权重(即,增强该突触),以及若该时间差为负(突触后神经元在突触前神经元之前激发)则减小突触权重(即,抑压该突触)。
在STDP过程中,突触权重随时间推移的改变可通常使用指数式衰退来达成,如由下式给出的:
&Delta; w ( t ) = a + e - t / k + + &mu; , t > 0 a - e t / k - , t < 0 , - - - ( 1 )
其中k+和k-τsign(Δt)分别是针对正和负时间差的时间常数,a+和a-是对应的比例缩放幅值,并且μ是可应用于正时间差和/或负时间差的偏移。
图3解说了根据STDP,突触权重作为突触前(presynaptic)和突触后(postsynaptic)尖峰的相对定时的函数而改变的示例性示图300。如果突触前神经元在突触后神经元之前激发,则对应的突触权重可被增大,如曲线图300的部分302中所解说的。该权重增大可被称为该突触的LTP。从曲线图部分302可观察到,LTP的量可因变于突触前和突触后尖峰时间之差而大致呈指数式地下降。相反的激发次序可减小突触权重,如曲线图300的部分304中所解说的,从而导致该突触的LTD。
如图3中的曲线图300中所解说的,可向STDP曲线图的LTP(因果性)部分302应用负偏移μ。x轴的交越点306(y=0)可被配置成与最大时间滞后重合以考虑到来自层i-1的各因果性输入的相关性。在基于帧的输入(即,呈特定历时的包括尖峰或脉冲的帧的形式的输入)的情形中,可计算偏移值μ以反映帧边界。该帧中的第一输入尖峰(脉冲)可被视为要么如直接由突触后电位所建模地随时间衰退,要么在对神经状态的影响的意义上随时间衰退。如果该帧中的第二输入尖峰(脉冲)被视为与特定时间帧相关或有关,则该帧之前和之后的有关时间可通过使STDP曲线的一个或多个部分偏移以使得这些有关时间中的值可以不同(例如,对于大于一个帧为负,而对于小于一个帧为正)来在该时间帧边界处被分开并在可塑性意义上被不同地对待。例如,负偏移μ可被设为偏移LTP以使得曲线实际上在大于帧时间的pre-post时间处变得低于零并且它由此为LTD而非LTP的一部分。
神经元模型及操作
存在一些用于设计有用的尖峰发放神经元模型的一般原理。良好的神经元模型在以下两个计算态相(regime)方面可具有丰富的潜在行为:重合性检测和功能性计算。此外,良好的神经元模型应当具有允许时间编码的两个要素:输入的抵达时间影响输出时间,以及重合性检测能具有窄时间窗。最后,为了在计算上是有吸引力的,良好的神经元模型在连续时间上可具有闭合形式解,并且具有稳定的行为,包括在靠近吸引子和鞍点之处。换言之,有用的神经元模型是可实践且可被用于建模丰富的、现实的且生物学一致的行为并且可被用于对神经电路进行工程设计和反向工程两者的神经元模型。
神经元模型可取决于事件,诸如输入抵达、输出尖峰或其他事件,无论这些事件是内部的还是外部的。为了达成丰富的行为库,能展现复杂行为的状态机可能是期望的。如果事件本身的发生在撇开输入贡献(若有)的情况下能影响状态机并约束该事件之后的动态,则该系统的将来状态并非仅是状态和输入的函数,而是状态、事件和输入的函数。
在一方面,神经元n可被建模为尖峰发放带漏泄积分激发神经元,其膜电压vn(t)由以下动态来支配:
dv n ( t ) d t = &alpha;v n ( t ) + &beta; &Sigma; m w m , n y m ( t - &Delta;t m , n ) , - - - ( 2 )
其中α和β是参数,wm,n是将突触前神经元m连接至突触后神经元n的突触的突触权重,以及ym(t)是神经元m的尖峰发放输出,其可根据Δtm,n被延迟达树突或轴突延迟才抵达神经元n的胞体。
应注意,从建立了对突触后神经元的充分输入的时间直至该突触后神经元实际上激发的时间存在延迟。在动态尖峰发放神经元模型(诸如Izhikevich简单模型)中,如果在去极化阈值vt与峰值尖峰电压vpeak之间有差量,则可引发时间延迟。例如,在该简单模型中,神经元胞体动态可由关于电压和恢复的微分方程对来支配,即:
d v d t = ( k ( v - v t ) ( v - v r ) - u + I ) / C , - - - ( 3 )
d u d t = a ( b ( v - v r ) - u ) , - - - ( 4 )
其中v是膜电位,u是膜恢复变量,k是描述膜电位v的时间尺度的参数,a是描述恢复变量u的时间尺度的参数,b是描述恢复变量u对膜电位v的阈下波动的敏感度的参数,vr是膜静息电位,I是突触电流,以及C是膜的电容。根据该模型,神经元被定义为在v>vpeak时发放尖峰。
Hunzinger Cold模型
Hunzinger Cold神经元模型是能再现丰富多样的各种神经行为的最小双态相尖峰发放线性动态模型。该模型的一维或二维线性动态可具有两个态相,其中时间常数(以及耦合)可取决于态相。在阈下态相中,时间常数(按照惯例为负)表示漏泄通道动态,其一般作用于以生物学一致的线性方式使细胞返回到静息。阈上态相中的时间常数(按照惯例为正)反映抗漏泄通道动态,其一般驱动细胞发放尖峰,而同时在尖峰生成中引发等待时间。
如图4中所解说的,该模型400的动态可被划分成两个(或更多个)态相。这些态相可被称为负态相402(也可互换地称为带漏泄积分激发(LIF)态相,勿与LIF神经元模型混淆)以及正态相404(也可互换地称为抗漏泄积分激发(ALIF)态相,勿与ALIF神经元模型混淆)。在负态相402中,状态在将来事件的时间趋向于静息(v-)。在该负态相中,该模型一般展现出时间输入检测性质及其他阈下行为。在正态相404中,状态趋向于尖峰发放事件(vs)。在该正态相中,该模型展现出计算性质,诸如取决于后续输入事件而引发发放尖峰的等待时间。在事件方面对动态进行公式化以及将动态分成这两个态相是该模型的基础特性。
线性双态相二维动态(对于状态v和u)可按照惯例定义为:
&tau; &rho; d v d t = v + q &rho; - - - ( 5 )
- &tau; u d u d t = u + r , - - - ( 6 )
其中qρ和r是用于耦合的线性变换变量。
符号ρ在本文中用于标示动态态相,在讨论或表达具体态相的关系时,按照惯例对于负态相和正态相分别用符号“-”或“+”来替换符号ρ。
模型状态由膜电位(电压)v和恢复电流u来定义。在基本形式中,态相在本质上是由模型状态来决定的。该精确和通用的定义存在一些细微却重要的方面,但目前考虑该模型在电压v高于阈值(v+)的情况下处于正态相404中,否则处于负态相402中。
态相相关时间常数包括负态相时间常数τ-和正态相时间常数τ+。恢复电流时间常数τu通常是与态相无关的。出于方便起见,负态相时间常数τ-通常被指定为反映衰退的负量,从而用于电压演变的相同表达式可用于正态相,在正态相中指数和τ+将一般为正,正如τu那样。
这两个状态元素的动态可在发生事件之际通过使状态偏离其零倾线(null-cline)的变换来耦合,其中变换变量为:
qρ=-τρβu-vρ (7)
r=δ(v+ε)。 (8)
其中δ、ε、β和v-、v+是参数。vρ的两个值是这两个态相的参考电压的基数。参数v-是负态相的基电压,并且膜电位在负态相中一般将朝向v-衰退。参数v+是正态相的基电压,并且膜电位在正态相中一般将趋向于背离v+
v和u的零倾线分别由变换变量qρ和r的负数给出。参数δ是控制u零倾线的斜率的比例缩放因子。参数ε通常被设为等于-v-。参数β是控制这两个态相中的v零倾线的斜率的电阻值。τρ时间常数参数不仅控制指数式衰退,还单独地控制每个态相中的零倾线斜率。
该模型可被定义为在电压v达到值vS时发放尖峰。随后,状态可在发生复位事件(其可以与尖峰事件完全相同)之际被复位:
v = v ^ - - - - ( 9 )
u=u+Δu, (10)
其中和Δu是参数。复位电压通常被设为v-
依照瞬时耦合的原理,闭合形式解不仅对于状态是可能的(且具有单个指数项),而且对于到达特定状态所需的时间也是可能的。闭合形式状态解为:
v ( t + &Delta; t ) = ( v ( t ) + q &rho; ) e &Delta; t &tau; &rho; - q &rho; - - - ( 11 )
u ( t + &Delta; t ) = ( u ( t ) + r ) e - &Delta; t &tau; u - r . - - - ( 12 )
因此,模型状态可仅在发生事件之际被更新,诸如在输入(突触前尖峰)或输出(突触后尖峰)之际被更新。还可在任何特定时间(无论是否有输入或输出)执行操作。
而且,依照瞬时耦合原理,突触后尖峰的时间可被预计,因此到达特定状态的时间可提前被确定而无需迭代技术或数值方法(例如,欧拉数值方法)。给定了先前电压状态v0,直至到达电压状态vf之前的时间延迟由下式给出:
&Delta; t = &tau; &rho; l o g v f + q &rho; v 0 + q &rho; . - - - ( 13 )
如果尖峰被定义为发生在电压状态v到达vS的时间,则从电压处于给定状态v的时间起测量的直至发生尖峰前的时间量或即相对延迟的闭合形式解为:
其中通常被设为参数v+,但其他变型可以是可能的。
模型动态的以上定义取决于该模型是在正态相还是负态相中。如所提及的,耦合和态相ρ可基于事件来计算。出于状态传播的目的,态相和耦合(变换)变量可基于在上一(先前)事件的时间的状态来定义。出于随后预计尖峰输出时间的目的,态相和耦合变量可基于在下一(当前)事件的时间的状态来定义。
存在对该Cold模型、以及在时间上执行模拟、仿真、或建模的若干可能实现。这包括例如事件-更新、步阶-事件更新、以及步阶-更新模式。事件更新是其中基于事件或“事件更新”(在特定时间)来更新状态的更新。步阶更新是以间隔(例如,1ms)来更新模型的更新。这不一定要求迭代方法或数值方法。通过仅在事件发生于步阶处或步阶间的情况下才更新模型或即通过“步阶-事件更新”,基于事件的实现以有限的时间分辨率在基于步阶的模拟器中实现也是可能的。
分布式计算
本公开的各方面涉及分布式计算。计算可以分布在一处理节点群上,在一些方面,这一处理节点群可被配置成一个或多个计算链。在一个示例性配置中,分布式计算是经由深度置信网络(DBN)来实现的。在一些方面,DBN可通过堆叠多层受限波尔兹曼机(RBM)来获得。RBM是一类可在输入集上学习概率分布的人工神经网络。DBN的底部RBM可充当特征提取器且顶部RBM可充当分类器。
在一些方面,DBN可以使用尖峰发放神经网络(SNN)来构造且可以是二进制的。尖峰发放DBN可通过堆叠尖峰发放RBM来获得。在一个示例性配置中,DBN是通过堆叠作为特征提取器的尖峰发放RBM和作为分类器的尖峰发放RBM来获得的。
DBN可经由训练过程来训练,诸如例如对比散度(CD)。在一些方面,DBN的每一RBM可被分开训练。
给定预训练的RBM,尖峰发放神经网络或其他网络可被配置成执行采样操作。在一个示例性配置中,SNN可以执行Gibbs采样。此外,SNN可以将预训练的RBM的权重值转到SNN。
多个并行采样链(例如,Gibbs采样链)可被包括在运行于尖峰发放神经网络的RBM中。在一些方面,并行采样链的数目可对应于与各链相关联的突触延迟。例如,在一些配置中,并行采样链的数目可对应于值df+dr,其中df和dr分别表示正向和逆向突触延迟。另外,RBM中的采样链中的一者或多者可被选择性地停止或抑制。例如,在一些方面,采样链可经由外部输入来被抑制。在其他方面,采样链可通过在该采样链的各节点之间传递带内消息令牌来被抑制。
作为特征提取器的尖峰发放RBM
经训练的RBM可通过采样(例如,Gibbs采样)被用作生产性模型,用作特征提取器,或用作分类器。
在一种配置中,RBM的各节点可包括神经元。在这一配置中,在RBM被用作特征提取器时,尖峰可在正向传播(即,从可见层到隐藏层)。在一些方面,RBM可被操作,使得尖峰只在正向传播。在这种情况下,可以使用正向突触来操作RBM。此外,在一些方面,从隐藏层神经元到可见层神经元的逆向突触可被禁用。
为计算特征向量,尖峰可通过外在轴突基于输入模式(或特征)x被输入到可见层神经元。例如,如果xi=1,则尖峰可被输入到可见层神经元vi。在某一时间t(即,v(t)=x),这创建可见层神经元中的尖峰模式x。另外,正电流可被输入到偏置神经元v0,以在同一时间t造成偏置神经元尖峰。
这些尖峰可在传播延迟dfτ后被传播到隐藏神经元,从而得到隐藏状态向量h(t +df),这可充当与输入x相对应的特征向量。
作为分类器的尖峰发放RBM
在一些方面,尖峰发放RBM可被配置成分类器。在这一配置中,x可以表示要被分类的输入(或特征)向量且y可以表示二进制索引向量,该二进制索引向量表示类别标记。可通过将输入向量和标记向量附加为v=[x;y]来在联合向量上训练尖峰发放RBM。相应地,隐藏层神经元可以根据训练集来学习输入向量与标记向量之间的相关。
在一些方面,估计给定输入向量x的标记向量y可能是合乎需要的。RBM分类器可通过条件Gibbs采样或其他采样过程来实现这一点。在条件Gibbs采样中,输入神经元状态可被钳位到模式x。在输入模式被钳位到x的情况下,尖峰发放RBM可根据条件概率分布函数P(y|x)生成不同标记向量模式。最频繁的标记向量模式可以提供最佳估计
钳位输入尖峰模式
Gibbs采样链可以在每一df+drτ之后访问并更新输入神经元。然而,出于推断目的,输入尖峰模式可不被更新。相反,在一些方面,输入尖峰模式可根据固定模式x来被钳位。这可通过禁用从隐藏层到输入神经元的逆向突触并通过添加从输入神经元到它们自身的具有延迟df+drτ以及增加的权重Wrec的循环突触来实现。使用这一修改,输入尖峰模式x可被一次性输入到Gibbs采样链。相应地,同一尖峰模式将在每一df+drτ之后重复。
对标记神经元尖峰进行计数
在尖峰发放RBM执行条件Gibbs采样时,对来自每一标记神经元的尖峰的数目进行计数并使用该计数来作出分类决定可能是合乎需要的。计数器神经元可被包括以用于每一标记神经元,每一标记神经元具有从该标记神经元到对应的计数器神经元的突触。在一个示例性方面,该突触可以被配置为具有单位延迟和/或单位权重。
计数器神经元可包括积分和激发神经元,诸如带漏泄积分激发(LIF)神经元、随机带漏泄积分激发(SLIF),等等。当然,这仅仅是示例性的,并且也可使用其他类型的模型神经元。来自标记计数器神经元的尖峰是来自尖峰发放RBM分类器的输出尖峰。在一些配置中,计数器神经元可以被配置为具有阈值(例如,环阈值)。分类所花的时间可根据计数器神经元的阈值来设置。
网络复位
在一些配置中,分布式计算系统可被配置成执行复位操作。例如,尖峰发放神经网络可在输出尖峰从网络分派之后被复位以避免多个输出尖峰。在另一示例中,网络可以在馈送用于分类的新输入向量之前被复位。在又一示例中,网络复位可以通过抑制所有df+dr采样链并复位计数器神经元的膜电位来实现。
图5解说了根据本公开的某些方面的使用通用处理器502进行前述分布式计算的示例实现500。与计算网络(神经网络)相关联的变量(神经信号)、突触权重、系统参数,延迟,和频槽信息可被存储在存储器块504中,而在通用处理器502处执行的指令可从程序存储器506中加载。在本公开的一方面,加载到通用处理器502中的指令可包括用于以下操作的代码:使用第一处理节点群来在第一计算链中计算第一结果集,将第一结果集传递给第二处理节点群,以及在传递第一结果集之后使第一处理节点群进入第一休息状态。该指令还可包括用于以下操作的代码:使用第二组处理节点基于第一结果集在第一计算链中计算第二结果集,将第二结果集传递给所述第一处理节点群,在传递第二结果集之后使第二处理节点群进入第二休息状态,以及协调第一计算链。
图6解说了根据本公开的某些方面的前述分布式计算的示例实现600,其中存储器602可以经由互连网络604与计算网络(神经网络)的个体(分布式)处理单元(神经处理器)606对接。与计算网络(神经网络)相关联的变量(神经信号)、突触权重、系统参数,延迟,频率槽信息可被存储在存储器602中,并且可从存储器602经由互连网络604的(诸)连接被加载到每个处理单元(神经处理器)606中。在本公开的一方面,处理单元606可被配置成:使用第一处理节点群来在第一计算链中计算第一结果集,将第一结果集传递给第二处理节点群,以及在传递第一结果集之后使第一处理节点群进入第一休息状态。处理单元606还可被配置成:使用第二组处理节点基于第一结果集在第一计算链中计算第二结果集,将第二结果集传递给所述第一处理节点群,在传递第二结果集之后使第二处理节点群进入第二休息状态,以及协调第一计算链。
图7解说了前述分布式计算的示例实现700。如图7中所解说的,一个存储器组702可与计算网络(神经网络)的一个处理单元704直接对接。每一个存储器组702可存储与对应的处理单元(神经处理器)704相关联的变量(神经信号)、突触权重、和/或系统参数,延迟,频率槽信息。在本公开的一方面,处理单元704可被配置成:使用第一处理节点群来在第一计算链中计算第一结果集,将第一结果集传递给第二处理节点群,以及在传递第一结果集之后使第一处理节点群进入第一休息状态。处理单元704还可被配置成:使用第二组处理节点基于第一结果集在第一计算链中计算第二结果集,将第二结果集传递给所述第一处理节点群,在传递第二结果集之后使第二处理节点群进入第二休息状态,以及协调第一计算链。
图8解说了根据本公开的某些方面的神经网络800的示例实现。如图8中所解说的,神经网络800可具有多个局部处理单元802,它们可执行本文所描述的方法的各种操作。每个局部处理单元802可包括存储该神经网络的参数的局部状态存储器804和局部参数存储器806。另外,局部处理单元802可具有用于存储局部模型程序的局部(神经元)模型程序(LMP)存储器808、用于存储局部学习程序的局部学习程序(LLP)存储器810、以及局部连接存储器812。此外,如图8中所解说的,每个局部处理单元802可与用于提供针对该局部处理单元的各局部存储器的配置的配置处理器单元814对接,并且与提供各局部处理单元802之间的路由的路由连接处理单元816对接。
在一种配置中,神经元模型被配置成用于分布式计算。神经元模型包括:用于计算第一结果集的装置;用于传递第一结果集的装置;用于进入第一休息状态的装置;用于计算第二结果集的装置;用于传递第二结果集的装置;用于进入第二休息状态的装置;以及协调装置。在一个方面,用于计算第一结果集的装置、用于传递第一结果集的装置、用于进入第一休息状态的装置、用于计算第二结果集的装置、用于传递第二结果集的装置、用于进入第二休息状态的装置、和/或协调装置可以是被配置成执行所叙述的功能的通用处理器502、程序存储器506、存储器块504、存储器602、互连网络604、处理单元606、处理单元704、局部处理单元802、和/或路由连接处理元件816。
在另一种配置中,前述装置可以是被配置成执行由前述装置所叙述的功能的任何模块或任何装置。
根据本公开的某些方面,每一个局部处理单元802可被配置成基于神经网络的期望的一个或多个功能性特征来确定神经网络的参数,以及随着所确定的参数被进一步适配、调谐和更新来使这一个或多个功能性特征朝着期望的功能性特征发展。
图9是解说根据本公开的各方面的示例性RBM 900的框图。参考图9,示例性RBM900包括通常被称为可见(904a和904b)和隐藏(902a、902b以及902c)的两层神经元。虽然在可见层中示出了两个神经元并在隐藏层中示出了三个神经元,但每一层中的神经元的数目仅仅是示例性的且是为了易于解说和解释而非限制。
可见层的神经元中的每一者可通过突触连接906连接到隐藏层中的神经元中的每一者。然而,在这一示例性RBM中,在同一层的神经元之间没有提供连接。
可见和隐藏神经元状态可分别由v∈{0,1}n和h∈{0,1}m表示。在一些方面,RBM900可对可见和隐藏向量的参数联合分布进行建模。例如,RBM 900可以向联合状态向量(v;h)指派概率:
p ( v , h ) = 1 Z e - E ( v , h ) , - - - ( 15 )
其中Z是归一化因子且E(v,h)是能量函数。能量函数E(v,h)可以例如被定义为:
E ( v , h ) = - ( &Sigma; l = 1 n a i v i + &Sigma; j = 1 m b j h j + &Sigma; i = 1 n &Sigma; j = 1 m w i j v i h j ) , - - - ( 16 )
其中wij是权重,且ai和bj是参数。
相应地,RBM 900指派给可见状态向量(v)的概率可通过对所有可能的隐藏状态进行求和来计算:
P ( v ) = 1 Z &Sigma; h e - E ( v , h ) . - - - ( 17 )
对RBM进行训练
在一些方面,训练数据可被用来选择参数a、b以及W。例如,训练数据可被用来选择参数,使得RBM 900向训练数据集中的向量(v)指派更高概率。更具体而言,参数可被选择来增加所有训练向量的对数概率的总和:
在一种配置中,对比散度(CD)可被用来逼近RBM 900的参数。对比散度(也被称为CD-k)是用于逼近解的技术,其中‘k’表示采样链中的“上-下”采样事件的数目。
对于每一训练向量,CD过程更新RBM权重。在一个示例性方面,CD-1可被用来更新RBM权重。可以用训练向量来刺激可见层神经元,使得v(0)=v,其中v是训练向量。基于v(0),二进制隐藏状态向量h(1)可例如如下生成:
P ( h j = 1 | v ) = s i g m a ( b j + &Sigma; i = 1 n w i j v i ) . - - - ( 19 )
基于隐藏状态向量h(1),二进制可见状态向量v(2)可被如下重构:
P ( v i = 1 | h ) = s i g m a ( a i + &Sigma; j = 1 m w i j h j ) . - - - ( 20 )
使用可见状态向量v(2),二进制隐藏状态向量h(3)可根据式19而被生成。
相应地,在这一示例中,权重可被如下更新:
&Delta;W i j = &eta; ( v i ( 0 ) h j ( 1 ) - v i ( 2 ) h j ( 3 ) ) - - - ( 21 )
&Delta;a i = &eta; ( v i ( 0 ) - v i ( 2 ) ) - - - ( 22 )
&Delta;b j = &eta; ( h j ( 1 ) - h j ( 3 ) ) , - - - ( 23 )
其中η是学习速率。在一些方面,权重可通过两次呈现同一图像(例如,v(1)=v(0))并随后应用STDP来学习权重更新来被更新。
在一些方面,RBM 900可被配置用于权重共享。即,可执行对称权重更新,使得正向突触和逆向突触两者都可根据式21来更新。
使用经训练的RBM
一旦RBM 900已被训练,就可有利地以多种方式来应用它。在一个示例性方面,经训练的RBM可被用作用于采样的生产性模型。在一些方面,经训练的RBM可以实现Gibbs采样。当然,这仅是示例性的并且不是限定性的。在Gibbs采样中,根据联合概率分布通过迭代地采样条件分布来生成样本。在这一示例中,经训练的RBM可被用来根据式17的边际分布对可见状态进行采样。
在一种配置中,任意可见状态v(0)被初始化。隐藏和可见状态随后可从式19和20的条件分布中被交替地采样(例如,v(0)→h(1)→v(2)→h(3)→v(4)……)。
经训练的RBM的另一示例性使用是用于特征提取。即,RBM可充当配置成对输入向量x执行特征提取的特征提取器。例如,可见状态向量v可等于x,生成对应的隐藏状态向量h,并使用隐藏状态向量作为特征向量。
隐藏神经元(例如,902a、902b、902c)可以编码可见神经元(例如,904a、904b)之间的相关。另外,与基于训练的原始可见状态向量相比,隐藏状态向量可具有经改进的分类。
在一些配置中,可在从第一RBM(例如,900)获得的特征向量上训练附加RBM,并从而获得具有各种提取级别的特征的分层结构(例如,特征、特征的特征、特征的特征的特征,等等)。RBM可被堆叠以形成神经元网络。经堆叠的RBM可被称为深度置信网络(DBN)。
图10是解说根据本公开的各方面的示例性DBN 1000的框图。如图10所示,DBN1000包括RBM1、RBM2以及RBM3。在这一示例中,RBM(例如,RBM3)可被用作分类器。RBM中的每一者可被单独地训练并随后堆叠以形成DBN 1000。在图10的示例中,要被分类的输入(或特征)向量1002可由x表示。另一方面,y可表示代表类别标记的二进制索引向量。如此,RBM(例如,900)可通过在联合训练向量(即,v=[x;y])上训练而被用作分类器。换言之,输入神经元1002和标记神经元1010可被编组并被称为可见神经元。
可通过将输入神经元1002固定到x并对其余神经元状态进行采样(例如,条件Gibbs采样)来执行推断。在采样进行时,RBM(例如,生成其对以输入神经元状态为条件的标记神经元状态y的估计。
在一些方面,在RBM(例如,RBM1、RBM2以及RBM3)的各层被堆叠以形成DBN 1000时,底部层(例如,RBM1、RBM2)可被用作特征提取器且顶部层(RBM3)可被用作分类器。
在本公开的一些方面,可通过使用尖峰发放神经元来生成RBM。尖峰发放神经元模型和网络模型可被用来根据式(19)和(20)执行采样(例如,Gibbs采样)以生成可见和隐藏状态的样本。
在一种配置中,可通过使n个尖峰发放神经元表示n维可见状态向量v且m个尖峰发放神经元表示m维隐藏状态向量h来获得RBM。可使用正向突触和逆向突触将可见神经元vi耦合到隐藏神经元hj。当然,这两种突触的使用仅是示例性的并且不是限定性的。正向突触将尖峰从可见神经元传播到隐藏神经元,而逆向突触将尖峰从隐藏神经元传播到可见神经元。在一些方面,正向和逆向突触两者的突触权重被设置成相同的值((wij)。
偏置神经元可被加到每一层神经元。偏置神经元可被用来偏置可见和隐藏神经元,使得可见和隐藏神经元以更大/更小概率来发放尖峰。可见层和隐藏层中的偏置神经元可分别由记号v0和h0表示。在一些方面,可以提供从可见层v0的偏置神经元到每一隐藏层神经元hj的具有权重bj的正向突触。逆向突触可以耦合在隐藏层h0中的偏置神经元到每一可见神经元vi之间,具有权重ai。另外,在一些方面,可以在偏置神经元v0和h0之间提供正向和逆向突触,具有权重Wb2b
正向突触可具有延迟df且逆向突触可具有延迟dr。在一种配置中,正向突触的延迟df可等于逆向突触的延迟dr。在一些配置中,正向突触和逆向突触两者可具有单位延迟(即,df=dr=1)。
可见/隐藏神经元
本公开的各方面涉及生成二进制RBM。这可以是有益的,例如因为非二进制值不是使用二进制尖峰来编码的。相反,二进制RBM通过发放尖峰来表示二进制状态1且通过不发放尖峰来表示二进制状态0。
在每一时间步进(τ),隐藏层神经元(例如,902a、902b、902c)可以接收由于可见层中的可见神经元和偏置神经元的尖峰活动而造成的突触电流。类似地,可见神经元接收由于隐藏层中的隐藏层神经元和偏置神经元的尖峰活动而造成的突触电流。记号v(t)和h(t)可表示时间t的可见和隐藏神经元状态向量。
在一种配置中,偏置神经元可一直发放尖峰。在这种配置中,在时间t进入隐藏神经元hj的总体突触电流可由下式给出:
i s = b j + &Sigma; i = 1 n w i j v i ( t - d f ) . - - - ( 24 )
根据式(19),隐藏神经元hj以概率Σ(is)来发放尖峰可能是合乎需要的。这可例如通过使用S形激活函数实现RBM来实现。即,在均匀分布(Unif[0,1])大于sigma(is)时,则隐藏层神经元可发放尖峰。
在一些方面,RBM可被配置为没有任何状态变量(例如,膜电位)。相反,隐藏层神经元可对输入突触电流作出反应而不管过去的活动。
类似地,可见神经元也可被建模来以sigma(is)的概率发放尖峰。换言之,在均匀分布(Unif[0,1])大于sigma(is)时,则可见层神经元可发放尖峰。
具体而言,在时间t进入可见层神经元vi的总体突触电流可由下式给出:
i s = a i + &Sigma; j = 1 m w i j h j ( t - d r ) . - - - ( 25 )
可见层神经元vi可以sigma(is)的概率来发放尖峰,如式(20)所述。
相应地,可见和隐藏神经元状态可被如下更新:
h ( t ) ~ P ( h | v ( t - d f ) ) - - - ( 26 )
v ( t ) ~ P ( h | v ( t - d f ) ) . - - - ( 27 )
如果例如正向突触延迟df和逆向突触延迟dr两者都被设置成单位延迟,则彼此独立的两个并行采样链(例如,Gibbs采样链)可被指定:
v(0)→h(1)→v(2)→h(3)→v(4)...
h(O)→v(1)→h(2)→v(3)→h(4)...
在一些方面,采样链的数目(例如,Gibbs采样链)可依赖于正向和逆向突触延迟,并可通过df+dr(这等于往返延迟)给出:
v ( k ) &RightArrow; h ( k + d f ) &RightArrow; v ( k + d f + d r ) &RightArrow; h ( k + 2 d f + d r ) &RightArrow; v ( k + 2 d f + 2 d r ) ...
其中k是从0到df+dr-1的采样链的索引。
例如,如果正向突触延迟被设置成df=1,且逆向突触延迟被设置成dr=2,则三个采样链可被指定为:
v(0)→h(1)→v(3)→h(4)→v(6)...
v(1)→h(2)→v(4)→h(5)→v(7)...
v(2)→h(3)→v(5)→h(6)→v(8)...
在一些方面,可使用指数函数来逼近上述S形激活函数:
s i g m a ( x ) &ap; 2 a ( x - b ) - 1 , x &le; b 1 - 2 - a ( x - b ) - 1 , x > b - - - ( 28 )
其中a和b是被选择来降低或最小化逼近误差的参数。
在其他方面,可使用高斯噪声来逼近S形激活函数。如上所述,对于给定is,神经元(例如,隐藏神经元或可见神经元)可在概率上以sigma(is)的概率来发放尖峰。代替计算S形函数并使用均匀随机变量,可例如通过将高斯随机变量加到is并将该和与阈值相比较来逼近S形函数:
is+N1(0,a)>b, (29)
其中a和b是被选择来降低逼近误差的参数。
偏置神经元
在一种配置中,与给定一群神经元(例如,神经元层)相关联的偏置神经元可以在每当该群中存在活动时将发放尖峰。这可例如通过使用简单阈值神经元模型并使用具有正权重的正向和逆向突触连接可见和隐藏层中的偏置神经元来实现。因此,在一群神经元(例如,隐藏层神经元)从另一群(例如,可见层神经元)拾取时,对应的偏置神经元也拾取活动并发放尖峰。例如,偏置神经元可以在输入电流(is)大于零的情况下发放尖峰。如此,如果可见层中的偏置神经元在时间t发放尖峰,则隐藏层中的偏置神经元可在时间t+df发放尖峰,这进而使得可见层中的偏置神经元在时间t+df+dr发放尖峰。在另一示例中,每一群神经元中的活动可被跟踪。外部信号可基于所跟踪的活动在适当的时间被发送给偏置神经元以确保偏置神经元发放尖峰。
在一些方面,偏置神经元活动可以通过注入正电流达第一df+drτ来被发起。即,偏置神经元可被设置成拾取彼此的活动。然而,在一些方面,可通过向偏置神经元注入外部电流以开始偏置神经元活动来发起或跳转开始(例如,在没有活动时)活动。对于每一并行链,活动可被分开地跳转开始。因为存在df+dr个并行链,所以可被执行的跳转开始的次数可依赖于要被激活的链的数目。
选择性地抑制采样链
根据本公开的各方面,预训练的RBM可被加载以观察通过采样链(例如,并行Gibbs采样链)演化的状态。出于训练和推断的目的,选择性地停止采样链中的一者或多者可能是合乎需要的。因此,在一种配置中,RBM(例如,900)可被修改成允许选择性地停止一个或多个链。
图11是解说RBM中的并行采样链1100的框图。在一个示例性方面,考虑df=dr=1的情况,其中指定在网络中活动的两个Gibbs采样链(1110和1120)。第一采样链1110是v(0)→h(1)→v(2)→h(3)且第二采样链1120可被指定为h(0)→v(1)→h(2)→v(3)。在一些方面,在第一采样链1110保持活动时停止第二采样链1120可能是合乎需要的。
如果隐藏神经元活动(包括隐藏层中的偏置神经元活动)在时间t=0被停止,则在时间t=1的可见神经元(v(1))可能没有接收任何输入电流。在一个示例中,在sigma(0)=0.5时,可见神经元(例如,v(0))可以0.5的概率来发放尖峰,且新链可被开始或发起。因此,连同停止活动Gibbs采样链的能力,降低新链自己开始的概率也可能是合乎需要的。
在一个示例性配置中,RBM神经元模型可被修改,使得它在输入突触电流等于零的情况下不发放尖峰。即,RBM可被定义,使得在输入电流(is)不等于零且sigma(is)小于均匀分布(Unif[0,1])的情况下输出尖峰。
为选择性地抑制第二链(例如h(0)→v(1)→h(2)→v(3)→h(4)……),可见/隐藏层中的神经元(例如,h(0),v(1))可在适当的时间被停止。停止该链可通过为每一层添加抑制神经元或协调器神经元来达成。即,协调器神经元通过在适当的时间(例如,t=0)注入负电流以抑制该链来与可见/隐藏层神经元群交互。作为示例,这在图12中示出。如在图12中所示,协调器神经元1202a和1202b被添加到RBM 1200的隐藏层和可见层。参考图11的示例,协调器神经元1202a(Inh 1)在时间t=0注入到达隐藏层的负电流,以抑制隐藏层活动h(0)(图11中示出)。类似地,协调器神经元1202b(Inh 0)在时间t=1注入到达可见层的负电流,以抑制可见层活动v(1)(图11中示出)。
在第二链1120上的采样被停止时,第二采样链1120处于休息状态,但采样继续在第一采样链1110上被执行。在一些方面,偏置神经元(例如,偏置0和偏置1)也可被添加到隐藏和可见层以调制尖峰概率。
为进一步辅助抑制采样链,RBM 1200可在抑制神经元和该层中的其他神经元之间配置有具有增加的负权重(-Winh)的突触(例如,1204a、1204b)。在一些方面,也可提供从抑制神经元到该层中的偏置神经元的具有增加的负权重的突触。
在一些方面,抑制权重值(Winh)可被定义,使得sigma(is)基本上接近零,而不管来自其他突触的可能的兴奋性贡献。
移位S形激活函数
在另一配置中,通过移位S形激活函数,第二链可被抑制。可以使用偏移电流(i0)来移位S形激活函数。在这一配置中,在接收到零突触电流时,可见/隐藏神经元没有发放尖峰。因此,偏移值i0可被设置成使得σ(-i0)基本上接近零的值。即,在均匀分布(例如,Unif[0,1])大于经移位的S形激活函数(sigma(is-i0))的情况下,.第二链中的神经元可以发放尖峰。否则,第二链中的神经元将不发放尖峰,
在一些方面,为计入活动Gibbs采样链中的这一移位,同一偏移值(io)可被添加到从偏置神经元到可见/隐藏神经元的突触的权重。因为偏置神经元在活动链中可能总是发放尖峰,所以偏移的效果可被降低。
如上所示,可通过为每一层添加抑制神经元或协调器神经元(例如,1202a、1202b)并使用从抑制神经元到该层中的其他神经元的具有强负权重(-Winh)的突触来达成第二采样链的抑制。
控制通道办法
在又一配置中,通过添加突触(诸如偏置神经元与可见和隐藏神经元之间的协调器突触),第二链(例如,1120)可被抑制。在一些方面,从可见层(v0)中的偏置神经元到隐藏神经元的正向突触可被添加,且从隐藏层(h0)中的偏置神经元到可见神经元的逆向突触可被添加。
在偏置神经元发放尖峰时,协调器突触可将电流注入控制通道(与携带突触电流的正常通道不同的通道)。如此,RBM可被修改成只在它接收到沿控制通道的输入电流(即,ic>0且Unif[0,1]>sigma(is),其中ic表示控制通道中的总电流)时才发放尖峰。
在一些方面,通过在适当的时间禁止可见/隐藏层中的偏置神经元(例如,图12中的偏置0和偏置1),第二链(例如,h(0)→v(1)→h(2)→v(3)→h(4)……)可被选择性地抑制。在这一配置中,采样链可被终止并不可自己开始。为开始新链,正电流可在适当的时间被输入到偏置神经元之一(例如,图12中的偏置0和偏置1)。
图13A-F是解说根据本公开的各方面的被训练用于分类、识别、以及生成的示例性DBN的框图。示例性DBN的诸RBM可按顺序的方式被分开训练。图13A示出了包括可见层和三个隐藏层的DBN 1300。在这一示例中,DBN 1300的每一层配置有SLIF神经元。在每一层处提供协调器神经元,且它被配置成根据设计偏好来停止和/或开始采样链。在图13A中,将可见层连接到隐藏层1的第一RBM是使用诸如例如CD等训练技术来训练的。可见层经由外在轴突(EA)接收可见刺激(例如,尖峰)以发起采样。正向突触配置有单位延迟(D=1),而逆向突触配置有2的延迟(D=2)。在训练期间,协调器神经元(例如,Inh0和Inh1)抑制到DBN的后续层的采样。
在图13B中,将隐藏层1连接到隐藏层2的第二RBM被训练。在一些方面,已被训练的隐藏层1可充当可见层以用于训练隐藏层2。在图13C中,将隐藏层2和标记连接到隐藏层的第三RBM可被训练。经训练的DBN可进而被用于推断,如在图13D中所示。可通过输入刺激轴突来发送输入,并且进而输出被从标记_输出神经元读出。如在图13E中所示,DBN可作为生产性模型来运行。在该生产性模型中,DBN将标记当作通过标记_刺激轴突的输入。对应的所生成的样本可通过在可见神经元中将尖峰模式可视化来被查看。图13F解说示例性DBN1350。如在图13F中所示,图13A-E中的突触连接的覆盖被包括在示例性DBN 1350中。因而,示例性DBN 1350可被配置为通过将某些连接关闭来用于特定操作模式(例如,手写分类),如在图13A-E中所示。
图14解说了用于分布式计算的方法1400。在框1402,神经元模型将协调器节点连接到处理节点。在框1404,神经元模型使用协调器节点来控制计算的开始和停止。此外,在框1406,神经元模型在各处理节点群之间传递中间计算。
图15解说了用于分布式计算的方法1500。在框1502,神经元模型使用第一处理节点群来在第一计算链中计算第一结果集。第一计算链可包括例如SNN、DBN、或深度波尔兹曼机。第一计算链(例如,DBN)可经由STDP或其他学习技术来被训练。
在框1504,神经元模型将第一结果集传递给第二处理节点群。在框1506,神经元模型在传递第一结果集之后使第一处理节点群进入第一休息状态。在一些方面,第一休息状态可包括被用于并行地操作多个持久链的突触延迟和增加的突触延迟以及在各并行链上被取平均的权重更新。
在框1508,神经元模型使用第二处理节点集基于第一结果集在第一计算链中计算第二结果集。在框1510,神经元模型将第二结果集传递给第一处理节点群。在框1512,神经元模型在传递第二结果集之后使第二处理节点群进入第二休息状态。
在框1514,神经元模型协调第一计算链。协调可经由外部输入来进行,它可以是兴奋性或抑制性的。协调也可通过传递带内消息令牌来进行。
在一些方面,处理节点可包括神经元。神经元可以是LIF神经元、SLIF神经元、或其他类型的模型神经元。
在一些方面,协调第一计算链可包括控制各处理节点群之间的处理结果的定时。在其他方面,协调可包括控制休息状态的定时。在又一些方面,协调包括控制计算结果集的定时。
在一些方面,该方法可进一步包括由第一处理节点群在第一休息状态期间执行附加计算,从而创建并行计算链。并行计算链可包括持久链和数据链。隐藏和可见神经元可具有持久链和数据链之间的交替安排,以使用持久对比散度(CD)或其他学习技术来学习。
在一些方面,该方法可进一步包括经由带内消息令牌传递或外部输入来使用协调将第一计算链复位。
在一些方面,至少一个内部节点状态或节点尖峰可以触发一轮计算的开始和/或停止。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可包括各种硬件和/或软件组件和/或模块,包括但不限于电路、专用集成电路(ASIC)、或处理器。一般而言,在附图中有解说的操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。虽然参考尖峰神经网络描述了本公开,但本公开同样适用于具有自主神经元的任何分布式实现。
如本文所使用的,术语“确定”涵盖各种各样的动作。例如,“确定”可包括演算、计算、处理、推导、研究、查找(例如,在表、数据库或其他数据结构中查找)、探知及诸如此类。另外,“确定”可包括接收(例如接收信息)、访问(例如访问存储器中的数据)、及类似动作。而且,“确定”可包括解析、选择、选取、确立及类似动作。
如本文所使用的,引述一列项目“中的至少一个”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c、以及a-b-c。
结合本公开所描述的各种解说性逻辑框、模块、以及电路可用设计成执行本文所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列信号(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件或其任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何市售的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合(例如DSP与微处理器的组合、多个微处理器、与DSP核协作的一个或多个微处理器、或任何其他此类配置)。
结合本公开所描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中体现。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、寄存器、硬盘、可移动盘、CD-ROM,等等。软件模块可包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合到处理器以使得该处理器能从/向该存储介质读写信息。在替换方案中,存储介质可以被整合到处理器。
本文所公开的方法包括用于实现所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件或其任何组合中实现。如果以硬件实现,则示例硬件配置可包括设备中的处理系统。处理系统可以用总线架构来实现。取决于处理系统的具体应用和整体设计约束,总线可包括任何数目的互连总线和桥接器。总线可将包括处理器、机器可读介质、以及总线接口的各种电路链接在一起。总线接口可用于尤其将网络适配器等经由总线连接至处理系统。网络适配器可用于实现信号处理功能。对于某些方面,用户接口(例如,按键板、显示器、鼠标、操纵杆,等等)也可以被连接到总线。总线还可以链接各种其他电路,诸如定时源、外围设备、稳压器、功率管理电路以及类似电路,它们在本领域中是众所周知的,因此将不再进一步描述。
处理器可负责管理总线和一般处理,包括执行存储在机器可读介质上的软件。处理器可用一个或多个通用和/或专用处理器来实现。示例包括微处理器、微控制器、DSP处理器、以及其他能执行软件的电路系统。软件应当被宽泛地解释成意指指令、数据、或其任何组合,无论是被称作软件、固件、中间件、微代码、硬件描述语言、或其他。作为示例,机器可读介质可包括随机存取存储器(RAM)、闪存、只读存储器(ROM)、可编程只读存储器(PROM)、可擦式可编程只读存储器(EPROM)、电可擦式可编程只读存储器(EEPROM)、寄存器、磁盘、光盘、硬驱动器、或者任何其他合适的存储介质、或其任何组合。机器可读介质可被实施在计算机程序产品中。该计算机程序产品可以包括包装材料。
在硬件实现中,机器可读介质可以是处理系统中与处理器分开的一部分。然而,如本领域技术人员将容易领会的,机器可读介质或其任何部分可在处理系统外部。作为示例,机器可读介质可包括传输线、由数据调制的载波、和/或与设备分开的计算机产品,所有这些都可由处理器通过总线接口来访问。替换地或补充地,机器可读介质或其任何部分可被集成到处理器中,诸如高速缓存和/或通用寄存器文件可能就是这种情形。虽然所讨论的各种组件可被描述为具有特定位置,诸如局部组件,但它们也可按各种方式来配置,诸如某些组件被配置成分布式计算系统的一部分。
处理系统可以被配置为通用处理系统,该通用处理系统具有一个或多个提供处理器功能性的微处理器、以及提供机器可读介质中的至少一部分的外部存储器,它们都通过外部总线架构与其他支持电路系统链接在一起。替换地,该处理系统可以包括一个或多个神经元形态处理器以用于实现本文所述的神经元模型和神经系统模型。作为另一替换方案,处理系统可以用带有集成在单块芯片中的处理器、总线接口、用户接口、支持电路系统、和至少一部分机器可读介质的专用集成电路(ASIC)来实现,或者用一个或多个现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、控制器、状态机、门控逻辑、分立硬件组件、或者任何其他合适的电路系统、或者能执行本公开通篇所描述的各种功能性的电路的任何组合来实现。取决于具体应用和加诸于整体系统上的总设计约束,本领域技术人员将认识到如何最佳地实现关于处理系统所描述的功能性。
机器可读介质可包括数个软件模块。这些软件模块包括当由处理器执行时使处理系统执行各种功能的指令。这些软件模块可包括传送模块和接收模块。每个软件模块可以驻留在单个存储设备中或者跨多个存储设备分布。作为示例,当触发事件发生时,可以从硬驱动器中将软件模块加载到RAM中。在软件模块执行期间,处理器可以将一些指令加载到高速缓存中以提高访问速度。随后可将一个或多个高速缓存行加载到通用寄存器文件中以供处理器执行。在以下述及软件模块的功能性时,将理解此类功能性是在处理器执行来自该软件模块的指令时由该处理器来实现的。此外,应领会,本公开的各方面产生对处理器、计算机、机器或实现此类方面的其它系统的机能的改进。
如果以软件实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,此类计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁存储设备、或能用于携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其他介质。另外,任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可包括瞬态计算机可读介质(例如,信号)。上述的组合应当也被包括在计算机可读介质的范围内。
因此,某些方面可包括用于执行本文中给出的操作的计算机程序产品。例如,此类计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
此外,应当领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由用户终端和/或基站在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文所述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘等物理存储介质等)来提供,以使得一旦将该存储装置耦合至或提供给用户终端和/或基站,该设备就能获得各种方法。此外,可利用适于向设备提供本文所描述的方法和技术的任何其他合适的技术。
将理解,权利要求并不被限定于以上所解说的精确配置和组件。可在以上所描述的方法和装置的布局、操作和细节上作出各种改动、更换和变形而不会脱离权利要求的范围。

Claims (34)

1.一种分布式计算方法,包括:
使用第一处理节点群来在第一计算链中计算第一结果集;
将所述第一结果集传递给第二处理节点群;
在传递所述第一结果集之后使所述第一处理节点群进入第一休息状态;
使用所述第二处理节点群至少部分地基于所述第一结果集在所述第一计算链中计算第二结果集;
将所述第二结果集传递给所述第一处理节点群;
在传递所述第二结果集之后使所述第二处理节点群进入第二休息状态;以及
协调所述第一计算链。
2.如权利要求1所述的方法,其特征在于,所述方法进一步包括由所述第一处理节点群在所述第一休息状态期间执行附加计算,从而创建并行计算链。
3.如权利要求2所述的方法,其特征在于,所述并行计算链包括持久链和数据链,其中隐藏和可见神经元在所述持久链和所述数据链之间交替,以使用持久对比散度(CD)来学习。
4.如权利要求1所述的方法,其特征在于,所述第一休息状态包括被用于并行地操作多个持久链的突触延迟和增加的突触延迟以及所述并行链上被取平均的权重更新。
5.如权利要求1所述的方法,其特征在于,所述协调包括控制以下定时:传递所述第一和第二结果集的定时、所述第一休息状态的定时、所述第二休息状态的定时、计算所述第一结果集的定时或计算所述第二结果集的定时。
6.如权利要求1所述的方法,其特征在于,所述协调是经由外部输入来进行的。
7.如权利要求6所述的方法,其特征在于,所述外部输入是兴奋性的。
8.如权利要求6所述的方法,其特征在于,所述外部输入是抑制性的。
9.如权利要求1所述的方法,其特征在于,所述协调是经由带内消息令牌传递来进行的。
10.如权利要求1所述的方法,其特征在于,所述方法进一步包括经由带内消息令牌传递或外部输入来使用协调将所述第一计算链复位。
11.如权利要求1所述的方法,其特征在于,所述第一处理节点群和所述第二处理节点群包括神经元。
12.如权利要求1所述的方法,其特征在于,所述第一计算链包括尖峰发放神经网络。
13.如权利要求1所述的方法,其特征在于,所述第一计算链包括深度置信网络(DBN)。
14.如权利要求13所述的方法,其特征在于,所述DBN的各层是使用尖峰定时依赖可塑性(STDP)来训练的。
15.如权利要求1所述的方法,其特征在于,所述第一计算链包括深度波尔兹曼机。
16.如权利要求1所述的方法,其特征在于,至少一个内部节点状态或节点尖峰触发一轮计算的开始或停止。
17.一种用于分布式计算的装置,包括:
存储器;以及
耦合至所述存储器的至少一个处理器,所述至少一个处理器被配置成:
使用第一处理节点群来在第一计算链中计算第一结果集;
将所述第一结果集传递给第二处理节点群;
在传递所述第一结果集之后使所述第一处理节点群进入第一休息状态;
使用所述第二处理节点群至少部分地基于所述第一结果集在所述第一计算链中计算第二结果集;
将所述第二结果集传递给所述第一处理节点群;
在传递所述第二结果集之后使所述第二处理节点群进入第二休息状态;以及
协调所述第一计算链。
18.如权利要求17所述的装置,其特征在于,所述至少一个处理器被进一步配置成由所述第一处理节点群在所述第一休息状态期间执行附加计算,从而创建并行计算链。
19.如权利要求18所述的装置,其特征在于,所述并行计算链包括持久链和数据链,其中隐藏和可见神经元在所述持久链和所述数据链之间交替,以使用持久对比散度(CD)来学习。
20.如权利要求17所述的装置,其特征在于,所述第一休息状态包括被用于并行地操作多个持久链的突触延迟和增加的突触延迟以及在所述各并行链上被取平均的权重更新。
21.如权利要求17所述的装置,其特征在于,所述至少一个处理器被进一步配置成通过控制以下定时来协调所述第一计算链:传递所述第一结果集和所述第二结果集的定时、所述第一休息状态的定时、所述第二休息状态的定时、计算所述第一结果集的定时或计算所述第二结果集的定时。
22.如权利要求17所述的装置,其特征在于,所述至少一个处理器被进一步配置成经由外部输入来协调所述第一计算链。
23.如权利要求22所述的装置,其特征在于,所述外部输入是兴奋性的。
24.如权利要求22所述的装置,其特征在于,所述外部输入是抑制性的。
25.如权利要求17所述的装置,其特征在于,所述至少一个处理器被进一步配置成经由带内消息令牌传递来协调所述第一计算链。
26.如权利要求17所述的装置,其特征在于,所述至少一个处理器被进一步配置成经由带内消息令牌传递或外部输入来使用协调将所述第一计算链复位。
27.如权利要求17所述的装置,其特征在于,所述第一处理节点群和所述第二处理节点群包括神经元。
28.如权利要求17所述的装置,其特征在于,所述第一计算链包括尖峰发放神经网络。
29.如权利要求17所述的装置,其特征在于,所述第一计算链包括深度置信网络(DBN)。
30.如权利要求29所述的装置,其特征在于,所述DBN的各层是使用尖峰定时依赖可塑性(STDP)来训练的。
31.如权利要求17所述的装置,其特征在于,所述第一计算链包括深度波尔兹曼机。
32.如权利要求17所述的装置,其特征在于,所述至少一个处理器被进一步配置成至少部分地基于至少一个内部节点状态或节点尖峰来触发一轮计算的开始或停止。
33.一种用于分布式计算的设备,包括:
用于使用第一处理节点群来在第一计算链中计算第一结果集的装置;
用于将所述第一结果集传递给第二处理节点群的装置;
用于在传递所述第一结果集之后使所述第一处理节点群进入第一休息状态的装置;
用于使用所述第二处理节点群至少部分地基于所述第一结果集在所述第一计算链中计算第二结果集的装置;
用于将所述第二结果集传递给所述第一处理节点群的装置;
用于在传递所述第二结果集之后使所述第二处理节点群进入第二休息状态的装置;以及
用于协调所述第一计算链的装置。
34.一种用于分布式计算的计算机程序产品,包括:
其上编码有程序代码的非瞬态计算机可读介质,所述程序代码包括:
用于使用第一处理节点群来在第一计算链中计算第一结果集的程序代码;
用于将所述第一结果集传递给第二处理节点群的程序代码;
用于在传递所述第一结果集之后使所述第一处理节点群进入第一休息状态的程序代码;
用于使用所述第二处理节点群至少部分地基于所述第一结果集在所述第一计算链中计算第二结果集的程序代码;
用于将所述第二结果集传递给所述第一处理节点群的程序代码;
用于在传递所述第二结果集之后使所述第二处理节点群进入第二休息状态的程序代码;以及
用于协调所述第一计算链的程序代码。
CN201580016027.2A 2014-03-26 2015-03-17 尖峰发放深度置信网络(dbn)中的训练、识别、以及生成 Pending CN106164939A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461970807P 2014-03-26 2014-03-26
US61/970,807 2014-03-26
US14/659,516 2015-03-16
US14/659,516 US20150278680A1 (en) 2014-03-26 2015-03-16 Training, recognition, and generation in a spiking deep belief network (dbn)
PCT/US2015/021092 WO2015148190A2 (en) 2014-03-26 2015-03-17 Training, recognition, and generation in a spiking deep belief network (dbn)

Publications (1)

Publication Number Publication Date
CN106164939A true CN106164939A (zh) 2016-11-23

Family

ID=54190874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580016027.2A Pending CN106164939A (zh) 2014-03-26 2015-03-17 尖峰发放深度置信网络(dbn)中的训练、识别、以及生成

Country Status (7)

Country Link
US (1) US20150278680A1 (zh)
EP (1) EP3123405A2 (zh)
JP (1) JP2017513127A (zh)
KR (1) KR20160138002A (zh)
CN (1) CN106164939A (zh)
BR (1) BR112016022268A2 (zh)
WO (1) WO2015148190A2 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304912A (zh) * 2017-12-29 2018-07-20 北京理工大学 一种运用抑制信号实现脉冲神经网络监督学习的系统和方法
US11008361B2 (en) 2017-04-18 2021-05-18 Zhejiang Palo Alto Pharmaceuticals, Inc. Liver-specific delivery-based anti-hepatitis C prodrug nucleoside cyclo-phosphate compound and uses thereof
CN115169547A (zh) * 2022-09-09 2022-10-11 深圳时识科技有限公司 神经形态芯片及电子设备

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160034812A1 (en) * 2014-07-31 2016-02-04 Qualcomm Incorporated Long short-term memory using a spiking neural network
US10795935B2 (en) 2016-02-05 2020-10-06 Sas Institute Inc. Automated generation of job flow definitions
US10650046B2 (en) 2016-02-05 2020-05-12 Sas Institute Inc. Many task computing with distributed file system
US10642896B2 (en) 2016-02-05 2020-05-05 Sas Institute Inc. Handling of data sets during execution of task routines of multiple languages
US10650045B2 (en) * 2016-02-05 2020-05-12 Sas Institute Inc. Staged training of neural networks for improved time series prediction performance
US11157798B2 (en) * 2016-02-12 2021-10-26 Brainchip, Inc. Intelligent autonomous feature extraction system using two hardware spiking neutral networks with spike timing dependent plasticity
US11741352B2 (en) * 2016-08-22 2023-08-29 International Business Machines Corporation Area and power efficient implementation of resistive processing units using complementary metal oxide semiconductor technology
DE102016216944A1 (de) * 2016-09-07 2018-03-08 Robert Bosch Gmbh Verfahren zur Berechnung einer Neuronenschicht eines mehrschichtigen Perzeptronenmodells mit vereinfachter Aktivierungsfunktion
CN106570565A (zh) * 2016-11-21 2017-04-19 中国科学院计算机网络信息中心 一种面向大数据的深度学习方法及系统
USD898059S1 (en) 2017-02-06 2020-10-06 Sas Institute Inc. Display screen or portion thereof with graphical user interface
US11151441B2 (en) 2017-02-08 2021-10-19 Brainchip, Inc. System and method for spontaneous machine learning and feature extraction
USD898060S1 (en) 2017-06-05 2020-10-06 Sas Institute Inc. Display screen or portion thereof with graphical user interface
US11301753B2 (en) 2017-11-06 2022-04-12 Samsung Electronics Co., Ltd. Neuron circuit, system, and method with synapse weight learning
US11200484B2 (en) * 2018-09-06 2021-12-14 International Business Machines Corporation Probability propagation over factor graphs
USD919656S1 (en) * 2019-10-04 2021-05-18 Butterfly Network, Inc. Display panel or portion thereof with graphical user interface
CN111368647B (zh) * 2020-02-14 2023-02-17 中北大学 一种基于dbn分布集成与冲突证据合成的遥感地物识别方法
SE544261C2 (en) 2020-06-16 2022-03-15 IntuiCell AB A computer-implemented or hardware-implemented method of entity identification, a computer program product and an apparatus for entity identification
TWI725914B (zh) * 2020-08-31 2021-04-21 國立清華大學 可轉換邏輯運算之仿神經型態系統及其方法
SE2250135A1 (en) * 2022-02-11 2023-08-12 IntuiCell AB A data processing system comprising first and second networks, a second network connectable to a first network, a method, and a computer program product therefor
WO2023163637A1 (en) * 2022-02-23 2023-08-31 IntuiCell AB A data processing system comprising a network, a method, and a computer program product
SE2250397A1 (en) * 2022-02-23 2023-08-24 IntuiCell AB A data processing system comprising a network, a method, and a computer program product

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630024A (en) * 1994-01-19 1997-05-13 Nippon Telegraph And Telephone Corporation Method and apparatus for processing using neural network with reduced calculation amount
US20050231855A1 (en) * 2004-04-06 2005-10-20 Availableip.Com NANO-electronic memory array
US20110016071A1 (en) * 2009-07-20 2011-01-20 Guillen Marcos E Method for efficiently simulating the information processing in cells and tissues of the nervous system with a temporal series compressed encoding neural network
US20130170036A1 (en) * 2012-01-02 2013-07-04 Chung Jen Chang Lens cap

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4208485B2 (ja) * 2001-05-31 2009-01-14 キヤノン株式会社 パルス信号処理回路、並列処理回路、パターン認識装置、及び画像入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630024A (en) * 1994-01-19 1997-05-13 Nippon Telegraph And Telephone Corporation Method and apparatus for processing using neural network with reduced calculation amount
US20050231855A1 (en) * 2004-04-06 2005-10-20 Availableip.Com NANO-electronic memory array
US20110016071A1 (en) * 2009-07-20 2011-01-20 Guillen Marcos E Method for efficiently simulating the information processing in cells and tissues of the nervous system with a temporal series compressed encoding neural network
US20130170036A1 (en) * 2012-01-02 2013-07-04 Chung Jen Chang Lens cap

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
EMRE NEFTCI等: "Event-driven contrastive divergence for spiking neuromorphic systems", 《FRONTIERS IN NEUROSCIENCE》 *
MORRISON等: "Phenomenological models of synaptic plasticity based on spike timing", 《BIOLOGICAL CYBERNETICS》 *
PETER O’CONNOR等: "Real-time classification and sensor fusion with a spiking deep belief network", 《FRONTIERS IN NEUROSCIENCE》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11008361B2 (en) 2017-04-18 2021-05-18 Zhejiang Palo Alto Pharmaceuticals, Inc. Liver-specific delivery-based anti-hepatitis C prodrug nucleoside cyclo-phosphate compound and uses thereof
CN108304912A (zh) * 2017-12-29 2018-07-20 北京理工大学 一种运用抑制信号实现脉冲神经网络监督学习的系统和方法
CN108304912B (zh) * 2017-12-29 2020-12-29 北京理工大学 一种运用抑制信号实现脉冲神经网络监督学习的系统和方法
CN115169547A (zh) * 2022-09-09 2022-10-11 深圳时识科技有限公司 神经形态芯片及电子设备

Also Published As

Publication number Publication date
EP3123405A2 (en) 2017-02-01
US20150278680A1 (en) 2015-10-01
WO2015148190A3 (en) 2015-12-10
JP2017513127A (ja) 2017-05-25
WO2015148190A2 (en) 2015-10-01
KR20160138002A (ko) 2016-12-02
BR112016022268A2 (pt) 2017-08-15

Similar Documents

Publication Publication Date Title
CN106164939A (zh) 尖峰发放深度置信网络(dbn)中的训练、识别、以及生成
CN106663222A (zh) 神经网络中的分解卷积操作
CN106030622A (zh) 原位神经网络协同处理
CN105874477A (zh) 配置稀疏神经网络
CN106462797A (zh) 共同特征上的定制分类器
CN105684002B (zh) 用于使用监督式学习对种类加标签的方法和装置
CN105637541A (zh) 用于神经模拟器的共享存储器架构
CN107077637A (zh) 神经网络中的差分编码
CN106133755A (zh) 使用尖峰发放神经网络的图像的不变对象表示
CN106030620B (zh) 用于随机尖峰贝叶斯网络的基于事件的推断和学习
CN107077636A (zh) Cold神经元尖峰定时反向传播
CN106663221A (zh) 由知识图谱偏置的数据分类
CN105981055A (zh) 神经网络对当前计算资源的自适应
CN106164940A (zh) 在尖峰神经网络中通过全局标量值来调制可塑性
CN106104577A (zh) 照片管理
CN105580031B (zh) 在多维范围上对包括可分离子系统的系统的评估
CN106687995A (zh) 分布式模型学习
CN105723383A (zh) 因果凸显性时间推断
CN105229675A (zh) 尖峰网络的高效硬件实现
CN105830036A (zh) 神经看门狗
CN105934766A (zh) 用阴影网络来监视神经网络
CN105637539A (zh) 用于修改神经动态的自动化方法
CN106796667A (zh) 动态空间目标选择
CN106068519A (zh) 用于共用神经元模型的高效实现的方法和装置
CN106104585A (zh) 经由阈下调制的模拟信号重构和识别

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161123

WD01 Invention patent application deemed withdrawn after publication