CN105930899B - 用于神经时间编码、学习和识别的方法和装置 - Google Patents

用于神经时间编码、学习和识别的方法和装置 Download PDF

Info

Publication number
CN105930899B
CN105930899B CN201610230617.1A CN201610230617A CN105930899B CN 105930899 B CN105930899 B CN 105930899B CN 201610230617 A CN201610230617 A CN 201610230617A CN 105930899 B CN105930899 B CN 105930899B
Authority
CN
China
Prior art keywords
neuron
input
branch
input pattern
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610230617.1A
Other languages
English (en)
Other versions
CN105930899A (zh
Inventor
V·H·陈
J·F·安齐热
B·F·贝哈巴迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN105930899A publication Critical patent/CN105930899A/zh
Application granted granted Critical
Publication of CN105930899B publication Critical patent/CN105930899B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Abstract

本发明的特定实施例支持用于神经时间编码、学习和识别的技术。还提出了一种用于大或长的空间‑时间模式的神经编码的方法。此外,本发明中公开了使用时间和速率编码的通用化的神经编码和学习。

Description

用于神经时间编码、学习和识别的方法和装置
本申请是申请日为2012年8月14日、申请号为201280039570.0的发明专利申请的分案申请。
技术领域
本发明的特定实施例总体上涉及神经系统工程,且更具体地,涉及一种神经时间编码(neural temporal coding)、学习和识别的方法和装置。
背景技术
神经系统(neural system)中的神经元(neuron)可以使用时控锋电位(timedspike)形式的所谓的时间码来在时间上传送信息。因此,编码和解码的方法及学习这种时间信息的方法是主要关注的。
具体地,希望与其它时间模式方法形成对比地辨别时间模式,而不仅仅是输入或输入的顺序相一致。本发明所提供的方法是仿生性的/一致性的,但降低了复杂性,并能够编码、解码、识别和学习时间锋电位信号模式。
发明内容
本发明的特定实施例提供了一种用于神经时间编码的方法。所述方法总体上包括使用相对延迟线提取(relative delay line abstraction),其以时间延迟来对到神经元电路中的一个或多个突触(synaptic)输入进行延迟;基于所述神经元电路的经加权和延迟的突触输入,应用动态锋电位形成模型来确定所述神经元电路的锋电位形成行为;及按照无监督学习规则,根据所述神经元电路的锋电位形成与经延迟的突触输入的时序关系,来调整与所述突触输入相关联的权重。
本发明的特定实施例提供了一种用于神经时间编码的装置。所述装置总体上包括:第一电路,被配置为使用相对延迟线提取,其以时间延迟来对到神经元电路中的一个或多个突触输入进行延迟;第二电路,被配置为基于所述神经元电路的经加权和延迟的突触输入,应用动态锋电位形成模型来确定所述神经元电路的锋电位形成行为;及第三电路,被配置为按照无监督学习规则,根据所述神经元电路的锋电位形成与经延迟的突触输入的时序关系,来调整与所述突触输入相关联的权重。
本发明的特定实施例提供了一种用于神经时间编码的装置。所述装置总体上包括:用于使用相对延迟线提取的模块,所述相对延迟线提取以时间延迟来对到神经元电路中的一个或多个突触输入进行延迟;用于基于所述神经元电路的经加权和延迟的突触输入,应用动态锋电位形成模型来确定所述神经元电路的锋电位形成行为的模块;及用于按照无监督学习规则,根据所述神经元电路的锋电位形成与经延迟的突触输入的时序关系,来调整与所述突触输入相关联的权重的模块。
本发明的特定实施例提供了一种用于神经时间编码的计算机程序产品。所述计算机程序产品总体上包括计算机可读介质,所述计算机可读介质包括代码,用于使用相对延迟线提取,其以时间延迟来对到神经元电路中的一个或多个突触输入进行延迟;基于所述神经元电路的经加权和延迟的突触输入,应用动态锋电位形成模型来确定所述神经元电路的锋电位形成行为;及按照无监督学习规则,根据所述神经元电路的锋电位形成与经延迟的突触输入的时序关系,来调整与所述突触输入相关联的权重。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的方法。所述方法总体上包括:将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路;及将所述多层神经网络中的第一层神经元电路与输入模式的第一分部进行匹配,其中,作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放(firing)的组合进行匹配。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的装置。所述装置总体上包括:第一电路,被配置为将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路;及第二电路,被配置为将所述多层神经网络中的第一层神经元电路与输入模式的第一分部进行匹配,其中,作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的装置。所述装置总体上包括:用于将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路的模块;及用于将所述多层神经网络中的第一层神经元电路与输入模式的第一分部进行匹配的模块,其中,作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的计算机程序产品。所述计算机程序产品总体上包括计算机可读介质,所述计算机可读介质包括代码,用于将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路;及将所述多层神经网络中的第一层神经元电路和输入模式的第一分部进行匹配,其中,作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的方法。所述方法总体上包括:通过具有相关延迟的突触,将突触输入提供到神经元电路中,其中,所述突触输入中的至少一个与所述突触中自连接的至少一个突触相关联,所述突触属于多个集合,及所述多个集合中的至少一个集合包括延迟组合,用以匹配不包含递归型自连接的所述突触输入的模式的第一部分。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的装置。所述装置总体上包括:第一电路,被配置为通过具有相关延迟的突触,将突触输入提供到神经元电路中,其中,所述突触输入中的至少一个与所述突触中自连接的至少一个突触相关联,所述突触属于多个集合,及所述多个集合中的至少一个集合包括延迟组合,用以匹配不包含递归型自连接的所述突触输入的模式的第一部分。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的装置。所述装置总体上包括:用于通过具有相关延迟的突触,将突触输入提供到神经元电路中的模块,其中,所述突触输入中的至少一个与所述突触中自连接的至少一个突触相关联,所述突触属于多个集合,及所述多个集合中的至少一个集合包括延迟组合,用以匹配不包含递归型自连接的所述突触输入的模式的第一部分。
本发明的特定实施例提供了一种用于长且大的空间-时间模式的神经时间编码的计算机程序产品。所述计算机程序产品总体上包括计算机可读介质,所述计算机可读介质包括代码,用于通过具有相关延迟的突触,将突触输入提供到神经元电路中,其中,所述突触输入中的至少一个与所述突触中自连接的至少一个突触相关联,所述突触属于多个集合,及所述多个集合中的至少一个集合包括延迟组合,用以匹配不包含递归型自连接的所述突触输入的模式的第一部分。
本发明的特定实施例提供了一种用于总输入模式(general input pattern)的神经编码的方法。所述方法总体上包括:将一个或多个突触连接到具有细胞体(soma)的神经元电路,所述一个或多个突触中的每一个突触对应于所述神经元电路的一个输入传入,并具有权重和相对延迟;及由每一个所述相对延迟引发在相应的输入传入和所述细胞体之间的延迟,其中,所述一个或多个突触的一个或多个集合具有与共同构成所述总输入模式之一的多个子模式相对应的延迟和输入传入,及所述子模式包括一致性(coincidence)、发放速率或者时间模式中的至少一个。
本发明的特定实施例提供了一种用于总输入模式的神经编码的装置。所述装置总体上包括:第一电路,被配置为将一个或多个突触连接到具有细胞体的神经元电路,所述一个或多个突触中的每一个突触对应于所述神经元电路的一个输入传入,并具有权重和相对延迟;及第二电路,被配置为由每一个所述相对延迟引发在相应的输入传入和所述细胞体之间的延迟,其中,所述一个或多个突触的一个或多个集合具有与共同构成所述总输入模式之一的多个子模式相对应的延迟和输入传入,及所述子模式包括一致性、发放速率或者时间模式中的至少一个。
本发明的特定实施例提供了一种用于总输入模式的神经编码的装置。所述装置总体上包括:用于将一个或多个突触连接到具有细胞体的神经元电路的模块,所述一个或多个突触中的每一个突触对应于所述神经元电路的一个输入传入,并具有权重和相对延迟;及用于由每一个所述相对延迟引发在相应的输入传入和所述细胞体之间的延迟的模块,其中,所述一个或多个突触的一个或多个集合具有与共同构成所述总输入模式之一的多个子模式相对应的延迟和输入传入,及所述子模式包括一致性、发放速率或者时间模式中的至少一个。
本发明的特定实施例提供了一种用于总输入模式的神经编码的计算机程序产品。所述计算机程序产品总体上包括计算机可读介质,所述计算机可读介质包括代码,用于将一个或多个突触连接到具有细胞体的神经元电路,所述一个或多个突触中的每一个突触对应于所述神经元电路的一个输入传入,并具有权重和相对延迟;及由每一个所述相对延迟引发在相应的输入传入和所述细胞体之间的延迟,其中,所述一个或多个突触的一个或多个集合具有与共同构成所述总输入模式之一的多个子模式相对应的延迟和输入传入,及所述子模式包括一致性、发放速率或者时间模式中的至少一个。
附图说明
作为可以详细理解本发明的上述特征的方式,参考实施例可以获得在上面简要概述的更具体的说明,在附图中示出了其中一些实施例。然而,应注意,附图仅仅示出了本发明的特定典型的实施例,从而不应被认为是限制其范围,因为本说明书允许其他等效的实施例。
图1示出了根据本发明的特定实施例的示例性神经元网络。
图2示出了根据本发明的特定实施例的方法组成部分和特征的实例。
图3示出了根据本发明的特定实施例的示例性相对延迟神经元模型。
图4示出了根据本发明的特定实施例的依据树突(dendritic)模型的相对延迟输入的示例性重对齐。
图5示出了根据本发明的特定实施例的典型的锋电位时序依赖型可塑性(spike-timing-dependent plasticity,STDP)学习曲线的实例。
图6示出了根据本发明的特定实施例的STDP学习曲线的时间敏感性上的变化的实例。
图7示出了根据本发明的特定实施例的STDP学习曲线的增强(re-enforcement)/去加重(de-emphsis)平衡上的示例性变化。
图8示出了根据本发明的特定实施例的对时间输入模型的神经元响应的准确度和鲁棒性的实例。
图9示出了根据本发明的特定实施例的示例性突触(synaptic)周转(turnover)。
图10示出了根据本发明的特定实施例的时间模式学习时的发放(firing)速率的示例性效果。
图11示出了根据本发明的特定实施例的、由神经网络的神经元电路执行的用于神经时间编码的示例性操作。
图11A示出了能够执行图11中所示操作的示例性组件。
图12示出了根据本发明的特定实施例的长且大的空间-时间模式的实例。
图13示出了根据本发明的特定实施例的用于更长和/或更大的空间-时间模式编码的多层网络的实例。
图14示出了根据本发明的特定实施例的用于采用轴突延迟的更长的空间-时间模式编码的多层网络的实例。
图15示出了根据本发明的特定实施例的用于更长和/或更大的空间-时间模式编码的示例性可缩放网络。
图16示出了根据本发明的特定实施例的示例性的递归型可缩放空间-时间模式编码。
图17示出了根据本发明的特定实施例的在每一个神经元处的权重的适应调整的示例性曲线图。
图18示出了根据本发明的特定实施例的、可以在多层神经网络中执行的用于长且大的空间-时间模式的神经时间编码的示例性操作。
图18A示出了能够执行图18中所示操作的示例性组件。
图19示出了根据本发明的特定实施例的、可以在神经网络的神经元电路中执行的用于长且大的空间-时间模式的神经时间编码的其他示例性操作。
图19A示出了能够执行图19所示操作的示例性组件。
图20示出了根据本发明的特定实施例的、通过对齐锋电位时序来对不同神经编码方案进行解码的实例。
图21示出了根据本发明的特定实施例的具有对相对延迟的依赖性的一致性解码的实例。
图22示出了根据本发明的特定实施例的具有对相对延迟的依赖性的时间模式解码的实例。
图23示出了根据本发明的特定实施例的逻辑“或(OR)”型时间模式匹配的实例。
图24示出了根据本发明的特定实施例的具有对相对延迟的依赖性的发放速率解码的实例。
图25示出了根据本发明的特定实施例的发放速率解码的实例,其中,发放速率是解码的目标速率。
图26示出了根据本发明的特定实施例的在将速率转换为一致性的情况下发放速率解码的实例。
图27示出了根据本发明的特定实施例的具有输出发放速率的不变性的发放速率解码的实例。
图28示出了根据本发明的特定实施例的、受到不同输入时序的简单锋电位形成模型的时间相位图的实例。
图29示出了根据本发明的特定实施例的、受到不同额定时间常数的简单锋电位形成模型的时间相位图的实例。
图30示出了根据本发明的特定实施例的示例性STDP实现方式。
图31示出了根据本发明的特定实施例的用于总输入模式(general inputpattern)的神经编码的示例性操作。
图31A示出了能够执行图31中所示操作的示例性组件。
图32示出了根据本发明的特定实施例的使用通用处理器的神经编码的示例性软件实现方式。
图33示出了根据本发明的特定实施例的神经编码的示例性实现方式,其中,可以用独立的分布式处理单元来与存储器对接。
图34示出了根据本发明的特定实施例的基于分布式存储器和分布式处理单元的神经编码的示例性实现方式。
具体实施方式
以下参考附图更充分地说明本发明的多个实施例。然而,本发明可以以许多不同形式来体现,并且不应理解为局限于本发明通篇中提出的任何特定结构或功能。相反,提供这些实施例以使得本发明全面完整,并且将向本领域技术人员充分地传达本发明的范围。基于本文的教导,本领域技术人员应意识到本发明的范围旨在覆盖本文公开的发明的任何实施例,不论是该实施例是独立于本发明中任何其它实施例而实现的还是与之相结合而实现的。例如,可以使用本文阐述的任意数量的实施例来实现装置或实施方法。另外,本发明的范围旨在覆盖使用作为本文阐述的本发明的多个实施例的补充或替代的其它结构、功能或结构与功能实现的此类装置或方法。应理解,本文公开的发明的任何实施例都可以由权利要求的一个或多个要素来体现。
本文使用词语“示例性的”表示“充当实例、例子或举例说明”。本文中被描述为“示例性的”任何实施例都并非必然解释为对于其它实施例而言是优选的或有优势的。
尽管本文描述了特定实施例,但这些实施例的许多变体和置换形式也属于本发明的范围内。尽管提及了优选实施例的一些益处和优点,但本发明的范围并非旨在局限于特定益处、使用或目的。相反,本发明的实施例旨在广泛应用于不同技术、系统配置、网络和协议,其中一些借助于实例而在附图和针对优选实施例的以下描述中进行说明。该详细描述和附图对本发明仅仅是说明性的而非限制性的,本发明的范围由所附权利要求及其等价物来定义。
示例性神经系统
图1示出了根据本发明的特定实施例的具有多级神经元的示例性神经系统100。神经系统100可以包括一级神经元102,其通过突触连接网络104连接至另一级神经元106。为了简明,图1中仅示出了两级神经元,尽管在典型神经系统中可以存在更少或更多级的神经元。
如图1所示,级102中的每一个神经元都可以接收输入信号108,其可以由前一级的多个神经元(图1中未示出)产生。信号108可以表示级102的神经元的输入电流。可以在神经元膜上积蓄这个电流以对膜电位进行充电。当膜电位达到其阈值时,神经元可以发放(fire)并产生要传递到下一级神经元(例如,级106)的输出锋电位。
如图1所示,可以通过突触连接网络(或者简称为“突触”)104来实现锋电位从一级神经元到另一级神经元的传递。突触104可以从级102的神经元接收输出信号(即,锋电位),根据可调节的突触权重(其中P是在级102与106的神经元之间的突触连接的总数)来对那些信号进行缩放,并将缩放后的信号组合为级106中每一个神经元的输入信号。级106中的每一个神经元都可以根据相应的组合输入信号产生输出锋电位110。随后可以使用另一突触连接网络(图1中未示出)将输出锋电位110传递到另一级神经元。
神经系统100可以由电路来模拟并可以用于大范围的应用中,诸如图像和模式识别、机器学习和电机控制之类。神经系统100中的每一个神经元都可以实现为神经元电路。例如,被充电至阈值从而发起输出锋电位的神经元膜可以实现为电容器,其对流过它的电流进行积分。
在一个实施例中,可以去掉作为神经元电路的电流积分器件的电容器,并可以在其位置处使用较小的忆阻器元件。这个方案可以应用于神经元电路中以及将大体积电容器用作电流积分器的各种其他应用中。另外,可以基于忆阻器元件来实现每一个突触104,其中,突触权重的改变可以与忆阻器的电阻的改变相关。使用纳米特征尺寸的忆阻器,可以充分减小神经元电路和突触的面积,这可以使得超大规模神经系统硬件实现的实施切实可行。
神经时间模式编码、学习和识别的方法
由于神经系统100的神经元电路可以使用时控锋电位形式的所谓的时间编码来在时间上传送信息,因此编码和解码的方法及学习这种时间信息的方法是主要关注的。本发明的特定实施例公开了用于辨别时间模式的方法,并且与其它“时间模式”方法形成对比的是,不仅仅是输入或输入顺序的一致性。此外,本发明提出了切实可行的方法,其是仿生的/一致的,但降低了复杂性,并能够编码、解码、识别和学习时间锋电位信号模式。
本发明中提出的系统可以包括图2中所示的彼此依赖的特征的组合。通常,系统200可以围绕学习方面(例如,赫布型学习(Hebbian learning))和执行方面(动态锋电位形成模型)。可以由树突延迟线方面来确定锋电位形成模型的相关输入时序,所述树突延迟线方面会受突触周转及其他方面的影响。所述学习可以确定突触权重以及对其他方面的影响,并且其会受到调节(标准化)、对齐、退火以及其他方面的影响。在本发明中解释了这些方面中的每一个,连同与其他方面的关系及其重要性、参数及优点。
相对延迟和树突延迟线
本发明中提出了一种方法,其中,可以根据在突触的输入之间的相对延迟、在突触的输入与参考输入之间的相对延迟或者二者来确定神经元的行为。图3中示出了时间编码模型的基本实施例。来自神经元302、304、306、308(即,输入神经元)的锋电位输出的空间-时间模式可以组成神经元310(即,输出神经元)的锋电位输入。每一个输入神经元都可以经由神经元310的一个或多个树突上的一个或多个突触连接到神经元310。每一个突触都可以具有相关的延迟,其表征来自输入神经元的锋电位在到达神经元310的细胞体(soma)之前所经历的时间延迟,如图3针对用于连接神经元304与神经元310的突触312所示的。如图3中所示,所述输入在延迟与合并(integration)之前可以经历缩放。可替换地,所述输入在为了减少大规模神经网络中的处理而进行的缩放之前可以经历延迟。
使用这个方法,神经元可以识别输入神经元的输出中的空间-时间模式(在输入神经元意义上是空间、在锋电位之间的相对锋电位时序或者时间差意义上是时间)。此如图4中所示,其中,输入神经元402、404、406、408可以在不同时间形成锋电位。然而,因为在树突中的延迟,来自输入神经元的信号可以以在时间上对齐的方式到达输出神经元x的细胞体。从而,输出神经元x在时间t的输入可以被表示为输入神经元的经延迟的输出的函数,即:
其中,j是突触索引,ij是突触j连接的输入神经元,nj是以Δt为单位的突触延迟,vi(t)是输入神经元i的输出,wj是突触权重。在等式(1)中,突触延迟表示借以提取总延迟的延迟。该总延迟可以归因于由于数字到模拟的延迟(即,用于从动作电位(AP)到突触后电位(PSP)的转换的时间)、树突延迟(即,用于PSP到达细胞体的被动传播时间)或者其他延迟(例如,由于通过不同的神经元层或数量的路径所造成的轴突延迟或网络架构延迟)所造成的一个或多个实际突触延迟(的组合)。
图4中将神经元402、404、406、408的发放的实际时序标记为410。由于与突触对应的特定延迟(由时间延迟分辨率Δt的倍数表示),一旦处理了相对延迟,延迟后的输入时序可以对齐或者不对齐(如图4中标记为412)。从图4中可以观察到,一些突触与过长的延迟(例如,具有延迟414的突触)或过短的延迟(例如,具有延迟416的突触)相关联,从而不能与其他突触的延迟相一致。在一个实施例中,可以从所识别的模式中丢弃这些短或长的延迟或者不将这些短或长的延迟增加至所识别的模式中,而同时可以保留或增加导致了一致的经延迟锋电位的延迟以对应所识别的图形。
在本发明的优选实施例中,可以利用整数毫秒的离散时间延迟(即,时间延迟分辨率Δt=1ms的倍数的延迟)。然而,通常,可以使用任何离散或连续的分辨率。在离散模型中,延迟可以由整数nxi来表示,其中,x是输入神经元(例如,图4中的神经元402),且i是该输入神经元的突触索引,因为对每一个输入可以存在一个或多个突触。
可以经实验测量或报告锋电位时序依赖型可塑性(STDP)的证据。在图5中以长期增强(LTP)的曲线502和长期抑制(LTD)的曲线504示出了这种学习关系的典型图示。典型地,x轴表示输入与输出之间的时间差(对于曲线502是有因果关系的,对于曲线504是没有因果关系的)。应注意,所提出的方法可以引起树突中的延迟。因此,可以在学习曲线中将x轴认为是神经元发放与重新对齐的输入之间的延迟。在本发明中,可以将ΔT定义为神经元发放时间减去给定输入到达神经元细胞体的时间。这应区别于信号经历延迟线从突触到细胞体所花费的时间(nj·Δt)。
此外,可以提出反映对时间差的可变灵敏度的各种变体,以及纯粹地增强或去加重关系、对其进行缩放和改变。应注意,总体上,因果和非因果关系方向上的水平扩展并非必然相同。类似地,正负峰值量可以不同,以对学习进行不同等地加重/去加重。图6示出了根据本发明的特定实施例的对时间差的灵敏度中的变化的实例602、604。图7示出了根据本发明的特定实施例的纯粹增强的实例702和纯粹去加重的实例704。
对空间-时间模式匹配的控制
为了使神经元能够识别给定持续时间的时间锋电位模式,一组突触可以需要具有非零(或不可忽略)的权重,且具有对应于模式持续时间的一个树突延迟跨度。因此,几个因素会涉及到对可分辨的模式持续时间(时间窗口跨度)、大小(窗口中的锋电位)和可分辨的时序精度的确定。根据本发明的特定实施例,这些因素可以包括以下的至少一个:树突长度(最大延迟)、隔室记忆(compartment memory)(树突或细胞体中的膜的时间常数)、突触前的膜反应性(突触前滤波效应的时间常数;确定AP宽度)、突触传导性的时间常数、或者树突内的函数运算(例如,逻辑“或(OR)”对比于逻辑“与(AND)”)。
应注意,较长的时间常数可以减小时间分辨率,因为膜的低通滤波效应可以减小在不同延迟的锋电位响应的差别,但会允许考虑较长的模式。换句话说,可以用不同时间比例来配置不同神经元,或者可以改变一个给定神经元的时间比例,或者不同神经元阵列可以在不同(有可能重叠)的时间比例上工作。此外,可以由以下因素来限制可分辨模式的复杂性(除了持续时间以外的):突触的数量(给定相同的权重、阈值)、权重分布(给定相同的阈值、突触数量)、阈值(及相对休眠电平(resting level))(给定相同的突触数量、权重)。
根据本发明的特定实施例,平衡是重要的,因为在给定了以上的一个或多个中的限制的情况下,一个模式对于神经元会具有过少的锋电位以至于不能进行发放(横跨阈值),或者对于单个神经元会具有过多的锋电位,以至于不能从多个变体中辨别出一个特定模式。在图8中演示了这些实施例,其包括每一个突触的权重。
为了超过发放阈值802,会需要合并的一致性输入以超过该阈值(相对于休眠电位)。图8中示出了突触的权重、阈值和数量的贡献。在804的情况下,存在过少的一致性突触(或者过少的权重,或阈值804可能过高)。在806的情况下,会与之相反。仅在808的情况下,匹配是极佳的。根据背景或噪声级,806的情况可以被认为是或者松弛(冗余)的或者鲁棒的,这取决于观点(perspective)。类似地,808的情况可以被认为是极佳的(准确或高效的)或者灵敏的(脆弱的、非鲁棒的)。
应注意,对于给定的发放,可以由具有一致性延迟(不仅仅是相对于彼此的延迟,而是相对于与其他输入的组合的延迟)的突触的总体及其权重来确定单个输入神经元的总贡献。如果针对那些突触的输入神经元间的总体的一致性输入低于阈值,则发放就不会进行。如果针对那些突触的输入神经元间的总体的一致性输入高于阈值,则发放就可以进行。这会是成问题的,因为如果如图8中的情况806所示的,则对于发放而言,可能无需模式810的一些部分,诸如输入a的模式(即,模式812)。
用于解决这个问题的方法可以包括神经元调节,即,在数量、权重、发放频率方面或其他方面,控制或标准化有贡献的输入的总贡献。
突触周转
根据本发明的特定实施例,突触周转对于解决上述的问题也是重要的。实际上,如果突触的数量或者权重受限(或二者都受限),就会需要突触周转来解决以上的问题。突触周转可以包括将突触资源重用(reuse)于不同的时间延迟或不同的输入。这在资源有限或者连接有限的情况下是至关重要的。
由于突触在树突上的位置会隐含地编码锋电位时序,因此,如果特定的突触位置(因此的相对潜伏时间)由特定输入a占据,则在同一树突上的不同输入b就不能使用相同的树突潜伏时间。但是,如果输入b要使用相同的相对潜伏时间,则这就需要利用在不同树突上的突触(且匹配相对潜伏时间)。结果,需要节省用于表示特定锋电位模式的突触的数量以及在重用突触时的相关效率(相对潜伏时间),所述重用的突触与该特定输入具有低相关性或不相关,以使得可以由其他输入来使用相同的潜伏时间。在本发明中所使用的模型中,可以提取出树突,以至于采用此方式时不存在限制。然而,会有动机来限制突触的总数量并重用资源。这会涉及硬件或软件资源以及神经元调节。
图9中示出了在系统的背景下的突触周转实施例。应注意,在该模型的其他实施例的一次或多次迭代之间可以周期性地高效地执行突触周转的过程(不是动态锋电位形成模型或者延迟线分辨率的每个时间步长)。如图9所示的,可以假设,用具有随机延迟的随机输入上的随机或一致的权重来初始化图9中的神经元x。随着该模型被迭代,学习机制会倾向于增加一些权重或减小其他权重。在所提出的模型中,无论是采用学习曲线还是采用赫布型规则,这都会趋向于促使权重趋于零或其最大值(或者一些归一化的最大值)。然而,这并非是普遍的情况。具有接近于零的权重的突触(使用了低阈值)可以由突触周转重复利用,从而获得以下的至少一个:新的延迟、新的输入或者新的权重。这些中的每一个都可以是随机地或者确定性地确定的,并可以是受限的(例如,每个输入的突触数量,或者权重值的范围)。于是,系统可以继续对包括学习的其他实施例进行迭代,并且权重可以进一步适应调整。
应注意,通常,可以允许新的突触有“试用期(trial-period)”,在试用期过程中,即使是新的突触的权重下降到低于阈值也不重复使用它。
在对该学习方法进行迭代后,权重可以衰减或增长。如果突触的数量受限(对此而言是存在动机的),且权重受限(对此而言同样存在动机-用于神经元调节),则模式识别能力就会受到限制,除非重用一些更低的(或相对而言可忽略的)权重突触。突触周转可以包括以不同延迟和/或权重和/或连接(不同输入神经元)来重配置突触。通过如此,神经元的突触模式可以朝向用于特定输入模式的临界程度(critical mass)发展(即,需要特定数量的突触来对应于在该模式中的特定数量的锋电位)。于是,如果对周转及反复迭代的这个顺序进行重复,则就可以逐步地学习权重,以改进对模式的匹配。
自举型(Bootstrapping)神经元学习
应注意,使用STDP或者其他赫布型学习机制,学习会需要发放。不进行发放的神经元不会学习。本发明中提出了特定方法来帮助确保在不以其他方式限制神经网络的情况下,高效地开始学习。通过配置以下的至少一个来确保神经元发放:大权重、大量的突触、较长的时间常数、低阈值(高相对休眠状态)、最初较少的抑制、或者较大的输入噪声。
因此,在一个实施例中,对于要开始发放的神经元,可以在神经元的输入处使用振荡。在另一个实施例中,可以将与神经元相关联的突触权重设定的较高。在再另一个实施例中,可以将突触的数量设定的较高。图10示出了实例1000,其有关于最初更易激发的神经元如何可以更快得多地学习,因为它们发放更多,从而使得其权重被更快地调整。例如,在实例1000中,神经元1002可以很少发放。与时间模式识别器相比,这个神经元更适合充当锋电位计数器。由于它很少发放,其就很少有机会来学习用于时间编码的权重。类似地,神经元1004可以看上去仅是具有较少锋电位(例如四个锋电位)的锋电位计数器。神经元1004可以适应调整,但这会是缓慢的过程,因为其每四个锋电位模式才发放一次。
相对照地,神经元1006、1008可以最初非常迅速地发放,且未显露出能够识别时间模式。然而,正好相反。因为这些神经元可以非常频繁地发放,因此它们的权重可以迅速适应调整,并且根据历史,可以锁定在不同模式上,如图10所示。随着权重适应调整,发放速率可以减缓,并锁定在特定时间窗口/延迟上。如果这个过程平滑地进行,则这些神经元可以比缓慢发放的神经元好/快得多地学习时间编码。于是,当那些模式稍后重新出现时,这些神经元就可以很好地响应,以匹配不同的模式或模式的不同部分。
对于这个方案可以有进一步的时间益处。神经元可以最初以高速率发放,导致横跨多个宽时间窗口的侧抑制(lateral inhibition)。随后,神经元可以开始多样化,这取决于不同的输入组合和神经元调节。其后,神经元可以开始减慢其发放速率,并从而可以变得对于更精细的延迟和学习延迟偏移更为敏感。在一个实施例中,神经元可以在多个偏移时间上发放,并且侧抑制可以在多个时间延迟上减小。现在,具有相似但不同模式的神经元可以增大发放速率并提高多样化。
在活动级别之间的跃迁对于多样化会是至关重要的。这是因为缓慢发放的神经元可以减小其对其他神经元的抑制效果。此外,受到较少抑制的神经元可以增大其发放速率和抑制效果。根据以上内容,活动级别可以影响时间学习能力,所以在结合变化的发放速率的情况下,学习可以以组合式探查(combinatorial exploration)的高效分布式方式进行,并且在一系列阶段中在从低到高的时间灵敏度之间变化,直至收敛。在一个实施例中,网络的记忆能力(memory capability)可以取决于抑制以及连接性和各个神经元方面,并可以在高效的分布式多阶段过程中进行。
模拟退火
通过基于发放计数(活动的历史)减小权重调整的速率,可以“冷却”神经元的学习速率,以使得一旦学习了一种模式,其就可以冻结。由于上述的情况,这在时间编码中会是尤其有用的。例如,STDP或其他规则的使用会倾向于试图偏移模式窗口,直到它们重叠并从而会是冗余的。如果权重“冷却”,就可以避免此情况。
最后,应注意,尽管完全合并(integrative)(逻辑“与(AND)”)对于树突处理不是至关重要的,但对于时间系统的运行而言,应在阈值以上有某种相加的组件。换句话说,有可能将树突单独模拟为逻辑“或(OR)”运算,只要在多个树突间或在细胞体处有合并组件即可。
图11示出了根据本发明的特定实施例的可以由神经网络的神经元电路执行用于神经时间编码的示例性操作1100。在1102处,可以使用相对延迟线提取,其可以以时间延迟来对到神经元电路的一个或多个突触输入进行延迟。在1104处,可以应用动态锋电位形成模型,基于神经元电路的经加权和延迟的突触输入来确定神经元电路的锋电位形成行为。在1106处,可以按照无监督学习规则(unsupervised learning rule),根据所述神经元电路的锋电位形成与经延迟的突触输入的时序关系,来调整与所述突触输入相关联的权重。
在本发明的一个实施例中,为了导致神经元电路的初始发放速率,可以控制以下的至少一个:权重、与神经元电路相关联的突触数量、突触的时间常数、神经元电路的发放阈值、神经元电路的抑制程度、或者与神经元电路相关联的噪声。此外,可以由所述无监督学习规则应用模拟退火来进行权重的所述调整。
在本发明的一个实施例中,可以选择与神经元电路相关联的可重用突触,并可以修改可重用突触的权重、延迟或传入(afferent)中的至少一个。对可重用突触的选择可以基于:所述无监督学习规则将所述可重用突触的权重减小到低于阈值的值。此外,对可重用突触的选择可以以所述突触被重用后所经过的时间为条件的。
大或长的空间-时间模式的神经编码的方法
所提出的时间模式方法可以用于设计具有与模式的给定持续时间和尺寸(输入的数量)进行时间模式匹配的能力的神经元。然而,会更进一步希望匹配更大的模式。图12示出了指示输入(锋电位)的条的图1200。锋电位的垂直位置指示输入索引或空间尺寸,其中,水平方向表示时间。如图12所示,可以存在三个模式匹配神经元,x、y和z,其能够识别由相应框1202、1204、1206指示的总模式的多个空间-时间部分。每一个模式匹配神经元可以考虑在不同的空间-时间帧处的输入,所述不同的空间-时间帧可以交叠。
本发明提出一种有关于在整个模式出现时如何对其进行识别的解决方案。其会需要被高效地执行(即,没有过多的神经元层)。此外,所提出的解决方案能够避免对包含了相对于预期模式而言被重排序或互换的部分的模式进行错误识别。
在上述的空间可分辨能力(所考虑的输入神经元或突触的数量)或时间模式可分辨能力(例如,精度或窗口)方面,单个的神经元可以具有有限的(或受控的)能力。然而,使用多个神经元或多层神经元可以实现更长的时间模式或更大的空间模式(或者二者)的学习和识别。
用于编码更长和更大的空间-时间模式的网络
在图12所示的实例1200中,如果神经元x、y和z全部发放,就可以匹配该完整模式的大部分。然而,在空间-时间构架中,此举会需要不仅在空间上对输出进行合并,而且要在时间上对其进行合并。这样,下一层神经元i可以具有一致性的延迟,如图13中所示的。在图13中,示出了三个层1302、1304、1306,输入在层1302处,小模式神经元x、y和z在层1304处,长/大模式神经元i在层1306处。从图13中可以观察到,层1304和1306二者的输出可以构成空间-时间模式。层1306的神经元i可以包括用于与x、y和z神经元锋电位模式进行匹配的突触的权重和延迟。在图13所示的实例中,神经元i可以将(x/z的或y的)相邻时间窗口上的结果进行合并,但这仅仅是一个实例,因为可以将这个结构性构件块装配到分层网络架构中,在所述分层网络架构中,后续的层甚至对更长或更大的空间时间模式进行编码/解码/响应。
然而,可以不必增加越来越多的层以识别/解码越来越长的时间模式,因为可以如上所述地控制单个神经元的时间窗口(并且从而可以控制网络时间窗口)。
可缩放的空间-时间网络解决方案
此外,结合轴突延迟或网络架构(不同路径)延迟,也可以用很少的层来匹配较长的模式。这可以在图14中图示证明。层1404的神经元w、x、y和z可以识别层1402的传入中的空间-时间模式的子模式。在层1406中指示了层1404的发放时间(动作电位(AP)发生时间)。然而,AP沿着其各自的轴突传播并到达在层1410中的神经元i上的突触会花费一些时间。此外,根据轴突电缆的特性(长度、电导率、膜电导率等),这会根据神经元而花费不同的时间量。在此情况下,与神经元w相比,神经元x、y和z可以具有从细胞体到在与神经元i的突触接点处的突触前点的更长的轴突距离(或者更慢的速度(更薄的髓磷脂(myelin)),或更大的跳跃网络路径)。在层1408中示出了在突触前点处的AP时序。在该点处的时序可以在神经元i能够分辨的时间窗口1412内(即,其在时间上要比在其原点处近得多)。神经元i可以识别这个模式且由此识别层1402的该整个模式,并且其可以相应地发放。有效的是,轴突延迟已经将任意长的模式的模式识别压缩到一个窗口中,以便神经元i进行识别。
缩放时间模式能力的另一个方法可以用递归型(recurrent)连接或者自递归型(self-recurrent)连接来实现。可以连接一个神经元或多个神经元,以使得可以将部分模式匹配馈入神经元中,该神经元结合较早的部分来匹配该模式的随后部分,如图15所示的。
可以以几种方式来扩展这个概念。在本发明的一个实施例中,可以增加神经元以学习更长的模式。在另一个实施例中,神经元可以编译多个相邻或不相邻的模式部分。在再另一个实施例中,神经元可以以不同精度或普遍性来识别该模式的不同部分,或者根据该模式的某个部分的关键性或在该模式的该部分中的输入的可变性(在空间或者时间上)而具有不同的灵敏度。
应注意,在生物学上,用于突触前神经元的轴突延迟通常被特征为对于该神经元的所有突触是相等的(即,共同的轴突延迟)。尽管这对于上述的对齐/压缩会是有用的机制,但本发明提出的方法并不严格要求这种情况,因为可以提取出多个延迟处理方面。从运算的观点来看,无论是到具有不同树突延迟的下一层神经元的第一神经元输入,还是具有精确相同的处理但到下一层神经元有不同轴突延迟输入的两个神经元,都可以模拟处等价的延迟表示。
超可缩放/递归型时间模式编码
此外,可以使用单个神经元来实现甚至更长的时间模式匹配。应注意,单个神经元可以被配置为识别多个模式。这是可能的,因为根据输入模式(部分),不同的突触可以是一致性的。在图16中,示出了来自相同的四个输入神经元1602、1604、1606、1608的模式的两个部分。应注意,对于第一部分(一半),一些延迟可以导致一致性的对齐,而其他延迟则不能。然而,可以是其他延迟(突触)在该模式的第二部分(一半)中对齐。如果突触的权重(和数量)使得神经元1610在识别出该模式的第一部分时发放,则这就可以被反馈回其自身(同样具有延迟),并用于匹配该模式的第二部分。当然,可以将此推广到模式的任何长度。因此,该单一的递归型神经元1610可以识别长模式和/或大空间模式。
除了具有用以编码此类更大或更长的时间模式的机制以外,进一步提出了网络学习方法,其可以在多个神经元之间高效地分割时间模式编码的任务。
用于学习空间-时间模式时的分化(differentiation)的方法
可以用不同神经元来识别不同模式。在无监督训练中,会希望神经元自主地学习/选择不同的模式。然而,如通常所表示的,锋电位时序依赖型可塑性(STDP)可以使神经元避免分化。这在将各个神经元用于不同部分来学习更长的模式时也是重要的。如果(在各个部分之间)不存在分化,则就可以避免总模式一致性(匹配/学习)。
STDP会是成问题的原因是因为,其会导致时间偏移,以至于无论一个神经元开始学习一个模式的哪个部分,该神经元都会朝向该模式的最早部分偏移。可以提出几个方法来解决这个问题,诸如分裂型标准化(divisive normalization)(输出抑制)或者侧抑制(即胜者全得)。
借助于在时间模式之间引入竞争,支持在不同时间发放的神经元,并由此潜在地扩展模式覆盖范围,侧抑制或胜者全得可以改善多样化。可以在图17中注意到侧抑制的该影响。图1702、1704分别表示在具有和不具有侧抑制的情况下每一个神经元处的权重的适应调整。
与观察到的STDP效果相一致,权重可以趋向于极点(双极权重),或者增长到最大值,或者收缩到接近零。在图1702中,在不具有侧抑制的情况下,所有神经元可以学习相同的模式(效率低且有限的)。在图1704中,在具有侧抑制的情况下,神经元1706、1708可以学习模式的不同部分,而神经元1710、1712可以保持不使用(自由记忆(free memory))。
图18示出了根据本发明的特定实施例的可以在多层神经网络处执行的用于长和大的空间-时间模式的神经时间编码的示例性操作1800。在1802处,可以将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路。在1804处,可以将该多层神经网络中的第一层神经元电路与输入模式的第一分部(subsection)进行匹配,作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层可以对另一层的神经元电路的发放的组合进行匹配。在一个实施例中,输入模式的另一个分部可以与该输入模式的这个分部相连续。
根据本发明的特定实施例,该第一层可以包括递归型神经元电路的网络,所述递归型神经元电路的网络由在时间编码中保持记忆的输入模式的该第一分部通过重放同多步(polychronous)发放波(firing wave)激发。该多层神经网络的递归型神经元电路的另一个网络可以由所述输入模式的第二分部与同多步发放波的组合来激发。在本发明的一个实施例中,在该分级的多层神经网络的层之间的轴突延迟可以延迟对匹配所述输入模式的第一部分的响应,以使得所述响应落入与所述输入模式的第二部分相对应的时间窗口内。
图19示出了根据本发明的特定实施例的可以在神经网络的神经元电路处执行的用于长和大的空间-时间模式的神经时间编码的示例性操作1900。在1902处,可以经由具有相关延迟的突触将突触输入提供到神经元电路中,其中,所述突触输入中的至少一个与所述突触中自连接的至少一个突触相关联,所述突触属于多个集合,及所述多个集合中的至少一个集合包括延迟组合,用以匹配不包含递归型自连接的所述突触输入的模式的第一部分。
根据本发明的特定实施例,所述多个集合中的至少一个其它集合可以包括另一个延迟组合,用以匹配该模式的第二部分与至少一个自连接的突触,并且所述自连接的至少一个突触具有延迟,以将模式的所述第一部分与匹配所述另一个延迟组合的模式的所述第二部分相关联。在一个实施例中,与所述自连接的至少一个突触相关联的轴突延迟可以延迟对匹配模式的所述第一部分的响应,以使得所述响应可以落入与模式的所述第二部分相对应的时间窗口内。
通用化的神经编码和学习的方法:时间和速率编码
传统上,已经建立了神经通信的理论,以便在神经元的发放(锋电位形成)速率中将其进行编码。然而,提出了锋电位时序的重要性,以使得可以在锋电位的时间一致性中对通信进行编码。此外,提出了锋电位时序中的时间模式可以对信息进行编码,并提出了一种方法,通过该方法,可以采用生物学上似乎可能的方式完成这些时间模式的解码和学习。在本发明中,进一步提出了单个模型如何能够依据从发放(锋电位)速率至对锋电位时间模式的锋电位一致性来编码/解码信息编码方案的谱,以及这个模型如何可以横跨这个谱动态地适应调整解码方法,或者甚至同时地、通用地工作在多个编码形式上。此外,提出了切实可行的方法,它是仿生的/一致的,但降低了运算复杂性。
通用神经编码-一致性、时间和发放速率组合-码的谱
本发明中所提出的方法一个关键性优点在于,在发放速率、锋电位时序一致性或者锋电位空间-时间模式中所编码的信息全都可以由相同的神经元模型来解码。在示例性情况下,可以考虑具有来自神经元a到d的传入(输入)的神经元x,如图20所示的。此外,可以假设:可以按照一致性、时间模式或者发放速率(或发放速率组合)的形式来对到神经元x的那些传入输入信息进行编码。图20示出了对此类形式进行解码的三个代表性实例2002、2004、2006,其中,可以有由Δt指示的任意时间分辨率,并且各个连接延迟可以由其倍数来指示(即,延迟nAi是整数)。
实际输入锋电位时间可以由与到该输入的一个或多个连接相关联的一个或多个延迟来进行延迟。可以将到达大致与神经元x的时间常数相对应的时间窗口(合并窗口(integrative window))中的经延迟的输入进行组合,潜在地对神经元进行去极化,并从而导致输出锋电位(潜在地在延迟之后,这取决于神经元的去极化或活动程度或可激发性)。
可以用相等(即,nai=nbi)或足够接近以使得结果得到的经延迟的锋电位可落入神经元x的合并窗口内的任何延迟,来对输入锋电位时序的一致性进行解码(图20中的实例2002),从而使得一致性的经延迟的传入的组合(合并)可以超过一阈值,以使得神经元x以传达与该输入一致性相关联的非零互信息的时序进行发放。换句话说,神经元x发放的事实和神经元x的输出锋电位的时序可以传达与输入的一致性有关的信息。如果神经元x不进行发放,则这可以传达与输入一致性的不足或缺乏有关的信息。
神经元可以包括到传入的多个连接和与这些连接相关联的不同延迟,如图20中用于传入b的实例2002所示。应注意,可以不要求所有此类延迟都彼此对应(例如,图20中的延迟nb1)。此外,如图20中的实例2004所示,如果相等的延迟的数量不足,则在延迟后就没有一样多的一致性的实际锋电位可以对齐,并且从而会导致神经元x不进行发放(或者导致其在一不同时间发放,例如,稍后发放)。
此外,如果不同地配置延迟,则神经元x可能无法识别输入中的一致性(见图21中的实例2102)。换句话说,神经元可以被配置为识别(一接触到就发放)或无法识别输入的一致性。为了标识几个延迟(但不是全部延迟)是不同的事实,那些延迟由“’”号指示(例如,图21中的延迟nb1’)。
可以用具有与在时间模式中的锋电位之间的时间差相对应的相对差的延迟分布图(profile)来对输入锋电位时序的时间模式(例如,图20中的实例2004)进行解码。具体地,给定时序分辨率Δt,对于在相对于时间参考tref的时间tA到达的传入A,可以存在至少一个延迟nAi,即,
应注意,所述参考时间可以指代参考传入(例如,传入a)或者不同于传入的绝对时间参考或者相对时间参考(例如,振荡),并且时序tA可以是相一致地相对或绝对的。
其一个观点可以是:时间延迟可以高效地将延迟模式转换为一致性,其中,所述一致性被如上所述地解码。如果不存在足够数量的必需延迟(图20-21中的延迟的“’”号标记指示了它们是不同的),经延迟的锋电位就会在时间上更为分散而不是对齐(见图22中的实例2202)。这可能会导致神经元x不进行发放(或者导致其在一不同时间发放,例如,稍后发放)。这与没有提供必需的模式作为输入的情况(见图22中的实例2204)不同,在没有提供必需的模式作为输入的情况中,类似的结果会出现(不发放),但这是因为神经元没有被配置为识别该模式。
会再次注意,可以不要求所有这些延迟都对应于时间模式,例如,如图20中的实例2004或者图22中的实例2206中的延迟nb2。实际上,神经元可以具有比对应延迟多很多的对输入的非对应延迟,并且仍能够在非常大量的可能输入中辨别出预期的时间模式。如果存在M个传入,可分辨的时间分辨率可以是Δt,且延迟范围可以在Δt与T之间,则在每个传入具有一个锋电位的情况下的可能输入时间模式的数量可以为:
在每个传入具有任意数量的锋电位的情况下的可能输入时间模式的数量可以为:
显然,可能模式的数量可以增长得非常大,即使是对于相对小数量的传入和延迟范围。因此,如果单个神经元具有与例如两个时间模式相对应的延迟,则识别第三个非预期的模式的概率几乎为零的小(即,1/(C1-2)),并可以与作为多个目标延迟模式的混合的一个时间模式相关联。换句话说,可以高效地对多个输入模式实现逻辑“或(OR)”运算,如图23所示(模式C可以是模式A和B的混合)。如有必要,这种非目标模式可以被具有抑制的架构或者被独立的神经元所拒绝,以便辨别所述模式,或者可以将延迟编组到“树突分支”中,以便可以在该分支内但并非横跨多个分支来对与特定模式相对应的延迟超线性地求和。用以实现此目的的另一种方式可以是,按神经元x的树突分支来应用发放阈值。还应注意,可以无需将连接的数量加倍来匹配两个不同模式,这是因为可以重用至少一个延迟(例如,见图23中的延迟nc1)。
可以进一步注意到,尽管在图23中将模式A和B示出为时间模式,但没有理由其一个或者二者不能够部分地和全部地为一致性模式(具有相等的延迟)。换句话说,单个神经元可以被配置为识别时间模式与一致性的混合。
本发明中进一步提出了,如果每个输入(传入)提供两个或更多个延迟,则也可以用以下方法来对输入的发放(锋电位)速率进行解码(图20中的实例2002),其中,延迟可以对应于传入的锋电位间的间隔(用于传入A的目标输入发放速率fA的倒数),即:
由于可以将单个输入的锋电位重对齐到合并窗口中,因此神经元x可以对发放速率进行解码,当一致性的经延迟的输入的组合(合并)超过阈值时进行发放。类似于一致性和时间模式的匹配,如图24所示,可以不需要所有延迟都必须彼此对应(例如,图24中的实例2402和图20中的实例2006中的延迟nd2)。此外,会希望使得来自一个输入的锋电位得到对齐的延迟也可以产生未对齐的多余的补充的经延迟的锋电位(例如,应用于图24中来自传入a的第二输入锋电位的延迟na1),但这些锋电位可以是低于阈值的(sub-threshld),并从而不会破坏模式匹配性能。
此外,在给定了辨别阈值的情况下,与不同于提交给神经元的速率相对应的延迟可以不导致发放(即,将图24中的实例2402、2404中提交相同的模式的情况与不同延迟的情况进行比较;及将实例2406中的提交一个不同模式的情况与相同延迟配置的情况进行比较)。例如,在图24中,可以将阈值配置为6,以使得当实例2402中所示的发放速率组合(目标发放速率组合)出现而非其它情况时,神经元x的发放可以进行。
图25示出了实例2500,其中,可以针对到神经元x的传入a提交两个不同发放速率,其中以传入a的相同延迟对来配置神经元x。可以针对目标速率A来配置所述延迟对,即,使得原始锋电位的图像接近一致。
图26示出了实例2600,其涉及的是每个传入的两个延迟(在用于传入a和b的情况中)如何可以被用于对齐原始锋电位的图像。通过将神经元x的阈值设定为与一致性的图像的数量(例如,图26中的两个)相对应的级别,可以匹配单个传入的发放速率。然而,当试图匹配速率的组合时(来自A的一个速率和来自B的一个速率),如果每个传入仅使用了一对延迟,则基于传入发放速率序列的对齐,在来自两个传入的图像(延迟锋电位)可以在合并窗口内对齐之前会花费一些时间(将用于传入a的图像与用于传入b的情况1图像相比较)。
然而,通过增加更多延迟可以减小预期的延迟(例如,在传入b的情况2中,有三个延迟,更有可能传入a和b的图像落入窗口内)。可以认为是以每个传入多于两个延迟接头来配置神经元x,以便不仅匹配按照目标输入发放速率出现的一对输入锋电位,而且匹配按照目标输入发放速率的锋电位的序列(例如,为了鲁棒性)。然而,应注意,如果每个传入使用了多于一对的延迟并且它们被配置用于连续的锋电位,则就会出现混叠(alias),除非将阈值设定得足够高,以仅匹配完整的序列。这样,会希望以稀疏时间布置来配置延迟(如果存在多于两个延迟)。例如,为了匹配速率1,可以提出0和1的延迟。如果希望有较长的时间窗口,可以按照3、4个延迟分辨率单位来为同一传入增加延迟。然而,如果将阈值增大到需要四个输入单元,则就可以对时间进行延迟以进行匹配(其至少是最大延迟)。
执行该操作的另一个方式可以是使得独立的神经元对用于每一个传入的发放速率进行解码。在一个实施例中,神经元x、y、z和w可以分别对用于传入a、b、c和d的目标发放速率进行解码。于是,可以使用以慢时间常数配置的另一个神经元来匹配全部四个的一致性,以便识别目标发放速率组合。然而,这也可以用一个神经元来完成,该神经元对以不同延迟配置的独立的树突分支上的每一个发放速率进行解码,以便匹配不同的发放速率。实现发放速率识别的再另一个方式可以是用递归型(recursion)。然而,此举会需要输出是速率编码(rate coded)的(锋电位计数),而非是通配的(generic)。
然而,提出了当输入发放速率在彼此的合理范围内时,可以无需这些技术中的任何一个,因为发放速率形式的编码信息固有地比时间模式编码更慢(在给定相同数量的传入的情况下)。因此,对发放速率的解码可以不必一定要快速。然而,由此可以观察到潜在的感兴趣领悟:传入x的发放速率可以仅仅是传入的周期的函数(不是其相对偏移的),而用于传入x开始发放的延迟可以是其偏移的函数。换句话说,在对传入发放速率组合进行解码时,神经元x可以以恒定的速率发放,而不用考虑各个传入发放速率的偏移,如图27所示。这适用于两个传入的情况,并可以概率性地适用于多个传入的情况。然而,根据图像重叠的概率,如果存在多于两个传入,发放速率可以改变。此外,有可能在不用考虑发放速率组合偏移的情况下以导致相同的发放速率的方式来应用学习,这是因为可以使用多个延迟对,且可以修改神经元的合并时间窗口。
在以上的三个编码情况(一致性、时间、发放速率/速率组合)中,可以注意到,并非所有延迟都需要与目标输入时序对齐。因此,可以配置单个神经元以解码(识别)多个不同一致性、多个不同时间模式、或者多个发放速率或速率组合。此外,可以配置单个神经元以解码一致性模式、时间模式和发放速率或速率组合的混合。可以将以上方法进行上位概括,并且可以将体系结构或树突分支方法应用于这些组合,以减小混合或非目标模式的匹配的可能性。
通用学习-用于以下所有编码的一种方法:一致性、时间和发放速率组合
神经元的配置可以是可塑性的,所以可以学习与到特定输入的连接相关联的权重(和/或延迟和/或连接/突触的数量)。通常,在无监督学习中可以使用赫布型学习或锋电位时序依赖型可塑性(STDP),以学习在输入与输出之间的近似因果关系。这些方法可以应用于时间模式学习,并且本发明中示出了:如何可以使用每个传入的两个或更多个延迟来匹配发放速率,这种学习可以应用于通用地学习输入到特定神经元的一致性、时间模式和/或发放速率或速率组合。对此的关键要素在于,可以基于对齐的(图像)锋电位的时序而非原始锋电位时序,来将学习应用于连接。
如上暗示的,输入的一致性、时间模式或发放速率的神经元解码的质量可以取决于神经元的合并窗口。这个窗口可以实质上是神经元的瞬时时间常数(例如,细胞体膜)。这样,时间和速率的保真度可以依赖于此。然而,该时间常数可以动态地改变,并且这对于在编码谱的不同区域(速率、时间或一致性)中的学习和运行是重要的。
图28示出了时间相位图的实例2800,其标记出了随着所模拟的神经元接收不同输入和锋电位(或者不形成锋电位),该所模拟的神经元的电压和恢复变量(recoveryvariable)的路径。该路径的任何点都可以与自第一个输入起的特定延迟相关联(例如,该延迟可以在0ms与50ms之间)。可以使用由Izhikevich提出的简单锋电位形成模型,其以新大脑皮层锥细胞体参数来配置。示出了以下情况:其中,时间指代到达细胞体的时间(在每个连接或传入所应用的任何延迟之后):在0ms的10个突触的输入,在0ms的20个突触的输入,在0ms的30个突触的输入,在0ms的15个突触和在10ms的另15个突触的输入,和在35ms的30个突触的输入(在以上3个之后)。
图2800中编号的插脚对应于紧接着应用了所述输入后的点。输入可以对应于到插脚的去极化步骤(例如,从休眠(REST)开始)。如果输入去极化是低于阈值(vt)的,则电压就可以衰减回到休眠。如果输入去极化高于阈值,则去极化就可以不稳定,并增长到vpeak,并且锋电位可以出现。在锋电位之后,电压可以恢复到恢复点,但神经元的恢复会花费一些额外的时间(u回到REST的恢复)。
可以指出三个时间保真度实施例。第一,从低于阈值的输入去极化恢复的时间可以根据输入而改变(比较图28中的1和4a)。第二,发放的时间可以根据输入时序、平衡(在输入分量之间)和总量而改变(比较图28中的2,3和4b)。第三,发放的时间可以根据(发放前)活动级别而改变(比较图28中的3和5)。
因此,非常活跃的神经元可以以较低时间常数工作,并从而有较高的时间(及因此的速率)保真度。如果考虑在在相对高的活动级别中工作时以发放速率编码方式工作(与偶尔的时控锋电位相反),则神经元就可以通过将其保真度调整为适当地更准确来适应高发放速率。这对于编码和学习而言可以是一个关键方面,因为可以高效地修改时间常数。为了进行比较(见图29中的图),该模型的额定时间常数可以被改变1/2(即,两倍快),以显示随着提供更多输入或工作在更高的活动级别,可以获得类似的效果。
根据本发明的特定实施例,稳定平衡(homeostasis)或神经调节和侧抑制可以是学习中的关键要素,用以调节神经元的发放活动并从而调节学习。当工作在编码谱的不同部分中时(例如,发放速率对比时间模式),神经元的活动级别可以不同。因此,不提议以某个特定发放速率为目标,而是允许一个发放速率范围。本发明中提出,如果发放速率低于下限,就在一长时间中提升发放速率,并且如果发放速率高于上限,就在一长时间中衰减发放速率。对这个范围的允许对于通用编码而言是关键要素。会希望神经元可以根据其所经受的对象,来或者学习一致性、或者学习时间模式或者学习发放速率或速率组合。因此,可以推荐允许神经元具有一个发放速率范围,而不是以某个特定长期输出速率为目标。
可以如下定义在生物学上一致性的锋电位时序依赖型可塑性。如果由xi,j(t)给出到神经元j的传入连接i的输入锋电位序列(对原始传入信号应用延迟之后),由yj(t)给出神经元j的输出,且二者都是二进制序列,则就可以由以下定义对j的发放的学习的灵敏度:
并且由以下定义对输入的学习的灵敏度:
其中,LTP指代长期增强(Long-Term Potentiation),LTD指代长期抑制(Long-Term Depression),并且αLTP、αLTD是相应的IIR(无限脉冲响应)滤波器系数。
在缺少进一步的输入的情况下,滤波器从而可以按照那些系数衰减。可以在发放时,以量来调整突触(连接)i的权重(图30中的点3002),而可以当延迟后在细胞体处接收到输入时,以量来调整用于突触(连接)i的权重(图30中的点3004)。
本发明中提出,尽管可能无需用于神经元的详细锋电位形成模型,但结合每个传入的两个或更多个时间延迟,为解码和学习而适应调整神经元的合并时间窗口(时间常数)会是一个关键方面,从而使得通用化的解码和学习可行。根据本发明的特定实施例,可以以一种通用的方式来应用前述学习规则学习输入模式,而不管其是否是一致性、时间模式或者发放速率或其组合。此外,可以需要基于经延迟的时序来应用学习规则。否则,发放速率和时间模式匹配会受损害。
为了学习一模式,可以需要神经元与对应于一致性、时间模式或发放速率的一组延迟相关联。然而,通常,这些延迟和连接的特性可以根据编码方案而改变:一致性可以需要不同输入之间的相等的延迟,时间模式可以需要不同输入之间的不同的延迟,发放速率组合可以需要每个输入有多个不同延迟的连接。但是为了效率,会希望使得连接的数量最少。因此,本发明中还提出了如下的结构可塑性。对于通用化的学习,根据使用的编码方案,神经元可以学习到一个输入的或者到不同输入的多个连接。这可以通过允许学习方案按照以上的规则减小或增大权重来实现。然而,提出了一种结构可塑性的方法,从而为不同的输入产生具有不同延迟的新连接。在优选的实施例中,可以重用已经被学习减低到极低值的连接,并可以将其再分配给随机输入并使其具有随机延迟(在允许的范围内)。建议以低权重开始该新连接,以使得不会仅仅因为新的(或者被重用的)连接的增加而显著改变整个神经元的行为。
图31示出了根据本发明的特定实施例的用于总输入模式(general inputpattern)的神经编码的示例性操作3100。在3102处,可以将一个或多个突触连接到具有细胞体的神经元电路,所述一个或多个突触中的每一个突触对应于所述神经元电路的一个输入传入,并具有权重和相对延迟。在3104处,可以由每一个所述相对延迟引发在相应的输入传入和所述细胞体之间的延迟,其中,所述一个或多个突触的一个或多个集合具有与共同构成所述总输入模式之一的多个子模式相对应的延迟和输入传入,并且所述子模式可以包括一致性、发放速率或者时间模式中的至少一个。
根据本发明的特定实施例,对应于所述一致性子模式的突触的集合可以对于不同的输入传入具有相同延迟,对应于所述发放模式子模式的突触的集合可以对于同一输入传入具有不同延迟,及对应于所述时间模式子模式的突触的集合可以对于不同输入传入具有不同延迟。
在本发明的一个实施例中,可以使得用于所述神经元电路的延迟最小,以通过使得对应于所述发放模式的所述突触的两个或更多个集合具有彼此偏移的延迟来响应所学习的发放速率。另外,可以穿孔(去除)来自所述两个或更多个集合的一些突触,以忽略由于一个或多个非预期速率的混叠所造成的、导致所述神经元电路的发放的时间偏移。在一个实施例中,根据所述神经元电路对于每个连接所具有的多个延迟或者用于不同连接的延迟的程度来改变所述神经元电路的发放的合并窗口,其中与具有不等于其他连接的延迟的单个连接输入相反,所述用于不同连接的延迟是相同的。
在本发明的一个实施例中,可以将由于学习而减弱的连接再分配给同一输入,且该连接所具有的延迟不同于由对该同一输入的现有连接所使用的任何延迟。在另一个实施例中,可以将由于学习而减弱的连接再分配给一不同的输入。
在本发明的一个实施例中,在用于神经元电路的一个输入传入的延迟集合中的延迟之间的时间差可以对应于与该一个输入传入相关联的发放速率的倒数的倍数。此外,未对齐的输入传入的一个或多个多余的补充的经延迟的锋电位可以低于一个或多个阈值,并且所述一个或多个低于阈值的多余的补充的经延迟的锋电位不会破坏所述神经元电路的模式匹配性能。
图32示出了根据本发明的特定实施例的使用通用处理器3202的用于神经时间编码的前述方法的示例性软件实现方式3200。与计算网络(神经网络)的每一个连接(突触)相关联的权重和延迟都可以存储在存储器块3204中,同时可以从程序存储器3206加载在通用处理器3202处执行的与神经编码有关的指令。
在本发明的一个实施例中,加载到通用处理器3202中的指令可以包括:用于使用相对延迟线提取的代码,所述相对延迟线以时间延迟来对到神经元电路中的一个或多个突触输入进行延迟;用于基于所述神经元电路的经加权和延迟的突触输入,应用动态锋电位形成模型来确定所述神经元电路的锋电位形成行为的代码;及用于按照无监督学习规则,根据所述神经元电路的锋电位形成与经延迟的突触输入的时序关系,来调整与所述突触输入相关联的权重的代码。在另一个实施例中,加载到通用处理器3202中的指令可以包括:用于将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路的代码;及用于将所述多层神经网络中的第一层神经元电路和输入模式的第一分部进行匹配的代码,其中,作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配。在再另一个实施例中,加载到通用处理器3202中的指令可以包括:用于通过具有相关延迟的突触,将突触输入提供到神经网络的神经元电路中的代码,其中,所述突触输入中的至少一个与所述突触中自连接的至少一个突触相关联,所述突触属于多个集合,及所述多个集合中的至少一个集合包括延迟组合,用以匹配不包含递归型自连接的所述突触输入的模式的第一部分。在再另一个实施例中,加载到通用处理器3202中的指令可以包括:用于将一个或多个突触连接到神经网络的具有细胞体的神经元电路的代码,所述一个或多个突触中的每一个突触可以对应于神经元电路的一个输入传入,并具有权重和相对延迟;及用于由每一个相对延迟引发在相应的输入传入和所述细胞体之间的延迟的代码,其中,所述一个或多个突触的一个或多个集合可以具有与共同构成所述总输入模式之一的多个子模式相对应的延迟和输入传入,并且所述子模式可以包括一致性、发放速率或者时间模式中的至少一个。
图33示出了根据本发明的特定实施例的用于神经时间编码的前述方法的示例性实现方式3300,其中,可以经由互连网络3304将存储器3302与计算网络(神经网络)的各个(分布式)处理单元(神经处理器)3306对接。可以从存储器3302经由互连网络3304的连接,将与计算网络(神经网络)的一个或多个连接(突触)相关联的一个或多个权重和延迟加载到每一个处理单元(神经处理器)3306中。
在本发明的一个实施例中,处理单元3306可以被配置为使用相对延迟线提取,所述相对延迟线提取以时间延迟来对到神经网络的神经元的一个或多个突触输入进行延迟;基于所述神经元的经加权和延迟的突触输入,应用动态锋电位形成模型来确定所述神经元的锋电位形成行为;及按照无监督学习规则,根据所述神经元的锋电位形成与经延迟的突触输入的时序关系,来调整与所述突触输入相关联的权重。在另一个实施例中,处理单元3306可以被配置为将分级的多层神经网络中的每一层神经元连接到输入并且连接到该多层神经网络中的另一层神经元;及将该多层神经网络中的第一层神经元与输入模式的第一分部进行匹配,其中,作为对该输入模式的一个分部和该输入模式的另一个分部进行匹配的结果,该所连接的层可以对另一层的神经元的发放的组合进行匹配。在再另一个实施例中,处理单元3306可以被配置为通过具有相关延迟的突触,将突触输入提供到该神经网络的神经元中,其中,所述突触输入中的至少一个可以与所述突触中自连接的至少一个突触相关联,所述突触可以属于多个集合,并且所述多个集合中的至少一个集合可以包括延迟组合,以匹配不包含递归型自连接的所述突触输入的模式的第一部分。在再另一个实施例中,处理单元3306可以被配置为将一个或多个突触连接到该神经网络的具有细胞体的神经元,所述一个或多个突触中的每一个突触可以对应于该神经元的一个输入传入,并具有权重和相对延迟;以及由每一个相对延迟引发在相应的输入传入和所述细胞体之间的延迟,其中,所述一个或多个突触的一个或多个集合可以具有与共同构成总输入模式之一的多个子模式相对应的延迟和输入传入,并且所述子模式可以包括一致性、发放速率或者时间模式中的至少一个。
图34示出了根据本发明的特定实施例的,基于分布式权重/延迟存储器3402和分布式处理单元(神经处理器)3404的用于神经时间编码的前述方法的示例性实现方式3400。如图34所示,一个存储体(memory bank)3402可以直接与计算网络(神经网络)的一个处理单元3404对接,其中,存储体3402可以存储与该处理单元(神经处理器)3404相关联的一个或多个连接(突触)的一个或多个权重和延迟。
在本发明的一个实施例中,处理单元3404可以被配置为使用相对延迟线提取,所述相对延迟线提取以时间延迟来对到该神经网络的神经元中的一个或多个突触输入进行延迟;基于所述神经元的经加权和延迟的突触输入,应用动态锋电位形成模型来确定所述神经元的锋电位形成行为;以及按照无监督学习规则,根据神经元锋电位形成与经延迟的突触输入的时序关系,来调整与突触输入相关联的权重。在另一个实施例中,处理单元3404可以被配置为将分级的多层神经网络中的每一层神经元连接到输入并且连接到所述多层神经网络中的另一层神经元;以及将所述多层神经网络中的第一层神经元与输入模式的第一分部进行匹配,其中,作为对该输入模式的一个分部和该输入模式的另一个分部进行匹配的结果,该所连接的层可以对所述另一层的神经元的发放的组合进行匹配。在再另一个实施例中,处理单元3404可以被配置为通过具有相关延迟的突触,将突触输入提供到神经网络的神经元中,其中,所述突触输入中的至少一个可以与所述突触中自连接的至少一个突触相关联,所述突触可以属于多个集合,及所述多个集合中的至少一个集合可以包括延迟组合,用以匹配不包含递归型自连接的所述突触输入的模式的第一部分。在再另一个实施例中,处理单元3404可以被配置为将一个或多个突触连接到神经网络的具有细胞体的神经元,所述一个或多个突触中的每一个突触可以对应于该神经元的一个输入传入,并具有权重和相对延迟;以及由每一个所述相对延迟引发在相应的输入传入和所述细胞体之间的延迟,其中,所述一个或多个突触的一个或多个集合可以具有与共同构成总输入模式之一的多个子模式相对应的延迟和输入传入,并且所述子模式可以包括一致性、发放速率或者时间模式中的至少一个。
上述方法的各个操作可以由能够执行相应功能的任何适合的模块来执行。所述模块可以包括各种硬件和/或软件组件和/或模块,包括但不限于,电路、专用集成电路(ASIC)或处理器。通常,在附图中示出了操作的情况下,这些操作就会具有采用类似编号的相应配对的功能性模块组件。例如,图11、图18、图19和图31中示出的操作1100、1800、1900和3100对应于图11A、图18A、图19A和图31A中示出的组件1100A、1800A、1900A和3100A。
本文使用的词语“确定”包含各种操作。例如,“确定”可以包括运算、计算、处理、推导、调查、查找(例如,在表、数据库或另一个数据结构中查找)、查明等。此外,“确定”可以包括接收(例如,接收信息)、访问(例如,访问存储器中的数据)等。此外,“确定”可以包括求解、选择、挑选、确立等。
本文使用的称为一系列项目中的“至少一个”的短语表示这些项目的任何组合,包括单个成员。示例性地,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c和a-b-c。
可以用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件(PLD)、分立门或晶体管逻辑器件、分立硬件组件或者被设计为执行本文所述功能的其任意组合,来实现或执行结合本发明所描述的各种示例性的逻辑块、模块和电路。通用处理器可以是微处理器,但是可替换地,该处理器也可以是任何市场上可买到的处理器、控制器、微控制器或者状态机。处理器也可以实现为计算器件的组合,例如,DSP和微处理器的组合、多个微处理器的组合、一个或多个微处理器与DSP内核的组合或者任何其它此种配置。
结合本发明所描述的方法或者算法的步骤可直接体现为硬件、由处理器执行的软件模块或二者的组合。软件模块可以位于本领域中公知的任何形式的存储介质中。可以使用的一些存储介质的实例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM等等。软件模块可以包括单个指令或者多个指令,并可以分布在几个不同代码段中、在不同程序中、以及跨越多个存储介质。存储介质可耦合至处理器,使得处理器能够从该存储介质读取信息且可向该存储介质写入信息。可替换地,存储介质可以集成到处理器中。
本文公开的方法包括用于实现所述方法的一个或多个步骤或操作。在不脱离权利要求的范围的情况下,方法的步骤和/或操作可以彼此互换。换句话说,除非指明了步骤或操作的特定顺序,否则在不脱离权利要求的范围的情况下,可以修改特定步骤和/或操作的顺序和/或使用。
所述的功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则所述功能可以作为一个或多个指令或代码存储在计算机可读介质上,或者通过其发送。计算机可读介质包括计算机存储介质和通信介质,通信介质包括便于计算机程序从一处传送到另一处的任何介质。存储介质可以是可由计算机访问的任意可用介质。示例性地而非限制性地,这种计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储器、磁盘存储器或其它磁存储设备或者可用于以指令或数据结构的形式承载或存储预期程序代码并且可由计算机访问的任意其它介质。此外,任何连接可以适当地称为计算机可读介质。例如,如果使用同轴电缆、纤维光缆、双绞线、数字用户线路(DSL)或例如红外、无线电和微波的无线技术将软件从网站、服务器或其它远程源进行发送,则同轴电缆、纤维光缆、双绞线、DSL或例如红外、无线电和微波的无线技术包括在传输介质的定义中。本文使用的盘片(disk)和盘(disc)包括紧致盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘和盘,其中盘片常常以磁性方式再现数据,而盘通过激光以光学方式来再现数据。因此,在一些实施例中,计算机可读介质可以包括非瞬态的计算机可读介质(例如,实体介质)。另外,对于其他实施例,计算机可读介质可以包括瞬态的计算机可读介质(例如,信号)。以上的组合也应包括在计算机可读介质的范围内。
因此,特定实施例可以包括用于执行本文提出的操作的计算机程序产品。例如,这种计算机程序产品可以包括其上存储(和/或编码)了指令的计算机可读介质,所述指令可以由一个或多个处理器运行,以执行本文所述的操作。对于特定实施例,计算机程序产品可以包括封装材料。
软件或指令也可以通过传输介质发送。例如,如果使用同轴电缆、纤维光缆、双绞线、数字用户线路(DSL)或例如红外(IR)、无线电和微波的无线技术将软件从网站、服务器或其它远程源进行发送,则同轴电缆、纤维光缆、双绞线、DSL或例如红外、无线电和微波的无线技术包括在传输介质的定义中。
此外,应意识到,在适用的情况下,可以由用户终端和/或基站来下载和/或以其他方式获取用于执行本文所述的方法和技术的模块和/或其它适当的模块。例如,可以将这种设备耦合到服务器以便于对用于执行本文所述方法的模块的传送。可替换地,可以经由存储模块(例如:RAM、ROM、诸如紧致盘(CD)或软盘的物理存储介质等)来提供本文所述的多种方法,以使得当将该存储模块耦合或提供到该设备后,用户终端和/或基站可以获取所述各种方法。此外,可以采用用于将本文所述的方法和技术提供给设备的任何其它合适的技术。
应当理解,权利要求不局限于上述的精确的配置和组件。在不脱离权利要求的范围的情况下,可以在上述方法和装置的布置、操作和细节中进行各种更改、变化和改变。
尽管前述内容针对本发明的实施例,但在不脱离其基本范围的情况下可以设计出本发明的其他及更进一步的实施例,并且其范围是由附带的权利要求来确定的。

Claims (10)

1.一种用于长且大的空间-时间模式的神经时间编码的方法,包括:
将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路;及
将所述多层神经网络中的第一层神经元电路与输入模式的第一分部进行匹配,其中,
作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配,并且其中:
所述第一层包括递归型神经元电路的网络,其由在时间编码中保持记忆的输入模式的所述第一分部通过重放同多步发放波而激发,并且所述方法进一步包括:由所述输入模式的第二分部与所述同多步发放波的组合来激发所述多层神经网络的递归型神经元电路的另一个网络。
2.根据权利要求1所述的方法,其中,输入模式的所述另一个分部与输入模式的所述一个分部相连续。
3.根据权利要求1所述的方法,其中,在所述分级的多层神经网络的层之间的轴突延迟对针对匹配所述输入模式的第一部分的响应进行延迟,以使得所述响应落入与所述输入模式的第二部分相对应的时间窗口内。
4.一种用于长且大的空间-时间模式的神经时间编码的装置,包括:
第一电路,被配置为将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路;及
第二电路,被配置为将所述多层神经网络中的第一层神经元电路与输入模式的第一分部进行匹配,其中,
作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配,并且其中:
所述第一层包括递归型神经元电路的网络,其由在时间编码中保持记忆的输入模式的所述第一分部通过重放同多步发放波而激发,并且所述装置进一步包括:第三电路,被配置为由所述输入模式的第二分部与所述同多步发放波的组合来激发所述多层神经网络的递归型神经元电路的另一个网络。
5.根据权利要求4所述的装置,其中,输入模式的所述另一个分部与输入模式的所述一个分部相连续。
6.根据权利要求4所述的装置,其中,在所述分级的多层神经网络的层之间的轴突延迟对针对匹配所述输入模式的第一部分的响应进行延迟,以使得所述响应落入与所述输入模式的第二部分相对应的时间窗口内。
7.一种用于长且大的空间-时间模式的神经时间编码的装置,包括:
用于将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路的模块;及
用于将所述多层神经网络中的第一层神经元电路与输入模式的第一分部进行匹配的模块,其中,
作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配,并且其中:
所述第一层包括递归型神经元电路的网络,其由在时间编码中保持记忆的输入模式的所述第一分部通过重放同多步发放波而激发,并且所述装置进一步包括:用于由所述输入模式的第二分部与所述同多步发放波的组合来激发所述多层神经网络的递归型神经元电路的另一个网络的模块。
8.根据权利要求7所述的装置,其中,输入模式的所述另一个分部与输入模式的所述一个分部相连续。
9.根据权利要求7所述的装置,其中,在所述分级的多层神经网络的层之间的轴突延迟对针对匹配所述输入模式的第一部分的响应进行延迟,以使得所述响应落入与所述输入模式的第二部分相对应的时间窗口内。
10.一种用于长且大的空间-时间模式的神经时间编码的计算机程序产品,包括计算机可读介质,所述计算机可读介质包括代码,用于:
将分级的多层神经网络中的每一层神经元电路连接到输入并且连接到所述多层神经网络中的另一层神经元电路;及
将所述多层神经网络中的第一层神经元电路与输入模式的第一分部进行匹配,其中,
作为对所述输入模式的一个分部和所述输入模式的另一个分部进行匹配的结果,所连接的层对所述另一层的神经元电路的发放的组合进行匹配,并且其中:
所述第一层包括递归型神经元电路的网络,其由在时间编码中保持记忆的输入模式的所述第一分部通过重放同多步发放波而激发,并且所述计算机可读介质进一步包括:用于由所述输入模式的第二分部与所述同多步发放波的组合来激发所述多层神经网络的递归型神经元电路的另一个网络的代码。
CN201610230617.1A 2011-08-16 2012-08-14 用于神经时间编码、学习和识别的方法和装置 Active CN105930899B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/211,091 US9147155B2 (en) 2011-08-16 2011-08-16 Method and apparatus for neural temporal coding, learning and recognition
US13/211,091 2011-08-16
CN201280039570.0A CN103733209B (zh) 2011-08-16 2012-08-14 用于神经时间编码、学习和识别的方法和装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201280039570.0A Division CN103733209B (zh) 2011-08-16 2012-08-14 用于神经时间编码、学习和识别的方法和装置

Publications (2)

Publication Number Publication Date
CN105930899A CN105930899A (zh) 2016-09-07
CN105930899B true CN105930899B (zh) 2019-01-08

Family

ID=46690767

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201610230617.1A Active CN105930899B (zh) 2011-08-16 2012-08-14 用于神经时间编码、学习和识别的方法和装置
CN201280039570.0A Active CN103733209B (zh) 2011-08-16 2012-08-14 用于神经时间编码、学习和识别的方法和装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201280039570.0A Active CN103733209B (zh) 2011-08-16 2012-08-14 用于神经时间编码、学习和识别的方法和装置

Country Status (11)

Country Link
US (1) US9147155B2 (zh)
EP (1) EP2745244A2 (zh)
JP (2) JP6092213B2 (zh)
KR (4) KR20150105488A (zh)
CN (2) CN105930899B (zh)
BR (1) BR112014003581A2 (zh)
CA (1) CA2844777C (zh)
IN (1) IN2014CN00716A (zh)
RU (1) RU2597504C2 (zh)
TW (4) TWI522935B (zh)
WO (1) WO2013025708A2 (zh)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9070039B2 (en) * 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US9015091B2 (en) * 2011-11-09 2015-04-21 Qualcomm Incorporated Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: structural plasticity and structural constraint modeling
US9424511B2 (en) 2011-11-09 2016-08-23 Qualcomm Incorporated Methods and apparatus for unsupervised neural component replay by referencing a pattern in neuron outputs
US9443190B2 (en) 2011-11-09 2016-09-13 Qualcomm Incorporated Methods and apparatus for neural pattern sequence completion and neural pattern hierarchical replay by invoking replay of a referenced neural pattern
US9424513B2 (en) 2011-11-09 2016-08-23 Qualcomm Incorporated Methods and apparatus for neural component memory transfer of a referenced pattern by including neurons to output a pattern substantially the same as the referenced pattern
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
WO2014149070A1 (en) * 2013-03-15 2014-09-25 Hrl Laboratories, Llc Neural network and method of programming
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9275329B2 (en) * 2013-08-12 2016-03-01 Qualcomm Incorporated Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models
US9652711B2 (en) * 2014-03-12 2017-05-16 Qualcomm Incorporated Analog signal reconstruction and recognition via sub-threshold modulation
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US20150269485A1 (en) * 2014-03-24 2015-09-24 Qualcomm Incorporated Cold neuron spike timing back-propagation
US20150278685A1 (en) * 2014-03-31 2015-10-01 Qualcomm Incorporated Probabilistic representation of large sequences using spiking neural network
JP6328787B2 (ja) * 2014-04-15 2018-05-23 インテル・コーポレーション 複数の連想メモリを用いた神経形態学的グラフ圧縮の方法、システム、及びコンピュータプログラム製品
CN111275178A (zh) * 2014-07-21 2020-06-12 徐志强 具有不同工作形态的神经元模拟方法及装置
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
CN106295799B (zh) * 2015-05-12 2018-11-02 核工业北京地质研究院 一种深度学习多层神经网络的实现方法
US10083395B2 (en) * 2015-05-21 2018-09-25 Google Llc Batch processing in a neural network processor
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
KR101701250B1 (ko) 2015-08-03 2017-02-01 서울대학교산학협력단 딥 빌리프 네트워크를 위한 복수 레이어가 적층된 뉴런 어레이 및 뉴런 어레이 동작 방법
US10423879B2 (en) 2016-01-13 2019-09-24 International Business Machines Corporation Efficient generation of stochastic spike patterns in core-based neuromorphic systems
TWI581205B (zh) * 2016-02-16 2017-05-01 國立屏東大學 文具供應商的選擇方法與電腦程式產品
KR20180137562A (ko) * 2016-04-27 2018-12-27 뉴럴라 인코포레이티드 심층 신경망 기반의 큐-러닝을 위한 경험 기억을 프루닝하는 방법 및 장치
CN106055866A (zh) * 2016-05-16 2016-10-26 天津大学 基于前馈网络的针刺信息传导通路模型
CN106447032B (zh) * 2016-09-09 2018-12-25 中国传媒大学 大脑神经元动作电位序列的快速预测方法
CN109155001B (zh) * 2016-11-28 2022-03-29 华为技术有限公司 基于脉冲神经网络的信号处理方法和装置
EP3340129B1 (en) * 2016-12-21 2019-01-30 Axis AB Artificial neural network class-based pruning
CN106897768B (zh) * 2017-01-25 2020-04-21 清华大学 神经网络信息发送方法和系统
WO2018164539A1 (ko) 2017-03-09 2018-09-13 (주)엘지하우시스 열가소성 폴리우레탄 입자 및 이의 제조방법
US20190087714A1 (en) * 2017-09-20 2019-03-21 International Business Machines Corporation Automatic timing resolution among neural network components
WO2019107612A1 (ko) * 2017-11-30 2019-06-06 주식회사 시스트란인터내셔널 변환 수행 방법 및 이를 위한 장치
US20190302707A1 (en) * 2018-03-28 2019-10-03 Mitsubishi Electric Research Laboratories, Inc. Anomaly Detection in Manufacturing Systems Using Structured Neural Networks
AU2019282632B2 (en) 2018-06-05 2024-04-18 Lightelligence PTE. Ltd. Optoelectronic computing systems
US11507818B2 (en) 2018-06-05 2022-11-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
CN108985447B (zh) * 2018-06-15 2020-10-16 华中科技大学 一种硬件脉冲神经网络系统
US11188815B2 (en) * 2019-01-07 2021-11-30 International Business Machines Corporation Weight shifting for neuromorphic synapse array
US11734556B2 (en) 2019-01-14 2023-08-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
KR20200111584A (ko) 2019-03-19 2020-09-29 한국전자통신연구원 시공간 입력 신호들이 나타내는 사건을 부호화하기 위한 전자 장치 및 그것의 동작 방법
KR102545066B1 (ko) * 2019-07-05 2023-06-20 한국전자통신연구원 뉴로모픽 컴퓨팅을 위한 신경망 생성 방법 및 이를 위한 장치
US11727250B2 (en) 2019-09-06 2023-08-15 International Business Machines Corporation Elastic-centroid based clustering
US11719963B2 (en) 2020-04-29 2023-08-08 Lightelligence, Inc. Optical modulation for optoelectronic processing
US11741353B2 (en) 2020-12-09 2023-08-29 International Business Machines Corporation Bias scheme for single-device synaptic element
CN114925734B (zh) * 2022-07-20 2022-11-25 浙江大学 一种基于神经拟态计算的在线神经元分类方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174325B1 (en) * 2002-06-07 2007-02-06 George Mason Intellectual Properties, Inc. Neural processor
CN101860357A (zh) * 2010-06-09 2010-10-13 中国科学院半导体研究所 一种利用时间编码控制权重和信息整合的方法

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4893255A (en) * 1988-05-31 1990-01-09 Analog Intelligence Corp. Spike transmission for neural networks
WO1993018474A1 (en) 1992-03-11 1993-09-16 University College London Devices for use in neural processing
JP3178884B2 (ja) * 1992-03-30 2001-06-25 株式会社東芝 ニューラルネットワーク装置
JP3345478B2 (ja) 1993-09-20 2002-11-18 株式会社東芝 ニューラルネットワーク装置およびその学習方法
US5666079A (en) 1994-05-06 1997-09-09 Plx Technology, Inc. Binary relative delay line
RU2128363C1 (ru) * 1995-06-06 1999-03-27 Таганрогский государственный радиотехнический университет Рефлекторная нейросеть
EP0892956A4 (en) 1996-02-09 2002-07-24 Sarnoff Corp METHOD AND APPARATUS FOR FORMING A NEURONAL NETWORK FOR THE DETECTION AND CLASSIFICATION OF OBJECTS WITH UNCERTAINED TRAINING DATA
US6284794B1 (en) * 1996-11-05 2001-09-04 Head Explorer Aps Method for treating tension-type headache with inhibitors of nitric oxide and nitric oxide synthase
WO1999012085A2 (en) * 1997-09-04 1999-03-11 Camelot Information Technologies Ltd. Heterogeneous neural networks
US6581046B1 (en) 1997-10-10 2003-06-17 Yeda Research And Development Co. Ltd. Neuronal phase-locked loops
US6505182B1 (en) 1998-10-09 2003-01-07 Van Den Heuvel Raymond C. Recognition engine with time referenced neurons
JP4478296B2 (ja) * 2000-06-16 2010-06-09 キヤノン株式会社 パターン検出装置及び方法、画像入力装置及び方法、ニューラルネットワーク回路
JP2002024795A (ja) * 2000-07-04 2002-01-25 Sony Corp 情報処理装置および方法、並びに記録媒体
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
MXPA04004542A (es) 2001-11-16 2005-03-07 Yuan Yan Chen Red neural plausible, con analisis de agrupaciones supervisadas y sin superfvisar.
US7412428B2 (en) 2002-03-12 2008-08-12 Knowmtech, Llc. Application of hebbian and anti-hebbian learning to nanotechnology-based physical neural networks
US7430546B1 (en) 2003-06-07 2008-09-30 Roland Erwin Suri Applications of an algorithm that mimics cortical processing
US7657313B2 (en) * 2003-07-21 2010-02-02 Ai-Semi Ltd Adaptive cardiac resynchronization therapy system
US8335564B2 (en) 2005-05-27 2012-12-18 Rami Rom Ventricle pacing during atrial fibrillation episodes
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
CA2642041C (en) * 2005-12-23 2014-07-15 Le Tan Thanh Tai Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
WO2008010220A2 (en) 2006-07-17 2008-01-24 A. I. Medical Semiconductor Intelligent control system for adaptive cardiac resynchronization therapy device
US8037010B2 (en) 2007-02-28 2011-10-11 Numenta, Inc. Spatio-temporal learning algorithms in hierarchical temporal networks
GB0811057D0 (en) 2008-06-17 2008-07-23 Univ Ulster Artificial neural network architecture
WO2010025130A1 (en) * 2008-08-28 2010-03-04 Massachusetts Institute Of Technology Circuits and methods representative of spike timing dependent plasticity of neurons
US8250011B2 (en) 2008-09-21 2012-08-21 Van Der Made Peter A J Autonomous learning dynamic artificial neural computing device and brain inspired system
US8630966B2 (en) 2009-01-27 2014-01-14 Salk Institute For Biological Studies Temporally dynamic artificial neural networks
US7978510B2 (en) 2009-03-01 2011-07-12 International Businesss Machines Corporation Stochastic synapse memory element with spike-timing dependent plasticity (STDP)
US8250010B2 (en) 2009-05-21 2012-08-21 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements
US8447714B2 (en) 2009-05-21 2013-05-21 International Business Machines Corporation System for electronic learning synapse with spike-timing dependent plasticity using phase change memory
JP5458791B2 (ja) * 2009-10-16 2014-04-02 トヨタ自動車株式会社 連想記憶装置、連想記憶方法、及びプログラム
RU2413304C1 (ru) * 2009-11-02 2011-02-27 Василий Юрьевич Осипов Способ и устройство интеллектуальной обработки информации в нейронной сети
US8527438B2 (en) 2009-12-22 2013-09-03 International Business Machines Corporation Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array
US8625337B2 (en) 2010-05-06 2014-01-07 Qualcomm Incorporated Method and apparatus of probabilistic programming multi-level memory in cluster states of bi-stable elements
US8694452B2 (en) 2010-07-07 2014-04-08 Qualcomm Incorporated Methods and systems for CMOS implementation of neuron synapse
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US8892485B2 (en) 2010-07-08 2014-11-18 Qualcomm Incorporated Methods and systems for neural processor training by encouragement of correct output
US8606732B2 (en) 2010-08-04 2013-12-10 Qualcomm Incorporated Methods and systems for reward-modulated spike-timing-dependent-plasticity
US9269042B2 (en) 2010-09-30 2016-02-23 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
US8515885B2 (en) 2010-10-29 2013-08-20 International Business Machines Corporation Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation
US8473439B2 (en) 2010-12-08 2013-06-25 International Business Machines Corporation Integrate and fire electronic neurons
US8756173B2 (en) 2011-01-19 2014-06-17 Qualcomm Incorporated Machine learning of known or unknown motion states with sensor fusion
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US8706662B2 (en) 2011-07-21 2014-04-22 Qualcomm Incorporated Method and apparatus of controlling noise associated with synaptic inputs based on neuronal firing rate
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174325B1 (en) * 2002-06-07 2007-02-06 George Mason Intellectual Properties, Inc. Neural processor
CN101860357A (zh) * 2010-06-09 2010-10-13 中国科学院半导体研究所 一种利用时间编码控制权重和信息整合的方法

Also Published As

Publication number Publication date
CA2844777C (en) 2017-11-28
WO2013025708A3 (en) 2013-08-15
RU2014110033A (ru) 2015-09-27
TW201510883A (zh) 2015-03-16
JP6092213B2 (ja) 2017-03-08
KR20150105488A (ko) 2015-09-16
TWI522935B (zh) 2016-02-21
US20130046716A1 (en) 2013-02-21
TWI526954B (zh) 2016-03-21
JP2016106299A (ja) 2016-06-16
BR112014003581A2 (pt) 2017-03-14
KR101616749B1 (ko) 2016-04-29
CA2844777A1 (en) 2013-02-21
CN105930899A (zh) 2016-09-07
JP2014526110A (ja) 2014-10-02
EP2745244A2 (en) 2014-06-25
TW201514869A (zh) 2015-04-16
TWI540517B (zh) 2016-07-01
TW201319960A (zh) 2013-05-16
RU2597504C2 (ru) 2016-09-10
IN2014CN00716A (zh) 2015-04-03
WO2013025708A2 (en) 2013-02-21
KR101972282B1 (ko) 2019-04-24
CN103733209A (zh) 2014-04-16
KR20180027627A (ko) 2018-03-14
CN103733209B (zh) 2016-10-26
TW201514868A (zh) 2015-04-16
KR101945678B1 (ko) 2019-02-07
JP6219418B2 (ja) 2017-10-25
KR20180027628A (ko) 2018-03-14
TWI480812B (zh) 2015-04-11
US9147155B2 (en) 2015-09-29
KR20140054267A (ko) 2014-05-08

Similar Documents

Publication Publication Date Title
CN105930899B (zh) 用于神经时间编码、学习和识别的方法和装置
CN105637541B (zh) 用于神经模拟器的共享存储器架构
US9542643B2 (en) Efficient hardware implementation of spiking networks
Burbank Mirrored STDP implements autoencoder learning in a network of spiking neurons
US9418331B2 (en) Methods and apparatus for tagging classes using supervised learning
US9558442B2 (en) Monitoring neural networks with shadow networks
US20150269482A1 (en) Artificial neural network and perceptron learning using spiking neurons
WO2015112261A1 (en) Configuring neural network for low spiking rate
EP3063710A2 (en) Causal saliency time inference
KR20170031695A (ko) 신경망들에서의 콘볼루션 동작의 분해
US20150212861A1 (en) Value synchronization across neural processors
US20150317557A1 (en) Temporal spike encoding for temporal learning
US20150088796A1 (en) Methods and apparatus for implementation of group tags for neural models
WO2014172025A1 (en) Method for generating compact representations of spike timing-dependent plasticity curves
CA2924468A1 (en) Congestion avoidance in networks of spiking neurons
US9536190B2 (en) Dynamically assigning and examining synaptic delay
US9418332B2 (en) Post ghost plasticity
US20150242744A1 (en) Stochastic delay plasticity
US20150213356A1 (en) Method for converting values into spikes
US20150278684A1 (en) Time synchronization of spiking neuron models on multiple nodes
Gueorguieva et al. Learning and data clustering with an RBF-based spiking neuron network

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant