CN106796667B - 动态空间目标选择 - Google Patents

动态空间目标选择 Download PDF

Info

Publication number
CN106796667B
CN106796667B CN201580009554.0A CN201580009554A CN106796667B CN 106796667 B CN106796667 B CN 106796667B CN 201580009554 A CN201580009554 A CN 201580009554A CN 106796667 B CN106796667 B CN 106796667B
Authority
CN
China
Prior art keywords
artificial neural
neural network
neurons
target
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580009554.0A
Other languages
English (en)
Other versions
CN106796667A (zh
Inventor
N·G·劳
M·坎伯斯
Y·刘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN106796667A publication Critical patent/CN106796667A/zh
Application granted granted Critical
Publication of CN106796667B publication Critical patent/CN106796667B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

一种用神经网络来动态地修改目标选择的方法,包括通过控制神经网络中的连接的失衡量来动态地修改选择函数。所选神经元代表多个候选目标之一。

Description

动态空间目标选择
相关申请的交叉引用
本申请依据35U.S.C.§119(e)要求于2014年2月21日提交的题为“DYNAMICSPATIAL TARGET SELECTION(动态空间目标选择)”的美国临时专利申请No.61/943,227、以及于2014年2月21日提交的题为“IMBALANCED CROSS-INHIBITORY MECHANISM FOR SPATIALTARGET SELECTION(用于空间目标选择的失衡式交叉抑制性机制)”的美国临时专利申请No.61/943,231的权益,其公开内容通过援引整体明确纳入于此。
背景
领域
本公开的某些方面一般涉及神经系统工程,尤其涉及用于动态空间目标选择的系统和方法。
背景
可包括一群互连的人工神经元(即神经元模型)的人工神经网络是一种计算设备或者表示将由计算设备执行的方法。人工神经网络可具有生物学神经网络中的对应的结构和/或功能。然而,人工神经网络可为其中传统计算技术是麻烦的、不切实际的、或不胜任的某些应用提供创新且有用的计算技术。由于人工神经网络能从观察中推断出功能,因此这样的网络在因任务或数据的复杂度使得通过常规技术来设计该功能较为麻烦的应用中是特别有用的。从而,期望提供一种用于基于使用失衡式交叉抑制性机制的选择方案来动态地选择目标的神经元形态接收器。
概述
根据本公开的一方面,公开了一种用神经网络来动态地修改目标选择的方法。该方法包括通过控制该神经网络中的连接的失衡量来动态地修改选择函数。所选神经元代表多个候选目标之一。
根据本公开的另一方面,公开了一种设备。该设备包括用于确定神经网络中的连接的失衡量的装置。该设备还包括用于通过控制该神经网络中的连接的失衡量来动态地修改选择函数的装置。所选神经元代表多个候选目标之一。
本公开的另一方面涉及一种具有存储器以及耦合到该存储器的至少一个处理器的装置。该(诸)处理器被配置成通过控制神经网络中的连接的失衡量来动态地修改选择函数。所选神经元代表多个候选目标之一。
在又一方面,一种计算机程序产品用神经网络来动态地修改目标选择。该计算机可读介质上记录有非瞬态程序代码,该程序代码在由(诸)处理器执行时使(诸)处理器执行通过控制该神经网络中的连接的失衡量来动态地修改选择函数的操作。所选神经元代表多个候选目标之一。
本公开的其他特征和优点将在下文描述。本领域技术人员应该领会,本公开可容易地被用作改动或设计用于实施与本公开相同的目的的其他结构的基础。本领域技术人员还应认识到,这样的等效构造并不脱离如所附权利要求中所阐述的本公开的教导。被认为是本公开的特性的新颖特征在其组织和操作方法两方面连同进一步的目的和优点在结合附图来考虑以下描述时将被更好地理解。然而,要清楚理解的是,提供每一幅附图均仅用于解说和描述目的,且无意作为对本公开的限定的定义。
附图简述
在结合附图理解下面阐述的详细描述时,本发明的特征、本质和优点将变得更加明显,在附图中,相同附图标记始终作相应标识。
图1解说根据本公开的某些方面的示例神经元网络。
图2解说根据本公开的某些方面的计算网络(神经系统或神经网络)的处理单元(神经元)的示例。
图3解说根据本公开的某些方面的尖峰定时依赖可塑性(STDP)曲线的示例。
图4解说根据本公开的某些方面的用于定义神经元模型的行为的正态相和负态相的示例。
图5和6解说了根据本公开各方面的目标选择。
图7和8解说了根据本公开各方面的交叉抑制。
图9-11解说了根据本公开各方面的目标选择。
图12解说根据本公开的某些方面的使用通用处理器来设计神经网络的示例实现。
图13解说根据本公开的某些方面的设计其中存储器可以与个体的分布式处理单元对接的神经网络的示例实现。
图14解说根据本公开的某些方面的基于分布式存储器和分布式处理单元来设计神经网络的示例实现。
图15解说根据本公开的某些方面的神经网络的示例实现。
图16是解说根据本公开的一方面的在神经网络中选择目标的框图。
详细描述
以下结合附图阐述的详细描述旨在作为各种配置的描述,而无意表示可实践本文中所描述的概念的仅有的配置。本详细描述包括具体细节以便提供对各种概念的透彻理解。然而,对于本领域技术人员将显而易见的是,没有这些具体细节也可实践这些概念。在一些实例中,以框图形式示出众所周知的结构和组件以避免湮没此类概念。
基于本教导,本领域技术人员应领会,本公开的范围旨在覆盖本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用所阐述的任何数目的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为所阐述的本公开的各个方面的补充或者与之不同的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
措辞“示例性”在本文中用于表示“用作示例、实例或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、系统配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的描述中解说。详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
示例神经系统、训练及操作
图1解说根据本公开的某些方面的具有多级神经元的示例人工神经系统100。神经系统100可具有神经元级102,该神经元级102通过突触连接网络104(即,前馈连接)来连接到另一神经元级106。为简单起见,图1中仅解说了两级神经元,尽管神经系统中可存在更少或更多级神经元。应注意,一些神经元可通过侧向连接来连接至同层中的其他神经元。此外,一些神经元可通过反馈连接来后向连接至先前层中的神经元。
如图1所解说的,级102中的每一个神经元可以接收可由前级的神经元(未在图1中示出)生成的输入信号108。信号108可表示级102的神经元的输入电流。该电流可在神经元膜上累积以对膜电位进行充电。当膜电位达到其阈值时,该神经元可激发并生成输出尖峰,该输出尖峰将被传递到下一级神经元(例如,级106)。在某些建模办法中,神经元可以连续地向下一级神经元传递信号。该信号通常是膜电位的函数。此类行为可在硬件和/或软件(包括模拟和数字实现,诸如以下所述那些实现)中进行仿真或模拟。
在生物学神经元中,在神经元激发时生成的输出尖峰被称为动作电位。该电信号是相对迅速、瞬态的神经冲激,其具有约为100mV的振幅和约为1ms的历时。在具有一系列连通的神经元(例如,尖峰从图1中的一级神经元传递至另一级神经元)的神经系统的特定实施例中,每个动作电位都具有基本上相同的振幅和历时,并且因此该信号中的信息可仅由尖峰的频率和数目、或尖峰的时间来表示,而不由振幅来表示。动作电位所携带的信息可由尖峰、发放了尖峰的神经元、以及该尖峰相对于一个或数个其他尖峰的时间来确定。尖峰的重要性可由向各神经元之间的连接所应用的权重来确定,如以下所解释的。
尖峰从一级神经元向另一级神经元的传递可通过突触连接(或简称“突触”)网络104来达成,如图1中所解说的。相对于突触104,级102的神经元可被视为突触前神经元,而级106的神经元可被视为突触后神经元。突触104可接收来自级102的神经元的输出信号(即,尖峰),并根据可调节突触权重来按比例缩放那些信号,其中P是级102的神经元与级106的神经元之间的突触连接的总数,并且i是神经元级的指示符。在图1的示例中,i表示神经元级102并且i+1表示神经元级106。此外,经按比例缩放的信号可被组合以作为级106中每个神经元的输入信号。级106中的每个神经元可基于对应的组合输入信号来生成输出尖峰110。可使用另一突触连接网络(图1中未示出)将这些输出尖峰110传递到另一级神经元。
生物学突触可以仲裁突触后神经元中的兴奋性或抑制性(超级化)动作,并且还可用于放大神经元信号。兴奋性信号使膜电位去极化(即,相对于静息电位增大膜电位)。如果在某个时间段内接收到足够的兴奋性信号以使膜电位去极化到高于阈值,则在突触后神经元中发生动作电位。相反,抑制性信号一般使膜电位超极化(即,降低膜电位)。抑制性信号如果足够强则可抵消掉兴奋性信号之和并阻止膜电位到达阈值。除了抵消掉突触兴奋以外,突触抑制还可对自发活跃神经元施加强力的控制。自发活跃神经元是指在没有进一步输入的情况下(例如,由于其动态或反馈而)发放尖峰的神经元。通过压制这些神经元中的动作电位的自发生成,突触抑制可对神经元中的激发模式进行定形,这一般被称为雕刻。取决于期望的行为,各种突触104可充当兴奋性或抑制性突触的任何组合。
神经系统100可由通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件、由处理器执行的软件模块、或其任何组合来仿真。神经系统100可用在大范围的应用中,诸如图像和模式识别、机器学习、电机控制、及类似应用等。神经系统100中的每一神经元可被实现为神经元电路。被充电至发起输出尖峰的阈值的神经元膜可被实现为例如对流经其的电流进行积分的电容器。
在一方面,电容器作为神经元电路的电流积分器件可被除去,并且可使用较小的忆阻器元件来替代它。这种办法可应用于神经元电路中,以及其中大容量电容器被用作电流积分器的各种其他应用中。另外,每个突触104可基于忆阻器元件来实现,其中突触权重改变可与忆阻器电阻的变化有关。使用纳米特征尺寸的忆阻器,可显著地减小神经元电路和突触的面积,这可使得实现大规模神经系统硬件实现更为切实可行。
对神经系统100进行仿真的神经处理器的功能性可取决于突触连接的权重,这些权重可控制神经元之间的连接的强度。突触权重可存储在非易失性存储器中以在掉电之后保留该处理器的功能性。在一方面,突触权重存储器可实现在与主神经处理器芯片分开的外部芯片上。突触权重存储器可与神经处理器芯片分开地封装成可更换的存储卡。这可向神经处理器提供多种多样的功能性,其中特定功能性可基于当前附连至神经处理器的存储卡中所存储的突触权重。
图2解说根据本公开的某些方面的计算网络(例如,神经系统或神经网络)的处理单元(例如,神经元或神经元电路)202的示例性示图200。例如,神经元202可对应于来自图1的级102和106的任何神经元。神经元202可接收多个输入信号2041-204N,这些输入信号可以是该神经系统外部的信号、或是由同一神经系统的其他神经元所生成的信号、或这两者。输入信号可以是电流、电导、电压、实数值的和/或复数值的。输入信号可包括具有定点或浮点表示的数值。可通过突触连接将这些输入信号递送到神经元202,突触连接根据可调节突触权重2061-206N(W1-WN)对这些信号进行按比例缩放,其中N可以是神经元202的输入连接总数。
神经元202可组合这些经按比例缩放的输入信号,并且使用组合的经按比例缩放的输入来生成输出信号208(即,信号Y)。输出信号208可以是电流、电导、电压、实数值的和/或复数值的。输出信号可以是具有定点或浮点表示的数值。随后该输出信号208可作为输入信号传递至同一神经系统的其他神经元、或作为输入信号传递至同一神经元202、或作为该神经系统的输出来传递。
处理单元(神经元)202可由电路来仿真,并且其输入和输出连接可由具有突触电路的电连接来仿真。处理单元202及其输入和输出连接也可由软件代码来仿真。处理单元202还可由电路来仿真,而其输入和输出连接可由软件代码来仿真。在一方面,计算网络中的处理单元202可以是模拟电路。在另一方面,处理单元202可以是数字电路。在又一方面,处理单元202可以是具有模拟和数字组件两者的混合信号电路。计算网络可包括任何前述形式的处理单元。使用这样的处理单元的计算网络(神经系统或神经网络)可用在大范围的应用中,诸如图像和模式识别、机器学习、电机控制、及类似应用等。
在神经网络的训练过程期间,突触权重(例如,来自图1的权重 和/或来自图2的权重2061-206N)可用随机值来初始化并根据学习规则而被增大或减小。本领域技术人员将领会,学习规则的示例包括但不限于尖峰定时依赖可塑性(STDP)学习规则、Hebb规则、Oja规则、Bienenstock-Copper-Munro(BCM)规则等。在某些方面,这些权重可稳定或收敛至两个值(即,权重的双峰分布)之一。该效应可被用于减少每个突触权重的位数、提高从/向存储突触权重的存储器读取和写入的速度、以及降低突触存储器的功率和/或处理器消耗。
突触类型
在神经网络的硬件和软件模型中,突触相关功能的处理可基于突触类型。突触类型可以是非可塑突触(权重和延迟没有改变)、可塑突触(权重可改变)、结构化延迟可塑突触(权重和延迟可改变)、全可塑突触(权重、延迟和连通性可改变)、以及基于此的变型(例如,延迟可改变,但在权重或连通性方面没有改变)。多种类型的优点在于处理可以被细分。例如,非可塑突触不会要求执行可塑性功能(或等待此类功能完成)。类似地,延迟和权重可塑性可被细分成可一起或分开地、顺序地或并行地运作的操作。不同类型的突触对于适用的每一种不同的可塑性类型可具有不同的查找表或公式以及参数。因此,这些方法将针对该突触的类型来访问相关的表、公式或参数。
还进一步牵涉到以下事实:尖峰定时依赖型结构化可塑性可独立于突触可塑性地来执行。结构化可塑性即使在权重幅值没有改变的情况下(例如,如果权重已达最小或最大值、或者其由于某种其他原因而不被改变)也可被执行,因为结构化可塑性(即,延迟改变的量)可以是前-后尖峰时间差的直接函数。替换地,结构化可塑性可被设为权重改变量的函数或者可基于与权重或权重改变的界限有关的条件来设置。例如,突触延迟可仅在权重改变发生时或者在权重到达0的情况下才改变,但在这些权重为最大值时则不改变。然而,具有独立函数以使得这些过程能被并行化从而减少存储器访问的次数和交叠可能是有利的。
突触可塑性的确定
神经元可塑性(或简称“可塑性”)是大脑中的神经元和神经网络响应于新的信息、感官刺激、发展、损坏、或机能障碍而改变其突触连接和行为的能力。可塑性对于生物学中的学习和记忆、以及对于计算神经元科学和神经网络是重要的。已经研究了各种形式的可塑性,诸如突触可塑性(例如,根据Hebbian理论)、尖峰定时依赖可塑性(STDP)、非突触可塑性、活跃性依赖可塑性、结构化可塑性和自稳态可塑性。
STDP是调节神经元之间的突触连接的强度的学习过程。连接强度是基于特定神经元的输出与收到输入尖峰(即,动作电位)的相对定时来调节的。在STDP过程下,如果至某个神经元的输入尖峰平均而言倾向于紧挨在该神经元的输出尖峰之前发生,则可发生长期增强(LTP)。于是使得该特定输入在一定程度上更强。另一方面,如果输入尖峰平均而言倾向于紧接在输出尖峰之后发生,则可发生长期抑压(LTD)。于是使得该特定输入在一定程度上更弱,并由此得名“尖峰定时依赖可塑性”。因此,使得可能是突触后神经元兴奋原因的输入甚至在将来作出贡献的可能性更大,而使得不是突触后尖峰的原因的输入在将来作出贡献的可能性更小。该过程继续,直至初始连接集合的子集保留,而所有其他连接的影响减小至无关紧要的水平。
由于神经元一般在其许多输入都在一短时段内发生(即,累积性足以引起输出)时产生输出尖峰,因此通常保留下来的输入子集包括倾向于在时间上相关的那些输入。另外,由于在输出尖峰之前发生的输入被加强,因此提供对相关性的最早充分累积性指示的那些输入将最终变成至该神经元的最后输入。
STDP学习规则可因变于突触前神经元的尖峰时间tpre与突触后神经元的尖峰时间tpost之间的时间差(即,t=tpost-tpre)来有效地适配将该突触前神经元连接到该突触后神经元的突触的突触权重。STDP的典型公式化是若该时间差为正(突触前神经元在突触后神经元之前激发)则增大突触权重(即,增强该突触),以及若该时间差为负(突触后神经元在突触前神经元之前激发)则减小突触权重(即,抑压该突触)。
在STDP过程中,突触权重随时间推移的改变可通常使用指数式衰退来达成,如由下式给出的:
其中k+和k-τsign(Δt)分别是针对正和负时间差的时间常数,a+和a-是对应的比例缩放幅值,并且μ是可应用于正时间差和/或负时间差的偏移。
图3解说根据STDP,因变于突触前(pre)和突触后(post)尖峰的相对定时的突触权重改变的示例性示图300。如果突触前神经元在突触后神经元之前激发,则对应的突触权重可被增大,如曲线图300的部分302中所解说的。该权重增大可被称为该突触的LTP。从曲线图部分302可观察到,LTP的量可因变于突触前和突触后尖峰时间之差而大致呈指数式地下降。相反的激发次序可减小突触权重,如曲线图300的部分304中所解说的,从而导致该突触的LTD。
如图3中的曲线图300中所解说的,可向STDP曲线图的LTP(因果性)部分302应用负偏移μ。x轴的交越点306(y=0)可被配置成与最大时间滞后重合以考虑到来自层i-1的各因果性输入的相关性。在基于帧的输入(即,呈特定历时的包括尖峰或脉冲的帧的形式的输入)的情形中,可计算偏移值μ以反映帧边界。该帧中的第一输入尖峰(脉冲)可被视为要么如直接由突触后电位所建模地随时间衰退,要么在对神经状态的影响的意义上随时间衰退。如果该帧中的第二输入尖峰(脉冲)被视为与特定时间帧相关或有关,则该帧之前和之后的有关时间可通过使STDP曲线的一个或多个部分偏移以使得这些有关时间中的值可以不同(例如,对于大于一个帧为负,而对于小于一个帧为正)来在该时间帧边界处被分开并在可塑性意义上被不同地对待。例如,负偏移μ可被设为偏移LTP以使得曲线实际上在大于帧时间的pre-post时间处变得低于零并且它由此为LTD而非LTP的一部分。
神经元模型及操作
存在一些用于设计有用的尖峰发放神经元模型的一般原理。良好的神经元模型在以下两个计算态相(regime)方面可具有丰富的潜在行为:重合性检测和功能性计算。此外,良好的神经元模型应当具有允许时间编码的两个要素:输入的抵达时间影响输出时间,以及重合性检测能具有窄时间窗。最后,为了在计算上是有吸引力的,良好的神经元模型在连续时间上可具有闭合形式解,并且具有稳定的行为,包括在靠近吸引子和鞍点之处。换言之,有用的神经元模型是可实践且可被用于建模丰富的、现实的且生物学一致的行为并且可被用于对神经电路进行工程设计和反向工程设计两者的神经元模型。
神经元模型可取决于事件,诸如输入抵达、输出尖峰或其他事件,无论这些事件是内部的还是外部的。为了达成丰富的行为库,能展现复杂行为的状态机可能是期望的。如果事件本身的发生在撇开输入贡献(若有)的情况下能影响状态机并约束该事件之后的动态,则该系统的将来状态并非仅是状态和输入的函数,而是状态、事件和输入的函数。
在一方面,神经元n可被建模为尖峰带漏泄积分激发神经元,其膜电压vn(t)由以下动态来支配:
其中α和β是参数,wm,n是将突触前神经元m连接至突触后神经元n的突触的突触权重,以及ym(t)是神经元m的尖峰发放输出,其可根据Δtm,n被延迟达树突或轴突延迟才抵达神经元n的胞体。
应注意,从建立了对突触后神经元的充分输入的时间直至该突触后神经元实际上激发的时间存在延迟。在动态尖峰神经元模型(诸如Izhikevich简单模型)中,如果在去极化阈值vt与峰值尖峰电压vpeak之间有差量,则可引发时间延迟。例如,在该简单模型中,神经元胞体动态可由关于电压和恢复的微分方程对来支配,即:
其中v是膜电位,u是膜恢复变量,k是描述膜电位v的时间尺度的参数,a是描述恢复变量u的时间尺度的参数,b是描述恢复变量u对膜电位v的阈下波动的敏感度的参数,vr是膜静息电位,I是突触电流,以及C是膜的电容。根据该模型,神经元被定义为在v>vpeak时发放尖峰。
Hunzinger Cold模型
Hunzinger Cold神经元模型是能再现丰富多样的各种神经行为的最小双态相尖峰发放线性动态模型。该模型的一维或二维线性动态可具有两个态相,其中时间常数(以及耦合)可取决于态相。在阈下态相中,时间常数(按照惯例为负)表示漏泄通道动态,其一般作用于以生物学一致的线性方式使细胞返回到静息。阈上态相中的时间常数(按照惯例为正)反映抗漏泄通道动态,其一般驱动细胞发放尖峰,而同时在尖峰生成中引发等待时间。
如图4中所解说的,该模型400的动态可被划分成两个(或更多个)态相。这些态相可被称为负态相402(也可互换地称为带漏泄积分激发(LIF)态相,勿与LIF神经元模型混淆)以及正态相404(也可互换地称为抗漏泄积分激发(ALIF)态相,勿与ALIF神经元模型混淆)。在负态相402中,状态在将来事件的时间趋向于静息(v-)。在该负态相中,该模型一般展现出时间输入检测性质及其他阈下行为。在正态相404中,状态趋向于尖峰发放事件(vs)。在该正态相中,该模型展现出计算性质,诸如取决于后续输入事件而引发发放尖峰的等待时间。在事件方面对动态进行公式化以及将动态分成这两个态相是该模型的基础特性。
线性双态相二维动态(对于状态v和u)可按照惯例定义为:
其中qρ和r是用于耦合的线性变换变量。
符号ρ在本文中用于标示动态态相,在讨论或表达具体态相的关系时,按照惯例对于负态相和正态相分别用符号“-”或“+”来替换符号ρ。
模型状态通过膜电位(电压)v和恢复电流u来定义。在基本形式中,态相在本质上是由模型状态来决定的。该精确和通用的定义存在一些细微却重要的方面,但目前考虑该模型在电压v高于阈值(v+)的情况下处于正态相404中,否则处于负态相402中。
态相依赖型时间常数包括负态相时间常数τ-和正态相时间常数τ+。恢复电流时间常数τu通常是独立于态相的。出于方便起见,负态相时间常数τ-通常被指定为反映衰退的负量,从而用于电压演变的相同表达式可用于正态相,在正态相中指数和τ+将一般为正,正如τu那样。
这两个状态元素的动态可在发生事件之际通过使状态偏离其零倾线(null-cline)的变换来耦合,其中变换变量为:
qρ=-τρβu-vρ (7)
r=δ(v+ε) (8)
其中δ、ε、β和v-、v+是参数。vρ的两个值是这两个态相的参考电压的基数。参数v-是负态相的基电压,并且膜电位在负态相中一般将朝向v-衰退。参数v+是正态相的基电压,并且膜电位在正态相中一般将趋向于背离v+
v和u的零倾线分别由变换变量qρ和r的负数给出。参数δ是控制u零倾线的斜率的缩放因子。参数ε通常被设为等于-v-。参数β是控制这两个态相中的v零倾线的斜率的电阻值。τρ时间常数参数不仅控制指数式衰退,还单独地控制每个态相中的零倾线斜率。
该模型可被定义为在电压v达到值vS时发放尖峰。随后,状态可在发生复位事件(其可以与尖峰事件完全相同)之际被复位:
u=u+Δu (10)
其中和Δu是参数。复位电压通常被设为v-
依照瞬时耦合的原理,闭合形式解不仅对于状态是可能的(且具有单个指数项),而且对于到达特定状态所需的时间也是可能的。闭合形式状态解为:
因此,模型状态可仅在发生事件之际被更新,诸如在输入(突触前尖峰)或输出(突触后尖峰)之际被更新。还可在任何特定时间(无论是否有输入或输出)执行操作。
此外,依照瞬时耦合原理,突触后尖峰的时间可被预计,因此到达特定状态的时间可提前被确定而无需迭代技术或数值方法(例如,欧拉数值方法)。给定了先前电压状态v0,直至到达电压状态vf之前的时间延迟由下式给出:
如果尖峰被定义为发生在电压状态v到达vS的时间,则从电压处于给定状态v的时间起测量的直至发生尖峰前的时间量或即相对延迟的闭合形式解为:
其中通常被设为参数v+,但其他变型可以是可能的。
模型动态的以上定义取决于该模型是在正态相还是负态相中。如所提及的,耦合和态相ρ可基于事件来计算。出于状态传播的目的,态相和耦合(变换)变量可基于在上一(先前)事件的时间的状态来定义。出于随后预计尖峰输出时间的目的,态相和耦合变量可基于在下一(当前)事件的时间的状态来定义。
存在对该Cold模型、以及在时间上执行模拟、仿真、或建模的若干可能实现。这包括例如事件-更新、步点-事件更新、以及步点-更新模式。事件更新是其中基于事件或“事件更新”(在特定时刻)来更新状态的更新。步点更新是以间隔(例如,1ms)来更新模型的更新。这不一定要求迭代方法或数值方法。通过仅在事件发生于步点处或步点间的情况下才更新模型或即通过“步点-事件”更新,基于事件的实现以有限的时间分辨率在基于步点的模拟器中实现也是可能的。
动态空间目标选择
专用于对多个目标(诸如空间目标)采取动作的系统使用各种准则来选择一个或多个目标。目标的选择可取决于正在解决的问题。例如,一种选择准则使用各目标与对象当前位置之间的空间关系。函数定义开始于对问题空间的定义。决策函数可持续地执行或者可以通过对象实例的在场来选通。
在常规的基于神经网络的目标选择中,目标可能占用的每个区域可与神经网络的一节点(例如神经元)相关联。神经元将经由一组权重被连接至该网络中的其他神经元,该组权重指定在该区域被目标占用的情况下选择该区域的可能性。即,权重可连同其他准则(诸如对象的当前位置)一起确定要选取的目标。在一个示例中,选择准则选择最靠近对象当前位置的目标。神经网络的节点可被抽象地认为是存储器中的位置,这些位置在目标占用空间中的相关联位置的情况下被写成高值,而在没有目标占用空间中的相关联位置的情况下被写成低值。
在一些情形中,可能期望动态地使选择偏向或偏离具体目标和/或区域。例如,在一对象(诸如机器人)访问特定区域和/或目标之后,该区域和/或目标被偏置为在特定时间段里被选择的可能性较小。在另一示例中,对象、用户、和/或网络学习到高值目标趋向于出现在特定区划中,诸如空间的左上象限。从而,在此示例中,可使目标选择偏向该特定区划。
空间位置可用尖峰发放单元的二维(2D)网格来表示。该网格中的每个单元的位置可被映射到物理空间中的位置。单元的属性可由该单元的活跃性(诸如尖峰发放速率)来指示。在一种配置中,活跃单元指示该位置是感兴趣的目标。如果对象包括相对于该对象的当前位置的目标地图,则可基于交叉抑制来选择一个或多个目标。基于交叉抑制来选择目标可被称为胜者全得。即,对象选择具有比其他目标的活跃率更大的活跃率的一个或多个目标。在本申请中,目标单元和/或空间区划可被称为目标。
在常规的目标选择准则中,交叉抑制性连接的权重在偏置对位置的选择时是不对称的。例如,在常规系统中,一位置抑制与本位置相比距对象更远的所有位置。与之形成对比的是,根据本公开的一方面,选择过程被动态地偏置。该偏置可被称为聚焦注意力。
即,在一种配置中,选择准则指定胜者全得网络,该网络包括被叠加以使选择偏向特定区划的空间注意力地图。该偏置可使用交叉抑制性连接,这些交叉抑制性连接使用居间的中间神经元。在非偏置状况下(即,未叠加有聚焦地图),该中间神经元在各单元之间中继抑制。尽管如此,该聚焦地图可修改中间神经元的可兴奋性以使得这些中间神经元传送抑制性冲激的可能性更大或更小。修改中间神经元的可兴奋性偏置胜者全得计算。
图5解说了根据本公开的一方面的目标选择的示例。如图5中所示,目标504、506、508、510围绕对象502。在常规系统中,对象502可被指定为选择第二目标506,因为第二目标506是最靠近对象502的目标。根据本公开的一方面,与其他目标504、506、508和/或其他空间区域(未示出)相比,在第四目标510附近的区域512和/或第四目标510本身被指定为是更期望的目标。在一个示例中,在第四目标510附近的区域512和/或第四目标510是更期望的,因为第四目标510是高值目标。在另一示例中,在第四目标510附近的区域512和/或第四目标510是更期望的,因为目标502先前已选择了其他目标504、506、508中的一者并且被指定为在预定义时间段里访问新区域。尽管如此,本公开的各方面不限于前述的关于指定区域和/或目标的期望性的原因,当然,构想了将特定目标和/或区划指定为是期望的其他原因。
如图6中所示,目标地图600可由地点单元602的2D网格来表示。目标在一位置处的在场由单元的活跃性(诸如尖峰发放间隔)来指定。在一种配置中,假定了(诸)目标在目标地图600中的坐标已被变换为相对于对象的位置而言。
坐标变换是指将相对于第一参考系的空间表示转换为相对于第二参考系的实质上类似的表示。例如,可向对象(诸如机器人)给予目标相对于房间西北角的坐标集。在此示例中,该目标的坐标基于世界中心参考系(即,非自我中心式坐标表示)。尽管如此,对于计划朝该目标移动的对象而言,期望将非自我中心式坐标转换为相对于该对象的当前位置和方向的表示(即,自我中心式参考系)。即,非自我中心式坐标应当被转换为自我中心式坐标。该目标的自我中心式坐标将随着该对象在房间内四处移动而改变,尽管如此,非自我中心式坐标将在该对象在房间内四处移动时保持不变。将期望维持基于对象的固定位置(诸如地图中心)的自我中心式坐标。
如图6中所示,对象604的位置处于目标地图600的中心。即,与非自我中心式地图(未示出)形成对比的是,图6的目标地图600中的对象604和目标606、608、610的坐标基于来自该对象的位置的参考系。
在常规网络中,交叉抑制被指定以允许一个单元按照大于另一个单元的速率发放尖峰。即,当期望这些单元之一更有可能胜利时,抑制性权重可使用于选择的偏置失衡。例如,如果一个单元更靠近对象,则抑制性权重可偏置其他目标的尖峰发放。
图7解说了交叉抑制的示例。如图7中所示,第一单元702抑制第二单元704,从而使得第一单元702更有可能胜利。即,可经由第一连接706输出抑制性权重。第一连接706被连接至第一单元702的输出710。第二连接708也被连接至第二单元704的输出712。第二连接708也可向第一单元702输出抑制性权重。尽管如此,在此配置中,第一连接706的抑制性权重大于第二连接708的抑制性权重。因此,第一单元702抑制第二单元704,从而使得第一单元702更有可能胜利。此外,第一单元702经由第一输入714来接收信号(例如,尖峰),而第二单元704经由第二输入716来接收信号(例如,尖峰)。在一种配置中,该交叉抑制仅允许一个单元比其他单元更活跃。
图8解说了根据本公开的一方面的交叉抑制的示例。作为一示例,在图8中,第一单元802抑制第二单元804,从而使得第一单元802更有可能胜利。即,可经由第一连接806输出抑制性权重。第一连接806被连接至第一单元802的输出810和第一中间神经元816,第一中间神经元816经由第一中间神经元连接820来抑制第二单元804。第二连接808也被连接至第二单元804的输出812和第二中间神经元818,第二中间神经元818经由第二中间神经元连接822来抑制第一单元802。第二连接808还可向第一单元802输出抑制性权重。第一单元802经由第一输入814来接收输入,而第二单元804经由第二输入824来接收输入。
尽管如此,在本配置中,中间神经元816、818仲裁抑制。即,中间神经元816、818可进一步控制施加于神经元(诸如第一单元802或第二单元804)的交叉抑制量。具体而言,中间神经元816、818可动态地修改连接的抑制性权重和/或兴奋性权重。
作为一示例,基于经由第一连接806接收的输入来激活第一中间神经元816。在此示例中,第一中间神经元816可基于选择函数来增大或减小抑制的权重。相应地,经动态修改的权重经由第三连接820被输出至第二神经元804。而且,第二神经元804的活跃性基于经由第三连接820接收的输入被动态地修改。类似地,第一神经元802的活跃性可以基于经由第四连接822接收的经动态修改的权重来被动态地修改。
应当注意,前述连接不限于提供抑制性权重。还构想了本公开的各方面用于经由连接来提供兴奋性权重。
如前面讨论的,前述交叉抑制可被应用于二维单元网格。图9解说了用于目标地图900中的目标选择的交叉抑制的示例。如前面讨论的,在一种配置中,经由权重的相对比例缩放来指定选择函数。即,该二维网格中的特定单元对第二单元所具有的抑制性作用可大于第二单元对第一单元的抑制性作用。
在一种配置中,特定目标是基于选择函数来选择的。选择函数可通过控制神经网络中的各目标之间的连接的失衡来动态地修改。每个目标可与一个或多个神经元相关联。而且,在一种配置中,选择函数基于回报的抑制、选择了该目标的对象的行为状态、时间段、所指派的任务、时间复用函数、和/或从与神经网络集合相对应的任务集合中选择任务的事件。每个任务可对应于一神经网络并且每个神经网络可以是静态网络或动态网络。
作为示例,如图9中所示,基于选择函数来选择目标909。例如,所选目标909是因为所选目标909的区划是高值区划而被选择的。当从这多个目标中选择目标时,在所选目标909附近的单元(诸如非目标单元912)抑制距离所选目标909较远的其他单元(诸如未选择的目标单元902、904、906和/或非目标单元912)。而且,对象910以及在所选目标909附近的单元(诸如非目标单元912)可激励所选目标909。即,未被选择的目标单元902、904、906的活跃性被抑制,从而使得对象910选择所选目标单元909。在一种配置中,多个目标可以是候选目标,然而,基于交叉抑制,只有一个目标是活跃目标。
如上面讨论的,目标的尖峰发放被修改,以使得对象选择指定目标。在一种配置中,连接包括定义在每对输入和输出神经元之间的连接上的中间神经元。而且,在本配置中,通过修改中间神经元的可兴奋性和/或修改中间神经元与输入和输出神经元之间的突触权重的功效来动态地修改选择函数。替代地或附加地,经由外部输入来动态地修改选择函数。
如先前讨论的,在一种配置中,通过修改神经元的可兴奋性和/或修改突触权重的功效来动态地修改选择函数。突触权重可以是针对输入突触和/或神经元之间的连接的权重。而且,在一种配置中,神经网络中的连接的失衡量基于对该神经网络的输入和/或来自该神经网络的输出。
如图9中所示,单元909、912、910可彼此抑制。例如,所选目标单元909抑制周围的单元912。而且,周围的单元912还可抑制或激励所选目标单元909。尽管如此,从目标单元909输出的抑制大于在目标单元909处从周围单元912接收到的抑制。单元909、910、912经由连接916提供抑制性和/或兴奋性输出。
图9还示出了毗邻于目标单元909的具有抑制性连接的单元。尽管如此,本公开的各方面不限于仅在各单元之间指定抑制性连接,而是可在任何距离的单元之间指定抑制性连接。
如上面讨论的,在一种配置中,在神经网络中的连接之间设置失衡。失衡可以是抑制性权重或兴奋性权重。抑制性权重减小神经元的尖峰发放速率,而兴奋性权重增加神经元的尖峰发放。可经由前馈抑制性连接和/或反馈抑制性连接来提供抑制性权重。替代地或附加地,可经由前馈抑制性连接和/或反馈兴奋性连接来提供兴奋性权重。连接可以是一个或多个第一输入层连接、神经元输入、侧向连接、和/或其他类型的连接。即,在一种配置中,连接是对神经元的输入。替代地或附加地,连接是神经元之间的侧向连接。
此外,基于选择函数(诸如目标单元与对象的距离)来设置失衡。尽管如此,选择函数不限于目标离对象的距离,而是可基于其他准则。例如,在另一配置中,基于目标的概率来选择一个或多个目标。每个目标可对应于多个活跃神经元或一个活跃神经元。概率可以是指尖峰发放概率。
此外,在一种配置中,与候选目标单元相对应的神经元之间的相对激活被修改。相对激活对应于一个或多个目标单元并且基于目标之间的失衡量。相对激活被指定以使得一个或多个目标(例如神经元)相比于其他目标具有更大的活跃量。
在一种配置中,目标是空间目标。如之前讨论的,基于经由神经元之间的连接所提供的失衡量来选择一个或多个目标。即,对象选择具有最高活跃性(诸如尖峰发放速率)的目标。目标可以是一个或多个活跃神经元。
图10解说了根据本公开的一方面的交叉抑制的示例。如图10中所示,多个神经元1002被指定,且一组神经元被选择为目标1004、1006、1008。基于所接收的输入1010、1012、1014,目标1004、1006、1008可以是活跃的(例如,发放尖峰)。作为一示例,基于选择准则,第一目标1004比其他目标1006、1008更活跃。因而,在此示例中,对象(未示出)将选择第一目标。尽管如此,作为另一示例,第一目标1004可经由抑制连接1016来抑制其他目标1006、1008的活跃性。抑制可降低或终止其他目标1006、1008的活跃性。
图11解说了根据本公开的另一方面的交叉抑制的示例。如图11中所示,多个神经元1102被指定,且一组神经元被选择为目标1104、1106、1108。基于所接收的输入1110、1112、1114,目标1104、1106、1108可以是活跃的(例如,发放尖峰)。作为一示例,基于选择准则,第一目标1104比其他目标1106、1108更活跃。从而,在此示例中,对象(未示出)将选择第一目标。尽管如此,在一种配置中,为第一输入层指定了诸神经元1102且其被连接至第二层的神经元1118。相应地,基于从第一层神经元1102接收的输入,第二层神经元1118是活跃的。在此配置中,对象选择与第二层的(诸)活跃神经元相关联的目标。
在一种配置中,第二层神经元1118包括交叉抑制连接以防止其他神经元活跃。即,如图11中所示,基于所接收的输入1110、1112、1114,目标1104、1106、1108全部活跃。作为一示例,基于选择准则,第一目标1104比其他目标1106、1108更活跃。尽管如此,与第一层目标神经元1104、1106、1108相对应的第二层目标神经元1122、1124、1126并非全部活跃,因为第二层的第一目标神经元1122经由抑制性连接1128来抑制其他第二层目标神经元1124、1126以使得这些其他第二层目标神经元1124、1126不变得活跃。即,即便第一层目标神经元全部活跃,然而由于抑制性连接,仅一个第二层神经元活跃。更具体而言,基于抑制,在第一层接收到的输入不被表示,而仅选择准则的输出被表示。第一层神经元可经由突触1130、1132、1134被连接至第二层神经元。
在一种配置中,在第一层神经元1102与第二层神经元1118之间的突触上指定前馈抑制。前馈抑制性连接可被连接至相邻神经元,并且在接收到针对一特定神经元的尖峰时抑制相邻神经元。例如,在图11中,可以在第一层目标神经元1104、1106、1108与第二层目标神经元1122、1124、1126之间的每个突触1130、1132、1134上提供抑制性连接(未示出)。从而,作为一示例,当第一突触1130接收来自第一层的第一目标神经元1104的尖峰时,该前馈抑制性连接抑制第二层的第一神经元1122的相邻神经元。
在另一配置中,为第二层神经元之间的抑制性连接指定中间神经元。为抑制性连接所指定的中间神经元可被称为侧向抑制。作为示例,在图11中,可为第二层的第一目标神经元1122与其他第二层目标神经元1124、1126之间的每个抑制性连接1128指定中间神经元(未示出)。
连接(诸如抑制性连接)不限于第一层目标神经元和第二层目标神经元,还在第一层和第二层中的所有神经元之间指定连接。此外,前述连接不限于抑制性连接,并且还被构想为兴奋性连接。而且,构想了本公开的各方面用于动态地修改任何前述连接以及未明确指定的其他连接的失衡。本公开的各方面可减少或消除要指定对神经元的输入使用以标称频率随机间隔开的尖峰(即,泊松激发)来达成中间神经元中的可兴奋性的分级等级的需要。而且,在一种配置中,目标可与一个或多个神经元相关联。例如,一个神经元可表示一个目标。替代地,多个神经元可表示一个目标。
在一种配置中,可指定用于通过控制神经网络中的连接的失衡量来动态地修改选择函数的多个静态和/或动态网络。即,第一网络可被指定成聚焦于一特定任务,且第一网络控制神经网络中的连接的失衡量以动态地修改针对该特定任务的选择函数。而且,可指定使用第一网络中的部分或全部神经元的第二网络。第二网络的任务可以不同于第一网络的任务。因此,第二网络控制神经网络中的连接的失衡量以动态地修改针对第二网络的特定任务的选择函数。即,针对目标选择所指定的硬件可被重用于基于不同网络的不同任务。可在连接(诸如输入、输出或神经间连接)上指定任务选择器以在各特定任务(例如,网络)间切换。
在另一配置中,向数据应用逻辑函数的循环。逻辑函数循环的一个示例如下:
当存在数据时
如果新数据(newdata)比当前胜者(currentWinner)更靠近对象,
则用新数据取代当前胜者
在本配置中,该循环的运行时间取决于所考虑的数据量。而且,在本配置中,所有数据均被指派给存储器元素。在将数据指派给存储器元素之后,通过在各存储器元素之间传递消息(例如,抑制)来执行选择函数。本配置对于运行时间具有增大的可预测性,而不管考虑了多少数据。而且,本配置减少被计算引擎处理的数据量。
作为示例,对于本配置,一组对象被提交给选择函数。每个对象可被表示为被传送至与该对象相关联的一个或多个存储器元素的信号。在一种配置中,一个存储器位置被指定为标识一对象。尽管如此,多个存储器位置可以被同时组合以定义对象的身份。例如,位置(4,5.5)处的目标可由与(4,5)和(4,6)相对应的存储器位置来表示。
每个对象实例的表示可影响存储器阵列中的其他对象实例的表示。在各对象实例的表示之间施加的影响可经由各对象实例之间的连接来传送。与一个对象实例相关联的信号可影响与其他对象实例相关联的信号的目标(即,前馈抑制)。而且,该信号的目标的值也可直接影响其他信号的目标(即,侧向抑制)。此外,信号的目标的值可修改单独的存储器元素,而该单独的存储器元素进一步影响其他输入信号的目标(即,带中间神经元的侧向抑制)。最终,与一个对象实例相关联的信号可修改单独的存储器元素,而该单独的存储器元素影响其他输入信号的目标(即,带中间神经元的前馈抑制)。
在一种配置中,存储器元素可以是神经网络中的神经元。此外,在尖峰神经网络中,存储器元素是处于活跃状态的按相比于基线而言增大的速率发放尖峰的神经元。而且,在基于速率的神经网络中,存储器元素是具有基于该存储器元素的输入的持续活跃水平的神经元。
在一种配置中,选择函数是基于存储器元素之间的权重指定来定义的,藉此一个元素中的活跃水平影响其他元素中的活跃水平。当每个存储器元素的影响范围在空间上被约束时,整体计算可被并行化且可具有与串行化计算相比而言提升的性能。
图12解说了根据本公开的某些方面的使用通用处理器1202进行前述目标选择的示例实现1200。与计算网络(神经网络)相关联的变量(神经信号)、突触权重、系统参数,延迟,和频率槽信息可被存储在存储器块1204中,而在通用处理器1202处执行的指令可从程序存储器1206中加载。在本公开的一方面中,加载到通用处理器1202中的指令可包括用于通过控制神经网络中的连接的失衡量来动态地修改选择函数的代码。
图13解说了根据本公开的某些方面的前述目标选择的示例实现1300,其中存储器1302可以经由互连网络1304与计算网络(神经网络)的个体(分布式)处理单元(神经处理器)1306对接。与计算网络(神经网络)相关联的变量(神经信号)、突触权重、系统参数,延迟,频率槽信息,连接失衡可被存储在存储器1302中,并且可从存储器1302经由互连网络1304的连接被加载到每个处理单元(神经处理器)1306中。在本公开的一方面中,处理单元1306可被配置成通过控制神经网络中的连接的失衡量来动态地修改选择函数。
图14解说前述目标选择的示例实现1400。如图14中所解说的,一个存储器组1402可与计算网络(神经网络)的一个处理单元1404直接对接。每一个存储器组1402可存储与对应的处理单元(神经处理器)1404相关联的变量(神经信号)、突触权重、和/或系统参数,延迟,频率槽信息,以及连接失衡。在本公开的一方面中,处理单元1404可被配置成通过控制神经网络中的连接的失衡量来动态地修改选择函数。
图15解说根据本公开的某些方面的神经网络1500的示例实现。如图15中所解说的,神经网络1500可具有多个局部处理单元1502,它们可执行上述方法的各种操作。每个局部处理单元1502可包括存储该神经网络的参数的局部状态存储器1504和局部参数存储器1506。另外,局部处理单元1502可具有用于存储局部模型程序的局部(神经元)模型程序(LMP)存储器1508、用于存储局部学习程序的局部学习程序(LLP)存储器1510、以及局部连接存储器1512。此外,如图15中所解说的,每个局部处理单元1502可与用于提供对局部处理单元的局部存储器的配置的配置处理单元1514对接,并且与提供各局部处理单元1502之间的路由的路由连接处理元件1516对接。
在一个配置中,神经元模型被配置成用于通过控制神经网络中的连接的失衡量来动态地修改选择函数。该神经元模型包括修改装置。在一种配置中,该修改装置是被配置成执行所述功能的通用处理器1202、程序存储器1206、存储器块1204、存储器1302、互连网络1304、处理单元1306、处理单元1404、局部处理单元1502、和/或路由连接处理单元1516。此外,该神经元模型可包括用于确定的装置。在一种配置中,该确定装置是被配置成执行所述功能的通用处理器1202、程序存储器1206、存储器块1204、存储器1302、互连网络1304、处理单元1306、处理单元1404、局部处理单元1502、和/或路由连接处理单元1516。在另一配置中,前述各装置可以是被配置成执行前述装置所叙述的功能的任何模块或任何设备。
根据本公开的某些方面,每一个局部处理单元1502可被配置成基于神经网络的期望的一个或多个功能性特征来确定神经网络的参数,以及随着所确定的参数被进一步适配、调谐和更新来使这一个或多个功能性特征朝着期望的功能性特征发展。
图16解说了用于在神经网络中选择目标的方法1600。在框1602,该神经网络确定用于神经网络中的候选目标的选择函数。更具体而言,该确定可由该神经网络中的连接来执行。此外,在框1604,该神经网络通过控制神经网络中的连接的失衡量来动态地修改该选择函数。所选神经元代表每个候选目标。在一种配置中,聚焦地图和/或外部输入被指定以动态地修改该选择函数。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可包括各种硬件和/或软件组件和/或模块,包括但不限于电路、专用集成电路(ASIC)、或处理器。一般而言,在附图中有解说的操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。
如本文所使用的,术语“确定”涵盖各种各样的动作。例如,“确定”可包括演算、计算、处理、推导、研究、查找(例如,在表、数据库或其他数据结构中查找)、探知及诸如此类。另外,“确定”可包括接收(例如接收信息)、访问(例如访问存储器中的数据)、及类似动作。而且,“确定”可包括解析、选择、选取、确立及类似动作。
如本文中所使用的,引述一列项目中的“至少一个”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c和a-b-c。
结合本公开所描述的各种解说性逻辑框、模块、以及电路可用设计成执行本文所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列信号(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件或其任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,该处理器可以是任何市售的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协同的一个或多个微处理器、或任何其它此类配置。
结合本公开所描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中体现。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、寄存器、硬盘、可移动盘、CD-ROM,等等。软件模块可包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合到处理器以使得该处理器能从/向该存储介质读写信息。替换地,存储介质可以被整合到处理器。
本文所公开的方法包括用于实现所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件、或其任何组合中实现。如果以硬件实现,则示例硬件配置可包括设备中的处理系统。处理系统可以用总线架构来实现。取决于处理系统的具体应用和整体设计约束,总线可包括任何数目的互连总线和桥接器。总线可将包括处理器、机器可读介质、以及总线接口的各种电路链接在一起。总线接口可用于尤其将网络适配器等经由总线连接至处理系统。网络适配器可用于实现信号处理功能。对于某些方面,用户接口(例如,按键板、显示器、鼠标、操纵杆,等等)也可以被连接到总线。总线还可以链接各种其他电路,诸如定时源、外围设备、稳压器、功率管理电路以及类似电路,它们在本领域中是众所周知的,因此将不再进一步描述。
处理器可负责管理总线和一般处理,包括执行存储在机器可读介质上的软件。处理器可用一个或多个通用和/或专用处理器来实现。示例包括微处理器、微控制器、DSP处理器、以及其他能执行软件的电路系统。软件应当被宽泛地解释成意指指令、数据、或其任何组合,无论是被称作软件、固件、中间件、微代码、硬件描述语言、或其他。作为示例,机器可读介质可包括随机存取存储器(RAM)、闪存、只读存储器(ROM)、可编程只读存储器(PROM)、可擦式可编程只读存储器(EPROM)、电可擦式可编程只读存储器(EEPROM)、寄存器、磁盘、光盘、硬驱动器、或者任何其他合适的存储介质、或其任何组合。机器可读介质可被实施在计算机程序产品中。该计算机程序产品可以包括包装材料。
在硬件实现中,机器可读介质可以是处理系统中与处理器分开的一部分。然而,如本领域技术人员将容易领会的,机器可读介质、或其任何部分可在处理系统外部。作为示例,机器可读介质可包括传输线、由数据调制的载波、和/或与设备分开的计算机产品,所有这些都可由处理器通过总线接口来访问。替换地或补充地,机器可读介质、或其任何部分可被集成到处理器中,诸如高速缓存和/或通用寄存器文件可能就是这种情形。虽然所讨论的各种组件可被描述为具有特定位置,诸如局部组件,但它们也可按各种方式来配置,诸如某些组件被配置成分布式计算系统的一部分。
处理系统可以被配置为通用处理系统,该通用处理系统具有一个或多个提供处理器功能性的微处理器、和提供机器可读介质中的至少一部分的外部存储器,它们都通过外部总线架构与其他支持电路系统链接在一起。替换地,该处理系统可以包括一个或多个神经元形态处理器以用于实现本文所述的神经元模型和神经系统模型。作为另一替代方案,处理系统可以用带有集成在单块芯片中的处理器、总线接口、用户接口、支持电路系统、和至少一部分机器可读介质的专用集成电路(ASIC)来实现,或者用一个或多个现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、控制器、状态机、门控逻辑、分立硬件组件、或者任何其他合适的电路系统、或者能执行本公开通篇所描述的各种功能性的电路的任何组合来实现。取决于具体应用和加诸于整体系统上的总设计约束,本领域技术人员将认识到如何最佳地实现关于处理系统所描述的功能性。
机器可读介质可包括数个软件模块。这些软件模块包括当由处理器执行时使处理系统执行各种功能的指令。这些软件模块可包括传输模块和接收模块。每个软件模块可以驻留在单个存储设备中或者跨多个存储设备分布。作为示例,当触发事件发生时,可以从硬驱动器中将软件模块加载到RAM中。在软件模块执行期间,处理器可以将一些指令加载到高速缓存中以提高访问速度。随后可将一个或多个高速缓存行加载到通用寄存器文件中以供由处理器执行。在以下谈及软件模块的功能性时,将理解此类功能性是在处理器执行来自该软件模块的指令时由该处理器来实现的。
如果以软件实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其它介质。另外,任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可包括瞬态计算机可读介质(例如,信号)。上述的组合也应被包括在计算机可读介质的范围内。
因此,某些方面可包括用于执行本文中给出的操作的计算机程序产品。例如,此类计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
此外,应当领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由用户终端和/或基站在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文所述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘等物理存储介质等)来提供,以使得一旦将该存储装置耦合至或提供给用户终端和/或基站,该设备就能获得各种方法。此外,能利用适于向设备提供本文描述的方法和技术的任何其他合适的技术。
应该理解的是,权利要求并不被限定于以上所解说的精确配置和组件。可在以上所描述的方法和设备的布局、操作和细节上作出各种改动、更换和变形而不会脱离权利要求的范围。

Claims (30)

1.一种用人工神经网络来动态地修改目标选择的由计算机实现的方法,包括:
将多个目标中的每个目标映射到目标地图中的不同位置,所述目标地图包括空间环境中相对于机器人设备的位置的多个位置,每个位置由所述人工神经网络中的神经元表示;以及
通过控制至所述人工神经网络的神经元的失衡量来动态地修改目标选择函数以使所述机器人设备偏向或偏离候选目标地移动,所述失衡量基于偏置准则来激励至所述神经元的连接或抑制至所述神经元的连接,所述神经元代表与所述候选目标相对应的位置。
2.如权利要求1所述的由计算机实现的方法,其特征在于,所述连接包括耦合在每一对输入和输出神经元之间的中间神经元,并且所述动态地修改包括以下至少一者:动态地修改所述中间神经元的可兴奋性、动态地修改所述中间神经元与相应的输入和输出神经元对之间的突触权重的功效、或其组合。
3.如权利要求2所述的由计算机实现的方法,其特征在于,所述动态地修改包括用外部输入来动态地修改。
4.如权利要求1所述的由计算机实现的方法,其特征在于,所述动态地修改包括以下至少一者:动态地修改所述神经元的可兴奋性、动态地修改突触权重的功效、或其组合。
5.如权利要求4所述的由计算机实现的方法,其特征在于,所述突触权重是至少针对输入突触、神经元之间的连接、或其组合的。
6.如权利要求1所述的由计算机实现的方法,其特征在于,所述目标选择函数基于以下至少一者:回报的抑制、选择了所述目标的对象的行为状态、时间段、所指派的任务、时间复用函数、从与多个人工神经网络相对应的多个任务中选择任务的事件、或其组合。
7.如权利要求6所述的由计算机实现的方法,其特征在于,每个任务对应于所述多个人工神经网络中的一个,并且每个人工神经网络是静态网络或动态网络。
8.如权利要求1所述的由计算机实现的方法,其特征在于,进一步包括基于对所述人工神经网络的输入、来自所述人工神经网络的输出、或其组合中的至少一者来控制所述人工神经网络中的失衡量。
9.一种用人工神经网络来动态地修改目标选择的装置,所述装置包括:
存储器单元;以及
耦合至所述存储器单元的至少一个处理器,所述至少一个处理器被配置成:
将多个目标中的每个目标映射到目标地图中的不同位置,所述目标地图包括空间环境中相对于机器人设备的位置的多个位置,每个位置由所述人工神经网络中的神经元表示;以及
通过控制至所述人工神经网络的神经元的失衡量来动态地修改目标选择函数以使所述机器人设备偏向或偏离候选目标地移动,所述失衡量基于偏置准则来激励至所述神经元的连接或抑制至所述神经元的连接,所述神经元代表与所述候选目标相对应的位置。
10.如权利要求9所述的装置,其特征在于,所述连接包括耦合在每一对输入和输出神经元之间的中间神经元,并且所述至少一个处理器被进一步配置成动态地修改以下至少一者:所述中间神经元的可兴奋性、所述中间神经元与相应的输入和输出神经元对之间的突触权重的功效、或其组合。
11.如权利要求10所述的装置,其特征在于,所述至少一个处理器被进一步配置成用外部输入来动态地修改。
12.如权利要求9所述的装置,其特征在于,所述至少一个处理器被进一步配置成动态地修改所述神经元的可兴奋性、突触权重的功效、或其组合中的至少一者。
13.如权利要求12所述的装置,其特征在于,所述突触权重是针对输入突触、神经元之间的连接、或其组合中的至少一者的。
14.如权利要求9所述的装置,其特征在于,所述选择函数基于以下至少一者:回报的抑制、选择了所述目标的对象的行为状态、时间段、所指派的任务、时间复用函数、从与多个人工神经网络相对应的多个任务中选择任务的事件、或其组合。
15.如权利要求14所述的装置,其特征在于,每个任务对应于所述多个人工神经网络中的一个,并且每个人工神经网络是静态网络或动态网络。
16.如权利要求9所述的装置,其特征在于,所述至少一个处理器被进一步配置成基于对所述人工神经网络的输入、来自所述人工神经网络的输出、或其组合中的至少一者来控制所述人工神经网络中的失衡量。
17.一种设备,所述设备包括:
用于将多个目标中的每个目标映射到目标地图中的不同区域的装置,所述目标地图包括空间环境中相对于机器人设备的位置的多个区域,每个区域由人工神经网络中的神经元表示;以及
用于确定激励或抑制人工神经网络中的连接的失衡量的装置;以及
用于通过控制至对应于一区域的神经元的失衡量来动态地修改目标选择函数以使所述机器人设备偏向或偏离所述区域移动的装置,所述失衡量基于偏置准则来激励至对应于所述区域的所述神经元的连接或抑制至对应于所述区域的所述神经元的连接。
18.如权利要求17所述的设备,其特征在于,所述连接包括耦合在每一对输入和输出神经元之间的中间神经元,并且所述用于动态地修改的装置包括用于动态地修改所述中间神经元的可兴奋性、所述中间神经元与相应的输入和输出神经元对之间的突触权重的功效、或其组合中的至少一者的装置。
19.如权利要求18所述的设备,其特征在于,所述用于动态地修改的装置包括用于用外部输入来动态地修改的装置。
20.如权利要求17所述的设备,其特征在于,所述用于动态地修改的装置包括用于动态地修改神经元的可兴奋性、修改突触权重的功效、或其组合中的至少一者的装置。
21.如权利要求20所述的设备,其特征在于,所述突触权重是针对输入突触、神经元之间的连接、或其组合中的至少一者的。
22.如权利要求17所述的设备,其特征在于,所述选择函数基于以下至少一者:回报的抑制、选择了所述目标的对象的行为状态、时间段、所指派的任务、时间复用函数、从与多个人工神经网络相对应的多个任务中选择任务的事件、或其组合。
23.如权利要求22所述的设备,其特征在于,每个任务对应于所述多个人工神经网络中的一个,并且每个人工神经网络是静态网络或动态网络。
24.如权利要求17所述的设备,其特征在于,进一步包括用于基于对所述人工神经网络的输入、来自所述人工神经网络的输出、或其组合中的至少一者来控制所述人工神经网络中的失衡量的装置。
25.一种用人工神经网络来动态地修改目标选择的其上记录有非瞬态程序代码的非瞬态计算机可读介质,所述程序代码包括:
用于将多个目标中的每个目标映射到目标地图中的不同位置的程序代码,所述目标地图包括空间环境中相对于机器人设备的位置的多个位置,每个位置由所述人工神经网络中的神经元表示;以及
用于通过控制至所述人工神经网络的神经元的失衡量来动态地修改目标选择函数以使所述机器人设备偏向或偏离候选目标地移动的程序代码,所述失衡量基于偏置准则来激励至所述神经元的连接或抑制至所述神经元的连接,所述神经元代表与所述候选目标相对应的位置。
26.如权利要求25所述的非瞬态计算机可读介质,其特征在于,所述连接包括耦合在每一对输入和输出神经元之间的中间神经元,并且所述程序代码进一步包括用于动态地修改所述中间神经元的可兴奋性、所述中间神经元与相应的输入和输出神经元对之间的突触权重的功效、或其组合中的至少一者的程序代码。
27.如权利要求26所述的非瞬态计算机可读介质,其特征在于,所述程序代码进一步包括用于用外部输入来动态地修改的程序代码。
28.如权利要求25所述的非瞬态计算机可读介质,其特征在于,所述程序代码进一步包括用于动态地修改所述神经元的可兴奋性、突触权重的功效、或其组合中的至少一者的程序代码。
29.如权利要求28所述的非瞬态计算机可读介质,其特征在于,所述突触权重是针对输入突触、神经元之间的连接、或其组合中的至少一者的。
30.如权利要求25所述的非瞬态计算机可读介质,其特征在于,所述选择函数基于以下至少一者:回报的抑制、选择所述目标的对象的行为状态、时间段、所指派的任务、时间复用函数、从与多个人工神经网络相对应的多个任务中选择任务的事件、或其组合。
CN201580009554.0A 2014-02-21 2015-02-19 动态空间目标选择 Active CN106796667B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201461943231P 2014-02-21 2014-02-21
US201461943227P 2014-02-21 2014-02-21
US61/943,231 2014-02-21
US61/943,227 2014-02-21
US14/325,169 US10552734B2 (en) 2014-02-21 2014-07-07 Dynamic spatial target selection
US14/325,169 2014-07-07
PCT/US2015/016693 WO2015127130A2 (en) 2014-02-21 2015-02-19 Dynamic spatial target selection

Publications (2)

Publication Number Publication Date
CN106796667A CN106796667A (zh) 2017-05-31
CN106796667B true CN106796667B (zh) 2019-12-13

Family

ID=53879236

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580009554.0A Active CN106796667B (zh) 2014-02-21 2015-02-19 动态空间目标选择

Country Status (6)

Country Link
US (1) US10552734B2 (zh)
EP (1) EP3108413A2 (zh)
JP (1) JP2017509980A (zh)
CN (1) CN106796667B (zh)
TW (1) TW201539334A (zh)
WO (1) WO2015127130A2 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US11029836B2 (en) * 2016-03-25 2021-06-08 Microsoft Technology Licensing, Llc Cross-platform interactivity architecture
US10885425B2 (en) * 2016-12-20 2021-01-05 Intel Corporation Network traversal using neuromorphic instantiations of spike-time-dependent plasticity
US10846590B2 (en) * 2016-12-20 2020-11-24 Intel Corporation Autonomous navigation using spiking neuromorphic computers
US11373091B2 (en) 2017-10-19 2022-06-28 Syntiant Systems and methods for customizing neural networks
EP3764173A1 (en) * 2019-07-08 2021-01-13 ABB Schweiz AG Human-plausible automated control of an industrial process

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521653A (zh) * 2011-11-23 2012-06-27 河海大学常州校区 井下多机器人联合搜救的生物刺激神经网络设备及其方法
CN103116354A (zh) * 2013-01-30 2013-05-22 同济大学 一种双足机器人实时步态轨迹生成方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6941289B2 (en) 2001-04-06 2005-09-06 Sas Institute Inc. Hybrid neural network generation system and method
US6961719B1 (en) 2002-01-07 2005-11-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Hybrid neural network and support vector machine method for optimization
US7483868B2 (en) 2002-04-19 2009-01-27 Computer Associates Think, Inc. Automatic neural-net model generation and maintenance
WO2004111931A2 (en) 2003-06-10 2004-12-23 California Institute Of Technology A system and method for attentional selection
US7324979B2 (en) 2003-08-29 2008-01-29 Bbn Technologies Corp. Genetically adaptive neural network classification systems and methods
US7519452B2 (en) * 2004-04-15 2009-04-14 Neurosciences Research Foundation, Inc. Mobile brain-based device for use in a real world environment
US20120271748A1 (en) 2005-04-14 2012-10-25 Disalvo Dean F Engineering process for a real-time user-defined data collection, analysis, and optimization tool (dot)
US7533071B2 (en) 2005-06-28 2009-05-12 Neurosciences Research Foundation, Inc. Neural modeling and brain-based devices using special purpose processor
US7765029B2 (en) 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
JP4836592B2 (ja) 2006-02-09 2011-12-14 ソニー株式会社 ロボット装置及びその制御方法
KR100820723B1 (ko) * 2006-05-19 2008-04-10 인하대학교 산학협력단 은닉노드 목표값을 가진 2 개층 신경망을 이용한 분리 학습시스템 및 방법
TW200849436A (en) 2007-06-01 2008-12-16 King Yuan Electronics Co Ltd Method for wafer analysis with artificial neural network and system thereof
US20130331294A1 (en) 2007-11-09 2013-12-12 Fox Chase Cancer Center Egfr/nedd9/tgf-beta interactome and methods of use thereof for the identification of agents having efficacy in the treatment of hyperproliferative disorders
EP2216145B1 (en) 2009-02-06 2011-06-08 Honda Research Institute Europe GmbH Learning and use of schemata in robotic devices
EP2256667B1 (en) 2009-05-28 2012-06-27 Honda Research Institute Europe GmbH Driver assistance system or robot with dynamic attention module
US9665822B2 (en) 2010-06-30 2017-05-30 International Business Machines Corporation Canonical spiking neuron network for spatiotemporal associative memory
US8655813B2 (en) 2010-12-30 2014-02-18 International Business Machines Corporation Synaptic weight normalized spiking neuronal networks
WO2012130251A1 (en) 2011-03-28 2012-10-04 Al-Romimah Abdalslam Ahmed Abdalgaleel Image understanding based on fuzzy pulse - coupled neural networks
US9281689B2 (en) 2011-06-08 2016-03-08 General Electric Technology Gmbh Load phase balancing at multiple tiers of a multi-tier hierarchical intelligent power distribution grid
US9460387B2 (en) * 2011-09-21 2016-10-04 Qualcomm Technologies Inc. Apparatus and methods for implementing event-based updates in neuron networks
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US9367797B2 (en) 2012-02-08 2016-06-14 Jason Frank Hunzinger Methods and apparatus for spiking neural computation
US9463571B2 (en) * 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9460382B2 (en) * 2013-12-23 2016-10-04 Qualcomm Incorporated Neural watchdog
US20150242742A1 (en) 2014-02-21 2015-08-27 Qualcomm Incorporated Imbalanced cross-inhibitory mechanism for spatial target selection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521653A (zh) * 2011-11-23 2012-06-27 河海大学常州校区 井下多机器人联合搜救的生物刺激神经网络设备及其方法
CN103116354A (zh) * 2013-01-30 2013-05-22 同济大学 一种双足机器人实时步态轨迹生成方法

Also Published As

Publication number Publication date
US10552734B2 (en) 2020-02-04
US20150242746A1 (en) 2015-08-27
EP3108413A2 (en) 2016-12-28
WO2015127130A2 (en) 2015-08-27
CN106796667A (zh) 2017-05-31
TW201539334A (zh) 2015-10-16
JP2017509980A (ja) 2017-04-06
WO2015127130A3 (en) 2015-12-10

Similar Documents

Publication Publication Date Title
CN106796667B (zh) 动态空间目标选择
CN107077637B (zh) 神经网络中的差分编码
US10339447B2 (en) Configuring sparse neuronal networks
CN105637541B (zh) 用于神经模拟器的共享存储器架构
US9542643B2 (en) Efficient hardware implementation of spiking networks
US20150242741A1 (en) In situ neural network co-processing
US20150242745A1 (en) Event-based inference and learning for stochastic spiking bayesian networks
EP3097517A1 (en) Monitoring neural networks with shadow networks
JP2017515205A (ja) Coldニューロンスパイクタイミングバックプロバゲーション
US20150278685A1 (en) Probabilistic representation of large sequences using spiking neural network
WO2015119963A2 (en) Short-term synaptic memory based on a presynaptic spike
JP6133517B2 (ja) 座標変換のための位相コーディング
CA2926034A1 (en) Dynamically assigning and examining synaptic delay
US9342782B2 (en) Stochastic delay plasticity
WO2015065850A2 (en) Doppler effect processing in a neural network model
US20150242742A1 (en) Imbalanced cross-inhibitory mechanism for spatial target selection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant