CN105723383A - 因果凸显性时间推断 - Google Patents

因果凸显性时间推断 Download PDF

Info

Publication number
CN105723383A
CN105723383A CN201480059144.2A CN201480059144A CN105723383A CN 105723383 A CN105723383 A CN 105723383A CN 201480059144 A CN201480059144 A CN 201480059144A CN 105723383 A CN105723383 A CN 105723383A
Authority
CN
China
Prior art keywords
event
time
cause
neuron
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480059144.2A
Other languages
English (en)
Inventor
J·F·亨泽格(已死亡)
T·J·郑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN105723383A publication Critical patent/CN105723383A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

提供了用于因果学习的方法和装置,其中至少部分地基于因果凸显性来确定事件的逻辑原因。一种用于因果学习的示例方法一般包括用装置观察一个或多个事件,其中事件被定义为特定相对时间处的发生;基于一个或多个准则来选择这些事件的子集;以及基于所选子集来确定这些事件中的至少一个事件的逻辑原因。

Description

因果凸显性时间推断
根据35U.S.C.§119的优先权要求
本申请要求于2013年10月29日提交的美国临时专利申请S/N.61/897,024及于2014年1月21日提交的美国专利申请S/N.14/160,128的权益,这两篇申请的全部内容通过援引纳入于此。
背景
领域
本公开的某些方面一般涉及学习系统(例如,人工神经系统),尤其涉及使用因果凸显性来确定事件的逻辑原因。
背景
可包括一群互连的人工神经元(即神经元模型)的人工神经网络是一种计算设备或者表示将由计算设备执行的方法。人工神经网络可具有生物学神经网络中的对应结构和/或功能。然而,人工神经网络可为其中传统计算技术是麻烦的、不切实际的、或不胜任的某些应用提供创新且有用的计算技术。由于人工神经网络能从观察中推断出功能,因此这样的网络在其中任务或数据的复杂度使得通过常规技术来设计该功能较为麻烦的应用中是特别有用的。
一种类型的人工神经网络是尖峰(spiking)神经网络,其将时间概念以及神经元状态和突触状态纳入到其工作模型中,由此提供了丰富的行为集,在神经网络中能从该行为集涌现出计算功能。尖峰神经网络基于以下概念:神经元基于该神经元的状态在一个或多个特定时间激发或“发放尖峰”,并且该时间对于神经元功能而言是重要的。当神经元激发时,它生成一尖峰,该尖峰行进至其他神经元,这些其他神经元继而可基于接收到该尖峰的时间来调整它们的状态。换言之,信息可被编码在神经网络中的尖峰的相对或绝对定时中。
概述
本公开的某些方面一般涉及通过使用因果凸显性来确定事件的逻辑原因的推断学习。
本公开的某些方面提供了用于因果学习的方法。该方法一般包括用装置观察一个或多个事件,其中事件被定义为特定相对时间处的发生;基于一个或多个准则来选择这些事件的子集;以及基于所选子集来确定这些事件中的至少一个事件的逻辑原因。
本公开的某些方面提供了用于因果学习的装置。该装置一般包括处理系统和耦合至该处理系统的存储器。该处理系统通常被配置成观察一个或多个事件,事件被定义为特定相对时间处的发生;基于一个或多个准则来选择这些事件的子集;以及基于所选子集来确定至少一个事件的逻辑原因。
本公开的某些方面提供了用于因果学习的设备。该设备一般包括用于观察一个或多个事件的装置,事件被定义为特定相对时间处的发生;用于基于一个或多个准则来选择这些事件的子集的装置;以及用于基于所选子集来确定至少一个事件的逻辑原因的装置。
本公开的某些方面提供了用于因果学习的计算机程序产品。该计算机程序产品一般包括具有代码的非瞬态计算机可读介质(例如,存储设备),该代码用于观察一个或多个事件,事件被定义为特定相对时间处的发生;用于基于一个或多个准则来选择这些事件的子集;以及用于基于所选子集来确定至少一个事件的逻辑原因。
附图简述
为了能详细理解本公开的以上陈述的特征所用的方式,可参照各方面来对以上简要概述的内容进行更具体的描述,其中一些方面在附图中解说。然而应注意,附图仅解说了本公开的某些典型方面,故不应被认为限定其范围,因为本描述可允许有其他等同有效的方面。
图1解说了根据本公开的某些方面的示例神经元网络。
图2解说了根据本公开的某些方面的计算网络(神经系统或神经网络)的示例处理单元(神经元)。
图3解说了根据本公开的某些方面的示例尖峰定时依赖可塑性(STDP)曲线。
图4是根据本公开的某些方面的人工神经元的状态的示例图形,其解说了用于定义神经元的行为的正态相和负态相。
图5解说了根据本公开的某些方面的对预测性关系推断的两种不同观点。
图6解说了根据本公开的某些方面的相比于其他保留事件在相对时间尺度上相关的事件。
图7解说了根据本公开的某些方面的使用因果凸显性的示例学习方法。
图8解说了根据本公开的某些方面的相关和逻辑因果性形式。
图9解说了根据本公开的某些方面的通过引导相关时间关系来确定逻辑表达。
图10是根据本公开的某些方面的示例因果凸显性因果推断学习模型的框图。
图11是根据本公开的某些方面的用于因果学习的示例操作的流程图。
图11A解说了能够执行图11中示出的各操作的示例装置。
图12解说了根据本公开的某些方面的使用通用处理器进行因果学习的示例实现。
图13解说了根据本公开的某些方面的用于因果学习的示例实现,其中存储器可与个体分布式处理单元对接。
图14解说了根据本公开的某些方面的基于分布式存储器和分布式处理单元进行因果学习的示例实现。
图15解说了根据本公开的某些方面的神经网络的示例实现。
详细描述
以下参照附图更全面地描述本公开的各个方面。然而,本公开可用许多不同形式来实施并且不应解释为被限定于本公开通篇给出的任何具体结构或功能。确切而言,提供这些方面是为了使得本公开将是透彻和完整的,并且其将向本领域技术人员完全传达本公开的范围。基于本文中的教导,本领域技术人员应领会,本公开的范围旨在覆盖本文中所披露的本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用本文所阐述的任何数目的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为本文中所阐述的本公开的各种方面的补充或者另外的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,本文中所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
措辞“示例性”在本文中用于表示“用作示例、实例或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、系统配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的描述中解说。该详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
示例神经系统
图1解说根据本公开的某些方面的具有多级神经元的示例神经系统100。神经系统100可包括神经元级102,该级神经元102通过突触连接网络104(即,前馈连接)来连接到另一级神经元106。为简单起见,图1中仅解说了两级神经元,但在典型的神经系统中可存在更少或更多级神经元。应注意,一些神经元可通过侧向连接来连接至同一层中的其他神经元。此外,一些神经元可通过反馈连接来后向连接至先前层中的神经元。
如图1所解说的,级102中的每一神经元可接收输入信号108,输入信号108可以是由前一级(图1中未示出)的多个神经元所生成的。信号108可表示级102的神经元的输入(例如,输入电流)。此类输入可在神经元膜上累积以对膜电位进行充电。当膜电位达到其阈值时,该神经元可激发并生成输出尖峰,该输出尖峰将被传递到下一级神经元(例如,级106)。此类行为可在硬件和/或软件(包括模拟和数字实现)中进行仿真或模拟。
在生物学神经元中,在神经元激发时生成的输出尖峰被称为动作电位。该电信号是相对迅速、瞬态、全有或全无的神经脉冲,其具有约为100mV的振幅和约为1ms的历时。在具有一系列连通的神经元(例如,尖峰从图1中的一级神经元传递至另一极)的神经系统的特定方面,每个动作电位都具有基本上相同的振幅和历时,因此该信号中的信息仅由尖峰的频率和数目(或尖峰的时间)来表示,而不由振幅来表示。由动作电位携带的信息由尖峰、发放尖峰的神经元、以及该尖峰相对于一个或多个其他尖峰的时间来确定。
尖峰从一级神经元向另一级神经元的传递可通过突触连接(或简称“突触”)网络104来达成,如图1所解说的。突触104可从级102的神经元(相对于突触104而言的突触前神经元)接收输出信号(即尖峰)。对于某些方面,这些信号可根据可调节突触权重(其中P是级102和106的神经元之间的突触连接的总数)来按比例缩放。对于其它方面,突触104可以不应用任何突触权重。此外,(经比例缩放的)信号可被组合以作为级106中每个神经元(相对于突触104而言的突触后神经元)的输入信号。级106中的每个神经元可基于对应的组合输入信号来生成输出尖峰110。随后可使用另一突触连接网络(图1中未示出)将这些输出尖峰110传递到另一级神经元。
生物学突触可被分类为电的或化学的。虽然电突触主要用于发送兴奋性信号,但化学突触可调停突触后神经元中的兴奋性或抑制性(超极化)动作,并且还可用于放大神经元信号。兴奋性信号通常使膜电位去极化(即,相对于静息电位增大膜电位)。如果在某个时段内接收到足够的兴奋性信号以使膜电位去极化到高于阈值,则在突触后神经元中发生动作电位。相反,抑制性信号一般使膜电位超极化(即,降低膜电位)。抑制性信号如果足够强则可抵消掉兴奋性信号之和并阻止膜电位到达阈值。除了抵消掉突触兴奋以外,突触抑制还可对自发活动神经元施加强力的控制。自发活动神经元是指在没有进一步输入的情况下(例如,由于其动态特性或反馈而)发放尖峰的神经元。通过压制这些神经元中的动作电位的自发生成,突触抑制可对神经元中的激发模式进行整形,这一般被称为雕刻。取决于期望的行为,各种突触104可充当兴奋性或抑制性突触的任何组合。
神经系统100可通过通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件、由处理器执行的软件模块、或其任何组合来仿真。神经系统100可用在大范围的应用中,诸如图像和模式识别、机器学习、电机控制等。神经系统100中的每个神经元(或神经元模型)都可以被实现为神经元电路。被充电至发起输出尖峰的阈值的神经元膜可被实现为例如对流经其的电流进行积分的电容器。
在一方面,电容器作为神经元电路的电流积分器件可被除去,并且可使用较小的忆阻器元件来替代它。这种办法可应用于神经元电路中,以及其中大容量电容器被用作电流积分器的各种其他应用中。另外,每个突触104可基于忆阻器元件来实现,其中突触权重改变可与忆阻器电阻的变化有关。使用纳米特征尺寸的忆阻器,可显著地减小神经元电路和突触的面积,这可使得实现超大规模神经系统硬件实现变得可行。
对神经系统100进行仿真的神经处理器的功能性可取决于突触连接的权重,这些权重可控制神经元之间的连接的强度。突触权重可存储在非易失性存储器中以在掉电之后保留该处理器的功能性。在一方面,突触权重存储器可实现在与主神经处理器芯片分开的外部芯片上。突触权重存储器可与神经处理器芯片分开地封装成可更换的存储卡。这可向神经处理器提供多种多样的功能性,其中特定功能性可基于当前附连至神经处理器的存储卡中所存储的突触权重。
图2解说了根据本公开的某些方面的计算网络(例如,神经系统或神经网络)的处理单元(例如,人工神经元202)的示例200。例如,神经元202可对应于来自图1的级102和106的任一个神经元。神经元202可接收多个输入信号2041-204N(x1-xN),这些输入信号可以是该神经系统外部的信号、或是由同一神经系统的其他神经元所生成的信号、或这两者。输入信号可以是实数值或复数值的电流或电压。输入信号可包括具有定点或浮点表示的数值。可通过突触连接将这些输入信号递送到神经元202,这些突触连接根据可调节突触权重2061-206N(w1-wN)对这些信号按比例缩放,其中N可以是神经元202的输入连接的总数。
神经元202可组合这些经比例缩放的输入信号,并且使用组合的经比例缩放的输入来生成输出信号208(即,信号y)。输出信号208可以是实数值或复数值的电流或电压。输出信号可包括具有定点或浮点表示的数值。随后该输出信号208可作为输入信号传递至同一神经系统的其他神经元、或作为输入信号传递至同一神经元202、或作为该神经系统的输出传递。
处理单元(神经元202)可由电路来仿真,并且其输入和输出连接可由具有突触电路的导线来仿真。处理单元、其输入和输出连接也可由软件代码来仿真。处理单元还可由电子电路来仿真,而其输入和输出连接可由软件代码来仿真。在一方面,计算网络中的处理单元可包括模拟电路。在另一方面,处理单元可包括数字电路。在又一方面,处理单元可包括具有模拟和数字组件两者的混合信号电路。计算网络可包括任何前述形式的处理单元。使用此类处理单元的计算网络(神经系统或神经网络)可用在大范围的应用中,诸如图像和模式识别、机器学习、电机控制等。
在神经网络的训练过程期间,突触权重(例如,来自图1的权重和/或来自图2的权重2061-206N)可用随机值来初始化并根据学习规则而增大或减小。学习规则的一些示例是尖峰定时依赖型可塑性(STDP)学习规则、Hebb规则、Oja规则、Bienenstock-Copper-Munro(BCM)规则等。很多时候,这些权重可稳定至两个值(即,权重的双峰分布)之一。可利用该效应来减少每突触权重的位数、提高从/向存储突触权重的存储器读写的速度、以及降低突触存储器的功耗。
突触类型
在神经网络的硬件和软件模型中,突触相关功能的处理可基于突触类型。突触类型可包括非可塑突触(权重和延迟没有改变)、可塑突触(权重可改变)、结构化延迟可塑突触(权重和延迟可改变)、全可塑突触(权重、延迟和连通性可改变)、以及基于此的变型(例如,延迟可改变,但在权重或连通性方面没有改变)。此举的优点在于处理可以被细分。例如,非可塑突触不会要求执行可塑性功能(或等待此类功能完成)。类似地,延迟和权重可塑性可被细分成可一起或分开地、顺序地或并行地运作的操作。不同类型的突触对于所应用的每一种不同的可塑性类型可具有不同的查找表或公式以及参数。因此,这些方法将针对该突触的类型来访问相关的表。
还进一步牵涉到以下事实:尖峰定时依赖型结构化可塑性可独立于突触可塑性而执行。结构化可塑性即使在权重幅值没有改变的情况下(例如,如果权重已达最小或最大值、或者其由于某种其他原因而不改变)也可执行,因为结构化可塑性(即,延迟改变的量)可以是前-后尖峰时间差的直接函数。替换地,结构化可塑性可被设为权重改变量的函数或者可基于与权重或权重改变的界限有关的条件来设置。例如,突触延迟可仅在权重改变发生时或者在权重达到0的情况下才改变,而在权重达到最大极限时不改变。然而,具有独立函数以使得这些过程能被并行化从而减少存储器访问的次数和交叠可能是有利的。
突触可塑性的确定
神经元可塑性(或简称“可塑性”)是大脑中的神经元和神经网络响应于新的信息、感官刺激、成长、损坏、或机能障碍而改变其突触连接和行为的能力。可塑性对于生物学中的学习和记忆、以及对于计算神经元科学和神经网络是重要的。已经研究了各种形式的可塑性,诸如突触可塑性(例如,根据赫布理论)、尖峰定时依赖可塑性(STDP)、非突触可塑性、活动性依赖可塑性、结构化可塑性和自身稳态可塑性。
STDP是调节神经元(诸如大脑中的神经元)之间的突触连接的强度的学习过程。连接强度是基于特定神经元的输出与收到输入尖峰(即,动作电位)的相对定时来调节的。在STDP过程下,如果至某个神经元的输入尖峰在平均上倾向于紧接在该神经元的输出尖峰之前发生,则可发生长期增强(LTP)。于是使得该特定输入在一定程度上更强。相反,如果输入尖峰在平均上倾向于紧接在输出尖峰之后发生,则可发生长期抑压(LTD)。于是使得该特定输入在一定程度上更弱,并由此得名为“尖峰定时依赖可塑性”。因此,使得可能是突触后神经元兴奋原因的输入甚至更有可能在将来作出贡献,而使得不是突触后尖峰的原因的输入较不可能在将来作出贡献。该过程继续,直至初始连接集的子集保留,而所有其他连接的影响减轻至0或接近0。
由于神经元一般在其许多输入都在一短时段内发生(即,充分地累积以引起输出)时产生输出尖峰,因此通常保留下来的输入子集包括倾向于在时间上相关的那些输入。另外,由于在输出尖峰之前发生的输入被加强,因此提供对相关性的最早充分累积指示的输入将最终变成至该神经元的最后输入。
STDP学习规则可因变于突触前神经元的尖峰时间tpre与突触后神经元的尖峰时间tpost之间的时间差(即,t=tpost-tpre)来有效地适配将该突触前神经元连接到该突触后神经元的突触的突触权重。STDP的典型公式是若该时间差为正(突触前神经元在突触后神经元之前激发)则增大突触权重(即,增强该突触),以及若该时间差为负(突触后神经元在突触前神经元之前激发)则减小突触权重(即,抑压该突触)。
在STDP过程中,突触权重随时间推移的改变可通常使用指数衰退来达成,如由下式给出的:
&Delta; w ( t ) = a + e - t / k + + &mu; , t > 0 a - e t / k - , t < 0 , - - - ( 1 )
其中k+和k-分别是针对正和负时间差的时间常数,a+和a-是对应的比例缩放幅值,以及μ是可应用于正时间差和/或负时间差的偏移。
图3解说了根据STDP,突触权重因变于突触前(pre)和突触后(post)尖峰的相对定时而改变的示例曲线图300。如果突触前神经元在突触后神经元之前激发,则可使对应的突触权重增大,如曲线图300的部分302中所解说的。该权重增大可被称为突触的LTP。从曲线图部分302可观察到,LTP的量可因变于突触前和突触后尖峰时间之差而大致呈指数地下降。相反的激发次序可减小突触权重,如曲线图300的部分304中所解说的,从而导致突触的LTD。
如图3中的图300中所解说的,可向STDP图的LTP(因果性)部分302应用负偏移μ。x轴的交越点306(y=0)可被配置成与最大时间滞后相重合以考虑到来自层i-1(突触前层)的各因果性输入的相关性。在基于帧的输入(即,输入是包括尖峰或脉冲的特定历时的帧的形式)的情形中,可计算偏移值μ以反映帧边界。该帧中的第一输入尖峰(脉冲)可被视为随时间衰退,要么如直接由突触后电位所建模地、要么以对神经状态的影响的形式而随时间衰退。如果该帧中的第二输入尖峰(脉冲)被视为与特定时间帧关联或相关,则该帧之前和之后的相关时间可通过偏移STDP曲线的一个或多个部分以使得相关时间中的值可以不同(例如,对于大于一个帧为负,而对于小于一个帧为正)来在该时间帧边界处被分开并在可塑性方面被不同地对待。例如,负偏移μ可被设为偏移LTP以使得曲线实际上在大于帧时间的前—后时间处变得低于零并且它由此为LTD而非LTP的一部分。
神经元模型及操作
存在一些用于设计有用的尖峰神经元模型的一般原理。良好的神经元模型在以下两个计算态相(regime)方面可具有丰富的潜在行为:一致性检测和功能计算。此外,良好的神经元模型应当具有允许时间编码的两个要素:输入的抵达时间影响输出时间以及一致性检测能具有窄时间窗。最后,为了在计算上是有吸引力的,良好的神经元模型在连续时间上可具有闭合形式解,并且具有稳定的行为,包括在靠近吸引子和鞍点之处。换言之,有用的神经元模型是可实践且可被用于建模丰富的、现实的且生物学一致的行为并且可被用于对神经电路进行工程设计和反向工程两者的神经元模型。
神经元模型可取决于事件,诸如输入抵达、输出尖峰或其他事件,无论这些事件是内部的还是外部的。为了达成丰富的行为技能集合,能展现复杂行为的状态机可能是期望的。如果事件本身的发生在撇开输入贡献(若有)的情况下能影响状态机并约束在该事件之后的动态,则该系统的将来状态并非仅是状态和输入的函数,而是状态、事件和输入的函数。
在一方面,神经元n可被建模为尖峰带漏泄积分激发(LIF)神经元,其膜电压vn(t)由以下动态来支配:
dv n ( t ) d t = &alpha;v n ( t ) + &beta; &Sigma; m w m , n y m ( t - &Delta;t m , n ) , - - - ( 2 )
其中α和β是参数,wm,n是将突触前神经元m连接至突触后神经元n的突触的突触权重,而ym(t)是神经元m的尖峰输出,其可根据Δtm,n被延迟达树突或轴突延迟直到抵达神经元n的胞体。
应注意,从建立了对突触后神经元的充分输入的时间直至突触后神经元实际上激发的时间之间存在延迟。在动态尖峰神经元模型(诸如Izhikevich简单模型)中,如果在去极化阈值vt与峰值尖峰电压vpeak之间有差量,则可引发时间延迟。例如,在该简单模型中,神经元胞体动态可由关于电压和恢复的微分方程对来支配,即:
d v d t = ( k ( v - v t ) ( v - v r ) - u + I ) / C , - - - ( 3 )
d u d t = a ( b ( v - v r ) - u ) . - - - ( 4 )
其中v是膜电位,u是膜恢复变量,k是描述膜电位v的时间尺度的参数,a是描述恢复变量u的时间尺度的参数,b是描述恢复变量u对膜电位v的阈下波动的敏感度的参数,vr是膜静息电位,I是突触电流,而C是膜的电容。根据该模型,神经元被定义为在v>vpeak时产生尖峰。
HunzingerCold模型
HunzingerCold神经元模型是能再现丰富多样的各种神经行为的最小双态相尖峰线性动态模型。该模型的一维或二维线性动态可具有两个态相,其中时间常数(以及耦合)可取决于态相。在阈下态相中,时间常数(按照惯例为负)表示漏泄通道动态,其一般作用于以生物学一致的线性方式使细胞返回到静息。阈上态相中的时间常数(按照惯例为正)反映抗漏泄通道动态,其一般驱动细胞发放尖峰,而同时在尖峰生成中引发等待时间。
如图4中所示,该模型的动态可被划分成两个(或更多个)态相。这些态相可被称为负态相402(也可互换地称为带漏泄积分激发(LIF)态相,勿与LIF神经元模型混淆)以及正态相404(也可互换地称为抗漏泄积分激发(ALIF)态相,勿与ALIF神经元模型混淆)。在负态相402中,状态在将来事件的时间趋向于静息(v_)。在该负态相中,该模型一般展现出时间输入检测性质及其他阈下行为。在正态相404中,状态趋向于尖峰发放事件(vs)。在该正态相中,该模型展现出计算性质,诸如取决于后续输入事件而引发发放尖峰的等待时间。在事件方面对动态进行公式化以及将动态分成这两个态相是该模型的基础特性。
线性双态相二维动态(对于状态v和u)可按照惯例定义为:
&tau; &rho; d v d t = v + q &rho; - - - ( 5 )
- &tau; u d u d t = u + r - - - ( 6 )
其中qρ和r是用于耦合的线性变换变量。
符号ρ在本文中用于标示动态态相,在讨论或表达具体态相的关系时,按照惯例对于负态相和正态相分别用符号“-”或“+”来替换符号ρ。
模型状态通过膜电位(电压)v和恢复电流u来定义。在基本形式中,态相在本质上是由模型状态来决定的。该精确和通用的定义存在一些细微却重要的方面,但目前考虑该模型在电压v高于阈值(v+)的情况下处于正态相404中,否则处于负态相402中。
态相依赖型时间常数包括负态相时间常数τ_和正态相时间常数τ+。恢复电流时间常数τu通常是与态相无关的。出于方便起见,负态相时间常数τ_通常被指定为反映衰退的负量,从而用于电压演变的相同表达式可用于正态相,在正态相中指数和τ+将一般为正,正如τu那样。
这两个状态元素的动态可在发生事件之际通过使状态偏离其零倾线(null-cline)的变换来耦合,其中变换变量为:
qρ=-τρβu-vρ(7)
r=δ(v+ε)(8)
其中δ、ε、β和v_、v+是参数。vρ的两个值是这两个态相的参考电压的基数。参数v_是负态相的基电压,并且膜电位在负态相中一般将朝向v_衰退。参数v+是正态相的基电压,并且膜电位在正态相中一般将趋向于背离v+
v和u的零倾线分别由变换变量qρ和r的负数给出。参数δ是控制u零倾线的斜率的比例缩放因子。参数ε通常被设为等于-v_。参数β是控制这两个态相中的v零倾线的斜率的电阻值。τρ时间常数参数不仅控制指数衰退,还单独地控制每个态相中的零倾线斜率。
该模型被定义为在电压v达值vS时发放尖峰。随后,状态通常在发生复位事件(其在技术上可以与尖峰事件完全相同)之际被复位:
v = v ^ - - - - ( 9 )
u=u+Δu(10)
其中和Δu是参数。复位电压通常被设为v-
依照瞬时耦合的原理,闭合形式解不仅对于状态是可能的(且具有单个指数项),而且对于到达特定状态所需的时间也是可能的。闭合形式状态解为:
v ( t + &Delta; t ) = ( v ( t ) + q &rho; ) e &Delta; t &tau; &rho; - q &rho; - - - ( 11 )
u ( t + &Delta; t ) = ( u ( t ) + r ) e - &Delta; t &tau; u - r - - - ( 12 )
因此,模型状态可仅在发生事件之际被更新,诸如基于输入(突触前尖峰)或输出(突触后尖峰)而被更新。还可在任何特定时间(无论是否有输入或输出)执行操作。
而且,依照瞬时耦合原理,可以预计突触后尖峰的时间,因此到达特定状态的时间可提前被确定而无需迭代技术或数值方法(例如,欧拉数值方法)。给定了先前电压状态v0,直至到达电压状态vf之前的时间延迟由下式给出:
&Delta; t = &tau; &rho; l o g v f + q &rho; v 0 + q &rho; - - - ( 13 )
如果尖峰被定义为发生在电压状态v到达vS的时间,则从电压处于给定状态v的时间起测量的直至发生尖峰前的时间量或即相对延迟的闭合形式解为:
其中通常被设为参数v+,但其他变型可以是可能的。
模型动态的以上定义取决于该模型是在正态相还是负态相中。如所提及的,耦合和态相ρ可基于事件来计算。出于状态传播的目的,态相和耦合(变换)变量可基于在上一个(先前)事件的时间的状态来定义。出于随后预计尖峰输出时间的目的,态相和耦合变量可基于在下一个(当前)事件的时间的状态来定义。
存在对该Cold模型、以及在时间上执行模拟、仿真、或模型的若干可能实现。这包括例如事件-更新、步点-事件更新、以及步点-更新模式。事件更新是其中基于事件或“事件更新”(在特定时刻)来更新状态的更新。步点更新是以间隔(例如,1ms)来更新模型的更新。这不一定要求迭代方法或数值方法。通过仅在事件发生于步点处或步点间的情况下才更新模型或即通过“步点-事件”更新,基于事件的实现以有限的时间分辨率在基于步点的模拟器中也是可能的。
神经编码
有用的神经网络模型(诸如由图1的人工神经元102、106组成的神经网络模型)可经由各种合适的神经编码方案(诸如一致性编码、时间编码或速率编码)中的任一种来编码信息。在一致性编码中,信息被编码在神经元集群的动作电位(尖峰发放活动性)的一致性(或时间邻近性)中。在时间编码中,神经元通过对动作电位(即,尖峰)的精确定时(无论是以绝对时间还是相对时间)来编码信息。信息由此可被编码在一群神经元间的相对尖峰定时中。相反,速率编码涉及将神经信息编码在激发率或集群激发率中。
如果神经元模型能执行时间编码,则其也能执行速率编码(因为速率正好是定时或尖峰间间隔的函数)。为了提供时间编码,良好的神经元模型应当具有两个要素:(1)输入的抵达时间影响输出时间;以及(2)一致性检测能具有窄时间窗。连接延迟提供了将一致性检测扩展到时间模式解码的一种手段,因为通过恰适地延迟时间模式的元素,可使这些元素达成定时一致性。
抵达时间
在良好的神经元模型中,输入的抵达时间应当对输出时间有影响。突触输入——无论是狄拉克Δ函数还是经整形的突触后电位(PSP)、无论是兴奋性的(EPSP)还是抑制性的(IPSP)——具有抵达时间(例如,Δ函数的时间或者阶跃或其他输入函数的开始或峰值的时间),其可被称为输入时间。神经元输出(即,尖峰)具有发生时间(无论其是在何处(例如在胞体处、在沿轴突的一点处、或在轴突末端处)测量的),其可被称为输出时间。该输出时间可以是尖峰的峰值时间、尖峰的开始、或与输出波形有关的任何其他时间。普适原理是输出时间取决于输入时间。
乍看起来可能认为所有神经元模型都遵循该原理,但一般并不是这样。例如,基于速率的模型不具有此特征。许多尖峰模型一般也并不遵循这一点。带漏泄积分激发(LIF)模型在有额外输入(超过阈值)的情况下并不会更快一点地激发。此外,在以非常高的定时分辨率来建模的情况下或许遵循这一点的模型在定时分辨率受限(诸如限于1ms步长)时通常将不会遵循这一点。
输入
神经元模型的输入可包括狄拉克Δ函数,诸如电流形式的输入、或基于电导率的输入。在后一种情形中,对神经元状态的贡献可以是连续的或状态依赖型的。
示例因果凸显性因果推断学习
针对用于学习因果推断的系统的典型办法具有以下局限性中的一种或多种。第一,关系在形式上限于从事件A到事件B的因果性的成对度量(例如,植物在有阳光的情况下更可能生长)。这些度量因此是受限的且通常是统计性的,即使有很少或没有随机性。第二,关系在时间上任意地受限,诸如由时间轨迹限制,时间轨迹通常假定因果性具有有限的时间范围且事件仅仅由于时间邻近性而更加是因果相关的。甚至在该假定可能成立的情形中,时间跨度仍是系统参数而不被学习。第三,关系组合具有有限的可缩放性,这部分地是以上问题的结果。随着事件数目的增加和时间范围的增加,事件组合的数目变得难以控制。
本公开的某些方面通过以下的组合来克服以上所有问题:区分事件的时间、推断最早原因、以及确定逻辑原因(而非仅成对原因),同时提供能够通过采用因果凸显性概念来使用有限的工作存储器的可缩放框架。本公开的某些方面可应用于人工神经系统中的学习。然而,本公开的各方面对于任何合适的学习系统都是有效的。
因果推断的图形方法通常涉及表示概念事件的节点的图形。每个节点(顶点)由定向边连接至每一其他节点。如果存在N个可能事件(由N个节点表示),则存在2N2条有向边。每条边具有相关联的因果度量(例如,Granger因果性测量),其反映认为源节点(原因)与目的地节点因果地相关的程度。因果推断方法(一种类型的归纳推理)通常被用于学习因果度量。然而,这些度量取决于事件之间的时间关系,并且在通常情况下,仅针对预定时间(例如,基于某个时间轨迹或效力衰退)来考虑事件之间的因果关系。否则,事件对的组合的数目变得难以控制。但这限制了因果度量的意义。
通常情况下,过往事件的重要性是由按特定的预定时间常数衰退的值来确定的。作为结果,因果性度量混淆了(即,使得难以区分)因果性与时间邻近性。目前,可以肯定地添加针对不同时间跨度的边,但只有无穷数量才能计及所有时间差异。如果衰退相关性的概念保留,则可考虑有限数量的时间跨度,每个时间跨度具有不同的时间常数,这可能仍会模糊因果性与时间邻近性之间的区别,仅是有不同的模糊量且以每个时间跨度多出2N2条边为代价。
此外,因果性的典型度量(诸如Granger因果性)是统计测量。基本上,一个事件若提供关于将来事件发生的在统计上显著的信息则被认为以Granger方式导致该将来事件。然而,一般而言,将来效果存在多种原因(例如,植物在有阳光和水、但无害虫的情况下生长)。每个因素在统计上(忽略所有其他因素)作出贡献,但那些统计没有计及人类随便哪天都容易作出的基本的确定性逻辑推断。事实上,在观测中可能完全没有随机性。在两个节点之间仅在给定方向上有一条边的情况下,不可能捕捉到一般的逻辑关系。目前,可针对所有逻辑关系组合肯定地添加边。每个逻辑关系可取决于最多达N个节点,并且要考虑这些源的2N数量级的可能逻辑组合(阳光和水、阳光但无水……),其中每个组合有两种可能结果。这将在该图形(不再是边,因为它们具有多个源节点)中指示N22N+1数量级的“边”。
概括而言,先前方法的问题是多重的:缺乏可缩放性,缺乏区分因果性与时间邻近性的能力,以及缺乏作出确定性或逻辑推断(不同于成对的统计推断)的能力。因此,需要用于人工推断学习的改进方法。
本公开的某些方面通过对因果推断任务采取从根本上不同的办法来克服前述问题。首先,本公开的某些方面仅考虑相对较小的事件子集来进行可能的逻辑因果推断。某些方面的重要元素是选择要考虑哪些事件的方法。此外,本公开的某些方面认为提供关于另一事件的在统计上显著的信息的最早事件是最重要的(即,有价值的)。差别可用按以下次序重复地观察到的四个事件的示例来解释:A、B、C、D。关于预测性关系推断的两种观点在图5中示出。上方示图500描绘了每个事件“导致”下一事件的经典视图。然而,本公开的某些方面中所考虑的替换观点在底部示图510中描绘:第一事件是最有价值的,因为其能预测所有后续事件。在没有附加信息且具有有限的工作存储器的情况下,可由此促使在存储器中保持最有价值的事件。本公开的某些方面中所考虑的观点提供了此信息。
第二,本公开的某些方面认为个体事件包括传统概念意义上的事件(即,发生)以及该事件的时间框架。换言之,事件将不仅由发生何事来定义,而且由该事件何时(相对而言)发生来定义。因此,不同时间处的事件是不同事件。因此,不失一般性,因果关系可作为“在时间–t的事件A”导致“在时间0的事件B”来学习,如图8的相关时间关系图800所解说的。学习在–t的事件A→事件B这种形式的相关时间成对映射可使用无限工作存储器来执行并在该相关学习中纳入相对时间。另外,此类时间t可用对数来表示。该时间t越大,可期望的精度越小。
在这种意义上,给植物浇水这一动作单独不是一事件。如果植物在三天前被浇水,则这是一事件,因为现在存在与该事件相关联的时间框架。现在,植物可能每天都已被浇水,各自皆为单独事件。本公开的某些方面提供了这种可缩放性问题的解决方案:选择要考虑哪个事件子集。那些事件相比于其他保留事件在相对时间尺度上是相关的。
例如,考虑四个事件A、B、C和D如图6中所示地在标绘600中所指示的时间发生。图6还在示图610中描绘了第一事件A与其他事件之间所考虑的时间关系:关于事件B的预测性统计信息由过去相对时间t1-t0处的事件A给出(考虑事件B的时间为0,或即“现在”,意味着相关事件A是在-(t1-t0)处)。示图610还示出了针对其他事件(C、D)的相关事件A是不同的,因为事件A发生在不同的过去相对时间。
根据某些方面,基于各种合适准则中的任一者(或其组合)来选择事件子集进行考虑,这些准则诸如因果凸显性、重现、独特性或罕见性、和/或时间邻近性。如本文中所使用的,“因果凸显性”一般是指从因果推断的角度而言一事件从其他事件中脱颖而出的程度。例如,如果发生不可预测事件,则其可被认为比可预测地发生的事件是更加因果凸显的。不可预测事件发生得越频繁,其可能是越加因果凸显的。此外,事件发生得越近,则认为该事件越凸显,但最近程度并不一定胜过其他因果凸显性因素。所预测事件未能发生也是潜在的因果凸显事件:在特定时间或在某个时段期间未发生。相同的因素可适用于预测事件失败。
最有可能在因果凸显事件(而非所有事件)间并且独立于它们的发生之间的时间来考虑关系。事件的因果凸显性最有可能通过所学习的因果关系的当前状态来确定(例如,推断)。有限数量的最为因果凸显的事件最有可能被保留在工作存储器中以考虑与尚未发生的事件的关系。通过限制工作存储器,可达成可缩放性,同时考虑最为因果凸显的事件之间的因果关系。
在以重复事件序列A、B、C呈现的情况下,典型办法可能是学习关系A→B和B→C。与此形成对比,本公开的某些方面考虑关系A→B和A→C。实际上,在给定有限的工作存储器的情况下,系统最有可能出于若干原因而在事件A之前丢弃(例如,忘记)事件B。第一,事件B对于事件C具有较少预测价值(即,事件A能比事件B更早地预测事件C)。第二,事件A是不可预测的且因此比可预测的事件B更为凸显。
在学习开始时,较少或没有事件是可预测的,并且在给定对在一时间可考虑的事件子集的约束的情况下,该子集可更多地由时间邻近性、重现率、或随机地确定。随着因果学习的进行,更多事件变得可预测,并且具有较不邻近的时间关系和较不频繁的发生的事件可如以前一样或比以前更多地被考虑。还应注意,在任何给定时间所考虑的事件子集可对于下一级学习有特别的相关性。
关系应当具有逻辑结构——如图8中的逻辑时间关系图810所解说的——从而,确定性的逻辑关系(例如,逻辑表达812)可被学习(例如,植物在有阳光和水、但无害虫的情况下生长)。根据某些方面,可使用如图9中所解说的事件902的成对相关映射900来引导结构化因果性映射。该引导可创建用于学习后续观测的候选逻辑结构。逻辑关系可利用一般性的时间计算原理使用线性系统来学习。
真实世界观测在科学上往往是由连续时间系列(或周期性地采样的时间系列)来表示的。然而,人们以事件的方式想事情(例如,股票在周一上涨或者树在晚上倒下)。在这种意义上,人会想离散的事件而非连续的变量,并且人会按可变时间框架来想这些事件。该时间框架的分辨率可用对数扩展到过去(例如,种子在1年前或1天前被种下)。
从根本上而言,根据本公开的某些方面,任何连续时间系列可被转换成一个或多个事件,每个事件具有相关联的时间框架。这可通过特征学习来完成,诸如时间尖峰定时学习或机器学习方法。重要的是将连续输入稀疏化成离散事件。
根据某些方面,可通过检查所作的因果推断来发现因果关系的概括。如果两个事件具有相同或基本相似的与第三事件的因果逻辑关系,则系统可将这两个事件概括为属于一类。作为结果,或者为了测试该假设,可添加类事件。每当属于该类的事件发生时,在学习机制方面就如同具体事件那样考虑类事件。
这一概括方面还涉及交互式学习,包括问问题和主动干预。可通过检查所学习的关系(无论是具体事件之间还是类事件之间的关系)来生成问题。有效地,这等同于请求符合特定模式的输入,诸如X和Y导致Z,其中X和Z是指定的,但Y是未知/自由的。替换地,这可等同于询问是否存在符合特定模式或实例的输入的任何示例,诸如是否存在X和Y导致Z的任何证据或者是否曾在相同时间框架中观察到X和Y。在本公开的某些方面的上下文中,回想到事件具有相关联的相对时间框架,该相对时间框架使得格式化这种类型的查询成为可能。一些事件也可以是由(人工神经)系统、人工神经元、或其他装置本身所生成的内部或外部动作。在这种情形中,这些事件可改变。该装置可干预将来序列以测试假设或者有效地询问如果特定事件曾经发生或未曾发生则可能发生何事。根据某些方面,此类假设可基于潜在的或确定的概括来发展。相似的因果关系或代替会建议可能的类、一种关系的类建议成员事件也将适合与类成员共有的另一因果关系等等皆是交互式学习的候选。因此,概括提供了用于交互或干预的基础,并且接着发生的输入提供了用于将来概括的基础。
图7解说了根据本公开的某些方面的使用因果凸显性的示例学习过程700。在710,连续的或经采样的输入信号可被转换成事件,如本文中定义的。在720,可至少部分地基于因果凸显性来选择事件子集。在730,可对事件子集执行因果推断学习以生成因果映射,其一般是指以上描述的事件之间的逻辑关系。对于某些方面,在740,还可如上所述地执行交互式学习。
每当事件发生时就执行的、该示例中的基本学习方法如下:(1)确定包括所有当前因果凸显事件及在给定约束的情况下最因果相关的非当前事件的扩增因果相关性的事件子集;(2)确定对扩增因果相关性的事件子集和正发生事件的因果学习;(3)确定因果凸显性(正发生事件的可预测性)、时间邻近性、独特性、以及重现;以及(4)在给定约束的情况下确定新的当前因果凸显事件子集并更新当前事件时间框架(例如,在对数尺度上)。
示例事件学习和转换方法可基本上包括以下各项:(1)学习连续或采样输入中的时间模式;以及(2)检测在输入中学习到的时间模式并确定事件的发生与那些模式的发生相关联。
该交互式方法可在每当事件发生时、周期性地、或另行按调度地执行,并且可包括以下各项:(1)比较针对不同原因具有相同效果的学习逻辑关系以查明各原因是否可共同地分类(概括);以及(2)制定模板(问题或干预)(例如,在740)以寻求附加输入来确认或反驳候选概括。
另外,可任选地,本公开的某些方面考虑其中事件不是由节点表示的框架。确切而言,事件可由代码(例如,群体编码而非空间编码)来表示。
如图10的示例因果凸显性因果推断学习模型1000所解说的,完全发展的系统可包括以下概念组件:因果凸显性功能1002、用于选择事件子集的事件选择功能1003、平坦时间成对(相关)映射(其可存储在相关时间关系长期存储器1004中)、逻辑结构(因果)映射(其可存储在逻辑时间关系长期存储器1006中)、因果推断功能1008、用于存储事件的工作存储器1010、以及引导功能1012。这些组件可如上所述地一起工作。例如,结构化因果性映射可由引导功能1012使用存储在相关时间关系长期存储器1004中的平坦时间成对(相关)事件映射来引导。该引导可创建用于学习后续观测的候选逻辑结构,并且此类逻辑结构映射可存储在逻辑时间关系长期存储器1006中。
生成前向和后向逻辑概率及逻辑表的方法
本公开的某些方面提供了用于确定事件之间的逻辑因果关系的方法和装置。以下描述用于生成前向和后向逻辑概率的一种示例方法。
令事件e为对<ε,τ>,其中ε是事件类型且τ是事件相对时间(非正数字)。令存在如下的至标量x的映射:
x=f(e)
令工作存储器W为事件集。令结构S(e,C)被定义为效果事件e与具有2K种组合的K个可能原因事件的集合C之间的关系。令后向结构Sb(e,C)被定义为具有2K个条目的向量,这些条目如由下式给出地映射到条目j:
j = g ( C ^ )
其中是发生了的(即,真实的)可能原因事件的组合。在事件e(其按照定义因发生在当前时间的本质故而将为<ε,0>)之际,令向量Sb(e,C)的条目k递增,其中
k=g(C∩W)
令前向结构Sf(e,C)被定义为具有2K+1个条目的向量,这些条目具有与后向结构相同的映射g。在工作存储器中所包括的事件e之际,且在工作存储器中的所有事件的τ已被更新以反映当前相对时间0的场合,令A为集合
A=C∪<ε,0>
令条目l被定义为
l=g(A∩W)
并且令Sf(e,C)的条目l递增。令条目z被定义为
z=g(φ)
系统无需存储和递增所有Sf(e,C)的条目z,因为该条目的值可通过从已发生的事件总数减去非零Sf(e,C)条目之和来确定。现在,
P ( C ^ | e = < &epsiv; , 0 > ) = P ( C ^ | &epsiv; ) = S b ( e , C ) ( g ( C ^ ) ) &Sigma; i S b ( e , C ) ( i )
P ( e = < &epsiv; , 0 > | C ^ ) = P ( &epsiv; | C ^ ) = S f ( e , C ) ( g ( C ^ + < &epsiv; , 0 > ) ) S f ( e , C ) ( g ( C ^ + < &epsiv; , 0 > ) ) + S f ( e , C ) ( g ( C ^ - < &epsiv; , 0 > ) )
其中+和–标示显式集合包含或排除。在上面,可使用以下惯例:Sz(e,C)(i)指代由Sz(e,C)标示的向量的第i个条目。
在计算上而言,后向更新访问针对一个结果事件的向量,而前向更新访问来自与工作存储器具有非零交集的所有结果事件的向量。这些操作是高度可并行化的(其启示了神经网络)。此外,信息无需被存储为向量,且由此可高度被压缩。
以上的实现涉及集合运算(例如,交集)和基本算术。结果取决于工作存储器内容。由此,可能重要的是在工作存储器中维持最为因果凸显的元素,而不必维持所有先前事件。给出以下算法形式:
作为示例,令系统具有以下观测(事件序列):
{a,b,c},{a,b,c},{a,d,c},{a,e,c},{a,b,c},{a,g,d},{a,g,e}
下表中在观测之后给出了样本结构定义,其中对于前向和后向向量,C={<a,-2>,<b,-1>}且e=<c,0>。为方便起见,前向向量被划分成两个向量(针对c和非c)。实际的存储或表示方法并不重要。
由此,例如,P(<c,0>|{<a,-2>,<b,-1>)=1而P(<c,0>|{<a,-2>,!<b,-1>)=0.5。
因果逻辑-时间-事件推理
逻辑时间事件(LTE)表条目
(已学习的)逻辑时间事件因果表具有与针对特定的肯定或否定结果事件的因果事件的肯定或否定值的逻辑组合相对应的行。每个条目可表达为三元组,
其中是事件类型,Δtc是相对于结果事件的事件时间,而xr,c是逻辑值(0/1)。特定的行可部分地(起因事件集合)表达为
其中出于方便起见,xr,c索引被简化为行j。注意,事件不一定是连续的、有等间距的延迟、或甚至有独特的延迟。例如,行可包含针对相同的相对时间的两个事件的负逻辑值,或者可包含1ms间隔处的事件,但有一些缺失事件(不是每1ms偏移)。
逻辑时间事件(LTE)掩码
然而,结果也可与该行相关联,从而完整的LTE映射将表达为
其中倒数第n条目是结果,并且按照惯例,Δtn=0且xn是肯定(1)或否定(0)表实例。一行中所包含的信息还可包括至少一个测量,诸如在给定逻辑时间原因事件的情况下得到该结果的概率,并且由此完整的信息可用LTE掩码与相关联的概率度量对表示为
< r &RightArrow; n , r , p n , r >
其中pn,r是概率度量且不失一般性,可认为表的肯定结果和否定结果实例是该表的分开的行(不同r)或者来自分立的表(不同n)。
工作存储器(WM)
工作存储器也可用LTE掩码形式(三元组向量)表示如下:
其中是工作存储器中的第i事件,Δti是该事件的相对时间,且xi是逻辑值(通常为1,若工作存储器是实际发生了的事件而非未曾发生的事件或这两者的工作存储器,这也是替换方案)。按照惯例,Δti=0是当前时间,并且最后一个条目(第n)是所发生的最后一个事件且具有Δtn=0。
注意,工作存储器不一定包含所有已发生的事件,或甚至不一定包含某个时间内的所有事件。可存在例如缺失的非凸显事件、或者对相同时间的多个事件的观测或对无事件的观测。
非-事件-时间-矛盾(NETI)
两个LTE掩码可在逻辑-事件-时间意义上被定义为非矛盾,或者以若干方式定义为非-事件-时间-矛盾。一种方式是逻辑上的非矛盾(即,在相同时间不存在不同且两者皆为肯定的两个事件或者相同但逻辑上不同的两个事件)。在数学上,
还可定义时间偏移NETI,其中如下检查时间偏移ΔT处的一致性:
算法可采取以下形式:
elsereturnfalse
以上NETI是针对单个LTE定义的。可定义LTE掩码NETI以如下检查两个LTE掩码与彼此的一致性:
NETI &mu; L ( a &RightArrow; , b &RightArrow; , &Delta; T ) &equiv; &Pi; i , j NETI &mu; L ( a i , b i , &Delta; T )
其中所有i,j组合上的乘积表示确保所有组合都是非矛盾的(NETI)。注意,可在行之间或在工作存储器与行之间以及甚至递归地使用这种NETI。
算法可采取以下形式:
可针对其他互斥原理来定义其他NETI(例如,没有一事件可发生在两个不同时间)。这等效于在除了该事件为肯定的时间之外的所有时间的否定事件逻辑。
逻辑时间事件(LTE)并集
还可如下定义两个或更多个LTE掩码的并集。LTE并集不是简单的一维并集,因为这些集合的元素是三元组。这意味着来自输入集合的所有独特三元组都被包括在并集结果中。元素若在三元组值(事件类型、事件时间、或逻辑值)中的任一方面不同则是独特的。
LTE并集的示例算法如下:
注意,时间偏移对应于并集的第一输入的偏移。值ΔT是应用于的时间偏移。
按照惯例,概率度量可与每个LTE掩码相关联。对于LTE掩码的并集,可定义如下将每个输入掩码的个体概率度量转换成并集结果的一个输出掩码(另一LTE掩码)的函数:
p1U2=h(p1,p2)
如果认为表条目概率为基于逻辑时间事件输入的结果的条件概率,则
其中k是结果列,且是输入列。于是,对于该并集,得到
h(p1,p2)=p1p2
决定和预测
典型问题是确定将来要做什么或者将发生什么。工作存储器与来自已学习的逻辑时间表的LTE掩码的LTE并集提供了解决方案。例如假设希望作出要尝试使特定结果的机会最大化的决定。可取针对该期望结果事件的表中对应非矛盾(NETI)的行(LTE掩码)的LTE掩码的已发生什么(WM)与工作存储器的并集。随后,可选择具有最佳概率(后并集)的将来事件(决定)。
可能要求在特定将来时间存在特定事件。如果一阶并集没有建议特定期望时间处的任何事件(例如,游戏中的下一移动或在某个时间内将作出的决定),则可考虑二阶或n阶并集以填充从目前到将来的因果链中的间隙。
该选择可以在控制内的事件(有效的动作)为条件。硬币的另一面是预测。如果已知结果是可能的、期望的、或定向的,则可从并集结果预测下一(些)事件。此外,可通过考虑某个表集合(不是针对某个期望结果的特定表)在不假定任何期望或可能结果的情况下这样做。
一阶候选LTE掩码
可收集工作存储器(WM)的候选LTE掩码C1以及和所有表(table)的LTE掩码的所有NETI组合。一阶候选LTE掩码可定义为工作存储器(WM)与和表集合的LTE掩码的NETI并集,n∈D,其中D是表集合(诸如期望的肯定或否定结果的表)。由此,得到
构建C1的示例算法如下:
其中标示工作存储器(WM)。可用相同算法但仅输入“期望”表D来获得。
按照惯例,每个LTE掩码的概率度量也被包括在这些集合中。与工作存储器LTE掩码相关联的概率度量通常被定义为p=1,因为工作存储器中的事件实际上发生在该时间。然而,这是任意的,并且如果所有一阶候选LTE掩码都是与相同工作存储器LTE的并集并且等同地得到补偿,则可使用任何标称值。
二阶候选LTE掩码
为了获得二阶候选LTE掩码,可取一阶LTE掩码与其他一阶LTE掩码的并集。例如,可始于两个一阶掩码集合:一个集合仅具有一些期望表D,且一个集合具有所有其他表。为了获得二阶掩码,可取前者与后者的并集,如以下示例中那样:
其中C是例如C1
这可如下放入循环中:
图11是根据本公开的某些方面的用于因果学习的示例操作1100的流程图。对于某些方面,操作1100可实现在(能够进行推断学习的)人工神经系统中并且可在硬件中执行(例如,由一个或多个神经处理单元执行,诸如神经形态处理器)、在软件中执行、或在固件中执行。人工神经系统可建模在各种生物或想像神经系统中的任一者上,诸如视觉神经系统、听觉神经系统、海马体等。
操作1100可始于在1102处观察一个或多个事件,这些事件被定义为特定相对时间处的发生。在1104,基于一个或多个准则来选择这些事件的子集。在1106,基于所选子集来确定这些事件中的至少一个事件的逻辑原因。
根据某些方面,该准则包括因果凸显性,其被定义为一个事件从其他事件中脱颖而出的程度。对于某些方面,不可预测事件发生得越频繁,该不可预测事件就是越加因果凸显的。该准则可包括因果凸显性、重现、独特性、或时间邻近性中的至少一者。
根据某些方面,1104处的选择涉及认为提供关于另一事件的在统计上显著的信息的最早事件是最重要的事件。对于某些方面,操作1100可进一步包括将最重要的事件存储在存储器中。
根据某些方面,1102处的观察使得必须周期性地对系统进行采样以生成离散点集并将该离散点集转换成事件。
根据某些方面,操作1100可进一步包括若观察到新事件则重复该选择和确定。
根据某些方面,操作1100可进一步包括基于该逻辑原因来预测一个或多个后续事件。
图12解说了根据本公开的某些方面的使用通用处理器1202来执行前述因果学习方法的组件的示例框图1200。与计算网络(神经网络)相关联的变量(神经信号)、突触权重和/或系统参数可被存储在存储器块1204中,而在通用处理器1202处执行的有关指令可从程序存储器1206中加载。在本公开的一方面,加载到通用处理器1202中的指令可包括用于以下操作的代码:用于观察一个或多个事件,事件被定义为特定相对时间处的发生;用于基于一个或多个准则来选择这些事件的子集;以及用于基于所选子集来确定这些事件中的至少一个事件的逻辑原因。
图13解说了根据本公开的某些方面的用于执行前述因果学习方法的组件的示例框图1300,其中存储器1302可以经由互连网络1304与计算网络(神经网络)的个体(分布式)处理单元(神经处理器)1306对接。与计算网络(神经网络)相关联的变量(神经信号)、突触权重和/或系统参数可被存储在存储器1302中,并且可从存储器1302经由互连网络1304的连接被加载到每个处理单元(神经处理器)1306中。在本公开的一方面,处理单元1306可被配置成观察一个或多个事件,事件被定义为特定相对时间处的发生;基于一个或多个准则来选择这些事件的子集;以及基于所选子集来确定这些事件中的至少一个事件的逻辑原因。
图14解说了根据本公开的某些方面的基于分布式权重存储器1402和分布式处理单元(神经处理器)1404来执行前述因果学习方法的组件的示例框图1400。如图14中所解说的,一个存储器组1402可直接与计算网络(神经网络)的一个处理单元1404对接,其中该存储器组1402可存储与该处理单元(神经处理器)1404相关联的变量(神经信号)、突触权重和/或系统参数。在本公开的一方面,处理单元1404可被配置成观察一个或多个事件,事件被定义为特定相对时间处的发生;基于一个或多个准则来选择这些事件的子集;以及基于所选子集来确定这些事件中的至少一个事件的逻辑原因。
图15解说了根据本公开的某些方面的神经网络1500的示例实现。如图15中所解说的,神经网络1500可包括多个局部处理单元1502,它们可执行以上描述的方法的各种操作。每个处理单元1502可包括存储该神经网络的参数的局部状态存储器1504和局部参数存储器1506。另外,处理单元1502可包括具有局部(神经元)模型程序的存储器1508、具有局部学习程序的存储器1510、以及局部连接存储器1512。此外,如图15中所解说的,每个局部处理单元1502可与用于配置处理的单元1514对接并且与路由连接处理元件1516对接,单元1514可提供对局部处理单元的局部存储器的配置,元件1516提供局部处理单元1502之间的路由。
根据本公开的某些方面,每一个局部处理单元1502可被配置成基于神经网络的期望的一个或多个功能特征来确定神经网络的参数,以及随着进一步适配、调试和更新所确定的参数朝着期望的功能特征来发展这一个或多个功能特征。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可包括各种硬件和/或软件组件和/或模块,包括但不限于电路、专用集成电路(ASIC)、或处理器。例如,各种操作可由图12-15中所示的各种处理器中的一个或多个处理器来执行。一般而言,在存在附图中解说的操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。例如,图11中所解说的操作1100对应于图11A中所解说的装置1100A。
例如,用于显示的装置可包括显示器(例如,监视器、平面屏幕、触屏等)、打印机、或任何其他用于输出数据以供视觉描绘(例如表、图表或图形)的合适装置。用于处理的装置、用于观察的装置、用于选择的装置、用于重复的装置、用于预测的装置、或用于确定的装置可包括处理系统,该处理系统可包括一个或多个处理器或处理单元。用于感测的装置可包括传感器。用于存储的装置可包括可由处理系统访问的存储器或任何其它合适的存储设备(例如,RAM)。
如本文所使用的,术语“确定”涵盖各种各样的动作。例如,“确定”可包括演算、计算、处理、推导、研究、查找(例如,在表、数据库或其他数据结构中查找)、查明、及类似动作。而且,“确定”可包括接收(例如接收信息)、访问(例如访问存储器中的数据)、及类似动作。另外,“确定”还可包括解析、选择、选取、建立、及类似动作。
如本文中所使用的,引述一列项目中的“至少一个”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c、以及a-b-c。
结合本公开描述的各种解说性逻辑框、模块、以及电路可用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件、或其设计成执行本文中描述的功能的任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何可商业购得的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协同的一个或多个微处理器、或任何其他此类配置。
结合本公开描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中实施。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM等。软件模块可包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合到处理器以使得该处理器能从/向该存储介质读写信息。替换地,存储介质可以被整合到处理器。
本文所公开的方法包括用于达成所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件或其任何组合中实现。如果以硬件实现,则示例硬件配置可包括设备中的处理系统。处理系统可以用总线架构来实现。取决于处理系统的具体应用和整体设计约束,总线可包括任何数目的互连总线和桥接器。总线可将包括处理器、机器可读介质、以及总线接口的各种电路链接在一起。总线接口可用于尤其将网络适配器等经由总线连接至处理系统。网络适配器可用于实现信号处理功能。对于某些方面,用户接口(例如,按键板、显示器、鼠标、操纵杆等)也可被连接至总线。总线还可链接各种其他电路(诸如定时源、外围设备、稳压器、电源管理电路等),这些电路在本领域中是众所周知的,因此将不再赘述。
处理器可负责管理总线和一般处理,包括执行存储在机器可读介质上的软件。处理器可用一个或多个通用和/或专用处理器来实现。示例包括微处理器、微控制器、DSP处理器、以及其他能执行软件的电路系统。软件应当被宽泛地解释成意指指令、数据、或其任何组合,无论是被称作软件、固件、中间件、微代码、硬件描述语言、或其他。作为示例,机器可读介质可以包括RAM(随机存取存储器)、闪存、ROM(只读存储器)、PROM(可编程只读存储器)、EPROM(可擦式可编程只读存储器)、EEPROM(电可擦式可编程只读存储器)、寄存器、磁盘、光盘、硬驱动器、或者任何其他合适的存储介质、或其任何组合。机器可读介质可被实施在计算机程序产品中。该计算机程序产品可以包括包装材料。
在硬件实现中,机器可读介质可以是处理系统中与处理器分开的一部分。然而,如本领域技术人员将容易领会的,机器可读介质、或其任何部分可在处理系统外部。作为示例,机器可读介质可包括传输线、由数据调制的载波、和/或与设备分开的计算机产品,所有这些都可由处理器通过总线接口来访问。替换地或补充地,机器可读介质、或其任何部分可被集成到处理器中,诸如高速缓存和/或通用寄存器文件可能就是这种情形。
处理系统可以被配置为通用处理系统,该通用处理系统具有一个或多个提供处理器功能性的微处理器、和提供机器可读介质中的至少一部分的外部存储器,它们都通过外部总线架构与其他支持电路系统链接在一起。替换地,处理系统可以用带有集成在单块芯片中的处理器、总线接口、用户接口、支持电路系统、和至少一部分机器可读介质的ASIC(专用集成电路)来实现,或者用一个或多个FPGA(现场可编程门阵列)、PLD(可编程逻辑器件)、控制器、状态机、门控逻辑、分立硬件组件、或者任何其他合适的电路系统、或者能执行本公开通篇所描述的各种功能性的电路的任何组合来实现。取决于具体应用和加诸于整体系统上的总设计约束,本领域技术人员将认识到如何最佳地实现关于处理系统所描述的功能性。
机器可读介质可包括数个软件模块。这些软件模块包括当由处理器执行时使处理系统执行各种功能的指令。这些软件模块可包括传输模块和接收模块。每个软件模块可以驻留在单个存储设备中或者跨多个存储设备分布。作为示例,当触发事件发生时,可以从硬驱动器中将软件模块加载到RAM中。在软件模块执行期间,处理器可以将一些指令加载到高速缓存中以提高访问速度。随后可将一个或多个高速缓存行加载到通用寄存器文件中以供由处理器执行。在以下谈及软件模块的功能性时,将理解此类功能性是在处理器执行来自该软件模块的指令时由该处理器来实现的。
如果以软件实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,此类计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其它介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和 碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可包括瞬态计算机可读介质(例如,信号)。上述的组合也应被包括在计算机可读介质的范围内。
因此,某些方面可包括用于执行本文中给出的操作的计算机程序产品。例如,此种计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
另外,应领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由设备在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文中所描述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘之类的物理存储介质等)来提供,以使得一旦将该存储装置耦合到或提供给设备,该设备就能获得各种方法。此外,可利用适于向设备提供本文中所描述的方法和技术的任何其他合适的技术。
将理解,权利要求并不被限定于以上所解说的精确配置和组件。可在以上所描述的方法和装置的布局、操作和细节上作出各种改动、改变和变形而不会脱离权利要求的范围。

Claims (22)

1.一种用于因果学习的方法,包括:
用装置观察一个或多个事件,其中所述事件被定义为特定相对时间处的发生;
基于一个或多个准则来选择所述事件的子集;以及
基于所选子集来确定所述事件中的至少一个事件的逻辑原因。
2.如权利要求1所述的方法,其特征在于,所述准则包括因果凸显性,所述因果凸显性被定义为一个事件从其他事件中脱颖而出的程度。
3.如权利要求2所述的方法,其特征在于,不可预测事件发生得越频繁,所述不可预测事件就是越加因果凸显的。
4.如权利要求1所述的方法,其特征在于,所述准则包括重现、独特性、或时间邻近性中的至少一者。
5.如权利要求1所述的方法,其特征在于,所述选择包括认为所述事件中提供关于所述事件中的另一事件的在统计上显著的信息的最早事件是最重要的事件。
6.如权利要求5所述的方法,其特征在于,进一步包括将所述最重要的事件存储在存储器中。
7.如权利要求1所述的方法,其特征在于,所述观察包括:
周期性地对系统进行采样以生成离散点集;以及
将所述离散点集转换成事件。
8.如权利要求1所述的方法,其特征在于,所述方法实现在能够进行推断学习的人工神经系统中。
9.如权利要求1所述的方法,其特征在于,进一步包括若观察到新事件则重复所述选择和所述确定。
10.如权利要求1所述的方法,其特征在于,进一步包括基于所述逻辑原因来预测一个或多个后续事件。
11.一种用于因果学习的装置,包括:
处理系统,配置成:
观察一个或多个事件,所述事件被定义为特定相对时间处的发生;
基于一个或多个准则来选择所述事件的子集;以及
基于所选子集来确定所述事件中的至少一个事件的逻辑原因;以及耦合至所述处理系统的存储器。
12.如权利要求11所述的装置,其特征在于,所述准则包括因果凸显性,所述因果凸显性被定义为一个事件从其他事件中脱颖而出的程度。
13.如权利要求12所述的装置,其特征在于,不可预测事件发生得越频繁,所述不可预测事件就是越加因果凸显的。
14.如权利要求11所述的装置,其特征在于,所述准则包括重现、独特性、或时间邻近性中的至少一者。
15.如权利要求11所述的装置,其特征在于,所述处理系统被配置成通过认为所述事件中提供关于所述事件中的另一事件的在统计上显著的信息的最早事件是最重要的事件来选择所述事件子集。
16.如权利要求15所述的装置,其特征在于,所述最重要的事件被存储在所述存储器中。
17.如权利要求11所述的装置,其特征在于,所述处理系统被配置成通过以下操作来观察所述一个或多个事件:
周期性地对系统进行采样以生成离散点集;以及
将所述离散点集转换成事件。
18.如权利要求11所述的装置,其特征在于,所述装置是能够进行推断学习的人工神经系统的一部分。
19.如权利要求11所述的装置,其特征在于,所述处理系统进一步配置成若观察到新事件则重复所述选择和所述确定。
20.如权利要求11所述的装置,其特征在于,所述处理系统进一步配置成基于所述逻辑原因来预测一个或多个后续事件。
21.一种用于因果学习的设备,包括:
用于观察一个或多个事件的装置,所述事件被定义为特定相对时间处的发生;
用于基于一个或多个准则来选择所述事件的子集的装置;以及
用于基于所选子集来确定所述事件中的至少一个事件的逻辑原因的装置。
22.一种用于因果学习的计算机程序产品,包括具有代码的非瞬态计算机可读介质,所述代码用于:
观察一个或多个事件,所述事件被定义为特定相对时间处的发生;
基于一个或多个准则来选择所述事件的子集;以及
基于所选子集来确定所述事件中的至少一个事件的逻辑原因。
CN201480059144.2A 2013-10-29 2014-10-17 因果凸显性时间推断 Pending CN105723383A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361897024P 2013-10-29 2013-10-29
US61/897,024 2013-10-29
US14/160,128 US20150120627A1 (en) 2013-10-29 2014-01-21 Causal saliency time inference
US14/160,128 2014-01-21
PCT/US2014/061018 WO2015065729A2 (en) 2013-10-29 2014-10-17 Causal saliency time inference

Publications (1)

Publication Number Publication Date
CN105723383A true CN105723383A (zh) 2016-06-29

Family

ID=52996589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480059144.2A Pending CN105723383A (zh) 2013-10-29 2014-10-17 因果凸显性时间推断

Country Status (8)

Country Link
US (1) US20150120627A1 (zh)
EP (1) EP3063710A2 (zh)
JP (1) JP2016539407A (zh)
KR (1) KR20160076520A (zh)
CN (1) CN105723383A (zh)
CA (1) CA2926098A1 (zh)
TW (1) TW201531967A (zh)
WO (1) WO2015065729A2 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822430A (zh) * 2020-12-28 2021-12-21 京东科技控股股份有限公司 事件的推理方法、装置、计算机设备和存储介质
CN117408342A (zh) * 2023-12-11 2024-01-16 华中师范大学 基于神经元尖峰序列数据的神经元网络推断方法及系统

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US20140156628A1 (en) * 2005-10-26 2014-06-05 Cortica Ltd. System and method for determination of causality based on big data analysis
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
WO2017105641A1 (en) 2015-12-15 2017-06-22 Cortica, Ltd. Identification of key points in multimedia data elements
JP6540725B2 (ja) * 2017-01-30 2019-07-10 富士通株式会社 演算処理装置、方法、およびプログラム
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
US11899707B2 (en) 2017-07-09 2024-02-13 Cortica Ltd. Driving policies determination
US11195096B2 (en) 2017-10-24 2021-12-07 International Business Machines Corporation Facilitating neural network efficiency
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US11700356B2 (en) 2018-10-26 2023-07-11 AutoBrains Technologies Ltd. Control transfer of a vehicle
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US20200287923A1 (en) * 2019-03-08 2020-09-10 International Business Machines Corporation Unsupervised learning to simplify distributed systems management
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
JP7295561B2 (ja) * 2019-06-25 2023-06-21 株式会社World Life Mapping 人生画像表示装置、人生画像管理装置、およびプログラム
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
KR102319062B1 (ko) * 2020-02-04 2021-11-02 한국과학기술원 퍼베이시브 센서 공간에서 그룹 활동 인식을 위한 인과 관계 인식 패턴 마이닝 시스템
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist
CN113962354B (zh) * 2021-10-25 2022-07-12 南华大学 一种基于活性群体集体运动中因果推断方法
CN116307274B (zh) * 2023-05-18 2023-08-18 北京航空航天大学 一种考虑因果干预的城市区域能耗预测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102906767A (zh) * 2010-06-30 2013-01-30 国际商业机器公司 用于时空联合存储器的标准尖峰神经网络

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259157A (ja) * 1993-03-10 1994-09-16 Fuji Photo Film Co Ltd 自己組織化パターン学習システム
US7117185B1 (en) * 2002-05-15 2006-10-03 Vanderbilt University Method, system, and apparatus for casual discovery and variable selection for classification
JP5419746B2 (ja) * 2010-02-23 2014-02-19 株式会社日立製作所 管理装置及び管理プログラム
US20130204814A1 (en) * 2012-02-08 2013-08-08 Qualcomm Incorporated Methods and apparatus for spiking neural computation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102906767A (zh) * 2010-06-30 2013-01-30 国际商业机器公司 用于时空联合存储器的标准尖峰神经网络

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANIL K.SETH: "Causal networks in simulated neural systems", 《COGN NEURODYN》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822430A (zh) * 2020-12-28 2021-12-21 京东科技控股股份有限公司 事件的推理方法、装置、计算机设备和存储介质
CN113822430B (zh) * 2020-12-28 2024-05-21 京东科技控股股份有限公司 事件的推理方法、装置、计算机设备和存储介质
CN117408342A (zh) * 2023-12-11 2024-01-16 华中师范大学 基于神经元尖峰序列数据的神经元网络推断方法及系统
CN117408342B (zh) * 2023-12-11 2024-03-15 华中师范大学 基于神经元尖峰序列数据的神经元网络推断方法及系统

Also Published As

Publication number Publication date
WO2015065729A3 (en) 2015-10-08
JP2016539407A (ja) 2016-12-15
KR20160076520A (ko) 2016-06-30
US20150120627A1 (en) 2015-04-30
WO2015065729A2 (en) 2015-05-07
TW201531967A (zh) 2015-08-16
CA2926098A1 (en) 2015-05-07
EP3063710A2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
CN105723383A (zh) 因果凸显性时间推断
CN105684002B (zh) 用于使用监督式学习对种类加标签的方法和装置
CN105229675B (zh) 尖峰网络的高效硬件实现
CN105874477A (zh) 配置稀疏神经网络
CN105612492B (zh) 在人工神经系统中减少尖峰的方法、装置、设备及介质
CN105580031B (zh) 在多维范围上对包括可分离子系统的系统的评估
CN106663222A (zh) 神经网络中的分解卷积操作
CN107077637A (zh) 神经网络中的差分编码
Stewart et al. A biologically realistic cleanup memory: Autoassociation in spiking neurons
CN105637539B (zh) 用于修改神经动态的自动化方法
CN106104577A (zh) 照片管理
CN105934766A (zh) 用阴影网络来监视神经网络
CN106068519B (zh) 用于共用神经元模型的高效实现的方法和装置
CN106030620A (zh) 用于随机尖峰贝叶斯网络的基于事件的推断和学习
CN105556543B (zh) 针对神经模型的群组标签的实现方案的方法和装置
CN106164940A (zh) 在尖峰神经网络中通过全局标量值来调制可塑性
CN106104585A (zh) 经由阈下调制的模拟信号重构和识别
CN106133763B (zh) 可塑性突触管理
CN105659261A (zh) 尖峰神经元网络中的拥塞避免
CN105659260B (zh) 动态地指派和检查突触延迟
Dong et al. Research and application of local perceptron neural network in highway rectifier for time series forecasting
Vassiliades et al. Behavioral plasticity through the modulation of switch neurons
Xiangping et al. A hybrid method of GA and BP for short-term economic dispatch of hydrothermal power systems
Jing et al. NASABN: A neural architecture search framework for attention-based networks
CN106104586A (zh) 神经元形态模型开发的上下文实时反馈

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160629