CN106971227A - 神经元信息接收方法和系统 - Google Patents

神经元信息接收方法和系统 Download PDF

Info

Publication number
CN106971227A
CN106971227A CN201710085556.9A CN201710085556A CN106971227A CN 106971227 A CN106971227 A CN 106971227A CN 201710085556 A CN201710085556 A CN 201710085556A CN 106971227 A CN106971227 A CN 106971227A
Authority
CN
China
Prior art keywords
neuron
multiplexing
end neuron
neuronal messages
rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710085556.9A
Other languages
English (en)
Other versions
CN106971227B (zh
Inventor
裴京
施路平
焦鹏
邓磊
吴臻志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ling Xi Technology Co Ltd
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201710085556.9A priority Critical patent/CN106971227B/zh
Publication of CN106971227A publication Critical patent/CN106971227A/zh
Priority to PCT/CN2017/114662 priority patent/WO2018149217A1/zh
Application granted granted Critical
Publication of CN106971227B publication Critical patent/CN106971227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明涉及一种神经元信息接收方法,所述方法包括:确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元;根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应;根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。本发明能够使当前神经元接收更多的前端神经元发送的信息,提高了神经元信息接收的能力,从而提高整个神经网络的信息处理能力。

Description

神经元信息接收方法和系统
技术领域
本发明涉及神经网络技术领域,特别是涉及神经元信息接收方法和系统。
背景技术
神经形态工程由Carver Mead在1990年提出,意在用大规模集成电路来模拟生物神经系统架构,构建神经形态计算系统。早期的神经形态计算系统一般通过模拟电路实现,但近些年来数字电路和数模混合电路也越来越多的被神经形态工程所使用。目前,神经形态工程与神经形态电路是国际上新兴的研究热点之一。传统的神经形态计算平台,旨在通过模拟电路仿真大脑神经元模型和离子通道活动,使用数字电路与片上存储构建连接和路由,从而能十分方便更改神经元连接图谱。。
传统的神经网络中,采用计算核的方式完成大规模的信息处理任务,其中,计算核内神经元的轴突最多通过突触连接到256个神经元。在承载神经网络运算时,这限制了神经网络每一层的输出都不能大于256,即下一层的神经元数不能超过256,即在传统的神经网络中,神经元之间的连接限制,极大的限制了神经网络的信息处理能力。
发明内容
本发明实施例提供一种神经元信息接收方法和系统,可以扩展神经网络的信息处理能力。所述方法包括:
确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元;
根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应;
根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。
在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括:
将运算步等间隔划分为至少两个运算周期。
在其中一个实施例中,所述配置当前神经元的复用规则,包括:
分别配置当前神经元的树突和胞体的复用规则。
在其中一个实施例中,所述前端神经元输出的神经元信息,包括:
所述前端神经元持续输出的人工神经元信息。
在其中一个实施例中,在确定前端神经元复用组的步骤之前,所述方法还包括:
确定当前神经元的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
在其中一个实施例中,通过设置前端神经元复用组,使得当前神经元按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端神经元发送的神经元信息,以使当前神经元在当前运算步的时长内,能够接收更多的前端神经元发送的信息,提高了神经元信息接收的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔接收不同的前端神经元发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,通过分别配置当前神经元的树突和胞体的复用规则,可以使当前神经元的信息处理更有效率。
在其中一个实施例中,所述接收的前端神经元输出的神经元信息为持续输出的人工神经元信息,可以使得当前神经元处理按照传统的信息发送方式发送前端神经元发送的神经元信息。
在其中一个实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
本发明还提供一种神经元信息接收系统,包括:
复用组确定模块,用于确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元;
运算周期分配模块,用于根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应;
神经元信息接收模块,用于根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。
在其中一个实施例中,所述运算周期分配模块,用于将运算步等间隔划分为至少两个运算周期。
在其中一个实施例中,所述运算周期分配模块,还用于分别配置当前神经元的树突和胞体的复用规则。
在其中一个实施例中,所述神经元信息接收模块,用于接收所述前端神经元持续输出的人工神经元信息。
在其中一个实施例中,还包括:
处理模式确定模块,用于确定当前神经元的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
在其中一个实施例中,通过设置前端神经元复用组,使得当前神经元按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端神经元发送的神经元信息,以使当前神经元在当前运算步的时长内,能够接收更多的前端神经元发送的信息,提高了神经元信息接收的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔接收不同的前端神经元发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,通过分别配置当前神经元的树突和胞体的复用规则,可以使当前神经元的信息处理更有效率。
在其中一个实施例中,所述接收的前端神经元输出的神经元信息为持续输出的人工神经元信息,可以使得当前神经元处理按照传统的信息发送方式发送前端神经元发送的神经元信息。
在其中一个实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
附图说明
图1为一个实施例的神经元信息接收方法的流程示意图;
图2为另一个实施例的神经元信息接收方法的流程示意图;
图3为一个实施例的神经元信息接收系统的结构示意图;
图4为另一个实施例的神经元信息接收系统的结构示意图;
图5为另一个实施例的神经元信息接收方法的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1为一个实施例的神经元信息接收方法的流程示意图,如图1为一个实施例的神经元信息接收方法,包括:
步骤S100,确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元。
具体的,为使所述当前神经元在一个运算步内能够接收更多的前端神经元输入的信息,将前端神经元在一个运算步内进行复用,需要确定进行复用的前端神经元的数量和范围,可以根据神经网络所执行的任务的需求,灵活设定任意数量的神经元进行复用,只要复用后,神经元用于发送信息的时长够用即可。
所述运算步(STEP),为神经元进行信息处理的一个固定的时长,神经网络中所有的神经元,均按照所述的运算步同步处理数据。
步骤S200,根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应。
具体的,所述将运算步划分为至少两个运算周期,即,将一个STEP划分为多个运算周期(也可成为PHASE),为保证进行复用的前端神经元都能与所述的运算周期进行对应,需要将运算周期的个数设定为大于或等于进行复用的所述前端神经元的数量。
所述将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应,是指将前端神经元发送的信息,只在一个与之对应的运算周期内发送。在实际的神经网络的使用中,也可以将一个前端神经元与多个运算周期进行对应,或一个运算周期与多个前端神经元进行对应,从而进一步的提高当前神经元的信息接收能力,但其基本的原理,均与前端神经元和运算周期一一相同,因此不再赘述,实际使用中根据需求进行灵活的设定即可。
步骤S300,根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。
具体的,当前神经元设定好复用规则后,在当前的运算步内的各运算周期,只接收与当前运算周期对应的前端神经元发送的神经元信息即可。
在本实施例中,通过设置前端神经元复用组,使得当前神经元按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端神经元发送的神经元信息,以使当前神经元在当前运算步的时长内,能够接收更多的前端神经元发送的信息,提高了神经元信息接收的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括将运算步等间隔划分为至少两个运算周期。
具体的,也可将所述运算步进行非等间隔的划分,如有的运算周期长,有的运算周期短,以使输出的神经元信息的信息量大的前端神经元,对应于相对较长的运算周期。从而保证神经元信息的接收完整性。其运算周期的长短的分配,根据需求灵活设定。
在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔接收不同的前端神经元发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,所述配置当前神经元的复用规则,包括分别配置当前神经元的树突和胞体的复用规则。
具体的,当前神经元的树突,用于接收前端神经元发送的信息,当前神经元的胞体,用于计算所述树突接收到的信息。在当前神经元的复用规则中,将树突和胞体分别配置相应的复用规则,如,在当前STEP的哪些PHASE,用于树突接收前端神经元输出的神经元信息,所述胞体在当前STEP的哪个PHASE进行历史膜电位信息的处理等,因其处理的信息不冲突,所述指定的胞体的对应PHASE可以与所述树突所对应的PHASE重合。
为给当前神经元预留时间进行当前STEP的信息的计算,所述树突的胞体的复用后,会在所有树突和胞体的对应的PHASE后,在STEP的后面预留至少一个PHASE,供当前神经元计算使用。
在本实施例中,通过分别配置当前神经元的树突和胞体的复用规则,可以使当前神经元的信息处理更有效率。
在其中一个实施例中,所述前端神经元输出的神经元信息,包括所述前端神经元持续输出的人工神经元信息。
具体的,在当前神经元进行信息接收时进行复用时,若前端神经元是采用传统的非复用的发送方式时,需在前端神经元为人工神经元,且发送方式为持续发送。
在本实施例中,所述接收的前端神经元输出的神经元信息为持续输出的人工神经元信息,可以使得当前神经元处理按照传统的信息发送方式发送前端神经元发送的神经元信息。
图2为另一个实施例的神经元信息接收方法的流程示意图,如图2为一个实施例的神经元信息接收方法,包括:
步骤S90,确定当前神经元的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
具体的,当前神经元可以选择工作在复用模式,也可选择工作在非复用模式,所述非复用模式即为传统技术中的工作模式。
步骤S100,确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元。
步骤S200,根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应。
步骤S300,根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。
在本实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
图3为一个实施例的神经元信息接收系统的结构示意图,如图3为一个实施例的神经元信息接收系统,包括:
复用组确定模块100,用于确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元。
运算周期分配模块200,用于根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应;用于将运算步等间隔划分为至少两个运算周期。还用于分别配置当前神经元的树突和胞体的复用规则。
神经元信息接收模块300,用于根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。用于接收所述前端神经元持续输出的人工神经元信息。
在本实施例中,通过设置前端神经元复用组,使得当前神经元按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端神经元发送的神经元信息,以使当前神经元在当前运算步的时长内,能够接收更多的前端神经元发送的信息,提高了神经元信息接收的能力,从而提高整个神经网络的信息处理能力。通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔接收不同的前端神经元发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。通过分别配置当前神经元的树突和胞体的复用规则,可以使当前神经元的信息处理更有效率。所述接收的前端神经元输出的神经元信息为持续输出的人工神经元信息,可以使得当前神经元处理按照传统的信息发送方式发送前端神经元发送的神经元信息。
图4为另一个实施例的神经元信息接收系统的结构示意图,如图4为一个实施例的神经元信息接收系统,包括:
处理模式确定模块90,用于确定当前神经元的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
复用组确定模块100,用于确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元。
运算周期分配模块200,用于根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应;用于将运算步等间隔划分为至少两个运算周期。还用于分别配置当前神经元的树突和胞体的复用规则。
神经元信息接收模块300,用于根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。用于接收所述前端神经元持续输出的人工神经元信息。
在本实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
在其中一个实施例中,可以通过寄存器的方式,实现当前神经元的复用,如表1所示:
表1
图5为结合表1给出的本实施例的示意图,表1给出了当前神经元的树突和胞体的复用的寄存器的实现方式之一,其中D_type,标识树突的处理模式的选择,当其为0时,是现有的不进行复用的处理模式,每个树突按照一个STEP接收一个前端神经元信息的方式,不进行复用,当其为1时,当前神经元的树突采用复用模式。所述的位宽为1,表示利用1个bit的字节描述此变量。D_start_phase为树突计算起始有效运算周期,D_end_phase为树突计算最后有效运算周期,两者配合使用,用于在寄存器中指明复用的运算周期的位置。表1中后半部的胞体与树突部分相同。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种神经元信息接收方法,其特征在于,所述方法包括:
确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元;
根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应;
根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。
2.根据权利要求1所述的神经元信息接收方法,其特征在于,所述将运算步划分为至少两个运算周期,包括:
将运算步等间隔划分为至少两个运算周期。
3.根据权利要求1所述的神经元信息接收方法,其特征在于,所述配置当前神经元的复用规则,包括:
分别配置当前神经元的树突和胞体的复用规则。
4.根据权利要求1所述的神经元信息接收方法,其特征在于,所述前端神经元输出的神经元信息,包括:
所述前端神经元持续输出的人工神经元信息。
5.根据权利要求1所述的神经元信息接收方法,其特征在于,在确定前端神经元复用组的步骤之前,所述方法还包括:
确定当前神经元的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
6.一种神经元信息接收系统,其特征在于,包括:
复用组确定模块,用于确定前端神经元复用组,所述前端神经元复用组包括至少两个前端神经元;
运算周期分配模块,用于根据所述前端神经元复用组,配置当前神经元的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端神经元的数量,将所述前端神经元复用组中的各前端神经元分别与所述运算周期一一对应;
神经元信息接收模块,用于根据所述复用规则,在当前运算步内,分别接收各所述前端神经元输出的神经元信息。
7.根据权利要求6所述的神经元信息接收系统,其特征在于:
所述运算周期分配模块,用于将运算步等间隔划分为至少两个运算周期。
8.根据权利要求6所述的神经元信息接收系统,其特征在于:
所述运算周期分配模块,还用于分别配置当前神经元的树突和胞体的复用规则。
9.根据权利要求6所述的神经元信息接收系统,其特征在于:
所述神经元信息接收模块,用于接收所述前端神经元持续输出的人工神经元信息。
10.根据权利要求6所述的神经元信息接收系统,其特征在于,还包括:
处理模式确定模块,用于确定当前神经元的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
CN201710085556.9A 2017-02-17 2017-02-17 神经元信息接收方法和系统 Active CN106971227B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710085556.9A CN106971227B (zh) 2017-02-17 2017-02-17 神经元信息接收方法和系统
PCT/CN2017/114662 WO2018149217A1 (zh) 2017-02-17 2017-12-05 神经网络计算核信息处理方法、系统和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710085556.9A CN106971227B (zh) 2017-02-17 2017-02-17 神经元信息接收方法和系统

Publications (2)

Publication Number Publication Date
CN106971227A true CN106971227A (zh) 2017-07-21
CN106971227B CN106971227B (zh) 2020-04-21

Family

ID=59334933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710085556.9A Active CN106971227B (zh) 2017-02-17 2017-02-17 神经元信息接收方法和系统

Country Status (1)

Country Link
CN (1) CN106971227B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018149217A1 (zh) * 2017-02-17 2018-08-23 清华大学 神经网络计算核信息处理方法、系统和计算机设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101616130A (zh) * 2008-06-27 2009-12-30 华为技术有限公司 业务通信的方法、封装、解封装装置及系统
CN104615909A (zh) * 2015-02-02 2015-05-13 天津大学 基于FPGA的Izhikevich神经元网络同步放电仿真平台
CN105184366A (zh) * 2015-09-15 2015-12-23 中国科学院计算技术研究所 一种时分复用的通用神经网络处理器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101616130A (zh) * 2008-06-27 2009-12-30 华为技术有限公司 业务通信的方法、封装、解封装装置及系统
CN104615909A (zh) * 2015-02-02 2015-05-13 天津大学 基于FPGA的Izhikevich神经元网络同步放电仿真平台
CN105184366A (zh) * 2015-09-15 2015-12-23 中国科学院计算技术研究所 一种时分复用的通用神经网络处理器

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
李海: ""单片机的嵌入式TCP/IP协议栈设计及其实现路径"", 《电子测试》 *
胡林成: ""数能力的模块性-Dehaene的"神经元复用"", 《华东师范大学学报(教育科学版)》 *
陈云霁: ""从人工智能到神经网络处理器"", 《领导科学论坛》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018149217A1 (zh) * 2017-02-17 2018-08-23 清华大学 神经网络计算核信息处理方法、系统和计算机设备

Also Published As

Publication number Publication date
CN106971227B (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN112613680B (zh) 续航里程估算方法、装置、设备及存储介质
CN106971229A (zh) 神经网络计算核信息处理方法和系统
CN106845633A (zh) 神经网络信息转换方法和系统
CN106875004A (zh) 复合模式神经元信息处理方法和系统
CN106875005A (zh) 自适应阈值神经元信息处理方法和系统
CN111831354B (zh) 数据精度配置方法、装置、芯片、芯片阵列、设备及介质
CN109615071A (zh) 一种高能效的神经网络处理器、加速系统及方法
CN104536831B (zh) 一种基于多目标优化的多核SoC软件映射方法
CN106971227A (zh) 神经元信息接收方法和系统
CN109933430A (zh) 分配图形处理器的方法和装置
CN115951587A (zh) 自动驾驶控制方法、装置、设备、介质及自动驾驶车辆
CN106709134A (zh) 一种煤矿高压电网短路电流并行计算方法
CN106971228A (zh) 神经元信息发送方法和系统
CN106407005A (zh) 一种基于多尺度耦合的并行进程合并方法及系统
CN106875010A (zh) 神经元权重信息处理方法和系统
CN116523045A (zh) 一种面向多芯粒芯片的深度学习推理模拟器
CN109919655A (zh) 一种充电设备的计费方法、装置及智能终端
CN104022937B (zh) 一种基于细胞型p系统的虚拟网络映射方法
CN108388943A (zh) 一种适用于神经网络的池化装置及方法
CN106897768A (zh) 神经网络信息发送方法和系统
DE112018006405T5 (de) Verfahren und Vorrichtung zur Berechnung der Hashfunktion
CN106815638A (zh) 输入权重拓展的神经元信息处理方法和系统
WO2018149217A1 (zh) 神经网络计算核信息处理方法、系统和计算机设备
CN116576880B (zh) 一种车道级道路规划方法、装置、终端设备及存储介质
CN113920717B (zh) 一种信息处理方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20180213

Address after: 100036 Beijing city Haidian District West Sanhuan Road No. 10 wanghailou B block two layer 200-30

Applicant after: Beijing Ling Xi Technology Co. Ltd.

Address before: 100084 Haidian District Tsinghua Yuan Beijing No. 1

Applicant before: Tsinghua University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant