CN106971229A - 神经网络计算核信息处理方法和系统 - Google Patents
神经网络计算核信息处理方法和系统 Download PDFInfo
- Publication number
- CN106971229A CN106971229A CN201710085547.XA CN201710085547A CN106971229A CN 106971229 A CN106971229 A CN 106971229A CN 201710085547 A CN201710085547 A CN 201710085547A CN 106971229 A CN106971229 A CN 106971229A
- Authority
- CN
- China
- Prior art keywords
- core
- multiplexing
- information processing
- calculates
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种神经网络计算核信息处理方法和系统,所述方法包括:确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核;根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应;根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。本发明使当前计算核在当前运算步的时长内,能够接收更多的前端计算核发送的信息,提高了计算核信息接收的能力,从而提高整个神经网络的信息处理能力。
Description
技术领域
本发明涉及神经网络技术领域,特别是涉及神经网络计算核信息处理方法和系统。
背景技术
神经形态工程由Carver Mead在1990年提出,意在用大规模集成电路来模拟生物神经系统架构,构建神经形态计算系统。早期的神经形态计算系统一般通过模拟电路实现,但近些年来数字电路和数模混合电路也越来越多的被神经形态工程所使用。目前,神经形态工程与神经形态电路是国际上新兴的研究热点之一。传统的神经形态计算平台,旨在通过模拟电路仿真大脑神经元模型和离子通道活动,使用数字电路与片上存储构建连接和路由,从而能十分方便更改神经元连接图谱。。
传统的神经网络中,采用计算核的方式完成大规模的信息处理任务,其中,计算核内神经元的轴突最多通过突触连接到256个神经元。在承载神经网络运算时,这限制了神经网络每一层的输出都不能大于256,即下一层的神经元数不能超过256,且,一个计算核所能够处理的前端计算核的数量也是有限的,即在传统的神经网络中,计算核之间的连接限制,极大的限制了神经网络的信息处理能力。
发明内容
本发明实施例提供一种神经网络计算核信息处理方法和系统,可以扩展神经网络的信息处理能力。其中,所述方法包括:
确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核;
根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应;
根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。
在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括:
将运算步等间隔划分为至少两个运算周期。
在其中一个实施例中,所述配置当前计算核内各神经元的复用规则,包括:
分别配置当前计算核内各神经元的树突和胞体的复用规则。
在其中一个实施例中,所述前端计算核输出的神经元信息,包括:
前端计算核持续输出的人工神经元信息。
在其中一个实施例中,在确定前端计算核复用组的步骤之前,所述方法还包括:
确定当前计算核的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
在其中一个实施例中,通过设置前端计算核复用组,使得当前计算核按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端计算核发送的神经元信息,以使当前计算核在当前运算步的时长内,能够接收更多的前端计算核发送的信息,提高了计算核信息接收的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前计算核可以按照设定好的时间间隔接收不同的前端计算核发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,通过分别配置当前计算核内的神经元的树突和胞体的复用规则,可以使当前计算核的信息处理更有效率。
在其中一个实施例中,所述接收的前端计算核输出的神经元信息为持续输出的人工神经元信息,可以使得当前计算核处理按照传统的信息发送方式发送前端计算核发送的神经元信息。
在其中一个实施例中,提供的信息处理模式,可以使得当前计算核选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
本发明还提供一种神经网络计算核信息处理系统,包括:
复用组确定模块,用于确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核;
运算周期分配模块,用于根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应;
神经元信息接收模块,用于根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。
在其中一个实施例中,所述运算周期分配模块,用于将运算步等间隔划分为至少两个运算周期。
在其中一个实施例中,所述运算周期分配模块,用于分别配置当前计算核内各神经元的树突和胞体的复用规则。
在其中一个实施例中,所述神经元信息接收模块,用于接收所述前端计算核持续输出的人工神经元信息。
在其中一个实施例中,还包括处理模式确定模块,用于确定当前计算核的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
在其中一个实施例中,通过设置前端计算核复用组,使得当前计算核按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端计算核发送的神经元信息,以使当前计算核在当前运算步的时长内,能够接收更多的前端计算核发送的信息,提高了计算核信息接收的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前计算核可以按照设定好的时间间隔接收不同的前端计算核发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,通过分别配置当前计算核内的神经元的树突和胞体的复用规则,可以使当前计算核的信息处理更有效率。
在其中一个实施例中,所述接收的前端计算核输出的神经元信息为持续输出的人工神经元信息,可以使得当前计算核处理按照传统的信息发送方式发送前端计算核发送的神经元信息。
在其中一个实施例中,提供的信息处理模式,可以使得当前计算核选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
附图说明
图1为一个实施例的神经网络计算核信息处理方法的流程示意图;
图2为另一个实施例的神经网络计算核信息处理方法的流程示意图;
图3为一个实施例的神经网络计算核信息处理系统的结构示意图;
图4为另一个实施例的神经网络计算核信息处理系统的结构示意图;
图5为另一个实施例的神经网络计算核信息处理方法的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1为一个实施例的神经网络计算核信息处理方法的流程示意图,如图1所示的神经网络计算核信息处理方法,包括:
步骤S100,确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核。
具体的,为使所述当前计算核在一个运算步内能够接收更多的前端计算核输入的信息,将前端计算核在一个运算步内进行复用,需要确定进行复用的前端计算核的数量和范围,可以根据神经网络所执行的任务的需求,灵活设定任意数量的计算核进行复用,只要复用后,计算核用于发送信息的时长够用即可。
所述运算步(STEP),为计算核进行信息处理的一个固定的时长,神经网络中所有的神经元,均按照所述的运算步同步处理数据。
步骤S200,根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应。
具体的,所述将运算步划分为至少两个运算周期,即,将一个STEP划分为多个运算周期(也可称为PHASE),为保证进行复用的前端计算核都能与所述的运算周期进行对应,需要将运算周期的个数设定为大于或等于进行复用的所述前端计算核的数量。
所述将所述前端计算核复用组中的各前端计算核分别与所述运算周期一一对应,是指将前端计算核发送的信息,只在一个与之对应的运算周期内发送。在实际的神经网络的使用中,也可以将一个前端计算核与多个运算周期进行对应,或一个运算周期与多个前端计算核进行对应,从而进一步的提高当前计算核的信息接收能力,但其基本的原理,均与前端计算核和运算周期一一相同,因此不再赘述,实际使用中根据需求进行灵活的设定即可。
步骤S300,根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。
具体的,当前计算核设定好复用规则后,在当前的运算步内的各运算周期,只接收与当前运算周期对应的前端计算核发送的神经元信息即可。
在本实施例中,通过设置前端计算核复用组,使得当前计算核按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端计算核发送的神经元信息,以使当前计算核在当前运算步的时长内,能够接收更多的前端计算核发送的信息,提高了计算核信息接收的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括将运算步等间隔划分为至少两个运算周期。
具体的,也可将所述运算步进行非等间隔的划分,如有的运算周期长,有的运算周期短,以使输出的神经元信息的信息量大的前端计算核,对应于相对较长的运算周期。从而保证神经元信息的接收完整性。其运算周期的长短的分配,根据需求灵活设定。
在本实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前计算核可以按照设定好的时间间隔接收不同的前端计算核发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,所述配置当前计算核内各神经元的复用规则,包括分别配置当前计算核内各神经元的树突和胞体的复用规则。
具体的,当前计算核中的各神经元的树突,用于接收前端神经元发送的信息,当前计算核中的各神经元的胞体,用于计算所述树突接收到的信息。在当前计算核的复用规则中,将计算核中的各神经元的树突和胞体分别配置相应的复用规则,如,在当前STEP的哪些PHASE,用于树突接收前端神经元输出的神经元信息,所述胞体在当前STEP的哪个PHASE进行历史膜电位信息的处理等,因其处理的信息不冲突,所述指定的胞体的对应PHASE可以与所述树突所对应的PHASE重合。
为给当前神经元预留时间进行当前STEP的信息的计算,所述树突的胞体的复用后,会在所有树突和胞体的对应的PHASE后,在STEP的后面预留至少一个PHASE,供当前神经元计算使用。
在本实施例中,通过分别配置当前计算核内的神经元的树突和胞体的复用规则,可以使当前计算核的信息处理更有效率。
在其中一个实施例中,所述前端计算核输出的神经元信息,包括前端计算核持续输出的人工神经元信息。
具体的,在当前计算核进行信息接收时进行复用时,若前端计算核是采用传统的非复用的发送方式时,需在前端计算核为人工神经元,且发送方式为持续发送。
在本实施例中,所述接收的前端计算核输出的神经元信息为持续输出的人工神经元信息,可以使得当前计算核处理按照传统的信息发送方式发送前端计算核发送的神经元信息。
图2为另一个实施例的神经网络计算核信息处理方法的流程示意图,如图2所示的神经网络计算核信息处理方法,包括:
步骤S90,确定当前计算核的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
具体的,当前计算核可以选择工作在复用模式,也可选择工作在非复用模式,所述非复用模式即为传统技术中的工作模式。
步骤S100,确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核。
步骤S200,根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应。
步骤S300,根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。
在本实施例中,提供的信息处理模式,可以使得当前计算核选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
图3为一个实施例的神经网络计算核信息处理系统的结构示意图,如图3所示的神经网络计算核信息处理系统,包括:
复用组确定模块100,用于确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核。
运算周期分配模块200,用于根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应。用于将运算步等间隔划分为至少两个运算周期。用于分别配置当前计算核内各神经元的树突和胞体的复用规则。
神经元信息接收模块300,用于根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。用于接收所述前端计算核持续输出的人工神经元信息。
在本实施例中,通过设置前端计算核复用组,使得当前计算核按照设定好的复用规则,在当前运算步的各运算周期,分别接收不同的前端计算核发送的神经元信息,以使当前计算核在当前运算步的时长内,能够接收更多的前端计算核发送的信息,提高了计算核信息接收的能力,从而提高整个神经网络的信息处理能力。通过将运算步等间隔划分为运算周期的方法,使得当前计算核可以按照设定好的时间间隔接收不同的前端计算核发送的神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。通过分别配置当前计算核内的神经元的树突和胞体的复用规则,可以使当前计算核的信息处理更有效率。所述接收的前端计算核输出的神经元信息为持续输出的人工神经元信息,可以使得当前计算核处理按照传统的信息发送方式发送前端计算核发送的神经元信息。
图4为另一个实施例的神经网络计算核信息处理系统的结构示意图,如图4所示的神经网络计算核信息处理系统,包括:
处理模式确定模块90,用于确定当前计算核的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
复用组确定模块100,用于确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核。
运算周期分配模块200,用于根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应。
神经元信息接收模块300,用于根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。
在本实施例中,提供的信息处理模式,可以使得当前计算核选择是否工作在复用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
在其中一个实施例中,可以通过寄存器的方式,实现当前计算核的复用,如表1所示:
表1
图5为结合表1给出的本实施例的示意图,表1给出了当前计算核内的神经元的树突和胞体的复用的寄存器的实现方式之一,其中D_type,标识树突的处理模式的选择,当其为0时,是现有的处理模式,不复用,当其为1时,当前神经元的树突采用复用模式。所述的位宽为1,表示利用1个bit的字节描述此变量。D_start_phase为树突计算起始有效运算周期,D_end_phase为树突计算最后有效运算周期,两者配合使用,用于在寄存器中指明复用的运算周期的位置。表1中后半部的胞体与树突部分相同。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种神经网络计算核信息处理方法,其特征在于,所述方法包括:
确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核;
根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应;
根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。
2.根据权利要求1所述的神经网络计算核信息处理方法,其特征在于,所述将运算步划分为至少两个运算周期,包括:
将运算步等间隔划分为至少两个运算周期。
3.根据权利要求1所述的神经网络计算核信息处理方法,其特征在于,所述配置当前计算核内各神经元的复用规则,包括:
分别配置当前计算核内各神经元的树突和胞体的复用规则。
4.根据权利要求1所述的神经网络计算核信息处理方法,其特征在于,所述前端计算核输出的神经元信息,包括:
前端计算核持续输出的人工神经元信息。
5.根据权利要求1所述的神经网络计算核信息处理方法,其特征在于,在确定前端计算核复用组的步骤之前,所述方法还包括:
确定当前计算核的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
6.一种神经网络计算核信息处理系统,其特征在于,包括:
复用组确定模块,用于确定前端计算核复用组,所述前端计算核复用组包括至少两个前端计算核;
运算周期分配模块,用于根据所述前端计算核复用组,配置当前计算核的复用规则,所述复用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述前端计算核的数量,将所述前端计算核复用组中的各前端计算核元分别与所述运算周期一一对应;
神经元信息接收模块,用于根据所述复用规则,在当前运算步,分别接收各所述前端计算核输出的神经元信息。
7.根据权利要求6所述的神经网络计算核信息处理系统,其特征在于:
所述运算周期分配模块,用于将运算步等间隔划分为至少两个运算周期。
8.根据权利要求6所述的神经网络计算核信息处理系统,其特征在于:
所述运算周期分配模块,用于分别配置当前计算核内各神经元的树突和胞体的复用规则。
9.根据权利要求6所述的神经网络计算核信息处理系统,其特征在于:
所述神经元信息接收模块,用于接收所述前端计算核持续输出的人工神经元信息。
10.根据权利要求6所述的神经网络计算核信息处理系统,其特征在于,还包括:
处理模式确定模块,用于确定当前计算核的信息处理模式为复用模式,所述信息处理模式还包括非复用模式。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710085547.XA CN106971229B (zh) | 2017-02-17 | 2017-02-17 | 神经网络计算核信息处理方法和系统 |
PCT/CN2017/114662 WO2018149217A1 (zh) | 2017-02-17 | 2017-12-05 | 神经网络计算核信息处理方法、系统和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710085547.XA CN106971229B (zh) | 2017-02-17 | 2017-02-17 | 神经网络计算核信息处理方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106971229A true CN106971229A (zh) | 2017-07-21 |
CN106971229B CN106971229B (zh) | 2020-04-21 |
Family
ID=59335202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710085547.XA Active CN106971229B (zh) | 2017-02-17 | 2017-02-17 | 神经网络计算核信息处理方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106971229B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171326A (zh) * | 2017-12-22 | 2018-06-15 | 清华大学 | 神经网络的数据处理方法、装置、芯片、设备和存储介质 |
WO2018149217A1 (zh) * | 2017-02-17 | 2018-08-23 | 清华大学 | 神经网络计算核信息处理方法、系统和计算机设备 |
CN109409510A (zh) * | 2018-09-14 | 2019-03-01 | 中国科学院深圳先进技术研究院 | 神经元电路、芯片、系统及其方法、存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101971166A (zh) * | 2008-03-14 | 2011-02-09 | 惠普开发有限公司 | 神经形态电路 |
US20140180987A1 (en) * | 2012-12-21 | 2014-06-26 | International Business Machines Corporation | Time-division multiplexed neurosynaptic module with implicit memory addressing for implementing a neural network |
CN104641385A (zh) * | 2012-09-14 | 2015-05-20 | 国际商业机器公司 | 神经核心电路 |
CN105095967A (zh) * | 2015-07-16 | 2015-11-25 | 清华大学 | 一种多模态神经形态网络核 |
CN106056212A (zh) * | 2016-05-25 | 2016-10-26 | 清华大学 | 一种人工神经网络计算核 |
-
2017
- 2017-02-17 CN CN201710085547.XA patent/CN106971229B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101971166A (zh) * | 2008-03-14 | 2011-02-09 | 惠普开发有限公司 | 神经形态电路 |
CN104641385A (zh) * | 2012-09-14 | 2015-05-20 | 国际商业机器公司 | 神经核心电路 |
US20140180987A1 (en) * | 2012-12-21 | 2014-06-26 | International Business Machines Corporation | Time-division multiplexed neurosynaptic module with implicit memory addressing for implementing a neural network |
CN105095967A (zh) * | 2015-07-16 | 2015-11-25 | 清华大学 | 一种多模态神经形态网络核 |
CN106056212A (zh) * | 2016-05-25 | 2016-10-26 | 清华大学 | 一种人工神经网络计算核 |
Non-Patent Citations (2)
Title |
---|
FRQKFMUYK: "寒武纪神经网络计算机", 《百度文库》 * |
陈云霁: "从人工智能到神经网络处理器", 《领导科学论坛》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018149217A1 (zh) * | 2017-02-17 | 2018-08-23 | 清华大学 | 神经网络计算核信息处理方法、系统和计算机设备 |
CN108171326A (zh) * | 2017-12-22 | 2018-06-15 | 清华大学 | 神经网络的数据处理方法、装置、芯片、设备和存储介质 |
CN108171326B (zh) * | 2017-12-22 | 2020-08-04 | 清华大学 | 神经网络的数据处理方法、装置、芯片、设备和存储介质 |
CN109409510A (zh) * | 2018-09-14 | 2019-03-01 | 中国科学院深圳先进技术研究院 | 神经元电路、芯片、系统及其方法、存储介质 |
CN109409510B (zh) * | 2018-09-14 | 2022-12-23 | 深圳市中科元物芯科技有限公司 | 神经元电路、芯片、系统及其方法、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106971229B (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113511082B (zh) | 基于规则和双深度q网络的混合动力汽车能量管理方法 | |
CN106971229A (zh) | 神经网络计算核信息处理方法和系统 | |
CN109919315A (zh) | 一种神经网络的前向推理方法、装置、设备及存储介质 | |
CN108829610A (zh) | 一种神经网络前向计算过程中的内存管理方法及设备 | |
CN111583675A (zh) | 一种区域路网交通信号灯协调控制系统和方法 | |
CN105960630A (zh) | 用于执行分段操作的数据处理设备和方法 | |
CN101482876B (zh) | 基于权重的链接多属性的实体识别方法 | |
CN110187965A (zh) | 神经网络的运行优化及数据处理方法、设备及存储介质 | |
CN109615071A (zh) | 一种高能效的神经网络处理器、加速系统及方法 | |
CN111831354B (zh) | 数据精度配置方法、装置、芯片、芯片阵列、设备及介质 | |
CN104536831B (zh) | 一种基于多目标优化的多核SoC软件映射方法 | |
CN105786610B (zh) | 计算密集型任务向云服务器中卸载的方法 | |
CN106709134A (zh) | 一种煤矿高压电网短路电流并行计算方法 | |
CN115951587A (zh) | 自动驾驶控制方法、装置、设备、介质及自动驾驶车辆 | |
CN106971227A (zh) | 神经元信息接收方法和系统 | |
CN112862083B (zh) | 一种边缘环境下的深度神经网络推断方法及装置 | |
CN106407005A (zh) | 一种基于多尺度耦合的并行进程合并方法及系统 | |
CN106971228A (zh) | 神经元信息发送方法和系统 | |
CN103679267A (zh) | 基于无标记样本的rbf神经网络构建方法及其装置 | |
CN111695701A (zh) | 基于联邦学习实现数据集构建处理的系统及其构建生成方法 | |
CN104598600B (zh) | 一种基于分布式内存的并行数字地形分析优化方法 | |
CN116523045A (zh) | 一种面向多芯粒芯片的深度学习推理模拟器 | |
CN109919655A (zh) | 一种充电设备的计费方法、装置及智能终端 | |
DE112018006405T5 (de) | Verfahren und Vorrichtung zur Berechnung der Hashfunktion | |
CN108737130B (zh) | 基于神经网络的网络流量预测装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |