CN106971228B - 神经元信息发送方法和系统 - Google Patents

神经元信息发送方法和系统 Download PDF

Info

Publication number
CN106971228B
CN106971228B CN201710085540.8A CN201710085540A CN106971228B CN 106971228 B CN106971228 B CN 106971228B CN 201710085540 A CN201710085540 A CN 201710085540A CN 106971228 B CN106971228 B CN 106971228B
Authority
CN
China
Prior art keywords
neuron
information
grouping
neurons
operation period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710085540.8A
Other languages
English (en)
Other versions
CN106971228A (zh
Inventor
裴京
施路平
焦鹏
邓磊
吴臻志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ling Xi Technology Co. Ltd.
Original Assignee
Beijing Lynxi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Lynxi Technology Co Ltd filed Critical Beijing Lynxi Technology Co Ltd
Priority to CN201710085540.8A priority Critical patent/CN106971228B/zh
Publication of CN106971228A publication Critical patent/CN106971228A/zh
Priority to PCT/CN2017/114662 priority patent/WO2018149217A1/zh
Application granted granted Critical
Publication of CN106971228B publication Critical patent/CN106971228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种神经元信息发送方法,所述方法包括:确定神经元分用组,所述神经元分用组包括至少两个神经元;根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应;根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。本发明按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。

Description

神经元信息发送方法和系统
技术领域
本发明涉及神经网络技术领域,特别是涉及神经元信息发送方法和系统。
背景技术
神经形态工程由Carver Mead在1990年提出,意在用大规模集成电路来模拟生物神经系统架构,构建神经形态计算系统。早期的神经形态计算系统一般通过模拟电路实现,但近些年来数字电路和数模混合电路也越来越多的被神经形态工程所使用。目前,神经形态工程与神经形态电路是国际上新兴的研究热点之一。传统的神经形态计算平台,旨在通过模拟电路仿真大脑神经元模型和离子通道活动,使用数字电路与片上存储构建连接和路由,从而能十分方便更改神经元连接图谱。
传统的神经网络中,采用计算核的方式完成大规模的信息处理任务,其中,计算核内神经元的轴突最多通过突触连接到256个神经元。在承载神经网络运算时,这限制了神经网络每一层的输出都不能大于256,即下一层的神经元数不能超过256,即在传统的神经网络中,神经元之间的连接限制,极大的限制了神经网络的信息处理能力。
发明内容
本发明实施例提供一种神经元信息发送方法和系统,可以扩展神经网络的信息处理能力。其中,所述方法包括:
确定神经元分用组,所述神经元分用组包括至少两个神经元;
根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应;
根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括:
将运算步等间隔划分为至少两个运算周期。
在其中一个实施例中,所述将所述神经元分用组中的各神经元分别对应所述运算周期,包括:
所述神经元分用组中的一个神经元对应一个所述运算周期,或
所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
在其中一个实施例中,所述在其对应的运算周期内输出神经元信息,包括:
输出人工神经元信息或脉冲神经元信息。
在其中一个实施例中,在确定神经元分用组的步骤之前,所述方法还包括:
确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
在其中一个实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。
在其中一个实施例中,可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了人工神经网络和脉冲神经网络的信息发送能力。
在其中一个实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
本发明还提供一种神经元信息发送系统,其特征在于,包括:
分用组确定模块,用于确定神经元分用组,所述神经元分用组包括至少两个神经元;
运算周期分配模块,用于根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应;
神经元信息发送模块,用于根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
在其中一个实施例中,所述运算周期分配模块,用于将运算步等间隔划分为至少两个运算周期。
在其中一个实施例中,所述运算周期分配模块,用于将所述神经元分用组中的一个神经元对应一个所述运算周期,或
将所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
在其中一个实施例中,所述神经元信息发送模块,用于输出人工神经元信息或脉冲神经元信息。
在其中一个实施例中,还包括:
处理模式确定模块,用于确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
在其中一个实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。
在其中一个实施例中,可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了人工神经网络和脉冲神经网络的信息发送能力。
在其中一个实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
附图说明
图1为一个实施例的神经元信息发送方法的流程示意图;
图2为另一个实施例的神经元信息发送方法的流程示意图;
图3为一个实施例的神经元信息发送系统的结构示意图;
图4为另一个实施例的神经元信息发送系统的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1为一个实施例的神经元信息发送方法的流程示意图,如图1所示的神经元信息发送方法,包括:
步骤S100,确定神经元分用组,所述神经元分用组包括至少两个神经元。
具体的,为使一个神经网络中的神经元在一个运算步内能够发送更多的神经元信息,将各神经元在一个运算步内进行分用,需要确定进行分用的神经元的数量和范围,可以根据神经网络所执行的任务的需求,灵活设定任意数量的神经元进行分用,只要分用后,神经元用于发送信息的时长够用即可。
所述运算步(STEP),为神经元进行信息处理的一个固定的时长,神经网络中所有的神经元,均按照所述的运算步同步处理数据。
步骤S200,根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。
具体的,所述将运算步划分为至少两个运算周期,即,将一个STEP划分为多个运算周期(也可称为PHASE),为保证进行分用的神经元都能与所述的运算周期进行对应,需要将运算周期的个数设定为大于或等于进行分用的所述前端神经元的数量。
将所述神经元分用组中的各神经元分别与所述运算周期对应,是指将前端神经元发送的信息,在与之对应的运算周期内发送。
步骤S300,根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
具体的,当前神经元设定好分用规则后,在当前的运算步内的对应的运算周期,发送与当前运算周期对应的神经元信息即可。
在本实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。
在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括将运算步等间隔划分为至少两个运算周期。
具体的,也可将所述运算步进行非等间隔的划分,如有的运算周期长,有的运算周期短,以使输出的神经元信息的信息量大的神经元,对应于相对较长的运算周期。从而保证神经元信息发送的完整性。其运算周期的长短的分配,根据需求灵活设定。
在本实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
在其中一个实施例中,所述将所述神经元分用组中的各神经元分别对应所述运算周期,包括:
所述神经元分用组中的一个神经元对应一个所述运算周期,或
所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
具体的,采用神经元与运算周期进行一一对应,或一个神经元对应多个运算周期的方式,可以保证神经元输出信息的完整性,并使得神经元的分用更加的灵活。
在本实施例中,神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。
在其中一个实施例中,所述在其对应的运算周期内输出神经元信息,包括:输出人工神经元信息或脉冲神经元信息。
具体的,支持人工神经元信息的输出和脉冲神经元信息的输出,兼容人工神经网络和脉冲神经网络。
在本实施例中,可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了人工神经网络和脉冲神经网络的信息发送能力。
图2为另一个实施例的神经元信息发送方法的流程示意图,如图2示的神经元信息发送方法,包括:
步骤S90,确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
具体的,当前神经元可以选择工作在分用模式,也可选择工作在非分用模式,所述非分用模式即为传统技术中的工作模式。
步骤S100,确定神经元分用组,所述神经元分用组包括至少两个神经元。
步骤S200,根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。
步骤S300,根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
在本实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
图3为一个实施例的神经元信息发送系统的结构示意图,如图3示的神经元信息发送系统,包括:
分用组确定模块100,用于确定神经元分用组,所述神经元分用组包括至少两个神经元。
运算周期分配模块200,用于根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。用于将运算步等间隔划分为至少两个运算周期。用于将所述神经元分用组中的一个神经元对应一个所述运算周期,或将所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
神经元信息发送模块300,用于根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。用于输出人工神经元信息或脉冲神经元信息。
在本实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了人工神经网络和脉冲神经网络的信息发送能力。
图4为另一个实施例的神经元信息发送系统的结构示意图,如图4所示的神经元信息发送系统,包括:
处理模式确定模块90,用于确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
分用组确定模块100,用于确定神经元分用组,所述神经元分用组包括至少两个神经元。
运算周期分配模块200,用于根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。
神经元信息发送模块300,用于根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
在本实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种神经元信息发送方法,其特征在于,所述方法包括:
根据神经元的处理模式确定进行分用的神经元;所述处理模式包括分用模式和非分用模式;
根据确定的进行分用的神经元的数量和范围确定神经元分用组,所述神经元分用组包括至少两个神经元;
将运算步划分为大于或等于所述神经元的数量个运算周期;所述运算步被至少划分为两个运算周期;
根据所述神经元分用组中各个神经元需发送的信息量,为所述神经元分用组中的各个神经元配置一个或多个运算周期;且在为各个所述神经元配置运算周期时保证所述一个运算周期只对应一个所述神经元;
在当前运算步内,所述神经元分用组中的各所述神经元分别在其配置的运算周期内输出神经元信息。
2.根据权利要求1所述的神经元信息发送方法,其特征在于,所述将运算步划分为至少两个运算周期,包括:
将运算步等间隔划分为至少两个运算周期。
3.根据权利要求1所述的神经元信息发送方法,其特征在于,所述在其对应的运算周期内输出神经元信息,包括:
输出人工神经元信息或脉冲神经元信息。
4.根据权利要求1所述的神经元信息发送方法,其特征在于,
将运算步划分为大于或等于所述神经元的数量个运算周期包括:
将所述运算步进行非等间隔的划分;
根据所述神经元分用组中各个神经元需发送的信息量,为所述神经元分用组中的当前神经元配置一个或多个运算周期包括:
为所述神经元分用组中神经元信息的信息量大的神经元配置相对较长的运算周期,为所述神经元分用组中神经元信息的信息量小的神经元配置相对较短的运算周期。
5.一种神经元信息发送系统,其特征在于,包括:
处理模式确定模块,用于根据神经元的处理模式确定进行分用的神经元;所述处理模式包括分用模式和非分用模式;
分用组确定模块,用于根据确定的进行分用的神经元的数量和范围确定神经元分用组,所述神经元分用组包括至少两个神经元;
运算周期分配模块,用于将运算步划分为大于或等于所述神经元的数量个运算周期;所述运算步被至少划分为两个运算周期,以及,根据所述神经元分用组中各个神经元需发送的信息量,为所述神经元分用组中的各个神经元配置一个或多个运算周期;且在为各个神经元配置运算周期时保证所述一个运算周期只对应一个所述神经元;
神经元信息发送模块,用于在当前运算步内,所述神经元分用组中的各所述神经元分别在其配置的运算周期内输出神经元信息。
6.根据权利要求5所述的神经元信息发送系统,其特征在于:
所述运算周期分配模块,用于将运算步等间隔划分为至少两个运算周期。
7.根据权利要求5所述的神经元信息发送系统,其特征在于:
所述神经元信息发送模块,用于输出人工神经元信息或脉冲神经元信息。
8.根据权利要求5所述的神经元信息发送系统,其特征在于:
运算周期分配模块,具体用于将所述运算步进行非等间隔的划分;为所述神经元分用组中神经元信息的信息量大的神经元配置相对较长的运算周期,为所述神经元分用组中神经元信息的信息量小的神经元配置相对较短的运算周期。
CN201710085540.8A 2017-02-17 2017-02-17 神经元信息发送方法和系统 Active CN106971228B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710085540.8A CN106971228B (zh) 2017-02-17 2017-02-17 神经元信息发送方法和系统
PCT/CN2017/114662 WO2018149217A1 (zh) 2017-02-17 2017-12-05 神经网络计算核信息处理方法、系统和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710085540.8A CN106971228B (zh) 2017-02-17 2017-02-17 神经元信息发送方法和系统

Publications (2)

Publication Number Publication Date
CN106971228A CN106971228A (zh) 2017-07-21
CN106971228B true CN106971228B (zh) 2020-04-07

Family

ID=59334953

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710085540.8A Active CN106971228B (zh) 2017-02-17 2017-02-17 神经元信息发送方法和系统

Country Status (1)

Country Link
CN (1) CN106971228B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018149217A1 (zh) * 2017-02-17 2018-08-23 清华大学 神经网络计算核信息处理方法、系统和计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101971166A (zh) * 2008-03-14 2011-02-09 惠普开发有限公司 神经形态电路
CN104641385A (zh) * 2012-09-14 2015-05-20 国际商业机器公司 神经核心电路
CN105095967A (zh) * 2015-07-16 2015-11-25 清华大学 一种多模态神经形态网络核
CN106056212A (zh) * 2016-05-25 2016-10-26 清华大学 一种人工神经网络计算核

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9239984B2 (en) * 2012-12-21 2016-01-19 International Business Machines Corporation Time-division multiplexed neurosynaptic module with implicit memory addressing for implementing a neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101971166A (zh) * 2008-03-14 2011-02-09 惠普开发有限公司 神经形态电路
CN104641385A (zh) * 2012-09-14 2015-05-20 国际商业机器公司 神经核心电路
CN105095967A (zh) * 2015-07-16 2015-11-25 清华大学 一种多模态神经形态网络核
CN106056212A (zh) * 2016-05-25 2016-10-26 清华大学 一种人工神经网络计算核

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
从人工智能到神经网络处理器;陈云霁;《领导科学论坛》;20170131(第1期);论文第42-52页 *
寒武纪神经网络计算机;frqkfmuyk;《百度文库》;20150624;第12--27页 *

Also Published As

Publication number Publication date
CN106971228A (zh) 2017-07-21

Similar Documents

Publication Publication Date Title
CN105729491B (zh) 机器人任务的执行方法、装置及系统
CN104641385B (zh) 神经核心电路及为多个神经元保存神经元属性的方法
CN108334942B (zh) 神经网络的数据处理方法、装置、芯片和存储介质
CN110728364A (zh) 一种运算装置和运算方法
CN106845633B (zh) 神经网络信息转换方法和系统
CN107425947A (zh) 参考信号与多址接入资源的映射方法和设备
US20210326687A1 (en) Neural Network System and Data Processing Technology
CN104267939A (zh) 一种业务处理的方法、装置及系统
CN110908799A (zh) 一种分布式训练中的通信方法、装置、设备、介质
KR20190054449A (ko) 이종 클러스터 환경에서 신경망 트레이닝 가속화를 위한 연산 노드 배치 기법
CN106971229B (zh) 神经网络计算核信息处理方法和系统
CN106971228B (zh) 神经元信息发送方法和系统
CN112149815A (zh) 用于大规模类脑计算网络的种群聚类及种群路由方法
CN108304925A (zh) 一种池化计算装置及方法
CN113535630A (zh) 一种跨节点通信方法、装置、设备及可读存储介质
EP2926301B1 (en) Generating messages from the firing of pre-synaptic neurons
CN114217944A (zh) 一种神经网络的针对模型并行的动态负载均衡方法
CN113902111A (zh) 多芯片互连系统及神经网络加速处理方法
Ding et al. A hybrid-mode on-chip router for the large-scale FPGA-based neuromorphic platform
CN104124999B (zh) 一种基站及基站之间相互协作的方法
CN106971227B (zh) 神经元信息接收方法和系统
KR100367715B1 (ko) 이동통신의 채널할당을 위한 디지털 홉필드 신경망 칩
CN110430591B (zh) 基带资源池智能部署与重构方法
CN101753463A (zh) 一种多通道传输负载均衡方法及装置
CN113596189B (zh) 一种并联编址方法、电池包及并联编址系统

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20180212

Address after: 100036 Beijing city Haidian District West Sanhuan Road No. 10 wanghailou B block two layer 200-30

Applicant after: Beijing Ling Xi Technology Co. Ltd.

Address before: 100084 Haidian District Tsinghua Yuan Beijing No. 1

Applicant before: Tsinghua University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant