CN111723907A - 一种模型训练设备、方法、系统及计算机可读存储介质 - Google Patents
一种模型训练设备、方法、系统及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111723907A CN111723907A CN202010529654.9A CN202010529654A CN111723907A CN 111723907 A CN111723907 A CN 111723907A CN 202010529654 A CN202010529654 A CN 202010529654A CN 111723907 A CN111723907 A CN 111723907A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- trained
- target model
- bandwidth memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Stored Programmes (AREA)
Abstract
本申请公开了一种模型训练设备、方法、系统及计算机可读存储介质,设备包括高带宽存储器组,用于存储待训练数据;全局存储器,用于存储目标模型的模型参数;与高带宽存储器组及全局存储器连接的处理器,用于基于目标模型的训练算法对待训练数据和全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至全局存储器;且处理器基于片上网络搭建。本申请中,由于高带宽存储器的存储容量较大,所以可以存储较多的待训练数据,降低对高带宽存储器的读写次数,并且处理器基于片上网络搭建,所以处理器可以借助片上网络在自身内部传输相应数据,降低了对待传输数据的读写频率,与现有技术相比,可以提高模型的训练效率。
Description
技术领域
本申请涉及模型训练技术领域,更具体地说,涉及一种模型训练设备、方法、系统及计算机可读存储介质。
背景技术
当前,神经网络模型等模型的应用越来越广泛,为了保证模型的使用效果,需要对模型进行训练以保证模型的处理精度,在模型的训练过程中,为了提高计算速度,增大并行性,会采用多个计算核心对模型进行训练,然而,在训练过程中,需要传输计算得到的数据,现有方法是将待传输数据保存在共享内存,当需要使用数据时,便从共享内存中读取数据。
然而,当模型的训练过程复杂且计算量较大时,会频繁对共享内存进行读取,形成总线和访问冲突,影响模型训练效率。
综上所述,如何提高模型的训练效率是目前本领域技术人员亟待解决的问题。
发明内容
本申请的目的是提供一种模型训练设备,其能在一定程度上解决如何提高模型的训练效率的技术问题。本申请还提供了一种模型训练方法、系统及计算机可读存储介质。
为了实现上述目的,本申请提供如下技术方案:
一种模型训练设备,包括:
高带宽存储器组,用于存储待训练数据;
全局存储器,用于存储目标模型的模型参数;
与所述高带宽存储器组及所述全局存储器连接的处理器,用于基于所述目标模型的训练算法对所述待训练数据和所述全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至所述全局存储器;且所述处理器基于片上网络搭建。
优选的,所述处理器基于处理单元和所述片上网络搭建,且所述处理单元的数量与所述目标模型中运算节点的数量相对应;
其中,所述处理单元对自身获取的所述待训练数据及第一模型参数进行运算,得到第二模型参数之后,通过所述片上网络将所述第二模型参数传输给其他所述处理单元。
优选的,还包括:
与所述高带宽存储器组、所述全局存储器和所述处理器连接的FPGA,用于获取所述待训练数据并存储至所述高带宽存储器组,获取所述初始模型参数并存储至所述全局存储器,获取所述目标模型参数。
优选的,所述高带宽存储器组包括第一高带宽存储器和第二高带宽存储器;
所述第一高带宽存储器,用于存储当前轮参与运算的所述待训练数据;
所述第二高带宽存储器,用于存储下一轮参与运算的所述待训练数据。
优选的,所述FPGA与所述高带宽存储器组连接,包括:
所述FPGA通过PCIE总线与第一端口扩展器连接,所述第一端口扩展器通过第二端口扩展器与所述第一高带宽存储器连接,所述第一端口扩展器通过第三端口扩展器与所述第二高带宽存储器连接。
优选的,还包括:
连接在所述PCIE总线与所述第一端口扩展器之间的第一时钟转换器;
连接在所述第二端口扩展器与所述第一高带宽存储器之间的第二时钟转换器;
连接在所述第三端口扩展器与所述第二高带宽存储器之间的第三时钟转换器。
优选的,所述目标模型包括卷积神经网络模型。
一种模型训练方法,应用于基于片上网络搭建的处理器,包括:
获取高带宽存储器组中存储的待训练数据;
获取全局存储器中存储的目标模型的初始模型参数;
基于所述目标模型的训练算法对所述待训练数据和所述初始模型参数进行运算,得到所述目标模型的目标模型参数;
存储所述目标模型参数至所述全局存储器。
一种模型训练系统,应用于基于片上网络搭建的处理器,包括:
第一获取模块,用于获取高带宽存储器组中存储的待训练数据;
第二获取模块,用于获取全局存储器中存储的目标模型的初始模型参数;
第一运算模块,用于基于所述目标模型的训练算法对所述待训练数据和所述初始模型参数进行运算,得到所述目标模型的目标模型参数;
第一存储模块,用于存储所述目标模型参数至所述全局存储器。
一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的模型训练方法。
本申请提供的一种模型训练设备,包括高带宽存储器组,用于存储待训练数据;全局存储器,用于存储目标模型的模型参数;与高带宽存储器组及全局存储器连接的处理器,用于基于目标模型的训练算法对待训练数据和全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至全局存储器;且处理器基于片上网络搭建。本申请中,由于高带宽存储器的存储容量较大,所以可以存储较多的待训练数据,降低对高带宽存储器的读写次数,并且处理器基于片上网络搭建,所以处理器可以借助片上网络在自身内部传输相应数据,降低了对待传输数据的读写频率,与现有技术相比,可以提高模型的训练效率。本申请提供的一种模型训练方法、系统及计算机可读存储介质也解决了相应技术问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种模型训练设备的第一结构示意图;
图2为本申请实施例中处理单元的搭建示意图;
图3为本申请实施例提供的一种模型训练设备的第二结构示意图;
图4为本申请实施例提供的一种模型训练方法的流程图;
图5为本申请实施例提供的一种模型训练系统的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,图1为本申请实施例提供的一种模型训练设备的第一结构示意图。
本申请实施例提供的一种模型训练设备,可以包括:
高带宽存储器组11,用于存储待训练数据;
全局存储器12,用于存储目标模型的模型参数;
与高带宽存储器组11及全局存储器12连接的处理器13,用于基于目标模型的训练算法对待训练数据和全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至全局存储器;且处理器基于片上网络搭建。
实际应用中,待训练数据指的是用于训练目标模型的数据,待训练数据的数据量及数据类型均可以根据实际需要确定,且用于存储待训练数据的高带宽存储器组中高带宽存储器(High Bandwidth Memory,HBM)的数量可以根据实际需要确定;模型参数指的是构成目标模型的参数,且全局存储器中存储的目标模型的模型参数的类型可以包括目标模型的初始模型参数、目标模型的目标模型参数等,目标模型参数也即训练好的目标模型的模型参数;由于处理器用于基于目标模型的训练算法对待训练数据和全局存储器中存储的初始模型参数进行运算,得到目标模型参数,而目标模型的运算复杂度一般较高,所以处理器中会存在多组运算,且存在数据重复利用的情况,但是本申请中的处理器基于片上网络搭建,而片上网络的每个节点可以通过双向通道连接到相邻的节点,所以处理器可以在自身内部借助片上网络来在节点间传输数据,降低将数据写入共享内存再读取的频率。
应当指出,目标模型的类型可以根据实际需要确定,比如可以为卷积神经网络模型(Convolutional Neural Network,CNN)等。
本申请提供的一种模型训练设备,包括高带宽存储器组,用于存储待训练数据;全局存储器,用于存储目标模型的模型参数;与高带宽存储器组及全局存储器连接的处理器,用于基于目标模型的训练算法对待训练数据和全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至全局存储器;且处理器基于片上网络搭建。本申请中,由于高带宽存储器的存储容量较大,所以可以存储较多的待训练数据,降低对高带宽存储器的读写次数,并且处理器基于片上网络搭建,所以处理器可以借助片上网络在自身内部传输相应数据,降低了对待传输数据的读写频率,与现有技术相比,可以提高模型的训练效率。
本申请实施例提供的一种模型训练设备中,处理器可以基于处理单元(Processing Element,PE)和2D torus结构的片上网络搭建,且处理单元的数量与目标模型中运算节点的数量相对应;
其中,处理单元对自身获取的待训练数据及第一模型参数进行运算,得到第二模型参数之后,通过片上网络将第二模型参数传输给其他处理单元。
应当指出,处理单元基于2D torus结构的片上网络搭建的方式可以如图2所示样例等,且在图2中,只示出了16个PE间的搭建方式。且片上网络的结构除了2D torus结构之后,还可以为2D mesh结构,蝶形拓扑结构,Banyan结构,Fat-Tree拓扑结构等。
本申请实施例提供的一种模型训练设备中,为了便于用户对模型训练过程进行控制,还可以设置与高带宽存储器组、全局存储器和处理器连接的FPGA(Field-ProgrammableGate Array,现场可编程门阵列),用于获取待训练数据并存储至高带宽存储器组,获取初始模型参数并存储至全局存储器,获取目标模型参数。
请参阅图3,图3为本申请实施例提供的一种模型训练设备的第二结构示意图。
本申请实施例提供的一种模型训练设备中,在模型训练过程中,可能需要更换待训练数据,比如当前轮模型训练用的是一份待训练数据,下一轮模型训练便可能用的是另一份待训练数据,为了便于更换待训练,避免因更换待训练数据而影响模型训练效率,本申请提供的模型训练设备中的高带宽存储器组11可以包括第一高带宽存储器111和第二高带宽存储器112;第一高带宽存储器111,用于存储当前轮参与运算的待训练数据;第二高带宽存储器112,用于存储下一轮参与运算的待训练数据。
实际应用中,第一高带宽存储器和第二高带宽存储器中各自包含的高带宽存储器的数量可以根据实际需要确定,且处理器中的处理单元可以与高带宽存储器一一对应,这样,处理单元在需要获取自身运算的待处理数据时,可以直接在高带宽存储器中进行读取。
请参阅图3,本申请实施例提供的一种模型训练设备中,FPGA与高带宽存储器组连接时,FPGA可以通过PCIE总线31与第一端口扩展器41连接,第一端口扩展器41通过第二端口扩展器51与第一高带宽存储器111连接,第一端口扩展器41通过第三端口扩展器61与第二高带宽存储器112连接。
实际应用中,由于FPGA、第一端口扩展器、第一高带宽存储器和第二高带宽存储器的工作时钟不同,所以为了保证各个器件的工作时钟不变,本申请中,还可以设置连接在PCIE总线31与第一端口扩展器41之间的第一时钟转换器71;
连接在第二端口扩展器51与第一高带宽存储器111之间的第二时钟转换器81;
连接在第三端口扩展器61与第二高带宽存储器112之间的第三时钟转换器91。
应当指出,第二端口扩展器的端口数量可以根据第一高带宽存储器中高带宽存储器的数量来确定;第三端口扩展器的端口数量可以根据第二高带宽存储器中高带宽存储器的数量来确定。
请参阅图4,图4为本申请实施例提供的一种模型训练方法的流程图。
本申请实施例提供的一种模型训练方法,应用于基于片上网络搭建的处理器,可以包括以下步骤:
步骤S101:获取高带宽存储器组中存储的待训练数据。
步骤S102:获取全局存储器中存储的目标模型的初始模型参数。
步骤S103:基于目标模型的训练算法对待训练数据和初始模型参数进行运算,得到目标模型的目标模型参数。
步骤S104:存储目标模型参数至全局存储器。
本申请实施例提供的一种模型训练方法中各个步骤的描述可以参阅上述实施例,在此不再赘述。
请参阅图5,图5为本申请实施例提供的一种模型训练系统的结构示意图。
本申请实施例提供的一种模型训练系统,应用于基于片上网络搭建的处理器,可以包括:
第一获取模块101,用于获取高带宽存储器组中存储的待训练数据;
第二获取模块102,用于获取全局存储器中存储的目标模型的初始模型参数;
第一运算模块103,用于基于目标模型的训练算法对待训练数据和初始模型参数进行运算,得到目标模型的目标模型参数;
第一存储模块104,用于存储目标模型参数至全局存储器。
本申请实施例提供的一种模型训练系统中各个模块的描述可以参阅上述实施例,在此不再赘述。
本申请实施例提供的一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,计算机程序被处理器执行时实现如上任一实施例所描述的模型训练方法的步骤。
本申请所涉及的计算机可读存储介质包括随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质。
本申请实施例提供的模型训练方法、系统及计算机可读存储介质中相关部分的说明请参见本申请实施例提供的模型训练设备中对应部分的详细说明,在此不再赘述。另外,本申请实施例提供的上述技术方案中与现有技术中对应技术方案实现原理一致的部分并未详细说明,以免过多赘述。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种模型训练设备,其特征在于,包括:
高带宽存储器组,用于存储待训练数据;
全局存储器,用于存储目标模型的模型参数;
与所述高带宽存储器组及所述全局存储器连接的处理器,用于基于所述目标模型的训练算法对所述待训练数据和所述全局存储器中存储的初始模型参数进行运算,得到目标模型参数并存储至所述全局存储器;且所述处理器基于片上网络搭建。
2.根据权利要求1所述的模型训练设备,其特征在于,所述处理器基于处理单元和所述片上网络搭建,且所述处理单元的数量与所述目标模型中运算节点的数量相对应;
其中,所述处理单元对自身获取的所述待训练数据及第一模型参数进行运算,得到第二模型参数之后,通过所述片上网络将所述第二模型参数传输给其他所述处理单元。
3.根据权利要求2所述的模型训练设备,其特征在于,还包括:
与所述高带宽存储器组、所述全局存储器和所述处理器连接的FPGA,用于获取所述待训练数据并存储至所述高带宽存储器组,获取所述初始模型参数并存储至所述全局存储器,获取所述目标模型参数。
4.根据权利要求3所述的模型训练设备,其特征在于,所述高带宽存储器组包括第一高带宽存储器和第二高带宽存储器;
所述第一高带宽存储器,用于存储当前轮参与运算的所述待训练数据;
所述第二高带宽存储器,用于存储下一轮参与运算的所述待训练数据。
5.根据权利要求4所述的模型训练设备,其特征在于,所述FPGA与所述高带宽存储器组连接,包括:
所述FPGA通过PCIE总线与第一端口扩展器连接,所述第一端口扩展器通过第二端口扩展器与所述第一高带宽存储器连接,所述第一端口扩展器通过第三端口扩展器与所述第二高带宽存储器连接。
6.根据权利要求5所述的模型训练设备,其特征在于,还包括:
连接在所述PCIE总线与所述第一端口扩展器之间的第一时钟转换器;
连接在所述第二端口扩展器与所述第一高带宽存储器之间的第二时钟转换器;
连接在所述第三端口扩展器与所述第二高带宽存储器之间的第三时钟转换器。
7.根据权利要求1至6任一项所述的模型训练设备,其特征在于,所述目标模型包括卷积神经网络模型。
8.一种模型训练方法,其特征在于,应用于基于片上网络搭建的处理器,包括:
获取高带宽存储器组中存储的待训练数据;
获取全局存储器中存储的目标模型的初始模型参数;
基于所述目标模型的训练算法对所述待训练数据和所述初始模型参数进行运算,得到所述目标模型的目标模型参数;
存储所述目标模型参数至所述全局存储器。
9.一种模型训练系统,其特征在于,应用于基于片上网络搭建的处理器,包括:
第一获取模块,用于获取高带宽存储器组中存储的待训练数据;
第二获取模块,用于获取全局存储器中存储的目标模型的初始模型参数;
第一运算模块,用于基于所述目标模型的训练算法对所述待训练数据和所述初始模型参数进行运算,得到所述目标模型的目标模型参数;
第一存储模块,用于存储所述目标模型参数至所述全局存储器。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求8所述的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010529654.9A CN111723907B (zh) | 2020-06-11 | 2020-06-11 | 一种模型训练设备、方法、系统及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010529654.9A CN111723907B (zh) | 2020-06-11 | 2020-06-11 | 一种模型训练设备、方法、系统及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111723907A true CN111723907A (zh) | 2020-09-29 |
CN111723907B CN111723907B (zh) | 2023-02-24 |
Family
ID=72566439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010529654.9A Active CN111723907B (zh) | 2020-06-11 | 2020-06-11 | 一种模型训练设备、方法、系统及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723907B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112738061A (zh) * | 2020-12-24 | 2021-04-30 | 四川虹微技术有限公司 | 信息处理方法、装置、管理平台、电子设备及存储介质 |
CN114741339A (zh) * | 2022-04-21 | 2022-07-12 | 苏州浪潮智能科技有限公司 | 一种pcie带宽重训练的方法、装置、设备、存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050193178A1 (en) * | 2004-02-27 | 2005-09-01 | William Voorhees | Systems and methods for flexible extension of SAS expander ports |
CN108028705A (zh) * | 2015-07-13 | 2018-05-11 | 北弗吉尼亚电力合作社 | 用于在单光纤束上双向传输数据的系统、设备和方法 |
CN109542830A (zh) * | 2018-11-21 | 2019-03-29 | 北京灵汐科技有限公司 | 一种数据处理系统及数据处理方法 |
WO2019184124A1 (zh) * | 2018-03-30 | 2019-10-03 | 平安科技(深圳)有限公司 | 风控模型训练方法、风险识别方法、装置、设备及介质 |
US20190303759A1 (en) * | 2018-03-27 | 2019-10-03 | Nvidia Corporation | Training, testing, and verifying autonomous machines using simulated environments |
CN110956265A (zh) * | 2019-12-03 | 2020-04-03 | 腾讯科技(深圳)有限公司 | 一种模型训练方法和相关装置 |
CN111045727A (zh) * | 2018-10-14 | 2020-04-21 | 天津大学青岛海洋技术研究院 | 一种基于非易失性内存计算的处理单元阵列及其计算方法 |
CN111212141A (zh) * | 2020-01-02 | 2020-05-29 | 中国科学院计算技术研究所 | 一种共享存储系统 |
-
2020
- 2020-06-11 CN CN202010529654.9A patent/CN111723907B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050193178A1 (en) * | 2004-02-27 | 2005-09-01 | William Voorhees | Systems and methods for flexible extension of SAS expander ports |
CN108028705A (zh) * | 2015-07-13 | 2018-05-11 | 北弗吉尼亚电力合作社 | 用于在单光纤束上双向传输数据的系统、设备和方法 |
US20190303759A1 (en) * | 2018-03-27 | 2019-10-03 | Nvidia Corporation | Training, testing, and verifying autonomous machines using simulated environments |
WO2019184124A1 (zh) * | 2018-03-30 | 2019-10-03 | 平安科技(深圳)有限公司 | 风控模型训练方法、风险识别方法、装置、设备及介质 |
CN111045727A (zh) * | 2018-10-14 | 2020-04-21 | 天津大学青岛海洋技术研究院 | 一种基于非易失性内存计算的处理单元阵列及其计算方法 |
CN109542830A (zh) * | 2018-11-21 | 2019-03-29 | 北京灵汐科技有限公司 | 一种数据处理系统及数据处理方法 |
CN110956265A (zh) * | 2019-12-03 | 2020-04-03 | 腾讯科技(深圳)有限公司 | 一种模型训练方法和相关装置 |
CN111212141A (zh) * | 2020-01-02 | 2020-05-29 | 中国科学院计算技术研究所 | 一种共享存储系统 |
Non-Patent Citations (3)
Title |
---|
KAAN KARA 等: "High Bandwidth Memory on FPGAs:A Data Analytics Perspective", 《ARXIV》 * |
尹佳斌等: "InfiniBand交换机基板管理的研究与实现", 《计算机工程与科学》 * |
李抵非等: "基于分布式内存计算的深度学习方法", 《吉林大学学报(工学版)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112738061A (zh) * | 2020-12-24 | 2021-04-30 | 四川虹微技术有限公司 | 信息处理方法、装置、管理平台、电子设备及存储介质 |
CN112738061B (zh) * | 2020-12-24 | 2022-06-21 | 四川虹微技术有限公司 | 信息处理方法、装置、管理平台、电子设备及存储介质 |
CN114741339A (zh) * | 2022-04-21 | 2022-07-12 | 苏州浪潮智能科技有限公司 | 一种pcie带宽重训练的方法、装置、设备、存储介质 |
CN114741339B (zh) * | 2022-04-21 | 2023-07-14 | 苏州浪潮智能科技有限公司 | 一种pcie带宽重训练的方法、装置、设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111723907B (zh) | 2023-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20160145482A (ko) | 스파이킹 신경망을 구현하는 방법 및 장치 | |
CN110750351B (zh) | 多核任务调度器、多核任务调度方法、装置及相关产品 | |
CN111723907B (zh) | 一种模型训练设备、方法、系统及计算机可读存储介质 | |
CN109858621B (zh) | 一种卷积神经网络加速器的调试装置、方法及存储介质 | |
CN102279386A (zh) | 基于fpga的sar成像信号处理数据转置方法 | |
CN107609141A (zh) | 一种对大规模可再生能源数据进行快速概率建模方法 | |
CN104202253A (zh) | 基于动态路由表的片上网络拥塞控制方法 | |
CN108491924B (zh) | 一种面向人工智能计算的神经网络数据串行流水处理装置 | |
EP3889844A1 (en) | Neural network system and data processing technology | |
CN112835552A (zh) | 一种外积累加求解稀疏矩阵与稠密矩阵内积的方法 | |
Han et al. | A novel ReRAM-based processing-in-memory architecture for graph computing | |
CN109902821B (zh) | 一种数据处理方法、装置及相关组件 | |
CN107292320B (zh) | 系统及其指标优化方法及装置 | |
CN117061365B (zh) | 一种节点选择方法、装置、设备及可读存储介质 | |
CN104951442A (zh) | 一种确定结果向量的方法和装置 | |
CN103106313A (zh) | 轧后件顺序重构方法 | |
CN102411557B (zh) | 多粒度并行fft计算装置 | |
CN105045767B (zh) | 一种快速存贮及读取电力系统稀疏矩阵数据的方法 | |
US20200082898A1 (en) | Multi-lvel memory hierarchy | |
CN115879543A (zh) | 一种模型训练方法、装置、设备、介质及系统 | |
CN116094941A (zh) | 基于共识合作超网络模型的共识方法、系统、介质、电子设备 | |
CN101340458A (zh) | 一种基于时间空间局部性的网格数据副本生成方法 | |
Liu et al. | Distributedly solving network linear equations with event‐based algorithms | |
CN110929854B (zh) | 一种数据处理方法、装置及硬件加速器 | |
EP3166027A1 (en) | Method and apparatus for determining hot page in database |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |