CN111506518B - 一种数据存储控制方法及装置 - Google Patents
一种数据存储控制方法及装置 Download PDFInfo
- Publication number
- CN111506518B CN111506518B CN202010284840.0A CN202010284840A CN111506518B CN 111506518 B CN111506518 B CN 111506518B CN 202010284840 A CN202010284840 A CN 202010284840A CN 111506518 B CN111506518 B CN 111506518B
- Authority
- CN
- China
- Prior art keywords
- data
- operation result
- neural network
- random access
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
- G06F12/0238—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/16—Handling requests for interconnection or transfer for access to memory bus
- G06F13/1668—Details of memory controller
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C8/00—Arrangements for selecting an address in a digital store
- G11C8/06—Address interface arrangements, e.g. address buffers
Abstract
本发明公开了一种数据存储控制方法及装置,该方法包括:读取模块接收神经网络加速处理器发送的数据请求指令,根据数据请求指令从静态随机存储器中的第一物理地址读取数据,并将数据发送至神经网络加速处理器,以使神经网络加速处理器对数据进行运算,得到运算结果;存储模块接收神经网络加速处理器发送的数据存储指令,根据数据存储指令将运算结果发送至控制模块;控制模块接收运算结果,并根据第一控制指令将运算结果发送至静态随机存储器中的第二物理地址。本发明能够将神经网络加速处理器的运算结果存储至内部的静态随机存储器,降低后续运算时读取数据的延时,提高运算效率。
Description
技术领域
本发明涉及计算机技术领域,特别涉及一种数据存储控制方法及装置。
背景技术
神经网络,是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型,依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。NNA(Neural Network Accelerator)也称为神经网络加速器,是专用的计算人工智能应用场景里包含的运算任务的模块,神经网络模型的计算复杂度和输入数据大小成正比,随着人工智能运用场景越来越广,需要运算的数据量也越来越大。
现有的NNA在运行时,从片外的DDR(Double Data Rate,双倍速率同步动态随机存储器)中读取数据后存入内部的SRAM(Static Random Access Memory,静态随机存储器),再从内部的SRAM读取数据并进行运算后,其运算结果需要存入片外的DDR。当进行下一步运算时,需要重新从片外的DDR中读取数据,一旦数据量大,则等待时间过长,运算效率低。
发明内容
为解决上述技术问题,本发明提供一种数据存储控制方法及装置,能够将神经网络加速处理器的运算结果存储至内部的静态随机存储器,降低后续运算时读取数据的延时,提高运算效率。
本发明一方面提供一种数据存储控制方法,应用于具有直接内存存取控制器的神经网络加速器系统,所述直接内存存取控制器中配置有读取模块、存储模块和控制模块,所述方法包括:
所述读取模块接收神经网络加速处理器发送的数据请求指令,根据所述数据请求指令从静态随机存储器中的第一物理地址读取数据,并将所述数据发送至所述神经网络加速处理器,以使所述神经网络加速处理器对所述数据进行运算,得到运算结果;
所述存储模块接收所述神经网络加速处理器发送的数据存储指令,根据所述数据存储指令将所述运算结果发送至所述控制模块;
所述控制模块接收所述运算结果,并根据第一控制指令将所述运算结果发送至所述静态随机存储器中的第二物理地址。
优选地,所述直接内存存取控制器中还配置有网桥模块;所述控制模块接收所述运算结果,并根据所述第一控制指令将所述运算结果发送至所述静态随机存储器中的第二物理地址,包括:
所述控制模块接收所述运算结果,并根据所述第一控制指令控制所述网桥模块转换接口读写请求,以便将所述运算结果发送至所述静态随机存储器中的第二物理地址。
优选地,所述方法还包括:
所述控制模块接收所述运算结果,并根据第二控制指令将所述运算结果通过总线发送至双倍速率同步动态随机存储器。
优选地,在所述读取模块接收神经网络加速处理器发送的数据请求指令之前,所述方法还包括:
所述读取模块接收所述神经网络加速处理器发送的数据读取指令,根据所述数据读取指令从所述双倍速率同步动态随机存储器中读取数据并进行格式处理,将格式处理后的数据存储至所述静态随机存储器中的第一物理地址。
优选地,所述格式处理具体为:通过3D算子将数据转换为卷积运算需要的格式。
本发明另一方面提供一种数据存储控制装置,包括直接内存存取控制器,所述直接内存存取控制器中配置有读取模块、存储模块和控制模块;
所述读取模块用于接收神经网络加速处理器发送的数据请求指令,根据所述数据请求指令从静态随机存储器中的第一物理地址读取数据,并将所述数据发送至所述神经网络加速处理器,以使所述神经网络加速处理器对所述数据进行运算,得到运算结果;
所述存储模块用于接收所述神经网络加速处理器发送的数据存储指令,根据所述数据存储指令将所述运算结果发送至所述控制模块;
所述控制模块用于接收所述运算结果,并根据第一控制指令将所述运算结果发送至所述静态随机存储器中的第二物理地址。
优选地,所述直接内存存取控制器中还配置有网桥模块;
所述网桥模块用于转换接口读写请求,以使所述控制模块将所述运算结果发送至所述静态随机存储器中的第二物理地址。
优选地,所述控制模块还用于,
接收所述运算结果,并根据第二控制指令将所述运算结果通过总线发送至双倍速率同步动态随机存储器。
优选地,所述读取模块还用于,
接收所述神经网络加速处理器发送的数据读取指令,根据所述数据读取指令从所述双倍速率同步动态随机存储器中读取数据并进行格式处理,将格式处理后的数据存储至所述静态随机存储器中的第一物理地址。
优选地,所述格式处理具体为:通过3D算子将数据转换为卷积运算需要的格式。
本发明至少具有以下有益效果:
本发明通过在神经网络加速处理器内部的直接内存存取控制器中配置读取模块、存储模块和控制模块,神经网络加速处理器通过读取模块从静态随机存储器中的第一物理地址读取数据并进行运算后,当神经网络加速处理器需要对上一步的运算结果进行后续运算时,其运算结果可以通过控制模块发送至内部的静态随机存储器中与第一物理地址不同物理BANK的第二物理地址进行存储,从而降低后续运算时读取数据的延时,提高运算效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种数据存储控制方法的流程示意图;
图2为本发明实施例提供的又一种数据存储控制方法的流程示意图;
图3为本发明实施例提供的一种数据存储控制装置的结构示意图。
具体实施方式
本发明的核心是提供一种数据存储控制方法及装置,当神经网络加速处理器需要对上一步的运算结果进行后续运算时,可以将上一步的运算结果存储至内部的静态随机存储器,从而降低后续运算时读取数据的延时,提高运算效率。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例一方面提供一种数据存储控制方法,应用于具有直接内存存取控制器的神经网络加速器系统,直接内存存取控制器中配置有读取模块、存储模块和控制模块。
需要说明的是,神经网络加速(Neural Network Accelerator,NNA)处理器内部具有直接内存存取(Direct Memory Access,DMA)控制器和静态随机存储器(Static RandomAccess Memory,SRAM)。本发明实施例中,NNA内部的DMA控制器被配置为具有读取模块DMA_Load、存储模块DMA_Store和控制模块Data_route controller。具体实施时,可以通过硬件进行配置。
请参阅图1,该数据存储控制方法包括:
步骤S110、读取模块接收神经网络加速处理器发送的数据请求指令,根据数据请求指令从静态随机存储器中的第一物理地址读取数据,并将数据发送至神经网络加速处理器,以使神经网络加速处理器对数据进行运算,得到运算结果。
本发明实施例中,当NNA处理器需要对内部的SRAM中的数据进行运算时,可以发出数据请求命令,通过DMA控制器中配置的读取模块DMA_Load从SRAM中的第一物理地址读取数据,收到读取的数据后可以进行运算,得到运算结果。
步骤S120、存储模块接收神经网络加速处理器发送的数据存储指令,根据数据存储指令将运算结果发送至控制模块。
本发明实施例中,NNA处理器运算后需要对上一步的运算结果进行存储,可以发出数据存储指令,通过DMA控制器中配置的存储模块DMA_Store将上一步的运算结果发送至控制模块Data_route controller。
步骤S130、控制模块接收运算结果,并根据第一控制指令将运算结果发送至静态随机存储器中的第二物理地址。
本发明实施例中,控制模块Data_route controller具有缓存buffer,NNA处理器上一步的运算结果被临时存入控制模块Data_route controller中的buffer,由控制模块Data_route controller决定该运算结果的去向。具体来说,当NNA处理器需要对上一步的运算结果进行后续运算时,可以发出第一控制指令,控制模块Data_route controller收到该第一控制指令后将上一步的运算结果发送至NNA处理器内SRAM中的第二物理地址。可以理解的是,SRAM中的第二物理地址与SRAM中的第一物理地址属于不同的物理BANK。如此,当NNA处理器需要对上一步的运算结果进行后续运算时,可以直接从内部SRAM中读取数据,从而读取数据的延时会大大降低。
以上可知,本发明实施例提供的数据存储控制方法,通过在NNA处理器内部的DMA控制器中配置读取模块、存储模块和控制模块,NNA处理器通过读取模块从静态随机存储器中的第一物理地址读取数据并进行运算后,当NNA处理器需要对上一步的运算结果进行后续运算时,其运算结果可以通过控制模块发送至内部的SRAM中与第一物理地址不同物理BANK的第二物理地址进行存储,从而降低后续运算时读取数据的延时,提高运算效率。
请参阅图2,在本发明另一些实施例中,直接内存存取控制器中还配置有网桥模块AXI2SRAM_Bridge,该数据存储控制方法包括:
步骤S210、读取模块接收神经网络加速处理器发送的数据读取指令,根据数据读取指令从双倍速率同步动态随机存储器中读取数据并进行格式处理,将格式处理后的数据存储至静态随机存储器中的第一物理地址。
本发明实施例中,NNA处理器需要运算的原始数据一般存储在外部的DDR中,NNA处理器发出数据读取指令后,通过DMA控制器中配置的读取模块DMA_Load从外部的双倍速率同步动态随机存储器(Double Data Rate,DDR)中读取数据并进行格式处理,存储至NNA处理器内SRAM中的第一物理地址。
具体的,上述实施例中,DMA控制器中配置的读取模块DMA_Load进行格式处理具体为:通过3D算子将数据转换为卷积运算需要的格式。具体来说,读取模块DMA_Load可以通过3D算子,即Permute算子、Reshape算子和Flatten算子将读取的数据转换成卷积运算需要的格式,也就是说,通过将三维数组处理成一维数据,可以减少NNA处理器的运算负担。
步骤S220、读取模块接收神经网络加速处理器发送的数据请求指令,根据数据请求指令从静态随机存储器中的第一物理地址读取数据,并将数据发送至神经网络加速处理器,以使神经网络加速处理器对数据进行运算,得到运算结果。
步骤S230、存储模块接收神经网络加速处理器发送的数据存储指令,根据数据存储指令将运算结果发送至控制模块。
当NNA处理器对从SRAM中的第一物理地址读取的数据进行运算得到运算结果后,其运算结果需要进行后续运算。此时,有可能是由NNA处理器对上一步的该运算结果进行后续运算,也有可能是由外部的Host处理器对上一步的该运算结果进行后续运算。因此,需要对NNA处理器上一步的运算结果的去向进行不同处理,下面结合实施例分别进行说明。
本发明一些实施例中,当NNA处理器上一步的运算结果需要由外部的Host处理器进行后续运算时,在步骤S230后,该数据存储控制方法还包括:
步骤S241、控制模块接收运算结果,并根据第二控制指令将运算结果通过总线发送至双倍速率同步动态随机存储器。
本发明实施例中,当NNA处理器上一步的运算结果需要由外部的Host处理器进行后续运算时,可以由外部的Host处理器发出第二控制指令,控制模块Data_routecontroller收到该第二控制指令后将NNA处理器上一步的运算结果通过外部总线发送至外部的DDR进行存储。具体实施时,可以通过AXI(Advanced eXtensible Interface)总线,将上一步的该运算结果传入外部DDR。其中,AXI总线协议是一种面向高性能、高带宽、低延迟的片内总线,可以满足超高性能和复杂的片上系统设计的需求。
本发明另一些实施例中,当NNA处理器上一步的运算结果需要由NNA处理器继续进行后续运算时,在步骤S230后,该数据存储控制方法还包括:
步骤S242、控制模块接收运算结果,并根据第一控制指令控制网桥模块转换接口读写请求,以便将运算结果发送至静态随机存储器中的第二物理地址。
本发明实施例中,当NNA处理器上一步的运算结果需要由NNA处理器继续进行后续运算时,可以由NNA处理器发出第一控制指令,控制模块Data_route controller收到该第一控制指令后,将存储模块DMA_Store的AXI Master接口接入网桥模块AXI2SRAM_Bridge的AXI Slave接口,通过网桥模块AXI2SRAM_Bridge将AXI Slave接口的读写请求转换为SRAM_IF接口的读写请求,以便将NNA处理器上一步的运算结果发送至SRAM中的第二物理地址进行存储。如此,当NNA处理器需要对上一步的运算结果进行后续运算时,可以直接从内部SRAM中读取数据,从而读取数据的延时会大大降低。
以上可知,通过本发明实施例提供的数据存储控制方法,可以实现将神经网络加速处理器的运算结果存储至内部的静态随机存储器,降低后续运算时读取数据的延时,提高运算效率。
本发明另一方面提供一种数据存储控制装置,下文描述的该装置可以与上文描述的方法相互对应参照。
请参阅图3,该数据存储控制装置包括直接内存存取控制器,直接内存存取控制器中配置有读取模块DMA_Load、存储模块DMA_Store和控制模块Data_route controller;
读取模块DMA_Load用于接收神经网络加速处理器NNA发送的数据请求指令,根据数据请求指令从静态随机存储器SRAM中的第一物理地址读取数据,并将数据发送至神经网络加速处理器NNA,以使神经网络加速处理器NNA对数据进行运算,得到运算结果;
存储模块DMA_Store用于接收神经网络加速处理器NNA发送的数据存储指令,根据数据存储指令将运算结果发送至控制模块Data_route controller;
控制模块Data_route controller用于接收运算结果,并根据第一控制指令将运算结果发送至静态随机存储器SRAM中的第二物理地址。
作为本发明优选的实施例,直接内存存取控制器中还配置有网桥模块AXI2SRAM_Bridge;
网桥模块AXI2SRAM_Bridge用于转换接口读写请求,以使控制模块Data_routecontroller将运算结果发送至静态随机存储器SRAM中的第二物理地址。
作为本发明优选的实施例,控制模块Data_route controller还用于,
接收运算结果,并根据第二控制指令将运算结果通过总线发送至双倍速率同步动态随机存储器DDR。
作为本发明优选的实施例,读取模块DMA_Load还用于,
接收神经网络加速处理器NNA发送的数据读取指令,根据数据读取指令从双倍速率同步动态随机存储器DDR中读取数据并进行格式处理,将格式处理后的数据存储至静态随机存储器SRAM中的第一物理地址。
作为本发明优选的实施例,格式处理具体为:通过3D算子将数据转换为卷积运算需要的格式。
以上可知,本发明实施例提供的数据存储控制装置,可以实现将神经网络加速处理器的运算结果存储至内部的静态随机存储器,降低后续运算时读取数据的延时,提高运算效率。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种数据存储控制方法,其特征在于,应用于具有直接内存存取控制器的神经网络加速器系统,所述直接内存存取控制器中配置有读取模块、存储模块和控制模块,所述方法包括:
所述读取模块接收神经网络加速处理器发送的数据请求指令,根据所述数据请求指令从静态随机存储器中的第一物理地址读取数据,并将所述数据发送至所述神经网络加速处理器,以使所述神经网络加速处理器对所述数据进行运算,得到运算结果;
所述存储模块接收所述神经网络加速处理器发送的数据存储指令,根据所述数据存储指令将所述运算结果发送至所述控制模块;
所述控制模块接收所述运算结果,并根据第一控制指令将所述运算结果发送至所述静态随机存储器中的第二物理地址。
2.根据权利要求1所述的数据存储控制方法,其特征在于,所述直接内存存取控制器中还配置有网桥模块;所述控制模块接收所述运算结果,并根据所述第一控制指令将所述运算结果发送至所述静态随机存储器中的第二物理地址,包括:
所述控制模块接收所述运算结果,并根据所述第一控制指令控制所述网桥模块转换接口读写请求,以便将所述运算结果发送至所述静态随机存储器中的第二物理地址。
3.根据权利要求2所述的数据存储控制方法,其特征在于,所述方法还包括:
所述控制模块接收所述运算结果,并根据第二控制指令将所述运算结果通过总线发送至双倍速率同步动态随机存储器。
4.根据权利要求3所述的数据存储控制方法,其特征在于,在所述读取模块接收神经网络加速处理器发送的数据请求指令之前,所述方法还包括:
所述读取模块接收所述神经网络加速处理器发送的数据读取指令,根据所述数据读取指令从所述双倍速率同步动态随机存储器中读取数据并进行格式处理,将格式处理后的数据存储至所述静态随机存储器中的第一物理地址。
5.根据权利要求4所述的数据存储控制方法,其特征在于,所述格式处理具体为:通过3D算子将数据转换为卷积运算需要的格式。
6.一种数据存储控制装置,其特征在于,包括直接内存存取控制器,所述直接内存存取控制器中配置有读取模块、存储模块和控制模块;
所述读取模块用于接收神经网络加速处理器发送的数据请求指令,根据所述数据请求指令从静态随机存储器中的第一物理地址读取数据,并将所述数据发送至所述神经网络加速处理器,以使所述神经网络加速处理器对所述数据进行运算,得到运算结果;
所述存储模块用于接收所述神经网络加速处理器发送的数据存储指令,根据所述数据存储指令将所述运算结果发送至所述控制模块;
所述控制模块用于接收所述运算结果,并根据第一控制指令将所述运算结果发送至所述静态随机存储器中的第二物理地址。
7.根据权利要求6所述的数据存储控制装置,其特征在于,所述直接内存存取控制器中还配置有网桥模块;
所述网桥模块用于转换接口读写请求,以使所述控制模块将所述运算结果发送至所述静态随机存储器中的第二物理地址。
8.根据权利要求7所述的数据存储控制装置,其特征在于,所述控制模块还用于,接收所述运算结果,并根据第二控制指令将所述运算结果通过总线发送至双倍速率同步动态随机存储器。
9.根据权利要求8所述的数据存储控制装置,其特征在于,所述读取模块还用于,
接收所述神经网络加速处理器发送的数据读取指令,根据所述数据读取指令从所述双倍速率同步动态随机存储器中读取数据并进行格式处理,将格式处理后的数据存储至所述静态随机存储器中的第一物理地址。
10.根据权利要求9所述的数据存储控制装置,其特征在于,所述格式处理具体为:通过3D算子将数据转换为卷积运算需要的格式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010284840.0A CN111506518B (zh) | 2020-04-13 | 2020-04-13 | 一种数据存储控制方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010284840.0A CN111506518B (zh) | 2020-04-13 | 2020-04-13 | 一种数据存储控制方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111506518A CN111506518A (zh) | 2020-08-07 |
CN111506518B true CN111506518B (zh) | 2022-12-20 |
Family
ID=71863949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010284840.0A Active CN111506518B (zh) | 2020-04-13 | 2020-04-13 | 一种数据存储控制方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111506518B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858621A (zh) * | 2019-01-09 | 2019-06-07 | 深兰科技(上海)有限公司 | 一种卷积神经网络加速器的调试装置、方法及存储介质 |
CN110363291A (zh) * | 2018-03-26 | 2019-10-22 | 上海寒武纪信息科技有限公司 | 神经网络的运算方法、装置、计算机设备和存储介质 |
CN110633226A (zh) * | 2018-06-22 | 2019-12-31 | 武汉海康存储技术有限公司 | 融合存储器、存储系统及深度学习计算方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103714044A (zh) * | 2013-12-30 | 2014-04-09 | 南京大学 | 一种基于片上网络的高效率矩阵转置簇以及转置方法 |
US10705967B2 (en) * | 2018-10-15 | 2020-07-07 | Intel Corporation | Programmable interface to in-memory cache processor |
CN110147880A (zh) * | 2019-05-22 | 2019-08-20 | 苏州浪潮智能科技有限公司 | 一种神经网络数据处理结构、方法、系统及相关装置 |
CN110490317B (zh) * | 2019-10-17 | 2020-03-10 | 北京中科寒武纪科技有限公司 | 神经网络运算装置及运算方法 |
-
2020
- 2020-04-13 CN CN202010284840.0A patent/CN111506518B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363291A (zh) * | 2018-03-26 | 2019-10-22 | 上海寒武纪信息科技有限公司 | 神经网络的运算方法、装置、计算机设备和存储介质 |
CN110633226A (zh) * | 2018-06-22 | 2019-12-31 | 武汉海康存储技术有限公司 | 融合存储器、存储系统及深度学习计算方法 |
CN109858621A (zh) * | 2019-01-09 | 2019-06-07 | 深兰科技(上海)有限公司 | 一种卷积神经网络加速器的调试装置、方法及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111506518A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102245247B1 (ko) | 트리거된 동작을 이용하는 gpu 원격 통신 | |
CN109960671B (zh) | 一种数据传输系统、方法及计算机设备 | |
CN114003392B (zh) | 一种数据加速计算方法及相关装置 | |
CN109564502B (zh) | 应用于存储设备中的访问请求的处理方法和装置 | |
CN115098412B (zh) | 外设访问控制器、数据访问装置及对应方法、介质和芯片 | |
CN113051199A (zh) | 数据传输方法及装置 | |
CN107209663A (zh) | 数据格式转换装置、缓冲芯片及方法 | |
CN111367839B (zh) | 一种主机端与fpga加速器之间的数据同步方法 | |
CN113033785A (zh) | 芯片、神经网络训练系统、内存管理方法及装置、设备 | |
CN111506518B (zh) | 一种数据存储控制方法及装置 | |
CN112667593A (zh) | 一种ETL流程执行hbase快速装载的方法与装置 | |
JP2024024607A (ja) | メモリーアクセスのための集積回路、処理方法、電子機器及び媒体 | |
CN111913812B (zh) | 一种数据处理方法、装置、设备及存储介质 | |
CN111338567B (zh) | 一种基于Protocol Buffer的镜像缓存方法 | |
CN114021715A (zh) | 基于Tensorflow框架的深度学习训练方法 | |
CN113626080B (zh) | 数据处理装置以及相关产品 | |
CN111401541A (zh) | 一种数据传输控制方法及装置 | |
CN113641604A (zh) | 一种数据传输方法及系统 | |
CN114238156A (zh) | 处理系统以及操作处理系统的方法 | |
CN117093530B (zh) | 一种用于数据传输的fpga、模型训练系统及数据访问方法 | |
CN106502775A (zh) | 一种分时调度dsp算法的方法和系统 | |
CN111461310A (zh) | 处理神经网络模型的神经网络设备、神经网络系统和方法 | |
CN111783958A (zh) | 一种数据处理系统、方法、装置和存储介质 | |
CN102253940B (zh) | 树形控件处理数据的方法和装置 | |
CN114866534B (zh) | 一种图像处理方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |