CN112580774A - 一种面向可重构神经网络处理器的神经网络布局方法 - Google Patents
一种面向可重构神经网络处理器的神经网络布局方法 Download PDFInfo
- Publication number
- CN112580774A CN112580774A CN202010903773.6A CN202010903773A CN112580774A CN 112580774 A CN112580774 A CN 112580774A CN 202010903773 A CN202010903773 A CN 202010903773A CN 112580774 A CN112580774 A CN 112580774A
- Authority
- CN
- China
- Prior art keywords
- neural network
- memory
- cores
- layer
- network processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
- G06N3/105—Shells for specifying net layout
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Design And Manufacture Of Integrated Circuits (AREA)
- Semiconductor Integrated Circuits (AREA)
Abstract
本发明公开了一种面向可重构神经网络处理器的布局方法。对神经网络进行训练,得到网络参数;神经网络中各卷积层的权重设置复制份数,根据各卷积层的输入数据的数据量之间的比例关系建立各卷积层权重的复制份数之间的比例关系,获得每一卷积层在可重构神经网络处理器上需要的存内计算核的个数:将单个卷积层的数据计算分配到各自的多个存内计算核,当前卷积层将输入数据分布至多个存内计算核并行计算,然后发送到下一个卷积层;通过最小化通讯功耗和最大带宽获得最终的优化布局结果。本发明方法解决了层内以及各层之间的数据同步问题,减小了缓存需求,也解决了数据传输功耗的问题,减小了层内的带宽需求,具有较好的鲁棒性。
Description
技术领域
本发明属于存内计算和片上网络领域的一种神经网络处理器布局方法,具 体是一种面向可重构神经网络处理器的神经网络布局方法。
背景技术
人工神经网络以数学模型模拟神经元活动,有多层或者单层,每一层包含 若干神经元,各个神经元之间用带可变权重的有向弧连接,通过训练权重可以 得到处理信息的目的,能够得到输入和输出之间的关系。
处理器进行神经网络的计算时对计算能力有着巨大需求,而内存与计算相 分离造成的数据传输功耗成为了限制性能的瓶颈。存内计算通过提供内存计算 的能力解决了处理器和内存之间的数据传输功耗的问题,使用非易失性存储器 存储权重,将输入数据与存内计算核中的权重进行相乘,在路由内完成求和, 最终输出,完成了神经网络的计算。通过改变存内计算核中的权重,可以完成 不同神经网络的运算。基于非易失性存储器的存内计算核可以在多个二进制输 入和二进制权重的情况下执行乘法和累加操作,通过二维网格NOC将存内计算 核连接起来可以组成可重构神经网络处理器。
由于该处理器的功耗和性能由权重的映射方式以及数据流确定。现有技术 缺少了一种布局方式能够减少可重构神经网络处理器的功耗,提高其性能,本 实例就是从此需求出发。
发明内容
针对解决可重构神经网络处理器进行神经网络计算时存在的高延时以及高 功耗问题,本发明提出了一种面向可重构神经网络处理器的神经网络布局方法, 通过对于数据流以及权重映射位置的优化解决可重构神经网络处理器的布局布 线问题,可以减少延迟、缓存、功耗和带宽,并最大化计算并行性,能够减少 可重构神经网络处理器的功耗,提高其性能。
本发明的目的是通过以下技术方案来实现的:
步骤1,对神经网络进行训练,得到神经网络的网络参数;所述的神经网络 主要仅由卷积层构成。
步骤2,针对神经网络中各卷积层的权重设置复制份数,根据神经网络中各 卷积层的输入数据的数据量之间的比例关系建立相同的各卷积层权重的复制份 数之间的比例关系,权重是指卷积层的所有卷积核中的参数构成的集合;根据 比例关系处理获得每一卷积层在可重构神经网络处理器上需要的存内计算核的 个数:
步骤3,将单个卷积层的数据计算分配到各自的多个存内计算核,当前卷积 层将输入数据分布至多个存内计算核并行计算,形成层内的数据流,然后获得 输出数据发送到下一个卷积层,输入数据的方向为依次流经一个卷积层对应的 所有存内计算核,求和得到最终结果的数据流向为所有的部分和在过程中相加, 得到最终结果输出给下一层;
利用存内计算核个数,确定每一卷积层内的数据流,数据输入从单方向流 过k×k个存内计算核,进行乘法运算,不同份复制的权重对输入数据的不同列 进行计算;通过不同存内计算核计算结果得到的结果进行相加,得到最终的输 出结果。
步骤4,通过最小化通讯功耗和最大带宽的目标函数获得最终的优化布局结 果。
所述步骤2中,针对每一个卷积层,输入数据、输出数据和通道数都是已 知的,根据神经网络所需要进行数据处理情况获得,根据各自输入数据的通道 数、输出数据的通道数以及权重的复制份数关系确定存内计算核的个数:
采用以下公式计算各个卷积层各自的存内计算核数量P为P=M×N×a,其 中,N=k×k×n,k×k为卷积层的卷积核的大小,n为卷积层输入数据的通 道数与存内计算核大小的商向上取整;M为卷积层输出数据的通道数与存内计 算核大小的商向上取整,a为卷积层权重的复制份数;各个卷积层各自的权重的 复制份数a之间满足神经网络中各卷积层的输入数据的数据量之间的比例关系。
然后在各个卷积层各自的权重的复制份数a满足比例关系情况下,且在所 有卷积层各自的存内计算核数量P的总数不超过可重构神经网络处理器的总存 内计算核总数情况下,使得各个卷积层各自的存内计算核数量P最大化设置, 进而获得各个卷积层在可重构神经网络处理器上需要的存内计算核的个数P。 针对每一个卷积层对应具有多少个存内计算核,即将输入数据分成多少份分别 输入到各自的存内计算核中,层内的各个存内计算核之间不通信。
所述步骤4中,具体为:
首先建立以下第i个存内计算核与第j个存内计算核之间的通讯次数 G(in,jm),表示为:
其中,in表示第n层卷积层内的第i个计算核;jm表示第m层卷积层内的第 j个计算核;kn表示第n层卷积层的单个卷积核的尺寸大小,cn表示第n层卷积 层的输入数据的通道数,a表示第n层卷积层权重的复制份数;
然后建议以下目标函数,整个可重构神经网络处理器的功耗目标函数PLINK:
其中,εi,j等于坐标为(xi,yi)的计算核与坐标为(xi,yi)的计算核之间的通讯 次数;(xni,yni)表示第n层层内的第i个存内计算核in在可重构神经网络处理器 中阵列的行列坐标,N表示可重构神经网络处理器中单行或单列上的存内计算 核的数量;
最大带宽W:计算各个路由的带宽,单个路由的带宽是由其他每两个路由 之间通信时所经过自身的次数累加获得,最大带宽为各个路由的带宽中的最大 值;
利用非支配排序遗传算法NSGAII对上述两个目标函数进行求解获得最优 的各个存内计算核在可重构神经网络处理器中的坐标。具体实施用数组来描述 已经完成权重映射的存内计算核在可重构神经网络处理器NOC上的布局情况, 对映射方案进行编码;根据上述两个优化目标利用NSGAII对整体层与层之间 的布局进行优化,得到最终的布局情况。
所述的可重构神经网络处理器包括了非易失性存储器和缓存路由,各个缓 存路由通过阵列布置并行列连接形成二维网格NOC结构,每个缓存路均连接有 一个存内计算核,存内计算核内存储权重,存内计算核接收输入数据并于内部 的权重进行相乘,再在缓存路由内求和,最终输出完成了神经网络的计算。
通过改变存内计算核中的权重,完成不同神经网络的运算。路由采用了 XY-YX路由方式。
所述的存内计算核采用非易失性存储器。
所述的存内计算核在多个二进制输入和二进制权重的情况下执行乘法和累 加操作,通过二维网格NOC将存内计算核连接组成可重构神经网络处理器。
本发明与现有技术相比具有以下优点:
本发明方法通过权重复制解决了层内以及各层之间的数据同步问题,减小 了缓存需求,也解决了处理器和内存之间的数据传输功耗的问题。
本发明所提出的方法在硬件资源以及计算的网络一定的情况下,通过对于 权重的复制,达到了神经网络每个卷积层之间的同步;通过层内数据先相乘再 相加的方式,简化了数据流;同时,对于布局布线进行了优化。从而减小了整 体的功耗需求与带宽需求,具有较好的鲁棒性。
附图说明
图1是本发明的方法总体流程框图;
图2是本发明使用架构示意图;
图3是本发明过程中需要用到的计算核个数示意图;
图4是本发明的布局过程中编码方式示意图;
图5是本发明的仿真结果图,在不同NOC大小时三种不同布局方法下的的 通讯功耗情况。
图6是本发明的仿真结果图,在不同NOC大小时三种不同布局方法下的的 通讯功耗情况。
具体实施方式
以下参照附图,对本发明的技术方案和效果作进一步的详细说明。
参照图1,本发明的实施例及其实施过程步骤如下:
步骤一,确定每一层权重的复制情况,确定方法如下:每一层的输入数据 量和权重的复制份数成正比关系,即其中ti是第i层的计算时间,mi是 第i层的权重复制份数,整体的权重份数由可以利用的片上网络的大小确定,在 片上网络较小的情况下,赋值情况可以不完全符合该式,这会带来额外的延时, 从而导致缓存的增加。
步骤二,确定层内的数据流。确定方法如下:参照图2,对于输入通道数和 输出通道数均小于等于计算核大小的情况,一层内以k×k个计算核心构成的计 算矩阵为基础单元,若输入通道数大于一个计算核的大小,则在此基础单元内 进行纵向扩张,根据该层权重的复制份数m,将该基础单元横向扩张m份,得 到该层需要的所有计算核;通过数据的纵向传输完成输入数据与权重相乘以及 部分和相加的运算;在权重复制,基本单元进行扩展的情况下,通过部分和的 相加,最终完成输出数据的计算。
步骤三,确定层与层之间的数据流。确定方法如下:用G(i,j)表示第i个计 算核心与第j个计算核心之间的通讯次数,G(i,j)可以表示为:
其中,(i1,j1)n表示第n层的计算核,其坐标为(i1,j1)。
步骤四,确定整体的布局布线情况。确定方法如下:用数组来描述已经完 成权重映射的计算核在NOC上的布局情况,即需要将已经映射好权重的PE放 置到图3所示NOC架构上;X(i)=j表示计算核i被放置节点j,如图3所示, 具有数据流(a)的计算核被放置在一个3×3大小的NOC上,(c)表示了一种布局 方式,则这种方式可以用X=(1,6,3,7,8,4,2)表示;布局情况例如图4所示。
需要优化的目标为通讯功耗以及最大带宽,其中通讯功耗可以表示为:
其中εi,j等于坐标为(xi,yi)的计算核与坐标为(xi,yi)的计算核之间的通讯次数;
每个节点的带宽W(k,l)表示为:
其中θi,j代表第i个计算核和第j个计算核之间是否存在通过节点(k,l)的通讯, N为NOC的边长;采用NSGAII启发式算法对这两个优化目标进行优化,最终 得到需要的布局布线结果。
下面结合仿真实例对本发明的效果做进一步的描述。
利用上面所描述的方法基于AlexNet进行仿真,比较了在不同NOC大小时 三种不同布局方法下的的通讯功耗和最大带宽情况。这三种方式分别为随机映 射,直接映射,和利用本方法进行映射,其中随机映射为,将存内计算核在可 重构神经网络处理器中的坐标进行随机分配;直接映射为将存内计算核在可重 构神经网络处理器中的坐标按照数据流的顺序进行分配。得到的结果如图5和 图6。结果表明,该方案减少了33.57%的通讯功耗需求和46.13%的带宽要求。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的 精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发 明的保护范围。
Claims (5)
1.一种面向可重构神经网络处理器的神经网络布局方法,其特征在于:
方法包括以下步骤:
步骤1,对神经网络进行训练,得到神经网络的网络参数;
步骤2,针对神经网络中各卷积层的权重设置复制份数,根据神经网络中各卷积层的输入数据的数据量之间的比例关系建立相同的各卷积层权重的复制份数之间的比例关系,根据比例关系处理获得每一卷积层在可重构神经网络处理器上需要的存内计算核的个数:
步骤3,将单个卷积层的数据计算分配到各自的多个存内计算核,当前卷积层将输入数据分布至多个存内计算核并行计算,然后获得输出数据发送到下一个卷积层;
步骤4,通过最小化通讯功耗和最大带宽的目标函数获得最终的优化布局结果。
2.根据权利要求1所述的面向可重构神经网络处理器的神经网络布局方法,其特征在于:
所述步骤2中,针对每一个卷积层,根据各自输入数据的通道数、输出数据的通道数以及权重的复制份数关系确定存内计算核的个数:
采用以下公式计算各个卷积层各自的存内计算核数量P为P=M×N×a,其中,N=k×k×n,k×k为卷积层的卷积核的大小,n为卷积层输入数据的通道数与存内计算核大小的商向上取整;M为卷积层输出数据的通道数与存内计算核大小的商向上取整,a为卷积层权重的复制份数;
然后在各个卷积层各自的权重的复制份数a满足比例关系情况下,且在所有卷积层各自的存内计算核数量P的总数不超过可重构神经网络处理器的总存内计算核总数情况下,使得各个卷积层各自的存内计算核数量P最大化设置,进而获得各个卷积层在可重构神经网络处理器上需要的存内计算核的个数P。
3.根据权利要求1所述的面向可重构神经网络处理器的神经网络布局方法,其特征在于:所述步骤4中,具体为:
首先建立以下第i个存内计算核与第j个存内计算核之间的通讯次数G(in,jm),表示为:
其中,in表示第n层卷积层内的第i个计算核;jm表示第m层卷积层内的第j个计算核;kn表示第n层卷积层的单个卷积核的尺寸大小,cn表示第n层卷积层的输入数据的通道数,a表示第n层卷积层权重的复制份数;
然后建议以下目标函数,整个可重构神经网络处理器的功耗目标函数PLINK:
其中,εi,j等于坐标为(xi,yi)的计算核与坐标为(xi,yi)的计算核之间的通讯次数;(xni,yni)表示第n层层内的第i个存内计算核in在可重构神经网络处理器中阵列的行列坐标,N表示可重构神经网络处理器中单行或单列上的存内计算核的数量;
最大带宽W:计算各个路由的带宽,单个路由的带宽是由其他每两个路由之间通信时所经过自身的次数累加获得,最大带宽为各个路由的带宽中的最大值;
利用非支配排序遗传算法NSGAII对上述两个目标函数进行求解获得最优的各个存内计算核在可重构神经网络处理器中的坐标。
4.根据权利要求1所述的面向可重构神经网络处理器的神经网络布局方法,其特征在于:所述的可重构神经网络处理器包括了非易失性存储器和缓存路由,各个缓存路由通过阵列布置并行列连接形成二维网格NOC结构,每个缓存路均连接有一个存内计算核,存内计算核内存储权重,存内计算核接收输入数据并于内部的权重进行相乘,再在缓存路由内求和,最终输出完成了神经网络的计算。
5.根据权利要求1所述的面向可重构神经网络处理器的神经网络布局方法,其特征在于:所述的存内计算核采用非易失性存储器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010903773.6A CN112580774B (zh) | 2020-09-01 | 2020-09-01 | 一种面向可重构神经网络处理器的神经网络布局方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010903773.6A CN112580774B (zh) | 2020-09-01 | 2020-09-01 | 一种面向可重构神经网络处理器的神经网络布局方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112580774A true CN112580774A (zh) | 2021-03-30 |
CN112580774B CN112580774B (zh) | 2022-10-21 |
Family
ID=75120173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010903773.6A Active CN112580774B (zh) | 2020-09-01 | 2020-09-01 | 一种面向可重构神经网络处理器的神经网络布局方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112580774B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113703718A (zh) * | 2021-10-14 | 2021-11-26 | 中科南京智能技术研究院 | 一种可变权重的多位存内计算装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102741855A (zh) * | 2010-02-12 | 2012-10-17 | 埃克森美孚上游研究公司 | 用于将并行模拟模型分区的方法和系统 |
CN106650922A (zh) * | 2016-09-29 | 2017-05-10 | 清华大学 | 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统 |
CN107239829A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种优化人工神经网络的方法 |
CN108241890A (zh) * | 2018-01-29 | 2018-07-03 | 清华大学 | 一种可重构神经网络加速方法及架构 |
CN110334744A (zh) * | 2019-06-11 | 2019-10-15 | 福建奇点时空数字科技有限公司 | 一种基于跨通道级联卷积层的神经网络模型优化算法 |
US20200026992A1 (en) * | 2016-09-29 | 2020-01-23 | Tsinghua University | Hardware neural network conversion method, computing device, compiling method and neural network software and hardware collaboration system |
CN110782022A (zh) * | 2019-10-31 | 2020-02-11 | 福州大学 | 一种面向可编程逻辑器件移动终端的小型神经网络的实现方法 |
US20200097821A1 (en) * | 2018-09-24 | 2020-03-26 | International Business Machines Corporation | Optimized partitioning of multi-layer networks in core-based neurosynaptic architectures |
CN111178519A (zh) * | 2019-12-27 | 2020-05-19 | 华中科技大学 | 卷积神经网络加速引擎、卷积神经网络加速系统及方法 |
CN111242289A (zh) * | 2020-01-19 | 2020-06-05 | 清华大学 | 一种规模可扩展的卷积神经网络加速系统与方法 |
CN111475461A (zh) * | 2020-04-06 | 2020-07-31 | 西安电子科技大学 | 面向ai应用的片上网络映射方法 |
US20200272779A1 (en) * | 2017-01-04 | 2020-08-27 | Stmicroelectronics S.R.L. | Reconfigurable interconnect |
-
2020
- 2020-09-01 CN CN202010903773.6A patent/CN112580774B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102741855A (zh) * | 2010-02-12 | 2012-10-17 | 埃克森美孚上游研究公司 | 用于将并行模拟模型分区的方法和系统 |
CN107239829A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种优化人工神经网络的方法 |
CN106650922A (zh) * | 2016-09-29 | 2017-05-10 | 清华大学 | 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统 |
US20200026992A1 (en) * | 2016-09-29 | 2020-01-23 | Tsinghua University | Hardware neural network conversion method, computing device, compiling method and neural network software and hardware collaboration system |
US20200272779A1 (en) * | 2017-01-04 | 2020-08-27 | Stmicroelectronics S.R.L. | Reconfigurable interconnect |
CN108241890A (zh) * | 2018-01-29 | 2018-07-03 | 清华大学 | 一种可重构神经网络加速方法及架构 |
US20200097821A1 (en) * | 2018-09-24 | 2020-03-26 | International Business Machines Corporation | Optimized partitioning of multi-layer networks in core-based neurosynaptic architectures |
CN110334744A (zh) * | 2019-06-11 | 2019-10-15 | 福建奇点时空数字科技有限公司 | 一种基于跨通道级联卷积层的神经网络模型优化算法 |
CN110782022A (zh) * | 2019-10-31 | 2020-02-11 | 福州大学 | 一种面向可编程逻辑器件移动终端的小型神经网络的实现方法 |
CN111178519A (zh) * | 2019-12-27 | 2020-05-19 | 华中科技大学 | 卷积神经网络加速引擎、卷积神经网络加速系统及方法 |
CN111242289A (zh) * | 2020-01-19 | 2020-06-05 | 清华大学 | 一种规模可扩展的卷积神经网络加速系统与方法 |
CN111475461A (zh) * | 2020-04-06 | 2020-07-31 | 西安电子科技大学 | 面向ai应用的片上网络映射方法 |
Non-Patent Citations (2)
Title |
---|
DMITRI VAINBRAND等: "Scalable network-on-chip architecture for configurable neural networks", 《MICROPROCESSORS AND MICROSYSTEMS》 * |
徐英男: "面向人工神经网络计算核的加速优化及自动生成技术研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113703718A (zh) * | 2021-10-14 | 2021-11-26 | 中科南京智能技术研究院 | 一种可变权重的多位存内计算装置 |
CN113703718B (zh) * | 2021-10-14 | 2022-02-22 | 中科南京智能技术研究院 | 一种可变权重的多位存内计算装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112580774B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021004366A1 (zh) | 基于结构化剪枝和低比特量化的神经网络加速器及方法 | |
US11100193B2 (en) | Dataflow accelerator architecture for general matrix-matrix multiplication and tensor computation in deep learning | |
CN111684473B (zh) | 提高神经网络阵列的性能 | |
US20160196488A1 (en) | Neural network computing device, system and method | |
CN110516801A (zh) | 一种高吞吐率的动态可重构卷积神经网络加速器架构 | |
US20230010315A1 (en) | Application specific integrated circuit accelerators | |
CN109284817A (zh) | 深度可分离卷积神经网络处理架构/方法/系统及介质 | |
CN108170640B (zh) | 神经网络运算装置及应用其进行运算的方法 | |
CN110543939B (zh) | 一种基于fpga的卷积神经网络后向训练的硬件加速实现装置 | |
CN110717583B (zh) | 卷积电路、处理器、芯片、板卡和电子设备 | |
CN112580774B (zh) | 一种面向可重构神经网络处理器的神经网络布局方法 | |
CN113283587A (zh) | 一种Winograd卷积运算加速方法及加速模块 | |
CN116362314A (zh) | 一种存算一体装置和计算方法 | |
CN108647780A (zh) | 面向神经网络的可重构池化操作模块结构及其实现方法 | |
CN115879530A (zh) | 一种面向rram存内计算系统阵列结构优化的方法 | |
Yang et al. | BSRA: Block-based super resolution accelerator with hardware efficient pixel attention | |
CN111738432B (zh) | 一种支持自适应并行计算的神经网络处理电路 | |
US11297127B2 (en) | Information processing system and control method of information processing system | |
CN113159302B (zh) | 一种用于可重构神经网络处理器的路由结构 | |
CN115238879A (zh) | 深度神经网络的架构搜索方法及硬件加速器 | |
Kim et al. | An Asynchronous Inter-Processor Communication Based, Input Recycling Parallel Architecture for Large Scale Neural Network Simulation | |
JP2023542261A (ja) | 複数のアキュムレータを有するシストリックアレイセル | |
JP6888073B2 (ja) | チップ装置および関連製品 | |
CN113986816A (zh) | 可重构计算芯片 | |
CN114004351A (zh) | 一种卷积神经网络硬件加速平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |