CN109245773A - 一种基于块循环稀疏矩阵神经网络的编解码方法 - Google Patents

一种基于块循环稀疏矩阵神经网络的编解码方法 Download PDF

Info

Publication number
CN109245773A
CN109245773A CN201811279234.9A CN201811279234A CN109245773A CN 109245773 A CN109245773 A CN 109245773A CN 201811279234 A CN201811279234 A CN 201811279234A CN 109245773 A CN109245773 A CN 109245773A
Authority
CN
China
Prior art keywords
matrix
vector
mask
neural network
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811279234.9A
Other languages
English (en)
Other versions
CN109245773B (zh
Inventor
潘红兵
秦子迪
朱杏伟
孙华庆
苏岩
朱棣
吴加维
沈庆宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201811279234.9A priority Critical patent/CN109245773B/zh
Publication of CN109245773A publication Critical patent/CN109245773A/zh
Application granted granted Critical
Publication of CN109245773B publication Critical patent/CN109245773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Complex Calculations (AREA)

Abstract

本发明涉及基于块循环稀疏矩阵神经网络的编解码方法,对具有块循环稀疏权值矩阵的全连接神经网络进行压缩编码;利用权值矩阵的循环特性和稀疏性,设计的采取掩模矩阵和非零值列表的编码方法;利用输入激励的稀疏性,设计的采取掩模向量和非零值列表的编码方法;充分利用了掩模矩阵和循环矩阵的特点,采用了硬件友好的解码方法。有益效果为:对稀疏的输入激励向量和权值矩阵同时进行压缩编码,有效减少数据所需的存储空间和运算过程中搬运数据所需的存储接入次数。在神经网络运算过程中,该方法能够有效降低访存消耗的能量,便于处理器跳过不必要的运算,提高硬件系统的吞吐率。

Description

一种基于块循环稀疏矩阵神经网络的编解码方法
技术领域
本发明涉及稀疏深度神经网络压缩方法,尤其涉及基于块循环稀疏矩阵神经网络的编解码方法。
背景技术
深度神经网络广泛应用于人工智能领域,尤其在图像识别领域取得了目前最好的准确度。大规模的深度神经网络的计算复杂度高、包含大量的运算参数,因此对处理器的运算性能有较高的要求。在嵌入式系统等资源受限的系统中处理深度神经网络,对处理器的能效要求很高。研究发现深度神经网络中包含大量的零元素,通过剪枝技术进行处理后,神经网络的稀疏度会更高。因此利用深度神经网络的稀疏性设计专门的硬件加速器有利于提高稀疏矩阵向量乘的运算吞吐率,并且降低功耗,提高系统能效,有利于在嵌入式系统中实现高效能的深度神经网络。目前出现的针对稀疏神经网络的加速器存在负载不均衡,编解码方式复杂,运算不规则等问题。
发明内容
本发明目的在于克服以上现有技术之不足,提供一种基于块循环稀疏矩阵神经网络的编解码方法,具体有以下技术方案实现:
所述基于块循环稀疏矩阵神经网络的编码方法,包括如下步骤:
步骤1)将全连接神经网络权值矩阵采用块循环矩阵进行表示和稀疏化处理后,转换成由多个子循环稀疏矩阵组成的矩阵,由Wb表示;
步骤2)将所述块循环矩阵应用到全连接层中后,假设权值矩阵划分为p×q个子矩阵,每个子矩阵的分块大小为k,将全连接层中的矩阵向量乘变换成小块的循环矩阵向量乘运算;
步骤3)将块循环稀疏矩阵Wb由循环掩模矩阵M和非零值矩阵Val进行存储;
步骤4)进一步对输入的稀疏激励向量x进行压缩处理,激励向量x被分成q段短向量,用xq表示,每段向量长度为k,对于每一段向量xq,采用权重压缩的方式进行存储,采用掩模向量vq表示非零值的位置,采用非零值向量Vu存储所有的非零元素。
所述基于块循环稀疏矩阵神经网络的编码方法的进一步设计在于,所述步骤1)包括如下步骤:
步骤1-1)根据式1)表示全连接层的算法;
y=f(Wa+b) (1)
其中,a是计算输入的激励向量,y表示输出向量,b表示偏置,f表示非线性函数,W表示权值矩阵;
步骤1-2)结合式(1)输出向量y的每个元素值的运算由式(2)表现;
i表示元素所在行数,j表示元素所在列数,n表示输入激励的个数;
步骤1-3)根据式(3)将神经网络权值矩阵转换;
其中,每一个子矩阵Wij c都是一个循环矩阵,其中i∈[1,p],j∈[1,q],根据循环矩阵的特点,矩阵Wij c中的每一行都可以由第一行的循环移位来形成。
所述基于块循环稀疏矩阵神经网络的编码方法的进一步设计在于,所述步骤2)中根据式(4)将全连接层中的矩阵向量乘变换成小块的循环矩阵向量乘运算,输出结果将被划分为多个子向量yi,其中i∈[1,p]
所述基于块循环稀疏矩阵神经网络的编码方法的进一步设计在于,所述步骤4)中对于任意一个初始权值矩阵,压缩率L由公式(5)进行计算,
其中,s代表权值矩阵的稀疏度,b代表每个权值的数据位宽。
根据上述基于块循环稀疏矩阵神经网络的编码方法,提供一种对应的解码方法,具体包括如下步骤:
步骤A)处理器读取一个子块的权值矩阵Wij和激励向量vij对应的掩模初始向量和激励掩模向量将初始掩模向量循环展开成掩模矩阵
步骤B)通过将掩模矩阵和激励的掩模向量进行按行相与操作,得到中间掩模矩阵Rbq;步骤C)根据掩模矩阵Rbq计算出相应的非零元素值,同时取出激励中相应的非零元素值,传输至运算单元中进行计算;
步骤D)运算单元进行计算后将结果缓存到寄存器中,至此处理器根据提出的块循环矩阵完成快速的解码操作。
所述解码方法的进一步设计在于,Rbq是一个由0和1组成的矩阵,1的位置代表了中共同非零元素的位置,若向量值全部为0,则不需要对该子块进行计算,若存在1,则计算出1在向量中的位置。
所述解码方法的进一步设计在于,中间掩模矩阵Rbq中每一行中1的位置所代表的元素通过初始行向量中非零元素的位置根据循环规律得出。
所述解码方法的进一步设计在于,激励掩模向量中1的位置所代表的元素直接从存储器中的非零值向量Vu取出。
本发明的优点如下:
本发明提供的基于块循环稀疏矩阵神经网络的编解码方法,充分利用了基于块循环矩阵的稀疏神经网络权值矩阵的运算特点,同时对权值矩阵和输入激励进行了压缩、编码,提出了采用掩模矩阵、向量的编码方法。该方法有效减少了存储激励和权重的存储需求。本发明提供的解码方法便于硬件在计算过程中同时跳过激励和权值的零元素,有效地提高硬件运算的吞吐率。该方法便于硬件实现,能够快速实现压缩的解码过程。
附图说明
图1是循环矩阵压缩示意图。
图2是循环稀疏矩阵压缩算法示意图。
图3是激励向量压缩方式示意图。
图4是解码过程示意图。
具体实施方式
下面结合附图对本发明方案进行详细说明。
本方案所述的编解码方法主要针对全连接深度神经网络中进行设计,结合了块循环矩阵和稀疏矩阵的特点进行网络压缩。
全连接层的算法计算公式如下:
y=f(Wa+b) (1)
其中,a是计算输入的激励向量,y表示输出向量,b表示偏置,f表示非线性函数,W表示权值矩阵。
公式(1)中输出向量y的每个元素值的运算可以表示:
式(2)中,i表示元素所在行数,j表示元素所在列数,n表示输入激励的个数(权值矩阵总列数)。
因此,全连接层的主要运算分为:矩阵向量乘法、非线性函数运算和元素相加运算。其中,矩阵向量乘法计算复杂度最高,运算过程中需要进行大量的数据搬移。
假设神经网络权值矩阵采用块循环矩阵进行表示,那么权值矩阵W将会被转换成由多个子循环矩阵组成的矩阵,由Wb表示,如公式(3)所示:
其中,每一个子矩阵Wij c都是一个循环矩阵,其中i∈[1,p],j∈[1,q]。根据循环矩阵的特点,矩阵中的每一行都可以由第一行的循环移位来形成,因此只需要存储循环矩阵的第一行,就可以生成矩阵中其他的行。
将上述块循环矩阵应用到FC层中后,假设权值矩阵划分为p×q个子矩阵,每个子矩阵的分块大小为k。全连接层中的矩阵向量乘将会变换成如公式(4)所示(省略了ReLU和偏置),输出结果将被划分为多个子向量yi,其中i∈[1,p]
可以看出原来的大的矩阵向量乘,划分成了小块的循环矩阵向量乘运算。采用这种块循环矩阵的方法,可以将矩阵的存储复杂度从O(pqk2)降低到O(pqk)。假设k=4,权值矩阵分为4块小的循环矩阵,如图1所示,权值矩阵将被压缩成4行向量进行存储。
由于神经网络中的权值矩阵和输入向量都具有较高的稀疏性,因此可以利用稀疏性来进一步降低计算复杂度和压缩运算数据。针对上述循环矩阵的特点和权值的稀疏性,本方案提出了一个针对稀疏的块循环矩阵和输入向量的压缩、编码和解码方式。
本实施例提供的压缩算法如图2所示,该方法中原始权值矩阵Wb可以由循环掩模矩阵M和非零值矩阵Val来进行存储。矩阵M中存储的是每个块循环矩阵向量中的非零值对应的位置,也就是非零值处为1,零值处为0。非零值矩阵Val用来存储各初始循环向量的非零值,存储方式为按行压缩存储。图2中展示的是循环矩阵分块大小k=4的情况,压缩前的循环矩阵的数据量为2048bits(32bits浮点表示),而压缩后所需要的数据量仅需要304bits,压缩率达到了14.8%。对于任意一个初始权值矩阵,压缩率L可以由公式(5)进行计算,其中,s代表矩阵的稀疏度,b代表每个权值的数据位宽,
进一步对输入激励向量x进行压缩处理,激励向量x被分成q段短向量,用xq表示,每段向量长度为k。对于每一段向量xq,用类似于权重压缩的方式进行存储,如图3所示。用一个掩模向量vq来表示非零值的位置,一个非零值向量Vu来存储所有的非零元素。
下面介绍该压缩方法在硬件中的解码步骤。解码过程如图4所示,在进行矩阵向量乘运算时,处理器首先读取一个子块的权值矩阵Wij和激励向量vij对应的掩模初始向量和激励掩模向量将初始掩模向量循环展开成掩模矩阵然后通过矩阵中每一行和进行按位与的操作,得到中间掩模矩阵Rbq。Rbq是一个由0和1组成的矩阵,1的位置代表了中共同非零元素的位置。若向量值全部为0,则不需要对该块进行计算。若存在1,则计算出1在向量中的位置,然后根据1所在位置,计算出相应的非零元素值,同时取出激励中相应的非零元素值,送到运算单元中进行计算。激励掩模向量中1的位置所代表的元素可以直接从存储器中取出;中间掩模矩阵Rbq中每一行中1的位置所代表的元素可以通过初始行向量中非零元素的位置通过循环的规律得出。将对应数据送入运算单元进行计算,结果缓存到寄存器中。通过上述过程,处理器便能够根据提出的编、解码方法对稀疏的块循环矩阵进行快速的解码。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (8)

1.一种基于块循环稀疏矩阵神经网络的编码方法,其特征在于包括如下步骤:
步骤1)将全连接神经网络权值矩阵采用块循环矩阵进行表示和稀疏化处理后,转换成由多个子循环稀疏矩阵组成的矩阵,由Wb表示;
步骤2)将所述块循环矩阵应用到全连接层中后,假设权值矩阵划分为p×q个子矩阵,每个子矩阵的分块大小为k,将全连接层中的矩阵向量乘变换成小块的循环矩阵向量乘运算;
步骤3)将块循环稀疏矩阵Wb由循环掩模矩阵M和非零值矩阵Val进行存储;
步骤4)进一步对输入的稀疏激励向量x进行压缩处理,激励向量x被分成q段短向量,用xq表示,每段向量长度为k,对于每一段向量xq,采用权重压缩的方式进行存储,采用掩模向量vq表示非零值的位置,采用非零值向量Vu存储所有的非零元素。
2.根据权利要求1所述的基于块循环稀疏矩阵神经网络的编码方法,其特征在于所述步骤1)包括如下步骤:
步骤1-1)根据式1)表示全连接层的算法;
y=f(Wa+b) (1)
其中,a是计算输入的激励向量,y表示输出向量,b表示偏置,f表示非线性函数,W表示权值矩阵;
步骤1-2)结合式(1)输出向量y的每个元素值的运算由式(2)表现;
i表示元素所在行数,j表示元素所在列数,n表示输入激励的个数;
步骤1-3)根据式(3)将神经网络权值矩阵转换;
其中,每一个子矩阵Wij c都是一个循环矩阵,其中i∈[1,p],j∈[1,q],根据循环矩阵的特点,矩阵Wij c中的每一行都可以由第一行的循环移位来形成。
3.根据权利要求1所述的基于块循环稀疏矩阵神经网络的编码方法,其特征在于所述步骤2)中根据式(4)将全连接层中的矩阵向量乘变换成小块的循环矩阵向量乘运算,输出结果将被划分为多个子向量yi,其中i∈[1,p]
4.根据权利要求1所述的基于块循环稀疏矩阵神经网络的编码方法,其特征在于所述步骤4)中对于任意一个初始权值矩阵,压缩率L由公式(5)进行计算,
其中,s代表权值矩阵的稀疏度,b代表每个权值的数据位宽。
5.采用如权利要求1-4任一项所述的基于块循环稀疏矩阵神经网络的编码方法的解码方法,其特征在于包括如下步骤:
步骤A)处理器读取一个子块的权值矩阵Wij和激励向量vij对应的掩模初始向量和激励掩模向量将初始掩模向量循环展开成掩模矩阵
步骤B)通过将掩模矩阵和激励的掩模向量进行按行相与操作,得到中间掩模矩阵Rbq
步骤C)根据掩模矩阵Rbq计算出相应的非零元素值,同时取出激励中相应的非零元素值,传输至运算单元中进行计算;
步骤D)运算单元进行计算后将结果缓存到寄存器中,至此处理器根据提出的块循环矩阵完成快速的解码操作。
6.根据权利要求5所述的解码方法,其特征在于,Rbq是一个由0和1组成的矩阵,1的位置代表了中共同非零元素的位置,若向量值全部为0,则不需要对该子块进行计算,若存在1,则计算出1在向量中的位置。
7.根据权利要求5所述的解码方法,其特征在于,中间掩模矩阵Rbq中每一行中1的位置所代表的元素通过初始行向量中非零元素的位置根据循环规律得出。
8.根据权利要求5所述的解码方法,其特征在于,激励掩模向量中1的位置所代表的元素直接从存储器中的非零值向量Vu中取出。
CN201811279234.9A 2018-10-30 2018-10-30 一种基于块循环稀疏矩阵神经网络的编解码方法 Active CN109245773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811279234.9A CN109245773B (zh) 2018-10-30 2018-10-30 一种基于块循环稀疏矩阵神经网络的编解码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811279234.9A CN109245773B (zh) 2018-10-30 2018-10-30 一种基于块循环稀疏矩阵神经网络的编解码方法

Publications (2)

Publication Number Publication Date
CN109245773A true CN109245773A (zh) 2019-01-18
CN109245773B CN109245773B (zh) 2021-09-28

Family

ID=65079595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811279234.9A Active CN109245773B (zh) 2018-10-30 2018-10-30 一种基于块循环稀疏矩阵神经网络的编解码方法

Country Status (1)

Country Link
CN (1) CN109245773B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859281A (zh) * 2019-01-25 2019-06-07 杭州国芯科技股份有限公司 一种稀疏神经网络的压缩编码方法
CN109886394A (zh) * 2019-03-05 2019-06-14 北京时代拓灵科技有限公司 嵌入式设备中三值神经网络权值处理方法及装置
CN109918281A (zh) * 2019-03-12 2019-06-21 中国人民解放军国防科技大学 多带宽目标的加速器效能测试方法
CN110211017A (zh) * 2019-05-15 2019-09-06 北京字节跳动网络技术有限公司 图像处理方法、装置及电子设备
CN111008698A (zh) * 2019-11-23 2020-04-14 复旦大学 用于混合压缩循环神经网络的稀疏矩阵乘法加速器
CN111882482A (zh) * 2020-07-10 2020-11-03 长沙景嘉微电子股份有限公司 图形分块数据读写方法、装置、设备及存储介质
CN111882028A (zh) * 2020-06-08 2020-11-03 北京大学深圳研究生院 用于卷积神经网络的卷积运算装置
CN112418424A (zh) * 2020-12-11 2021-02-26 南京大学 一种具有极高压缩比的剪枝深度神经网络的分层稀疏编码方法
CN113891846A (zh) * 2019-08-28 2022-01-04 株式会社日立制作所 电梯分析系统及电梯分析系统的设计方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5134396A (en) * 1989-04-26 1992-07-28 U.S. Philips Corporation Method and apparatus for encoding and decoding data utilizing data compression and neural networks
US20170132515A1 (en) * 2015-04-03 2017-05-11 Denso Corporation Learning system, learning program, and learning method
CN107229967A (zh) * 2016-08-22 2017-10-03 北京深鉴智能科技有限公司 一种基于fpga实现稀疏化gru神经网络的硬件加速器及方法
US20170286830A1 (en) * 2016-04-04 2017-10-05 Technion Research & Development Foundation Limited Quantized neural network training and inference
CN107239823A (zh) * 2016-08-12 2017-10-10 北京深鉴科技有限公司 一种用于实现稀疏神经网络的装置和方法
WO2018106805A1 (en) * 2016-12-09 2018-06-14 William Marsh Rice University Signal recovery via deep convolutional networks
CN108229644A (zh) * 2016-12-15 2018-06-29 上海寒武纪信息科技有限公司 压缩/解压缩神经网络模型的装置、设备和方法
CN108280514A (zh) * 2018-01-05 2018-07-13 中国科学技术大学 基于fpga的稀疏神经网络加速系统和设计方法
CN108710505A (zh) * 2018-05-18 2018-10-26 南京大学 一种基于fpga的可扩展稀疏矩阵向量乘处理器

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5134396A (en) * 1989-04-26 1992-07-28 U.S. Philips Corporation Method and apparatus for encoding and decoding data utilizing data compression and neural networks
US20170132515A1 (en) * 2015-04-03 2017-05-11 Denso Corporation Learning system, learning program, and learning method
US20170286830A1 (en) * 2016-04-04 2017-10-05 Technion Research & Development Foundation Limited Quantized neural network training and inference
CN107239823A (zh) * 2016-08-12 2017-10-10 北京深鉴科技有限公司 一种用于实现稀疏神经网络的装置和方法
CN107229967A (zh) * 2016-08-22 2017-10-03 北京深鉴智能科技有限公司 一种基于fpga实现稀疏化gru神经网络的硬件加速器及方法
WO2018106805A1 (en) * 2016-12-09 2018-06-14 William Marsh Rice University Signal recovery via deep convolutional networks
CN108229644A (zh) * 2016-12-15 2018-06-29 上海寒武纪信息科技有限公司 压缩/解压缩神经网络模型的装置、设备和方法
CN108280514A (zh) * 2018-01-05 2018-07-13 中国科学技术大学 基于fpga的稀疏神经网络加速系统和设计方法
CN108710505A (zh) * 2018-05-18 2018-10-26 南京大学 一种基于fpga的可扩展稀疏矩阵向量乘处理器

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FEI LYU等: "A Mask-misalignment Offset Reduction Method for Design of Cross-like CMOS Hall Devices", 《2016 SIXTH INTERNATIONAL CONFERENCE ON INSTRUMENTATION & MEASUREMENT, COMPUTER, COMMUNICATION AND CONTROL》 *
LI GUO等: "Sparseness Ratio Allocation and Neuron Re-pruning for Neural Networks Compression", 《2018 IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS (ISCAS)》 *
易伟等: "基于蚁群混沌遗传算法的片上网络映射", 《电子学报》 *
李昕艺等: "自适应权重的GPSR压缩感知重构算法", 《浙江大学学报(理学版)》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859281A (zh) * 2019-01-25 2019-06-07 杭州国芯科技股份有限公司 一种稀疏神经网络的压缩编码方法
CN109886394A (zh) * 2019-03-05 2019-06-14 北京时代拓灵科技有限公司 嵌入式设备中三值神经网络权值处理方法及装置
CN109886394B (zh) * 2019-03-05 2021-06-18 北京时代拓灵科技有限公司 嵌入式设备中三值神经网络权值处理方法及装置
CN109918281A (zh) * 2019-03-12 2019-06-21 中国人民解放军国防科技大学 多带宽目标的加速器效能测试方法
CN109918281B (zh) * 2019-03-12 2022-07-12 中国人民解放军国防科技大学 多带宽目标的加速器效能测试方法
CN110211017A (zh) * 2019-05-15 2019-09-06 北京字节跳动网络技术有限公司 图像处理方法、装置及电子设备
CN110211017B (zh) * 2019-05-15 2023-12-19 北京字节跳动网络技术有限公司 图像处理方法、装置及电子设备
CN113891846A (zh) * 2019-08-28 2022-01-04 株式会社日立制作所 电梯分析系统及电梯分析系统的设计方法
CN113891846B (zh) * 2019-08-28 2023-09-15 株式会社日立制作所 电梯分析系统及电梯分析系统的设计方法
CN111008698A (zh) * 2019-11-23 2020-04-14 复旦大学 用于混合压缩循环神经网络的稀疏矩阵乘法加速器
CN111008698B (zh) * 2019-11-23 2023-05-02 复旦大学 用于混合压缩循环神经网络的稀疏矩阵乘法加速器
CN111882028A (zh) * 2020-06-08 2020-11-03 北京大学深圳研究生院 用于卷积神经网络的卷积运算装置
WO2022007207A1 (zh) * 2020-07-10 2022-01-13 长沙景嘉微电子股份有限公司 图形分块数据读写方法、装置、设备及存储介质
CN111882482A (zh) * 2020-07-10 2020-11-03 长沙景嘉微电子股份有限公司 图形分块数据读写方法、装置、设备及存储介质
CN111882482B (zh) * 2020-07-10 2024-05-14 长沙景嘉微电子股份有限公司 图形分块数据读写方法、装置、设备及存储介质
CN112418424A (zh) * 2020-12-11 2021-02-26 南京大学 一种具有极高压缩比的剪枝深度神经网络的分层稀疏编码方法

Also Published As

Publication number Publication date
CN109245773B (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
CN109245773A (zh) 一种基于块循环稀疏矩阵神经网络的编解码方法
CN109472350A (zh) 一种基于块循环稀疏矩阵的神经网络加速系统
Hubig et al. Generic construction of efficient matrix product operators
Zhang et al. PVT: Point‐voxel transformer for point cloud learning
Wang et al. Wide compression: Tensor ring nets
Cheng et al. Quantized CNN: A unified approach to accelerate and compress convolutional networks
CN109543830B (zh) 一种用于卷积神经网络加速器的拆分累加器
CN107239823A (zh) 一种用于实现稀疏神经网络的装置和方法
Anderson et al. Communication-avoiding QR decomposition for GPUs
CN112988451B (zh) 量子纠错解码系统、方法、容错量子纠错系统及芯片
Wang et al. Fixed-point factorized networks
CN107229967A (zh) 一种基于fpga实现稀疏化gru神经网络的硬件加速器及方法
CN107704916A (zh) 一种基于fpga实现rnn神经网络的硬件加速器及方法
Chen et al. An efficient SIMD compression format for sparse matrix‐vector multiplication
CN111381968B (zh) 一种高效运行深度学习任务的卷积运算优化方法及系统
IT202000018043A1 (it) Procedimenti e sistemi di elaborazione di rete neurale artificiale
KR20220114519A (ko) 양자 오류 정정 디코딩 시스템 및 방법, 내결함성 양자 오류 정정 시스템 및 칩
Bao et al. LSFQ: A low precision full integer quantization for high-performance FPGA-based CNN acceleration
Idelbayev et al. More general and effective model compression via an additive combination of compressions
Liu et al. Algorithm and hardware co-design co-optimization framework for LSTM accelerator using quantized fully decomposed tensor train
SairaBanu et al. Parallel implementation of Singular Value Decomposition (SVD) in image compression using open Mp and sparse matrix representation
Jiang et al. A low-latency LSTM accelerator using balanced sparsity based on FPGA
Hosseini et al. Cyclic sparsely connected architectures for compact deep convolutional neural networks
Cai et al. Efficient methods for deep learning
Sakr et al. Memory-efficient CMSIS-NN with replacement strategy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant