CN107527090A - 应用于稀疏神经网络的处理器和处理方法 - Google Patents

应用于稀疏神经网络的处理器和处理方法 Download PDF

Info

Publication number
CN107527090A
CN107527090A CN201710733524.5A CN201710733524A CN107527090A CN 107527090 A CN107527090 A CN 107527090A CN 201710733524 A CN201710733524 A CN 201710733524A CN 107527090 A CN107527090 A CN 107527090A
Authority
CN
China
Prior art keywords
value
unit
layer
nodal
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710733524.5A
Other languages
English (en)
Inventor
韩银和
许浩博
王颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN201710733524.5A priority Critical patent/CN107527090A/zh
Publication of CN107527090A publication Critical patent/CN107527090A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种应用于稀疏神经网络的处理器。该处理器包括:存储单元,其用于存储数据和指令;控制单元,其用于获得保存在所述存储单元的指令并发出控制信号;计算单元,其用于从所述存储单元获得神经网络中的一层的节点值和对应的权重值数据以获得下一层的节点值,其中,当待计算元素中任一项等于零时,计算单元不执行该计算元素的乘法运算,其中,所述待计算元素包括节点值和权重值。利用本发明的处理器,能够提高神经网络的计算速度并节省功耗。

Description

应用于稀疏神经网络的处理器和处理方法
技术领域
本发明涉及人工智能技术领域,尤其涉及一种应用于稀疏神经网络的处理器和处理方法。
背景技术
人工智能技术在近些年来得到了迅猛的发展,在全世界范围内得到了广泛的关注,无论是工业界还是学术界都开展了人工智能技术的研究工作,目前,人工智能技术已经渗透至视觉感知、语音识别、辅助驾驶、智能家居、交通调度等各个领域。
深度学习技术是人工智能技术发展的助推器,深度学习采用深度神经网络的拓扑结构进行训练、优化及推理等,深度神经网络包括卷积神经网络、深度置信网络、循环神经网络等。以图像识别应用为例,经过反复训练、迭代,深度学习算法通过深度神经网络可以自动地获得隐藏的图像的特征数据,并且产生优于传统的基于模式识别分析方法的效果。
然而,实现深度学习技术依赖于极大的计算量。在训练阶段,需要在海量数据中通过反复迭代计算得到神经网络中的权重数据;在推理阶段,同样需要神经网络在极短的响应时间(通常为毫秒级)内完成对输入数据的运算处理,这需要所部署的神经网络运算电路(包括CPU、GPU、FPGA和ASIC等)达到每秒千亿次甚至万亿次的计算能力。随着神经网络运算电路的规模越来越大、数据吞吐量越来越高,运行功耗成为一个严重问题。
因此,神经网络处理器如何在保证高性能的同时保证高能效,是目前亟待解决的技术问题。
发明内容
本发明的目的在于克服上述现有技术的缺陷,提供一种应用于稀疏神经网络的处理器及处理方法。
根据本发明的第一方面,提供了一种应用于稀疏神经网络的处理器。该处理器包括:存储单元,其用于存储数据和指令;控制单元,其用于获得保存在所述存储单元的指令并发出控制信号;计算单元,其用于从所述存储单元获得神经网络中的一层的节点值和对应的权重值数据以获得下一层的节点值,其中,当待计算元素中任一项等于零时,计算单元不执行该计算元素的乘法运算,其中,所述待计算元素包括节点值和权重值。
在本发明的一个实施例中,所述计算单元包括:
乘法单元,用于完成节点值和权重值的乘法操作;
加法单元,用于对乘法单元的计算结果进行累加;
零值判断单元,其通过反相器接入到所述乘法单元,当所述计算元素中存在零值时,该零值判断单元输出第一控制信号以指示所述乘法单元不执行该计算元素的乘法操作,当所述计算元素中不存在零值时,该零值判断单元输出第二控制信号以指示所述乘法单元执行该计算元素的乘法操作。
在本发明的一个实施例中,所述计算单元还包括:
数据选择器,其控制端与所述零值判断单元的输出相连接,第一输入端接入零值,第二输入端接入所述乘法单元的输出,当该数据选择器接收到所述第一控制信号时,选择将所述第一输入端的零值接入到所述加法单元,当该数据选择器接收到所述第二控制信号时,选择将所述乘法单元的输出接入至所述加法单元。
在本发明的一个实施例中,所述数据选择器是二选一的数据选择器。
在本发明的一个实施例中,所述第一控制信号是“1”,所述第二控制信号是“0”。
在本发明的一个实施例中,所述反相器为非门。
在本发明的一个实施例中,所述零值判断单元包括用于判断节点值是否为零的第一判断单元和用于判断权重值是否为零的第二判断单元,所述第一判断单元和所述第二判断单元的输出接入至或门的输入,所述或门的输出作为所述零值判断单元的输出。
在本发明的一个实施例中,所述第一判断单元是比较器,其两个输入端分别接入节点值和零值,当节点值等于零值时,所述第一判断单元输出1,否则,输出0;所述第二判断单元是比较器,其两个输入端分别接入权重值和零值,当权重值等于零时,所述第二判断单元输出1,否则,输出0。
根据本发明的第二方面,提供了一种应用于稀疏神经网络的处理方法。该方法包括:获得神经网络中的一层的节点值和对应的权重值数据;对所述一层的节点值和对应的权重值执行卷积操作以获得下一层的节点值,其中,在所述卷积操作中,当节点值或对应的权重值中任一项等于零时,不执行对该节点值和其对应的权重值的乘法操作。
在本发明的一个实施例中,通过执行以下操作获得下一层的节点值:当待计算元素中一层的节点值和对应的权重值任一项为零时,将零值接传送到加法器;以及当待计算元素中一层的节点值和对应的权重值均不为零时,将该一层的节点值和对应的权重值相乘之后获得的数值传送至加法器。
与现有技术相比,本发明的优点在于:通过在神经网络处理器的计算单元中引入新的电路结构,使得存在数值为0的计算元素时,跳过针对该元素的乘法操作,以加快计算速率并节省计算功耗,从而提高了神经网络处理器的计算效率。
附图说明
以下附图仅对本发明作示意性的说明和解释,并不用于限定本发明的范围,其中:
图1示出了现有技术中神经网络的拓扑示意图;
图2示出了现有技术中卷积神经网络的处理过程示意图;
图3示出了现有技术中通用的卷积层的处理示意图;
图4示出了根据本发明一个实施例的神经网络处理器的示意框图;
图5示出了根据本发明一个实施例的神经网络处理器中的计算单元的示意框图。
具体实施方式
为了使本发明的目的、技术方案、设计方法及优点更加清楚明了,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示的现有技术中神经网络的通用拓扑图,神经网络是对人脑结构和行为活动进行建模形成的数学模型,通常分为输入层、隐藏层和输出层等结构,每一层均由多个神经元节点构成,本层的神经元节点的输出值,会作为输入传递给下一层的神经元节点,逐层连接。神经网路本身具有仿生学特征,其多层抽象迭代的过程与人脑及其他感知器官有着类似的信息处理方式。
神经网络多层结构的第一层输入值为原始图像(在本发明中的“原始图像”指的是待处理的原始数据,不仅仅是狭义的通过拍摄照片获得的图像),典型地,对于神经网络的每一层,可通过对该层的神经元节点值和其对应的权重值进行计算来得到下一层的节点值。例如,假设表示神经网络中某一层的几个神经元节点,它们与下一层的节点y相连,表示对应连接的权重,则y的取值定义:y=x×w。可见,对于神经网络的各层都存在大量的乘法和加法操作。
具体地,深度神经网络具有多层神经网络的拓扑结构,并且每层神经网络具有多个特征图层。以卷积神经网络为例,参见图2所示,其处理数据的过程由卷积层、池化层、归一化层、非线性层和全连接层等多层结构组成。与传统神经网络相比,卷积神经网络在结构上增加了卷积层和池化层,每层内又包含多个特征图。卷积层和池化层之间均采用部分连接的方式,体现出了局部感知的思想。在网络末端,通常采用全连接层,即当前层内神经元与下一层神经元一一相连。
卷积层完成卷积操作,具体操作过程是:将一个K*K大小的二维权重卷积核对特征图进行扫描,在扫描过程中权重与特征图内对应的特征元素求内积,并将所有内积值求和,得到一个输出层特征元素。当每个卷积层具有N个特征图层时,会有N个K*K大小的卷积核与该卷积层内特征图进行卷积操作,N个内积值求和得到一个输出层特征元素,如图3所示。
池化层又称为下采样层,具体操作过程是:将一个P*P大小的二维窗口对特征图层进行扫描,在扫描过程中计算窗口在图层对应数据中的最大值或平均值,得到输出层特征元素点。池化层一方面可以消除部分噪声信息,有利于特征提取,另外一方面也可以减少下一层特征元素的数量,减小网络规模。
归一化层对局部输入区域进行归一化,常用的归一化方法为局部相应归一化,即在多个相邻特征图中相同位置的元素经过标准化归一操作后得到输出特征图中的特征元素。归一化层通常在卷积层后,归一化层的使用可以加快神经网络收敛速度。
非线性层用于完成非线性计算,神经网络中常用的非线性函数包括sigmoid函数、tanh函数和ReLU函数等,特征图内每个特征像素均需要经过非线性处理后输出到下一层特征图。
全连接层在卷积神经网络模型的末端,当前层神经元与下一层神经网络中所有神经元均连接,即n-1层的任意一个节点,都和第n层所有节点有连接,数学上的计算方式为当前层特征元素与对应的权重元素进行内积运算。全连接是一种不错的模式,但是网络很大的时候,训练速度会很慢
由上述神经网络中的数据处理过程可知,神经网络的训练过程中包括大量卷积或内积计算,即乘法和加法运算,为了提高神经网络的训练速度,降低能耗,可采用硬件的方式来实现神经网络中的大部分功能。
图4示出了根据本发明一个实施例的适用于神经网络模型的处理器。
概括而言,该实施例中的神经网络处理器400基于存储-控制-计算的结构。存储结构用于存储参与计算的数据、神经网络权重及处理器的操作指令;控制结构用于解析操作指令,生成控制信号,该信号用于控制处理器内数据的调度和存储以及神经网络的计算过程;计算结构用于参与该处理器中的神经网络计算操作,保证数据在计算单元中能够正确地与相应权重进行计算。
具体而言,存储单元用于存储神经网络处理器外部传来的数据(例如,原始特征图数据)或用于存储处理过程中产生的数据,包括处理过程中产生的处理结果或中间结果,这些结果可以来自于神经网络处理器内部的运算部件或其他外部运算部件。此外,存储单元还可用于存储参与计算的指令信息(例如,载入数据至计算单元、计算开始、计算结束、或将计算结果存储至存储单元等)。在图4的实施例中,存储单元进一步细分为输入数据存储单元411、权重存储单元412、指令存储单元413和输出数据存储单元414,其中,输入数据存储单元411用于存储参与计算的数据,该数据包括原始特征图数据和参与中间层计算的数据;权重存储单元412用于存储已经训练好的神经网络权重;指令存储单元413用于存储参与计算的指令信息,指令可被控制单元420解析为控制流来调度神经网络的计算;输出数据存储单元414用于存储计算得到的神经元响应值。通过将存储单元进行细分,可将数据类型基本一致的数据集中存储,以便于选择合适的存储介质并可简化数据寻址等操作。本发明所使用的存储单元可以是静态随机存储器(SRAM)、动态随机存储器(DRAM)、寄存器堆等常见存储介质,也可以是3D存储器件等新型的存储类型。
控制单元420用于获取保存在存储单元的指令并进行解析,进而根据解析得到的控制信号来控制计算单元进行神经网络的相关运算。控制单元完成指令译码、数据调度、过程控制等工作。
在图4的实施例中,采用多个并行的计算单元1-N,以提高神经网络的计算速度。计算单元用于根据从控制单元420获得的控制信号来执行相应的神经网络计算,计算单元与各存储单元相连,以获得数据进行计算并将计算结果写入到存储单元。在该实施例中,计算单元是该处理器的核心运算部件,可完成神经网络中的大部分计算,即向量乘加操作,例如,卷积操作、池化操作等,因此,提高计算单元的计算速度对提升整个神经网络处理器的速度至关重要。
针对稀疏神经网络存在大量等于零的权重值和节点值的特点,由于这些计算元素的乘积也等于零,通过在计算单元中跳过这些计算元素的乘法操作而直接以零值作为乘积的结果能够提升神经网络处理器的能量效率。
图5示出了本发明提出的神经网络处理器中计算单元的一个实施例。在该实施例中,计算单元包括加法单元510、乘法单元520,零值判断单元530、数据选择器540和反相器550。
零值判断单元530,用于判断包括权重值和节点值在内的计算元素中,是否存在零值,其输出通过反相器550接入到乘法单元520。当计算元素中存在任何一个零值时,零值判断单元530输出第一控制信号,例如,输出“1”,该输出“1”经过反相器550后用于控制乘法单元520不执行该计算元素的乘法操作,当计算元素中不存在零值时,零值判断单元530输出第二控制信号,例如,输出“0”,该输出经过反相器550后控制乘法单元执行该计算元素的乘法操作。
具体地,在该实施例中,零值判断单元530包括用于判断节点值是否为零的第一判断单元531以及用于判断权重值是否为零的第二判断单元532,此两个判断单元的输出连接到或门533的输入,或门533的输出即是零值判断单元530的输出。当节点值等于零值时,第一判断单元531输出1,否则,输出0;当权重值等于零时,第二判断单元532输出1,否则,输出0,通过这种方式,只要节点值或权重值中任一项为零,则或门533输出为1,当节点值和权重值均不为零时,或门输出0。
乘法单元520,其输入是权重值和节点值(即图5所示的数据),输出连接至数据选择器540的一输入端,用于完成节点值和权重值的乘法操作。
加法单元510,用于对乘法单元520的计算结果进行累加。
数据选择器540,在该实施例中,数据选择器是二选一类型,其控制端与零值判断单元530的输出相连接,一输入端接入零值,另一输入端接入乘法单元520的输出。当数据选择器540接收到零值判断单元530输出的第一控制信号时,例如“1”(即存在零值),选择将一输入端的零值传送到加法单元510中;当数据选择器540接收到零值判断单元530的第二控制信号时,例如,“0”(即不存在零值),选择将乘法单元520的输出接入至加法单元510。
图5的实施例中,第一判断单元531和第二判断单元532可通过通用的比较器芯片实现,反相器550可通过非门实现,数据选择器540也可通过通用的芯片实现,这种方式连接简单,成本低。但应理解的本发明中的各单元也可采用其它方式实现,例如,利用FPGA设计专用电路。
综上所述,本发明提供的计算单元的工作过程如下:
步骤S1,当权重值或节点值中任何一项为零时,零值判断单元530输出“1”,否则输出“0”;
步骤S2,当零值判断单元530输出“1”时,经过反相器550变为“0”,控制乘法单元跳过乘法运算,并同时控制数据选择器540将“0”接入到加法单元510中,以用数值0代替乘法计算结果;当零值判断单元530输出“0”时(即不存在零值),则控制执行乘法运算,并同时控制数据选择器540将乘法单元520的计算结果接入到加法单元510。
步骤S3,加法单元对乘法计算结果进行累加。
综上所述,本发明针对稀疏神经网络中存在大量数值零的特点,提供一种适用于稀疏神经网络的处理器,所述处理器在计算单元中加入零值判断单元和旁路逻辑,在计算操作数为数值零时,不执行乘法运算,能够有效提高处理工作能效。
本发明的神经网络处理器可应用了各种电子设备,例如、移动电话、嵌入式电子设备等。
需要说明的是,虽然上文按照特定顺序描述了各个步骤,但是并不意味着必须按照上述特定顺序来执行各个步骤,实际上,这些步骤中的一些可以并发执行,甚至改变顺序,只要能够实现所需要的功能即可。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (10)

1.一种应用于稀疏神经网络的处理器,包括:
存储单元,其用于存储数据和指令;
控制单元,其用于获得保存在所述存储单元的指令并发出控制信号;
计算单元,其用于从所述存储单元获得神经网络中的一层的节点值和对应的权重值数据以获得下一层的节点值,其中,当待计算元素中任一项等于零时,计算单元不执行该计算元素的乘法运算,其中,所述待计算元素包括节点值和权重值。
2.根据权利要求1所述的处理器,其中,所述计算单元包括:
乘法单元,用于完成节点值和权重值的乘法操作;
加法单元,用于对乘法单元的计算结果进行累加;
零值判断单元,其通过反相器接入到所述乘法单元,当所述计算元素中存在零值时,该零值判断单元输出第一控制信号以指示所述乘法单元不执行该计算元素的乘法操作,当所述计算元素中不存在零值时,该零值判断单元输出第二控制信号以指示所述乘法单元执行该计算元素的乘法操作。
3.根据权利要求2所述的处理器,其中,所述计算单元还包括:
数据选择器,其控制端与所述零值判断单元的输出相连接,第一输入端接入零值,第二输入端接入所述乘法单元的输出,当该数据选择器接收到所述第一控制信号时,选择将所述第一输入端的零值接入到所述加法单元,当该数据选择器接收到所述第二控制信号时,选择将所述乘法单元的输出接入至所述加法单元。
4.根据权利要求3所述的处理器,其中,所述数据选择器是二选一的数据选择器。
5.根据权利要求3所述的处理器,其中,所述第一控制信号是“1”,所述第二控制信号是“0”。
6.根据权利要求3所述的处理器,其中,所述反相器为非门。
7.根据权利要求3所述的处理器,其中,所述零值判断单元包括用于判断节点值是否为零的第一判断单元和用于判断权重值是否为零的第二判断单元,所述第一判断单元和所述第二判断单元的输出接入至或门的输入,所述或门的输出作为所述零值判断单元的输出。
8.根据权利要求7所述的处理器,其中,所述第一判断单元是比较器,其两个输入端分别接入节点值和零值,当节点值等于零值时,所述第一判断单元输出1,否则,输出0;所述第二判断单元是比较器,其两个输入端分别接入权重值和零值,当权重值等于零时,所述第二判断单元输出1,否则,输出0。
9.一种应用于稀疏神经网络的处理方法,包括:
获得神经网络中的一层的节点值和对应的权重值数据;
对所述一层的节点值和对应的权重值执行卷积操作以获得下一层的节点值,其中,在所述卷积操作中,当节点值或对应的权重值中任一项等于零时,不执行对该节点值和其对应的权重值的乘法操作。
10.根据权利要求8所述的方法,其中,通过执行以下操作获得下一层的节点值:
当待计算元素中一层的节点值和对应的权重值任一项为零时,将零值接传送到加法器;以及
当待计算元素中一层的节点值和对应的权重值均不为零时,将该一层的节点值和对应的权重值相乘之后获得的数值传送至加法器。
CN201710733524.5A 2017-08-24 2017-08-24 应用于稀疏神经网络的处理器和处理方法 Pending CN107527090A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710733524.5A CN107527090A (zh) 2017-08-24 2017-08-24 应用于稀疏神经网络的处理器和处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710733524.5A CN107527090A (zh) 2017-08-24 2017-08-24 应用于稀疏神经网络的处理器和处理方法

Publications (1)

Publication Number Publication Date
CN107527090A true CN107527090A (zh) 2017-12-29

Family

ID=60682262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710733524.5A Pending CN107527090A (zh) 2017-08-24 2017-08-24 应用于稀疏神经网络的处理器和处理方法

Country Status (1)

Country Link
CN (1) CN107527090A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304926A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种适用于神经网络的池化计算装置及方法
CN108304925A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种池化计算装置及方法
CN109740739A (zh) * 2018-12-29 2019-05-10 北京中科寒武纪科技有限公司 神经网络计算装置、神经网络计算方法及相关产品
CN110222835A (zh) * 2019-05-13 2019-09-10 西安交通大学 一种基于零值检测的卷积神经网络硬件系统及运算方法
CN110659014A (zh) * 2018-06-29 2020-01-07 赛灵思公司 乘法器及神经网络计算平台
CN110765410A (zh) * 2019-11-05 2020-02-07 中电科仪器仪表有限公司 一种缩短频谱数据处理时间的方法及系统
CN111126081A (zh) * 2018-10-31 2020-05-08 永德利硅橡胶科技(深圳)有限公司 全球通用语言终端及方法
US11243771B2 (en) 2018-03-21 2022-02-08 C-Sky Microsystems Co., Ltd. Data computing system
WO2022061867A1 (zh) * 2020-09-28 2022-03-31 深圳市大疆创新科技有限公司 数据处理方法、装置及计算机可读存储介质
WO2022247194A1 (zh) * 2021-05-22 2022-12-01 上海阵量智能科技有限公司 乘法器、数据处理方法、芯片、计算机设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1862524A (zh) * 2005-06-06 2006-11-15 威盛电子股份有限公司 数字信号处理器中执行多个向量稀疏卷积方法与系统
CN106447034A (zh) * 2016-10-27 2017-02-22 中国科学院计算技术研究所 一种基于数据压缩的神经网络处理器、设计方法、芯片

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1862524A (zh) * 2005-06-06 2006-11-15 威盛电子股份有限公司 数字信号处理器中执行多个向量稀疏卷积方法与系统
CN106447034A (zh) * 2016-10-27 2017-02-22 中国科学院计算技术研究所 一种基于数据压缩的神经网络处理器、设计方法、芯片

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YU-HSIN CHEN ET AL: "Eyeriss:an energy-efficient reconfigurable accelerator for deep convolutional neural networks", 《IEEE JOURNAL OF SOLID-STATE CIRCUITS》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304925B (zh) * 2018-01-08 2020-11-03 中国科学院计算技术研究所 一种池化计算装置及方法
CN108304925A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种池化计算装置及方法
CN108304926A (zh) * 2018-01-08 2018-07-20 中国科学院计算技术研究所 一种适用于神经网络的池化计算装置及方法
CN108304926B (zh) * 2018-01-08 2020-12-29 中国科学院计算技术研究所 一种适用于神经网络的池化计算装置及方法
US11972262B2 (en) 2018-03-21 2024-04-30 C-Sky Microsystems Co., Ltd. Data computing system
US11243771B2 (en) 2018-03-21 2022-02-08 C-Sky Microsystems Co., Ltd. Data computing system
CN110659014A (zh) * 2018-06-29 2020-01-07 赛灵思公司 乘法器及神经网络计算平台
CN110659014B (zh) * 2018-06-29 2022-01-14 赛灵思公司 乘法器及神经网络计算平台
CN111126081A (zh) * 2018-10-31 2020-05-08 永德利硅橡胶科技(深圳)有限公司 全球通用语言终端及方法
CN111126081B (zh) * 2018-10-31 2023-07-21 深圳永德利科技股份有限公司 全球通用语言终端及方法
CN109740739B (zh) * 2018-12-29 2020-04-24 中科寒武纪科技股份有限公司 神经网络计算装置、神经网络计算方法及相关产品
CN109740739A (zh) * 2018-12-29 2019-05-10 北京中科寒武纪科技有限公司 神经网络计算装置、神经网络计算方法及相关产品
CN110222835A (zh) * 2019-05-13 2019-09-10 西安交通大学 一种基于零值检测的卷积神经网络硬件系统及运算方法
CN110765410A (zh) * 2019-11-05 2020-02-07 中电科仪器仪表有限公司 一种缩短频谱数据处理时间的方法及系统
CN110765410B (zh) * 2019-11-05 2024-02-02 中电科思仪科技股份有限公司 一种缩短频谱数据处理时间的方法及系统
WO2022061867A1 (zh) * 2020-09-28 2022-03-31 深圳市大疆创新科技有限公司 数据处理方法、装置及计算机可读存储介质
WO2022247194A1 (zh) * 2021-05-22 2022-12-01 上海阵量智能科技有限公司 乘法器、数据处理方法、芯片、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN107527090A (zh) 应用于稀疏神经网络的处理器和处理方法
CN107622305A (zh) 用于神经网络的处理器和处理方法
CN107578095B (zh) 神经网络计算装置及包含该计算装置的处理器
CN107844828B (zh) 神经网络中的卷积计算方法和电子设备
CN108108811B (zh) 神经网络中的卷积计算方法和电子设备
CN109190756B (zh) 基于Winograd卷积的运算装置及包含该装置的神经网络处理器
Chen et al. ReGAN: A pipelined ReRAM-based accelerator for generative adversarial networks
CN107169563B (zh) 应用于二值权重卷积网络的处理系统及方法
CN109685819B (zh) 一种基于特征增强的三维医学图像分割方法
Cong et al. Minimizing computation in convolutional neural networks
CN107169560B (zh) 一种自适应可重构的深度卷积神经网络计算方法和装置
CN109325591B (zh) 面向Winograd卷积的神经网络处理器
CN105892989B (zh) 一种神经网络加速器及其运算方法
US20210182666A1 (en) Weight data storage method and neural network processor based on the method
CN107918794A (zh) 基于计算阵列的神经网络处理器
CN111144561B (zh) 一种神经网络模型确定方法及装置
CN107944545B (zh) 应用于神经网络的计算方法及计算装置
CN106951962A (zh) 用于神经网络的复合运算单元、方法和电子设备
CN107506828A (zh) 计算装置和方法
JP6908302B2 (ja) 学習装置、識別装置及びプログラム
CN107292352A (zh) 基于卷积神经网络的图像分类方法和装置
CN108171328A (zh) 一种卷积运算方法和基于该方法的神经网络处理器
CN108038539A (zh) 一种集成长短记忆循环神经网络与梯度提升决策树的方法
CN110009644B (zh) 一种特征图行像素分段的方法和装置
CN116401552A (zh) 一种分类模型的训练方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171229

RJ01 Rejection of invention patent application after publication