CN114692847A - 数据处理电路、数据处理方法及相关产品 - Google Patents
数据处理电路、数据处理方法及相关产品 Download PDFInfo
- Publication number
- CN114692847A CN114692847A CN202011566159.1A CN202011566159A CN114692847A CN 114692847 A CN114692847 A CN 114692847A CN 202011566159 A CN202011566159 A CN 202011566159A CN 114692847 A CN114692847 A CN 114692847A
- Authority
- CN
- China
- Prior art keywords
- data
- circuit
- structured
- sparse
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 155
- 238000003672 processing method Methods 0.000 title abstract description 4
- 238000003860 storage Methods 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 7
- 230000002441 reversible effect Effects 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- -1 hydrogen Chemical class 0.000 description 2
- 239000001257 hydrogen Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/30021—Compare instructions, e.g. Greater-Than, Equal-To, MINMAX
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline, look ahead
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本披露公开了一种数据处理电路、数据处理方法及相关产品。该数据处理电路可以实现为计算装置包括在组合处理装置中,该组合处理装置还可以包括接口装置和其他处理装置。该计算装置与其他处理装置进行交互,共同完成用户指定的计算操作。组合处理装置还可以包括存储装置,该存储装置分别与计算装置和其他处理装置连接,用于存储该计算装置和其他处理装置的数据。本披露的方案提供了用于与结构化稀疏相关操作的硬件实现,其可以简化处理,提高机器的处理效率。
Description
技术领域
本披露一般地涉及处理器领域。更具体地,本披露涉及数据处理电路、使用数据处理电路来处理数据的方法、芯片和板卡。
背景技术
近年来,随着深度学习的迅猛发展,使得计算机视觉、自然语言处理等一系列领域的算法性能都有了跨越式的进展。然而深度学习算法是一种计算密集型和存储密集型的工具,随着信息处理任务的日趋复杂,对算法实时性和准确性要求不断增高,神经网络往往会被设计得越来越深,使得其计算量和存储空间需求越来越大,导致现存的基于深度学习的人工智能技术难以直接应用在硬件资源受限的手机、卫星或嵌入式设备上。
因此,深度神经网络模型的压缩、加速、优化变得格外重要。大量的研究试着在不影响模型精度的前提下,减少神经网络的计算和存储需求,对深度学习技术在嵌入端、移动端的工程化应用具有十分重要的意义。稀疏化正是模型轻量化方法之一。
网络参数稀疏化是通过适当的方法减少较大网络中的冗余成分,以降低网络对计算量和存储空间的需求。现有的硬件和/或指令集不能有效地支持稀疏化处理。
发明内容
为了至少部分地解决背景技术中提到的一个或多个技术问题,本披露的方案提供了一种数据处理电路、数据处理方法、芯片和板卡。
在第一方面中,本披露公开一种数据处理电路,包括控制电路、存储电路和运算电路,其中:所述控制电路配置用于控制所述存储电路和所述运算电路以对至少一个张量数据的一个维度进行结构化稀疏处理;所述存储电路配置用于存储信息,所述信息至少包括稀疏化前和/或稀疏化后的信息;以及所述运算电路配置用于在所述控制电路的控制下,对所述张量数据的一个维度进行结构化稀疏处理。
在第二方面中,本披露提供一种芯片,包括前述第一方面任一实施例的数据处理电路。
在第三方面中,本披露提供一种板卡,包括前述第二方面任一实施例的芯片。
在第四方面中,本披露提供一种使用前述第一方面任一实施例的数据处理电路来处理数据的方法。
通过如上所提供的数据处理电路、使用数据处理电路来处理数据的方法、芯片和板卡,本披露实施例提供了一种支持数据的结构化稀疏操作的硬件电路,其可以对张量数据的一个维度进行结构化稀疏处理。在一些实施例中,本披露实施例的数据处理电路可以支持神经网络的推理和训练过程中的结构化稀疏,并且进行稀疏化的维度是输入通道维度。通过提供专门的结构化稀疏硬件来执行与结构化稀疏相关的操作,可以简化处理,由此提高机器的处理效率。
附图说明
通过参考附图阅读下文的详细描述,本披露示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本披露的若干实施方式,并且相同或对应的标号表示相同或对应的部分,其中:
图1是示出本披露实施例的板卡的结构图;
图2是示出本披露实施例的组合处理装置的结构图;
图3是示出本披露实施例的单核或多核计算装置的处理器核的内部结构示意图;
图4示出根据本披露实施例的数据处理电路的结构框图;
图5A-图5D示出了本披露实施例的运算电路的部分结构示意图;以及
图6示出了根据本披露实施例的结构化稀疏处理的示例性运算流水线。
具体实施方式
下面将结合本披露实施例中的附图,对本披露实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本披露一部分实施例,而不是全部的实施例。基于本披露中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本披露保护的范围。
应当理解,本披露的权利要求、说明书及附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。本披露的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本披露说明书中所使用的术语仅仅是出于描述特定实施例的目的,而并不意在限定本披露。如在本披露说明书和权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本披露说明书和权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。
下面结合附图来详细描述本披露的具体实施方式。
图1示出本披露实施例的一种板卡10的结构示意图。如图1所示,板卡10包括芯片101,其是一种系统级芯片(System on Chip,SoC),或称片上系统,集成有一个或多个组合处理装置,组合处理装置是一种人工智能运算单元,用以支持各类深度学习和机器学习算法,满足计算机视觉、语音、自然语言处理、数据挖掘等领域复杂场景下的智能处理需求。特别是深度学习技术大量应用在云端智能领域,云端智能应用的一个显著特点是输入数据量大,对平台的存储能力和计算能力有很高的要求,此实施例的板卡10适用在云端智能应用,具有庞大的片外存储、片上存储和强大的计算能力。
芯片101通过对外接口装置102与外部设备103相连接。外部设备103例如是服务器、计算机、摄像头、显示器、鼠标、键盘、网卡或wifi接口等。待处理的数据可以由外部设备103通过对外接口装置102传递至芯片101。芯片101的计算结果可以经由对外接口装置102传送回外部设备103。根据不同的应用场景,对外接口装置102可以具有不同的接口形式,例如PCIe接口等。
板卡10还包括用于存储数据的存储器件104,其包括一个或多个存储单元105。存储器件104通过总线与控制器件106和芯片101进行连接和数据传输。板卡10中的控制器件106配置用于对芯片101的状态进行调控。为此,在一个应用场景中,控制器件106可以包括单片机(Micro Controller Unit,MCU)。
图2是示出此实施例的芯片101中的组合处理装置的结构图。如图2中所示,组合处理装置20包括计算装置201、接口装置202、处理装置203和存储装置204。
计算装置201配置成执行用户指定的操作,主要实现为单核智能处理器或者多核智能处理器,用以执行深度学习或机器学习的计算,其可以通过接口装置202与处理装置203进行交互,以共同完成用户指定的操作。
接口装置202用于在计算装置201与处理装置203间传输数据和控制指令。例如,计算装置201可以经由接口装置202从处理装置203中获取输入数据,写入计算装置201片上的存储装置。进一步,计算装置201可以经由接口装置202从处理装置203中获取控制指令,写入计算装置201片上的控制缓存中。替代地或可选地,接口装置202也可以读取计算装置201的存储装置中的数据并传输给处理装置203。
处理装置203作为通用的处理装置,执行包括但不限于数据搬运、对计算装置201的开启和/或停止等基本控制。根据实现方式的不同,处理装置203可以是中央处理器(central processing unit,CPU)、图形处理器(graphics processing unit,GPU)或其他通用和/或专用处理器中的一种或多种类型的处理器,这些处理器包括但不限于数字信号处理器(digital signal processor,DSP)、专用集成电路(application specificintegrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,并且其数目可以根据实际需要来确定。如前所述,仅就本披露的计算装置201而言,其可以视为具有单核结构或者同构多核结构。然而,当将计算装置201和处理装置203整合共同考虑时,二者视为形成异构多核结构。
存储装置204用以存储待处理的数据,其可以是DRAM,为DDR内存,大小通常为16G或更大,用于保存计算装置201和/或处理装置203的数据。
图3示出了计算装置201为单核或多核装置时处理器核的内部结构示意图。计算装置301用以处理计算机视觉、语音、自然语言、数据挖掘等输入数据,计算装置301包括三大模块:控制模块31、运算模块32及存储模块33。
控制模块31用以协调并控制运算模块32和存储模块33的工作,以完成深度学习的任务,其包括取指单元(instruction fetch unit,IFU)311及指令译码单元(instructiondecode unit,IDU)312。取指单元311用以获取来自处理装置203的指令,指令译码单元312则将获取的指令进行译码,并将译码结果作为控制信息发送给运算模块32和存储模块33。
运算模块32包括向量运算单元321及矩阵运算单元322。向量运算单元321用以执行向量运算,可支持向量乘、加、非线性变换等复杂运算;矩阵运算单元322负责深度学习算法的核心计算,即矩阵乘及卷积。
存储模块33用来存储或搬运相关数据,包括神经元存储单元(neuron RAM,NRAM)331、参数存储单元(weight RAM,WRAM)332、直接内存访问模块(direct memory access,DMA)333。NRAM 331用以存储输入神经元、输出神经元和计算后的中间结果;WRAM 332则用以存储深度学习网络的卷积核,即权值;DMA 333通过总线34连接DRAM 204,负责计算装置301与DRAM 204间的数据搬运。
本披露的实施例基于前述硬件环境,提供一种数据处理电路,支持数据的结构化稀疏操作。通过提供一种结构化稀疏处理的硬件方案,可以简化并加速与结构化稀疏相关的各种处理。
图4示出根据本披露实施例的数据处理电路400的结构框图。数据处理电路400例如可以实现在图2的计算装置201中。如图所示,数据处理装置400可以包括控制电路410、存储电路420和运算电路430。
控制电路410的功能可以类似于图3的控制模块314,其例如可以包括取指单元,用以获取来自例如图2的处理装置203的指令,以及指令译码单元,用于将获取的指令进行译码,并将译码结果作为控制信息发送给运算电路430和存储电路420。
在一个实施例中,控制电路410可以配置用于控制存储电路420和运算电路430以对至少一个张量数据的一个维度进行结构化稀疏处理。
存储电路420可以配置用于存储稀疏化前和/或稀疏化后的信息。在一个实施例中,待结构化稀疏处理的数据可以是神经网络中的数据,例如权值、神经元等。在此实施例中,存储电路例如可以是图3的WRAM 332、NRAM 331。
运算电路430可以配置用于在控制电路410的控制下,对上述张量数据的一个维度进行结构化稀疏处理。
在一些实施例中,运算电路430可以包括结构化稀疏电路432,其可以配置用于根据稀疏规则,从输入数据的待稀疏维度的每m个数据元素中选择n个数据元素作为有效数据元素,其中m>n。在一个实现中,m=4,n=2。在另一些实现中,m=4时,n也可以取其他值,例如1或3。
在一些实施例中,需要对稀疏化后的数据进行其他处理,例如乘法操作、卷积操作等。图中示例性示出了运算电路430还可以包括卷积电路433,其可以配置用于对已结构化稀疏处理的数据执行卷积操作。例如,卷积电路433可以配置成接收待卷积的数据,并对其执行卷积操作。待卷积的数据至少包括从结构化稀疏电路432接收的稀疏化后的输入数据。
取决于不同的应用场景,结构化稀疏电路432可以根据不同的稀疏规则执行结构化稀疏处理。
图5A-图5C示出了本披露实施例的运算电路的部分结构示意图。如图所示,结构化稀疏电路510中可以包括第一结构化稀疏子电路512和/或第二结构化稀疏子电路514。第一结构化稀疏子电路512可以配置用于按照指定的稀疏掩码来对输入数据执行结构化稀疏处理。第二结构化稀疏子电路514则可以配置用于按照预定的稀疏规则对输入数据执行结构化稀疏处理。在下面的场景中,以需要对结构化稀疏后的数据进行卷积处理为例进行描述。这些场景例如可以发生在神经网络的推理或训练过程中。
在第一场景中,待卷积的数据之一(不防假设为第一数据)可能事先已经进行了结构化稀疏处理,而待处理的数据中另一(假设为第二数据)需要按照第一数据的稀疏方式进行结构化稀疏。
第一场景例如可以是神经网络的推理过程,第一数据是权值,其已经离线进行了结构化稀疏,因此可以直接使用稀疏后的权值作为卷积输入。第二数据是神经元,其尚未进行稀疏化处理,需要根据权值的稀疏化得到的索引部分来进行结构化稀疏。
第一场景例如也可以是神经网络的正向训练过程,也称为训练的正向过程。在此场景中,第一数据是权值,其在训练开始时预先进行了结构化稀疏,得到的数据部分和索引部分存储在例如DDR中,以便后续与第二数据执行卷积时使用。第二数据是神经元,其尚未进行稀疏化处理,需要根据权值稀疏化后的索引部分来进行结构化稀疏。
第一场景例如还可以是神经网络的反向权值梯度训练过程,或称训练的反向权值梯度过程。在此场景中,第一数据是权值,其在正向训练过程中已经进行了稀疏化,可以直接基于该稀疏化的权值进行更新。第二数据是权值梯度,其尚未进行稀疏化处理,需要根据权值的稀疏化得到的索引部分来进行结构化稀疏,从而与稀疏化后的权值相加,以更新权值。此时,可以利用第一结构化稀疏子电路对第二数据进行稀疏化处理。
图5A示出了第一场景中运算电路的部分结构示意图。如图所示,在此第一场景中,结构化稀疏电路510包括一个第一结构化稀疏子电路512,其接收输入的第二数据以及预先已结构化稀疏的第一数据的索引部分。第一结构化稀疏子电路512将第一数据的索引部分用作稀疏掩码,来对第二数据进行结构化稀疏处理。具体地,第一结构化稀疏子电路512根据第一数据的索引部分所指示的有效数据位置,从第一数据中提取对应位置的数据作为有效数据。在这些实施例中,第一结构化稀疏子电路512例如可以通过向量乘法或矩阵乘法等电路来实现。卷积电路520接收已结构化稀疏的第一数据以及从第一结构化稀疏子电路512输出的已稀疏化处理的第二数据,对二者执行卷积。
在第二场景中,待卷积的两个数据都未进行结构化稀疏处理,需要在卷积之前对两个数据分别进行结构化稀疏处理。此时,可以利用第二结构化稀疏子电路对第一数据和第二数据进行稀疏化处理。
图5B示出了第二场景中运算电路的部分结构示意图。如图所示,在此第二场景中,结构化稀疏电路510可以包括两个第二结构化稀疏子电路514,其分别接收待卷积的第一数据和第二数据,以便同时、独立地分别对第一数据和第二数据进行结构化稀疏处理,并将稀疏化后的数据输出给卷积电路520。第二结构化稀疏子电路514可以配置用于按照预定筛选规则来执行结构化稀疏处理,例如按照筛选绝对值较大的规则,从每m个数据元素中筛选出n个绝对值较大的数据元素作为有效数据元素。在这些实施例中,第二结构化稀疏子电路514例如可以通过配置由比较器等电路构成的多级运算流水线来实现上述处理。本领域技术人员可以理解,结构化稀疏电路510也可以只包括一个第二结构化稀疏子电路514,其顺次对第一数据和第二数据执行结构化稀疏处理。
在第三场景中,待卷积的两个数据都未进行结构化稀疏处理,需要在卷积之前对两个数据分别进行结构化稀疏处理,并且其中一个数据(例如,第一数据)需要使用另一数据(例如,第二数据)的稀疏化处理后的索引部分作为稀疏掩码。
第三场景例如可以是神经网络的正向训练过程,或称为训练的正向过程。第一数据是神经元,其尚未进行稀疏化处理,需要根据权值(也即,第二数据)的稀疏化得到的索引部分来进行结构化稀疏。第二数据是权值,需要进行结构化稀疏以得到稀疏化后的数据部分和索引部分,其中索引部分用作第一数据的稀疏化处理时的稀疏掩码,数据部分用于与稀疏化后的第一数据进行卷积运算。
图5C示出了第三场景中运算电路的部分结构示意图。如图所示,在此第三场景中,结构化稀疏电路510可以包括第一结构化稀疏子电路512和第二结构化稀疏子电路514。第二结构化稀疏子电路514可以配置用于按照预定筛选规则对例如第二数据执行结构化稀疏处理,并将稀疏化后的第二数据的索引部分提供给第一结构化稀疏子电路512。第一结构化稀疏子电路512将第二数据的索引部分用作稀疏掩码,来对第一数据进行结构化稀疏处理。卷积电路520从第一结构化稀疏子电路512和第二结构化稀疏子电路514分别接收已结构化稀疏的第一数据和第二处理,对二者执行卷积。
在第四场景中,待卷积的两个数据都未进行结构化稀疏处理,需要在卷积之前对两个数据应用相同的稀疏掩码进行结构化稀疏处理。第四场景例如可以是神经网络的正向训练过程,其中稀疏掩码已经预先生成并存储在例如DDR中。第一数据是神经元,其尚未进行稀疏化处理,需要根据稀疏掩码进行结构化稀疏。第二数据是权值,其也尚未进行稀疏化处理,需要根据稀疏掩码进行结构化稀疏。
图5D示出了第四场景中运算电路的部分结构示意图。如图所示,在此第四场景中,结构化稀疏电路510包括两个第一结构化稀疏子电路512,其分别接收输入的第一数据和第二数据以及预先生成的稀疏掩码。第一结构化稀疏子电路512根据该稀疏掩码,分别对第一数据和第二数据进行结构化稀疏处理。卷积电路520接收已结构化稀疏的第一数据和已稀疏化处理的第二数据,对二者执行卷积。
本领域技术人员还可以考虑其他应用场景,相应地设计结构化稀疏电路。例如,可能需要对待卷积的两个数据应用相同的稀疏掩码,此时,结构化稀疏电路中可以包括两个第一结构化稀疏子电路来处理。
图6示出了根据本披露一个实施例的结构化稀疏处理的示例性运算流水线。该流水线包括至少一个多级流水运算电路,其包括逐级布置的多个运算器并且配置成执行从m个数据元素中选择n个绝对值较大的数据元素作为有效数据元素的结构化稀疏处理,例如用于实现前述第二结构化稀疏子电路。在图6的实施例中,示出了当m=4,n=2时,从4个数据元素A、B、C和D中筛选出2个绝对值较大的数据元素的结构化稀疏处理。如图所示,可以利用由求绝对值运算器、比较器等构成的多级流水运算电路来执行上述结构化稀疏处理。
第一流水级可以包括m(4)个求绝对值运算器610,用于同步地分别对4个输入的数据元素A、B、C和D进行求绝对值操作。为了便于最后输出有效数据元素,在一些实施例中,第一流水级会同时输出原数据元素(也即,A、B、C和D)和经过求绝对值操作后的数据(也即,|A|、|B|、|C|和|D|)。
第二流水级可以包括排列组合电路620,用于对这m个绝对值进行排列组合,以生成m组数据,其中每组数据均包括这m个绝对值,并且这m个绝对值在各组数据中的位置互不相同。
在一些实施例中,排列组合电路可以是循环移位器,对m个绝对值(例如,|A|、|B|、|C|和|D|)的排列进行m-1次循环移位,从而生成m组数据。例如,在图中示出的示例中,生成4组数据,分别是:{|A|,|B|,|C|,|D|}、{|B|,|C|,|D|,|A|}、{|C|,|D|,|A|,|B|}和{|D|,|A|,|B|,|C|}。同样地,输出每组数据的同时还会输出对应的原数据元素,每组数据对应一个原数据元素。
第三流水级包括比较电路630,用于对这m组数据中的绝对值进行比较并生成比较结果。
在一些实施例中,第三流水级可以包括m路比较电路,每路比较电路包括m-1个比较器(631,632,633),第i路比较电路中的m-1个比较器用于将第i组数据中的一个绝对值与其他三个绝对值依次比较并生成比较结果,其中1≤i≤m。
从图中可以看出,第三流水级也可以认为是m-1(3)个子流水级。每个子流水级包括m个比较器,用于将其对应的一个绝对值与其他绝对值进行比较。m-1个子流水级也就是依次将对应的一个绝对值与其他m-1个绝对值进行比较。
例如,在图中示出的示例中,第一子流水级中的4个比较器631用于分别将4组数据中的第一个绝对值与第二个绝对值进行比较,并分别输出比较结果w0、x0、y0和z0。第二子流水级中的4个比较器632用于分别将4组数据中的第一个绝对值与第三个绝对值进行比较,并分别输出比较结果w1、x1、y1和z1。第三子流水级中的4个比较器633用于分别将4组数据中的第一个绝对值与第四个绝对值进行比较,并分别输出比较结果w2、x2、y2和z2。由此,可以得到每个绝对值与其他m-1个绝对值的比较结果。
在一些实施例中,比较结果可以使用位图来表示。例如,在第1路比较电路的第1个比较器处,当|A|≥|B|时,w0=1;在第1路第2个比较器处,当|A|<|C|时,w1=0;在第1路第3个比较器处,当|A|≥|D|时,w2=1,由此,第1路比较电路的输出结果是{A,w0,w1,w2},此时为{A,1,0,1}。类似地,第2路比较电路的输出结果是{B,x0,x1,x2},第3路比较电路的输出结果是{C,y0,y1,y2},第4路比较电路的输出结果是{D,z0,z1,z2}。
第四流水级包括筛选电路640,用于根据第三级的比较结果,从m个数据元素中选择n个绝对值较大的数据元素作为有效数据元素,以及输出这些有效数据元素及对应的索引。索引用于指示这些有效数据元素在输入的m个数据元素中的位置。例如,当从A、B、C、D四个数据元素中筛选出A和C时,其对应的索引可以是0和2。
根据比较结果,可以设计合适的逻辑来选择绝对值较大的n个数据元素。考虑到可能出现多个绝对值相同的情况,在进一步的实施例中,当存在绝对值相同的数据元素时,按照指定的优先级顺序来进行选择。例如,可以按照索引从低到高固定优先级的方式,设置A的优先级最高,D的优先级最低。在一个示例中,当A、C、D三个数的绝对值均相同并且大于B的绝对值时,选择的数据为A和C。
从前面的比较结果可以看出,根据w0、w1和w2可以分析出|A|比{|B|,|C|,|D|}几个数大。如果w0、w1和w2均为1,则表示|A|比|B|、|C|、|D|都大,为四个数中的最大值,因此选择A。如果w0、w1和w2中有两个1,则表示|A|是四个绝对值中的次大值,因此也选择A。否则,不选择A。因此,在一些实施例中,可以根据这些数值的出现次数来分析判断。
在一种实现中,可以基于如下逻辑来选择有效数据元素。首先,可以统计各个数据大于其他数据的次数。例如,定义NA=sum_w=w0+w1+w2,NB=sum_x=x0+x1+x2,NC=sum_y=y0+y1+y2,ND=sum_z=z0+z1+z2。接着,按如下条件进行判断选择。
选择A的条件为:NA=3,或者NA=2且NB/NC/ND中只有一个3;
选择B的条件为:NB=3,或者NB=2且NA/NC/ND中只有一个3,且NA≠2;
选择C的条件为:NC=3,且NA/NB中至多只有一个3,或者NC=2且NA/NB/ND中只有一个3,且NA/NB中没有2;
选择D的条件为:ND=3,且NA/NB/NC中至多只有一个3,或者ND=2且NA/NB/NC中只有一个3,且NA/NB/NC中没有2。
本领域技术人员可以理解,为了确保按预定优先级选择,上述逻辑中存在一定的冗余。基于比较结果提供的大小及顺序信息,本领域技术人员可以设计其他逻辑来实现有效数据元素的筛选,本披露在此方面没有限制。由此,通过图6的多级流水运算电路可以实现四选二的结构化稀疏处理。
本领域技术人员可以理解,还可以设计其他形式的流水运算电路来实现结构化稀疏处理,本披露在此方面没有限制。
稀疏化处理后的结果包括两部分:数据部分和索引部分。数据部分包括经稀疏化处理后的数据,也即根据结构化稀疏处理的筛选规则提取出的有效数据元素。索引部分用于指示稀疏化后的数据,也即有效数据元素在稀疏化前的原始数据(也即,待稀疏化数据)中的原始位置。
可以采取多种形式来表示和/或存储已结构化稀疏处理的数据。在一种实现中,已结构化稀疏处理的数据可以为结构体形式。在该结构体中,数据部分和索引部分相互绑定。在一些实施例中,索引部分中每1比特可以对应一个数据元素。例如,当数据类型是fix8时,一个数据元素为8比特,则索引部分中每1比特可以对应8比特的数据。在另一些实施例中,考虑到后续在使用结构体时硬件层面的实现,可以将结构体中的索引部分中每1比特设定为对应N比特数据的位置,N至少部分基于硬件配置确定。例如,可以设置为结构体中的索引部分的每1比特对应于4比特数据的位置。例如,当数据类型是fix8时,索引部分中每2比特对应于一个fix8类型的数据元素。在一些实施例中,结构体中的数据部分可以按照第一对齐要求对齐,结构体中的索引部分可以按照第二对齐要求对齐,从而整个结构体也满足对齐要求。例如,数据部分可以按照64B对齐,索引部分可以按照32B对齐,整个结构体则按照96B(64B+32B)对齐。通过这种对齐要求,在后续使用时可以减少访存次数,提高处理效率。
通过使用这种结构体,数据部分和索引部分可以统一使用。由于结构化稀疏处理中,有效数据元素占据原始数据元素的比例是固定的,例如n/m,因此,稀疏化处理后的数据大小也是固定或可预期的。从而,结构体可以在存储电路中致密存储而无性能损失。
在另一些实现中,稀疏化处理后得到的数据部分和索引部分也可以分开表示和/或存储,以便单独使用。例如,已结构化稀疏处理的第二输入数据的索引部分可以提供给第一结构化稀疏电路512,以用作掩码,对第一输入数据进行结构化稀疏处理。此时,为了使用不同的数据类型,单独提供的索引部分中每1比特可以指示一个数据元素是否有效。
回到图4,在一些实施例中,运算电路430还可以包括前处理电路431和后处理电路434。其中,前处理电路431可以配置成对结构化稀疏电路432和/或卷积电路433执行运算前的数据进行预处理;后处理电路434可以配置成对卷积电路433运算后的数据进行后处理。
在一些应用场景中,前述的预处理和后处理可以例如包括数据拆分和/或数据拼接操作。在结构化稀疏处理中,前处理电路可以将待稀疏化数据按照每m个数据元素进行分段拆分,然后送给结构化稀疏电路432进行结构化稀疏处理。此外,前处理电路还可以控制向结构化稀疏电路输送数据的速率。例如在涉及结构化稀疏的处理中,前处理电路可以以第一速率向结构化稀疏电路输送数据;而在不涉及结构化稀疏的处理中,前处理电路可以以第二速率向卷积电路输送数据。第一速率大于第二速率,其比例例如等于结构化稀疏处理中的稀疏比例,例如m/n。例如在4选2的结构化稀疏处理中,第一速率是第二速率的2倍。由此,第一速率至少部分基于卷积电路的处理能力和结构化稀疏处理的稀疏比例来确定。后处理电路434可以对卷积电路的输出结果进行融合处理,诸如加法、减法、乘法等操作。
如前面所提到的,结构化稀疏处理的数据可以是神经网络中的数据,例如权值、神经元等。神经网络中的数据通常包含多个维度,也称为张量数据。例如,在卷积神经网络中,数据可能存在四个维度:输入通道、输出通道、长度和宽度。在一些实施例中,上述结构化稀疏针对神经网络中多维数据的一个维度执行。具体地,在一个实现中,上述结构化稀疏可以用于神经网络的正向过程(例如,推理,或正向训练)中的结构化稀疏,此时的结构化稀疏处理针对神经网络中的多维数据的输入通道维度执行。在另一个实现中,上述结构化稀疏可以用于神经网络的反向过程(例如,反向权值梯度训练)中的结构化稀疏,此时的结构化稀疏处理针对神经网络中的多维数据的输入通道维度。
从前面提到的各种应用场景可知,对于权值的结构化稀疏,本披露实施例至少提供了两种调度方案。
具体地,在一个实施例中,可以在正向训练时,在线预先对权值进行结构化稀疏,得到的索引部分和数据部分可以在后续与神经元执行结构化稀疏的卷积过程时直接使用。例如,在以片上系统-集群-处理器核的层次构成的多核计算装置中,可以将对权值进行结构化稀疏的任务进行并行拆分,从片上系统拆分到不同的集群,再从集群拆分到不同的处理器核并行执行,提高执行速度。各个处理器核计算完成后,将所有处理器核生成的索引部分和数据部分写回内存(例如DDR)。然后在正向训练时,将权值的索引部分和数据部分重新完整发送给不同的处理器核执行结构化稀疏相关的操作(例如,结构化稀疏卷积操作),其中索引部分作为执行过程中稀疏化的掩码,数据部分则直接参与卷积运算。通过预先进行权值的结构化稀疏,可以降低与后续运算(例如,卷积)串行执行的裸露开销。该调度方案占用DDR空间来存储稀疏后的权值的数据部分和索引部分(例如,以结构体的形式存储),在重复加载参与运算的权值时不需要重新执行稀疏化过程。当权值重复加载次数大于2时,可以存在明显的IO收益,总体时间开销也存在较大收益。因此,当神经元数据较大,无法完全使用,需要重复加载权值时,采用本实施例提供的调度方案可以提高执行性能。
在另一实施例中,可以在正向训练时,在线对权值和神经元进行结构化稀疏,结构化稀疏所使用的稀疏掩码是预先生成。由于稀疏掩码的使用周期很长,其生成频率可以为K次迭代生成一次,因此不需要每次重复生成稀疏掩码,而是可以缓存在DDR中作为每个迭代的结构化稀疏的输入。在此实施例中,可以直接向每个处理器核发送运算所需要的未稀疏化的权值、神经元和稀疏掩码,稀疏处理后的权值和神经元直接参与运算。相比于上一实施例,此实施例无需额外占用DDR来缓存稀疏处理后的权值数据,而是直接用于后续运算。因此,当神经元数据较小,例如可以一次加载完,从而无需重复加载权值时,采用本实施例提供的调度方案可以提高执行性能。
从上面描述可知,本披露实施例提供了一种硬件方案,用于执行与结构化稀疏相关的处理。这种结构化稀疏处理可以支持神经网络的推理和训练过程,对神经网络中张量数据的一个维度(例如,输入通道维度)进行结构化稀疏处理。通过提供专门的结构化稀疏硬件来执行与结构化稀疏相关的操作,可以简化处理,由此提高机器的处理效率。
根据不同的应用场景,本披露的电子设备或装置可以包括服务器、云端服务器、服务器集群、数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、PC设备、物联网终端、移动终端、手机、行车记录仪、导航仪、传感器、摄像头、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、视觉终端、自动驾驶终端、交通工具、家用电器、和/或医疗设备。所述交通工具包括飞机、轮船和/或车辆;所述家用电器包括电视、空调、微波炉、冰箱、电饭煲、加湿器、洗衣机、电灯、燃气灶、油烟机;所述医疗设备包括核磁共振仪、B超仪和/或心电图仪。本披露的电子设备或装置还可以被应用于互联网、物联网、数据中心、能源、交通、公共管理、制造、教育、电网、电信、金融、零售、工地、医疗等领域。进一步,本披露的电子设备或装置还可以用于云端、边缘端、终端等与人工智能、大数据和/或云计算相关的应用场景中。在一个或多个实施例中,根据本披露方案的算力高的电子设备或装置可以应用于云端设备(例如云端服务器),而功耗小的电子设备或装置可以应用于终端设备和/或边缘端设备(例如智能手机或摄像头)。在一个或多个实施例中,云端设备的硬件信息和终端设备和/或边缘端设备的硬件信息相互兼容,从而可以根据终端设备和/或边缘端设备的硬件信息,从云端设备的硬件资源中匹配出合适的硬件资源来模拟终端设备和/或边缘端设备的硬件资源,以便完成端云一体或云边端一体的统一管理、调度和协同工作。
需要说明的是,为了简明的目的,本披露将一些方法及其实施例表述为一系列的动作及其组合,但是本领域技术人员可以理解本披露的方案并不受所描述的动作的顺序限制。因此,依据本披露的公开或教导,本领域技术人员可以理解其中的某些步骤可以采用其他顺序来执行或者同时执行。进一步,本领域技术人员可以理解本披露所描述的实施例可以视为可选实施例,即其中所涉及的动作或模块对于本披露某个或某些方案的实现并不一定是必需的。另外,根据方案的不同,本披露对一些实施例的描述也各有侧重。鉴于此,本领域技术人员可以理解本披露某个实施例中没有详述的部分,也可以参见其他实施例的相关描述。
在具体实现方面,基于本披露的公开和教导,本领域技术人员可以理解本披露所公开的若干实施例也可以通过本文未公开的其他方式来实现。例如,就前文所述的电子设备或装置实施例中的各个单元来说,本文在考虑了逻辑功能的基础上对其进行拆分,而实际实现时也可以有另外的拆分方式。又例如,可以将多个单元或组件结合或者集成到另一个系统,或者对单元或组件中的一些特征或功能进行选择性地禁用。就不同单元或组件之间的连接关系而言,前文结合附图所讨论的连接可以是单元或组件之间的直接或间接耦合。在一些场景中,前述的直接或间接耦合涉及利用接口的通信连接,其中通信接口可以支持电性、光学、声学、磁性或其它形式的信号传输。
在本披露中,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元示出的部件可以是或者也可以不是物理单元。前述部件或单元可以位于同一位置或者分布到多个网络单元上。另外,根据实际的需要,可以选择其中的部分或者全部单元来实现本披露实施例所述方案的目的。另外,在一些场景中,本披露实施例中的多个单元可以集成于一个单元中或者各个单元物理上单独存在。
在另外一些实现场景中,上述集成的单元也可以采用硬件的形式实现,即为具体的硬件电路,其可以包括数字电路和/或模拟电路等。电路的硬件结构的物理实现可以包括但不限于物理器件,而物理器件可以包括但不限于晶体管或忆阻器等器件。鉴于此,本文所述的各类装置(例如计算装置或其他处理装置)可以通过适当的硬件处理器来实现,例如中央处理器、GPU、FPGA、DSP和ASIC等。进一步,前述的所述存储单元或存储装置可以是任意适当的存储介质(包括磁存储介质或磁光存储介质等),其例如可以是可变电阻式存储器(Resistive Random Access Memory,RRAM)、动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)、静态随机存取存储器(Static Random Access Memory,SRAM)、增强动态随机存取存储器(Enhanced Dynamic Random Access Memory,EDRAM)、高带宽存储器(High Bandwidth Memory,HBM)、混合存储器立方体(Hybrid Memory Cube,HMC)、ROM和RAM等。
依据以下条款可更好地理解前述内容:
条款1、一种数据处理电路,包括控制电路、存储电路和运算电路,其中:
所述控制电路配置用于控制所述存储电路和所述运算电路以对至少一个张量数据的一个维度进行结构化稀疏处理;
所述存储电路配置用于存储信息,所述信息至少包括稀疏化前和/或稀疏化后的信息;以及
所述运算电路配置用于在所述控制电路的控制下,对所述张量数据的一个维度进行结构化稀疏处理。
条款2、根据条款1所述的数据处理电路,其中所述运算电路包括结构化稀疏电路,配置用于根据稀疏规则,从输入数据的待稀疏维度的每m个数据元素中选择n个数据元素作为有效数据元素,其中m>n。
条款3、根据条款2所述的数据处理电路,其中所述结构化稀疏电路包括:
第一结构化稀疏子电路,配置用于按照指定的稀疏掩码对输入数据执行结构化稀疏处理。
条款4、根据条款2或3所述的数据处理电路,其中所述结构化稀疏电路包括:
第二结构化稀疏子电路,配置用于按照预定的稀疏规则对输入数据执行结构化稀疏处理。
条款5、根据条款3或4所述的数据处理电路,其中所述至少一个张量数据包括第一数据,所述运算电路配置用于:
利用第一结构化稀疏子电路,将已结构化稀疏处理的第二数据对应的索引部分作为稀疏掩码,对所述第一数据执行结构化稀疏处理,其中所述索引部分指示将要执行的结构化稀疏中有效数据元素的位置。
条款6、根据条款5所述的数据处理电路,其中:
所述已结构化稀疏处理的第二数据是在线预先或离线进行结构化稀疏处理并存储在所述存储电路中的,或者
所述已结构化稀疏处理的第二数据是在线利用所述第二结构化稀疏子电路进行结构化稀疏处理而生成的。
条款7、根据条款5-6任一所述的数据处理电路,其中所述运算电路还包括:
卷积电路,其配置用于对已结构化稀疏处理的第一数据和第二数据执行卷积操作。
条款8、根据条款5-7任一所述的数据处理电路,其中所述已结构化稀疏处理的第二数据为结构体形式,所述结构体包括相互绑定的数据部分和索引部分,所述数据部分包括已结构化稀疏处理后的有效数据元素,所述索引部分用于指示稀疏化后的数据在稀疏化前数据中的位置。
条款9、根据条款4-8任一所述的数据处理电路,其中所述第二结构化稀疏子电路进一步包括:至少一个多级流水运算电路,其包括逐级布置的多个运算器并且配置成执行从m个数据元素中选择n个绝对值较大的数据元素作为有效数据元素的结构化稀疏处理。
条款10、根据条款9所述的数据处理电路,其中所述多级流水运算电路包括四个流水级,其中:
第一流水级包括m个求绝对值运算器,用于分别对待稀疏化的m个数据元素取绝对值,以生成m个绝对值;
第二流水级包括排列组合电路,用于对所述m个绝对值进行排列组合,以生成m组数据,其中每组数据均包括所述m个绝对值并且所述m个绝对值在各组数据中的位置互不相同;
第三流水级包括m路比较电路,用于对所述m组数据中的绝对值进行比较并生成比较结果;以及
第四流水级包括筛选电路,用于根据所述比较结果选择n个绝对值较大的数据元素作为有效数据元素,以及输出所述有效数据元素及对应的索引,所述索引指示所述有效数据元素在所述m个数据元素中的位置。
条款11、根据条款10所述的数据处理电路,其中所述第三流水级中每路比较电路包括m-1个比较器,第i路比较电路中的m-1个比较器用于将第i组数据中的一个绝对值与其他三个绝对值依次比较并生成比较结果,1≤i≤m。
条款12、根据条款10-11任一所述的数据处理电路,其中所述筛选电路进一步配置用于,当存在绝对值相同的数据元素时,按照指定的优先级顺序进行选择。
条款13、根据条款1-12任一所述的数据处理电路,其中所述一个维度包括输入通道维度,并且所述结构化稀疏处理的单位是所述张量数据的输入通道维度的数据行。
条款14、根据条款1-13任一所述的数据处理电路,所述数据处理电路用于以下任一过程:
神经网络的推理过程;
神经网络的正向训练过程;以及
神经网络的反向权值梯度训练过程。
条款15、一种芯片,包括根据条款1-14任一所述的数据处理电路。
条款16、一种板卡,包括根据条款15所述的芯片。
条款17、一种使用条款1-14任一所述的数据处理电路来处理数据的方法。
以上对本披露实施例进行了详细介绍,本文中应用了具体个例对本披露的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本披露的方法及其核心思想;同时,对于本领域的一般技术人员,依据本披露的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本披露的限制。
Claims (17)
1.一种数据处理电路,包括控制电路、存储电路和运算电路,其中:
所述控制电路配置用于控制所述存储电路和所述运算电路以对至少一个张量数据的一个维度进行结构化稀疏处理;
所述存储电路配置用于存储信息,所述信息至少包括稀疏化前和/或稀疏化后的信息;以及
所述运算电路配置用于在所述控制电路的控制下,对所述张量数据的一个维度进行结构化稀疏处理。
2.根据权利要求1所述的数据处理电路,其中所述运算电路包括结构化稀疏电路,配置用于根据稀疏规则,从输入数据的待稀疏维度的每m个数据元素中选择n个数据元素作为有效数据元素,其中m>n。
3.根据权利要求2所述的数据处理电路,其中所述结构化稀疏电路包括:
第一结构化稀疏子电路,配置用于按照指定的稀疏掩码对输入数据执行结构化稀疏处理。
4.根据权利要求2或3所述的数据处理电路,其中所述结构化稀疏电路包括:
第二结构化稀疏子电路,配置用于按照预定的稀疏规则对输入数据执行结构化稀疏处理。
5.根据权利要求3或4所述的数据处理电路,其中所述至少一个张量数据包括第一数据,所述运算电路配置用于:
利用第一结构化稀疏子电路,将已结构化稀疏处理的第二数据对应的索引部分作为稀疏掩码,对所述第一数据执行结构化稀疏处理,其中所述索引部分指示将要执行的结构化稀疏中有效数据元素的位置。
6.根据权利要求5所述的数据处理电路,其中:
所述已结构化稀疏处理的第二数据是在线预先或离线进行结构化稀疏处理并存储在所述存储电路中的,或者
所述已结构化稀疏处理的第二数据是在线利用所述第二结构化稀疏子电路进行结构化稀疏处理而生成的。
7.根据权利要求5-6任一所述的数据处理电路,其中所述运算电路还包括:
卷积电路,其配置用于对已结构化稀疏处理的第一数据和第二数据执行卷积操作。
8.根据权利要求5-7任一所述的数据处理电路,其中所述已结构化稀疏处理的第二数据为结构体形式,所述结构体包括相互绑定的数据部分和索引部分,所述数据部分包括已结构化稀疏处理后的有效数据元素,所述索引部分用于指示稀疏化后的数据在稀疏化前数据中的位置。
9.根据权利要求4-8任一所述的数据处理电路,其中所述第二结构化稀疏子电路进一步包括:至少一个多级流水运算电路,其包括逐级布置的多个运算器并且配置成执行从m个数据元素中选择n个绝对值较大的数据元素作为有效数据元素的结构化稀疏处理。
10.根据权利要求9所述的数据处理电路,其中所述多级流水运算电路包括四个流水级,其中:
第一流水级包括m个求绝对值运算器,用于分别对待稀疏化的m个数据元素取绝对值,以生成m个绝对值;
第二流水级包括排列组合电路,用于对所述m个绝对值进行排列组合,以生成m组数据,其中每组数据均包括所述m个绝对值并且所述m个绝对值在各组数据中的位置互不相同;
第三流水级包括m路比较电路,用于对所述m组数据中的绝对值进行比较并生成比较结果;以及
第四流水级包括筛选电路,用于根据所述比较结果选择n个绝对值较大的数据元素作为有效数据元素,以及输出所述有效数据元素及对应的索引,所述索引指示所述有效数据元素在所述m个数据元素中的位置。
11.根据权利要求10所述的数据处理电路,其中所述第三流水级中每路比较电路包括m-1个比较器,第i路比较电路中的m-1个比较器用于将第i组数据中的一个绝对值与其他三个绝对值依次比较并生成比较结果,1≤i≤m。
12.根据权利要求10-11任一所述的数据处理电路,其中所述筛选电路进一步配置用于,当存在绝对值相同的数据元素时,按照指定的优先级顺序进行选择。
13.根据权利要求1-12任一所述的数据处理电路,其中所述一个维度包括输入通道维度,并且所述结构化稀疏处理的单位是所述张量数据的输入通道维度的数据行。
14.根据权利要求1-13任一所述的数据处理电路,所述数据处理电路用于以下任一过程:
神经网络的推理过程;
神经网络的正向训练过程;以及
神经网络的反向权值梯度训练过程。
15.一种芯片,包括根据权利要求1-14任一所述的数据处理电路。
16.一种板卡,包括根据权利要求15所述的芯片。
17.一种使用权利要求1-14任一所述的数据处理电路来处理数据的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011566159.1A CN114692847B (zh) | 2020-12-25 | 2020-12-25 | 数据处理电路、数据处理方法及相关产品 |
US18/257,723 US20240070445A1 (en) | 2020-12-25 | 2021-09-23 | Data processing circuit, data processing method, and related products |
PCT/CN2021/119946 WO2022134688A1 (zh) | 2020-12-25 | 2021-09-23 | 数据处理电路、数据处理方法及相关产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011566159.1A CN114692847B (zh) | 2020-12-25 | 2020-12-25 | 数据处理电路、数据处理方法及相关产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114692847A true CN114692847A (zh) | 2022-07-01 |
CN114692847B CN114692847B (zh) | 2024-01-09 |
Family
ID=82130854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011566159.1A Active CN114692847B (zh) | 2020-12-25 | 2020-12-25 | 数据处理电路、数据处理方法及相关产品 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240070445A1 (zh) |
CN (1) | CN114692847B (zh) |
WO (1) | WO2022134688A1 (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170316312A1 (en) * | 2016-05-02 | 2017-11-02 | Cavium, Inc. | Systems and methods for deep learning processor |
CN107909148A (zh) * | 2017-12-12 | 2018-04-13 | 北京地平线信息技术有限公司 | 用于执行卷积神经网络中的卷积运算的装置 |
CN108388446A (zh) * | 2018-02-05 | 2018-08-10 | 上海寒武纪信息科技有限公司 | 运算模块以及方法 |
CN109740739A (zh) * | 2018-12-29 | 2019-05-10 | 北京中科寒武纪科技有限公司 | 神经网络计算装置、神经网络计算方法及相关产品 |
CN111027691A (zh) * | 2019-12-25 | 2020-04-17 | 上海寒武纪信息科技有限公司 | 用于神经网络运算的计算装置及其集成电路板卡 |
CN111160516A (zh) * | 2018-11-07 | 2020-05-15 | 杭州海康威视数字技术股份有限公司 | 一种深度神经网络的卷积层稀疏化方法及装置 |
US20200285892A1 (en) * | 2017-04-04 | 2020-09-10 | Hailo Technologies Ltd. | Structured Weight Based Sparsity In An Artificial Neural Network |
CN111752530A (zh) * | 2019-03-29 | 2020-10-09 | 英特尔公司 | 对块稀疏度的机器学习架构支持 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10635968B2 (en) * | 2016-03-24 | 2020-04-28 | Intel Corporation | Technologies for memory management of neural networks with sparse connectivity |
CN107341544B (zh) * | 2017-06-30 | 2020-04-10 | 清华大学 | 一种基于可分割阵列的可重构加速器及其实现方法 |
CN108510066B (zh) * | 2018-04-08 | 2020-05-12 | 湃方科技(天津)有限责任公司 | 一种应用于卷积神经网络的处理器 |
CN109598338B (zh) * | 2018-12-07 | 2023-05-19 | 东南大学 | 一种基于fpga的计算优化的卷积神经网络加速器 |
-
2020
- 2020-12-25 CN CN202011566159.1A patent/CN114692847B/zh active Active
-
2021
- 2021-09-23 WO PCT/CN2021/119946 patent/WO2022134688A1/zh active Application Filing
- 2021-09-23 US US18/257,723 patent/US20240070445A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170316312A1 (en) * | 2016-05-02 | 2017-11-02 | Cavium, Inc. | Systems and methods for deep learning processor |
US20200285892A1 (en) * | 2017-04-04 | 2020-09-10 | Hailo Technologies Ltd. | Structured Weight Based Sparsity In An Artificial Neural Network |
CN107909148A (zh) * | 2017-12-12 | 2018-04-13 | 北京地平线信息技术有限公司 | 用于执行卷积神经网络中的卷积运算的装置 |
CN108388446A (zh) * | 2018-02-05 | 2018-08-10 | 上海寒武纪信息科技有限公司 | 运算模块以及方法 |
CN111160516A (zh) * | 2018-11-07 | 2020-05-15 | 杭州海康威视数字技术股份有限公司 | 一种深度神经网络的卷积层稀疏化方法及装置 |
CN109740739A (zh) * | 2018-12-29 | 2019-05-10 | 北京中科寒武纪科技有限公司 | 神经网络计算装置、神经网络计算方法及相关产品 |
CN111752530A (zh) * | 2019-03-29 | 2020-10-09 | 英特尔公司 | 对块稀疏度的机器学习架构支持 |
CN111027691A (zh) * | 2019-12-25 | 2020-04-17 | 上海寒武纪信息科技有限公司 | 用于神经网络运算的计算装置及其集成电路板卡 |
Non-Patent Citations (2)
Title |
---|
XIAOMING CHEN等: "NICSLU: An Adaptive Sparse Matrix Solver for Parallel Circuit Simulation", 《IEEE TRANSACTIONS ON COMPUTER-AIDED DESIGN OF INTEGRATED CIRCUITS AND SYSTEMS》, vol. 32, no. 2, XP011488865, DOI: 10.1109/TCAD.2012.2217964 * |
杨一晨等: "一种基于可编程逻辑器件的卷积神经网络协处理器设计", 《西安交通大学学报》, no. 07 * |
Also Published As
Publication number | Publication date |
---|---|
CN114692847B (zh) | 2024-01-09 |
WO2022134688A1 (zh) | 2022-06-30 |
US20240070445A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111047022A (zh) | 一种计算装置及相关产品 | |
CN110490317B (zh) | 神经网络运算装置及运算方法 | |
CN111178492B (zh) | 计算装置及相关产品、执行人工神经网络模型的计算方法 | |
WO2022095676A1 (zh) | 神经网络稀疏化的设备、方法及相应产品 | |
CN114692847B (zh) | 数据处理电路、数据处理方法及相关产品 | |
CN114692844A (zh) | 数据处理装置、数据处理方法及相关产品 | |
CN112766475A (zh) | 处理部件及人工智能处理器 | |
CN114692846A (zh) | 数据处理装置、数据处理方法及相关产品 | |
CN113867799A (zh) | 计算装置、集成电路芯片、板卡、电子设备和计算方法 | |
CN113469365B (zh) | 基于神经网络模型的推理和编译方法及其相关产品 | |
CN114692845A (zh) | 数据处理装置、数据处理方法及相关产品 | |
CN114691561A (zh) | 数据处理电路、数据处理方法及相关产品 | |
CN113792867B (zh) | 运算电路、芯片和板卡 | |
CN114692074A (zh) | 矩阵乘法电路、方法及相关产品 | |
CN114691559A (zh) | 数据处理电路、数据处理方法及相关产品 | |
CN114691083A (zh) | 矩阵乘法电路、方法及相关产品 | |
CN115438777A (zh) | 对神经元数据执行Winograd卷积正变换的装置 | |
CN113746471A (zh) | 运算电路、芯片和板卡 | |
CN114691560A (zh) | 数据处理电路、数据处理方法及相关产品 | |
CN113867797A (zh) | 计算装置、集成电路芯片、板卡、电子设备和计算方法 | |
CN114692841A (zh) | 数据处理装置、数据处理方法及相关产品 | |
CN115237371A (zh) | 计算装置、数据处理方法及相关产品 | |
CN115438778A (zh) | 执行Winograd卷积的集成电路装置 | |
CN114444677A (zh) | 进行稀疏化训练的装置、板卡、方法及可读存储介质 | |
CN114444678A (zh) | 稀疏化神经网络层的设备、方法及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |