CN114003198B - 内积处理部件、任意精度计算设备、方法及可读存储介质 - Google Patents
内积处理部件、任意精度计算设备、方法及可读存储介质 Download PDFInfo
- Publication number
- CN114003198B CN114003198B CN202111221317.4A CN202111221317A CN114003198B CN 114003198 B CN114003198 B CN 114003198B CN 202111221317 A CN202111221317 A CN 202111221317A CN 114003198 B CN114003198 B CN 114003198B
- Authority
- CN
- China
- Prior art keywords
- vector
- unit
- bit
- data
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/57—Arithmetic logic units [ALU], i.e. arrangements or devices for performing two or more of the operations covered by groups G06F7/483 – G06F7/556 or for performing logical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/78—Architectures of general purpose stored program computers comprising a single central processing unit
- G06F15/7807—System on chip, i.e. computer system on a single chip; System in package, i.e. computer system on one or more chips in a single package
- G06F15/7821—Tightly coupled to memory, e.g. computational memory, smart memory, processor in memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Data Mining & Analysis (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Complex Calculations (AREA)
Abstract
本发明涉及一种任意精度计算设备、方法及计算机可读存储介质,核内存代理器自片外内存读取多个操作数;核控制器将多个操作数拆分成多个向量;处理阵列包括多个处理部件,处理部件根据第一向量及第二向量的长度,内积第一向量与第二向量,以获得内积结果;核控制器将内积结果整合成多个操作数的计算结果,核内存代理器将计算结果存储至片外内存。
Description
技术领域
本发明一般地涉及计算机领域。更具体地,本发明涉及内积处理部件、任意精度计算设备、方法及可读存储介质。
背景技术
任意精确计算是利用任意位数来表示操作数,在许多技术领域至关重要,例如超新星模拟、气候模拟、原子模拟、人工智能、行星轨道计算等。这些领域需要处理数百、甚至数千或数百万位数的数据,这样大范围的数据位数处理远远超出了传统处理器的硬件能力。
即使现有技术使用高位宽的处理器,也无法处理任意精确计算操作所需的可变长度,原因在于:最优比特宽在不同算法之间变化很大,且比特宽的细微差异会导致显著的成本差异。再者,现有技术还提出了许多提高体系结构级计算效率的技术,主要是纯效计算(effectual-only computation)和近似计算,前者只执行基本计算,其中无效的计算像是稀疏化和重复数据会被跳过或消除,后者使用较不准确的数据像是低位宽数据或量化后数据,来代替原始的准确数据的计算。然而,对于纯效计算来说,要找到重复数据十分困难且昂贵,对于近似计算来说,它直观地与任意精确计算的目的相矛盾,任意精确计算需要精确的计算来获得较高的精度。最后,这些现有技术不可避免地都会导致大量低效的内存访问。
因此,一种高效的任意精确计算方案是迫切需要的。
发明内容
为了至少部分地解决背景技术中提到的技术问题,本发明的方案提供了一种内积处理部件、任意精度计算设备、方法及可读存储介质。
在一个方面中,本发明揭露一种用以内积第一向量与第二向量的处理部件,包括:转换单元、多个内积单元及合成单元。转换单元用以根据第一向量的长度及位宽生成多个模式向量。每个内积单元基于第二向量在长度方向上的数据向量为索引,累加多个模式向量中的特定模式向量,以形成单位累加数列。合成单元用以加总多个单位累加数列,以获得内积结果。
在另一个方面,本发明揭露一种任意精度计算加速器,连接至片外内存,任意精度计算加速器包括:核内存代理器、核控制器及处理阵列。核内存代理器用以自片外内存读取多个操作数。核控制器用以将多个操作数拆分成多个向量,多个向量包括第一向量及第二向量。处理阵列包括多个处理部件,处理部件用以根据第一向量及第二向量的长度,内积第一向量与第二向量,以获得内积结果。其中,核控制器将内积结果整合成多个操作数的计算结果,核内存代理器将计算结果存储至片外内存。
在另一个方面,本发明揭露一种集成电路装置,包括前述的任意精度计算加速器、处理装置及片外内存。处理装置用以控制任意精度计算加速器,片外内存包括LLC。其中,任意精度计算加速器与处理装置通过LLC联系。
在另一个方面,本发明揭露一种板卡,包括前述的集成电路装置。
在另一个方面,本发明揭露一种内积第一向量与第二向量的方法,包括:根据第一向量的长度及位宽生成多个模式向量;基于第二向量在长度方向上的数据向量为索引,累加多个模式向量中的特定模式向量,以形成多个单位累加数列;以及加总多个单位累加数列,以获得内积结果。
在另一个方面,本发明揭露一种任意精度计算方法,包括:自片外内存读取多个操作数;将多个操作数拆分成多个向量,多个向量包括第一向量及第二向量;根据第一向量及第二向量的长度,内积第一向量与第二向量,以获得内积结果;将内积结果整合成多个操作数的计算结果;以及将计算结果存储至片外内存。
在另一个方面,本发明揭露一种计算机可读存储介质,其上存储有任意精度计算的计算机程序代码,当所述计算机程序代码由处理装置运行时,执行前述的方法。
本发明提出一种处理任意精度计算方案,并行处理不同的比特流,其部署了完整的比特串行数据路径,以灵活弹性地执行高精度计算。本发明充分利用简易硬件配置,减少重复计算,进而实现低能耗的任意精确计算。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,并且相同或对应的标号表示相同或对应的部分。其中:
图1是示出本发明实施例的板卡的结构图;
图2是示出本发明实施例的集成电路装置的结构图;
图3是示出本发明实施例的计算装置的内部结构示意图;
图4是示出示例性乘法运算的示意图;
图5是示出本发明实施例的转换单元的示意图;
图6是示出本发明实施例的生成单元的示意图;
图7是示出本发明实施例的内积单元的示意图;
图8是示出本发明实施例的合成单元的示意图;
图9是示出本发明实施例的全加器组的示意图;
图10是示出本发明另一实施例的任意精度计算的流程图;以及
图11是示出本发明另一实施例的内积第一向量与第二向量的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,本发明的权利要求、说明书及附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。本发明的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的,而并不意在限定本发明。如在本发明说明书和权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本发明说明书和权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。
下面结合附图来详细描述本发明的具体实施方式。
任意精度计算在许多科技领域中都起到关键作用。举例来说,看似平凡的方程式x3+y3+z3=3,利用计算机求解会需要200位以上的精度;在伊辛理论(Ising theory)中,计算积分需要1000位以上的精度;而计算双曲空间(hyperbolic space)中的结点余空间(knot complement)的体积则涉及高达60000位精度。一个非常微小的精度误差都可能导致计算结果的巨大差异,因此任意精度计算在计算机领域是十分严肃的技术课题。
本发明提出了一种高效的任意精度计算加速器架构,其主要参考内积运算的计算形式,突出加速器架构的操作内并行性(intra-parallelism)和操作间并行性(inter-parallelism),以实现操作数的乘法运算。
图1示出本发明实施例的一种板卡10的结构示意图。如图1所示,板卡10包括芯片101,其是一种系统级芯片(System on Chip,SoC),或称片上系统,集成有一个或多个组合处理装置,组合处理装置是一种人工智能运算单元,用以支持各类深度学习和机器学习算法,满足计算机视觉、语音、自然语言处理、数据挖掘等领域复杂场景下的智能处理需求。特别是深度学习技术大量应用在云端智能领域,云端智能应用的一个显著特点是输入数据量大,对平台的存储能力和计算能力有很高的要求,此实施例的板卡10适用在云端智能应用,具有庞大的片外存储、片上存储和强大的计算能力。
芯片101通过对外接口装置102与外部设备103相连接。外部设备103例如是服务器、计算机、摄像头、显示器、鼠标、键盘、网卡或wifi接口等。待处理的数据可以由外部设备103通过对外接口装置102传递至芯片101。芯片101的计算结果可以经由对外接口装置102传送回外部设备103。根据不同的应用场景,对外接口装置102可以具有不同的接口形式,例如PCIe接口等。
板卡10还包括用于存储数据的存储器件104,其包括一个或多个存储单元105。存储器件104通过总线与控制器件106和芯片101进行连接和数据传输。板卡10中的控制器件106配置用于对芯片101的状态进行调控。为此,在一个应用场景中,控制器件106可以包括单片机(Micro Controller Unit,MCU)。
图2是示出此实施例的芯片101中的组合处理装置的结构图。如图2中所示,组合处理装置包括计算装置201、处理装置202、片外内存203、通信节点204及接口装置205。在此实施例中,有几种集成方案可以用来协同计算装置201、处理装置202、片外内存203的工作,其中图2A示出LLC集成方案,图2B示出SoC集成方案,图2C示出IO集成方案。
计算装置201配置成执行用户指定的操作,主要实现为多核智能处理器,用以执行深度学习或机器学习的计算,其可以与处理装置202进行交互,以共同完成用户指定的操作。计算装置201内含前述的任意精度计算加速器,用以处理线性计算,更详细来说是应用在如卷积中的操作数乘法运算。
处理装置202作为通用的处理器,执行包括但不限于数据搬运、对计算装置201的开启和/或停止、非线性计算等基本控制。根据实现方式的不同,处理装置202可以是中央处理器(central processing unit,CPU)、图形处理器(graphics processing unit,GPU)或其他通用和/或专用处理器中的一种或多种类型的处理器,这些处理器包括但不限于数字信号处理器(digital signal processor,DSP)、专用集成电路(application specificintegrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,并且其数目可以根据实际需要来确定。当将计算装置201和处理装置202整合共同考虑时,二者视为形成异构多核结构。
片外内存203用以存储待处理与处理完的数据,其层次根据延迟时间从小到大,可以划分为:一级缓存(L1)、二级缓存(L2)、三级缓存(L3,又称为LLC)与实体内存。实体内存为DDR,大小通常为16G或更大。当计算装置201或处理装置202欲从片外内存203读取数据时,由于L1的速度最快,故通常会优先访问L1,如果数据未存放在L1,接着访问L2,如果数据亦未存放在L2,继续访问L3,如果数据仍未存放在L3,最后访问DDR。片外内存203的缓存层次结构是通过将最常访问的数据存储在缓存中来加快数据访问速度。与缓存相比,DDR相当慢。随着缓存级别的增加(L1→L2→LLC→DDR),访问延迟越来越高,但存储空间越来越大。
通信节点204是片上网络(network-on-chip,NoC)中的路由节点或路由器,当计算装置201或处理装置202产生一个数据包后,会通过特定的接口发送到通信节点204中,通信节点204读取数据包的头微片中的地址信息,利用特定的路由算法计算出最佳路由路径,从而建立可靠的传输路径将数据包送到目的节点(例如片外内存203)。同样地,当计算装置201或处理装置202需从片外内存203读取数据包时,通信节点204亦会计算出最佳路由路径,将数据包从片外内存203发送到计算装置201或处理装置202。
接口装置205是组合处理装置对外的输入输出接口,当组合处理装置与外部设备交换信息时,由于外部设备种类繁多,每种设备对传输的信息的要求各不相同,接口装置205会根据数据传输的发送方与接收方的要求,执行设置数据缓冲以解决两者速度差异所带来的不协调问题、设置信号电平转换、设置信息转换逻辑以满足对各自格式的要求、设置时序控制电路来同步发送方与接收方的工作及提供地址转码等任务。
图2A的LLC集成指的是计算装置201与处理装置202通过LLC联系,图2B的SoC集成是通过通信节点204来集成计算装置201、处理装置202与片外内存203。图2C的IO集成是通过接口装置205来集成计算装置201、处理装置202与片外内存203。这3种集成方式仅为示例,本发明并不限制集成的方式。
此实施例较佳地选择LLC集成方案。由于深度学习和机器学习的核心是卷积算子,卷积算子的基础是内积运算,内积运算又是由乘法与加法组合而成,因此,计算装置201的主要任务是大量的乘法和加法等低级运算,在执行神经网络模型的训练与推理时,计算装置201与处理装置202需要密集的交互,将计算装置201与处理装置202集成到LLC中,通过LLC共享数据,以达到较低的交互成本。再者,由于高精度数据可能具有数百万位,L1与L2的容量有限,通过L1与L2交互会导致容量不足的问题。计算装置201利用LLC的相对大容量来缓存高精度数据,以节省重复访问的时间。
图3示出计算装置201的内部结构示意图,其包括核内存代理器301、核控制器302及处理阵列303。
核内存代理器301作为计算装置201访问片外内存203的管理端。当核内存代理器301自片外内存203读取操作数时,操作数的起始地址在核内存代理器301中被设置,核内存代理器301通过自增加地址来同时、连续、串行读取多个操作数,其读取方式是一次性地自这些操作数的低位逐次往高位读取,例如需要读取3个操作数时,先根据各操作数的起始地址串行读取第一操作数的最低位512比特,再串行读取第二操作数的低位512比特,接着串行读取第三操作数的低位512比特,最低位读取完成后,通过自增加地址(增加512比特),接着串行读取各次低位512比特,依此方式直到这3个操作数的最高位被读取。当核内存代理器301将计算结果存储回片外内存203时,则以并行发送,例如核内存代理器301需要发送3个计算结果至片外内存203,则同时发送这3个计算结果的最低位比特,再同时发送这3个计算结果的次低位比特,依此方式直到这3个计算结果的最高位比特同时发送完毕。一般来说,这些操作数是以矩阵或向量的形式来表示的。
核控制器302基于处理阵列303中的处理部件的运算能力与数量,控制将每个操作数拆分成多个数据段,也就是多个向量,使得核内存代理器301以数据段为单位发送至处理阵列303。
处理阵列303用以执行两个操作数的乘法计算,举例来说,第一操作数可以拆分成x0至x7等8个数据段,第二操作数可以拆分成y0至y3等4个数据段,当第一操作数与第二操作数执行乘法运算时,算法展开如图4所示。处理阵列303便是通过拆分第一操作数与第二操作数,分别进行内积计算,再将中间结果401、402、403及404移位对齐加总,以获得乘法运算的计算结果。
为清楚地阐述技术方案,以下统一将上述数据段视为向量来表示,两数据段相乘即是两向量(第一向量及第二向量)做内积,其中第一向量来自第一操作数,第二向量来自第二操作数。
处理阵列303包括多个处理部件304,这些处理部件304以阵列方式排列,图中示例性展示4×8个处理部件304,本发明不限制处理部件304的个数。每个处理部件304用以根据第一向量的长度及第二向量的长度,内积第一向量与第二向量,以获得内积结果。最后,核控制器302控制内存代理器301将内积结果整合或归约成多个操作数的计算结果,发送给核内存代理器301,核内存代理器301将计算结果存储至片外内存203。
具体来说,计算装置201在控制上采用递推分解算法(recursivedecomposition),当计算装置201接收到来自处理装置202的指令来执行任意精度计算时,核控制器302将乘法的操作数平均拆分为多个向量,并将它们发送到处理阵列303进行计算,每个处理部件304负责一组向量的计算,例如第一向量与第二向量的内积。在此实施例中,每个处理部件304会基于本身的硬件资源,将一组向量进一步拆分成更小的内积计算单元,以方便进行内积计算。计算装置201在数据路径上采用多比特流,即每个操作数以每周期1比特的速度从核内存代理器301导入处理部件303,但多个操作数同时并行传输,在计算结束后,处理部件304以比特串行方式发送内积结果到核内存代理器301。
作为计算装置201的核心计算单元,处理部件304的主要任务是内积计算。处理部件304是基于比特索引向量内积的流程分成3个阶段来处理,第一阶段为模式生成阶段,第二阶段为模式索引阶段,第三阶段为加权合成阶段。
以第一向量与第二向量/>的内积为例,假设第一向量/>与第二向量/>的大小分别为N×px与N×py,其中N为第一向量/>与第二向量/>的长度,更详细来说是行元素数量,px为第一向量/>的位宽,py为第二向量/>的位宽。在此实施例中,欲进行第一向量/>与第二向量/>的内积,先将第一向量/>转置,再与第二向量/>做内积,即(px×N)·(N×py),以生成px×py的内积结果。
其中K是一个固定不变且大小为N×2N二进制矩阵,Bcol是一个大小为2N×py的二进制矩阵,C是py加权向量。
在第一向量的长度方向上各元素的排列共有2N种模式,以N为2来说,即第一向量的长度为2,K根据第一向量/>的长度分为2N个单位向量,以排列出长度为2的所有可能单位向量,因此K为大小为2×22的二进制矩阵,用以涵盖所有长度为2的元素组合的所有可能性,长度为2的元素组合有/>等4种可能性,故K的固定形式为:
将第二向量与K进行比较可以发现,第二向量/>的第一列/>为K的第四列,第二向量/>的第二列/>为K的第三列,第二向量/>的第三列/>为K的第四列,第二向量/>的第四列/>为K的第一列,故当第二向量/>以K·Bcol来表示时,Bcol为大小为22×4的索引矩阵如下:/>
Bcol的第一列只有第四个元素为1,表示第二向量的第一列为K的第四列;Bcol的第二列只有第三个元素为1,表示第二向量/>的第二列为K的第三列;Bcol的第三列只有第四个元素为1,表示第二向量/>的第三列为K的第四列;Bcol的第四列只有第一个元素为1,表示第二向量/>的第四列为K的第一列。综上所述,只要K确定了,Bcol的元素值也确定了。
处理部件304便是用以基于前述的转换来实现向量内积的。在模式生成阶段,处理部件304获得/>的各种可能性,即生成模式向量/>在模式索引阶段,处理部件304计算/>在加权合成阶段,处理部件304根据权重C来累积索引模式。如此的设计使得不论精度多高的操作数都能转换成索引模式执行内积来减少重复计算,以避免任意精度计算对高带宽的要求。
图3进一步示出处理部件304的结构示意图。为实现前述3个阶段,处理部件304包括处理部件内存代理单元305、处理部件控制单元306、转换单元307、多个内积单元308及合成单元309。
处理部件控制单元306用以协调并管理处理部件304中各单元的工作。
转换单元307用以实现模式生成阶段。自处理部件内存代理单元305接收第一向量并以硬件实现二进制矩阵K,执行/>以生成多个模式向量/>图5示出转换单元307的示意图,转换单元307包括:N个比特流输入端501、生成组件502及2N个比特流输出端503。
N个比特流输入端501用以对应至第一向量的长度N,分别接收N个数据向量。图5以第一向量/>的长度为4进行说明,第一向量/>包括x0、x1、x2、x3等4个数据向量,每个数据向量的位宽为px,也就是每个数据向量具有px个位数。/>
生成组件502为执行的核心元件。响应K具有2N个单位向量,生成组件502包括2N个生成单元,每个生成单元模拟一个单位向量,以分别生成2N个模式向量/>如图5所示,第一向量/>拆分成x0、x1、x2、x3等4个数据向量,并行地自生成组件502的左侧输入。由于内积运算在二进制中其实就是各比特做加法运算,故生成组件502在硬件上直接模拟K中的所有单位向量,与x0、x1、x2、x3的各比特依序相加。更详细来说,每一周期同时输入x0、x1、x2、x3的同位比特,例如第一周期同时输入x0、x1、x2、x3的最低位比特,第二周期同时输入x0、x1、x2、x3的次低位比特,以此方式直到第px周期同时输入x0、x1、x2、x3的最高位比特为止。所需带宽每周期仅为N比特,在此例子中所需带宽每周期仅为4比特。
在第一向量的长度为4的情况下,生成组件502包括16个生成单元,分别模拟K中的16个单位向量,这些单元向量为(0000)、(0001)、(0010)、(0011)、(0100)、(0101)、(0110)、(0111)、(1000)、(1001)、(1010)、(1011)、(1100)、(1101)、(1110)及(1111)。
图6示出单位向量为(1011)的生成单元504的示意图。以生成单元504为例,其模拟的是单位向量(1011),故生成单元504包括3个元素暂存器601、加法器602及进位暂存器603。3个元素暂存器601接收并暂存数据向量对应至所模拟的单位向量的比特值,也就是x0、x1、x3的比特值,直接忽略x2的比特值,以此结构来实现:
暂存器601中的数值会被送至加法器602进行累加,累加后如果出现进位,则进位的数值被暂存在进位暂存器603,与下一周期输入的x0、x1、x3的比特值相加,直到第px周期将x0、x1、x3的最高位比特相加为止。每个生成单元都根据同样的技术逻辑进行设计,本领域技术人员基于图6中实现单位向量为(1011)的生成单元504的结构,无须创造性劳动便可轻易推及其他生成单元的结构,故不赘述。需特别注意的是,有些生成单元无需设置加法器602与进位暂存器603,例如模拟单元向量(0000)、(0001)、(0010)、(0100)及(1000)的生成单元,这些生成单元在同一周期中仅有一个输入,不存在加法运算更不会发生进位的情况。
回到图5,2N个比特流输出端503分别连接至每个生成单元的加法器602的输出,用以输出2N个模式向量在图5中,由于N为4,16个比特流输出端503总计输出16个模式向量这些模式向量/>的位宽有可能是px(如果最高位比特相加不进位),或是px+1(如果最高位比特相加后进位)。从图5可以看出,模式向量/>为x0、x1、x2、x3的所有加法运算可能性组合,即:
z0=0
z1=x0
z2=x1
z3=x0+x1
z4=x2
z5=x0+x2
z6=x1+x2
z7=x0+x1+x2
z8=x3
z9=x0+x3
z10=x1+x3
z11=x0+x1+x3
z12=x2+x3
z13=x0+x2+x3
z14=x1+x2+x3
z15=x0+x1+x2+x3
模式向量被发送至内积单元308,此实施例的内积单元308有多个,每个内积单元308相当于一个处理器核,用以实现模式索引阶段与加权合成阶段,本发明不限制内积单元308的数量。内积单元308自处理部件内存代理单元305接收第二向量/>以第二向量/>的长度方向上的数据向量为索引,根据每个索引从所有的模式向量/>中选择对应的特定模式向量,累加这些特定模式向量,在每个周期生成一比特的中间结果,在连续的px或px+1个周期形成单位累加数列。上述运算便是在执行/>
py个多路复用器701用以实现模式索引阶段。每个多路复用器701接收所有的模式向量(z0至z15),根据第二向量/>的长度方向上的同位数据向量让所有模式向量/>中的特定模式向量通过。由于第二向量/>的长度为N,故第二向量/>可以拆解成N个数据向量,由于N为4,因此第二向量/>可以拆解成y0、y1、y2、y3等4个数据向量,且每个数据向量的位宽为py,因此这些数据向量以同位比特的角度来看可以拆解成py个同位数据向量。举例来说,y0、y1、y2、y3等4个数据向量的最高位比特形成最高位同位数据向量703,y0、y1、y2、y3等4个数据向量的次高位比特形成次高位同位数据向量704,以此类推,y0、y1、y2、y3等4个数据向量的最低位比特形成最低位同位数据向量705。
多路复用器701判断输入的同位数据向量与二进制矩阵K的哪个单位向量相同,输出相同单位向量所对应的特定模式向量。例如,最高位同位数据向量703作为选择信号输入至第一多路复用器,假设最高位同位数据向量703为(0101),与图5中的单位向量505相同,则第一多路复用器将输出与单位向量505相对应的特定模式向量z5。再例如,次高位同位数据向量704作为选择信号输入至第二多路复用器,假设次高位同位数据向量704为(0010),与图5中的单位向量506相同,则第二多路复用器将输出与单位向量506相对应的特定模式向量z2。最后,最低位同位数据向量705作为选择信号输入至第py多路复用器,假设最低位同位数据向量705为(1110),与图5中的单位向量507相同,则第py多路复用器将输出与单位向量507相对应的特定模式向量z14。至此完成的运算。
串行全加器702实现加权合成阶段。py-1个串行全加器702依图中方式串行连接,接收多路复用器701输出特定模式向量,依序累加这些特定模式向量,以获得单位累加数列。需特别注意的是,为符合从低位开始累加并进位(如有)至下一位使得下一位可以正确地累加并进位,最低位同位数据向量705所对应的特定模式向量必须安排输入至最外侧的串行全加器702,使得低位的同位数据向量所对应的特定模式向量优先被累加,越高位的同位数据向量所对应的特定模式向量则安排输入至越内侧的串行全加器702,最高位同位数据向量703所对应的特定模式向量必须安排输入至最内侧的串行全加器702,使得越高位的同位数据向量所对应的特定模式向量越滞后被累加,如此才能确保累加的正确性,也就是依照py加权向量C以反映第二向量的幂次。单位累加数列是在/>的基础上进一步实现C的加权。至此获得如图4中的中间结果401、402、403及404。
合成单元309用以执行如图4中的加总计算405。合成单元309接收来自各个内积单元308的单位累加数列,每个单位累加数列就如同图4中的中间结果401、402、403及404,这些中间结果在内积单元308中已对齐,接着合成单元309加总这些对齐后的单位累加数列,进而获得第一向量与第二向量/>的内积结果。
图8示出此实施例的合成单元309的示意图。图中的合成单元309示例性地接收8个内积单元308的输出,即单位累加数列801至808。这些单位累加数列801至808是第一向量与第二向量/>拆分成8个数据段后,分别交由8个内积单元308进行内积计算所得的中间结果。合成单元309包括7个全加器组809至815。由于最低位的运算816与最高位的运算817仅有一个中间结果,因此最低位的运算816与最高位的运算817不需要加法器组,如同图4中的x0y0(最低位)及x7y3(最高位),无需和其他中间结果相加,直接输出即可。换言之,只有次低位至次高位的运算需要全加器组,以执行如图4所示的加总计算405。
图9示出全加器组810至815的示意图。全加器组810至815包括第一全加器901与第二全加器902,第一全加器901与第二全加器902分别包括多路复用器903及904,其中多路复用器903的输入端连接加法器的进位输出与数值0,多路复用器904的输入端连接加法器的进位输出与数值1,该数值0与1分别用以模拟前一位数的中间结果加总后未进位与进位,故第一全加器901用以生成前一位数未进位的中间结果总和,第二全加器902用以生成前一位数进位的中间结果总和。这样的结构可以不用等待前一位数的中间结果来决定是否进位,此实施例改采同步计算未进位与进位的设计能降低运算延迟时间。全加器组810至815还包括多路复用器905,两个中间结果总和均输入至多路复用器905,多路复用器905会根据前一位数的计算结果是否进位,来选择输出进位的中间结果总和或是未进位的中间结果总和。累加过后的输出818即为第一向量与第二向量/>的内积结果。
回到图8,由于最低位的运算不可能产生进位,因此次低位的全加器组809仅包括第一全加器901,直接生成未进位的中间结果,无需设置第二全加器902及多路复用器905。
根据图8、图9及其相关说明,当此实施例的合成单元309欲加总M个单位累加数列时,将配置M-1个全加器组,其中包括M-1个第一全加器901、M-2个第二全加器902及M-2个多路复用器905。
在其他情况下,合成单元309可以弹性选择开启或关闭全加器组的运作,例如第一向量与第二向量/>所产生的单位累加数列小于M个时,便可适当关闭特定数量的全加器组,以灵活地支持各种可能的拆分数量,扩大合成单元309的应用场景。
回到图3,在合成单元309获得第一向量与第二向量/>的内积结果后,发送至处理部件内存代理单元305,处理部件内存代理单元305接收内积结果并将其发送至核内存代理器301,核内存代理器301将整合所有处理部件304的内积结果,以生成计算结果,发送至片外内存203,以完成第一操作数与第二操作数的乘积运算。
基于上述的结构,此实施例的计算装置201根据操作数的长度执行不同数量的内积运算。进一步地,处理阵列303可以控制索引在纵向的处理部件304间共享,并控制模式向量在横向的处理部件304间共享,以高效地进行运算。
在数据路径管理上,此实施例采用两级架构,即核内存代理器301和处理部件内存代理单元305。操作数在LLC中的起始地址记录于核内存代理器301中,核内存代理器301通过自增加地址来同时、连续、串行自LLC读取多个操作数。源地址是自增长的,因此数据块的顺序是确定的。核控制器302决定哪些处理部件304接收数据块,处理部件控制单元306再决定哪些内积单元308接收这些数据块。
本发明的另一个实施例是一种任意精度计算方法,可以利用前述实施例的硬件结构来实现。图10示出此实施例的流程图。
在步骤1001中,自片外内存读取多个操作数。当自片外内存读取操作数时,操作数的起始地址在核内存代理器中被设置,核内存代理器通过自增加地址来同时、连续、串行读取多个操作数,其读取方式是一次性地自这些操作数的低位逐次往高位读取。
在步骤1002中,将多个操作数拆分成多个向量,多个向量包括第一向量及第二向量。核控制器基于处理阵列中的处理部件的运算能力与数量,控制将每个操作数拆分成多个数据段,也就是多个向量,使得核内存代理器以数据段为单位发送至处理阵列。
在步骤1003中,根据第一向量及第二向量的长度,内积第一向量与第二向量,以获得内积结果。处理阵列包括多个处理部件,这些处理部件以阵列方式排列,每个处理部件根据第一向量的长度及第二向量的长度,内积第一向量与第二向量,以获得内积结果。更详细来说,在此步骤中,先执行模式生成阶段,再执行模式索引阶段,最后执行加权合成阶段。
以第一向量与第二向量/>的内积为例,假设第一向量/>与第二向量/>的大小分别为N×px与N×py,其中N为第一向量/>与第二向量/>的长度,px为第一向量/>的位宽,py为第二向量/>的位宽。此实施例同样将第二向量/>拆解为:
其中K是一个固定不变且大小为N×2N二进制矩阵,Bcol是一个大小为2N×py的二进制矩阵,C是py加权向量,K、Bcol、C的定义与前述实施例无异,故不赘述。此实施例通过上述的方式来拆解第二向量使得第二向量/>中的各元素可以用K与Bcol两个二进制矩阵来表示。换言之,此实施例将/>的内积运算转换成/>的运算。
在模式生成阶段,此实施例获得的各种可能性,即生成模式向量/>在模式索引阶段,此实施例计算/>在加权合成阶段,再根据权重C来累积索引模式。如此的设计使得不论精度多高的操作数都能转换成索引模式执行内积来减少重复计算,以避免任意精度计算对高带宽的要求。图11进一步示出内积第一向量与第二向量的流程图。
在步骤1101中,根据第一向量的长度及位宽生成多个模式向量。首先,对应至第一向量的长度N,分别接收N个数据向量。接着响应K具有2N个单位向量,利用硬件模拟每个单位向量,以分别生成2N个模式向量/>由于内积运算在二进制中其实就是各比特做加法运算,故此实施例的生成组件直接模拟K中的所有单位向量,与第一向量/>的数据向量的各比特依序相加。更详细来说,每一周期同时输入第一向量/>的数据向量的同位比特,例如第一周期同时输入数据向量的最低位比特,第二周期同时输入数据向量的次低位比特,以此方式直到第px周期同时输入数据向量的最高位比特为止。所需带宽每周期仅为N比特。
在模拟单位向量时,先接收并暂存对应至该单位向量的数据向量的比特值,这些比特值会被累加,累加后如果出现进位,则进位的数值被暂存在进位暂存器,与下一周期输入的数据向量的比特值相加,直到第px周期将数据向量的最高位比特值相加为止。
在步骤1102中,基于第二向量在长度方向上的数据向量为索引,累加多个模式向量中的特定模式向量,以形成多个单位累加数列。此步骤实现模式索引阶段与加权合成阶段。以第二向量/>的长度方向上的数据向量为索引,根据每个索引从所有的模式向量/>中选择对应的特定模式向量,累加这些特定模式向量,在每个周期生成一比特的中间结果,在连续的px或px+1个周期形成单位累加数列。上述运算便是在执行/>
更详细来说,,根据第二向量的长度方向上的同位数据向量让所有模式向量/>中的特定模式向量通过。由于第二向量/>的长度为N,故第二向量/>可以拆解成N个数据向量,每个数据向量的位宽为py,因此这些数据向量以同位比特的角度来看可以拆解成py个同位数据向量。
最后,依序累加这些特定模式向量,以获得单位累加数列。需特别注意的是,应确保累加的正确性,也就是依照py加权向量C以反映第二向量的幂次。单位累加数列是在的基础上进一步实现C的加权。每个单位累加数列就如同图4中的中间结果401、402、403及404,这些中间结果已完成对齐。
在步骤1103中,加总多个单位累加数列,以获得内积结果。为了实现同步计算,此实施例将第一向量与第二向量/>拆分成多个数据段后,分别进行内积计算所得的中间结果。由于最低位的运算与最高位的运算仅有一个中间结果,因此最低位的运算与最高位的运算不需进行加法运算,如同图4中的x0y0(最低位)及x7y3(最高位),无需和其他中间结果相加,直接输出即可。换言之,只有次低位至次高位的运算需要执行加法运算。
此实施例采同步计算未进位与进位的设计以降低运算延迟时间。未进位与进位的中间结果总和同时获得,再根据前一位数的计算结果是否进位,来选择输出进位的中间结果总和或是未进位的中间结果总和。累加过后的输出即为第一向量与第二向量/>的内积结果。
回到图10,在步骤1004中,将内积结果整合成多个操作数的计算结果。核控制器控制内存代理器将内积结果整合或归约成多个操作数的计算结果,发送给核内存代理器。
在步骤1005中,将计算结果存储至片外内存。核内存代理器并行发送计算结果,先同时发送这些计算结果的最低位比特,再同时发送这些计算结果的次低位比特,依此方式直到这些计算结果的最高位比特同时发送完毕。
本发明另一个实施例为一种计算机可读存储介质,其上存储有任意精度计算的计算机程序代码,当所述计算机程序代码由处理器运行时,执行如图10或图11的方法。在一些实现场景中,上述集成的单元可以采用软件程序模块的形式来实现。如果以软件程序模块的形式实现并作为独立的产品销售或使用时,所述集成的单元可以存储在计算机可读取存储器中。基于此,当本发明的方案以软件产品(例如计算机可读存储介质)的形式体现时,该软件产品可以存储在存储器中,其可以包括若干指令用以使得计算机设备(例如个人计算机、服务器或者网络设备等)执行本发明实施例所述方法的部分或全部步骤。前述的存储器可以包括但不限于U盘、闪存盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本发明提出一种新颖的架构,用以有效地处理任意精度计算。不论操作数的精度多高,本发明都可以将操作数进行拆解,利用索引并行处理固定长度的比特流,避免比特级冗余,像是稀疏性或重复计算等问题,无需配置高位宽的硬件,便可达到灵活运用和大位宽计算的效果。
根据不同的应用场景,本发明的电子设备或装置可以包括服务器、云端服务器、服务器集群、数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、PC设备、物联网终端、移动终端、手机、行车记录仪、导航仪、传感器、摄像头、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、视觉终端、自动驾驶终端、交通工具、家用电器、和/或医疗设备。所述交通工具包括飞机、轮船和/或车辆;所述家用电器包括电视、空调、微波炉、冰箱、电饭煲、加湿器、洗衣机、电灯、燃气灶、油烟机;所述医疗设备包括核磁共振仪、B超仪和/或心电图仪。本发明的电子设备或装置还可以被应用于互联网、物联网、数据中心、能源、交通、公共管理、制造、教育、电网、电信、金融、零售、工地、医疗等领域。进一步,本发明的电子设备或装置还可以用于云端、边缘端、终端等与人工智能、大数据和/或云计算相关的应用场景中。在一个或多个实施例中,根据本发明方案的算力高的电子设备或装置可以应用于云端设备(例如云端服务器),而功耗小的电子设备或装置可以应用于终端设备和/或边缘端设备(例如智能手机或摄像头)。在一个或多个实施例中,云端设备的硬件信息和终端设备和/或边缘端设备的硬件信息相互兼容,从而可以根据终端设备和/或边缘端设备的硬件信息,从云端设备的硬件资源中匹配出合适的硬件资源来模拟终端设备和/或边缘端设备的硬件资源,以便完成端云一体或云边端一体的统一管理、调度和协同工作。
需要说明的是,为了简明的目的,本发明将一些方法及其实施例表述为一系列的动作及其组合,但是本领域技术人员可以理解本发明的方案并不受所描述的动作的顺序限制。因此,依据本发明的公开或教导,本领域技术人员可以理解其中的某些步骤可以采用其他顺序来执行或者同时执行。进一步,本领域技术人员可以理解本发明所描述的实施例可以视为可选实施例,即其中所涉及的动作或模块对于本发明某个或某些方案的实现并不一定是必需的。另外,根据方案的不同,本发明对一些实施例的描述也各有侧重。鉴于此,本领域技术人员可以理解本发明某个实施例中没有详述的部分,也可以参见其他实施例的相关描述。
在具体实现方面,基于本发明的公开和教导,本领域技术人员可以理解本发明所公开的若干实施例也可以通过本文未公开的其他方式来实现。例如,就前文所述的电子设备或装置实施例中的各个单元来说,本文在考虑了逻辑功能的基础上对其进行拆分,而实际实现时也可以有另外的拆分方式。又例如,可以将多个单元或组件结合或者集成到另一个系统,或者对单元或组件中的一些特征或功能进行选择性地禁用。就不同单元或组件之间的连接关系而言,前文结合附图所讨论的连接可以是单元或组件之间的直接或间接耦合。在一些场景中,前述的直接或间接耦合涉及利用接口的通信连接,其中通信接口可以支持电性、光学、声学、磁性或其它形式的信号传输。
在本发明中,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元示出的部件可以是或者也可以不是物理单元。前述部件或单元可以位于同一位置或者分布到多个网络单元上。另外,根据实际的需要,可以选择其中的部分或者全部单元来实现本发明实施例所述方案的目的。另外,在一些场景中,本发明实施例中的多个单元可以集成于一个单元中或者各个单元物理上单独存在。
在另外一些实现场景中,上述集成的单元也可以采用硬件的形式实现,即为具体的硬件电路,其可以包括数字电路和/或模拟电路等。电路的硬件结构的物理实现可以包括但不限于物理器件,而物理器件可以包括但不限于晶体管或忆阻器等器件。鉴于此,本文所述的各类装置(例如计算装置或其他处理装置)可以通过适当的硬件处理器来实现,例如中央处理器、GPU、FPGA、DSP和ASIC等。进一步,前述的所述存储单元或存储装置可以是任意适当的存储介质(包括磁存储介质或磁光存储介质等),其例如可以是可变电阻式存储器(Resistive Random Access Memory,RRAM)、动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)、静态随机存取存储器(Static Random Access Memory,SRAM)、增强动态随机存取存储器(Enhanced Dynamic Random Access Memory,EDRAM)、高带宽存储器(High Bandwidth Memory,HBM)、混合存储器立方体(Hybrid Memory Cube,HMC)、ROM和RAM等。
以上对本发明实施例进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (16)
1.一种用以内积第一向量与第二向量的处理部件,包括:
转换单元,用以根据所述第一向量的长度及位宽生成多个模式向量;
多个内积单元,每个内积单元基于所述第二向量在所述长度方向上的数据向量为索引,累加所述多个模式向量中的特定模式向量,以形成单位累加数列,每个内积单元包括:
多个多路复用器,分别接收所述多个模式向量,根据所述第二向量在长度方向上的同位数据向量让所述多个模式向量中的特定模式向量通过;以及
多个串行全加器,用以加权合成所述特定模式向量,以获得所述单位累加数列;以及
合成单元,用以加总多个单位累加数列,以获得内积结果;
其中,所述特定模式向量为与所述同位数据向量相同的单位向量所对应的模式向量。
4.根据权利要求3所述的处理部件,其中所述生成单元包括:
元素暂存器,用以接收并暂存所述数据向量对应至所模拟的单位向量的比特值;
加法器,用以累加所述比特值;以及
进位暂存器,用以暂存来自累加后的进位值。
8.根据权利要求2所述的处理部件,其中所述转换单元的带宽为每周期N比特。
9.根据权利要求1所述的处理部件,其中所述多路复用器的数量与所述第二向量的位宽相同,所述串行全加器的数量为所述第二向量的位宽减一。
10.根据权利要求1所述的处理部件,其中最低位同位数据向量所对应的特定模式向量输入至最外侧的串行全加器,最高位同位数据向量所对应的特定模式向量输入至最内侧的串行全加器。
11.根据权利要求1所述的处理部件,其中所述合成单元包括多个全加器组,用以针对所述多个单位累加数列对齐后,执行次低位至次高位的加总运算。
12.根据权利要求11所述的处理部件,其中所述全加器组包括第一全加器,用以生成未进位的中间结果。
13.根据权利要求12所述的处理部件,其中所述全加器组还包括:
第二全加器,用以生成进位的中间结果;以及
多路复用器,用以根据前一位的中间结果,选择输出所述进位的中间结果及所述未进位的中间结果其中之一。
14.根据权利要求13所述的处理部件,其中当所述单位累加数列为M个时,所述全加器组的数量为M-1个,所述第一全加器的数量为M-1个,所述第二全加器的数量为M-2个,所述多路复用器的数量为M-2个。
15.一种内积第一向量与第二向量的方法,包括:
根据所述第一向量的长度及位宽生成多个模式向量;
基于所述第二向量在所述长度方向上的数据向量为索引,累加所述多个模式向量中的特定模式向量,以形成多个单位累加数列;以及
加总所述多个单位累加数列,以获得内积结果;
其中,所述累加步骤包括:
分别接收所述多个模式向量,根据所述第二向量在长度方向上的同位数据向量让所述多个模式向量中的特定模式向量通过;以及
加权合成所述特定模式向量,以获得所述单位累加数列;
其中,所述特定模式向量为与所述同位数据向量相同的单位向量所对应的模式向量。
16.一种计算机可读存储介质,其上存储有任意精度计算的计算机程序代码,当所述计算机程序代码由处理装置运行时,执行权利要求15所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210990132.8A CN115437602A (zh) | 2021-10-20 | 2021-10-20 | 任意精度计算加速器、集成电路装置、板卡及方法 |
CN202111221317.4A CN114003198B (zh) | 2021-10-20 | 2021-10-20 | 内积处理部件、任意精度计算设备、方法及可读存储介质 |
PCT/CN2022/100304 WO2023065701A1 (zh) | 2021-10-20 | 2022-06-22 | 内积处理部件、任意精度计算设备、方法及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111221317.4A CN114003198B (zh) | 2021-10-20 | 2021-10-20 | 内积处理部件、任意精度计算设备、方法及可读存储介质 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210990132.8A Division CN115437602A (zh) | 2021-10-20 | 2021-10-20 | 任意精度计算加速器、集成电路装置、板卡及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114003198A CN114003198A (zh) | 2022-02-01 |
CN114003198B true CN114003198B (zh) | 2023-03-24 |
Family
ID=79923295
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111221317.4A Active CN114003198B (zh) | 2021-10-20 | 2021-10-20 | 内积处理部件、任意精度计算设备、方法及可读存储介质 |
CN202210990132.8A Pending CN115437602A (zh) | 2021-10-20 | 2021-10-20 | 任意精度计算加速器、集成电路装置、板卡及方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210990132.8A Pending CN115437602A (zh) | 2021-10-20 | 2021-10-20 | 任意精度计算加速器、集成电路装置、板卡及方法 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN114003198B (zh) |
WO (1) | WO2023065701A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114003198B (zh) * | 2021-10-20 | 2023-03-24 | 中科寒武纪科技股份有限公司 | 内积处理部件、任意精度计算设备、方法及可读存储介质 |
CN115080916B (zh) * | 2022-07-14 | 2024-06-18 | 北京有竹居网络技术有限公司 | 一种数据处理方法、装置、电子设备、计算机可读介质 |
CN118349213A (zh) * | 2024-06-14 | 2024-07-16 | 中昊芯英(杭州)科技有限公司 | 一种数据处理装置、方法、介质及计算设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082860A (zh) * | 2007-07-03 | 2007-12-05 | 浙江大学 | 一种乘累加装置 |
CN112487750A (zh) * | 2020-11-30 | 2021-03-12 | 西安微电子技术研究所 | 一种基于存内计算的卷积加速计算系统及方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8239438B2 (en) * | 2007-08-17 | 2012-08-07 | International Business Machines Corporation | Method and apparatus for implementing a multiple operand vector floating point summation to scalar function |
CN107239824A (zh) * | 2016-12-05 | 2017-10-10 | 北京深鉴智能科技有限公司 | 用于实现稀疏卷积神经网络加速器的装置和方法 |
US10338919B2 (en) * | 2017-05-08 | 2019-07-02 | Nvidia Corporation | Generalized acceleration of matrix multiply accumulate operations |
CN112214726B (zh) * | 2017-07-07 | 2024-05-03 | 华为技术有限公司 | 运算加速器 |
CN110110283A (zh) * | 2018-02-01 | 2019-08-09 | 北京中科晶上科技股份有限公司 | 一种卷积计算方法 |
CN108388446A (zh) * | 2018-02-05 | 2018-08-10 | 上海寒武纪信息科技有限公司 | 运算模块以及方法 |
CN112711738A (zh) * | 2019-10-25 | 2021-04-27 | 安徽寒武纪信息科技有限公司 | 用于向量内积的计算装置、方法和集成电路芯片 |
CN112084023A (zh) * | 2020-08-21 | 2020-12-15 | 安徽寒武纪信息科技有限公司 | 数据并行处理的方法、电子设备及计算机可读存储介质 |
CN114003198B (zh) * | 2021-10-20 | 2023-03-24 | 中科寒武纪科技股份有限公司 | 内积处理部件、任意精度计算设备、方法及可读存储介质 |
-
2021
- 2021-10-20 CN CN202111221317.4A patent/CN114003198B/zh active Active
- 2021-10-20 CN CN202210990132.8A patent/CN115437602A/zh active Pending
-
2022
- 2022-06-22 WO PCT/CN2022/100304 patent/WO2023065701A1/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082860A (zh) * | 2007-07-03 | 2007-12-05 | 浙江大学 | 一种乘累加装置 |
CN112487750A (zh) * | 2020-11-30 | 2021-03-12 | 西安微电子技术研究所 | 一种基于存内计算的卷积加速计算系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115437602A (zh) | 2022-12-06 |
WO2023065701A1 (zh) | 2023-04-27 |
CN114003198A (zh) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11531540B2 (en) | Processing apparatus and processing method with dynamically configurable operation bit width | |
CN114003198B (zh) | 内积处理部件、任意精度计算设备、方法及可读存储介质 | |
CN109219821B (zh) | 运算装置和方法 | |
CN109003132B (zh) | 广告推荐方法及相关产品 | |
US20220091849A1 (en) | Operation module and method thereof | |
CN109522052B (zh) | 一种计算装置及板卡 | |
CN110163361B (zh) | 一种计算装置及方法 | |
CN109685201B (zh) | 运算方法、装置及相关产品 | |
TW201935265A (zh) | 一種計算裝置及方法 | |
US20200242468A1 (en) | Neural network computation device, neural network computation method and related products | |
CN110909870B (zh) | 训练装置及方法 | |
US11775808B2 (en) | Neural network computation device and method | |
CN109711540B (zh) | 一种计算装置及板卡 | |
CN112765540A (zh) | 数据处理方法、装置及相关产品 | |
CN112966729A (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN109740730B (zh) | 运算方法、装置及相关产品 | |
CN111381882B (zh) | 数据处理装置及相关产品 | |
CN112801276B (zh) | 数据处理方法、处理器及电子设备 | |
CN111047024A (zh) | 一种计算装置及相关产品 | |
WO2022143799A1 (zh) | 用于矩阵乘操作的集成电路装置、计算设备、系统和方法 | |
CN118333068A (zh) | 矩阵乘设备 | |
WO2022001438A1 (zh) | 一种计算装置、集成电路芯片、板卡、设备和计算方法 | |
CN115237371A (zh) | 计算装置、数据处理方法及相关产品 | |
CN114692845A (zh) | 数据处理装置、数据处理方法及相关产品 | |
CN112801278A (zh) | 数据处理方法、处理器、芯片及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |