CN103761215A - 基于图形处理器的矩阵转置优化方法 - Google Patents

基于图形处理器的矩阵转置优化方法 Download PDF

Info

Publication number
CN103761215A
CN103761215A CN201410017822.0A CN201410017822A CN103761215A CN 103761215 A CN103761215 A CN 103761215A CN 201410017822 A CN201410017822 A CN 201410017822A CN 103761215 A CN103761215 A CN 103761215A
Authority
CN
China
Prior art keywords
matrix
data
storage
dimension
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410017822.0A
Other languages
English (en)
Other versions
CN103761215B (zh
Inventor
田卓
樊双丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Siasun Control System Co Ltd
Original Assignee
Beijing Siasun Control System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Siasun Control System Co Ltd filed Critical Beijing Siasun Control System Co Ltd
Priority to CN201410017822.0A priority Critical patent/CN103761215B/zh
Publication of CN103761215A publication Critical patent/CN103761215A/zh
Application granted granted Critical
Publication of CN103761215B publication Critical patent/CN103761215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Multi Processors (AREA)

Abstract

本发明是基于图形处理器的矩阵转置优化方法,包括将R行S列的输入矩阵转化为一维数组并分配存储空间且拷贝数据;设置二维索引空间;计算工作项的全局标识符、工作组标识符和局部标识符;对矩阵分块并与工作组相对应;在工作组内申请本地内存且将数据复制到本地存储器中并同步等待数据复制完成;计算转置后数据在全局存储器中的行和列索引;计算输出数据在全局存储器及本地存储器中的位置;将本地存储器数据赋值给全局存储器中的一维数组,实现无冲突存储器合并访问;将一维数组拷贝到内存中形成S行R列的转置后的矩阵。本发明实现合并访问和矩阵转置的并行计算,提高程序的执行效率。

Description

基于图形处理器的矩阵转置优化方法
技术领域
本发明属于通用计算图形处理器技术领域,主要涉及一种基于图形处理器的矩阵转置优化方法。
背景技术
通用计算图形处理器(General Purpose Computing on GraphicsProcessing Units-GPGPU),是利用显卡图形处理器来处理通用计算任务的技术。图形处理器分担了中央处理器的计算任务,将计算机的处理速度提升成百上千倍,甚至更快。由此而产生了开放计算语言(OpenComputing Language)。开放计算语言由各种处理器和软件制造商代表组成的计算工作组管理,它提供了一套标准的应用程序编程接口,让程序员对图形处理器的编程更便捷。
在信号处理,图像显示等工程领域,经常会用到矩阵转置运算,目前各类算法多是基于中央处理器进行串行计算,这种做法消耗了大量的时间,效率较低。图形处理器具有数以千计的处理器核心,同时具有远高于中央处理器的内存带宽,特别适合大规模数据的并行计算。
但是,存储器带宽是影响计算机性能的主要瓶颈之一。处理器的计算能力远远超过内存带宽。目前并没有在图形处理器核心上对矩阵并行化转置进行内存访问优化的运算。
发明内容
(一)本发明的要解决的技术问题:
本发明的目的是提供一种基于图形处理器的矩阵并行转置优化方法,能够在拥有数以千计个核心处理器的图形处理器上实现并行、快速、高效的矩阵转置以及在工程领域的应用。
(二)本发明的技术方案
为达成所述目的,本发明提供基于图形处理器的矩阵转置优化方法,实现该方法的步骤包括:
步骤S1:将输入矩阵存储在中央处理器的磁盘上并按行读入,生成具有R行S列的二维数组,将R行S列的二维数组转化为含有R×S个元素的一维数组;
步骤S2:根据一维数组的大小和输入矩阵数据的类型,计算出一维数组所需要的存储空间;
步骤S3:在图形处理器的全局存储器上为一维数组分配大小相同的两片存储空间;将一维数组中的数据拷贝到图形处理器的全局存储器中的存储空间;
步骤S4:根据图形处理器具有的N维域模型、工作组和多个工作项,设置具有二维域的索引空间;
步骤S5:根据图形处理器内置函数分别对全局存储器中每个工作项的行维度和列维度进行计算,得到全局存储器中每个工作项的行维度和列维度的全局标识符、工作组标识符和局部标识符;
步骤S6:设定输入矩阵数据个数与工作项个数相同,将多个工作项形成多个工作组;
步骤S7:对输入矩阵进行分块并得到矩阵块,以工作组为单位,将每个矩阵块与工作组相对应;
步骤S8:在每个工作组内部的图形处理器的本地存储器中申请一片本地内存;
步骤S9:根据每个工作项的行维度和列维度的全局标识符,以工作组为单位,将图形处理器的全局存储器中输入矩阵的数据复制到图形处理器的本地存储器;
步骤S10:执行图形处理器的本地存储器的同步等待指令,等待同一工作组中的数据全部复制到图形处理器的本地存储器中,在本地存储器中获得同一工作组中的数据;
步骤S11:利用行维度上工作组标识符、工作组的大小和局部标识符计算得到转置后的输出数据在全局存储器中的行索引;利用列维度上工作组标识符、工作组的大小和局部标识符计算得到转置后的输出数据在全局存储器中的列索引;
步骤S12:利用所述输出数据在全局存储器中的行索引、列索引和R行的大小计算得到输出数据在全局存储器中的位置;利用输出数据的行维度的局部标识符、列维度的局部标识符和矩阵块的大小计算得到输出数据在本地存储器中的位置;
步骤S13:将输出数据在本地存储器位置上的数据赋值给输出数据在全局存储器中的一维数组,获得一维数组中的输出矩阵数据,用以实现无冲突的全局存储器合并访问;
步骤S14:将一维数组中的输出矩阵数据拷贝到内存中,对输出矩阵数据按照S行R列的方式进行切分,得到转置后的矩阵,实现矩阵转置在图形处理器平台上的并行、优化。
(三)本发明的有益效果:
本发明的目的在于优化矩阵转置算法的性能,使中央处理器与图形处理器协同计算。利用图形处理器核心内部的共享内存进行线程间的通信,大大提高了算法的效率。同时本发明-开放计算语言(OpenCL:OpenComputing Language)架构中将矩阵进行分块处理,在访问全局内存时避免了非合并访问和分区冲突问题。提高了图形处理器的访存带宽。
1.本发明将数据按照分块的方式分配在数以千计的图形处理器上,有效的实现了数据的并行化处理,提高了程序的运算速度和运算精度。
2.本发明将多个线程的内存访问合并到较少的内存请求命令中,改变了普通的图形处理器上线程映射的方式,借助了本地存储器作为中间元素,实现了全局内存的合并访问,这样可以大大提高带宽利用率。
3.本发明将连续的本地存储器访问地址映射到不同的本地存储器上,使得在一个线程调度单位上,没有本地存储器访问冲突,否则一个线程调度单位上的访问冲突会等待所有的本地内存访问完成,造成访问时延。
附图说明
图1为本发明基于图形处理器平台的矩阵转置并行优化算法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图1示出了本发明基于图形处理器的矩阵转置并行优化方法的流程图,实施例所采用的硬件平台是:华硕主板,显卡;软件平台是:微软操作系统,微软公司开发套件,但不限于此。
本发明基于图形处理器的矩阵转置优化包括如下步骤:
步骤S1:转置的矩阵为R行S列,每个矩阵元素为复数,即包括数的实部和虚部。由于在通用的图形处理器编程标准语言中没有对二维数组的直接操作函数,因此,需要将矩阵转换为一维数组。将输入矩阵存储在中央处理器的磁盘上并按行读入,生成具有R行S列的二维数组,将R行S列的二维数组转化为含有R×S个元素的一维数组,标识为input;所述输入矩阵为R行S列,每个矩阵数据为复数,每个矩阵元素包括实部和虚部。
步骤S2:根据一维数组的大小和输入矩阵数据的类型,计算出一维数组所需要的存储空间。
步骤S3:在图形处理器的全局存储器上为一维数组分配大小相同的两片存储空间;将一维数组中的数据拷贝到图形处理器的全局存储器中的存储空间。所述两片存储空间包括第一片存储空间和第二片存储空间,第一片存储空间存储从内存拷贝到图形处理器的全局存储器中的输入矩阵数据;第二片存储空间存储输出矩阵数据。
步骤S4:根据图形处理器可视为三层模型:N维域、工作组和工作项,设置具有二维域的索引空间;我们定义索引空间为二维域。所述二维域的每一维度的大小由输入矩阵的R和S决定。定义工作组的维度为二维维度。
步骤S5:根据图形处理器内置函数分别对全局存储器中每个工作项的行维度和列维度进行计算,得到全局存储器中每个工作项的行维度和列维度的全局标识符、工作组标识符和局部标识符。
步骤S6:设定输入矩阵数据个数与工作项个数相同,将多个工作项形成多个工作组;
步骤S7:对输入矩阵进行分块划分并得到矩阵块。定义每个子块的大小为m×n。以工作组为单位,将每个矩阵块与工作组相对应,以工作组为单位进行计算,将得到的工作组数据存储在全局存储器中,通过图形处理器的内置函数分别计算出矩阵的行和列方向的全局标识符。
步骤S8:在每个工作组内部的图形处理器的本地存储器中申请一片本地内存;借助本地存储器作为中间元素,实现了内存的合并访问。
步骤S9:根据每个工作项的行维度和列维度的全局标识符,以工作组为单位,将图形处理器的全局存储器中输入矩阵的数据复制到图形处理器的本地存储器;
步骤S10:执行图形处理器的本地存储器的同步等待指令,等待同一工作组中的数据全部复制到图形处理器的本地存储器中,在本地存储器中获得同一工作组中的数据;
步骤S11:利用行维度上工作组标识符、工作组的大小和局部标识符计算得到转置后的输出数据在全局存储器中的行索引;利用列维度上工作组.标识符、工作组的大小和局部标识符计算得到转置后的输出数据在全局存储器中的列索引;
步骤S12:利用所述输出数据在全局存储器中的行索引、列索引和R行的大小计算得到输出数据在全局存储器中的位置;利用输出数据的行维度的局部标识符、列维度的局部标识符和矩阵块的大小计算得到输出数据在本地存储器中的位置;
步骤S13:将输出数据在本地存储器位置上的数据赋值给输出数据在全局存储器中的一维数组,获得一维数组中的输出矩阵数据,用以实现无冲突的全局存储器合并访问;改变工作项的映射方式,使得在一个线程调度单位上没有本地存储器访问冲突。
步骤S14:将一维数组中的输出矩阵数据拷贝到内存中,对输出矩阵数据按照S行R列的方式进行切分,得到转置后的矩阵,实现矩阵转置在图形处理器平台上的并行、优化。
实施实例是以在雷达信号处理系统中128×4096点脉冲压缩算法中矩阵转置的应用为例。本发明的实现流程如下:
1.将雷达的回波数据文件中的数读取128次,每次读取4096×2=8192个数,将8192个数组成复数,从文件的第0个数开始读取,偶数位置的数作为数的实部,奇数位置的数作为数的虚部。由此形成了含有128×4096=524288个复数的输入矩阵。由于开放计算语言(OpenCL)中没有对二维数组的直接操作函数,因此,需要将输入矩阵转换为一维数组。对于含有524288个复数的输入矩阵,实现按行读入,将输入矩阵的数据读入到含有524288个复数的一维数组中。将一维数组作为输入数据并标示为:input[524288];所述开放计算语言(OpenCL)是在超微半导体公司(AMD:Advanced Micro Devices,Inc.)的显卡产品上能够实现应用程序硬件加速的并行编程开放标准语言。
2.计算一维数组所占用的存储空间的大小:输入矩阵的大小为128×4096,输入矩阵的数据类型为复数,实部和虚部均为浮点数。输入数据所占据的存储空间为:128×4096×数据类型。所述数据类型是复数的数据类型,复数的实部和虚部均为浮点类型。
3.在图形处理器的全局内存中,为一维数组申请同样大小的两片存储空间,并分别标示为:input_gpu和output_gpu。调用开放计算语言(OpenCL)数据拷贝函数,将输入数据从中央处理器内存拷贝到图形处理器全局内存的存储空间input_gpu中。所述图形处理器的全局内存是指开放计算语言(OpenCL)的一种存储器,图形处理器中的任何数据对全局存储器有读,写权限。
4.数据的分块处理:将工作项和工作组的索引空间设为二维域,设置工作项的行维度大小等于矩阵的行数,列维度的大小等于矩阵的列数,即二维域的空间大小为128×4096。所述工作项是在开放计算语言(OpenCL)中,每个实际执行计算的线程称为一个工作项,开放计算语言(OpenCL)为所有工作项分配了一个索引空间。每个工作项在该索引空间中都有一个唯一的全局标识符。工作项被进一步组织成工作组。每个工作组被分配一个工作组标识符。位于同一个工作组的工作项在工作组内部都有一个唯一的局部标识符。
5.输入数据的索引号:首先,调用开放计算语言(OpenCL)内置函数get_global_id(0)和get_global_id(1),该函数的作用是:获得当前工作项的全局标识符。其次,调用开放计算语言(OpenCL)内置函数get_group_id(0)和get_group_id(1),该函数的作用是:获得当前工作项的工作组标识符。最后,调用开放计算语言(OpenCL)内置函数get_local_id(0)和get_local_id(1),该函数的作用是:获得当前工作项的局部标识符。
6.设置工作项的个数等于输入矩阵数据的个数,即为524288。设置工作组的行维度大小为8,列维度大小为16。将8×16个工作项形成工作组。所述工作组的行和列维度的划分采用的是8×16的分割方式,这与显卡的硬件设备特性有关。根据本实施实例选用的显卡具有1408个处理器核心,共有22个计算单元数,因此每个计算单元内部拥有64个流处理器。因此,矩阵的分块方式应为64的整数倍,此实例选用8×16=128,即为64的2倍。
7.对输入矩阵进行分块划分,每个矩阵块的大小等于工作组的大小,即为8×16。
8.在每个工作组内部的图形处理器的本地存储器中申请一片本地内存,本地内存的大小等于工作组的大小,即为8×16×数据类型。所述图形处理器的本地存储器是指它位于每一个多处理器的内部,它只能被工作组内部的单个线程访问。
9.根据第5步中得到的工作项的标识符,以工作组为单位,将以8×16分块的工作组中的输入数据存入每个工作组内部的本地存储器中。标示:block[get_local_id(1)×8+get_local_id(0)]
=input_gpu[get_global_id(1)×128+get_global_id(0)];
10.调用开放计算语言(OpenCL)同步函数,实现图形处理器的本地存储器的同步等待;
11.转置后输出数据索引号:首先,根据当前工作项的列维度的工作组标识符get_group_id(1),工作项的列维度的的局部标识符get_local_id(1)和工作组列维度的大小16,来计算转置后输出矩阵的行索引:targetGIdx=get_group_id(1)×16+get_local_id(1);其次,根据当前工作项的行维度的工作组标识符get_group_id(0),工作项的行维度的的局部标识符get_local_id(0)和工作组行维度的大小8,来计算转置后输出矩阵的列索引:targetGIdy=get_group_id(0)×8+get_local_id(0);所述转置是指将R行S列的矩阵的行和列互换,得到的S行R列的矩阵即为转置后的矩阵。
12.首先,根据第11步中计算出的转置后输出矩阵的行索引targetGIdx,列索引targetGIdy和数据矩阵的列数R=4096计算出输出数据在全局存储器中的位置:targetIdx=targetGIdy×4096+targetGIdx;其次,根据第5步中计算出的工作项的行维度的局部标识符get_local_id(0),列维度的局部标识符get_local_id(1)和工作组的行维度大小8来计算出数据在本地存储器中的位置:sourceIdx=get_local_id(1)×8+get_local_id(0)。
13.将输出数据在本地存储器位置上的数据block[sourceIdx]赋值给输出数据在全局存储器中的一维数组output_gpu[targetIdx],以实现无冲突的全局存储器合并访问。所述全局存储器合并访问是将一个工作组内的工作项视为线程,每个线程对全局存储器的访问需要一次内存请求来完成。将多个线程对全局存储器的访问合并到一次内存请求中,即实现了全局存储器的合并访问。所述无冲突的全局存储器合并访问是通过改变线程的映射方式,用本地存储器作为中间元素,实现了输入矩阵和输出矩阵都是全局存储器合并访问。
14.调用开放计算语言(OpenCL)数据拷贝函数,将全局存储器中的一维数组out_gpu[targetIdx]拷贝到内存output[524288]中,对拷贝到内存中的数据output[524288]按照S行R列的方式进行切分,得到转置后的矩阵。将转置后的矩阵输出到雷达信号处理系统的脉冲压缩算法中,最终得到脉冲压缩后矩阵的数值。
通过上述方法实现了雷达信号处理系统中的矩阵并行转置的优化。
上述方法的实现过程所采用的是开放计算语言(OpenCL),它具有平台无关性的特点以及真正意义上的异构计算资源解决方案。它能够支持不同的硬件和操作系统,对于操作系统的平台无关可以在软件上实现和维护。因此,本发明所提供的解决方案可以不受操作系统和平台的局限性限制,可实现跨平台运行。
此过程以工作组为单位,同时对矩阵进行了分块划分,将工作组与矩阵块进行一一对应。矩阵分块采用的是与显卡的硬件设备特性有关的分割方式,最终在显卡的多个处理器核心上实现了并行,高效的矩阵转置算法。
上述方法利用到了工作组内部的本地缓存实现了数据的合并访问以及减少了存储器访问冲突,因此提高了图形处理器内部数据的访问带宽以及减小了数据的访问时延。快速、高效的实现了在图形处理器上对矩阵进行并行、优化的转置算法。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内。

Claims (8)

1.一种基于图形处理器的矩阵转置优化方法,其特征在于,所述方法包括如下步骤:
步骤S1:将输入矩阵存储在中央处理器的磁盘上并按行读入,生成具有R行S列的二维数组,将R行S列的二维数组转化为含有R×S个元素的一维数组;
步骤S2:根据一维数组的大小和输入矩阵的数据类型,计算出一维数组所需要的存储空间;
步骤S3:在图形处理器的全局存储器上为一维数组分配大小相同的两片存储空间;将一维数组中的数据拷贝到图形处理器的全局存储器中的存储空间;
步骤S4:根据图形处理器具有的N维域模型、工作组和多个工作项,设置具有二维域的索引空间;
步骤S5:根据图形处理器内置函数分别对全局存储器中每个工作项的行维度和列维度进行计算,得到全局存储器中每个工作项的行维度和列维度的全局标识符、工作组标识符和局部标识符;
步骤S6:设定输入矩阵数据个数与工作项个数相同,将多个工作项形成多个工作组;
步骤S7:对输入矩阵进行分块并得到矩阵块,以工作组为单位,将每个矩阵块与工作组相对应;
步骤S8:在每个工作组内部的图形处理器的本地存储器中申请一片本地内存;
步骤S9:根据每个工作项的行维度和列维度的全局标识符,以工作组为单位,将图形处理器的全局存储器中输入矩阵的数据复制到图形处理器的本地存储器;
步骤S10:执行图形处理器的本地存储器的同步等待指令,等待同一工作组中的数据全部复制到图形处理器的本地存储器中,在本地存储器中获得同一工作组中的数据;
步骤S11:利用行维度上工作组标识符、工作组的大小和局部标识符计算得到转置后的输出数据在全局存储器中的行索引;利用列维度上工作组标识符、工作组的大小和局部标识符计算得到转置后的输出数据在全局存储器中的列索引;
步骤S12:利用所述输出数据在全局存储器中的行索引、列索引和R行的大小计算得到输出数据在全局存储器中的位置;利用输出数据的行维度的局部标识符、列维度的局部标识符和矩阵块的大小计算得到输出数据在本地存储器中的位置;
步骤S13:将输出数据在本地存储器位置上的数据赋值给输出数据在全局存储器中的一维数组,获得一维数组中的输出矩阵数据,用以实现无冲突的全局存储器合并访问;
步骤S14:将一维数组中的输出矩阵数据拷贝到内存中,对输出矩阵数据按照S行R列的方式进行切分,得到转置后的矩阵,实现矩阵转置在图形处理器平台上的并行、优化。
2.根据权利要求1所述矩阵转置优化方法,其特征在于,所述输入矩阵为R行S列,每个矩阵数据为复数,每个矩阵元素包括实部和虚部。
3.根据权利要求1所述矩阵转置优化方法,其特征在于,所述二维域的每一维度的大小由输入矩阵的R行S列决定。
4.根据权利要求1所述矩阵转置优化方法,其特征在于,所述本地内存的大小与工作组的大小一致。
5.根据权利要求1所述矩阵转置优化方法,其特征在于,所述两片存储空间包括第一片存储空间和第二片存储空间,第一片存储空间存储从内存拷贝到图形处理器的全局存储器中的输入矩阵数据;第二片存储空间存储输出矩阵数据。
6.根据权利要求1所述矩阵转置优化方法,其特征在于,所述工作组的维度为二维维度。
7.根据权利要求1所述矩阵转置优化方法,其特征在于,借助本地存储器作为中间元素,实现了内存的合并访问。
8.根据权利要求1所述矩阵转置优化方法,其特征在于,改变工作项的映射方式,使得在一个线程调度单位上没有本地存储器访问冲突。
CN201410017822.0A 2014-01-15 2014-01-15 基于图形处理器的矩阵转置优化方法 Active CN103761215B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410017822.0A CN103761215B (zh) 2014-01-15 2014-01-15 基于图形处理器的矩阵转置优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410017822.0A CN103761215B (zh) 2014-01-15 2014-01-15 基于图形处理器的矩阵转置优化方法

Publications (2)

Publication Number Publication Date
CN103761215A true CN103761215A (zh) 2014-04-30
CN103761215B CN103761215B (zh) 2016-08-24

Family

ID=50528455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410017822.0A Active CN103761215B (zh) 2014-01-15 2014-01-15 基于图形处理器的矩阵转置优化方法

Country Status (1)

Country Link
CN (1) CN103761215B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107329818A (zh) * 2017-07-03 2017-11-07 郑州云海信息技术有限公司 一种任务调度处理方法及装置
CN108053855A (zh) * 2017-11-29 2018-05-18 北京时代民芯科技有限公司 一种基于sdram芯片的矩阵转置方法
CN108470211A (zh) * 2018-04-09 2018-08-31 郑州云海信息技术有限公司 一种卷积计算的实现方法、设备和计算机存储介质
WO2018192161A1 (zh) * 2017-04-19 2018-10-25 上海寒武纪信息科技有限公司 运算装置及方法
CN109471612A (zh) * 2018-09-18 2019-03-15 北京中科寒武纪科技有限公司 运算装置及方法
CN109902059A (zh) * 2019-02-28 2019-06-18 苏州浪潮智能科技有限公司 一种cpu与gpu之间的数据传输方法
CN110147222A (zh) * 2018-09-18 2019-08-20 北京中科寒武纪科技有限公司 运算装置及方法
CN110310220A (zh) * 2018-03-27 2019-10-08 广东瑞图万方科技股份有限公司 一种半全局实时立体匹配方法
CN110727911A (zh) * 2018-07-17 2020-01-24 展讯通信(上海)有限公司 一种矩阵的运算方法及装置、存储介质、终端
CN111626415A (zh) * 2019-02-27 2020-09-04 辉达公司 适用于人工神经网络的高效矩阵数据格式
CN111858036A (zh) * 2020-06-29 2020-10-30 浪潮电子信息产业股份有限公司 基于FPGA设备的TensorFlow系统加速方法、装置、设备及存储介质
CN112416433A (zh) * 2020-11-24 2021-02-26 中科寒武纪科技股份有限公司 一种数据处理装置、数据处理方法及相关产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7836118B1 (en) * 2006-06-16 2010-11-16 Nvidia Corporation Hardware/software-based mapping of CTAs to matrix tiles for efficient matrix multiplication
CN101937555A (zh) * 2009-07-02 2011-01-05 北京理工大学 基于gpu众核平台的脉冲压缩参考矩阵并行生成方法
CN101937425A (zh) * 2009-07-02 2011-01-05 北京理工大学 基于gpu众核平台的矩阵并行转置方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7836118B1 (en) * 2006-06-16 2010-11-16 Nvidia Corporation Hardware/software-based mapping of CTAs to matrix tiles for efficient matrix multiplication
CN101937555A (zh) * 2009-07-02 2011-01-05 北京理工大学 基于gpu众核平台的脉冲压缩参考矩阵并行生成方法
CN101937425A (zh) * 2009-07-02 2011-01-05 北京理工大学 基于gpu众核平台的矩阵并行转置方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张晓东,等: "利用GPU实现SAR图像的并行处理", 《火控雷达技术》, vol. 40, no. 4, 15 December 2011 (2011-12-15) *
张海燕,等: "图形处理器的流执行模型", 《计算机工程》, vol. 34, no. 22, 30 November 2008 (2008-11-30) *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018192161A1 (zh) * 2017-04-19 2018-10-25 上海寒武纪信息科技有限公司 运算装置及方法
CN107329818A (zh) * 2017-07-03 2017-11-07 郑州云海信息技术有限公司 一种任务调度处理方法及装置
CN108053855A (zh) * 2017-11-29 2018-05-18 北京时代民芯科技有限公司 一种基于sdram芯片的矩阵转置方法
CN108053855B (zh) * 2017-11-29 2021-01-08 北京时代民芯科技有限公司 一种基于sdram芯片的矩阵转置方法
CN110310220A (zh) * 2018-03-27 2019-10-08 广东瑞图万方科技股份有限公司 一种半全局实时立体匹配方法
CN108470211A (zh) * 2018-04-09 2018-08-31 郑州云海信息技术有限公司 一种卷积计算的实现方法、设备和计算机存储介质
CN110727911A (zh) * 2018-07-17 2020-01-24 展讯通信(上海)有限公司 一种矩阵的运算方法及装置、存储介质、终端
CN109471612A (zh) * 2018-09-18 2019-03-15 北京中科寒武纪科技有限公司 运算装置及方法
CN110147222A (zh) * 2018-09-18 2019-08-20 北京中科寒武纪科技有限公司 运算装置及方法
CN112328208A (zh) * 2018-09-18 2021-02-05 安徽寒武纪信息科技有限公司 运算装置及方法
CN111626415A (zh) * 2019-02-27 2020-09-04 辉达公司 适用于人工神经网络的高效矩阵数据格式
CN111626415B (zh) * 2019-02-27 2023-10-10 辉达公司 适用于人工神经网络的高效矩阵数据格式
CN109902059A (zh) * 2019-02-28 2019-06-18 苏州浪潮智能科技有限公司 一种cpu与gpu之间的数据传输方法
CN109902059B (zh) * 2019-02-28 2021-06-29 苏州浪潮智能科技有限公司 一种cpu与gpu之间的数据传输方法
CN111858036A (zh) * 2020-06-29 2020-10-30 浪潮电子信息产业股份有限公司 基于FPGA设备的TensorFlow系统加速方法、装置、设备及存储介质
CN111858036B (zh) * 2020-06-29 2022-06-10 浪潮电子信息产业股份有限公司 基于FPGA设备的TensorFlow系统加速方法、装置、设备及存储介质
CN112416433A (zh) * 2020-11-24 2021-02-26 中科寒武纪科技股份有限公司 一种数据处理装置、数据处理方法及相关产品
CN112416433B (zh) * 2020-11-24 2023-01-17 中科寒武纪科技股份有限公司 一种数据处理装置、数据处理方法及相关产品

Also Published As

Publication number Publication date
CN103761215B (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
CN103761215A (zh) 基于图形处理器的矩阵转置优化方法
Venkataraman et al. Presto: distributed machine learning and graph processing with sparse matrices
US9141173B2 (en) Thread consolidation in processor cores
US10061622B2 (en) Updating memory topology information for virtual machines
DE102012222394A1 (de) Verfahren und Vorrichtung zum Sammelzwischenspeichern von Quelloperanden
DE102013017511A1 (de) Effiziente speichervirtualisierung in mehrsträngigen verarbeitungseinheiten
DE102013114072A1 (de) System und Verfahren zum Hardware-Scheduling von indexierten Barrieren
DE102012221502A1 (de) System und Verfahren zum Durchführen von gestalteter-Speicherzugriff-Operationen
CN102591709B (zh) 基于OGR的shapefile文件主从式并行写方法
CN102880510A (zh) 基于多数据架构中心面向数据密集型应用的并行编程方法
DE102013020485A1 (de) Technik zur Ausführung von Speicherzugriffsoperationen über eine Textur-Hardware
DE102021104970A1 (de) Kooperative parallele speicherzuteilung
CN102708009A (zh) 一种基于cuda实现多任务共享gpu的方法
DE102020121601A1 (de) Persistenter Notizblockspeicher zum Datenaustausch zwischen Programmen
CN103425534A (zh) 在许多应用之间共享的图形处理单元
CN103996216A (zh) 用于曲面细分和几何着色器的电力高效属性处置
D'Amore et al. Towards a parallel component in a GPU–CUDA environment: a case study with the L-BFGS Harwell routine
DE102021106797A1 (de) Techniken zur orchestrierung von phasen der thread-synchronisation
DE102012222391A1 (de) Mehrkanal-Zeitscheibengruppen
Nguyen et al. Delaunay triangulation of large-scale datasets using two-level parallelism
CN105373492A (zh) 一种面向任务流的基于寄存器文件的快速数据交换结构
Moreland et al. Visualization for exascale: Portable performance is critical
DE102022132008A1 (de) Asynchrone speicherdeallokation
Liu et al. BSPCloud: A hybrid distributed-memory and shared-memory programming model
DE102022114509A1 (de) Speicherzuweisung unter verwendung von graphen

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant