CN105022631A - 一种面向科学计算的浮点型数据并行无损压缩方法 - Google Patents

一种面向科学计算的浮点型数据并行无损压缩方法 Download PDF

Info

Publication number
CN105022631A
CN105022631A CN201510398153.0A CN201510398153A CN105022631A CN 105022631 A CN105022631 A CN 105022631A CN 201510398153 A CN201510398153 A CN 201510398153A CN 105022631 A CN105022631 A CN 105022631A
Authority
CN
China
Prior art keywords
data
gpu
mantissa
compressed
pointer field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510398153.0A
Other languages
English (en)
Inventor
王彬
李帆
刘文娟
黑新宏
谢国
王磊
张丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201510398153.0A priority Critical patent/CN105022631A/zh
Publication of CN105022631A publication Critical patent/CN105022631A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种面向科学计算的浮点型数据并行无损压缩方法,通过移植等手段,将TMI(尾数整型化压缩)方法由CPU转移到GPU,并采用棋盘分割的方式充分利用GPU所提供的众核技术,运用跨平台语言OpenCL进一步并行优化数据压缩流程,不仅延续了TMI压缩方法的高压缩比,而且使压缩速度得到了质的飞跃,达到了高压缩率与高速度化的平衡。

Description

一种面向科学计算的浮点型数据并行无损压缩方法
技术领域
本发明属于数据并行处理技术领域,具体涉及一种面向科学计算的浮点型数据并行无损压缩方法。
背景技术
随着数据时代的到来,各行各业所产生的数据呈指数级增长,大规模数据的产生不仅对硬件设备带来巨大挑战,而且对网络带宽产生巨大压力,如此庞大的数据严重阻碍了科学计算的运用和发展。数据压缩一直是用于降低数据规模行之有效的方法,并且在科学计算领域,任何一个微小误差都将可能产生不可预料的后果,所以无损性是数据压缩的必要条件。
传统的数据压缩方法往往耗时巨大,而科学数据的更新速度却十分迅速,因此对传统数据压缩方法的更新换代迫在眉睫;同时受国外高昂软件费用license的限制,我国在高性能硬件设备和应用低效率之间的矛盾日益突出,提高处理器利用率可以有效缓解此种矛盾。
就目前计算机硬件设备而言,其性能上已经有很大提高,如一般计算机都已是4核处理器,而GPU拥有成千上万的算术逻辑单元专用于数据计算,这为并行技术提供了硬件基础。采用并行数据压缩方法不仅可以加快数据处理流程,而且可以提高处理器利用率。
发明内容
本发明的目的是提供一种面向科学计算的浮点型数据并行无损压缩方法,解决了现有技术中存在的高性能硬件设备和应用低效率之间的矛盾的问题。
本发明所采用的技术方案是,一种面向科学计算的浮点型数据并行无损压缩方法,将TMI方法由CPU转移到GPU,并采用棋盘分割的方式得以充分利用GPU提供的众核技术,加快数据处理流程。
本发明的特点还在于:
CPU内部的具体工作步骤为:
步骤1.1、初始化GPU,获得GPU的各种参数,并创建命令队列;
步骤1.2、创建GPU的Kernel压缩程序和Kernel解压缩程序的执行命令;
步骤1.3、申请保存压缩完成后的有效数据位和标志位数据的GPU内存空间;
步骤1.4、转换待压缩数据使其变成可被GPU识别的维度和格式;
步骤1.5、将步骤1.4转换后的数据由CPU发送到GPU;
步骤1.6、根据命令队列控制GPU端Kernel压缩程序的运行;
步骤1.7、根据命令队列控制GPU端Kernel解压缩程序的运行。
步骤1.1具体为:首先获取支持GPU的平台信息;然后获取GPU的设备信息;最后根据平台信息和GPU的设备信息创建上下文和命令队列;
其中,GPU的设备信息包括GPU的型号,GPU能运行的最大线程数,GPU的内存大小,GPU所支持的全局内存大小和局部内存大小。
GPU内部的具体工作步骤为:
步骤2.1、接收CPU发送的数据;
步骤2.2、获取步骤2.1中接收到的数据的工作组编号,根据该编号确定数据压缩和解压缩时的线程编号;
步骤2.3、根据步骤2.2得到的线程编号和工作组编号确定哪部分数据由哪个线程处理压缩和解压缩;
步骤2.4、采用TMI压缩方法进行数据压缩,并将压缩后的数据按位存储;
步骤2.5、采用TMI解压缩方法进行数据解压缩。
步骤2.2中工作组编号的获取具体为:将所有数据的维度视作全局工作空间,每个数据的位置编号视作相应维度上的全局编号;对全局工作空间分块,将每块视作工作组空间,块的位置编号视作相应维度上的工作组编号;工作组空间内的数据的位置相对工作组空间的位置视作局部位置。
步骤2.4的具体步骤为:
步骤2.4.1、内存拷贝参考数据和被压缩数据,将其分别转换为4个字节的整数,
其中,参考数据是前一个被压缩数据;
步骤2.4.2、根据IEEE754格式,提取出参考数据和被压缩数据的符号域、指数域和尾数域;
步骤2.4.3、保持被压缩数据的符号域值不变;
步骤2.4.4、采用减法运算得出被压缩数据与参考数据的指数域差值,当指数域差值的值较小时,标记相应的标志位;当指数域差值的值较大时,单独存储被压缩数据的指数域,并标记相应的标志位;
步骤2.4.5、采用减法运算得出被压缩数据与参考数据的尾数域差值,删除尾数域差值头部的连续冗余0,存储有效数据,同时标记有效数据的个数;
步骤2.4.6、采用位位相接的方式封装所有数据尾数域差值的有效数据位,并封装被压缩数据的符号域、指数域及各种标志位,即实现了数据的完全无损压缩。
步骤2.5具体步骤为:
步骤2.5.1、根据尾数部分的标志位值确定尾数域差值的有效数据位数,并按位从尾数域的压缩数据中取出该差值;然后由IEEE754格式可知该差值头部所需的冗余0位数,并对其进行填充;最后根据参考数据的尾数值恢复出被压缩数据的尾数域;
步骤2.5.2、根据指数部分的标志位值,如果获得的是指数域差值,根据参考数据的指数域恢复出被压缩数据的指数域,转到步骤2.3;如果获得的是被压缩数据的指数域,直接转到步骤2.3;
步骤2.5.3、从压缩数据中取出被压缩数据的符号域;
步骤2.5.4、按照IEEE754格式,组合符号域、指数域和尾数域变成4个字节的整数,并内存映射该整数使其还原成被压缩的浮点型数据。
本发明的有益效果是:本发明一种面向科学计算的浮点型数据并行无损压缩方法,通过移植等手段,结合CPU与GPU混合异构编程模型,运用跨平台语言OpenCL进一步优化数据压缩流程,加快数据处理速度,达到了高压缩率与高速度化的平衡。
附图说明
图1是本发明并行压缩方法中基于OpenCL的TMI并行压缩策略示意图;
图2是本发明并行压缩方法与TMI、OMPTMI的压缩率比较图;
图3是本发明并行压缩方法与TMI、OMPTMI的压缩和解压缩时间比较图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种面向科学计算的浮点型数据并行无损压缩方法,主要针对单精度浮点型数据。结合尾数整型化-Think Mantissa as Integer(TMI)串行压缩方法的理论原型,提出基于众核GPU的OpenCL并行TMI压缩方法(CLTMI)。如图1所示,通过移植等手段,将TMI方法由CPU转移到GPU,并采用棋盘分割的方式得以充分利用GPU所提供的众核技术,加快数据处理流程。
CPU主要包括对GPU的初始化、对数据的转换以及对Kernel程序的控制,具体步骤为:
步骤1.1、初始化GPU,获得GPU的各种参数,并创建命令队列,具体为:
首先获取支持GPU的平台信息即是NVIDIA平台还是AMD平台或者其他种类的平台;然后获取GPU的设备信息;最后根据平台信息和GPU的设备信息创建上下文和命令队列;
在该步骤中必须了解支持OpenCL运行的环境参数,包括OpenCL的运行设备即GPU的设备信息包括GPU的型号,GPU能运行的最大线程数,GPU的内存大小,GPU所支持的全局内存大小和局部内存大小;根据这些参数不断优化OpenCL并行程序,同时避免出现数据量过大导致内存不足,或者使分块容量过大导致访问越界等异常现象。
步骤1.2、创建GPU的Kernel压缩程序和Kernel解压缩程序的执行命令,Kernel程序的命名必须与宿主机创建Kernel程序执行命令时定义的名字完全相同,否则将出现程序可以编译通过但运行异常退出等情况;
步骤1.3、申请保存压缩完成后的有效数据位和标志位数据的GPU内存空间,此处申请的内存空间必须小于步骤1.1中获得的最大内存空间;
步骤1.4、转换待压缩数据使其变成可被GPU识别的维度和格式。CPU处理的数据属于二维数据,GPU虽常用于浮点型数据计算,并且也支持多维度数据处理,但使用OpenCL异构编程模型时,必须人工将多维度数据转换成一维度数据。以二维数组为例,式(1)表示二维数组data2向一维数组data1转换:
data2[i,j]=data1[i*Nl+j]     (1)
式(2)表示一维数组data1向二维数组data2转换:
data1[i]=data2[i/Nl,i%Nl]     (2)
其中i、j表示数组下标,Nl、Nx表示二维数组的维度大小。
步骤1.5、将步骤1.4转换后的数据由CPU发送到GPU;
步骤1.6、根据命令队列控制GPU端Kernel压缩程序的运行;
步骤1.7、根据命令队列控制GPU端Kernel解压缩程序的运行。
GPU主要包括对线程编号的获取、数据的压缩与解压缩工作,具体步骤为:
步骤2.1、接收CPU发送的数据;
步骤2.2、获取步骤2.1中接收到的数据的工作组编号,根据该编号确定数据压缩和解压缩时的线程编号;
其中,工作组编号的获取具体为:将所有数据的维度视作全局工作空间(Global Work Size),每个数据的位置编号视作相应维度上的全局编号(Global ID);对全局工作空间分块,将每块视作工作组空间(Work Group),块的位置编号视作相应维度上的工作组编号(Work Group ID);工作组空间内的数据的位置相对工作组空间的位置视作局部位置(Local ID)。
如二维工作空间NDRang(Gx,Gy),对应工作组NDRang(Sx,Sy),Gx是Sx的若干倍,Gy是Sy的若干倍。假设工作空间中的节点Global ID是(gx,gy),工作组ID(work group ID)为(wx,wy),在该工作组内的Local ID为(sx,sy),则Global ID、work group ID和Local ID必须满足以下公式:
0<=gx<Gx,0<=gy<Gy
0<=sx<Sx,0<=sy<Sy
0<=wx<Gx/Sx,0<=wy<Gy/Sy
(gx,gy)=(wx*Sx+sx*Sy+sy)
(wx,wy)=((gx-sx)/Sx,(gy-sy)/Sy)
步骤2.3、根据步骤2.2得到的线程编号和工作组编号确定哪部分数据由哪个线程处理压缩和解压缩,此外必须设置全局工作空间同步处理,否则将出现数据读写或写写冲突;
步骤2.4、采用TMI压缩方法进行数据压缩,并将压缩后的数据按位存储,具体为:
步骤2.4.1、内存拷贝参考数据和被压缩数据,将其分别转换为4个字节的整数,
其中,参考数据是前一个被压缩数据;
步骤2.4.2、根据IEEE754格式,提取出参考数据和被压缩数据的符号域、指数域和尾数域;
步骤2.4.3、保持被压缩数据的符号域值不变;
步骤2.4.4、采用减法运算得出被压缩数据与参考数据的指数域差值,由于参考数据与被压缩数据具有极大相似性,因此该差值的值较小,因而所需要存储的比特位也较少;当指数域差值的值较小即被压缩数据与参考数据的指数域差值为0,1,-1时,标记相应的标志位,对应的标记位为0,1,2;当指数域差值的值较大,即被压缩数据与参考数据的指数域差值为其他值时,单独存储被压缩数据的指数域,并标记相应的标志位,对应的标记位为3;
步骤2.4.5、采用减法运算得出被压缩数据与参考数据的尾数域差值,根据数据间具有极强的相似性可知,该尾数域差值头部将产生若干连续冗余0,在存储有效数据时删除这些冗余0即可达到压缩数据的效果,存储有效数据,同时标记有效数据的个数,以便解压时完整恢复原始数据;
步骤2.4.6、采用位位相接的方式封装所有数据尾数域差值的有效数据位,并封装被压缩数据的符号域、指数域及各种标志位,即实现了数据的压缩。
步骤2.5、采用TMI解压缩方法进行数据解压缩,具体为:
步骤2.5.1、根据尾数部分的标志位值确定尾数域差值的有效数据位数,并按位从尾数域的压缩数据中取出该差值;然后由IEEE754格式可知该差值头部所需的冗余0位数,并对其进行填充;最后根据参考数据的尾数值恢复出被压缩数据的尾数域;
步骤2.5.2、根据指数部分的标志位值可确定被压缩数据与参考数据的指数域差值或者可直接获得被压缩数据的指数域,如果获得的是指数域差值,根据参考数据的指数域恢复出被压缩数据的指数域,转到步骤2.5.3;如果获得的是被压缩数据的指数域,直接转到步骤2.5.3;
步骤2.5.3、从压缩数据中取出被压缩数据的符号域;
步骤2.5.4、按照IEEE754格式,组合符号域、指数域和尾数域变成4个字节的整数,并内存映射该整数使其还原成被压缩的浮点型数据。
如图2所示为本发明并行无损压缩方法CLTMI(Computing LanguageThink Mantissa as Integer,基于OpenCL的尾数整型化并行压缩方法,指众核GPU并行模式的数据压缩)与TMI(Think Mantissa as Integer,尾数整型化压缩方法,指串行模式的数据压缩)、OMPTMI(Open Multi-ProcessingThink Mantissa as Integer,基于OpenMP的尾数整型化并行压缩方法,指4核CPU并行模式的数据压缩)的压缩率比较图,由图2可以得出:对于压缩结果复杂的流体仿真数据(如图中U文件、V文件、UV文件),本发明并行无损压缩CLTMI方法取得了比压缩工具TMI、OMPTMI更好的压缩效果。
如图3所示为本发明并行无损压缩方法CLTMI与TMI、OMPTMI的压缩和解压缩时间比较图,由图3可以得出:本发明并行无损压缩CLTMI方法对U文件、V文件、UV文件的压缩和解压缩速度比压缩工具TMI、OMPTMI更快。

Claims (7)

1.一种面向科学计算的浮点型数据并行无损压缩方法,其特征在于,将TMI方法由CPU转移到GPU,并采用棋盘分割的方式得以充分利用GPU提供的众核技术,加快数据处理流程。
2.根据权利要求1所述的一种面向科学计算的浮点型数据并行无损压缩方法,其特征在于,所述CPU内部的具体工作步骤为:
步骤1.1、初始化GPU,获得GPU的各种参数,并创建命令队列;
步骤1.2、创建GPU的Kernel压缩程序和Kernel解压缩程序的执行命令;
步骤1.3、申请保存压缩完成后的有效数据位和标志位数据的GPU内存空间;
步骤1.4、转换待压缩数据使其变成可被GPU识别的维度和格式;
步骤1.5、将步骤1.4转换后的数据由CPU发送到GPU;
步骤1.6、根据命令队列控制GPU端Kernel压缩程序的运行;
步骤1.7、根据命令队列控制GPU端Kernel解压缩程序的运行。
3.根据权利要求2所述的一种面向科学计算的浮点型数据并行无损压缩方法,其特征在于,所述步骤1.1具体为:首先获取支持GPU的平台信息;然后获取GPU的设备信息;最后根据平台信息和GPU的设备信息创建上下文和命令队列;
其中,GPU的设备信息包括GPU的型号,GPU能运行的最大线程数,GPU的内存大小,GPU所支持的全局内存大小和局部内存大小。
4.根据权利要求2所述的一种面向科学计算的浮点型数据并行无损压缩方法,其特征在于,所述GPU内部的具体工作步骤为:
步骤2.1、接收CPU发送的数据;
步骤2.2、获取步骤2.1中接收到的数据的工作组编号,根据该编号确定数据压缩和解压缩时的线程编号;
步骤2.3、根据步骤2.2得到的线程编号和工作组编号确定哪部分数据由哪个线程处理压缩和解压缩;
步骤2.4、采用TMI压缩方法进行数据压缩,并将压缩后的数据按位存储;
步骤2.5、采用TMI解压缩方法进行数据解压缩。
5.根据权利要求4所述的一种面向科学计算的浮点型数据并行无损压缩方法,其特征在于,所述步骤2.2中工作组编号的获取具体为:将所有数据的维度视作全局工作空间,每个数据的位置编号视作相应维度上的全局编号;对全局工作空间分块,将每块视作工作组空间,块的位置编号视作相应维度上的工作组编号;工作组空间内的数据的位置相对工作组空间的位置视作局部位置。
6.根据权利要求4所述的一种面向科学计算的浮点型数据并行无损压缩方法,其特征在于,所述步骤2.4的具体步骤为:
步骤2.4.1、内存拷贝参考数据和被压缩数据,将其分别转换为4个字节的整数,
其中,参考数据是前一个被压缩数据;
步骤2.4.2、根据IEEE754格式,提取出参考数据和被压缩数据的符号域、指数域和尾数域;
步骤2.4.3、保持被压缩数据的符号域值不变;
步骤2.4.4、采用减法运算得出被压缩数据与参考数据的指数域差值,当指数域差值的值较小时,标记相应的标志位;当指数域差值的值较大时,单独存储被压缩数据的指数域,并标记相应的标志位;
步骤2.4.5、采用减法运算得出被压缩数据与参考数据的尾数域差值,删除尾数域差值头部的连续冗余0,存储有效数据,同时标记有效数据的个数;
步骤2.4.6、采用位位相接的方式封装所有数据尾数域差值的有效数据位,并封装被压缩数据的符号域、指数域及各种标志位,即实现了数据的完全无损压缩。
7.根据权利要求4所述的一种面向科学计算的浮点型数据并行无损压缩方法,其特征在于,所述步骤2.5具体步骤为:
步骤2.5.1、根据尾数部分的标志位值确定尾数域差值的有效数据位数,并按位从尾数域的压缩数据中取出该差值;然后由IEEE754格式可知该差值头部所需的冗余0位数,并对其进行填充;最后根据参考数据的尾数值恢复出被压缩数据的尾数域;
步骤2.5.2、根据指数部分的标志位值,如果获得的是指数域差值,根据参考数据的指数域恢复出被压缩数据的指数域,转到步骤2.3;如果获得的是被压缩数据的指数域,直接转到步骤2.3;
步骤2.5.3、从压缩数据中取出被压缩数据的符号域;
步骤2.5.4、按照IEEE754格式,组合符号域、指数域和尾数域变成4个字节的整数,并内存映射该整数使其还原成被压缩的浮点型数据。
CN201510398153.0A 2015-07-08 2015-07-08 一种面向科学计算的浮点型数据并行无损压缩方法 Pending CN105022631A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510398153.0A CN105022631A (zh) 2015-07-08 2015-07-08 一种面向科学计算的浮点型数据并行无损压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510398153.0A CN105022631A (zh) 2015-07-08 2015-07-08 一种面向科学计算的浮点型数据并行无损压缩方法

Publications (1)

Publication Number Publication Date
CN105022631A true CN105022631A (zh) 2015-11-04

Family

ID=54412622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510398153.0A Pending CN105022631A (zh) 2015-07-08 2015-07-08 一种面向科学计算的浮点型数据并行无损压缩方法

Country Status (1)

Country Link
CN (1) CN105022631A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017143502A1 (en) * 2016-02-23 2017-08-31 Intel Corporation Optimizing structures to fit into a complete cache line
CN107291832A (zh) * 2017-05-27 2017-10-24 华南理工大学 一种基于列表存储结构的数据存储方法
CN109408028A (zh) * 2018-09-21 2019-03-01 东软集团股份有限公司 浮点数运算方法、装置及存储介质
CN109901840A (zh) * 2019-02-14 2019-06-18 中国科学院计算技术研究所 一种线程间冗余删除的异构编译优化方法
CN111404907A (zh) * 2020-03-10 2020-07-10 桂林电子科技大学 一种基于ieee754格式的数据压缩传输方法
CN111726117A (zh) * 2019-03-20 2020-09-29 中国石油化工股份有限公司 数字岩心数据并行压缩编码方法及并行解压解码方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140132614A1 (en) * 2012-11-14 2014-05-15 Microsoft Corporation Digital art undo and redo
CN104467870A (zh) * 2014-12-17 2015-03-25 北京全路通信信号研究设计院有限公司 一种结构化数据的传输方法、装置及高速铁路系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140132614A1 (en) * 2012-11-14 2014-05-15 Microsoft Corporation Digital art undo and redo
CN104467870A (zh) * 2014-12-17 2015-03-25 北京全路通信信号研究设计院有限公司 一种结构化数据的传输方法、装置及高速铁路系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RAFFAELE PIZZOLANTE 等: "Parallel Low-Complexity Lossless Coding of Three-Dimensional Medical Images", 《2014 17TH INTERNATIONAL CONFERENCE ON NETWORK-BASED INFORMATION SYSTEMS (NBIS)》 *
WENJUAN LIU等: "A Simple and Real-time Parallel Compression of Time Series Scientific Simulation Data For Interactive and Cooperative Supercomputing", 《2014 TENTH INTERNATIONAL CONFERENCE ON COMPUTATIONAL INTELLIGENCE AND SECURITY (CIS)》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017143502A1 (en) * 2016-02-23 2017-08-31 Intel Corporation Optimizing structures to fit into a complete cache line
US10761819B2 (en) 2016-02-23 2020-09-01 Intel Corporation Optimizing structures to fit into a complete cache line
CN107291832A (zh) * 2017-05-27 2017-10-24 华南理工大学 一种基于列表存储结构的数据存储方法
CN107291832B (zh) * 2017-05-27 2020-02-18 华南理工大学 一种基于列表存储结构的数据存储方法
CN109408028A (zh) * 2018-09-21 2019-03-01 东软集团股份有限公司 浮点数运算方法、装置及存储介质
CN109408028B (zh) * 2018-09-21 2021-03-05 东软集团股份有限公司 浮点数运算方法、装置及存储介质
CN109901840A (zh) * 2019-02-14 2019-06-18 中国科学院计算技术研究所 一种线程间冗余删除的异构编译优化方法
CN111726117A (zh) * 2019-03-20 2020-09-29 中国石油化工股份有限公司 数字岩心数据并行压缩编码方法及并行解压解码方法
CN111404907A (zh) * 2020-03-10 2020-07-10 桂林电子科技大学 一种基于ieee754格式的数据压缩传输方法
CN111404907B (zh) * 2020-03-10 2022-04-22 桂林电子科技大学 一种基于ieee754格式的数据压缩传输方法

Similar Documents

Publication Publication Date Title
CN105022631A (zh) 一种面向科学计算的浮点型数据并行无损压缩方法
CN104573122B (zh) 一种从AIX平台向K‑UX平台迁移的Oracle数据库迁移工具
CN104737165B (zh) 用于内存数据库查询处理的最优数据表示和辅助结构
CN104142845A (zh) 基于OpenCL-To-FPGA的CT图像重建反投影加速方法
US20200302284A1 (en) Data compression for a neural network
US9304898B2 (en) Hardware-based array compression
Gan et al. Accelerating solvers for global atmospheric equations through mixed-precision data flow engine
CN109643233A (zh) 具有带读取和读取/前进操作数编码的流引擎的数据处理设备
CN107480202B (zh) 一种用于多并行处理框架的数据处理方法及装置
CN110780879B (zh) 一种基于智能编译技术的决策执行方法、装置、设备及介质
CN104573121A (zh) 一种从aix平台向k-ux平台迁移的db2数据库迁移工具
CN104102690A (zh) 一种基于存储结构的遥测数据处理方法
CN104391991A (zh) 一种从AutoCAD数据到GIS空间数据的转换方法
CN104408019A (zh) 一种基于mic平台实现gmres算法并行加速的方法
CN105183562A (zh) 一种基于cuda技术对栅格化数据进行抽阶的方法
CN110764774A (zh) 一种基于dsp平台sift算法硬件加速方法
CN110086602A (zh) 基于gpu的sm3密码散列算法的快速实现方法
CN103942082A (zh) 一种消除冗余的内存访问操作的编译优化方法
CN103593304A (zh) 基于并行设备模型的高效使用缓存的量化方法
CN113222156B (zh) 一种待执行操作的量子模拟方法、装置
KR102656567B1 (ko) 다양한 유형의 신경망 모델을 변환 및 활용할 수 있도록 하는 방법 및 장치
CN115952393B (zh) 基于超级计算机的多头注意力机制的前向计算方法及系统
CN115170381A (zh) 一种基于深度学习的视觉slam加速系统及方法
CN104731968A (zh) 一种单机的大规模数据集的聚类挖掘方法
CN116830101A (zh) 基于处理资源的张量修改

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20151104