CN112463356A - Gpu堆管理器内存地址分配方法、系统、终端及存储介质 - Google Patents

Gpu堆管理器内存地址分配方法、系统、终端及存储介质 Download PDF

Info

Publication number
CN112463356A
CN112463356A CN202011165018.9A CN202011165018A CN112463356A CN 112463356 A CN112463356 A CN 112463356A CN 202011165018 A CN202011165018 A CN 202011165018A CN 112463356 A CN112463356 A CN 112463356A
Authority
CN
China
Prior art keywords
memory
page
size
address
gpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011165018.9A
Other languages
English (en)
Inventor
侯德龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202011165018.9A priority Critical patent/CN112463356A/zh
Publication of CN112463356A publication Critical patent/CN112463356A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources

Abstract

本发明提供一种GPU堆管理器内存地址分配方法、系统、终端及存储介质,包括:从GPU内存划分管理区域;将所述管理区域划分为多个固定大小的页,并将页划分为多个固定大小的块;利用随机算法计算从所述管理区域中选取起始页;利用随机算法从所述起始页选取起始块;将所述起始页的起始块地址分配给接收到的请求。本发明实现了地址随机化技术,从而实现堆内存地址随机化分配,消除原有地址连续分配的规律,降低猜测内存地址用途的可能性。通过内存地址随机化分配,增加内存地址破解的难度。

Description

GPU堆管理器内存地址分配方法、系统、终端及存储介质
技术领域
本发明涉及GPU技术领域,具体涉及一种GPU堆管理器内存地址分配方法、系统、终端及存储介质。
背景技术
Cuda-memcheck是NVIDIA官方发布的一个CUDA toolkit中检查内存错误的组件,它可以检查出内存访问错误的来源、报告执行过程中的运行存储以及识别再应用程序运行中可能导致失败错误的情况。但它只适用于线下的内存检测,如果运行时使用会造成大量的性能损耗,性能损耗过大,无法接受。
CUDA内置的堆管理器,也叫作动态内存分配器。内存分配主要有静态内存分配和动态内存分配。数组等预先分配内存的属于静态内存分配,动态内存分配只是可以根据程序运行时对内存的需要,通过堆管理器进行动态的分配内存大小。
Cuda-memcheak性能消耗太大,只适用于线下的内存检查。CUDA默认的堆管理器对堆内存空间的分配是连续的,它根据线程内存分配的请求顺序的对内存空间进行分配,不管请求是否是来自同一线程或者不同的block甚至不同的kernel。这是一个很大的安全隐患,尤其是在云计算这种共享GPU的环境中,一个线程的缓冲区溢出可以轻易的影响到其它用户的线程。并且堆管理器分配的内存地址是固定不变的,这导致程序的地址、指针只要输出过一次,就可以推测出以后GPU内存分配的地址,这样攻击者就可以利用这个溢出的地址进行重写或者跳转到恶意代码处。
发明内容
针对现有技术的上述不足,本发明提供一种GPU堆管理器内存地址分配方法、系统、终端及存储介质,以解决上述技术问题。
第一方面,本发明提供一种GPU堆管理器内存地址分配方法,包括:
从GPU内存划分管理区域;
将所述管理区域划分为多个固定大小的页,并将页划分为多个固定大小的块;
利用随机算法计算从所述管理区域中选取起始页;
利用随机算法从所述起始页选取起始块;
将所述起始页的起始块地址分配给接收到的请求。
进一步的,所述从GPU内存划分管理区域,包括:
通过初始化GPU堆管理器的接口设置所述管理区域大小。
进一步的,所述利用随机算法计算从所述管理区域中选取起始页,包括:
获取请求所需内存大小;
从所有页中筛选与所需内存大小相匹配的页作为可选页集合;
利用随机算法从所述可选页集合中选取起始页。
进一步的,所述方法还包括:
计算要释放内存的目标页;
根据所述目标页的使用信息表得到页中块的大小;
用需要释放的目标块的地址减去所述目标块所在页的地址得到目标块在页中的偏移量;
根据所述偏移量计算出要被释放内存的位;
将得到的位设置为内存释放地位,则内存释放完毕。
第二方面,本发明提供一种GPU堆管理器内存地址分配系统,包括:
区域划分单元,配置用于从GPU内存划分管理区域;
内存细分单元,配置用于将所述管理区域划分为多个固定大小的页,并将页划分为多个固定大小的块;
第一选取单元,配置用于利用随机算法计算从所述管理区域中选取起始页;
第二选取单元,配置用于利用随机算法从所述起始页选取起始块;
地址分配单元,配置用于将所述起始页的起始块地址分配给接收到的请求。
进一步的,所述区域划分单元包括:
设置模块,配置用于通过初始化GPU堆管理器的接口设置所述管理区域大小。
进一步的,所述第一选取单元包括:
大小获取模块,配置用于获取请求所需内存大小;
大小匹配模块,配置用于从所有页中筛选与所需内存大小相匹配的页作为可选页集合;
随机选取模块,配置用于利用随机算法从所述可选页集合中选取起始页。
进一步的,所述系统还包括:
目标计算单元,配置用于计算要释放内存的目标页;
存储获取单元,配置用于根据所述目标页的使用信息表得到页中块的大小;
偏移计算单元,配置用于用需要释放的目标块的地址减去所述目标块所在页的地址得到目标块在页中的偏移量;
位置计算单元,配置用于根据所述偏移量计算出要被释放内存的位;
内存释放单元,配置用于将得到的位设置为内存释放地位,则内存释放完毕。
第三方面,提供一种终端,包括:
处理器、存储器,其中,
该存储器用于存储计算机程序,
该处理器用于从存储器中调用并运行该计算机程序,使得终端执行上述的终端的方法。
第四方面,提供了一种计算机存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述各方面所述的方法。
本发明的有益效果在于,
本发明提供的GPU堆管理器内存地址分配方法、系统、终端及存储介质,实现了地址随机化技术,从而实现堆内存地址随机化分配,消除原有地址连续分配的规律,降低猜测内存地址用途的可能性。通过内存地址随机化分配,增加内存地址破解的难度。
此外,本发明设计原理可靠,结构简单,具有非常广泛的应用前景。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例的方法的示意性流程图。
图2是本发明一个实施例的系统的示意性框图。
图3为本发明实施例提供的一种终端的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
图1是本发明一个实施例的方法的示意性流程图。其中,图1执行主体可以为一种GPU堆管理器内存地址分配系统。
如图1所示,该方法100包括:
步骤110,从GPU内存划分管理区域;
步骤120,将所述管理区域划分为多个固定大小的页,并将页划分为多个固定大小的块;
步骤130,利用随机算法计算从所述管理区域中选取起始页;
步骤140,利用随机算法从所述起始页选取起始块;
步骤150,将所述起始页的起始块地址分配给接收到的请求。
具体的,所述GPU堆管理器内存地址分配方法包括:
S1、系统初始化,首先通过CUDA提供的API从GPU内存中划分一大块内存给系统进行管理,用户可以通过初始化API设置系统内存大小,如果用户不进行设置,则为默认大小,系统分配内存不会对GPU上其它内存造成影响。划分的内存大小可以根据系统执行情况动态添加。可利用GPU上大量线程并发执行的特点,调用多个线程并发进行数据结构初始化,一次提高性能。
S2、内存的随机分配,堆管理器对内存进行随机分配。本发明是采用两集分配机制,第一级是页的选择也就是随机选择一大块内存,第二级是从第一级选择的页中分配与请求大小相应的块。两级分配都是随机分配的,加强随机行。在第一步选择合适页大小时,系统使用一个参数max_frag来控制满足请求后的页中的剩余空间,此参数是与最大的内存碎片直接相关的,当请求分配的内存比页中块的大小小太多甚至超过max_frag的值,则标书当前页不适合当前请求,继续选择下一个页。
S3、内存释放,共四步。第一步系统计算要释放内存属于哪个页。第二步根据页的使用信息表得到页中块的大小;第三部根据块的地址、块所在页的地址计算位字中哪个位代表要被释放的内存块。用快递至减去块所在页的地址得到块在页中的偏移量,然后再计算出要被释放内存的那个位;第四步将得到的位设置为地位,则内存释放完毕。
如图2示,该系统200包括:
区域划分单元210,配置用于从GPU内存划分管理区域;
内存细分单元220,配置用于将所述管理区域划分为多个固定大小的页,并将页划分为多个固定大小的块;
第一选取单元230,配置用于利用随机算法计算从所述管理区域中选取起始页;
第二选取单元240,配置用于利用随机算法从所述起始页选取起始块;
地址分配单元250,配置用于将所述起始页的起始块地址分配给接收到的请求。
可选地,作为本发明一个实施例,所述区域划分单元包括:
设置模块,配置用于通过初始化GPU堆管理器的接口设置所述管理区域大小。
可选地,作为本发明一个实施例,所述第一选取单元包括:
大小获取模块,配置用于获取请求所需内存大小;
大小匹配模块,配置用于从所有页中筛选与所需内存大小相匹配的页作为可选页集合;
随机选取模块,配置用于利用随机算法从所述可选页集合中选取起始页。
可选地,作为本发明一个实施例,所述系统还包括:
目标计算单元,配置用于计算要释放内存的目标页;
存储获取单元,配置用于根据所述目标页的使用信息表得到页中块的大小;
偏移计算单元,配置用于用需要释放的目标块的地址减去所述目标块所在页的地址得到目标块在页中的偏移量;
位置计算单元,配置用于根据所述偏移量计算出要被释放内存的位;
内存释放单元,配置用于将得到的位设置为内存释放地位,则内存释放完毕。
图3为本发明实施例提供的一种终端300的结构示意图,该终端300可以用于执行本发明实施例提供的GPU堆管理器内存地址分配方法。
其中,该终端300可以包括:处理器310、存储器320及通信单元330。这些组件通过一条或多条总线进行通信,本领域技术人员可以理解,图中示出的服务器的结构并不构成对本发明的限定,它既可以是总线形结构,也可以是星型结构,还可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
其中,该存储器320可以用于存储处理器310的执行指令,存储器320可以由任何类型的易失性或非易失性存储终端或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。当存储器320中的执行指令由处理器310执行时,使得终端300能够执行以下上述方法实施例中的部分或全部步骤。
处理器310为存储终端的控制中心,利用各种接口和线路连接整个电子终端的各个部分,通过运行或执行存储在存储器320内的软件程序和/或模块,以及调用存储在存储器内的数据,以执行电子终端的各种功能和/或处理数据。所述处理器可以由集成电路(Integrated Circuit,简称IC)组成,例如可以由单颗封装的IC所组成,也可以由连接多颗相同功能或不同功能的封装IC而组成。举例来说,处理器310可以仅包括中央处理器(Central Processing Unit,简称CPU)。在本发明实施方式中,CPU可以是单运算核心,也可以包括多运算核心。
通信单元330,用于建立通信信道,从而使所述存储终端可以与其它终端进行通信。接收其他终端发送的用户数据或者向其他终端发送用户数据。
本发明还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时可包括本发明提供的各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(英文:read-only memory,简称:ROM)或随机存储记忆体(英文:random access memory,简称:RAM)等。
因此,本发明实现了地址随机化技术,从而实现堆内存地址随机化分配,消除原有地址连续分配的规律,降低猜测内存地址用途的可能性。通过内存地址随机化分配,增加内存地址破解的难度,本实施例所能达到的技术效果可以参见上文中的描述,此处不再赘述。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中如U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,包括若干指令用以使得一台计算机终端(可以是个人计算机,服务器,或者第二终端、网络终端等)执行本发明各个实施例所述方法的全部或部分步骤。
本说明书中各个实施例之间相同相似的部分互相参见即可。尤其,对于终端实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,系统或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
尽管通过参考附图并结合优选实施例的方式对本发明进行了详细描述,但本发明并不限于此。在不脱离本发明的精神和实质的前提下,本领域普通技术人员可以对本发明的实施例进行各种等效的修改或替换,而这些修改或替换都应在本发明的涵盖范围内/任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种GPU堆管理器内存地址分配方法,其特征在于,包括:
从GPU内存划分管理区域;
将所述管理区域划分为多个固定大小的页,并将页划分为多个固定大小的块;
利用随机算法计算从所述管理区域中选取起始页;
利用随机算法从所述起始页选取起始块;
将所述起始页的起始块地址分配给接收到的请求。
2.根据权利要求1所述的方法,其特征在于,所述从GPU内存划分管理区域,包括:
通过初始化GPU堆管理器的接口设置所述管理区域大小。
3.根据权利要求1所述的方法,其特征在于,所述利用随机算法计算从所述管理区域中选取起始页,包括:
获取请求所需内存大小;
从所有页中筛选与所需内存大小相匹配的页作为可选页集合;
利用随机算法从所述可选页集合中选取起始页。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
计算要释放内存的目标页;
根据所述目标页的使用信息表得到页中块的大小;
用需要释放的目标块的地址减去所述目标块所在页的地址得到目标块在页中的偏移量;
根据所述偏移量计算出要被释放内存的位;
将得到的位设置为内存释放地位,则内存释放完毕。
5.一种GPU堆管理器内存地址分配系统,其特征在于,包括:
区域划分单元,配置用于从GPU内存划分管理区域;
内存细分单元,配置用于将所述管理区域划分为多个固定大小的页,并将页划分为多个固定大小的块;
第一选取单元,配置用于利用随机算法计算从所述管理区域中选取起始页;
第二选取单元,配置用于利用随机算法从所述起始页选取起始块;
地址分配单元,配置用于将所述起始页的起始块地址分配给接收到的请求。
6.根据权利要求5所述的系统,其特征在于,所述区域划分单元包括:
设置模块,配置用于通过初始化GPU堆管理器的接口设置所述管理区域大小。
7.根据权利要求5所述的系统,其特征在于,所述第一选取单元包括:
大小获取模块,配置用于获取请求所需内存大小;
大小匹配模块,配置用于从所有页中筛选与所需内存大小相匹配的页作为可选页集合;
随机选取模块,配置用于利用随机算法从所述可选页集合中选取起始页。
8.根据权利要求5所述的系统,其特征在于,所述系统还包括:
目标计算单元,配置用于计算要释放内存的目标页;
存储获取单元,配置用于根据所述目标页的使用信息表得到页中块的大小;
偏移计算单元,配置用于用需要释放的目标块的地址减去所述目标块所在页的地址得到目标块在页中的偏移量;
位置计算单元,配置用于根据所述偏移量计算出要被释放内存的位;
内存释放单元,配置用于将得到的位设置为内存释放地位,则内存释放完毕。
9.一种终端,其特征在于,包括:
处理器;
用于存储处理器的执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-4任一项所述的方法。
10.一种存储有计算机程序的计算机可读存储介质,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一项所述的方法。
CN202011165018.9A 2020-10-27 2020-10-27 Gpu堆管理器内存地址分配方法、系统、终端及存储介质 Withdrawn CN112463356A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011165018.9A CN112463356A (zh) 2020-10-27 2020-10-27 Gpu堆管理器内存地址分配方法、系统、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011165018.9A CN112463356A (zh) 2020-10-27 2020-10-27 Gpu堆管理器内存地址分配方法、系统、终端及存储介质

Publications (1)

Publication Number Publication Date
CN112463356A true CN112463356A (zh) 2021-03-09

Family

ID=74835688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011165018.9A Withdrawn CN112463356A (zh) 2020-10-27 2020-10-27 Gpu堆管理器内存地址分配方法、系统、终端及存储介质

Country Status (1)

Country Link
CN (1) CN112463356A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113296961A (zh) * 2021-07-22 2021-08-24 广州中望龙腾软件股份有限公司 基于gpu的内存动态分配方法、装置及内存链表
CN114185687A (zh) * 2022-02-14 2022-03-15 中国人民解放军国防科技大学 一种面向共享内存式协处理器的堆内存管理方法和装置
CN117573377A (zh) * 2024-01-15 2024-02-20 摩尔线程智能科技(北京)有限责任公司 内存管理方法、装置、设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113296961A (zh) * 2021-07-22 2021-08-24 广州中望龙腾软件股份有限公司 基于gpu的内存动态分配方法、装置及内存链表
CN113296961B (zh) * 2021-07-22 2021-11-19 广州中望龙腾软件股份有限公司 基于gpu的内存动态分配方法、装置及内存链表
CN114185687A (zh) * 2022-02-14 2022-03-15 中国人民解放军国防科技大学 一种面向共享内存式协处理器的堆内存管理方法和装置
CN117573377A (zh) * 2024-01-15 2024-02-20 摩尔线程智能科技(北京)有限责任公司 内存管理方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN112463356A (zh) Gpu堆管理器内存地址分配方法、系统、终端及存储介质
CN111078408B (zh) 内存分配方法、装置、存储介质及电子设备
CN111352861B (zh) 内存压缩方法、装置及电子设备
CN107783812B (zh) 虚拟机内存管理方法及装置
CN111984407B (zh) 一种数据块读写性能优化方法、系统、终端及存储介质
US9898338B2 (en) Network computer system and method for dynamically changing execution sequence of application programs
JP2013513174A (ja) 仮想マシンのストレージスペースおよび物理ホストを管理するための方法およびシステム
CN111090521A (zh) 内存分配方法、装置、存储介质及电子设备
WO2018182473A1 (en) Performance manager and method performed thereby for managing the performance of a logical server of a data center
CN110187832B (zh) 一种数据操作的方法、设备和系统
CN110727517A (zh) 一种基于分区设计的内存分配方法和装置
CN112269656B (zh) 一种基于多核处理器的应用配置方法、装置和系统
CN111104219A (zh) 虚拟核心与物理核心的绑定方法、装置、设备及存储介质
US8707006B2 (en) Cache index coloring for virtual-address dynamic allocators
CN115964319A (zh) 远程直接内存访问的数据处理方法及相关产品
CN116563089B (zh) 一种图形处理器的内存管理方法、装置、设备及存储介质
CN112199039B (zh) 虚拟存储管理方法及处理器
CN105988871B (zh) 一种远端内存分配方法、装置和系统
CN116010109B (zh) 缓存资源分配方法、装置、电子设备和存储介质
US9697048B2 (en) Non-uniform memory access (NUMA) database management system
CN104899158A (zh) 访存优化方法和装置
US20140149691A1 (en) Data processing system and data processing method
US11960410B2 (en) Unified kernel virtual address space for heterogeneous computing
US20190026302A1 (en) Persistent Directory For Variable-Size Entry Container Free-Space Handling
CN109462543B (zh) 邮件下载方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210309

WW01 Invention patent application withdrawn after publication