CN108762915B - 一种在gpu内存中缓存rdf数据的方法 - Google Patents

一种在gpu内存中缓存rdf数据的方法 Download PDF

Info

Publication number
CN108762915B
CN108762915B CN201810356556.2A CN201810356556A CN108762915B CN 108762915 B CN108762915 B CN 108762915B CN 201810356556 A CN201810356556 A CN 201810356556A CN 108762915 B CN108762915 B CN 108762915B
Authority
CN
China
Prior art keywords
predicate
key
memory
segment
gpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810356556.2A
Other languages
English (en)
Other versions
CN108762915A (zh
Inventor
陈海波
王思源
陈榕
臧斌宇
管海兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201810356556.2A priority Critical patent/CN108762915B/zh
Publication of CN108762915A publication Critical patent/CN108762915A/zh
Application granted granted Critical
Publication of CN108762915B publication Critical patent/CN108762915B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Abstract

本发明提供了一种在GPU内存中缓存RDF数据的方法,包括如下步骤:将RDF三元组数据集加载到内存中,以键值对形式存储成一张哈希表,哈希表被划分成多个区域;在GPU内存中分配一块区域用来缓存RDF数据,将内存区域划分成固定大小的块;对于每个谓词段,计算其需要多少个GPU内存块来存储其中的键值对数据;服务端接收查询请求,将查询请求分解成多个查询步骤;对于每个查询步骤的三元组,找到其中的谓词在哈希表中对应的谓词段,为其分配所需的GPU内存块;将谓词段中的键值对拷贝到GPU内存块中,并且将映射表中与该谓词段对应的信息拷贝到GPU内存中;在GPU上处理一个查询步骤时,通过映射表和映射函数找到某对特定的键值对在GPU内存中的存储位置,完成数据访问。

Description

一种在GPU内存中缓存RDF数据的方法
技术领域
本发明涉及内存计算领域,特别是涉及一种在GPU内存中缓存RDF数据的方法。
背景技术
资源描述框架RDF是万维网联盟W3C推荐使用的一个标准,用于表示万维网Web上互相关联的数据。RDF把互相关联的数据表示成三元组的集合,一个三元组由主体subject,谓词predicate,客体object构成。RDF被广泛应用于许多互联网应用中,如谷歌Google的知识图谱和许多公开的知识库中,如DBpedia,Wikidata。为了能用一种统一的方式来查询以RDF格式组织的数据,W3C设计了一种名为SPARQL的查询语言。一个SPARQL查询请求中通常包含多个RDF三元组。随着互联网规模的急剧膨胀,Web上的数据量也变得非常庞大,对于使用RDF来表示数据的互联网应用来说,如何在庞大的RDF数据集上高效地处理SPARQL查询请求成了一个巨大的挑战。
一方面,硬件技术的不断发展使得大容量内存条的价格变得足够低廉,于是现有系统为了降低SPARQL查询请求的延迟,都会把RDF数据存放到内存中,从而利用到内存访问延迟低的特性。另一方面,图形处理单元GPU相比中央处理单元CPU有更多的核心,从总体上看,GPU的计算能力比CPU强,但是GPU配备的内存容量比CPU小得多。在主流的服务器配置中,CPU配备的内存容量一般在64GB~256GB之间,而GPU配备的内存容量在4GB~12GB之间。此外,在GPU上执行计算任务之前,需要先把计算任务所需的数据传输到GPU内存中,否则计算任务无法执行。这项数据准备工作直接影响到执行计算任务所需的时间。因此使用GPU来加速处理SPARQL查询面临着两个挑战:一是GPU有限的内存容量;二是要充分利用CPU与GPU之间的传输带宽,减少数据准备工作的耗时。
因此如何设计一种在GPU内存中缓存RDF数据的方法,能够克服GPU的内存容量限制,充分利用CPU与GPU之间的传输带宽,已成为使用GPU来加速SPARQL查询的技术难题。
发明内容
本发明的目的是提供一种在GPU内存中缓存RDF数据的方法,能够克服GPU的内存容量限制,充分利用CPU与GPU之间的传输带宽,使得采用GPU来加速SPARQL查询的技术方案得以实施。
根据本发明提供的一种在GPU内存中缓存RDF数据的方法,其特征在于,包括如下步骤:
步骤S1:将RDF三元组数据集加载到内存中,以键值对key-value的形式存储成一张哈希表,其中,哈希表被划分成多个区域,每个区域里存储的key-value都具有相同的谓词,每个区域称为一个“谓词段”segment;
步骤S2:在GPU内存中分配一块区域用来缓存RDF数据,将这块内存区域划分成固定大小的块block,并给每个block编号;
步骤S3:对于每个谓词段,计算其需要多少个GPU内存块来存储其中的key-value数据;
步骤S4:服务端接收查询请求,将查询请求分解成多个查询步骤,每个查询步骤是一个包括主体、谓词、客体的三元组;
步骤S5:对于每个查询步骤的三元组,找到其中的谓词在哈希表中对应的谓词段,为其分配所需的GPU内存块;
步骤S6:将谓词段中的key-value拷贝到GPU内存块中,并且将映射表中与该谓词段对应的信息拷贝到GPU内存中;
步骤S7:在GPU上处理一个查询步骤时,通过映射表和映射函数找到查询所需的key-value在GPU内存中的存储位置,从而完成数据访问。
上述技术方案中,所述步骤S1包括:步骤S101:key中包含RDF三元组的主体id和谓词的id,value是由key中的主体和谓词对应的所有客体组成的一个列表,在将RDF三元组数据集加载到内存中时,具有相同谓词id的key会被存放到哈希表的同一个segment中,在加载数据集的时候静态地将哈希表划分成segment;
步骤S102:为了保证value能够连续地存放,开辟一块连续的内存空间作为value的专有存储区域,每次插入一个key的时候都从这块区域中分配一块连续的内存,用来存储这个key的value,每个key中编码一个指向它的value的指针,同时必须遵守一个约束:在完全插完一个谓词的key-value之后,才能开始插入另外一个谓词的key-value。在完成一个谓词的key-value插入之后,需要把segment在内存中的起始地址和终止地址存入元数据表中。
上述技术方案中,所述步骤S2中,所有的GPU内存块按照内存起始地址的升序编号,第一个块的序号是0。
上述技术方案中,所述步骤S3中,根据谓词段中key和value所占用的内存空间大小,计算各自所需的GPU内存块数量,记录到元数据表中。
上述技术方案中,所述步骤S4中,服务端接收到查询请求后,会解析SPARQL查询语句,分解成多个三元组。
上述技术方案中,所述步骤S5中,处理SPARQL查询时,逐条处理其中的三元组,对于每个三元组中的谓词,根据元数据表中的记录,分配足够多的block给key和value,然后把所分配的block的编号记录到映射表中,其中,映射表中存储了每个谓词对应的segment总共需要的block数量,所分配到的block的编号,以及每个block在GPU内存中对应的起始地址。
上述技术方案中,所述步骤S6中,根据元数据表中记录的segment在内存中的起始地址,以及映射表中记录的分配给segment的每个block在GPU内存中的起始地址,将key和value拷贝到所分配的block中,以及将映射表中与该segment相关的信息拷贝到GPU内存中。
上述技术方案中,所述步骤S7中,对key使用映射函数和映射表在GPU内存中定位到key在GPU内存中的位置,进而找到key对应的value,完成数据访问。
与现有技术相比,本发明具有如下的有益效果:
本发明提出的一种在GPU上缓存RDF数据的方法,在将RDF数据加载到内存时将具有相同谓词的三元组聚集成“谓词段”segment,既保留了key-value存储能够快速查找的优点,同时能够以segment为单位在GPU内存中缓存RDF数据。通常一个segment的大小往往小于GPU内存容量,从而克服了GPU的内存容量的限制。
本发明提出的一种在GPU上缓存RDF数据的方法,将RDF数据在内存中聚集成segment,避免了以key-value为单位在CPU与GPU之间进行数据传递会造成的带宽浪费,从而充分利用了CPU与GPU之间的带宽。
本发明提出的一种在GPU上缓存RDF数据的方法,克服了利用GPU来加速SPARQL所面临的挑战,为之后采用GPU来加速SPARQL查询的技术方案提供了借鉴意义。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明提供的在GPU内存中缓存RDF数据的流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
如图1所示,根据本发明提供的一种在GPU内存中缓存RDF数据的方法,包括如下步骤:
步骤S1:将RDF三元组数据集加载到内存中,以键值对key-value的形式组织成一张哈希表,哈希表被划分成多个区域,每个区域里存储的key-value数据都具有相同的谓词,这样的一个区域称为“谓词段”segment。其中,内存能够完全容纳RDF数据集。
步骤S2:在GPU内存中分配一块区域用来缓存RDF数据,将这块内存区域划分成固定大小的块block,并给每个block编号;
步骤S3:对于每个谓词段,计算其需要多少个GPU内存块来存储其中的key-value数据;
步骤S4:服务端接收查询请求,将查询请求分解成多个查询步骤,每个查询步骤是一个包括主体、谓词、客体的三元组;
步骤S5:对于每个查询步骤的三元组,找到其中的谓词在哈希表中对应的谓词段,为其分配所需的GPU内存块;
步骤S6:将谓词段中的key-value拷贝到GPU内存块中,并且将映射表中与该谓词段对应的信息拷贝到GPU内存中;
步骤S7:在GPU上处理一个查询步骤时,通过映射表和映射函数找到查询所需的key-value在GPU内存中的存储位置,从而完成数据访问。
所述步骤S1包括:
步骤S101:key中包含RDF三元组的主体id和谓词的id,value是由key中的主体和谓词对应的所有客体组成的一个列表,在将RDF三元组数据集加载到内存中时,具有相同谓词id的key会被存放到哈希表的同一个segment中,在加载数据集的时候静态地将哈希表划分成segment;
步骤S102:为了保证value能够连续地存放,开辟一块连续的内存空间作为value的专有存储区域,每次插入一个key的时候都从这块区域中分配一块连续的内存,用来存储这个key的value,每个key中编码一个指向它的value的指针,同时必须遵守一个约束:在完全插完一个谓词的key-value之后,才能开始插入另外一个谓词的key-value。在完成一个谓词的key-value插入之后,需要把segment在内存中的起始地址和终止地址存入元数据表中。
所述步骤S2中,所有的GPU内存块按照其内存起始地址的升序进行编号,第一个block的序号是0。
所述步骤S3包括:根据谓词段中key-value所占用的内存空间大小,分别计算key和value各自所需的block数量,记录到元数据表中。
所述步骤S4中,服务端接收到查询请求后,将SPARQL查询语句分解成多个三元组,每个三元组是一个查询步骤,假设每个三元组的谓词部分都是已知的。假定用户已给出SPARQL查询语句中每个三元组的谓词。
所述步骤S5中,处理SPARQL查询的过程会逐条处理查询中的每个步骤,对于每个步骤中的谓词,根据元数据表中记录的信息,为其分配足够多的block给key和value,同时把所分配的block编号记录的映射表中。映射表中存储了每个segment总共需要的block数量,分配给segment的所有block的编号,以及每个block在GPU内存中对应的起始地址。
所述步骤S6中,根据元数据表中记录的segment在内存中的起始地址,以及映射表中记录的分配给segment的每个block在GPU内存中的起始地址,将谓词的key-value拷贝到所分配的block中,以及将映射表中与该segment相关的信息拷贝到GPU内存中(简称映射表)。
所述步骤7包括:使用映射函数和映射表在GPU内存中查找segment中某对key-value的存储位置。具体为使用如下数量关系来定位key在GPU中的存储位置:
keyOffset=Hash(key)mod(Nblock*Nkey_per_block)
keyId=MappingTable[keyOffset/Nkey_per_block]+keyOffset modNkey_per_block
从而在GPU上完成数据访问。其中,keyOffset是key在segment中的偏移量;Nkey_per_block是每个block能够容纳的key的数量;MappingTable是映射表;Nblock是segment的key部分所占用的GPU内存块数量。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。

Claims (8)

1.一种在GPU内存中缓存RDF数据的方法,其特征在于,包括如下步骤:
步骤S1:将RDF三元组数据集加载到内存中,以键值对key-value的形式存储成一张哈希表,其中,哈希表被划分成多个区域,每个区域里存储的key-value都具有相同的谓词,每个区域称为一个谓词段;
步骤S2:在GPU内存中分配一块区域用来缓存RDF数据,将这块内存区域划分成固定大小的块,并给每个块编号;
步骤S3:对于每个谓词段,计算其需要多少个GPU内存块来存储其中的key-value数据;
步骤S4:服务端接收查询请求,将查询请求分解成多个查询步骤,每个查询步骤是一个包括主体、谓词、客体的三元组;
步骤S5:对于每个查询步骤的三元组,找到其中的谓词在哈希表中对应的谓词段,为其分配所需的GPU内存块;
步骤S6:将谓词段中的key-value拷贝到GPU内存块中,并且将映射表中与该谓词段对应的信息拷贝到GPU内存中;
步骤S7:在GPU上处理一个查询步骤时,通过映射表和映射函数找到key-value在GPU内存中的存储位置,从而完成数据访问。
2.根据权利要求1所述的一种在GPU内存中缓存RDF数据的方法,其特征在于,所述步骤S1包括:
步骤S101:key中包含RDF三元组的主体id和谓词的id,value是由key中的主体和谓词对应的所有客体组成的一个列表,在将RDF三元组数据集加载到内存中时,具有相同谓词id的key会被存放到哈希表的同一个谓词段中,在加载数据集的时候静态地将哈希表划分成谓词段;
步骤S102:为了保证value能够连续地存放,开辟一块连续的内存空间作为value的专有存储区域,每次插入一个key的时候都从这块区域中分配一块连续的内存,用来存储这个key的value,每个key中编码一个指向它的value的指针,同时必须遵守一个约束:在完全插完一个谓词的key-value之后,才能开始插入另外一个谓词的key-value;在完成一个谓词的key-value插入之后,需要把谓词段在内存中的起始地址和终止地址存入元数据表中。
3.根据权利要求1所述的一种在GPU内存中缓存RDF数据的方法,其特征在于,所述步骤S2中,所有的GPU内存块按照内存起始地址的升序编号,第一个块的序号是0。
4.根据权利要求1所述的一种在GPU内存中缓存RDF数据的方法,其特征在于,所述步骤S3中,根据谓词段中key和value所占用的内存空间大小,计算各自所需的GPU内存块数量,记录到元数据表中。
5.根据权利要求1所述的一种在GPU内存中缓存RDF数据的方法,其特征在于,所述步骤S4中,服务端接收到查询请求后,会解析SPARQL查询语句,分解成多个三元组。
6.根据权利要求1所述的一种在GPU内存中缓存RDF数据的方法,其特征在于,所述步骤S5中,处理SPARQL查询时,逐条处理其中的三元组,对于每个三元组中的谓词,根据元数据表中的记录,分配足够多的块给key和value,然后把所分配的块的编号记录到映射表中,其中,映射表中存储了每个谓词对应的谓词段总共需要的块数量,所分配到的块的编号,以及每个块在GPU内存中对应的起始地址。
7.根据权利要求1所述的一种在GPU内存中缓存RDF数据的方法,其特征在于,所述步骤S6中,根据元数据表中记录的谓词段在内存中的起始地址,以及映射表中记录的分配给谓词段的每个块在GPU内存中的起始地址,将key和value拷贝到所分配的块中,以及将映射表中与该谓词段相关的信息拷贝到GPU内存中。
8.根据权利要求1所述的一种在GPU内存中缓存RDF数据的方法,其特征在于,所述步骤S7中,对某个key使用映射函数和映射表在GPU内存中定位到key在GPU内存中的位置,进而找到key对应的value,完成数据访问。
CN201810356556.2A 2018-04-19 2018-04-19 一种在gpu内存中缓存rdf数据的方法 Active CN108762915B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810356556.2A CN108762915B (zh) 2018-04-19 2018-04-19 一种在gpu内存中缓存rdf数据的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810356556.2A CN108762915B (zh) 2018-04-19 2018-04-19 一种在gpu内存中缓存rdf数据的方法

Publications (2)

Publication Number Publication Date
CN108762915A CN108762915A (zh) 2018-11-06
CN108762915B true CN108762915B (zh) 2020-11-06

Family

ID=64011329

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810356556.2A Active CN108762915B (zh) 2018-04-19 2018-04-19 一种在gpu内存中缓存rdf数据的方法

Country Status (1)

Country Link
CN (1) CN108762915B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109062929B (zh) * 2018-06-11 2020-11-06 上海交通大学 一种查询任务通信方法及系统
US10909033B1 (en) * 2019-08-15 2021-02-02 Nvidia Corporation Techniques for efficiently partitioning memory
CN110515860A (zh) * 2019-08-30 2019-11-29 苏州浪潮智能科技有限公司 一种内存中存储数据的地址标识方法、系统及装置
CN114461406A (zh) * 2022-04-13 2022-05-10 麒麟软件有限公司 DMA OpenGL优化方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008026794A1 (en) * 2006-08-28 2008-03-06 Korea Institute Of Science & Technology Information System for providing service of knowledge extension and inference based on dbms, and method for the same
US8175617B2 (en) * 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
CN103699656A (zh) * 2013-12-27 2014-04-02 同济大学 一种基于GPU的面向海量多媒体数据的MapReduce平台
CN105653708A (zh) * 2015-12-31 2016-06-08 中国科学院深圳先进技术研究院 一种异构集群的Hadoop矩阵处理方法及系统
CN106599091A (zh) * 2016-11-24 2017-04-26 上海交通大学 基于键值存储的rdf图结构存储和索引方法
CN106775598A (zh) * 2016-12-12 2017-05-31 温州大学 一种基于gpu的压缩稀疏矩阵的对称矩阵构造方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2471467A1 (en) * 2001-11-21 2003-05-30 Colin P. Britton System for querying a relational database using schema-less queries
EP2126737A2 (en) * 2007-01-22 2009-12-02 Min Tnetap i Göteborg AB Method and apparatus for obtaining digital objects in a communication network
US20120047124A1 (en) * 2010-08-17 2012-02-23 International Business Machines Corporation Database query optimizations
KR102257053B1 (ko) * 2014-07-04 2021-05-26 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 개인화된 트렌딩 이미지 검색 제시 기법
CN105677486B (zh) * 2016-01-08 2019-03-22 上海交通大学 数据并行处理方法及系统
CN105608228B (zh) * 2016-01-29 2019-05-17 中国科学院计算机网络信息中心 一种高效的分布式的rdf数据存储方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008026794A1 (en) * 2006-08-28 2008-03-06 Korea Institute Of Science & Technology Information System for providing service of knowledge extension and inference based on dbms, and method for the same
US8175617B2 (en) * 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
CN103699656A (zh) * 2013-12-27 2014-04-02 同济大学 一种基于GPU的面向海量多媒体数据的MapReduce平台
CN105653708A (zh) * 2015-12-31 2016-06-08 中国科学院深圳先进技术研究院 一种异构集群的Hadoop矩阵处理方法及系统
CN106599091A (zh) * 2016-11-24 2017-04-26 上海交通大学 基于键值存储的rdf图结构存储和索引方法
CN106775598A (zh) * 2016-12-12 2017-05-31 温州大学 一种基于gpu的压缩稀疏矩阵的对称矩阵构造方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A User Mode CPU-GPU Scheduling Framework for Hybrid Workloads;Bin Wang et al;《Future Generation Computer Systems》;20161031;第25-36页 *
Accelerate Demodulation of Quadrature Amplitude Modulation Using GPU;Xiaopeng Gao et al;《Applied Mechanics and Materials》;20130613;第907-911页 *
Efficient RDF stream reasoning with graphics processing units (GPUs);Chang Liu et al;《in Proc. Companion Publication 23rd Int. Conf. World Wide Web Companion》;20141231;第343–344页 *
Sub-millisecond Stateful Stream Querying over Fast-evolving Linked Data;Yunhao Zhang et al;《26th ACM Symposium on Operating Systems Principles》;20171028;第614-630页 *
基于GPU的分子动力学模拟方法研究;张军昭;《中国优秀硕士学位论文全文数据库 信息科技辑》;20101215;第I138-266页 *

Also Published As

Publication number Publication date
CN108762915A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN108762915B (zh) 一种在gpu内存中缓存rdf数据的方法
KR101994021B1 (ko) 파일 조작 방법 및 장치
US8356050B1 (en) Method or system for spilling in query environments
US20150113230A1 (en) Directory storage method and query method, and node controller
US20080307189A1 (en) Data partitioning via bucketing bloom filters
TW201220197A (en) for improving the safety and reliability of data storage in a virtual machine based on cloud calculation and distributed storage environment
US10747593B2 (en) Lock free container packing
US11314689B2 (en) Method, apparatus, and computer program product for indexing a file
US11294818B2 (en) Method, electronic device and computer program product for data storage
US11269772B2 (en) Persistent memory storage engine device based on log structure and control method thereof
CN111324665B (zh) 一种日志回放方法及装置
CN107391544B (zh) 列式存储数据的处理方法、装置、设备及计算机储存介质
US20210089442A1 (en) Dynamically allocating memory pool subinstances
US11500873B2 (en) Methods and systems for searching directory access groups
CN112579595A (zh) 数据处理方法、装置、电子设备及可读存储介质
KR20210027625A (ko) 데이터 저장장치의 주소 맵핑 테이블 운용 방법
CN115470156A (zh) 基于rdma的内存使用方法、系统、电子设备和存储介质
CN110618883B (zh) 一种用于共享内存链表的方法、装置、设备及存储介质
CN109614411B (zh) 数据存储方法、设备和存储介质
CN110401681B (zh) 用于数据传输、数据接收的方法以及电子设备
CN109460406A (zh) 一种数据处理方法及装置
CN108804571B (zh) 一种数据存储方法、装置以及设备
WO2023040348A1 (zh) 分布式系统中数据处理的方法以及相关系统
CN116225314A (zh) 数据写入方法、装置、计算机设备和存储介质
US20170364454A1 (en) Method, apparatus, and computer program stored in computer readable medium for reading block in database system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant