CN113590332A - 内存管理方法、装置及内存分配器 - Google Patents

内存管理方法、装置及内存分配器 Download PDF

Info

Publication number
CN113590332A
CN113590332A CN202110896371.2A CN202110896371A CN113590332A CN 113590332 A CN113590332 A CN 113590332A CN 202110896371 A CN202110896371 A CN 202110896371A CN 113590332 A CN113590332 A CN 113590332A
Authority
CN
China
Prior art keywords
bit
memory
target
memory block
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110896371.2A
Other languages
English (en)
Other versions
CN113590332B (zh
Inventor
朱鸿斌
夏之春
郭宗智
金健
张超林
胡旭东
陈炎福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Kingstar Fintech Co Ltd
Original Assignee
Shanghai Kingstar Fintech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Kingstar Fintech Co Ltd filed Critical Shanghai Kingstar Fintech Co Ltd
Priority to CN202110896371.2A priority Critical patent/CN113590332B/zh
Publication of CN113590332A publication Critical patent/CN113590332A/zh
Application granted granted Critical
Publication of CN113590332B publication Critical patent/CN113590332B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2237Vectors, bitmaps or matrices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Memory System (AREA)

Abstract

本申请公开一种内存管理方法、装置及内存分配器,在内存管理中,内存块列表集中的每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,即,每个内存块列表用一个位图数据结构管理,基于本申请为内存块列表设计并构建的包括单层或多层层级结构的位图数据结构,在内存分配中进行位查找时,每次查找只需从高层到低层,逐层查找表征存在可用内存块的有效位,即可完成查找操作、确定出可用内存块,从而,可支持应用层申请和释放内存时,高效率获取一块可用内存或者释放一块内存,进一步提升了内存分配器的内存分配性能。

Description

内存管理方法、装置及内存分配器
技术领域
本申请属于计算机技术领域,尤其涉及一种内存管理方法、装置及内存分配器。
背景技术
内存管理从下往上可以分为三个层次:操作系统内核、开发语言运行时、应用层。操作系统内核负责管理物理内存,向上一层的运行时提供内存申请和释放的系统调用;开发语言运行时封装操作系统的系统调用,向再上一层的应用层提供内存申请和释放的库函数malloc和free等。
其中,操作系统内核管理内存的算法主要是以伙伴算法(Buddy算法)为主的技术方案,其把内存按页(Page)为单位,组织成不同的可用内存链表,每个链表包含相同大小的可用内存块,每个内存块包含1个或多个页。内核对内存的管理需要稳定可靠,同时能适用于各式各样的上层需要,因此内核的内存管理算法一般是以最简单的方案满足最抽象的内存存取需要。开发语言运行时封装内核的内存申请/释放的系统调用,给应用层提供内存操作库函数,运行时的内存管理算法加入了更为复杂、细致的技术方案来提高内存申请/释放的性能和效率,相比于内核,运行时可以为应用层提供更高效的内存申请和释放方案。
内存分配器是开发语言运行时的内存管理算法的具体实现,内存分配器最基本的任务是在用户层构建一个内存缓存池,避免频繁的通过系统调用申请或者释放内存。大多数的应用层直接使用开发语言运行时的库函数完成内存的申请和释放,即,对于绝大多数普通的应用系统而言,直接使用开发语言运行时的内存分配器,已经足够满足其业务需要。然而,申请人发现,在一些重度内存访问相关的系统或者对性能要求高的应用系统研发过程中,运行时的内存管理方案还不够最优,其内存分配器在内存利用率、分配性能/申请释放性能等方面已经不能满足需要。
发明内容
有鉴于此,本申请提供一种内存管理方法、装置及内存分配器,用于针对重度内存访问相关的系统或高性能要求的业务系统,通过引入更高效的内存管理算法和数据结构,来至少提升内存分配器的内存分配性能。
具体技术方案如下:
一种内存管理方法,包括:
获取应用层的内存申请请求,所述内存申请请求中携带有应用层所需申请的内存空间的大小信息;
从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表;其中,每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,位图数据结构为最高层包括一个位块的单层或多层层级结构,位图数据结构低层的每个位块对应所邻接的高层的一位,最低层的每一位对应一个内存块,且最低层每一位的不同取值表示该位所对应内存块的不同状态,非最低层中每一位的不同取值表示该位在下一层所对应的位块是否表征存在可用内存块;一个位块包括不超出预定长度阈值的位;
对所述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出所述目标内存块列表维护的一个可用内存块,得到目标内存块;
将所述目标内存块分配给应用层,并对所述目标内存块在所述目标位图数据结构中对应的相关位执行置位处理,以使所述相关位的取值与所述目标内存块被分配后所处的占用状态相匹配。
可选的,不同内存块列表分别维护不同类别的内存块,不同类别内存块的块大小不同,且,不同类别内存块的块大小间的步长满足预定的步长规则,每一类别内存块用于满足一个对应区间内存大小的内存申请与释放需求;
所述从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表,包括:
从所述内存块列表集中确定出所维护内存块的块大小与所述大小信息最接近且不小于所述大小信息的内存块列表,得到所述目标内存块列表。
可选的,所述步长规则为:不同类别内存块的块大小升序排序后,每两个相邻块大小间的步长为2的幂次,且升序排序后各个相邻块大小间的步长逐步加大。
可选的,内存块的状态为可用状态或占用状态;一个内存块列表对应的位图数据结构的层数为
Figure BDA0003198027240000031
其中,N表示内存块列表维护的内存块的个数,L表示所述长度阈值;
位图数据结构最低层中每一位的取值为:用于表示该位所对应内存块处于可用状态的第一位值,或用于表示该位所对应内存块处于占用状态的第二位值;位图数据结构非最低层中每一位的取值为:用于表示该位在下一层所对应的位块表征存在可用内存块的第一位值,或用于表示该位在下一层所对应的位块表征不存在可用内存块的第二位值;
所述对所述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出所述目标内存块列表维护的一个可用内存块,得到目标内存块,包括:
若所述目标位图数据结构为一层,在所述目标位图数据结构的单一层中执行位查找操作,直至查找出取值为第一位值的目标位时,将该目标位对应的内存块确定为所述目标内存块;
若所述目标位图数据结构为多层,从所述目标位图数据结构的最高层开始执行位查找操作,在查找出取值为第一位值的位时,跳转并定位至该位在下一层对应的位块继续执行位查找操作,直至跳转并定位至所述目标位图数据结构的最低层相应位块,并从所述最低层相应位块查找出取值为第一位值的目标位时,将该目标位对应的内存块确定为所述目标内存块。
可选的,所述长度阈值为128;所述对所述目标内存块列表对应的目标位图数据结构执行位查找操作,包括:
利用单指令多数据流SIMD指令,对所述目标内存块列表对应的目标位图数据结构执行位查找操作;
其中,预先通过对SIMD指令的封装,形成面向预设开发语言接口的多个位图数据结构操作类。
可选的,所述对所述目标内存块在所述目标位图数据结构中对应的相关位执行置位处理,包括:
将所述目标内存块在所述目标位图数据结构的最低层对应的位置位为第二位值;
将所述目标内存块在所述目标位图数据结构的最低层对应的位所属的位块作为目标位块,并确定所述目标位块中是否存在取值为第一位值的位;
若存在,结束当前的置位处理;
若不存在,将所述目标位块在当前所处层的上一层中对应的位置位为第二位值,并将所述目标位块在所述上一层中对应的位所属的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块中存在取值为第一位值的位或所述目标位图数据结构的所有层处理完毕时结束。
可选的,上述方法,还包括:
获取应用层的内存释放请求,所述内存释放请求用于指示待释放内存块;
将待释放内存块归还至对应的内存块列表维护的内存块串,并对所释放的内存块在相应位图数据结构中对应的相关位执行复位处理,以使执行复位处理后相关位的取值与所释放的内存块的可用状态相匹配。
可选的,所述对释放的内存块在相应位图数据结构中对应的相关位执行复位处理,包括:
将释放的内存块在相应位图数据结构的最低层对应的位复位为第一位值;
将执行了复位操作的位所属的位块作为目标位块,并确定目标位块在当前所处层的上一层中对应的位的取值是否为第一位值;
若是,结束当前的复位处理;
若否,将目标位块在当前所处层的上一层中对应的位的取值复位为第一位值,并将所述目标位块在所述上一层中对应的位所属的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块在当前所处层的上一层中对应的位的取值为第一位值或所述相应位图数据结构的所有层处理完毕时结束。
一种内存管理装置,包括:
获取模块,用于获取应用层的内存申请请求,所述内存申请请求中携带有应用层所需申请的内存空间的大小信息;
确定模块,用于从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表;其中,每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,位图数据结构为最高层包括一个位块的单层或多层层级结构,位图数据结构低层的每个位块对应所邻接的高层的一位,最低层的每一位对应一个内存块,且最低层每一位的不同取值表示该位所对应内存块的不同状态,非最低层中每一位的不同取值表示该位在下一层所对应的位块是否表征存在可用内存块;一个位块包括不超出预定长度阈值的位;
查找模块,用于对所述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出所述目标内存块列表维护的一个可用内存块,得到目标内存块;
分配处理模块,用于将所述目标内存块分配给应用层,并对所述目标内存块在所述目标位图数据结构中对应的相关位执行置位处理,以使所述相关位的取值与所述目标内存块被分配后所处的占用状态相匹配。
一种内存分配器,所述内存分配器中实现有计算机指令集,所述计算机指令集在运行时用于执行如上任一项所述的内存管理方法。
根据以上方案可知,本申请提供的内存管理方法、装置及内存分配器,在内存管理中,内存块列表集中的每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,即,每个内存块列表用一个位图数据结构管理,基于本申请为内存块列表设计并构建的包括单层或多层层级结构的位图数据结构,在内存分配中进行位查找时,每次查找只需从高层到低层,逐层查找表征存在可用内存块的有效位,即可完成查找操作、确定出可用内存块,从而,可支持应用层申请和释放内存时,高效率获取一块可用内存或者释放一块内存,进一步提升了内存分配器的内存分配性能。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本申请提供的内存管理方法的一种流程示意图;
图2是本申请提供的图谱数据结构的多层层级结构示例;
图3是本申请提供的内存管理方法的另一种流程示意图;
图4是本申请提供的内存管理方法的又一种流程示意图;
图5是本申请提供的内存管理装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
内存分配器对应用系统而言是最基础的组件,现有的内存分配器在实现过程中,将稳定性和普适性作为一个最重要的目标,在这个目标的约束下,内存分配器的算法和数据结构一般选择在各种场合和应用场景都有比较均衡表现的技术方案,同时在算法实现上,也需要采用覆盖绝大多数硬件平台的技术。相应对于绝大多数普通的应用系统而言,直接使用开发语言运行时的现有内存分配器的内存管理方案,已经足够满足业务需要。但是在一些重度内存访问相关的系统或者对性能要求高的应用系统研发过程中,现有内存分配器的内存管理方案还不够最优。
为解决该问题,本申请实施例公开一种内存管理方法、装置及内存分配器,本申请方案主要用于内存数据库,应用场景通常是对性能有很高要求的业务系统或重度内存访问相关的系统,应用平台可以是主流的服务器平台。即,针对应用系统的业务场景和应用平台明确可控的场景,提出本申请方案,以更好的满足业务和平台的要求,同时大大提高内存分配的性能。
实际应用中,可将本申请方法的处理流程实现为内存分配器的形式。
内存分配器最基本的任务是在用户层构建一个内存缓存池,避免频繁的通过系统调用申请或者释放内存。一般来说,内存缓存池首先要维护多个可用内存块列表,每个列表包含相同大小的内存块。应用层申请内存时,匹配到相应的列表,取得一个可用内存块;释放内存时,内存块释放到对应的可用内存块列表。内存块列表的长度按一定策略管理,扩充时就意味着向操作系统申请内存,收缩时则意味着向操作系统释放内存。不同的内存块列表对应于不同大小的内存块,列表的数量就是可用内存块按大小分类后所得的类别数量。
本申请实施例提供的内存管理方法的处理流程如图1所示,至少包括:
步骤101、获取应用层的内存申请请求,内存申请请求中携带有应用层所需申请的内存空间的大小信息。
当应用层基于业务需求需使用一块相应大小的内存时,会向内存分配器发起内存申请请求,所发起的请求中携带有所需申请的内存空间的大小信息,如1Bye、15Byte或1K的大小值等。
步骤102、从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表。
本申请实施例中,内存块列表集中的每一内存块列表均为可支持内存块申请与释放的可用内存块列表。
内存分配器获取应用层的内存申请请求,并从内存块列表集中确定出所维护内存块的块大小与所申请内存的大小信息相匹配的目标内存块列表。
现代的内存分配器面临的课题主要有两方面,一个课题是多核多线程场景的内存申请/释放的并发冲突,该问题主要通过引入线程本地缓存池来解决。
另一课题是可用内存块列表的维护。如果为每个大小的内存块都提供一个列表,该列表包含一串相同大小的可用内存块,且在内存分配时,以点值匹配方式进行内存申请(如,应用层申请1Byte的内存,那么就从维护的块大小为1Byte的内存块列表取得一个1Byte的可用内存块),那么列表的数量将过于庞大,性能和利用率都不会很理想。因此一个可行的方案是把可用内存块按大小分类(size class),每个类别的内存块用于满足一个区间的内存申请需要。比如,提供一个列表,该列表包含一串8Byte可用内存块,如果应用层申请1Byte到8Byte的内存,都从该列表取得一个8Byte的内存块,返回给应用层。
申请人经研究发现,在将内存块按大小分类的过程中,如果分类比较粗,会造成比较大的内部碎片,内存空间利用率低,如果分类比较细,则会影响内存分配的性能。因此,较优的一种做法是,通过研究应用层内存申请时所申请内存大小的分布信息,并综合考虑内存空间利用率和内存分配性能对内存块进行分类。
申请人经研究发现,应用层申请内存的大小可能是任意值,主要以小块内存为主,基于该分布特征,并通过综合考虑内存空间利用率和内存分配性能,本实施例提出按如下的步长规则来对内存块按大小进行分类:不同类别内存块的块大小升序排序后每两个相邻块大小间的步长为2的幂次,且升序排序后各个相邻块大小间的步长逐步加大。
以下提供按上述步长规则设计的内存分类的一个示例,具体如表1所示:
表1
分类序号 步长 内存块大小
1--2 8 [8,16]
3--9 16 [32,48,64,80,96,112,128]
10--13 32 [160,192,224,256]
14--17 64 [320,384,448,512]
18--21 128 [640,768,896,1024]
22-25 256 [1280,1536,1792,2048]
26--29 512 [2560,3072,3584,4096]
30-33 1K [5KiB,6KiB,7KiB,8KiB]
并且,分类后的每个类别满足一个所对应区间内存大小的内存申请与释放需求。比如,表1中的第一个类别维护一串8Byte的内存块,则针对应用层申请1Byte至8Byte内存的请求,内存分配器均是从该类别取得一个8Byte的可用内存块返回给应用层。
鉴于此,本步骤102中,在从内存块列表集中确定所维护内存块的块大小与所申请大小值相匹配的目标内存块列表时,具体可从内存块列表集中确定出所维护内存块的块大小与所申请大小值最接近且不小于所申请大小值的内存块列表,将其作为目标内存块列表。也就是说,应用层申请内存时,按所申请的内存空间大小值向上取整,对齐到内存块分类中与所申请的内存大小最为接近的内存块大小类别,后续从该类别对应的内存块列表(即,目标内存块列表)中进一步确定出一可用内存块,并返回给应用层。
为了支持应用层对内存块的申请和释放,管理内存块列表需要设计实现专门的数据结构和算法。目前常用的算法有基于链表的Sequential Fit算法、基于链表数组的BuddySystem算法、基于二叉树的Indexed Fit算法等。然而这些算法的性能不够优化。为此,本申请引入位图数据结构(Bitmap),来管理维护内存块列表,以进行高性能的内存块管理。
具体地,本申请在将内存块按大小分成不同的类别(size class),使每个类别包含大小相同的一串内存块,形成不同类别的内存块列表后,将每个内存块列表用一个位图数据结构来管理,以支持应用层申请和释放内存时,高效率获取一块可用内存或者释放一块内存,在应用系统的业务场景和应用平台明确可控的条件下,大大提高内存块申请和释放性能。
在内存块集合的管理维护过程中,主要操作包括查找可用内存块、置位为占用、复位为可用。基于本申请提出的位图数据结构管理方式,可有效管理与维护数据规模大、只有两种元素状态的内存块集合,但由于常用的遍历算法的时间复杂度是O(N),随着内存块集合的规模增长,在位图数据结构上做查找会面临很大挑战,导致性能表现不够理想。针对该情况,本实施例进一步提出,针对内存块列表长度较长的情况,为其设计多层位图数据结构,以支持超长内存块列表的处理操作。
其中,内存块列表长度,指内存块列表维护的一串内存块的内存块个数。
实际应用中,可设置一长度阈值,如128或256等,对于未超出该长度阈值的内存块列表,为其构建单层的位图数据结构(Bitmap),对于超出该长度阈值的内存块列表,相应根据内存块列表的实际长度,为其构建包括多层层级结构的多层位图数据结构(KBitmap),使得每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块。
每一内存块列表对应的位图数据结构为单层或多层层级结构,位图数据结构的每层包括一系列的位(bit),且每层以位块形式对包括的各个位进行组织,一个位块包括不超出上述长度阈值(如,128)的位,一个内存块列表对应的位图数据结构的层数为
Figure BDA0003198027240000091
其中,N表示内存块列表维护的内存块的个数,L表示上述的长度阈值,且位图数据结构的第一层(即,顶层)包括一个位块。
进一步,内存块列表的位图数据结构最低层(即,底层)中的每一位对应该内存块列表的一个内存块,且最低层每一位的不同取值表示该位所对应内存块的不同状态,内存块列表中每个内存块的状态有两种:可用和占用,最低层中每一位的取值相应包括两种:用于表示该位所对应内存块处于可用状态的第一位值,及用于表示该位所对应内存块处于占用状态的第二位值。
低层的每个位块(如,由低层128bit构成的位块)对应所邻接的高层的一位,且非最低层(非底层)中每一位的不同取值表示该位在下一层所对应的位块是否表征存在可用内存块,具体的,非最低层中每一位的取值为:用于表示该位在下一层所对应的位块表征存在可用内存块的第一位值,或用于表示该位在下一层所对应的位块表征不存在可用内存块的第二位值。
其中,第一取值与第二取值不同,例如,第一取值与第二取值可以分别为1、0,或者,也可分别为0、1,在此不作限制。容易理解,本申请实施例中,位图数据结构中相同的位值,如第一位值“1”,在不同层分别表示不同含义。
以下以一示例举例说明。
该示例中,某内存块列表Mblist的列表长度(即该列表包括的内存块个数)N=16385,上述的长度阈值L=128,第一位值为“1”,第二位值为“0”。
参见图2,图2提供了该内存块列表Mblist对应的多层Bitmap的示意图。
在Mblist的多层Bitmap数据结构体系中,最低层(即,底层level 0)共有16385个位(bit),每一位对应Mblist的一个内存块,低层的每个位块(如,包含128个bit的位块)对应于高层的1位,层次高度为
Figure BDA0003198027240000101
初始状态下,位图数据结构的每个位都被置位为第一位值即“1”,表示内存块可用,应用层申请内存时,内存分配器通过查找多层Bitmap,定位到一个可用内存块返回给应用层,并将该内存块对应的位置位为0,表示该内存块已经被占用。
步骤103、对上述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出目标内存块列表维护的一个可用内存块,得到目标内存块。
在从内存块列表集中确定出所维护内存块的块大小与所申请大小值相匹配的目标内存块列表之后,可进一步通过在目标内存块列表对应的位图数据结构中执行位查找操作,来最终确定出目标内存块列表中的一可用内存块,供应用层使用。
其中,若目标位图数据结构为一层,直接在目标位图数据结构的单一层中执行位查找操作,直至查找出取值为第一位值的目标位时,如查找到取值为“1”的位时,表明查找到处于可用状态的内存块,相应将该第一位值的目标位对应的内存块确定为待分配至应用层的目标内存块。
若目标位图数据结构为多层,则从目标位图数据结构的最高层开始执行位查找操作,在查找出取值为第一位值的位时,表明该位在下一层对应的位块指示存在可用内存块,相应跳转并定位至该位在下一层对应的位块继续执行位查找操作,直至跳转并定位至目标位图数据结构的最低层相应位块,并从最低层相应位块查找出取值为第一位值的目标位时,将该目标位对应的内存块确定为待分配至应用层的目标内存块。
以图2的示例为例,在针对应用层的内存申请,查找可用内存块时,首先从多层Bitmap的最高层(即,level 2)开始查找,一旦查找到最高层取值是“1”的位,就说明该位对应的下一层位块指示存在可用内存块,此时跳转到下一层的相应位块继续查找,按此方式逐层查找,最后定位到最低层的取值为“1”的位,即可得到用于分配给应用层的可用内存块(目标内存块)。
步骤104、将目标内存块分配给应用层,并对目标内存块在目标位图数据结构中对应的相关位执行置位处理,以使相关位的取值与目标内存块被分配后所处的占用状态相匹配。
在通过对目标位图数据结构执行位查找操作,确定出待分配给应用层的目标内存块后,将目标内存块返回给应用层,实现目标内存块的分配。
完成分配后,目标内存块即从原有的可用状态转变为占用状态,此时,需对目标内存块在目标位图数据结构中对应的相关位执行置位处理,以维护目标位图数据结构的数据与内存块实际状态的同步。
上述置位处理的处理过程具体包括:
11)将目标内存块在目标位图数据结构的最低层对应的位置位为第二位值;
如,将目标内存块在目标位图数据结构的最低层对应的位,从原有取值“1”置位为“0”,以表示该目标内存块当前已被占用。
12)将目标内存块在目标位图数据结构的最低层对应的位所属的位块作为目标位块,并确定目标位块中是否存在取值为第一位值的位;
13)若存在,结束当前的置位处理;
14)若不存在,将目标位块在当前所处层的上一层中对应的位置位为第二位值,并将目标位块在所述上一层中对应的位所属的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块中存在取值为第一位值的位或目标位图数据结构的所有层处理完毕时结束。
通过步骤11)-14),确保目标内存块的bit位所属位块,在整个位图数据结构中从顶层至底层对应的位块路径上的各个相关位的取值,与目标内存块被占用后的占用状态相同步。
根据以上方案可知,本申请实施例提供的内存管理方法,在内存管理中,内存块列表集中的每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,即,每个内存块列表用一个位图数据结构管理,基于本申请为内存块列表设计并构建的包括单层或多层层级结构的位图数据结构,在内存分配中进行位查找时,每次查找只需从高层到低层,逐层查找表征存在可用内存块的有效位,即可完成查找操作、确定出可用内存块,从而,可支持应用层申请和释放内存时,高效率获取一块可用内存或者释放一块内存,进一步提升了内存分配器的内存分配性能。
在对位图数据结构执行位操作时,比较常见的是C语言的位操作算法,C语言的位操作算法在查找有效位(即,表示内存块可用的位)时,需要依次遍历各个位,效率不高。
现代CPU实现了SIMD(Single Instruction Multiple Data,单指令多数据流)指令,能在一个指令周期完成多个数据操作。本申请将SIMD指令结合应用在对位图数据结构的操作中,且当下绝大多数主流平台都支持SIMD,因此在应用系统的使用环境明确可控的条件下,系统开发过程中可以引入SIMD指令处理位图数据结构的数据,来有效提高可用内存块管理维护的性能。
在此基础上,结合参见图3提供的内存管理方法的流程图,图1所示内存管理方法中的步骤103,可进一步实现为:
步骤103’、利用单指令多数据流SIMD指令,对目标内存块列表对应的目标位图数据结构执行位查找操作。
具体的,基于SIMD指令,从位图数据结构的最高层到底层逐层检索第一个有效位,直至定位至底层的第一有效位,即可得到一个可用内存块,每次检索就是一个SIMD指令,例如,对于2层Bitmap,只需要2个SIMD指令,就可以找到可用内存块,以此避免遍历操作。
SIMD指令有多种用法,比如汇编指令、Intel函数库、内置函数(intrinsics)库等。可选的,本申请实施例采用内置函数(intrinsics)库的方式,直接引用相关头文件后调用内置函数实现相关算法。
主要用到的SIMD指令相关函数包括:
__m128i_mm_setone_si128():初始化128bit的bit set,所有位都置1。
__m128i_mm_lzcnt_epi32(__m128i a):统计参数a的前导0的个数。
__m128i_mm_set1_epi64x(__int64 a):把目标缓存置位为a。
SIMD指令的操作对象以寄存器为主,操作数长度通常是128位,本申请实施例相应选取128位的SIMD指令操作数位数,来处理bitmap数据,这一方面可以满足大多数业务需求,另一方面可以更方便的使用SIMD指令相关函数。
结合引入的SIMD指令,相应将上述的长度阈值设置为128,即,L=128。该情况下,2层Bitmap就可以支持16384位(对应16384个内存块),已经可以满足绝大多数场合中内存块列表的管理维护。对于2层Bitmap,相应只需要2个SIMD指令,即可找到可用内存块,相比于普通的c语言位运算性能有了大幅提高,同时,相比于基于链表或者树的数据结构的查找算法而言,性能也得到几个数量级的提升。
C/C++语言的变量长度一般是32位或者64位,而SIMD指令的操作数长度通常是128位,为了方便使用,本申请进一步对SIMD指令进行封装,形成面向C++语言接口的一系列Bitmap操作类,主要的类包括Vector128b、Vector4ui等。其中,Vector128b封装了SIMD底层的__m128i数据类型和基础的SIMD位操作指令,Vector4i提供了面向应用层的32位整形操作接口。应用层可以像使用常见的整型变量一样来利用SIMD指令处理128位Bitmap,利用SIMD指令在一个指令周期完成对128位的查找操作,大大提高了位操作的处理性能,并降低了开发负担。
在一实施例中,参见图4,本申请的内存管理方法,还可以包括:
步骤105、获取应用层的内存释放请求,内存释放请求用于指示待释放内存块。
步骤106、将待释放内存块归还至对应的内存块列表维护的内存块串,并对所释放的内存块在相应位图数据结构中对应的相关位执行复位处理,以使执行复位处理后相关位的取值与所释放的内存块的可用状态相匹配。
应用层释放一个内存块时,内存分配器将该内存块归还至其所对应的内存块列表维护的内存块串,同时,需对所释放内存块在所对应的位图数据结构中的相关位执行复位处理,以维护位图数据结构的数据与内存块实际状态的同步。
该复位处理的处理过程具体包括:
21)将释放的内存块在相应位图数据结构的最低层对应的位复位为第一位值;
如,将释放的内存块在相应位图数据结构的最低层对应的位,从之前的取值“0”复位为“1”,以表示该内存块恢复为可用状态。
22)将执行了复位操作的位所属的位块作为目标位块,并确定目标位块在当前所处层的上一层中对应的位的取值是否为第一位值;
23)若是,结束当前的复位处理;
24)若否,将目标位块在当前所处层的上一层中对应的位的取值复位为第一位值,并将所述目标位块在所述上一层中对应的位所属的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块在当前所处层的上一层中对应的位的取值为第一位值或所述相应位图数据结构的所有层处理完毕时结束。
通过步骤21)-24),确保所释放内存块的bit位所属位块,在整个位图数据结构中从顶层至底层对应的位块路径上的各个相关位的取值,与该内存块被释放后恢复为可用状态的情况相同步。
对应于上述的方法,本申请实施例还公开一种内存管理装置,如图5所示,该装置包括:
获取模块501,用于获取应用层的内存申请请求,所述内存申请请求中携带有应用层所需申请的内存空间的大小信息;
确定模块502,用于从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表;其中,每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,位图数据结构为最高层包括一个位块的单层或多层层级结构,位图数据结构低层的每个位块对应所邻接的高层的一位,最低层的每一位对应一个内存块,且最低层每一位的不同取值表示该位所对应内存块的不同状态,非最低层中每一位的不同取值表示该位在下一层所对应的位块是否表征存在可用内存块;一个位块包括不超出预定长度阈值的位;
查找模块503,用于对所述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出所述目标内存块列表维护的一个可用内存块,得到目标内存块;
分配处理模块504,用于将所述目标内存块分配给应用层,并对所述目标内存块在所述目标位图数据结构中对应的相关位执行置位处理,以使所述相关位的取值与所述目标内存块被分配后所处的占用状态相匹配。
在一实施例中,不同内存块列表分别维护不同类别的内存块,不同类别内存块的块大小不同,且,不同类别内存块的块大小间的步长满足预定的步长规则,每一类别内存块用于满足一个对应区间内存大小的内存申请与释放需求;
确定模块502,具体用于:从内存块列表集中确定出所维护内存块的块大小与所申请内存的大小信息最接近且不小于该大小信息的内存块列表,得到目标内存块列表。
在一实施例中,上述步长规则为:不同类别内存块的块大小升序排序后,每两个相邻块大小间的步长为2的幂次,且升序排序后各个相邻块大小间的步长逐步加大。
在一实施例中,内存块的状态为可用状态或占用状态;一个内存块列表对应的位图数据结构的层数为
Figure BDA0003198027240000151
其中,N表示内存块列表维护的内存块的个数,L表示所述长度阈值;
位图数据结构最低层中每一位的取值为:用于表示该位所对应内存块处于可用状态的第一位值,或用于表示该位所对应内存块处于占用状态的第二位值;位图数据结构非最低层中每一位的取值为:用于表示该位在下一层所对应的位块表征存在可用内存块的第一位值,或用于表示该位在下一层所对应的位块表征不存在可用内存块的第二位值;
查找模块503,具体用于:
若目标位图数据结构为一层,在所述目标位图数据结构的单一层中执行位查找操作,直至查找出取值为第一位值的目标位时,将该目标位对应的内存块确定为所述目标内存块;
若目标位图数据结构为多层,从所述目标位图数据结构的最高层开始执行位查找操作,在查找出取值为第一位值的位时,跳转并定位至该位在下一层对应的位块继续执行位查找操作,直至跳转并定位至所述目标位图数据结构的最低层相应位块,并从所述最低层相应位块查找出取值为第一位值的目标位时,将该目标位对应的内存块确定为所述目标内存块。
在一实施例中,上述长度阈值为128。
查找模块503,具体用于:
利用单指令多数据流SIMD指令,对所述目标内存块列表对应的目标位图数据结构执行位查找操作;
其中,预先通过对SIMD指令的封装,形成面向预设开发语言接口的多个位图数据结构操作类。
在一实施例中,分配处理模块504,在对目标内存块在目标位图数据结构中对应的相关位执行置位处理时,具体用于:
将所述目标内存块在所述目标位图数据结构的最低层对应的位置位为第二位值;
将所述目标内存块在所述目标位图数据结构的最低层对应的位所属的位块作为目标位块,并确定所述目标位块中是否存在取值为第一位值的位;
若存在,结束当前的置位处理;
若不存在,将所述目标位块在当前所处层的上一层中对应的位置位为第二位值,并将所述目标位块在所述上一层中对应的位所属的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块中存在取值为第一位值的位或所述目标位图数据结构的所有层处理完毕时结束。
在一实施例中,获取模块501,还用于:获取应用层的内存释放请求,所述内存释放请求用于指示待释放内存块;
上述装置还包括:释放处理模块,用于:
获取应用层的内存释放请求,所述内存释放请求用于指示待释放内存块;
将待释放内存块归还至对应的内存块列表维护的内存块串,并对所释放的内存块在相应位图数据结构中对应的相关位执行复位处理,以使执行复位处理后相关位的取值与所释放的内存块的可用状态相匹配。
在一实施例中,释放处理模块,在对释放的内存块在相应位图数据结构中对应的相关位执行复位处理时,具体用于:
将释放的内存块在相应位图数据结构的最低层对应的位复位为第一位值;
将执行了复位操作的位所属的位块作为目标位块,并确定目标位块在当前所处层的上一层中对应的位的取值是否为第一位值;
若是,结束当前的复位处理;
若否,将目标位块在当前所处层的上一层中对应的位的取值复位为第一位值,并将所述目标位块在所述上一层中对应的位所处的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块在当前所处层的上一层中对应的位的取值为第一位值或所述相应位图数据结构的所有层处理完毕时结束。
对于本申请实施例公开的内存管理装置而言,由于其与上文各方法实施例公开的内存管理方法相对应,所以描述的比较简单,相关相似之处请参见上文相应方法实施例的说明即可,此处不再详述。
另外,本申请实施例还公开一种内存分配器,该内存分配器中实现有计算机指令集,该计算机指令集具体可以采用计算机程序的形式实现,所实现的计算机指令集在运行时,用于执行如上文任一方法实施例公开的内存管理方法。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
为了描述的方便,描述以上系统或装置时以功能分为各种模块或单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
最后,还需要说明的是,在本文中,诸如第一、第二、第三和第四等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种内存管理方法,其特征在于,包括:
获取应用层的内存申请请求,所述内存申请请求中携带有应用层所需申请的内存空间的大小信息;
从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表;其中,每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,位图数据结构为最高层包括一个位块的单层或多层层级结构,位图数据结构低层的每个位块对应所邻接的高层的一位,最低层的每一位对应一个内存块,且最低层每一位的不同取值表示该位所对应内存块的不同状态,非最低层中每一位的不同取值表示该位在下一层所对应的位块是否表征存在可用内存块;一个位块包括不超出预定长度阈值的位;
对所述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出所述目标内存块列表维护的一个可用内存块,得到目标内存块;
将所述目标内存块分配给应用层,并对所述目标内存块在所述目标位图数据结构中对应的相关位执行置位处理,以使所述相关位的取值与所述目标内存块被分配后所处的占用状态相匹配。
2.根据权利要求1所述的方法,其特征在于,不同内存块列表分别维护不同类别的内存块,不同类别内存块的块大小不同,且,不同类别内存块的块大小间的步长满足预定的步长规则,每一类别内存块用于满足一个对应区间内存大小的内存申请与释放需求;
所述从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表,包括:
从所述内存块列表集中确定出所维护内存块的块大小与所述大小信息最接近且不小于所述大小信息的内存块列表,得到所述目标内存块列表。
3.根据权利要求2所述的方法,其特征在于,所述步长规则为:不同类别内存块的块大小升序排序后,每两个相邻块大小间的步长为2的幂次,且升序排序后各个相邻块大小间的步长逐步加大。
4.根据权利要求1所述的方法,其特征在于,内存块的状态为可用状态或占用状态;一个内存块列表对应的位图数据结构的层数为
Figure FDA0003198027230000011
其中,N表示内存块列表维护的内存块的个数,L表示所述长度阈值;
位图数据结构最低层中每一位的取值为:用于表示该位所对应内存块处于可用状态的第一位值,或用于表示该位所对应内存块处于占用状态的第二位值;位图数据结构非最低层中每一位的取值为:用于表示该位在下一层所对应的位块表征存在可用内存块的第一位值,或用于表示该位在下一层所对应的位块表征不存在可用内存块的第二位值;
所述对所述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出所述目标内存块列表维护的一个可用内存块,得到目标内存块,包括:
若所述目标位图数据结构为一层,在所述目标位图数据结构的单一层中执行位查找操作,直至查找出取值为第一位值的目标位时,将该目标位对应的内存块确定为所述目标内存块;
若所述目标位图数据结构为多层,从所述目标位图数据结构的最高层开始执行位查找操作,在查找出取值为第一位值的位时,跳转并定位至该位在下一层对应的位块继续执行位查找操作,直至跳转并定位至所述目标位图数据结构的最低层相应位块,并从所述最低层相应位块查找出取值为第一位值的目标位时,将该目标位对应的内存块确定为所述目标内存块。
5.根据权利要求4所述的方法,其特征在于,所述长度阈值为128;所述对所述目标内存块列表对应的目标位图数据结构执行位查找操作,包括:
利用单指令多数据流SIMD指令,对所述目标内存块列表对应的目标位图数据结构执行位查找操作;
其中,预先通过对SIMD指令的封装,形成面向预设开发语言接口的多个位图数据结构操作类。
6.根据权利要求4所述的方法,其特征在于,所述对所述目标内存块在所述目标位图数据结构中对应的相关位执行置位处理,包括:
将所述目标内存块在所述目标位图数据结构的最低层对应的位置位为第二位值;
将所述目标内存块在所述目标位图数据结构的最低层对应的位所属的位块作为目标位块,并确定所述目标位块中是否存在取值为第一位值的位;
若存在,结束当前的置位处理;
若不存在,将所述目标位块在当前所处层的上一层中对应的位置位为第二位值,并将所述目标位块在所述上一层中对应的位所属的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块中存在取值为第一位值的位或所述目标位图数据结构的所有层处理完毕时结束。
7.根据权利要求4所述的方法,其特征在于,还包括:
获取应用层的内存释放请求,所述内存释放请求用于指示待释放内存块;
将待释放内存块归还至对应的内存块列表维护的内存块串,并对所释放的内存块在相应位图数据结构中对应的相关位执行复位处理,以使执行复位处理后相关位的取值与所释放的内存块的可用状态相匹配。
8.根据权利要求7所述的方法,其特征在于,所述对释放的内存块在相应位图数据结构中对应的相关位执行复位处理,包括:
将释放的内存块在相应位图数据结构的最低层对应的位复位为第一位值;
将执行了复位操作的位所属的位块作为目标位块,并确定目标位块在当前所处层的上一层中对应的位的取值是否为第一位值;
若是,结束当前的复位处理;
若否,将目标位块在当前所处层的上一层中对应的位的取值复位为第一位值,并将所述目标位块在所述上一层中对应的位所属的位块重置为目标位块,以及触发上述对目标位块的处理,直至目标位块在当前所处层的上一层中对应的位的取值为第一位值或所述相应位图数据结构的所有层处理完毕时结束。
9.一种内存管理装置,其特征在于,包括:
获取模块,用于获取应用层的内存申请请求,所述内存申请请求中携带有应用层所需申请的内存空间的大小信息;
确定模块,用于从预定的内存块列表集中确定出所维护内存块的块大小与所述大小信息相匹配的目标内存块列表;其中,每一内存块列表通过对应的位图数据结构维护一串相同大小的内存块,位图数据结构为最高层包括一个位块的单层或多层层级结构,位图数据结构低层的每个位块对应所邻接的高层的一位,最低层的每一位对应一个内存块,且最低层每一位的不同取值表示该位所对应内存块的不同状态,非最低层中每一位的不同取值表示该位在下一层所对应的位块是否表征存在可用内存块;一个位块包括不超出预定长度阈值的位;
查找模块,用于对所述目标内存块列表对应的目标位图数据结构执行位查找操作,以确定出所述目标内存块列表维护的一个可用内存块,得到目标内存块;
分配处理模块,用于将所述目标内存块分配给应用层,并对所述目标内存块在所述目标位图数据结构中对应的相关位执行置位处理,以使所述相关位的取值与所述目标内存块被分配后所处的占用状态相匹配。
10.一种内存分配器,其特征在于,所述内存分配器中实现有计算机指令集,所述计算机指令集在运行时用于执行如权利要求1-8任一项所述的内存管理方法。
CN202110896371.2A 2021-08-05 2021-08-05 内存管理方法、装置及内存分配器 Active CN113590332B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110896371.2A CN113590332B (zh) 2021-08-05 2021-08-05 内存管理方法、装置及内存分配器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110896371.2A CN113590332B (zh) 2021-08-05 2021-08-05 内存管理方法、装置及内存分配器

Publications (2)

Publication Number Publication Date
CN113590332A true CN113590332A (zh) 2021-11-02
CN113590332B CN113590332B (zh) 2023-10-13

Family

ID=78255488

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110896371.2A Active CN113590332B (zh) 2021-08-05 2021-08-05 内存管理方法、装置及内存分配器

Country Status (1)

Country Link
CN (1) CN113590332B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115658561A (zh) * 2022-11-16 2023-01-31 石家庄科林电气股份有限公司 配电终端内存管理方法、装置、电子设备及存储介质
CN116991595A (zh) * 2023-09-27 2023-11-03 太初(无锡)电子科技有限公司 一种基于Bitmap的内存分配方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6175900B1 (en) * 1998-02-09 2001-01-16 Microsoft Corporation Hierarchical bitmap-based memory manager
US6874062B1 (en) * 2000-02-22 2005-03-29 Unisys Corporation System and method for utilizing a hierarchical bitmap structure for locating a set of contiguous ordered search items having a common attribute
CN103885888A (zh) * 2014-03-05 2014-06-25 珠海全志科技股份有限公司 基于tlsf的嵌入式实时系统的内存管理方法、系统及装置
WO2014100253A1 (en) * 2012-12-18 2014-06-26 Netapp, Inc System and method for an efficient cache warm-up
US20190026317A1 (en) * 2017-07-18 2019-01-24 Vmware, Inc. Memory use in a distributed index and query system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6175900B1 (en) * 1998-02-09 2001-01-16 Microsoft Corporation Hierarchical bitmap-based memory manager
US6874062B1 (en) * 2000-02-22 2005-03-29 Unisys Corporation System and method for utilizing a hierarchical bitmap structure for locating a set of contiguous ordered search items having a common attribute
WO2014100253A1 (en) * 2012-12-18 2014-06-26 Netapp, Inc System and method for an efficient cache warm-up
CN103885888A (zh) * 2014-03-05 2014-06-25 珠海全志科技股份有限公司 基于tlsf的嵌入式实时系统的内存管理方法、系统及装置
US20190026317A1 (en) * 2017-07-18 2019-01-24 Vmware, Inc. Memory use in a distributed index and query system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李法龙, 吴刚, 陈章龙: "位图在嵌入式系统内存管理中的应用", 计算机工程与设计, no. 04 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115658561A (zh) * 2022-11-16 2023-01-31 石家庄科林电气股份有限公司 配电终端内存管理方法、装置、电子设备及存储介质
CN116991595A (zh) * 2023-09-27 2023-11-03 太初(无锡)电子科技有限公司 一种基于Bitmap的内存分配方法、装置、设备及介质
CN116991595B (zh) * 2023-09-27 2024-02-23 太初(无锡)电子科技有限公司 一种基于Bitmap的内存分配方法、装置、设备及介质

Also Published As

Publication number Publication date
CN113590332B (zh) 2023-10-13

Similar Documents

Publication Publication Date Title
JP6662990B2 (ja) オブジェクトネットワークをモデル化するシステム及び方法
CN106294190B (zh) 一种存储空间管理方法及装置
Zhang et al. Adapting skyline computation to the mapreduce framework: Algorithms and experiments
US7610468B2 (en) Modified buddy system memory allocation
CN107567621B (zh) 用于执行数字搜索的方法、系统和计算机程序产品
CN111913955A (zh) 数据的排序处理装置、方法和存储介质
CN113590332B (zh) 内存管理方法、装置及内存分配器
US10824555B2 (en) Method and system for flash-aware heap memory management wherein responsive to a page fault, mapping a physical page (of a logical segment) that was previously reserved in response to another page fault for another page in the first logical segment
US20180254999A1 (en) Multidimensional resource allocation in data centers
CN111984425B (zh) 用于操作系统的内存管理方法、装置及设备
CN108132834B (zh) 多级共享高速缓冲存储器架构下的任务分配方法和系统
CN114064588B (zh) 存储空间调度方法及系统
CN110941602A (zh) 数据库的配置方法、装置、电子设备及存储介质
CN105550180B (zh) 数据处理的方法、装置及系统
CN108052535B (zh) 基于多处理器平台的视觉特征并行快速匹配方法和系统
US11474938B2 (en) Data storage system with multiple-size object allocator for disk cache
CN114860449B (zh) 数据处理方法、装置、设备和存储介质
US20150135184A1 (en) Time and space-deterministic task scheduling apparatus and method using multi-dimensional scheme
CN112506813B (zh) 一种内存管理方法和系统
CN112100446B (zh) 搜索方法、可读存储介质和电子设备
US9824105B2 (en) Adaptive probabilistic indexing with skip lists
US20090063589A1 (en) Apparatus and method to decouple large object data processing from main-line data processing in a shared-nothing architecture
KS Integrated Data, Task and Resource Management to Speed Up Processing Small Files in Hadoop Cluster.
JPWO2009031474A1 (ja) 情報検索システム、情報検索方法及びプログラム
Cheng et al. Design and Implementation of Dynamic Memory Allocation Algorithm in Embedded Real-Time System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: No. 210, Liangjing Road, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai 200120

Applicant after: Shanghai Jinshida Software Technology Co.,Ltd.

Address before: 201203 No. 210, Liangjing Road, Pudong New Area, Shanghai

Applicant before: Shanghai Kingstar Software Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant