CN106528454A - 一种基于闪存的内存系统缓存机制 - Google Patents

一种基于闪存的内存系统缓存机制 Download PDF

Info

Publication number
CN106528454A
CN106528454A CN201610962631.0A CN201610962631A CN106528454A CN 106528454 A CN106528454 A CN 106528454A CN 201610962631 A CN201610962631 A CN 201610962631A CN 106528454 A CN106528454 A CN 106528454A
Authority
CN
China
Prior art keywords
page
cache line
flash memory
cache
caching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610962631.0A
Other languages
English (en)
Other versions
CN106528454B (zh
Inventor
肖侬
陈正国
陈志广
刘芳
陈微
欧洋
张航
邢玉轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN201610962631.0A priority Critical patent/CN106528454B/zh
Publication of CN106528454A publication Critical patent/CN106528454A/zh
Application granted granted Critical
Publication of CN106528454B publication Critical patent/CN106528454B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0877Cache access modes
    • G06F12/0882Page mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • G06F12/121Replacement control using replacement algorithms
    • G06F12/123Replacement control using replacement algorithms with age lists, e.g. queue, most recently used [MRU] list or least recently used [LRU] list

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明涉及一种基于闪存的内存系统缓存机制。它提出在基于闪存的内存系统的DRAM中构建两个缓存区:页缓存区和cache line缓存区。一方面通过历史感知热点识别机制,鉴别并保存每个数据页内热的cache line,提升DRAM缓存的命中率。另一方面,采用延迟刷下机制,在缓存区满时优先剔除干净的数据块,从而减少对闪存的写。同时,采用弱变异系数算法,增加历史访问记录和脏标记位等方式,该缓存机制在时间、空间开销等方面都不大。该机制充分利用闪存的特性,能够有效改善基于闪存的内存系统的读写延迟和使用寿命。

Description

一种基于闪存的内存系统缓存机制
技术领域
本发明适用于基于闪存的内存系统技术领域,提供了一种基于闪存的内存系统缓存机制,通过对缓存的设计,缓解数据访问闪存时的负载瓶颈,改善基于闪存的内存系统的读写延迟和使用寿命。
背景技术
随着信息技术革命的飞速发展,大数据和云计算已经成为当今时代的主流,数据的爆炸性增长以及计算机性能的不断提高对存储系统提出了越来越高的要求,存储系统面临着容量和性能的挑战。
传统内存DRAM的集成度越来越高,其容量越来越大,虽然其访问延迟并没有显著的改善,但是容量的提升在性能、成本上也给计算机系统的发展带来了很大的益处。由于DRAM为充电型器件,其电容需要一定的大小才能保存足够的电荷而被感知,并且其上的半导体器件也只有达到一定的大小才能产生有效的通道控制信号,由于目前预测理论上的最小值为40nm,而当前工艺已经接近极限。另一方面,DRAM功耗方面都存在瓶颈,由于DRAM为非易失存储介质,存在电荷流失现象,需要不断进行刷新操作才能保证数据正确性。当容量增大后,刷新操作的功耗很大。
近年来,以闪存为代表的新型存储介质发展迅速,集成度不断增加,价格不断降低,缓解了存储系统的性能压力。闪存具有很多优良特性,如高随机访问性能,低功耗,体积小,抗震动等,具有广阔的发展前景。基于闪存的闪存固态盘由于其高性能,被广泛用于云计算的数据中心中。但是,闪存的擦写次数有限,使得其寿命有限,这是阻碍闪存的发展一大因素。因此,在可靠性敏感的环境中,闪存固态盘并不适用。对于云计算数据中心产生的写密集型负载,闪存固态盘无法胜任存储工作。之前,闪存相关产品都用作外存使用,为了进一步降低延迟,学术界以及工业界的研究者尝试用闪存构建内存。目前,市场上出现了基于闪存的内存系统产品,如Ultra-DIMM,使得将闪存用于构建内存系统成为可能。
以闪存构建内存系统,能有效地解决传统DRAM的扩展性和功耗问题。但是,该系统存在两个关键问题:性能和使用寿命。一方面,闪存的性能比传统DRAM低几个数量级。尽管我们可以有效地利用闪存阵列内部的并行性,但还是难以弥补和DRAM之间的性能差距。另一方面,有限的擦写次数导致闪存的使用寿命有限。虽然可以采用损耗均衡等技术延长闪存的寿命,但是作为内存系统时,数据访问非常频繁,使用寿命还是一个严峻的问题。鉴于这两个方面的瓶颈,通常,我们倾向于在闪存阵列中增加一个DRAM作为数据缓存。这样一来,DRAM缓存可以吸收主机到来的很多请求,从而弥补闪存内存系统在性能和寿命上的不足。也就是说,DRAM缓存中的缓存替换机制是该系统的关键。
然而,这样的混合架构存在两个问题。第一,闪存的访问粒度是页(通常是4KB数据),而主机和内存之间的访问粒度是cache line(通常是64B),这两者访问粒度的不一致会使得DRAM缓存管理变得复杂。虽然有些闪存的接口协议支持子页访问模式(访问粒度为512B),还是比cache line大。当一个cache line的请求到来时,如果DRAM缓存中缺失,闪存的控制器会从闪存阵列中读取一页到DRAM中。这样一来,DRAM缓存的命中率就至关重要。当一个cache line的请求命中DRAM缓存的话,就不需要去访问闪存了。然而,如果我们采用简单的缓存机制,将闪存中的页缓存到DRAM中,传统的缓存替换算法,如LRU(Least RecentlyUsed),只能识别出热页并将其保存在缓存中,并不能识别出每页中热的cache line。第二,现有的通用缓存替换机制,只关注于更高的请求命中率,并没有考虑到闪存的相关特性。比如LRU算法,利用请求访问的时间局部性,能识别出一段时间内热的数据块并将其保存在缓存中,冷的数据块则剔除出去,以提高命中率。但是,闪存读写速度不一致,读快写慢,并且寿命有限,因此对写请求很敏感。传统的缓存替换机制若一味追求高的命中率,而导致刷下更多的写请求到闪存中,就会影响增加闪存的读写延迟,降低使用寿命,进而降低整体系统的性能和寿命。现有的其他缓存替换机制,如ARC,是在LRU的基础上改进而来,是至今为止公认的最好替换算法之一,能根据应用特性进行自我调节,实现非常高的命中率,但还是存在相同的问题,这使得通用的缓存替换机制并不能完全适用于闪存内存系统。
综上所述,基于闪存的内存系统中,DRAM缓存对整体系统的性能和使用寿命至关重要。闪存的页和cache line的大小不一致,使得DRAM缓存并不能够识别出每页内热的cache line。同时,传统的通用缓存替换算法并不完全适用于闪存内存系统,简单地使用,可能会降低整体系统的性能和使用寿命。
发明内容
本发明所要解决的技术问题是在基于闪存的内存系统中设计实现有效的缓存机制,利用适合闪存特性的缓存机制,在DRAM中构建页的缓存区之外,又构建了一个cacheline的缓存区,分别缓存热页和每页内的热cache line。采用传统LRU鉴别热的页,并采用历史感知的热点识别机制鉴别当前应用下每页中热的cache line,分别将其保存在DRAM的页缓存区和cache line缓存区中。进而,采用延迟刷下机制,优先剔除DRAM缓存中未被修改过的数据(即干净的数据),减少对闪存的写。通过这两种方式,能够改善闪存内存系统的读写延迟和使用寿命。
DRAM缓存机制的原理包括两方面的创新。一方面,是历史感知的热点识别机制。将DRAM缓存分为页缓存区和cache line缓存区。页缓存区存放热的页,而cache line缓存区存放热的cache line。两个缓存区都采用基本的LRU策略进行数据管理,在页缓存区中,每个页内的各个cache line后需增加一个字节的空间记录数据的访问次数。经过实验发现,在大部分应用的访问模式下,页内各个cache line的访问是不均衡的,为提高DRAM缓存的命中率,需要识别出页内的热cache line,尽早剔除缓存中冷的cache line。历史感知的热点识别机制就是仿照了数学上的变异系数的方法。由于传统的变异系数涉及到开平方根等复杂运算,为减少计算和硬件开销,我们设计了一种弱变异系数(Weak CV)的方法,采用平均差(mean deviation)除以平均数(average)的方式,通过计算弱变异系数的值来判断页内是否存在热的cache line。其具体公式如下:
该公式中,Xi为页内记录的弟i个cache line的访问次数,一个页内各个cacheline访问次数的平均值。当一个页被剔除出页缓存区时,计算该页的Weak CV,如果Weak CV的值超过给定的阈值,则说明该页中存在热的cache line,将该页内访问次数超过平均数的所有cache line都存到cache line缓存区中。页缓存区和cache line缓存区若满,都按照LRU的方式进行数据替换。这样一来,采用LRU替换机制和历史感知热点识别机制能够分别鉴别出热的数据页和每页内热的cache line,并将它们保存在DRAM中,从而能极大地提高了缓存命中率,减少对闪存的访问,提升系统的性能和寿命。
另一方面,是延迟刷下机制。在DRAM的页缓存区和cache line缓存区中,每个数据块都增加一个标志位,标识数据块是否被修改过,即是否为脏数据。当任意一个缓存区满后,传统的LRU替换策略会剔除最近最少使用(LRU)的数据块,将其刷到闪存中。若该数据块为脏数据,则会产生一个写请求,更新在闪存中的副本数据。延迟刷下机制,则是在LRU策略的基础上,根据闪存对写请求敏感的特点,做出调整。在缓存区满需要剔除数据块的时候,先判断LRU数据块是否为脏,若不为脏,则剔除LRU数据块;否则,从与LRU数据块相邻的几个数据块中,按照访问频率从少到多的顺序选一个干净的数据块进行剔除。由于这些数据块相对于各自缓存区中的数据块而言是较冷的数据,因此,剔除其中一个数据块并不会严重影响命中率。若这些数据块都为脏数据,则出于提高命中率的考虑,还是剔除LRU数据块。延迟刷下机制通过延迟刷下脏数据块,能够减少对闪存的写,从而提升系统性能和寿命。
本发明设计的基于闪存的内存系统缓存机制在DRAM中构建了两个缓存区:页缓存区和cache line缓存区。一方面通过历史感知热点识别机制,鉴别并保存每个数据页内热的cache line,提升DRAM缓存的命中率。另一方面,采用延迟刷下机制,在缓存区满时优先剔除干净的数据块,从而减少对闪存的写。综合两个方面的策略,该机制能够有效地改善闪存内存系统的读写延迟和使用寿命。
使用本发明能达到以下有益效果:
1、提升闪存内存系统的性能。本发明提出的历史感知的热点识别机制基于每个数据页内各个cache line访问的不均衡性,构建cache line缓存区,鉴别并保存页内热的cacheline,从而提升DRAM缓存的命中率,吸收了很多读写请求,有效地减少了对闪存的访问,提升了性能;
2、提升闪存内存系统的使用寿命。写请求会消耗闪存的使用寿命,本发明提出的延迟刷下机制,通过延迟刷下脏数据,减少了闪存的写请求数量,从而提升了整体系统的使用寿命。
实现本发明的开销很小,包括以下三点:
1、时间开销:本发明的缓存机制是基于传统的LRU替换策略,设计的历史感知的热点识别机制和延迟刷下机制并不涉及复杂的计算开销,时间开销小;
2、空间开销:本发明的缓存机制将传统的页缓存区空间划分为两个缓存区:页缓存区和cacheline缓存区,总空间大小不变。除此之外,历史感知热点识别机制中对每个页中的cache line增加了一个字节的空间用于记录访问信息,延迟刷下机制增加了1位的脏位标记,这两处空间开销不到DRAM缓存空间的2%,空间开销小。
附图说明
图1是每页内各个cache line访问不均衡示意图;
图2是基于闪存的内存系统缓存机制的体系结构图以及工作流程示意图;
图3是历史感知的热点识别机制原理示意图;
图4是延迟刷下机制的原理示意图。
具体实施方式
图1是每页内各个cache line访问不均衡示意图,该例子中每个页大小为512B,包括8个cache line。
图2是本发明采用的基于闪存的内存系统缓存机制的体系结构图以及工作流程示意图,DRAM缓存中包括页缓存区和cache line缓存区。
图3是历史感知的热点识别机制原理示意图,cache line的访问信息记录在页写回闪存时可以存放在闪存的带外区域(Out-of-Band)。
图4是延迟刷下机制的原理示意图,为每个数据页以及cache line都设置了脏标识位。具体的执行过程为:
第一步,将DRAM缓存空间划分为页缓存区和cache line缓存区,按照闪存的子页访问协议,设定页缓存区的数据块大小为512B,cache line缓存区的数据块大小为64B;
第二步,接收从主机到来的cache line请求,先判断cache line缓存区是否命中,若cache line缓存区命中,则立即服务请求,执行第十步;否则,判断页缓存区是否命中,执行第三步;
第三步,若页缓冲区命中,服务请求,执行第十步;否则,闪存控制器根据请求地址,从闪存中读取一页到页缓存区中,执行第四步;
第四步,若页缓存区不满,则服务请求,执行第十步;否则,根据延迟刷下策略,在LRU数据块及其相邻的两个数据块中选择一个数据块进行剔除,执行第五步;
第五步,若剔除的数据块为干净的,则不产生对闪存的写,执行第十步;否则产生对闪存的写请求,执行第六步;
第六步,针对剔除的数据页,根据页内各个cache line的访问记录,计算该页的弱变异系数,若该值大于设定的阈值(以1.5为例),则说明该页内各个cache line访问非常不均衡,将访问次数大于平均值以上的cache line取出,准备存入cache line缓存区,执行第七步;否则说明该页内访问较均衡,不需要进一步处理,执行第十步;
第七步,若cache line缓存区不满,则将第六步中选出的一个cache line存入,执行第九步;否则,根据延迟刷下策略,在LRU数据块及其相邻的两个个数据块中选择一个数据块进行剔除,执行第八步;
第八步,若剔除的数据块为干净的,则不需要多余操作,执行第九步;否则,对闪存产生一个读和一个写,先将该cache line存在的页读出,再将cache line更新到对应的位置,最后将更新后的页写回到闪存中,执行第九步;
第九步,若第六步选择的cache line处理完,则执行第十步;否则,执行第七步;
第十步,结束。
在基于闪存的内存系统中,DRAM缓存对整体系统的性能和使用寿命至关重要。闪存的页和cache line的大小不一致,采用传统的缓存替换算法只能识别出热的页,并不能够识别出每页内热的cache line。同时,传统的通用缓存替换算法并不完全适用于闪存内存系统,简单地使用,可能会降低整体系统的性能和使用寿命。
本发明针对以上两种情况,提出在基于闪存的内存系统的DRAM中构建两个缓存区:页缓存区和cache line缓存区。一方面通过历史感知热点识别机制,鉴别并保存每个数据页内热的cache line,提升DRAM缓存的命中率。另一方面,采用延迟刷下机制,在缓存区满时优先剔除干净的数据块,从而减少对闪存的写。同时,采用弱变异系数算法,增加历史访问记录和脏标记位等方式,该缓存机制在时间、空间开销等方面都不大。基于本发明的实验测试表明,该机制在特定应用下能最大提升缓存命中率12%,平均降低访问延迟19.7%,并且提升16.6%的使用寿命。这个结果表明,该机制能够有效地改善闪存内存系统的读写延迟和使用寿命。

Claims (2)

1.一种基于闪存的内存系统缓存机制,在DRAM中构建页的缓存区,其特征在于,在DRAM中构建页的缓存区之外,又构建了一个cache line的缓存区,分别缓存热页和每页内的热cache line,采用LRU鉴别热的页,并采用历史感知的热点识别机制鉴别当前应用下每页中热的cache line,分别将其保存在DRAM的页缓存区和cache line缓存区中,然后,采用延迟刷下机制,优先剔除DRAM缓存中未被修改过的数据,减少对闪存的写,通过这两步骤,能够改善闪存内存系统的读写延迟和使用寿命。
2.根据权利要求1所述的一种基于闪存的内存系统缓存机制,其特征在于,所述延迟刷下机制的具体步骤为:
第一步,将DRAM缓存空间划分为页缓存区和cache line缓存区,按照闪存的子页访问协议,设定页缓存区的数据块大小为512B,cache line缓存区的数据块大小为64B;
第二步,接收从主机到来的cache line请求,先判断cache line缓存区是否命中,若cache line缓存区命中,则立即服务请求,执行第十步;否则,判断页缓存区是否命中,执行第三步;
第三步,若页缓冲区命中,服务请求,执行第十步;否则,闪存控制器根据请求地址,从闪存中读取一页到页缓存区中,执行第四步;
第四步,若页缓存区不满,则服务请求,执行第十步;否则,根据延迟刷下策略,在LRU数据块及其相邻的两个数据块中选择一个数据块进行剔除,执行第五步;
第五步,若剔除的数据块为干净的,则不产生对闪存的写,执行第十步;否则产生对闪存的写请求,执行第六步;
第六步,针对剔除的数据页,根据页内各个cache line的访问记录,计算该页的弱变异系数,若该值大于设定的阈值,则说明该页内各个cache line访问非常不均衡,将访问次数大于平均值以上的cache line取出,准备存入cache line缓存区,执行第七步;否则说明该页内访问较均衡,不需要进一步处理,执行第十步;
第七步,若cache line缓存区不满,则将第六步中选出的一个cache line存入,执行第九步;否则,根据延迟刷下策略,在LRU数据块及其相邻的两个个数据块中选择一个数据块进行剔除,执行第八步;
第八步,若剔除的数据块为干净的,则不需要多余操作,执行第九步;否则,对闪存产生一个读和一个写,先将该cache line存在的页读出,再将cache line更新到对应的位置,最后将更新后的页写回到闪存中,执行第九步;
第九步,若第六步选择的cache line处理完,则执行第十步;否则,执行第七步;
第十步,结束。
CN201610962631.0A 2016-11-04 2016-11-04 一种基于闪存的内存系统缓存方法 Active CN106528454B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610962631.0A CN106528454B (zh) 2016-11-04 2016-11-04 一种基于闪存的内存系统缓存方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610962631.0A CN106528454B (zh) 2016-11-04 2016-11-04 一种基于闪存的内存系统缓存方法

Publications (2)

Publication Number Publication Date
CN106528454A true CN106528454A (zh) 2017-03-22
CN106528454B CN106528454B (zh) 2019-03-29

Family

ID=58325712

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610962631.0A Active CN106528454B (zh) 2016-11-04 2016-11-04 一种基于闪存的内存系统缓存方法

Country Status (1)

Country Link
CN (1) CN106528454B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107577619A (zh) * 2017-07-20 2018-01-12 深圳大学 一种数据写入、读取方法和装置
CN107590084A (zh) * 2017-08-22 2018-01-16 浙江万里学院 一种基于分类策略的页级缓冲区改进方法
CN107992434A (zh) * 2017-11-24 2018-05-04 郑州云海信息技术有限公司 用于分布式分层存储系统的下刷方法、装置及存储介质
CN108762671A (zh) * 2018-05-23 2018-11-06 中国人民解放军陆军工程大学 基于pcm和dram的混合内存系统及其管理方法
CN108845957A (zh) * 2018-03-30 2018-11-20 杭州电子科技大学 一种置换和回写自适应的缓冲区管理方法
CN111008158A (zh) * 2019-11-08 2020-04-14 暨南大学 一种基于页面重构与数据温度识别的闪存缓存管理方法
CN111078591A (zh) * 2019-12-16 2020-04-28 深圳忆联信息系统有限公司 部分命中缓存读命令的处理方法、装置及计算机设备
CN111190834A (zh) * 2019-12-24 2020-05-22 华东师范大学 一种非对称读延迟感知的数据放置方法
CN111221749A (zh) * 2019-11-15 2020-06-02 新华三半导体技术有限公司 数据块写入方法、装置、处理器芯片及Cache
CN111290706A (zh) * 2020-01-15 2020-06-16 哈尔滨工业大学 一种基于布隆过滤器的双层读写磨损均衡方法
CN113590520A (zh) * 2021-06-15 2021-11-02 珠海一微半导体股份有限公司 Spi系统自动写入数据的控制方法及spi系统
CN115394332A (zh) * 2022-09-09 2022-11-25 北京云脉芯联科技有限公司 Cache模拟实现系统、方法、电子设备及计算机存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833514A (zh) * 2009-03-12 2010-09-15 安凯(广州)软件技术有限公司 基于微内存系统在与非型闪存介质实现虚拟内存的方法
CN104239225A (zh) * 2014-09-04 2014-12-24 浪潮(北京)电子信息产业有限公司 一种管理异构混合内存的方法及装置
CN104360825A (zh) * 2014-11-21 2015-02-18 浪潮(北京)电子信息产业有限公司 一种混合内存系统及其管理方法
CN105938458A (zh) * 2016-04-13 2016-09-14 上海交通大学 软件定义的异构混合内存管理方法
CN105975402A (zh) * 2016-04-28 2016-09-28 华中科技大学 一种混合内存环境下淘汰数据感知的缓存方法与系统
CN105975406A (zh) * 2016-04-29 2016-09-28 浪潮(北京)电子信息产业有限公司 一种数据存取方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833514A (zh) * 2009-03-12 2010-09-15 安凯(广州)软件技术有限公司 基于微内存系统在与非型闪存介质实现虚拟内存的方法
CN104239225A (zh) * 2014-09-04 2014-12-24 浪潮(北京)电子信息产业有限公司 一种管理异构混合内存的方法及装置
CN104360825A (zh) * 2014-11-21 2015-02-18 浪潮(北京)电子信息产业有限公司 一种混合内存系统及其管理方法
CN105938458A (zh) * 2016-04-13 2016-09-14 上海交通大学 软件定义的异构混合内存管理方法
CN105975402A (zh) * 2016-04-28 2016-09-28 华中科技大学 一种混合内存环境下淘汰数据感知的缓存方法与系统
CN105975406A (zh) * 2016-04-29 2016-09-28 浪潮(北京)电子信息产业有限公司 一种数据存取方法及装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107577619A (zh) * 2017-07-20 2018-01-12 深圳大学 一种数据写入、读取方法和装置
CN107590084A (zh) * 2017-08-22 2018-01-16 浙江万里学院 一种基于分类策略的页级缓冲区改进方法
CN107992434A (zh) * 2017-11-24 2018-05-04 郑州云海信息技术有限公司 用于分布式分层存储系统的下刷方法、装置及存储介质
CN108845957A (zh) * 2018-03-30 2018-11-20 杭州电子科技大学 一种置换和回写自适应的缓冲区管理方法
CN108845957B (zh) * 2018-03-30 2020-10-09 杭州电子科技大学 一种置换和回写自适应的缓冲区管理方法
CN108762671A (zh) * 2018-05-23 2018-11-06 中国人民解放军陆军工程大学 基于pcm和dram的混合内存系统及其管理方法
CN111008158A (zh) * 2019-11-08 2020-04-14 暨南大学 一种基于页面重构与数据温度识别的闪存缓存管理方法
CN111008158B (zh) * 2019-11-08 2023-04-25 暨南大学 一种基于页面重构与数据温度识别的闪存缓存管理方法
CN111221749A (zh) * 2019-11-15 2020-06-02 新华三半导体技术有限公司 数据块写入方法、装置、处理器芯片及Cache
CN111078591A (zh) * 2019-12-16 2020-04-28 深圳忆联信息系统有限公司 部分命中缓存读命令的处理方法、装置及计算机设备
CN111190834A (zh) * 2019-12-24 2020-05-22 华东师范大学 一种非对称读延迟感知的数据放置方法
CN111190834B (zh) * 2019-12-24 2023-03-31 华东师范大学 一种非对称读延迟感知的数据放置方法
CN111290706A (zh) * 2020-01-15 2020-06-16 哈尔滨工业大学 一种基于布隆过滤器的双层读写磨损均衡方法
CN111290706B (zh) * 2020-01-15 2023-03-31 哈尔滨工业大学 一种基于布隆过滤器的双层读写磨损均衡方法
CN113590520A (zh) * 2021-06-15 2021-11-02 珠海一微半导体股份有限公司 Spi系统自动写入数据的控制方法及spi系统
CN113590520B (zh) * 2021-06-15 2024-05-03 珠海一微半导体股份有限公司 Spi系统自动写入数据的控制方法及spi系统
CN115394332A (zh) * 2022-09-09 2022-11-25 北京云脉芯联科技有限公司 Cache模拟实现系统、方法、电子设备及计算机存储介质
CN115394332B (zh) * 2022-09-09 2023-09-12 北京云脉芯联科技有限公司 Cache模拟实现系统、方法、电子设备及计算机存储介质

Also Published As

Publication number Publication date
CN106528454B (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN106528454A (zh) 一种基于闪存的内存系统缓存机制
CN102662868B (zh) 用于处理器的动态组相联高速缓存装置及其访问方法
US20160253259A1 (en) Mixed cache management
Wei et al. CBM: A cooperative buffer management for SSD
US8572321B2 (en) Apparatus and method for segmented cache utilization
US9990293B2 (en) Energy-efficient dynamic dram cache sizing via selective refresh of a cache in a dram
CN108762671A (zh) 基于pcm和dram的混合内存系统及其管理方法
CN110795363B (zh) 一种存储介质的热页预测方法和页面调度方法
CN110532200B (zh) 一种基于混合内存架构的内存系统
CN108572799B (zh) 一种双向哈希链表的异构内存系统数据页迁移方法
Du et al. VBBMS: A novel buffer management strategy for NAND flash storage devices
CN102799390B (zh) 能耗感知的协同式自适应预取方法和装置
Quan et al. Prediction table based management policy for STT-RAM and SRAM hybrid cache
Pan et al. Caching-aware garbage collection to improve performance and lifetime for NAND flash SSDs
Gaur et al. Near-optimal access partitioning for memory hierarchies with multiple heterogeneous bandwidth sources
Yoon et al. Row buffer locality-aware data placement in hybrid memories
CN106909323A (zh) 适用于dram/pram混合主存架构的页缓存方法及混合主存架构系统
Mittal Using cache-coloring to mitigate inter-set write variation in non-volatile caches
On et al. FD-Buffer: A cost-based adaptive buffer replacement algorithm for flashmemory devices
CN108710581A (zh) 基于布隆过滤器的pcm存储介质磨损均衡方法
CN102043731A (zh) 一种存储系统的缓存系统
Jiang et al. A cost-aware buffer management policy for flash-based storage devices
Zhang et al. DualStack: A high efficient dynamic page scheduling scheme in hybrid main memory
CN111506517A (zh) 一种基于访问局部性的闪存页级地址映射方法及其系统
Tan et al. APMigration: Improving performance of hybrid memory performance via an adaptive page migration method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant