CN111124951A - 管理数据访问的方法、设备和计算机程序产品 - Google Patents
管理数据访问的方法、设备和计算机程序产品 Download PDFInfo
- Publication number
- CN111124951A CN111124951A CN201811288676.XA CN201811288676A CN111124951A CN 111124951 A CN111124951 A CN 111124951A CN 201811288676 A CN201811288676 A CN 201811288676A CN 111124951 A CN111124951 A CN 111124951A
- Authority
- CN
- China
- Prior art keywords
- address
- target data
- external address
- storage system
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0873—Mapping of cache memory to specific storage devices or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0868—Data transfer between cache memory and other subsystems, e.g. storage devices or host systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0804—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with main memory updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/064—Management of blocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0656—Data buffering arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0689—Disk arrays, e.g. RAID, JBOD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1041—Resource optimization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/28—Using a specific disk cache architecture
- G06F2212/285—Redundant cache memory
- G06F2212/286—Mirrored cache memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/60—Details of cache memory
- G06F2212/608—Details relating to cache mapping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开的实施例涉及管理数据访问的方法、设备和计算机程序产品。根据本公开的示例性实现,响应于接收到针对目标数据的读请求,从读请求中获取目标数据的外部地址,外部地址是未经映射到存储系统中的地址;基于外部地址,确定目标数据在存储系统中的高速缓冲存储器中的命中信息;以及基于命中信息,从外部地址和内部地址中确定用于提供目标数据的地址,内部地址是基于外部地址和映射关系而确定的。由此,可以缩短数据访问路径,加快对数据访问请求的响应速度,并且高速缓冲存储器可以更有效地对数据进行预取。
Description
技术领域
本公开的实施例总体涉及数据存储领域,具体涉及管理数据访问的方法、设备和计算机程序产品。
背景技术
计算机存储系统一般采用层式结构,即以分层驱动程序模型来组织数据输入/输出(I/O)堆栈。在存储系统中,通常使用高速缓冲存储器(cache)来存储将来可能会被请求的数据,从而使得针对主机的读请求的响应时间更短,即用户可以更快地获取目标数据。
然而,在传统的存储系统中,高速缓冲存储器通常位于存储系统中的映射层的下方,这使得针对目标数据的操作的I/O路径较长,增加了I/O响应延迟。由于映射层对数据的地址进行映射,这可能会改变I/O模式,使得高速缓冲存储器难以有效地预取用户数据。此外,由于用户数据和用于存储地址映射关系的元数据各自具有其本身的特性,将二者混合存储在高速缓冲存储器中使得难以针对这些特性应用相应的管理算法,从而降低了高速缓冲存储器的效率。
发明内容
本公开的实施例提供了管理数据访问的方法、设备和计算机程序产品。
在本公开的第一方面,提供了一种管理数据访问的方法,包括:响应于接收到针对目标数据的读请求,从读请求中获取目标数据的外部地址,外部地址是未经映射到存储系统中的地址;基于外部地址,确定目标数据在存储系统中的高速缓冲存储器中的命中信息;以及基于命中信息,从外部地址和内部地址中确定用于提供目标数据的地址,内部地址是基于外部地址和映射关系而确定的。
在本公开的第二方面,提供了一种管理数据访问的方法,包括:响应于接收到针对目标数据的写请求,从写请求中获取目标数据和目标数据的外部地址,外部地址是未经映射到存储系统中的地址;将目标数据与外部地址相关联地存储到存储系统中的高速缓冲存储器中;以及响应于针对高速缓冲存储器的缓存刷新请求,确定用于将外部地址映射为存储系统的内部地址的映射关系;基于外部地址和映射关系,确定用于在存储系统的存储器中存储高速缓冲存储器中的数据的内部地址;以及基于内部地址,将数据存储到存储系统的存储器中。
在本公开的第三方面,提供了一种管理数据访问的设备,包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:响应于接收到针对目标数据的读请求,从读请求中获取目标数据的外部地址,外部地址是未经映射到存储系统中的地址;基于外部地址,确定目标数据在存储系统中的高速缓冲存储器中的命中信息;以及基于命中信息,从外部地址和内部地址中确定用于提供目标数据的地址,内部地址是基于外部地址和映射关系而确定的。
在本公开的第四方面,提供了一种管理数据访问的设备,包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:响应于接收到针对目标数据的写请求,从写请求中获取目标数据和目标数据的外部地址,外部地址是未经映射到存储系统中的地址;将目标数据与外部地址相关联地存储到存储系统中的高速缓冲存储器中;以及响应于针对高速缓冲存储器的缓存刷新请求,确定用于将外部地址映射为存储系统的内部地址的映射关系;基于外部地址和映射关系,确定用于在存储系统的存储器中存储高速缓冲存储器中的数据的内部地址;以及基于内部地址,将数据存储到存储系统的存储器中。
在本公开的第五方面,提供了一种计算机程序产品。计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器实现根据本公开的第一方面所描述的方法的任意步骤。
在本公开的第六方面,提供了一种计算机程序产品。计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器实现根据本公开的第二方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中在各个附图中,相同或对应的标号表示相同或对应的部件。
图1示出了常规存储系统的架构的示意图;
图2示出了常规存储系统中基于精简配置的映射层的内部结构的示意图;
图3示出了可以实施本公开的实施例的存储系统的架构的示意图;
图4示出了根据本公开的实施例的管理数据访问的方法的流程图;
图5A和图5B分别示出了在图3和图1所示的存储系统中执行读命中操作的示意图;
图6A和图6B分别示出了在图3和图1所示的存储系统中执行读未命中操作的示意图;
图7示出了根据本公开的实施例的管理数据访问的方法的流程图;
图8A和图8B分别示出了在图3和图1所示的存储系统中执行写操作的示意图;
图9示出了在图3所示的存储系统中执行缓存刷新操作的示意图;以及
图10示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
图1示出了常规存储系统100的架构的示意图。应当理解,图1所示的存储系统100的结构和功能仅用于示例的目的,还可能存在其他可能的实现方式。
如图所示,存储系统中包括存储处理器110-A和110-B,统称为存储处理器110。存储处理器110-A和110-B分别包括:主机对象120-A和120-B(统称为主机对象120)、映射层130-A和130-B(统称为映射层130)、高速缓冲存储器140-A和140-B(统称为高速缓冲存储器140)、以及存储器150-A和150-B(统称为存储器150)。应当理解,虽然图中示出了有限数目个组件,例如两个存储处理器,但是可以存在更多或更少的相同类型的组件。
通过使用多个存储处理器110,并结合高速缓冲存储器镜像技术,可以确保单个存储处理器110出现故障时数据的可用性。存储处理器110之间可以配备有例如Clariion消息接口(CMI)通道160,用于进行存储处理器110之间的通信,以及对写入到高速缓冲存储器140中的数据进行镜像。
主机对象120可以是小型计算机系统接口(SCSI)对象。高速缓冲存储器140可以是多核的,以提供更优的性能。高速缓冲存储器140一般被实现为动态随机存取存储器(DRAM)。存储器150可以是逻辑存储器。逻辑存储器是虚拟设备,用于提供在一个或多个物理存储器上可用的存储容量的区域。可以利用逻辑单元号(LUN)来标识存储器150中的存储单元。
映射层130可以利用精简配置技术,将精简(thin)配置后的LUN(TLU)导出给用户。精简配置技术允许用户在实际容量较少的情况下分配足够大的虚拟容量给应用。只有当数据写入发生时实际容量才会被占用。通过系统的动态容量分配,精简配置技术能显著提高存储利用率。精简配置也极大地简化了容量规划和管理任务。应当理解,虽然本文中映射层130使用了精简配置技术,但这仅作为示例,还可以使用其他配置技术,例如密集(thick)配置。
进一步地,图2示出了常规存储系统100中基于精简配置的映射层130的内部结构的示意图。应当理解,图2所示的映射层130的内部结构的结构和功能仅用于示例的目的,还可能存在其他可能的实现方式。
从上至下,映射层130包括:TLU 220(在本文中也称为外部地址220)、文件230、快照240、文件系统250、稀疏卷260、切片池270和LUN 280(在本文中也称为内部地址280)。总体而言,映射层130管理TLU 220和LUN 280之间的映射。更具体地,映射层130实现了两次映射:利用公共块文件系统(CBFS)210来维护TLU 220和稀疏卷260的地址空间之间的映射,并且利用稀疏卷260来维护其地址空间和LUN 280之间的映射。
文件系统250中的分配单元的大小是固定的,例如8KB。LUN 280可能无法完全支持稀疏卷260的地址空间。将LUN 280划分成例如256MB的切片,加入切片池270中,并且可以将这些切片动态地添加到稀疏卷260中。以上列出的数据大小仅是示例性的,并不限制本公开的范围。
在当前的存储系统100中,高速缓冲存储器140位于映射层130和存储器150之间(如图1所示),用于存储可能被请求的用户数据和元数据。对于该技术方案,用户的数据访问请求必须总是分两个阶段处理。第一阶段是获取或者创建TLU 220和LUN 280之间的映射,第二阶段是根据LUN 280来进行数据访问,例如读数据或者写数据。因此,数据访问路径较长。此外,归因于TLU 220和LUN 280之间的映射,连续写入的用户数据可能会被映射到不连续的LUN 280中,这进一步加长了数据访问路径,增加了响应延迟。
映射层130可能会扰乱数据访问模式,例如,将对大块数据的读操作分为若干不连续的子读操作。因此,高速缓冲存储器140难以检测数据访问模式,无法有效地执行数据预取。此外,用户数据和用于存储地址映射关系的元数据均存储在高速缓冲存储器140中,高速缓冲存储器140难以根据两种数据的特性来应用相应的管理算法,因而降低了管理算法的效率。
本公开的实施例提供了一种管理数据访问的方案。图3示出了可以实施本公开的实施例的存储系统300的架构的示意图。应当理解,如图3所示的存储系统300的结构和功能仅用于示例的目的,而不暗示对于本公开的范围的任何限制。本公开的实施例可以实施在不同的结构和/或架构中。
类似于图1示出的存储系统100,存储系统300包括存储处理器330,存储处理器330包括:主机对象120、映射层130和存储器150。与存储系统100不同的是,在存储系统300中,对图1中的高速缓冲存储器140-A和140-B进行分层,以分别形成用于存储用户数据的高速缓冲存储器310-A和310-B(统称为高速缓冲存储器310),以及用于存储元数据的高速缓冲存储器320-A和320-B(统称为高速缓冲存储器320)。高速缓冲存储器310和320均可以在镜像模式和回写(write-back)/直写(write-through)模式下操作。
根据本公开的实施例将高速缓冲存储器310设置在映射层130的上方,由此用户的数据访问请求不必总是分两个阶段进行,例如在读命中和写数据的情况下,可以不必进行地址映射,从而省去了由映射层130引起的开销,缩短了数据访问路径,加快了针对访问请求的响应速度,使得用户体验更佳。而且,高速缓冲存储器310可以有效地检测数据访问模式,从而有效地执行数据预取。这进一步缩短了响应时间。此外,通过将高速缓冲存储器分为用于存储用户数据的高速缓冲存储器310和用于存储元数据的高速缓冲存储器320,高速缓冲存储器可以针对用户数据和元数据的特性来分别应用管理算法,从而实现更有效的管理。
图4示出了根据本公开的实施例的管理数据访问的方法400的流程图。例如,方法400可以由如图3所示的存储处理器330来执行。以下结合图3来描述方法400中所涉及的动作。应当理解,方法400还可以包括未示出的附加动作和/或可以省略所示出的动作,并且本公开的范围在此方面不受限制。
在框410处,存储处理器330确定是否接收到针对目标数据的读请求。如果接收到针对目标数据的读请求,则在框420处,存储处理器330从读请求中获取目标数据的外部地址220,外部地址220是未经映射到存储系统300中的地址。在框430处,存储处理器330基于外部地址220,确定目标数据在存储系统300中的高速缓冲存储器310中的命中信息。在框440处,存储处理器330基于命中信息,从外部地址220和内部地址280中确定用于提供目标数据的地址,内部地址280是基于外部地址220和映射关系而确定的。
根据一些实施例,如果命中信息指示目标数据命中,即存储处理器330检测到目标数据存在于高速缓冲存储器310中,则存储处理器330将外部地址220确定为用于提供目标数据的地址。根据一些实施例,基于外部地址220,存储处理器330从高速缓冲存储器310提供读请求所针对的目标数据。图5A示出了在图3所示的存储系统300中执行读命中操作的示意图。
路径511:基于外部地址220的读请求从主机对象120传递到高速缓冲存储器310;
路径512:目标数据从高速缓冲存储器310传递到主机对象120。
相对比地,图5B示出了在图1所示的存储系统100中执行读命中操作的示意图。
路径521:基于外部地址220的读请求从主机对象120传递到映射层130;
路径522:映射层130向CBFS 210查询映射关系;
路径523:CBFS 210从高速缓冲存储器140读取与该映射关系相关联的元数据;
路径524:高速缓冲存储器140将映射关系传递到CBFS 210;
路径525:CBFS 210将映射关系传递到映射层130;
路径526:基于内部地址280的读请求从映射层130传递到高速缓冲存储器140;
路径527:高速缓冲存储器140将目标数据传递到映射层130;
路径528:映射层130将目标数据传递到主机对象120。
从以上描述可以看出,在读命中的情况下,相较于常规存储系统,根据本公开的实施例可以实现显著的更短的数据访问路径,从而缩短响应时间。
根据一些实施例,如果命中信息指示目标数据未命中,即存储处理器330检测到目标数据不存在于高速缓冲存储器310中,则存储处理器330基于外部地址220和映射关系来确定内部地址280,并将内部地址280确定为用于提供目标数据的地址。
根据一些实施例,基于内部地址280,存储处理器330从存储系统300的存储器150中获取目标数据,存储处理器330将目标数据与外部地址220相关联地存储到高速缓冲存储器310中;以及基于外部地址220,存储处理器330从高速缓冲存储器310提供读请求所针对的目标数据。图6A示出了在图3所示的存储系统300中执行读未命中操作的示意图。
路径610:基于外部地址220的读请求从主机对象120传递到高速缓冲存储器310;
路径611:基于外部地址220的读请求从高速缓冲存储器310传递到映射层130;
路径612:映射层130向CBFS 210查询映射关系;
路径613:基于元数据是否命中,CBFS 210从高速缓冲存储器320或存储器150读取与该映射关系相关联的元数据;
路径614:高速缓冲存储器320将映射关系传递到CBFS 210;
路径615:CBFS 210将映射关系传递到映射层130;
路径616:基于内部地址280的读请求从映射层130传递到存储器150;
路径617:存储器150将目标数据传递到映射层130;
路径618:映射层130将目标数据传递到高速缓冲存储器310;
路径619:高速缓冲存储器310将目标数据传递到主机对象120。
在以上的实施例中,设置了用于存储元数据的高速缓冲存储器320,使得在元数据命中的情况下,能够更快地得到映射关系,从而更快地获取目标数据。
图6B示出了在图1所示的存储系统100中执行读未命中操作的示意图。
路径620:基于外部地址220的读请求从主机对象120传递到映射层130;
路径621:映射层130向CBFS 210查询映射关系;
路径622:基于元数据是否命中,CBFS 210从高速缓冲存储器140或存储器150读取与该映射关系相关联的元数据;
路径623:高速缓冲存储器140将映射关系传递到CBFS 210;
路径624:CBFS 210将映射关系传递到映射层130;
路径625:基于内部地址280的读请求从映射层130传递到高速缓冲存储器140;
路径626:基于内部地址280的读请求从映射层130传递到存储器150;
路径627:存储器150将目标数据传递到高速缓冲存储器140;
路径628:高速缓冲存储器140将目标数据传递到映射层130;
路径629:映射层130将目标数据传递到主机对象120。
从以上描述可以看出,在读未命中的情况下,在图1和图3中的存储系统中,数据访问路径长度相当。
图7示出了根据本公开的实施例的管理数据访问的方法700的流程图。例如,方法700可以由如图3所示的存储处理器330来执行。以下结合图3来描述方法700中所涉及的动作。应当理解,方法700还可以包括未示出的附加动作和/或可以省略所示出的动作,并且本公开的范围在此方面不受限制。
在框710处,存储处理器330确定是否接收到针对目标数据的写请求。如果接收到针对目标数据的写请求,则在框720处,存储处理器330从写请求中获取目标数据和目标数据的外部地址220,外部地址200是未经映射到存储系统300中的地址。在框730处,存储处理器330将目标数据与外部地址220相关联地存储到存储系统300中的高速缓冲存储器310中。
在框740处,存储处理器330确定是否存在针对高速缓冲存储器310的缓存刷新(flush)请求。如果存储处理器330确定存在针对高速缓冲存储器310的缓存刷新请求,则在框750处,存储处理器330确定用于将外部地址220映射为存储系统300的内部地址280的映射关系。在框760处,基于外部地址220和映射关系,确定用于在存储系统的存储器中存储高速缓冲存储器中的数据的内部地址280。在框770处,基于内部地址280,存储处理器330将数据存储到存储系统的存储器150中。
图8A示出了在图3所示的存储系统300中执行写操作的示意图,图9示出了进行缓存刷新操作的示意图。如图8A所示:
路径811:写请求从主机对象120传递到高速缓冲存储器310
路径812:写请求所针对的目标数据镜像到存储系统300的另一存储处理器中针对用户数据的高速缓冲存储器中;
路径813:高速缓冲存储器310通知主机对象120写操作完成。
路径812是可选的,其适用于存在多个存储处理器330的情况。在写操作完成时,将写入高速缓冲存储器310的数据标识为脏数据。这些脏数据将基于最近最少使用(LRU)算法被刷新到存储器150。刷新后,数据状态将从“脏”变为“干净”。此外,高速缓冲存储器320也可以使用LRU算法来管理其中的元数据。本公开在管理算法方面不作限制。
相对比地,图8B示出了在图1所示的存储系统100中执行写操作的示意图。假设数据要被写入到存储器中的新的区域(即不是覆盖写的情况):
路径821:基于外部地址220的写请求从主机对象120传递到映射层130;
路径822:映射层130向CBFS 210查询映射关系;
路径823:CBFS 210创建映射关系,并将映射关系传递到映射层130;
路径824:映射层130基于根据映射关系所得的内部地址280,将目标数据传递到高速缓冲存储器140;
路径825:CBFS 210将映射关系传递到高速缓冲存储器140;
路径826:写请求所针对的目标数据和与映射关系相关联的元数据镜像到存储系统100的另一存储处理器中的高速缓冲存储器中;
路径827:高速缓冲存储器140通知映射层130写操作完成;
路径828:映射层130通知主机对象120写操作完成。
路径826是可选的,其适用于存在多个存储处理器110的情况。从以上描述可以看出,在写数据的情况下,相较于常规存储系统,根据本公开的实施例可以实现显著的更短的数据访问路径,从而缩短响应时间。另外,在常规存储系统中,在写入完成前必须建立映射关系,延缓了响应速度。
在图3所示的存储系统300中进行缓存刷新的操作如图9所示,类似地,假设不是覆盖写的情况:
路径910:高速缓冲存储器310将数据刷新到映射层130;
路径911:映射层130向CBFS 210查询映射关系;
路径912:CBFS 210创建映射关系,并将映射关系传递到映射层130;
路径913:映射层130基于根据映射关系所得的内部地址280,将目标数据传递到存储器150;
路径914:CBFS 210将映射关系传递到高速缓冲存储器320;
路径915:与映射关系相关联的元数据镜像到存储系统300的另一存储处理器中针对元数据的高速缓冲存储器中;
路径916:存储器150通知映射层130缓存刷新操作完成;
路径917:映射层130通知高速缓冲存储器310缓存刷新操作完成;
路径918:将高速缓冲存储器310中的数据的状态更新为“干净”,并将该状态镜像到存储系统300的另一存储处理器中针对用户数据的高速缓冲存储器中。
路径915和918是可选的,其适用于存在多个存储处理器330的情况。在根据本公开的实施例中,缓存刷新需要后期绑定,即创建外部地址220与内部地址280之间的关系。
相比之下,在图1所示的存储系统100中,高速缓冲存储器140可以直接将数据直接刷新到存储器150中而无需经过地址映射。但是,缓存刷新操作是背景操作,并不在I/O路径中执行,因而不影响响应速度。
通过以上描述能够看出,根据本公开的技术方案缩短了数据访问路径,加快了针对访问请求的响应速度,使得用户体验更佳。而且,根据本公开的技术方案可以有效地检测数据访问模式,从而有效地执行数据预取。这进一步缩短了响应时间。此外,根据本公开的技术方案可以针对用户数据和元数据的特性来分别应用针对高速缓冲存储器的管理算法,从而实现更有效的管理。
图10示出了可以用来实施本公开内容的实施例的示例设备1000的示意性框图。如图所示,设备1000包括中央处理单元(CPU)1010,其可以根据存储在只读存储器(ROM)1020中的计算机程序指令或者从存储单元1080加载到随机访问存储器(RAM)1030中的计算机程序指令,来执行各种适当的动作和处理。在RAM 1030中,还可以存储设备1000操作所需的各种程序和数据。CPU 1010、ROM 1020以及RAM 1030通过总线1040彼此相连。输入/输出接口1050也连接至总线1040。
设备1000中的多个部件连接至I/O接口1050,包括:输入单元1060,例如键盘、鼠标等;输出单元1070,例如各种类型的显示器、扬声器等;存储单元1080,例如磁盘、光盘等;以及通信单元1090,例如网卡、调制解调器、无线通信收发机等。通信单元1090允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法400或700,可由处理单元1010执行。例如,在一些实施例中,方法400或700可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1080。在一些实施例中,计算机程序的部分或者全部可以经由ROM1020和/或通信单元1090而被载入和/或安装到设备1000上。当计算机程序被加载到RAM1030并由CPU 1010执行时,可以执行上文描述的方法400或700的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络,例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Java、Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (14)
1.一种管理数据访问的方法,包括:
响应于接收到针对目标数据的读请求,从所述读请求中获取所述目标数据的外部地址,所述外部地址是未经映射到存储系统中的地址;
基于所述外部地址,确定所述目标数据在所述存储系统中的高速缓冲存储器中的命中信息;以及
基于所述命中信息,从所述外部地址和内部地址中确定用于提供所述目标数据的地址,所述内部地址是基于所述外部地址和映射关系而确定的。
2.根据权利要求1所述的方法,其中确定用于提供所述目标数据的地址包括:
响应于所述命中信息指示所述目标数据命中,将所述外部地址确定为用于提供所述目标数据的地址。
3.根据权利要求2所述的方法,还包括:
基于所述外部地址,从所述高速缓冲存储器提供所述读请求所针对的目标数据。
4.根据权利要求1所述的方法,其中确定用于提供所述目标数据的地址包括:
响应于所述命中信息指示所述目标数据未命中,
基于所述外部地址和所述映射关系来确定所述内部地址;以及
将所述内部地址确定为用于提供所述目标数据的地址。
5.根据权利要求4所述的方法,还包括:
基于所述内部地址,从所述存储系统的存储器中获取所述目标数据;
将所述目标数据与所述外部地址相关联地存储到所述高速缓冲存储器中;以及
基于所述外部地址,从所述高速缓冲存储器提供所述读请求所针对的目标数据。
6.一种管理数据访问的方法,包括:
响应于接收到针对目标数据的写请求,从所述写请求中获取所述目标数据和所述目标数据的外部地址,所述外部地址是未经映射到存储系统中的地址;
将所述目标数据与所述外部地址相关联地存储到所述存储系统中的高速缓冲存储器中;以及
响应于针对所述高速缓冲存储器的缓存刷新请求,
确定用于将所述外部地址映射为所述存储系统的内部地址的映射关系;
基于所述外部地址和所述映射关系,确定用于在所述存储系统的存储器中存储所述高速缓冲存储器中的数据的内部地址;以及
基于所述内部地址,将所述数据存储到所述存储系统的存储器中。
7.一种管理数据访问的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
响应于接收到针对目标数据的读请求,从所述读请求中获取所述目标数据的外部地址,所述外部地址是未经映射到存储系统中的地址;
基于所述外部地址,确定所述目标数据在所述存储系统中的高速缓冲存储器中的命中信息;以及
基于所述命中信息,从所述外部地址和内部地址中确定用于提供所述目标数据的地址,所述内部地址是基于所述外部地址和映射关系而确定的。
8.根据权利要求7所述的设备,其中确定用于提供所述目标数据的地址包括:
响应于所述命中信息指示所述目标数据命中,将所述外部地址确定为用于提供所述目标数据的地址。
9.根据权利要求8所述的设备,还包括:
基于所述外部地址,从所述高速缓冲存储器提供所述读请求所针对的目标数据。
10.根据权利要求7所述的设备,其中确定用于提供所述目标数据的地址包括:
响应于所述命中信息指示所述目标数据未命中,
基于所述外部地址和所述映射关系来确定所述内部地址;以及
将所述内部地址确定为用于提供所述目标数据的地址。
11.根据权利要求10所述的设备,还包括:
基于所述内部地址,从所述存储系统的存储器中获取所述目标数据;
将所述目标数据与所述外部地址相关联地存储到所述高速缓冲存储器中;以及
基于所述外部地址,从所述高速缓冲存储器提供所述读请求所针对的目标数据。
12.一种管理数据访问的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
响应于接收到针对目标数据的写请求,从所述写请求中获取所述目标数据和所述目标数据的外部地址,所述外部地址是未经映射到存储系统中的地址;
将所述目标数据与所述外部地址相关联地存储到所述存储系统中的高速缓冲存储器中;以及
响应于针对所述高速缓冲存储器的缓存刷新请求,
确定用于将所述外部地址映射为所述存储系统的内部地址的映射关系;
基于所述外部地址和所述映射关系,确定用于在所述存储系统的存储器中存储所述高速缓冲存储器中的数据的内部地址;以及
基于所述内部地址,将所述数据存储到所述存储系统的存储器中。
13.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1至5中的任一项所述的方法的步骤。
14.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求6所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811288676.XA CN111124951B (zh) | 2018-10-31 | 2018-10-31 | 管理数据访问的方法、设备和计算机程序产品 |
US16/579,988 US11593272B2 (en) | 2018-10-31 | 2019-09-24 | Method, apparatus and computer program product for managing data access |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811288676.XA CN111124951B (zh) | 2018-10-31 | 2018-10-31 | 管理数据访问的方法、设备和计算机程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111124951A true CN111124951A (zh) | 2020-05-08 |
CN111124951B CN111124951B (zh) | 2023-09-15 |
Family
ID=70327142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811288676.XA Active CN111124951B (zh) | 2018-10-31 | 2018-10-31 | 管理数据访问的方法、设备和计算机程序产品 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11593272B2 (zh) |
CN (1) | CN111124951B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114063879A (zh) * | 2020-07-31 | 2022-02-18 | 伊姆西Ip控股有限责任公司 | 用于处理操作命令的方法、电子设备和计算机程序产品 |
CN116028388A (zh) * | 2023-01-17 | 2023-04-28 | 摩尔线程智能科技(北京)有限责任公司 | 高速缓存方法、装置、电子设备、存储介质和程序产品 |
CN116049033A (zh) * | 2023-03-31 | 2023-05-02 | 沐曦集成电路(上海)有限公司 | 一种高速缓冲存储器Cache读写方法、系统、介质及设备 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111857547B (zh) * | 2019-04-29 | 2024-05-24 | 伊姆西Ip控股有限责任公司 | 用于管理数据存储的方法、设备和计算机可读介质 |
US11163449B2 (en) | 2019-10-17 | 2021-11-02 | EMC IP Holding Company LLC | Adaptive ingest throttling in layered storage systems |
CN111651424B (zh) * | 2020-06-10 | 2024-05-03 | 中国科学院深圳先进技术研究院 | 一种数据处理方法、装置、数据节点及存储介质 |
CN112506918B (zh) * | 2020-11-03 | 2024-06-04 | 深圳市宏电技术股份有限公司 | 数据存取方法、终端及计算机可读存储介质 |
CN114020353B (zh) * | 2021-10-28 | 2024-02-13 | 济南浪潮数据技术有限公司 | 旁路卸载方法、装置、计算机设备及存储介质 |
CN115086706B (zh) * | 2022-08-19 | 2023-01-06 | 摩尔线程智能科技(北京)有限责任公司 | 数据缓存方法及芯片 |
CN116166575B (zh) * | 2023-02-03 | 2024-01-23 | 摩尔线程智能科技(北京)有限责任公司 | 访存段长度的配置方法、装置、设备、介质和程序产品 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101149704A (zh) * | 2007-10-31 | 2008-03-26 | 中国人民解放军国防科学技术大学 | 微处理器中分段高速缓存的设计方法及分段高速缓存 |
CN101266580A (zh) * | 1997-07-24 | 2008-09-17 | 自由度半导体公司 | 访问存储器的方法以及数据处理系统 |
CN101458665A (zh) * | 2007-12-14 | 2009-06-17 | 扬智科技股份有限公司 | 二级高速缓存及动能切换存取的方法 |
CN101840374A (zh) * | 2010-04-28 | 2010-09-22 | 福建星网锐捷网络有限公司 | 处理装置、信息查找系统及信息查找方法 |
US20100325367A1 (en) * | 2009-06-19 | 2010-12-23 | International Business Machines Corporation | Write-Back Coherency Data Cache for Resolving Read/Write Conflicts |
CN102207919A (zh) * | 2010-03-30 | 2011-10-05 | 国际商业机器公司 | 加速数据传输的处理单元、芯片、计算设备和方法 |
CN104346404A (zh) * | 2013-08-08 | 2015-02-11 | 华为技术有限公司 | 一种访问数据的方法、设备及系统 |
CN107870872A (zh) * | 2016-09-23 | 2018-04-03 | 伊姆西Ip控股有限责任公司 | 用于管理高速缓存的方法和设备 |
US20180285274A1 (en) * | 2017-03-31 | 2018-10-04 | Intel Corporation | Apparatus, method and system for just-in-time cache associativity |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014186579A (ja) * | 2013-03-25 | 2014-10-02 | Sony Corp | キャッシュメモリ、キャッシュメモリ制御装置、および、そのキャッシュメモリ制御方法 |
US10157020B1 (en) | 2014-09-30 | 2018-12-18 | EMC IP Holding Company LLC | Optimizing copy processing between storage processors |
CN106547477B (zh) | 2015-09-22 | 2019-07-19 | 伊姆西公司 | 用于在线地减少缓存设备的方法和装置 |
CN109213693B (zh) | 2017-06-30 | 2023-05-05 | 伊姆西Ip控股有限责任公司 | 存储管理方法、存储系统和计算机程序产品 |
CN111124945B (zh) | 2018-10-30 | 2023-09-22 | 伊姆西Ip控股有限责任公司 | 用于提供高速缓存服务的方法、设备和计算机可读介质 |
US11269776B2 (en) | 2019-10-17 | 2022-03-08 | EMC IP Holding Company LLC | Direct input/output path to compressed data |
-
2018
- 2018-10-31 CN CN201811288676.XA patent/CN111124951B/zh active Active
-
2019
- 2019-09-24 US US16/579,988 patent/US11593272B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101266580A (zh) * | 1997-07-24 | 2008-09-17 | 自由度半导体公司 | 访问存储器的方法以及数据处理系统 |
CN101149704A (zh) * | 2007-10-31 | 2008-03-26 | 中国人民解放军国防科学技术大学 | 微处理器中分段高速缓存的设计方法及分段高速缓存 |
CN101458665A (zh) * | 2007-12-14 | 2009-06-17 | 扬智科技股份有限公司 | 二级高速缓存及动能切换存取的方法 |
US20100325367A1 (en) * | 2009-06-19 | 2010-12-23 | International Business Machines Corporation | Write-Back Coherency Data Cache for Resolving Read/Write Conflicts |
CN102207919A (zh) * | 2010-03-30 | 2011-10-05 | 国际商业机器公司 | 加速数据传输的处理单元、芯片、计算设备和方法 |
CN101840374A (zh) * | 2010-04-28 | 2010-09-22 | 福建星网锐捷网络有限公司 | 处理装置、信息查找系统及信息查找方法 |
CN104346404A (zh) * | 2013-08-08 | 2015-02-11 | 华为技术有限公司 | 一种访问数据的方法、设备及系统 |
CN107870872A (zh) * | 2016-09-23 | 2018-04-03 | 伊姆西Ip控股有限责任公司 | 用于管理高速缓存的方法和设备 |
US20180285274A1 (en) * | 2017-03-31 | 2018-10-04 | Intel Corporation | Apparatus, method and system for just-in-time cache associativity |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114063879A (zh) * | 2020-07-31 | 2022-02-18 | 伊姆西Ip控股有限责任公司 | 用于处理操作命令的方法、电子设备和计算机程序产品 |
CN114063879B (zh) * | 2020-07-31 | 2024-04-09 | 伊姆西Ip控股有限责任公司 | 用于处理操作命令的方法、电子设备和存储介质 |
CN116028388A (zh) * | 2023-01-17 | 2023-04-28 | 摩尔线程智能科技(北京)有限责任公司 | 高速缓存方法、装置、电子设备、存储介质和程序产品 |
CN116028388B (zh) * | 2023-01-17 | 2023-12-12 | 摩尔线程智能科技(北京)有限责任公司 | 高速缓存方法、装置、电子设备、存储介质和程序产品 |
CN116049033A (zh) * | 2023-03-31 | 2023-05-02 | 沐曦集成电路(上海)有限公司 | 一种高速缓冲存储器Cache读写方法、系统、介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111124951B (zh) | 2023-09-15 |
US11593272B2 (en) | 2023-02-28 |
US20200133875A1 (en) | 2020-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111124951B (zh) | 管理数据访问的方法、设备和计算机程序产品 | |
CN110413199B (zh) | 用于管理存储系统的方法、设备和计算机可读存储介质 | |
CN110597451B (zh) | 一种虚拟化缓存的实现方法及物理机 | |
US8782335B2 (en) | Latency reduction associated with a response to a request in a storage system | |
US9971692B2 (en) | Supporting concurrent operations at fine granularity in a caching framework | |
JP7539202B2 (ja) | コンピューティング環境におけるアクセラレータとストレージとの間のダイレクト・データ・アクセス | |
CN108733316B (zh) | 用于管理存储系统的方法和管理器 | |
CN109213696B (zh) | 用于缓存管理的方法和设备 | |
US9916249B2 (en) | Space allocation in a multi-grained writeback cache | |
US20170031825A1 (en) | Direct Host-To-Host Transfer for Local Caches in Virtualized Systems | |
US10095595B2 (en) | Instant recovery in a multi-grained caching framework | |
US11074189B2 (en) | FlatFlash system for byte granularity accessibility of memory in a unified memory-storage hierarchy | |
JP6106028B2 (ja) | サーバ及びキャッシュ制御方法 | |
US10628311B2 (en) | Reducing defragmentation in a multi-grained writeback cache | |
US8656119B2 (en) | Storage system, control program and storage system control method | |
CN112764668B (zh) | 扩展gpu存储器的方法、电子设备和计算机程序产品 | |
US11068397B2 (en) | Accelerator sharing | |
US11048422B2 (en) | Method, device, and computer readable storage medium for allocating access rights to data among storage processors | |
US9817757B2 (en) | Scalable metadata management in a multi-grained caching framework | |
WO2016080953A1 (en) | Method and apparatus for data cache in converged system | |
US20230057633A1 (en) | Systems, methods, and apparatus for transferring data between interconnected devices | |
CN110737397B (zh) | 用于管理存储系统的方法、设备和计算机程序产品 | |
US10613774B2 (en) | Partitioned memory with locally aggregated copy pools | |
US8700861B1 (en) | Managing a dynamic list of entries for cache page cleaning | |
WO2017113329A1 (zh) | 一种主机集群中缓存管理方法及主机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |