CN113253933B - 用于管理存储系统的方法、设备和计算机可读存储介质 - Google Patents

用于管理存储系统的方法、设备和计算机可读存储介质 Download PDF

Info

Publication number
CN113253933B
CN113253933B CN202110590853.5A CN202110590853A CN113253933B CN 113253933 B CN113253933 B CN 113253933B CN 202110590853 A CN202110590853 A CN 202110590853A CN 113253933 B CN113253933 B CN 113253933B
Authority
CN
China
Prior art keywords
data layer
concurrency
access request
top data
pcn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110590853.5A
Other languages
English (en)
Other versions
CN113253933A (zh
Inventor
徐鑫磊
贾瑞勇
李雄成
杨利锋
高健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN202110590853.5A priority Critical patent/CN113253933B/zh
Publication of CN113253933A publication Critical patent/CN113253933A/zh
Application granted granted Critical
Publication of CN113253933B publication Critical patent/CN113253933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • G06F12/0817Cache consistency protocols using directory methods
    • G06F12/0828Cache consistency protocols using directory methods with concurrent directory accessing, i.e. handling multiple concurrent coherency transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0811Multiuser, multiprocessor or multiprocessing cache systems with multilevel cache hierarchies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0844Multiple simultaneous or quasi-simultaneous cache accessing
    • G06F12/0846Cache with multiple tag or data arrays being simultaneously accessible
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0893Caches characterised by their organisation or structure
    • G06F12/0897Caches characterised by their organisation or structure with two or more cache hierarchy levels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0634Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本公开的实施例涉及用于管理存储系统的方法、设备和计算机可读存储介质。该方法包括:确定用于存储系统的多级缓存设备各自的对存储系统中的多个存储设备的访问的允许并发数,允许并发数与多个存储设备的状态相关联;响应于接收针对存储系统的访问请求,确定访问请求所对应的多级缓存设备中的一个缓存设备;判断缓存设备中对多个存储设备访问的当前并发数是否达到允许并发数;以及响应于当前并发数未达到允许并发数,执行针对存储系统的访问请求。

Description

用于管理存储系统的方法、设备和计算机可读存储介质
本申请是申请日为2017年4月17日、申请号为201710250200.6、发明名称为“用于管理存储系统的方法、设备和计算机可读存储介质”的发明专利申请的分案申请。
技术领域
本公开的实施例涉及存储管理领域,并且更具体地,涉及用于管理存储系统的方法、设备和计算机可读存储介质。
背景技术
随着数据存储技术的发展,各种数据存储设备已经能够向用户提供越来越高的数据存储能力,并且数据访问速度也有了很大程度的提高。在提高数据存储能力的同时,用户对于数据可靠性和存储系统的响应时间也提出了越来越高的需求。
目前,已经开发出了基于具有不同访问速度的多级存储介质来建立存储系统的技术方案。例如,可以将被频繁使用的数据从具有较低访问速度的存储设备加载至具有较高访问速度的缓存设备中,进而由该缓存设备来响应于来自存储系统外部的访问请求。此技术方案可以一定程度上提高数据响应效率。然而,当存储设备出现故障的情况下,缓存设备无法知道存储设备的响应情况,仍然发出大量内部访问请求,导致存储设备无法在有效时间内响应用户的访问请求。因而,如何动态地根据存储设备的运行状态控制内部访问请求成为一个关注焦点。
发明内容
本公开的实施例提供一种用于管理存储系统的方案。
根据本公开的第一方面,提出了一种用于管理存储系统的方法。该方法包括:确定用于存储系统的多级缓存设备各自的对存储系统中的多个存储设备的访问的允许并发数,允许并发数与多个存储设备的状态相关联;响应于接收针对存储系统的访问请求,确定访问请求所对应的多级缓存设备中的一个缓存设备;判断缓存设备中对多个存储设备访问的当前并发数是否达到允许并发数;以及响应于当前并发数未达到允许并发数,执行针对存储系统的访问请求。
根据本公开的第二方面,提出了一种用于管理存储系统的设备。该设备包括:至少一个处理单元;至少一个存储器,至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令,该指令当由至少一个处理单元执行时,使得所述设备执行动作,该动作包括:确定用于存储系统的多级缓存设备各自的对存储系统中的多个存储设备的访问的允许并发数,允许并发数与多个存储设备的状态相关联;响应于接收针对存储系统的访问请求,确定访问请求所对应的多级缓存设备中的一个缓存设备;判断缓存设备中的当前并发数是否达到允许并发数;以及响应于当前并发数未达到允许并发数,执行针对存储系统的访问请求。
在本公开的第三方面,提供了一种计算机可读存储介质。该计算机可读存储介质具有存储在其上的计算机可读程序指令,计算机可读程序指令在被处理单元执行时使得该处理单元实现根据本公开的第一方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了根据本公开的实施例的存储系统的架构图;
图2示出了根据本公开的实施例的用于管理存储系统的方法的流程图;
图3示出了根据本公开的实施例的存储控制器的架构图;
图4示出了根据本公开的实施例的用于处理用户对存储系统的访问请求的方法的流程图;
图5示出了本公开的实施例的多存储处理器存储系统的框图;
图6示出了根据本公开的实施例的用于处理存储器连接故障的方法的流程图;
图7图示了根据本公开的实施例的用于数据同步的装置的框图;
图8示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上文所描述的,在传统的多级缓存存储系统中,多级缓存无法根据存储设备的响应来调整多级缓存设备的内部访问请求。当存储设备由于负载较大而出现响应较慢或甚至底层设备出现故障时,多级缓存设备仍然发出许多内部访问请求,造成对存储设备的带宽的恶意竞争,这会导致存储系统无法有效地响应用户对存储系统的访问请求。同时,缓存设备检测到访问请求无法被及时响应时,可能会被启动对用户访问请求的节流,从而造成系统吞吐量降低,导致用户许多访问请求不能完成并发生很多错误的情形。
此外,在多存储控制器的多级缓存存储系统中,
为了至少部分地解决上述问题以及其他潜在问题,本公开的实施例提供了一种用于管理存储系统的方案。在该方案中,在多级缓存设备中设置并发数控制机制,在执行用户访问请求或后台服务请求前都需要判断缓存设备中的当前并发数是否已经达到允许并发数,从而实现对执行访问请求的动态控制。因此,在存储设备响应较慢的情况下,可以通过控制允许并发数的方式来减少多级缓存设备中的后台服务请求。
设置这样的并发数控制机制的存储系统可以解决存储系统响应慢的问题,因为系统可以通过控制并发数来减少甚至禁止多级缓存设备中的后台服务请求,此时系统仅需要响应用户所发起的对存储系统的访问请求。
此外,设置这样的并发数控制机制的存储系统还可以有效地解决多存储处理器中存在有至少一个存储处理器与存储设备连接错误导致存储系统性能严重下降的问题。在多个存储处理器中的多级缓存中设置并发数控制机制,可以使得系统在检测在存在与底层服务器的连接错误时,动态地调整各个缓存中的允许并发数,从而减少各个存储处理器中的后台服务请求,降低多个存储处理器中的后台服务请求不会构成与用户发起的访问请求对访问带宽的竞争,提高了存储系统的响应速度。
图1示出了根据本公开的实施例的存储系统100的架构图。应当理解,如图1所示的存储系统100的结构和功能仅用于示例的目的,而不暗示对于本公开的范围的任何限制。本公开的实施例可以被体现在不同的结构和/或功能中。
如图1所示,存储系统100可以包括两个存储处理器(SP,也被称为“存储节点”),即SP 110和SP 120。SP 110和SP 120可以分别具有一个或多个模块。在一些实施例中,SP 110中可以包括多级缓存设备。例如,如图1所示,SP 110中可以包括两级缓存设备,即动态随机访问存储器(Dynamic Random Access Memory,DRAM)缓存112以及固态盘(SSD)缓存114。此外,SP 110可以经由连接140与存储设备130相耦合,并且在合适的时间将临时存储在缓存中的数据写入到存储设备130中。存储设备130可以是任何目前已知或者将来开发的非易失性存储介质,例如磁盘、固态盘(SSD)或磁盘阵列等等。SP 120可以具有与SP 110相同的结构。例如,SP 120可以具有包括多级缓存的一个或多个模块,并且经由连接142与存储设备130相耦合。
在存储系统100中,SP 110和SP 120可以通过连接150被互连。在一些实施例中,连接150可以是PCIe。当SP 110和SP 120经由PCIe被互连时,在SP 110与存储设备130的连接140出现故障时,SP 110中的访问请求可以经由PCIe转发至SP 120,并通过SP 120实现对存储设备130的访问。
图2示出了根据本公开的实施例的用于管理存储系统的方法200的流程图。以下结合如图1所示的存储系统100来描述方法200中所涉及的动作。应当理解,方法200中描述的动作可以由SP 110或SP 120执行。为了方便讨论,在以下的描述中,由SP 110执行以下动作。
在框202中,SP 110接收针对存储系统的访问请求。在一些实施例中,SP 110可以接收用户发起的IO请求,例如用户发起的对特定文件的读取请求。在一些实施例中该读取请求可能在DRAM缓存112中直接命中。在一些实施例中,该读取请求在SSD缓存114中命中。在一些实施例中,需要利用存储设备130服务该读取请求。
在一些实施例中,SP 110可以接收DRAM缓存112的后台服务请求。例如,后台服务请求可以包括将存储设备130中的数据读取到DRAM缓存112中。例如,后台服务请求还可以包括将DRAM缓存112中的脏页冲刷到存储设备130。
在一些实施例中,SP 110可以接收SSD缓存114的后台服务请求。例如,后台服务请求可以包括将存储设备130中的数据读取到SSD缓存114中。例如,后台服务请求可以包括将SSD缓存114中的脏页冲刷到存储设备130。
在框204中,SP 110确定访问请求所针对的缓存设备。在一些实施例中,当该请求可以用户发起的读取请求或写入请求,SP 110确定该访问请求针对的是DRAM缓存112。在一些实施例中,当该请求为DRAM缓存112的后台服务请求,SP 110确定该访问请求针对的是DRAM缓存112。在一些实施例中,当该请求为SSD缓存114的后台服务请求,SP 110确定该访问请求针对的是SSD缓存114。
在框206中,SP 110判断访问求所针对的缓存设备中是否达到允许并发数。
图3示出了根据本公开的实施例的存储控制器300的架构图,SP300可以被视作是SP 110和SP 120的一种具体实现。应当理解,如图3所示的SP 300的结构和功能仅用于示例的目的,而不暗示对于本公开的范围的任何限制。本公开的实施例可以被体现在不同的结构和/或功能中。下面将结合图3来描述判断访问求所针对的缓存设备中是否达到允许并发数涉及的具体动作。
在一些实施例中,如图3所示,存储控制器300可以包括DRAM缓存310、SSD缓存320以及RAID组管理器330。
DRAM缓存310中可以包括一个或多个模块。例如,如图3所示,DRAM缓存310可以包括允许并发数管理器模块312,其用于接收存储设备发送的允许并发数信息,并用于计算SSD缓存320中的允许并发数并发送到SSD缓存320,同时用于执行判断DRAM缓存310中的当前并发数是否达到允许并发数。DRAM缓存310中还可以包括后台服务模块314,其用于发起并执行诸如加载内存、冲刷脏页等后台服务请求。
SSD缓存320中可以包括一个或多个模块。例如,如图3所示,SSD缓存设备320中包括允许并发数客户端模块322,其用于接收来自允许并发数管理器模块312的SSD缓存设备320的允许并发数,同时用于执行判断SSD缓存320中的当前并发数是否达到允许并发数。SSD缓存320中还可以包括后台服务模块324,其用于发起并执行诸如加载内存、冲刷脏页等后台服务请求。
RAID组管理器330用于管理SP 300到存储设备的连接,并将存储设备的空间生成一个或多个RAID组以供上层应用使用。例如,如图3所示,RAID组管理器330中包括一个或多个HDD RAID组。在一些实施例中,RAID组管理器330中还可以包括一个或多个SDD RAID组。此外,RAID组管理器330还可以用于监测SP 300与存储设备的连接状态以及监测存储设备中是否出现故障等。
在一些实施例中,当RAID组管理器330创建一个RAID组时,RAID组的允许并发数将被报告到位于DRAM缓存310中的允许并发数管理器312,其中RAID组的允许并发数按照以下公式计算:
C=n*dt*rt*S (1)
其中C表示该RAID组的允许并发数,n表示该RAID组中驱动器的数目,dt表示单个驱动器所具有的允许并发数,rt表示RAID组的类型,S为当前RAID组的状态所对应的常量。
在一些实施例中,对于一个类型为RAID 5的RAID组,该RAID组中包括5个SAS HDD驱动器,其中包括一个冗余驱动器,则rt=(5-1)/5=0.8,每块SAS HDD驱动器的允许并发数为10,即dt为10,同时当前RAID组状态为正常,即S为1,则该RAID组的允许并发数为:C=5*10*0.8*1=40。
在一些实施例中,对于一个类型为RAID 6的RAID组,该RAID组中包括6个SASFLASH驱动器,其中包括两个冗余驱动器,则rt为(6-2)/6,每块FLASH HDD驱动器的允许并发数为50,即dt为50,同时当前RAID组状态为正常,即S为1,则该RAID组的允许并发数C=6*50*2/3*1=200。
在一些实施例中,当RAID组控制器330检测到RAID组的状态发生变化时,RAID组将更新其允许并发数并将该允许并发数报告到允许并发数管理器。例如,对于一个类型为RAID 5的RAID组,当系统监测到该RAID组中一个驱动器出于离线状态时,则该RAID组将进入降级状态,此时S可设为0.4,从而该RAID组的允许并发数为C=5*10*0.8*0.4=16。
在一些实施例中,允许并发数管理器312接收RAID组控制器330发送的RAID组的允许并发数以及响应于状态改变而更新的允许并发数,并根据以下公式计算用于SSD缓存320中的允许并发数:
Cf=C*od*rd*P (2)
其中Cf表示SSD缓存的允许并发数,C为表示RAID组的允许并发数,od表示该RAID组的当前可用并发数比例,rd表示该RAID组的平均响应时间所对应的参数,P表示SSD缓存占比常数。其中od与rd为DRAM允许并发数管理器312根据DRAM缓存310当前执行状态获得。
在一些实施例中,对于允许并发数为200的RAID组,当前可用并发数为180,即od为180/200=0.9,平均响应时间为5ms,则rd可设为1,P设定为20%,则SSD缓存的允许并发数Cf=200*0.9*1*0.2=36。
在一些实施例中,当RAID组并发数量增加且响应时间增加时,则SSD缓存320的允许并发数将减小。例如,RAID组允许并发数为200,当前可用并发数为50,即od为50/200=0.4,平均响应时间为500ms,则rd可设为0.2,P为20%,则此时SSD缓存的允许并发数Cf=200*0.4*0.2*0.2=2。
在一些实施例中,允许并发数管理器312定期地检测当前可用并发数以及平均响应时间,从而动态地调整SSD缓存320的允许并发数。例如,允许并发数管理器312可以每5秒或每2秒进行一次检测。
相应地,DRAM缓存310中的允许并发数为RAID组的允许并发数减去SSD缓存320中的允许并发数。
DRAM缓存310和SSD缓存320都已经获得其各自的允许并发数后,其将根据各自缓存中的当前并发数与其各自允许的并发数进行比较以判断当前并发数是否已经达到允许并发数。例如,DRAM缓存310和SSD缓存320的当前并发数和允许并发数可以被存储到位于各自的数据结构中。
在框208中,SP 110响应于当前并发数未达到允许并发数,执行访问请求。
在一些实施例中,对于DRAM缓存310中未直接命中的访问请求,可以通过允许并发数管理器312判断DRAM缓存310中的当前并发数是否达到DRAM缓存允许并发数,只有当其未达到DRAM缓存允许并发数时,该访问请求才能被执行。
在一些实施例中,对于DRAM缓存310中后台服务模块314发起的后台服务请求,可以通过允许并发数管理器312判断DRAM缓存310中的当前并发数是否达到DRAM缓存允许并发数,只有当其未达到允许并发数时,后台服务模块314才能被允许执行该后台服务请求。
在一些实施例中,对于SSD缓存320中后台服务模块324发起的后台服务请求,可以通过允许并发数客户端322判断SSD缓存320中的当前并发数是否达到SSD缓存320中允许并发数,只有当其未达到允许并发数时,后台服务模块324才能被允许执行该后台服务请求。
通过以上描述可以看出,本发明的实施例能够在对RAID当前并发数较多,即多数访问请求并未完成的情况下,动态地减少SSD缓存可用于后台服务的允许并发数,从而减少DRAM后台服务以及SSD后台服务对于存储设备的访问压力,优先执行用户发起的对存储设备的访问请求,从而提高存储设备的响应性能。
图4示出了根据本公开的实施例的用于处理用户对存储系统的访问请求的方法400的流程图。为了方便说明,以下将结合图3中描述的SP 300对该流程进行描述。
如图4所示,在框402中,SP 300接收用户对存储系统的访问请求。该请求可以是读取请求或写入请求。在框404中,DRAM缓存310可以判断DRAM缓存310是否命中该访问请求。如果DRAM缓存310直接命中该访问请求,则可以按照常规的方式进行处理,即利用DRAM缓存服务该访问请求。如果DRAM缓存310未命中该访问请求,则操作前进至框408,获取DRAM缓存310中的当前并发数;否则,则操作前进至框406。
在框408中,可以通过允许并发数管理器312获取DRAM缓存310中的当前并发数,接着操作前进到框410。在框410中,可以根据DRAM缓存310中的当前并发数以及由允许并发数管理器312所计算的DRAM缓存310允许并发数,判断当前并发数是否已经达到了DRAM缓存310的允许并发数。如果当前并发数已经达到允许并发数,则可以挂起该访问请求412,并等待一段时间后回到框408,重新获取DRAM缓存310中的当前并发数,直到DRAM缓存310中的当前并发数小于允许并发数;否则操作前进到框414。
在框414中,访问请求被发送到SSD缓存320中,同时向允许并发数管理器312通知DRAM缓存310的当前并发数加1。在框416中,可以判断SSD缓存320是否命中该访问请求。如果SSD缓存320命中该访问请求,则操作进行到框418,利用SSD缓存320服务该访问请求,同时向允许并发数管理器312通知DRAM缓存310允许并发数减1;否则操作进行到框420。
在框420中,访问请求可以通过RAID组管理器330被发送到RAID组。接着在框422中,利用RAID组服务该访问请求,并在完成该访问请求后在框424中向允许并发数管理器312通知DRAM缓存310允许并发数减1。
以上描述了单个存储处理器中基于存储设备的执行状态动态地调整各级缓存中访问请求执行的过程。以下将结合图5和图6具体描述在多存储处理器场景中如何利用本公开的技术方案提升存储系统性能。
图5示出了本公开的实施例的多存储处理器存储系统500的框图。
系统500可以多个存储控制器。例如,如图5所示,其可以包括SP 510以及SP 530。SP 510和SP 530可以分别具有一个或多个模块。在一些实施例中,SP 510中可以包括多级缓存设备。例如,如图5所示,SP 510中可以包括两级缓存设备,即DRAM缓存512以及SSD缓存518。DRAM缓存512中可以包括一个或多个模块。例如,如图5所示,DRAM缓存512中包括允许并发数管理器模块514以及后台服务模块516。SSD缓存518中可以包括一个或多个模块。例如,如图5所示,SSD缓存518中包括允许并发数客户端模块520以及后台服务模块524。此外,SP 510中还可以包括用于监测SP 510与存储设备550的连接状态以及监测存储设备中是否出现故障的RAID组管理器526。
此外,SP 510可以经由连接560与存储设备550相耦合,并且在合适的时间将临时存储在缓存中的数据写入到存储设备550中。存储设备550可以是任何目前已知或者将来开发的非易失性存储介质,例如磁盘、固态盘(SSD)或磁盘阵列等等。SP 530可以具有与SP510相同的结构。例如,SP 530可以具有包括多级缓存的一个或多个模块,并且经由连接562与存储设备550相耦合。
在存储系统500中,SP 510和SP 530可以通过连接570被互连。在一些实施例中,连接570可以是PCIe。当SP 510和SP 530经由PCIe被互连时,在SP 510与存储设备550的连接560出现故障时,SP 510中的访问请求可以经由PCIe转发至SP 530,并通过SP 530实现对存储设备540的访问。
以下将结合图6描述当SP 510与存储设备550的连接560出现故障时,系统对于访问请求的处理流程。图6示出了根据本公开的实施例的用于处理存储器连接故障的方法600的流程图。
在框602中,第一RAID组管理器526确定SP 510到存储设备550的至少一个盘的连接560出现故障。在一些实施例中,第一RAID组管理器526通过检测RAID组中的一个或多个盘处于离线(offline)来判断SP 510到存储设备550的至少一个盘的连接560出现故障。
在框604中,第一允许并发数管理器514响应于SP 510到存储设备550的至少一个盘的连接560出现故障,第一允许并发数管理器514将SP 510中的第一DRAM缓存512中允许并发数置为零。在一些实施例中,第一RAID组管理器526检测到SP 510到存储设备550的至少一个盘的连接560出现故障时,向允许并发数管理器514发出故障通知,响应于该通知,第一允许并发数管理器514将第一DRAM缓存512中的允许并发数设置为0,这样将不再响应未直接命中第一DRAM缓存512的访问请求,并停止响应第一DRAM缓存512中第一后台服务模块516发起的DRAM缓存512的后台服务请求,从而减轻了对存储设备的访问压力。
在框606中,SP 510将第一SSD缓存518的允许并发数设置为0。在一些实施例中,SP510经由第一允许并发数管理器514向第一并发数客户端520发出第SSD缓存518的允许并发数被设置为0的通知,响应于该通知,第一允许并发数管理器514停止响应后台服务模块524发出的SSD缓存518的后台服务请求,进一步减轻了对存储设备的访问压力。
在框608中,SP 510将针对其的访问请求经由与SP 530的连接570转发至SP 530。在一些实施例中,连接570为PCIe,SP 510将第一DRAM缓存512中未直接命中的访问请求经由PCIe转发至SP 530的第二DRAM缓存532,以继续对用户访问请求的响应。
在框610中,SP 530响应于SP 510到存储设备550的连接560故障将SP 530中的第二SSD缓存538的允许并发数设置为0。在一些实施例中,第一RAID组管理器526将监测到连接560出现故障时,经由通过SP 510与SP 530的连接570将故障通知第二RAID组管理器546,第二RAID组管理器546向第二允许并发数管理器534通知该故障,第二允许并发数管理器534响应于这一通知,向第二并发数客户端540通知第二SSD缓存538的允许并发数被置为零,响应于该通知,第二并发数客户端540停止响应后台服务模块542发出的SSD缓存538的后台服务请求。
通过以上描述可以看出,在多存储处理器存储系统中的一个或多个存储处理器与存储设备的连接发生故障的情况下,通过并发数机制使得所有SSD缓存中的后台服务请求不再被响应,发生故障的存储处理器中的DRAM缓存的后台服务请求不再被响应,发生故障的存储处理器不再响应DRAM缓存中未直接命中的访问请求,从而避免了对有限访问带宽的竞争,使得存储设备能够优先服务于用户发起的访问请求,从而避免存储器访问过载导致的访问响应时间超时。
图7图示了根据本公开的实施例的用于数据同步的装置700的框图。例如,如图1所示的SP 110-120以及如图5所示的SP 510、SP 530中的任一项可以由装置700来实施。如图7所示,装置700可以包括第一确定模块710,被配置为确定用于存储系统的多级缓存设备各自的对存储系统中的多个存储设备的访问的允许并发数,该允许并发数与多个存储设备的状态相关联。装置700还可以包括第二确定模块720,被配置为响应于接收针对存储系统的访问请求,确定访问请求所对应的多级缓存设备中的一个缓存设备。装置700还可以包括判断模块730,被配置为判断缓存设备中对多个存储设备访问的当前并发数是否达到允许并发数。此外,装置700还可以包括执行模块740,被配置为响应于当前并发数未达到允许并发数,执行针对存储系统的访问请求。
出于清楚的目的,在图7中没有示出装置700的某些可选模块。然而,应当理解,上文参考图1-6所描述的各个特征同样适用于装置700。而且,装置700的各个模块可以是硬件模块,也可以是软件模块。例如,在某些实施例中,装置700可以部分或者全部利用软件和/或固件来实现,例如被实现为包含在计算机可读介质上的计算机程序产品。备选地或附加地,装置700可以部分或者全部基于硬件来实现,例如被实现为集成电路(IC)、专用集成电路(ASIC)、片上系统(SOC)、现场可编程门阵列(FPGA)等。本公开的范围在此方面不受限制。
图8示出了可以用来实施本公开内容的实施例的示例设备800的示意性框图。例如,如图1所示的SP 110-120以及如图5所示的SP 510、SP530中的任一项可以由设备800来实施。如图所示,设备800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的计算机程序指令或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序指令,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。CPU801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200和/或方法400,可由处理单元801执行。例如,在一些实施例中,方法200和/或方法400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序被加载到RAM 803并由CPU 801执行时,可以执行上文描述的方法200和/或方法400的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施方式,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施方式。在不偏离所说明的各实施方式的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施方式的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文披露的各实施方式。

Claims (11)

1.一种由计算设备执行的方法,所述方法包括:
接收多个访问请求以访问多层存储系统的数据;
响应于确定所述多个访问请求中的第一访问请求能够从所述多层存储系统的顶部数据层被服务,通过访问顶部数据层来执行第一访问请求;
响应于确定所述多个访问请求中的第二访问请求不能够从所述顶部数据层被服务,确定所述顶部数据层的当前并发数是否小于所述顶部数据层的允许并发数PCN;以及
响应于确定所述顶部数据层的所述当前并发数不小于所述顶部数据层的所述PCN,等待至所述顶部数据层的所述当前并发数小于所述顶部数据层的所述PCN,并随后通过访问所述多层存储系统的在所述顶部数据层下的其他数据层来执行所述第二访问请求。
2.根据权利要求1所述的方法,其中所述顶部数据层是易失性存储器缓存且所述其他数据层是存储磁盘阵列。
3.根据权利要求1所述的方法,其中所述顶部数据层是最高级别易失性存储缓存,并且所述其他数据层是在更低级别的存储磁盘阵列之上的、较低级别的固态硬盘缓存。
4.根据权利要求3所述的方法,其中通过访问所述其他数据层来执行所述第二访问请求包括:响应于确定所述多个访问请求中的所述第二访问请求能够从所述较低级别的固态硬盘缓存被服务,通过访问所述较低级别的固态硬盘缓存来执行所述第二访问请求。
5.根据权利要求3所述的方法,其中通过访问所述其他数据层来执行所述第二访问请求包括:响应于确定所述多个访问请求中的所述第二访问请求不能够从所述较低级别的固态硬盘缓存被服务,通过访问所述存储磁盘阵列来执行所述第二访问请求。
6.根据权利要求3所述的方法,其中通过访问所述其他数据层来执行所述第二访问请求包括:
响应于所述多个访问请求中的所述第二访问请求不能够从所述较低级别的固态硬盘缓存被服务,通过访问所述较低级别的固态硬盘缓存来执行所述第二访问请求,确定所述较低级别的固态硬盘缓存的当前并发数是否小于所述较低级别的固态硬盘缓存的PCN;以及
响应于确定所述较低级别的固态硬盘缓存的所述当前并发数不小于所述较低级别的固态硬盘缓存的所述PCN,等待至所述较低级别的固态硬盘缓存的所述当前并发数小于所述较低级别的固态硬盘缓存的所述PCN,并通过访问所述存储磁盘阵列来执行所述第二访问请求。
7.根据权利要求6所述的方法,其中所述方法进一步包括:
将所述存储磁盘阵列的PCN设置为等于以下项的乘积:
所述阵列中存储磁盘的数目;
所述存储磁盘用于存储数据而非奇偶信息的分数;
存储磁盘允许的并发访问请求的数目;和
所述阵列的健康值;
将所述较低级别的固态硬盘缓存的所述PCN设置为等于所述阵列的所述PCN的分数;以及
将所述顶部数据层的所述PCN设置为等于所述阵列的所述PCN减去所述较低级别的固态硬盘缓存的所述PCN。
8.根据权利要求6所述的方法,其中所述方法进一步包括:
将所述存储磁盘阵列的PCN设置为以下项的乘积:
所述阵列中存储磁盘的数目;
所述存储磁盘用于存储数据而非奇偶信息的分数;
存储磁盘允许的并发访问请求的数目;和
所述阵列的健康值;以及
将所述顶部数据层的所述PCN设置为等于所述阵列的所述PCN的分数。
9.根据权利要求1所述的方法,其中通过访问所述多层存储系统的在所述顶部数据层下的其他数据层来执行所述第二访问请求包括:
当开始访问所述其他数据层时,增加所述顶部数据层的所述当前并发数;以及
当完成访问所述其他数据层时,减少所述顶部数据层的所述当前并发数。
10.一种电子设备,包括被耦合到存储器的处理电路,所述电子设备被配置为:
接收多个访问请求以访问多层存储系统的数据;
响应于确定所述多个访问请求中的第一访问请求能够从所述多层存储系统的顶部数据层被服务,通过访问顶部数据层来执行第一访问请求;
响应于确定所述多个访问请求中的第二访问请求不能够从所述顶部数据层被服务,确定所述顶部数据层的当前并发数是否小于所述顶部数据层的允许并发数PCN;以及
响应于确定所述顶部数据层的所述当前并发数不小于所述顶部数据层的所述PCN,等待至所述顶部数据层的所述当前并发数小于所述顶部数据层的所述PCN,并随后通过访问所述多层存储系统的在所述顶部数据层下的其他数据层来执行所述第二访问请求。
11.一种计算机程序产品,包括其上具有计算机可读程序指令的非暂态计算机可读存储介质,所述计算机程序产品当被处理电路执行时使所述处理电路:
接收多个访问请求以访问多层存储系统的数据;
响应于确定所述多个访问请求中的第一访问请求能够从所述多层存储系统的顶部数据层被服务,通过访问顶部数据层来执行第一访问请求;
响应于确定所述多个访问请求中的第二访问请求不能够从所述顶部数据层被服务,确定所述顶部数据层的当前并发数是否小于所述顶部数据层的允许并发数PCN;以及
响应于确定所述顶部数据层的所述当前并发数不小于所述顶部数据层的所述PCN,等待至所述顶部数据层的所述当前并发数小于所述顶部数据层的所述PCN,并随后通过访问所述多层存储系统的在所述顶部数据层下的其他数据层来执行所述第二访问请求。
CN202110590853.5A 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质 Active CN113253933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110590853.5A CN113253933B (zh) 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710250200.6A CN108733310B (zh) 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质
CN202110590853.5A CN113253933B (zh) 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201710250200.6A Division CN108733310B (zh) 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN113253933A CN113253933A (zh) 2021-08-13
CN113253933B true CN113253933B (zh) 2024-02-09

Family

ID=63790067

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201710250200.6A Active CN108733310B (zh) 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质
CN202110590853.5A Active CN113253933B (zh) 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201710250200.6A Active CN108733310B (zh) 2017-04-17 2017-04-17 用于管理存储系统的方法、设备和计算机可读存储介质

Country Status (2)

Country Link
US (2) US10503644B2 (zh)
CN (2) CN108733310B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110413197B (zh) 2018-04-28 2023-06-27 伊姆西Ip控股有限责任公司 管理存储系统的方法、设备和计算机程序产品
CN110515536B (zh) * 2018-05-22 2020-10-27 杭州海康威视数字技术股份有限公司 数据存储系统
CN111104054B (zh) * 2018-10-29 2023-10-27 伊姆西Ip控股有限责任公司 管理输入/输出操作的方法、装置和计算机程序产品
CN110795339A (zh) * 2019-09-29 2020-02-14 苏州浪潮智能科技有限公司 一种服务器的配置程序代码的测试方法、装置及介质
CN112052264B (zh) * 2020-08-05 2021-08-10 北京五八信息技术有限公司 业务数据查询方法、装置、电子设备及可读存储介质
CN116097682A (zh) * 2020-09-29 2023-05-09 华为技术有限公司 一种响应用户访问请求的方法、装置和存储设备
CN112540933A (zh) * 2020-11-26 2021-03-23 华云数据控股集团有限公司 缓存读写方法、装置及电子设备
CN118282949B (zh) * 2024-06-04 2024-08-27 浙江恒业电子股份有限公司 一种抄读并发数选定方法及系统、电子设备、存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002196960A (ja) * 2000-12-25 2002-07-12 Hitachi Ltd ファイル入出力制御方法、ファイル管理サーバ及び並列計算機システム
US7047322B1 (en) * 2003-09-30 2006-05-16 Unisys Corporation System and method for performing conflict resolution and flow control in a multiprocessor system
US8943181B2 (en) * 2005-11-29 2015-01-27 Ebay Inc. Method and system for reducing connections to a database
US7500050B2 (en) * 2006-03-20 2009-03-03 International Business Machines Corporation Wise ordering for writes—combining spatial and temporal locality in write caches for multi-rank storage
US7844776B2 (en) * 2007-02-21 2010-11-30 Inventec Corporation RAID capacity expansion handling method and system with concurrent data access capability
US8825789B2 (en) * 2008-12-16 2014-09-02 Netapp, Inc. Method and apparatus to implement a hierarchical cache system with pNFS
KR101627321B1 (ko) * 2009-01-13 2016-06-03 삼성전자주식회사 I/o 리퀘스트 핸들링 방법 및 이를 이용한 솔리드 스테이트 드라이브
US20100199036A1 (en) * 2009-02-02 2010-08-05 Atrato, Inc. Systems and methods for block-level management of tiered storage
US8863204B2 (en) * 2010-12-20 2014-10-14 Comcast Cable Communications, Llc Cache management in a video content distribution network
CN102117248A (zh) * 2011-03-09 2011-07-06 浪潮(北京)电子信息产业有限公司 一种缓存系统和在缓存系统中缓存数据的方法
US9355008B2 (en) * 2011-06-16 2016-05-31 Hewlett Packard Enterprise Development Lp Performance analyzer for self-tuning system controller
CN103634374B (zh) * 2013-11-07 2017-04-12 华为技术有限公司 一种并发访问请求的处理方法及装置
CN103617024B (zh) * 2013-11-07 2016-01-13 华为技术有限公司 一种并发数据处理方法、装置和系统
US9274901B2 (en) * 2013-11-20 2016-03-01 Avago Technologies General Ip (Singapore) Pte. Ltd. I/O request mirroring in a clustered storage system
US9411539B2 (en) * 2014-09-24 2016-08-09 International Business Machines Corporation Providing access information to a storage controller to determine a storage tier for storing data
CN104408088B (zh) * 2014-11-11 2020-06-19 奇安信科技集团股份有限公司 并发请求的控制方法及装置
CN106339329B (zh) * 2015-12-04 2019-09-13 深圳开阳电子股份有限公司 控制多请求源访问存储器的方法、控制器和视频处理装置

Also Published As

Publication number Publication date
US20200081839A1 (en) 2020-03-12
CN113253933A (zh) 2021-08-13
CN108733310B (zh) 2021-05-28
CN108733310A (zh) 2018-11-02
US10503644B2 (en) 2019-12-10
US11099992B2 (en) 2021-08-24
US20180300245A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
CN113253933B (zh) 用于管理存储系统的方法、设备和计算机可读存储介质
EP2951963B1 (en) Failover in response to failure of a port
US9632884B2 (en) Maintaining computer system operability
US9325583B2 (en) Method and system for optimizing network input/output performance
US10785350B2 (en) Heartbeat in failover cluster
US20110246597A1 (en) Remote direct storage access
US10970178B2 (en) Generating a health condition message on a health condition detected at a server to send to a host system accessing the server
US10942835B2 (en) Processing a health condition message on a health condition to determine whether to perform a swap operation
US8667337B2 (en) Storage apparatus and method of controlling the same
US10700869B2 (en) Access control and security for synchronous input/output links
US20170149864A1 (en) Distributed applications management with dependent resilient distributed services
US10732873B1 (en) Timeout mode for storage devices
US11630731B2 (en) System and device for data recovery for ephemeral storage
US10430264B2 (en) Monitoring correctable errors on a bus interface to determine whether to redirect input/output (I/O) traffic from a first processing unit to a second processing unit
US10044556B2 (en) Identifying performance-degrading hardware components in computer storage systems
US20130007512A1 (en) Managing storage providers in a clustered appliance environment
US10860334B2 (en) System and method for centralized boot storage in an access switch shared by multiple servers
CN110968642B (zh) 用于分布式系统中的数据存储的系统和方法
WO2023143039A1 (zh) 一种数据处理方法及装置
US20220244878A1 (en) Method, device, and computer program product for managing storage system
US9952776B1 (en) Automatic non-disruptive congestion control of a fabric in a data storage system
CN114327989A (zh) 容错方法、计算机系统、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant