CN114691432A - 使用机架到机架存储链路电缆提高数据中心可用性的系统和方法 - Google Patents
使用机架到机架存储链路电缆提高数据中心可用性的系统和方法 Download PDFInfo
- Publication number
- CN114691432A CN114691432A CN202111638606.4A CN202111638606A CN114691432A CN 114691432 A CN114691432 A CN 114691432A CN 202111638606 A CN202111638606 A CN 202111638606A CN 114691432 A CN114691432 A CN 114691432A
- Authority
- CN
- China
- Prior art keywords
- rack
- computing unit
- storage
- drives
- failure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/2033—Failover techniques switching over of hardware resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2035—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2041—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with more than one idle spare processing component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0823—Errors, e.g. transmission errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2048—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
Abstract
本申请公开了使用机架到机架存储链路电缆提高数据中心可用性的系统和方法。第一数据存储机架具有经由第一存储控制器耦合到第一多个存储驱动器的第一计算单元;第二数据存储机架具有经由第二存储控制器耦合到第二多个存储驱动器的第二计算单元。第一机架到机架存储链路电缆将第一计算单元耦合到第二存储控制器,使得第一计算单元能够响应于故障而提供对第二多个驱动器的访问,该故障阻止第二计算单元经由系统网络提供对第二多个驱动器的访问。
Description
发明内容
本公开涉及一种使用机架到机架存储链路电缆提高数据中心可用性的方法、系统和装置。在一个实施例中,第一数据存储机架具有经由第一存储控制器耦合到第一多个存储驱动器的第一计算单元。第二数据存储机架具有经由第二存储控制器耦合到第二多个存储驱动器的第二计算单元。第一机架到机架存储链路电缆将第一计算单元耦合到第二存储控制器,使得第一计算单元能够响应于阻止第二计算单元经由系统网络提供对第二多个驱动器的访问的故障、而提供对第二多个驱动器的访问。
在另一实施例中,方法涉及将第一数据存储机架和第二数据存储机架的第一计算单元和第二计算单元耦合到系统网络。第一计算单元和第二计算单元经由系统网络提供对第一数据存储机架和第二数据存储机架中各自的第一多个驱动器和第二多个驱动器的访问。检测到第二计算单元的第一故障,该第一故障阻止第二计算单元经由系统网络提供对第二多个驱动器的访问。响应于检测第一故障,第一计算单元经由第一机架到机架存储链路电缆耦合到第二多个驱动器。在第一故障之后,经由第一计算单元提供经由系统网络对第二多个驱动器的访问。根据以下详细讨论和附图,可以理解各个实施例的这些以及其他特征和方面。
附图的简要说明
下文讨论参考以下附图,其中相同的附图标记可用于标识多个图中的相似/相同的部件。
图1和图2是根据示例实施例的数据中心系统的框图;
图3、图4和图5示出了根据示例实施例的数据中心系统可能遇到的数据系统故障;
图6和图7是根据示例实施例的数据中心系统的示意图;
图7是示出根据示例实施例的具有减小的面密度盘表面的备用存储的使用的图;
图8是示出根据示例实施例的系统和设备的功能组件的框图;以及
图9是根据示例实施例的方法的流程图。
详细描述
本公开一般涉及数据中心。数据中心是容纳大量计算机系统和相关组件(诸如网络基础设施和数据存储系统)的设施(例如建筑物)。许多现代数据中心,也称为云数据中心,是连接到公共互联网并用于服务各种各样的应用的大型计算设施,各种各样的应用诸如云存储、云计算、网站托管、电子商务、消息传递等。在本公开中,实施例涉及大规模数据中心内的数据存储服务。
现代数据中心的存储容量可达到数百千万亿字节。这通常是作为互联网上的云存储服务提供的。使用数据中心进行云存储的一个优势是,规模效率可以使数据中心上的存储比维护个体自己的数据存储设施便宜得多。此外,数据中心可以对存储介质采用最先进的保护,确保数据的可用性和耐久性,即使在设备发生故障的情况下也是如此。
一般地,可用性与存储节点和计算节点中的冗余有关,使得备份计算机和/或存储设备可以快速取代故障单元,通常无需人工干预。耐久性涉及从已存储数据的丢失部分恢复的能力,例如,由于存储设备故障、数据损坏等。耐久性可通过冗余数据(诸如奇偶校验数据和擦除码)的使用来提高。可用性和耐久性的概念有些关联,但在某些场景下可以是独立的。例如,如果单CPU数据存储机架的中央处理单元(CPU)出现故障,则机架提供的所有存储可能不可用。然而,假设CPU故障没有损坏存储设备,此场景中的数据可能仍然安全,因此不会负面地影响耐久性。为了本公开的目的,术语“可靠性”可用于描述可用性和耐久性二者。
在下文描述的实施例中,描述了可以提高数据中心存储可用性的策略,这些策略超出了现有架构所提供的数据中心存储可用性。这些策略可以与增强耐用性方案一起使用,使得数据中心存储在面对数个不同的故障场景时变得更加可靠。这些策略可用于已知的存储架构,诸如Lustre、PVFS、BeeGFS、Cloudian、ActiveScale、SwiftStack、Ceph、HDFS等。
在图1和图2中示出了根据示例实施例的可以利用特征的示例服务器架构。在图1中,框图示出了根据第一示例实施例的数个服务器存储机架100。将进一步详细描述机架101,并且图1中的所有机架100可以具有相同或类似的特征。机架101被配置为高可用性(HA)存储服务器,并利用第一计算单元102和第二计算单元103,第一计算单元102和第二计算单元103在附图中被指示为服务器。为了本讨论的目的,术语“计算单元”或“服务器”意指具有至少一个CPU、存储器和输入/输出(I/O)总线的集成计算设备(例如,板、底架)。计算单元/服务器102、103还将具有将机架耦合到数据中心网络的一个或多个网络接口。
数个存储驱动器104(例如硬盘驱动器、固态驱动器(SSD))位于机架100中。注意,本公开中的术语“驱动器”并不意味着限制存储介质的类型或形状因子,也不意味着限制驱动器的包壳和接口电路。在一些实施例中,存储驱动器104的数量可以超过每个机架一百个,并且存储驱动器104耦合到一个或多个存储控制器106。在此示例中,存储控制器106被示出为独立盘冗余阵列(RAID)控制器,该控制器使用专用硬件和/或固件将存储设备布置到一个或多个RAID虚拟设备中。一般地,这涉及选择要组装到更大虚拟存储设备(有时称为卷)中的多个驱动器和/或多个驱动器分区。根据RAID卷的类型(例如RAID1、RAID5、RAID6),可以引入冗余和/或奇偶校验以提高卷的耐久性。通常,大型数据中心可能使用RAID 6,和/或可能使用专有或非标准方案(例如,非聚集奇偶校验)。
HA计算单元102、103均连接至驱动器,其布置允许机架在计算单元102、103中的一个发生故障的情况下继续操作。例如,存储驱动器104可分为两组,每一组耦合到不同的存储控制器106。第一HA计算单元102被指定为第一存储控制器106的主单元,并且被指定为第二存储控制器106的次单元。第二HA计算单元103被指定为第二存储控制器106的主单元和第一存储控制器106的次单元。HA计算单元102、103监视彼此的活动以检测故障迹象。如果HA计算单元102、103中的一个被监测为发生故障,另一HA计算单元102、103将接管作为故障单元的主设备,从而保持整个机架101的可用性。可以存在以HA布置耦合计算单元102、103的其他方式,例如,使用单个存储控制器106、两个以上的存储控制器106等,并且呈现该示例是为了说明而不是限制。
在系统级,针对存储机架100的数据108可以分布在机架之间,例如,使用循环次序分段存储方案110。在该方案110中,数据单元(例如,文件、存储对象)被分为存储在不同机架上的各个部分。这种类型的布置用于存储架构,诸如Lustre、PVFS、BeeGFS等,并且可以适用于基于文件的存储系统和基于对象的存储系统。
在图2中,框图示出了根据第二示例实施例的数个服务器存储机架200。将进一步详细描述机架201,并且图2中的所有机架200可以具有相同或类似的特征。机架201配置有单个计算单元202,其在图中指示为服务器。数个存储驱动器204位于机架201中并耦合到一个或多个存储控制器206。在此示例中,存储控制器206被示出为JBOD(仅一组盘)控制器,该控制器将多个驱动器附接在一起以形成单个卷,并且通常不采用本地奇偶校验或冗余。
与图1中的布置相比,图2中的布置没有机架内部的、提供可用性和耐久性的功能(例如,硬件RAID、HA服务器)。这提高了机架200内的数据丢失或不可用的风险,但确实降低了硬件成本和复杂性,并且可以容易地扩展。为了提供云存储预期的可靠性,图2中的系统可以利用本文所称的软件可靠性,其中可靠性由使用擦除码和复制210在机架200之间存储数据208的网络组件(例如,存储中间件)提供。通常,这涉及存储中间件将数据对象划分为分布在多个机架之间的部分。存储中间件还使用擦除码计算并单独存储机架其他部分中的冗余部分。擦除码数据可用于恢复由于驱动器或机架故障而造成的数据的丢失部分。这种类型的布置用于存储架构,诸如Cloudian、ActiveScale、SwiftStach、Ceph和HDFS。
图1和图2中示出的两种不同布置可能具有其与可靠性相关的特殊强度,因为两种方法都不能防止所有故障事件。特别是在分析这些架构的可靠性时,可以考虑两种大规模故障模式。第一种故障模式是空间故障突发,它涉及单个机架内多个同时发生的驱动器故障。图3示出了这种模式的示例,其中X表示机架300内发生故障的驱动器。图4中示出了也可以被视为空间故障突发的另一示例,其中机架400中的单个服务器发生故障了。在本例中,数据不一定丢失,但不可用。如图4所示的情况也可能由某个其他单点故障引起,例如,电力输送、冷却、存储控制器等。可通过使用如图2所示的包壳之间的擦除来防止图3和图4中所示的空间故障突发。如图1所示的包壳内的奇偶校验可能不足以防止空间故障突发,例如,如果RAID卷内有足够的驱动器发生故障,或者如果机架内的所有计算单元/服务器发生故障。
第二种形式的故障模式是无空间故障突发,其中跨多个机架同时发生多个驱动器故障。图5中示出了该故障模式的示例,其中x表示存储机架500-502中发生故障的驱动器。可以通过如图1所示在存储机架内采用擦除/奇偶校验来防止无空间故障突发,但如图2所示在存储机架上使用擦除可能是不够的。例如,如图2的一些软件可靠性配置推荐如图2所示的设置中每个计算单元/服务器不超过12个驱动器。但是,按照今天的标准,每个包壳12个驱动器是一个小数目,而且这个小数目降低了数据存储单元的成本效率,这是此类架构的一个优势。对于廉价的大容量存储,为了实现成本目标,可能期望每个计算单元/服务器具有超过100个驱动器。
在图6中,框图示出了根据示例实施例的数据中心系统600。系统600包括第一数据存储机架601、第二数据存储机架602和第三数据存储机架603,每个机架分别具有第一计算单元604、第二计算单元605和第三计算单元606,这些计算单元分别耦合到第一多个存储驱动器608、第二多个存储驱动器609和第三多个存储驱动器610并提供对其的访问。在此示例中,第一多个存储驱动器608、第二多个存储驱动器609和第三多个存储驱动器610经由第一存储控制器612、第二存储控制器613和第三存储控制器614耦合。计算单元604、605和606通常耦合到网络631。
第一机架到机架存储链路电缆616将第一计算单元604耦合到第二多个驱动器609,使得第一计算单元604能够响应于阻止第二计算单元605访问第二多个驱动器609的第一故障,提供对第二多个驱动器609的访问。第二机架到机架存储链路电缆618将第三计算单元606耦合到第一多个驱动器608,使得第三计算单元606可以响应于阻止第一计算单元604访问第一多个驱动器608的第二故障,提供对第一多个驱动器608的访问。注意,上文所描述的对于第一计算单元604和第二计算单元605的故障可包括计算单元本身(例如,CPU、存储器、I/O)的故障、计算单元与驱动器和/或存储控制器之间的链路的故障、影响驱动器和/或计算单元的电源故障等。
存储链路电缆616、618可以是符合点对点存储协议的任何类型的电缆,这些电缆可以从机架到机架的距离进行操作,包括SATA、SaS、SCSI、光纤通道、以太网等。请注意,以太网电缆可以被配置为运行点对点,例如,无需干预交换机,在这种情况下,电缆可被配置为交叉以太网电缆。一般地,这些电缆616、618可以区别于通常将计算单元604-606耦合到系统网络631的网络布线。由于存储控制器612-614可以将每个驱动器阵列608-610呈现为单个存储设备,因此可能只需要一根电缆616、618,尽管更多电缆可用于冗余、性能和/或计及多个存储控制器,如下文更详细地讨论的。
图6中还示出耦合到网络631的附加数据存储机架621-623,每个机架分别具有计算单元624-626,该计算单元624-626经由存储控制器632-634分别耦合到多个存储驱动器628-630并且提供对多个存储驱动器628-630的访问。机架到机架存储链路电缆640-642将计算单元624-626耦合到驱动器阵列633、634和614。因此,在此六个数据存储机架601-603、621-623的说明性示例中,每个计算单元604-606、624-626具有备份单元而仍然只需要每个机架一个计算单元/服务器。当计算单元发生故障时,该单元控制的盘可以经由备份保持可用。注意,主计算单元和备份计算单元可能不会严格地被视为“配对”,因为这里启用了循环次序HA。在该布置中,每个计算单元备份相邻的计算单元,“最后”计算单元626备份“第一”计算单元606。这种循环次序布置允许奇数群的计算单元相互提供HA备份。
在其他实施例中,数据存储机架601-603、621-623可以成对耦合,类似于机架内HA服务器。这由虚线619指示,虚线619表示将计算单元604耦合到盘610的可选存储链路电缆。可选存储链路电缆619可以与提供对盘608的备份的存储链路电缆618一起使用,可选存储链路电缆619也可以代替存储链路电缆616使用,或作为存储链路电缆616的附加使用。在其他实施例中,可以形成多个机架内的备份群,使得每个群内的机架独立于其他群相互备份,这有助于限制存储链路电缆的长度。例如,一组24个机架可分为四群六个机架,每群中的六个机架以循环次序备份的布置来布置,如图6所示。
在图7中,框图示出了根据示例实施例的数据中心系统700。系统700包括第一数据存储机架701、第二数据存储机架702和第三数据存储机架703,每个机架分别具有第一计算单元704、第二计算单元705和第三计算单元706。计算单元704、705和706通常耦合到网络720。第一计算单元701耦合到存储驱动器708的部分708a、708b并且提供对存储驱动器708的部分708a、708b的访问,部分708a、708b通过存储控制器712a、712b耦合到第一计算单元704。第二计算单元705耦合到存储驱动器709的部分709a、709b并提供对存储驱动器709的部分709a、709b的访问,部分709a、709b通过存储控制器713a、713b耦合到第一计算单元705。第三计算单元706耦合到存储驱动器710的部分710a、710b并提供对存储驱动器710的部分710a、710b的访问,该部分710a、710b通过存储控制器714a、714b耦合到第一计算单元706。
每个计算单元704-706具有延伸到两个不同机架的驱动阵列部分的两个机架到机架存储链路电缆,其中计算单元充当备份。例如,计算单元704具有耦合到机架703的驱动部分714b的机架到机架存储链路电缆716a和耦合到机架702的驱动部分713a的机架到机架存储链路电缆716b。对于其他计算单元705、706重复该模式,并且该模式还形成循环次序耦合,使得该备份布置可用于奇数个机架。注意,与图6中的布置相比,该布置在使每个机架的机架到机架电缆数量加倍的同时,还可以将发生故障的计算单元的负载分配给多个其他计算单元。例如,如果第一计算单元704发生故障,则部分712a将经由第三计算单元706在网络720上可用,而部分712b将经由第二计算单元706在网络720上可用。
在图8中,方框图示出了根据示例实施例的系统800中机架802、804的内部组件。将更详细地描述机架802的组件,并且系统800中的其他机架可以类似地或相同地配置。机架802包括具有至少一个CPU 807、随机存取存储器(RAM)808、网络接口卡(NIC)809和I/O接口810的服务器/计算单元806。计算单元806的这些组件可以经由主板或本领域已知的其他电路进行耦合。
I/O接口810耦合至存储控制器812,存储控制器812包括其自身的控制器电路814,例如,支配控制器操作的片上系统(SoC)。这些操作包括对驱动器阵列816的控制,驱动器阵列816包括可耦合到一个或多个电路板(例如背板)并可被布置到存储盒中的多个持久存储设备(例如,HDD、SSD)。机架802可包括驱动器阵列816和/或存储控制器812的多个实例。
计算单元806和/或存储控制器812可以包括HA控制模块818、819,其使机架802的组件能够经由存储链路电缆820充当一个或多个其他机架的存储控制备份。HA控制模块818、819中的一个或两个可以进一步使一个或多个其他机架能够经由存储链路电缆824充当机架802的存储控制备份。
还示出了另一个备份电缆823,它可以为本图中未显示的其他机架提供类似的备份功能。例如,附加的数据存储机架可以通过各自的机架到机架存储链路电缆进行串行耦合,这些电缆通过各自的机架到机架存储链路电缆进行串行耦合。每个机架的计算单元可响应于阻止下一机架的下一计算单元的故障,提供对该下一机架的下一多个盘驱动器的访问。在这种情况下,电缆823为这些附加机架中的第一个机架的驱动器提供备份,并且这些附加数据存储机架的最后一个计算单元经由数据链路电缆824为驱动器816提供备份。在另一种布置中,如果数据链路电缆823、824连接在一起,则这将是成对的备份布置。
HA控制模块818、819可允许存储机架的自愈,使得集中式实体(例如,存储中间件832)不必需要检测故障并分配备份服务器。例如,HA模块818可以例如经由系统网络830与机架804上的关联HA模块821通信。这些通信可包括确定机架804的计算单元826是否可操作的保持活动类型消息。可以通过存储控制器812、822上的HA模块执行类似的通信,以查看存储控制器822是否可操作。如果确定计算单元826为非响应的但存储控制器822是响应的,则计算单元806可以控制控制器822及其相关联的盘阵列825。这还可能涉及系统控制器822切断与计算单元826的任何链路,以防止在计算单元826稍后重新在线时发生任何冲突。
注意,为了让计算单元806接管发生故障的计算单元826,其可以被配置为充当故障单元的网络代理。例如,如果计算单元806、826具有网络主机名“rack802”和“rack804”,则它们可以通过网络文件系统(NFS)统一资源定位符(URLs)“nfs://rack802:/<UUID1>”和“nfs://rack804:/<UUID2>”提供对阵列816、825的访问,其中UUID1和UUID2表示由各自的存储控制器812、822提供的通用唯一标识符(UUID),用于标识其存储阵列816、825。
如果计算单元826发生故障,则主机名“rack804”很可能不会响应网络请求。因此,计算单元806可以被配置为也使用主机名“rack804”,例如,通过重新配置网络830的域名服务器(DNS)以将“rack804”主机名指向计算单元806的互联网协议(IP)地址。因为UUID用于标识URLs中的各自的阵列816、825,所以备份计算单元806可以代表发生故障的单元826无缝地接管网络请求。请注意,如果计算单元826稍后在此场景中重新在线,则网络上不会存在由于NFS重新映射而造成的混乱,因为计算单元826通常不会依赖其网络主机名来进行内部网络操作,而是依赖于“本地主机(localhost)”或环回IP地址。
在其他实施例中,与检测发生故障的计算单元和分配备份相关的方面可以由网络实体(诸如存储中间件832)协调。一般地,存储中间件832充当客户端834用于访问数据中心的存储服务的单个通用存储接口。存储中间件832可以在数据中心内的任意数量的计算节点(包括一个或多个专用计算节点)上运行,作为分布式服务运行,在客户机834上运行,在存储机架计算单元中的一个或多个存储机架计算单元上运行,等等。存储中间件832可以对于大型数据中心遇到的不同类型的存储访问场景进行优化,例如,优化诸如数据吞吐量、等待时间、可靠性等方面。在这种情况下,存储中间件832可以包括其自己的HA模块833,该HA模块833与机架上的HA模块(例如,HA模块818、819中的一个或两个)通信。
中间件HA模块833的活动可能类似于上文所描述的自愈示例中描述的活动,例如,保持活动消息、网络共享的重新映射。与上文所描述的NFS卷的备份的示例类似,中间件HA模块833可以检测主机名“rack804”的故障。然而,由于存储中间件832可以代表客户端抽象对存储的所有访问,因此它可以改变其内部映射以计及备份单元中的交换机,例如,nfs://rack804:/<UUID2>被改变为nfs://rack802:/<UUID2>。这还可伴随到机架802的HA模块818的消息,以经由电缆820承担对阵列825的控制。
注意,通过中间件HA模块833管理备份操作仍然可能涉及经由存储机架组件的一些对等通信。例如,即使中间件HA模块833协调网络请求到备份计算单元806的重新映射,备份计算单元806的HA模块818仍然可以与控制器卡822通信,以接管主机存储接口以进行后续存储操作,以及进一步切断与故障计算单元826的主机接口,以防后者重新在线。注意,如果发生故障的计算单元826确实重新在线并且似乎再次完全可操作,则可以反转备份操作以将驱动阵列825的控制从计算单元806切换回计算单元826。
在上文所描述的实施例中,任何类型的本地或系统级数据耐久性方案均可用于使用存储链路电缆提高数据存储机架之间的可用性。如前文所提及的,一种方案涉及使用RAID奇偶校验,使得RAID卷可以在构成卷的驱动器内防止故障。另一方案涉及将数据划分为多个部分,对于各部分计算擦除码数据,并在不同存储单元(例如,存储架)之间分配各部分和擦除码数据。
可与图示方案一起使用以提高数据存储机架之间的可用性的另一种耐久性方案是一种混合方案,这种方案既使用RAID奇偶校验又使用系统级擦除。例如,系统可以设计为n%的冗余数据开销,开销的第一个量n1%可以专用于RAID奇偶校验,开销的第二个量n2%可以专用于擦除,其中n1+n2=n。这可以使系统在图3-图5中所示的一些故障场景下更稳健地防止数据丢失。该混合耐久性方案的更多细节在2020年2月19日的美国专利申请16/794951中进行了描述,该申请标题为“具有合作优化的多级擦除系统”,由此通过引用将其整体并入本文。
在图9中,流程图示出了根据示例实施例的方法。该方法涉及将第一数据存储机架和第二数据存储机架的第一计算单元和第二计算单元耦合到系统网络(步骤900)。第一计算单元和第二计算单元经由系统网络提供对第一数据存储机架和第二数据存储机架中各自的第一多个驱动器和第二多个驱动器的访问。例如,每个多个驱动器可以耦合到各自的存储控制器,该存储控制器将驱动器作为减少数量的虚拟设备(例如,RAID或JBOD卷)呈现给计算单元。
检测到第二计算单元的故障(步骤901),该故障阻止第二计算单元经由系统网络提供对第二多个驱动器的访问。响应于检测到故障,第一计算单元经由第一机架到机架存储链路电缆耦合到第二多个驱动器(步骤902)。注意,对于该耦合实例和其他耦合实例,存储链路电缆可能已经在各自的计算单元和第一机架和第二机架的驱动器之间物理连接。因此,本图中所示的耦合一般地涉及已通过存储链路电缆物理连接的单元之间的电气和逻辑耦合。在第一故障之后经由第一计算单元提供对第二多个驱动器的访问(步骤903)。
图9中还示出了可由系统执行以保护第一数据存储机架的盘的可选步骤。如步骤904-906所指示的,一种方法是如上文所描述使用循环次序类型的连接。这可能涉及检测到第一计算单元的第二故障(步骤904),该故障阻止第一计算单元经由系统网络提供对第一多个驱动器的访问。响应于检测到第二故障,第三计算单元经由第二机架到机架存储链路电缆耦合到第一多个驱动器(步骤905)。第三计算单元经由系统网络提供对第三数据存储机架中的第三多个驱动器的访问。在第二故障之后,经由第三计算单元提供对第一多个驱动器的访问(步骤906)。
如步骤907-909所指示的,保护第一数据存储机架的盘的另一种方法是成对备份。这可能涉及检测第一计算单元的第二故障(步骤907),该第二故障阻止第一计算单元经由系统网络提供对第一多个驱动器的访问。响应于检测到第二故障,第二计算单元经由第二机架到机架存储链路电缆耦合到第一多个驱动器(步骤908)。在第二故障之后经由第二计算单元提供对第二多个驱动器的访问(步骤909)。
可以使用相互作用以提供特定结果的电路系统、固件和/或软件模块来实现上文所描述的各种实施例。使用本领域公知的知识,本领域技术人员可以在模块级别或整体上容易地实现此类所描述的功能。例如,本文所示的流程图和控制图可以用于创建计算机可读指令/代码以供处理器执行。如本领域中已知的,这样的指令可以存储在非暂态计算机可读介质上并且被传送到处理器以供执行。上文示出的结构和过程仅是可用于提供上述功能的实施例的代表性示例。
除非另有说明,否则在说明书和权利要求中使用的表示特征大小、数量和物理特性的所有数字应当理解为在所有情况下均由术语约摂修饰。因此,除非相反地指明,否则在前述说明书和所附权利要求中阐述的数值参数是近似值,这些近似值可以根据利用本文所公开的教导的本领域技术人员所寻求的期望性质而变化。通过端点对数值范围的使用包括该范围内的所有数值(例如,从1到5包括1、1.5、2、2.75、3、3.80、4和5)以及该范围内的任何范围。
示例实施例的前述描述已经被呈现用于说明和描述的目的。其不旨在是详尽的或将实施例限制于所公开的精确形式。根据上述教导,许多修改和变化是可能的。所公开的实施例的任何或所有特征可单独或以任何组合应用,不旨在限制,而仅是说明性的。本发明的范围不旨在受限于本具体实施方式,而是由所附权利要求书来确定。
进一步的示例:
示例1.一种系统,包括:
第一数据存储机架,所述第一数据存储机架包括经由第一存储控制器耦合到第一多个存储驱动器的第一计算单元;
第二数据存储机架,所述第二数据存储机架包括经由第二存储控制器耦合到第二多个存储驱动器的第二计算单元;以及
第一机架到机架存储链路电缆,所述第一机架到机架存储链路电缆将所述第一计算单元耦合到所述第二存储控制器,使得所述第一计算单元能够响应于第一故障而提供对所述第二多个驱动器的访问,所述第一故障阻止所述第二计算单元经由系统网络提供对所述第二多个驱动器的访问。
示例2.如示例1所述的系统,进一步包括:
第三数据存储机架,所述第三数据存储机架包括经由第三存储控制器耦合到第三多个存储驱动器的第三计算单元;以及
第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述第三计算单元耦合到所述第一存储控制器,使得所述第三计算单元能够响应于阻止所述第一计算单元访问所述第一多个驱动器的第二故障而提供对所述第一多个驱动器的访问。
示例3.如示例2所述的系统,进一步包括第三机架到机架存储链路电缆,所述第三机架到机架存储链路电缆将所述第二计算单元耦合到所述第三存储控制器,使得所述第二计算单元能够响应于阻止所述第三计算单元访问所述第三多个驱动器的第三故障而提供对所述第三多个驱动器的访问。
示例4.如示例1所述的系统,进一步包括:
两个或更多个附加数据存储机架,所述两个或更多个附加数据存储机架中的每一个通过各自的机架到机架存储链路电缆串行耦合,使得对于每个机架而言,每个机架的计算单元能够响应于阻止下一机架的下一计算单元提供对下一多个驱动器的访问的故障而提供对所述下一机架的所述下一多个驱动器的访问;以及
第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述两个或更多个附加的存储机架中的最后一个存储机架的最后一个计算单元耦合到所述第一存储控制器,使得所述最后一个计算单元能够响应于阻止所述第一计算单元访问所述第一多个驱动器的第二故障而提供对所述第一多个驱动器的访问。
示例5.如示例1所述的系统,进一步包括第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述第二计算单元耦合到所述第一存储控制器,使得所述第二计算单元能够响应于阻止所述第一计算单元访问所述第一多个驱动器的第二故障而提供对所述第一多个驱动器的访问。
示例6.如示例1所述的系统,其中,所述第一计算单元能操作用于检测所述第一故障,并且响应于所述第一故障而经由所述系统网络提供对所述第二多个驱动器的访问。
示例7.如示例1所述的系统,进一步包括经由所述系统网络耦合到第一计算单元和第二计算单元的存储中间件,所述存储中间件能操作用于检测所述第一故障,并且响应于所述第一故障而指令所述第一计算单元经由所述系统网络提供对所述第二多个驱动器的访问。
示例8.如示例1所述的系统,其中,所述第一机架到机架存储链路电缆包括SaS电缆、SATA电缆、SCSI电缆、光纤通道电缆或点对点以太网电缆中的一个。
示例9.一种方法,包括:
将第一数据存储机架和第二数据存储机架的第一计算单元和第二计算单元耦合到系统网络,所述第一计算单元和所述第二计算单元经由所述系统网络提供对所述第一数据存储机架和所述第二数据存储机架中各自的第一多个驱动器和第二多个驱动器的访问;
检测所述第二计算单元的第一故障,所述第一故障阻止所述第二计算单元经由所述系统网络提供对所述第二多个驱动器的访问;
响应于检测到所述第一故障,经由第一机架到机架存储链路电缆将所述第一计算单元耦合到所述第二多个驱动器;以及
在所述第一故障之后,经由所述第一计算单元提供对所述第二多个驱动器的访问。
示例10.如示例9所述的方法,进一步包括:
检测所述第一计算单元的第二故障,所述第二故障阻止所述第一计算单元经由所述系统网络提供对所述第一多个驱动器的访问;
响应于检测到所述第二故障,经由第二机架到机架存储链路电缆将第三计算单元耦合到所述第一多个驱动器,所述第三计算单元经由所述系统网络提供对第三数据存储机架中的第三多个驱动器的访问;以及
在所述第二故障之后,经由所述第三计算单元提供对所述第一多个驱动器的访问。
示例11.如示例10所述的方法,进一步包括:
检测所述第三计算单元的第三故障,所述第三故障阻止所述第三计算单元经由所述系统网络提供对所述第三多个驱动器的访问;
响应于检测到所述第三故障,经由第三机架到机架存储链路电缆将所述第二计算单元耦合到所述第三多个驱动器;以及
在所述第三故障之后,经由所述第二计算单元提供对所述第三多个驱动器的访问。
示例12.如示例9所述的方法,进一步包括:
通过各自的机架到机架存储链路电缆串行耦合两个或更多个附加的数据存储机架,使得对于每个机架而言,每个机架的计算单元能够响应于阻止下一机架的下一计算单元提供对下一多个驱动器的访问的故障,提供对所述下一机架的下一多个驱动器的访问;以及将第二机架到机架存储链路电缆从所述两个或更多个附加的存储机架中的最后一个存储机架的最后一个计算单元耦合到所述第一多个驱动器,使得所述最后一个计算单元能够响应于阻止所述第一计算单元访问所述第一多个驱动器的第二故障,提供对所述第一多个驱动器的访问。
示例13.如示例9所述的方法,进一步包括:
检测所述第一计算单元的第二故障,所述第二故障阻止所述第一计算单元经由所述系统网络提供对所述第一多个驱动器的访问;
响应于检测到所述第二故障,经由第二机架到机架存储链路电缆将所述第二计算单元耦合到所述第一多个驱动器;以及
在所述第二故障之后,经由所述第二计算单元提供对所述第一多个驱动器的访问。
示例14.如示例9所述的方法,其中,所述第一故障由所述第一计算单元检测,并且所述第一计算单元响应于所述第一故障经由所述系统网络提供对所述第二多个驱动器的访问。
示例15.如示例9所述的方法,其中,经由所述系统网络耦合到所述第一计算单元和所述第二计算单元的存储中间件检测到所述第一故障,并且响应于所述第一故障而指令所述第一计算单元经由所述系统网络提供对所述第二多个驱动器的访问。
示例16.一种系统,包括:
第一数据存储机架、第二数据存储机架和第三数据存储机架,所述第一数据存储机架、所述第二数据存储机架和所述第三数据存储机架的每一个数据存储机架分别包括第一计算单元、第二计算单元和第三计算单元,所述第一计算单元、所述第二计算单元和所述第三计算单元分别经由系统网络耦合到第一多个存储驱动器、第二多个存储驱动器和第三多个存储驱动器并且提供对所述第一多个存储驱动器、所述第二多个存储驱动器和所述第三多个存储驱动器的访问;
第一机架到机架存储链路电缆,所述第一机架到机架存储链路电缆将所述第一计算单元耦合到所述第二多个驱动器,使得所述第一计算单元能够响应于禁用所述第二计算单元的第一故障而经由所述系统网络提供对所述第二多个驱动器的访问;以及
第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述第三计算单元耦合到所述第一多个驱动器,使得所述第三计算单元能够响应于禁用所述第一计算单元的第二故障而经由所述系统网络提供对所述第一多个驱动器的访问。
示例17.如示例16所述的系统,进一步包括耦合到所述第一计算单元、所述第二计算单元和所述第三计算单元的存储中间件,所述存储中间件能操作用于执行以下的一个或两个:
检测所述第一故障并且响应于所述第一故障而指令所述第一计算单元经由所述系统网络提供对所述第二多个驱动器的访问;以及
检测所述第二故障,并且响应于所述第而故障而指令所述第三计算单元经由所述系统网络提供对所述第一多个驱动器的访问。
示例18.如示例16所述的系统,其中,所述第一计算单元能操作用于检测所述第一故障,并且响应于所述第一故障经由所述系统网络提供对所述第二多个驱动器的访问,以及所述第三计算单元能操作用于检测所述第二故障,并且响应于所述第二故障经由所述系统网络提供对所述第一多个驱动器的访问。
示例19.如示例16所述的系统,其中,所述第一机架到机架存储链路电缆将所述第一计算单元耦合到所述第二多个驱动器的第一部分,使得所述第一计算单元能够响应于所述第一故障而提供对所述第二多个驱动器的所述第一部分的访问,所述系统进一步包括:
第四数据存储机架,所述第四数据存储机架具有第四计算单元;以及第三机架到机架存储链路电缆,所述第三机架到机架存储链路电缆将所述第四计算单元耦合到所述第二多个驱动器的第二部分,使得所述第四计算单元能够响应于所述第一故障而提供对所述第二多个驱动器的所述第二部分的访问。
示例20.如示例16所述的系统,其中,所述第一机架到机架存储链路电缆和第二机架到机架存储链路电缆的每一个包括SaS电缆、SATA电缆、SCSI电缆、光纤通道电缆或点对点以太网电缆中的一个。
Claims (10)
1.一种系统,包括:
第一数据存储机架,所述第一数据存储机架包括经由第一存储控制器耦合到第一多个存储驱动器的第一计算单元;
第二数据存储机架,所述第二数据存储机架包括经由第二存储控制器耦合到第二多个存储驱动器的第二计算单元;以及
第一机架到机架存储链路电缆,所述第一机架到机架存储链路电缆将所述第一计算单元耦合到所述第二存储控制器,使得所述第一计算单元能够响应于第一故障而提供对所述第二多个驱动器的访问,所述第一故障阻止所述第二计算单元经由系统网络提供对所述第二多个驱动器的访问。
2.如权利要求1所述的系统,进一步包括:
第三数据存储机架,所述第三数据存储机架包括经由第三存储控制器耦合到第三多个存储驱动器的第三计算单元;以及
第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述第三计算单元耦合到所述第一存储控制器,使得所述第三计算单元能够响应于阻止所述第一计算单元访问所述第一多个驱动器的第二故障而提供对所述第一多个驱动器的访问。
3.如权利要求2所述的系统,进一步包括第三机架到机架存储链路电缆,所述第三机架到机架存储链路电缆将所述第二计算单元耦合到所述第三存储控制器,使得所述第二计算单元能够响应于阻止所述第三计算单元访问所述第三多个驱动器的第三故障而提供对所述第三多个驱动器的访问。
4.如权利要求1所述的系统,进一步包括:
两个或更多个附加数据存储机架,所述两个或更多个附加数据存储机架中的每一个通过各自的机架到机架存储链路电缆串行耦合,使得对于每个机架而言,每个机架的计算单元能够响应于阻止下一机架的下一计算单元提供对下一多个驱动器的访问的故障而提供对所述下一机架的所述下一多个驱动器的访问;以及
第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述两个或更多个附加的存储机架中的最后一个存储机架的最后一个计算单元耦合到所述第一存储控制器,使得所述最后一个计算单元能够响应于阻止所述第一计算单元访问所述第一多个驱动器的第二故障而提供对所述第一多个驱动器的访问。
5.如权利要求1所述的系统,进一步包括第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述第二计算单元耦合到所述第一存储控制器,使得所述第二计算单元能够响应于阻止所述第一计算单元访问所述第一多个驱动器的第二故障而提供对所述第一多个驱动器的访问。
6.如权利要求1所述的系统,其中,所述第一计算单元能操作用于检测所述第一故障,并且响应于所述第一故障而经由所述系统网络提供对所述第二多个驱动器的访问。
7.如权利要求1所述的系统,进一步包括经由所述系统网络耦合到第一计算单元和第二计算单元的存储中间件,所述存储中间件能操作用于检测所述第一故障,并且响应于所述第一故障而指令所述第一计算单元经由所述系统网络提供对所述第二多个驱动器的访问。
8.如权利要求1所述的系统,其中,所述第一机架到机架存储链路电缆包括SaS电缆、SATA电缆、SCSI电缆、光纤通道电缆或点对点以太网电缆中的一个。
9.一种方法,包括:
将第一数据存储机架和第二数据存储机架的第一计算单元和第二计算单元耦合到系统网络,所述第一计算单元和所述第二计算单元经由所述系统网络提供对所述第一数据存储机架和所述第二数据存储机架中各自的第一多个驱动器和第二多个驱动器的访问;
检测所述第二计算单元的第一故障,所述第一故障阻止所述第二计算单元经由所述系统网络提供对所述第二多个驱动器的访问;
响应于检测到所述第一故障,经由第一机架到机架存储链路电缆将所述第一计算单元耦合到所述第二多个驱动器;以及
在所述第一故障之后,经由所述第一计算单元提供对所述第二多个驱动器的访问。
10.一种系统,包括:
第一数据存储机架、第二数据存储机架和第三数据存储机架,所述第一数据存储机架、所述第二数据存储机架和所述第三数据存储机架的每一个数据存储机架分别包括第一计算单元、第二计算单元和第三计算单元,所述第一计算单元、所述第二计算单元和所述第三计算单元分别经由系统网络耦合到第一多个存储驱动器、第二多个存储驱动器和第三多个存储驱动器并且提供对所述第一多个存储驱动器、所述第二多个存储驱动器和所述第三多个存储驱动器的访问;
第一机架到机架存储链路电缆,所述第一机架到机架存储链路电缆将所述第一计算单元耦合到所述第二多个驱动器,使得所述第一计算单元能够响应于禁用所述第二计算单元的第一故障而经由所述系统网络提供对所述第二多个驱动器的访问;以及
第二机架到机架存储链路电缆,所述第二机架到机架存储链路电缆将所述第三计算单元耦合到所述第一多个驱动器,使得所述第三计算单元能够响应于禁用所述第一计算单元的第二故障而经由所述系统网络提供对所述第一多个驱动器的访问。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/139,087 | 2020-12-31 | ||
US17/139,087 US11372553B1 (en) | 2020-12-31 | 2020-12-31 | System and method to increase data center availability using rack-to-rack storage link cable |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114691432A true CN114691432A (zh) | 2022-07-01 |
Family
ID=79185851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111638606.4A Pending CN114691432A (zh) | 2020-12-31 | 2021-12-29 | 使用机架到机架存储链路电缆提高数据中心可用性的系统和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11372553B1 (zh) |
EP (1) | EP4024216A1 (zh) |
CN (1) | CN114691432A (zh) |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5396635A (en) | 1990-06-01 | 1995-03-07 | Vadem Corporation | Power conservation apparatus having multiple power reduction levels dependent upon the activity of the computer system |
US5278838A (en) | 1991-06-18 | 1994-01-11 | Ibm Corp. | Recovery from errors in a redundant array of disk drives |
KR100471341B1 (ko) | 1996-05-23 | 2005-07-21 | 제네시스 테크놀로지 가부시키가이샤 | 콘택트프로브및그것을구비한프로브장치 |
KR100275900B1 (ko) | 1996-09-21 | 2000-12-15 | 윤종용 | 알에이아이디 서브시스템에 있어서 분할패러티 예비 디스크 구현방법 |
US5999712A (en) | 1997-10-21 | 1999-12-07 | Sun Microsystems, Inc. | Determining cluster membership in a distributed computer system |
US7734591B1 (en) | 1999-08-16 | 2010-06-08 | Netapp, Inc. | Coherent device to device data replication |
US7246268B2 (en) | 2002-01-16 | 2007-07-17 | Sandisk Corporation | Method and apparatus for dynamic degradation detection |
KR100667758B1 (ko) | 2004-07-30 | 2007-01-11 | 삼성전자주식회사 | 정보 저장 매체, 기록/재생 장치 및 기록/재생 방법 |
US7321905B2 (en) | 2004-09-30 | 2008-01-22 | International Business Machines Corporation | System and method for efficient data recovery in a storage array utilizing multiple parity slopes |
US20060080362A1 (en) | 2004-10-12 | 2006-04-13 | Lefthand Networks, Inc. | Data Synchronization Over a Computer Network |
US7689890B2 (en) | 2005-04-21 | 2010-03-30 | Dell Products L.P. | System and method for handling write commands to prevent corrupted parity information in a storage array |
US20070300013A1 (en) | 2006-06-21 | 2007-12-27 | Manabu Kitamura | Storage system having transaction monitoring capability |
US7594134B1 (en) | 2006-08-14 | 2009-09-22 | Network Appliance, Inc. | Dual access pathways to serially-connected mass data storage units |
US8145941B2 (en) | 2006-10-31 | 2012-03-27 | Hewlett-Packard Development Company, L.P. | Detection and correction of block-level data corruption in fault-tolerant data-storage systems |
CN101868785B (zh) | 2007-09-21 | 2014-09-24 | 惠普开发有限公司 | 生成数据存储系统的并行恢复策略 |
US7725441B2 (en) | 2007-12-10 | 2010-05-25 | International Business Machines Corporation | Methods, systems, and computer program products for disaster recovery planning |
CN102187324A (zh) * | 2008-11-13 | 2011-09-14 | Lsi公司 | 用于直接附连存储系统的活动-活动故障转移 |
US8966020B2 (en) | 2010-11-02 | 2015-02-24 | International Business Machines Corporation | Integration of heterogeneous computing systems into a hybrid computing system |
WO2012098909A1 (ja) | 2011-01-21 | 2012-07-26 | パナソニック株式会社 | 符号化方法、復号方法、符号化器、及び、復号器 |
US8839028B1 (en) | 2011-12-23 | 2014-09-16 | Emc Corporation | Managing data availability in storage systems |
US9268590B2 (en) | 2012-02-29 | 2016-02-23 | Vmware, Inc. | Provisioning a cluster of distributed computing platform based on placement strategy |
CN103580902B (zh) | 2012-08-07 | 2015-01-14 | 腾讯科技(深圳)有限公司 | 一种计算机信息系统及其动态容灾方法 |
US20140215147A1 (en) | 2013-01-25 | 2014-07-31 | Hewlett-Packard Development Company, L.P. | Raid storage rebuild processing |
US9633041B2 (en) | 2013-09-26 | 2017-04-25 | Taiwan Semiconductor Manufacturing Co., Ltd. | File block placement in a distributed file system network |
WO2015073042A1 (en) | 2013-11-18 | 2015-05-21 | Hewlett-Packard Development Company, L.P. | Indicating rebuild state of storage devices |
US9658784B1 (en) | 2015-12-11 | 2017-05-23 | International Business Machines Corporation | Using head and/or drive performance information for predicting and/or ascertaining failures |
US10025583B2 (en) | 2016-02-17 | 2018-07-17 | International Business Machines Corporation | Managing firmware upgrade failures |
US10218789B2 (en) | 2016-03-04 | 2019-02-26 | Western Digital Technologies, Inc. | Erasure correcting coding using temporary erasure data |
US10503771B2 (en) | 2017-01-06 | 2019-12-10 | Oracle International Corporation | Efficient incremental backup and restoration of file system hierarchies with cloud object storage |
US10503427B2 (en) | 2017-03-10 | 2019-12-10 | Pure Storage, Inc. | Synchronously replicating datasets and other managed objects to cloud-based storage systems |
US10437674B1 (en) | 2017-06-01 | 2019-10-08 | Seagate Technology Llc | Variable parity sectors |
US10585749B2 (en) | 2017-08-10 | 2020-03-10 | Samsung Electronics Co., Ltd. | System and method for distributed erasure coding |
US11216196B2 (en) | 2018-05-24 | 2022-01-04 | Quantum Corporation | Erasure coding magnetic tapes for minimum latency and adaptive parity protection feedback |
US10725941B2 (en) | 2018-06-30 | 2020-07-28 | Western Digital Technologies, Inc. | Multi-device storage system with hosted services on peer storage devices |
US10761738B2 (en) | 2018-07-13 | 2020-09-01 | Seagate Technology Llc | Raid performance by offloading tasks to expanders |
US11132256B2 (en) | 2018-08-03 | 2021-09-28 | Western Digital Technologies, Inc. | RAID storage system with logical data group rebuild |
US11249857B2 (en) | 2018-10-19 | 2022-02-15 | Netapp, Inc. | Methods for managing clusters of a storage system using a cloud resident orchestrator and devices thereof |
US11334434B2 (en) | 2020-02-19 | 2022-05-17 | Seagate Technology Llc | Multi-level erasure system with cooperative optimization |
JP7191059B2 (ja) | 2020-03-19 | 2022-12-16 | 株式会社日立製作所 | ストレージシステムおよびストレージシステムの分析方法 |
-
2020
- 2020-12-31 US US17/139,087 patent/US11372553B1/en active Active
-
2021
- 2021-11-24 EP EP21210321.2A patent/EP4024216A1/en active Pending
- 2021-12-29 CN CN202111638606.4A patent/CN114691432A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4024216A1 (en) | 2022-07-06 |
US20220206690A1 (en) | 2022-06-30 |
US11372553B1 (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10496504B2 (en) | Failover handling in modular switched fabric for data storage systems | |
US7003687B2 (en) | Fail-over storage system | |
JP4107651B2 (ja) | 障害の存在下で完全な性能を維持するファイルサーバのツイン接続フェールオーバ | |
US8443232B1 (en) | Automatic clusterwide fail-back | |
EP3158455B1 (en) | Modular switched fabric for data storage systems | |
US7127633B1 (en) | System and method to failover storage area network targets from one interface to another | |
JP3714613B2 (ja) | 記憶装置、該記憶装置を含む情報処理装置および情報記憶システムのリカバリ方法 | |
US7069468B1 (en) | System and method for re-allocating storage area network resources | |
US7991951B2 (en) | Clustered storage network | |
US8495295B2 (en) | Mass storage system and method of operating thereof | |
US7356728B2 (en) | Redundant cluster network | |
TWI773152B (zh) | 伺服器與應用於伺服器的控制方法 | |
US8381027B1 (en) | Determining alternate paths in faulted systems | |
US7506201B2 (en) | System and method of repair management for RAID arrays | |
US10915405B2 (en) | Methods for handling storage element failures to reduce storage device failure rates and devices thereof | |
CN114691432A (zh) | 使用机架到机架存储链路电缆提高数据中心可用性的系统和方法 | |
Dell | ||
US11567834B2 (en) | Data center storage availability architecture using rack-level network fabric | |
US20190332293A1 (en) | Methods for managing group objects with different service level objectives for an application and devices thereof | |
US11366618B2 (en) | All flash array server and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |