CN110058964B - 数据恢复方法、数据恢复系统和计算机可读介质 - Google Patents

数据恢复方法、数据恢复系统和计算机可读介质 Download PDF

Info

Publication number
CN110058964B
CN110058964B CN201810050814.4A CN201810050814A CN110058964B CN 110058964 B CN110058964 B CN 110058964B CN 201810050814 A CN201810050814 A CN 201810050814A CN 110058964 B CN110058964 B CN 110058964B
Authority
CN
China
Prior art keywords
cache
page
user data
volatile
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810050814.4A
Other languages
English (en)
Other versions
CN110058964A (zh
Inventor
徐鑫磊
高健
杨利锋
汤海鹰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN201810050814.4A priority Critical patent/CN110058964B/zh
Priority to US16/249,166 priority patent/US10860481B2/en
Publication of CN110058964A publication Critical patent/CN110058964A/zh
Application granted granted Critical
Publication of CN110058964B publication Critical patent/CN110058964B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • G06F12/121Replacement control using replacement algorithms
    • G06F12/128Replacement control using replacement algorithms adapted to multidimensional cache systems, e.g. set-associative, multicache, multiset or multilevel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1435Saving, restoring, recovering or retrying at system level using file system or storage system metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2082Data synchronisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0679Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1032Reliability improvement, data loss prevention, degraded operation etc
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/22Employing cache memory using specific memory technology
    • G06F2212/225Hybrid cache memory, e.g. having both volatile and non-volatile portions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/28Using a specific disk cache architecture
    • G06F2212/285Redundant cache memory
    • G06F2212/286Mirrored cache memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/46Caching storage objects of specific type in disk cache
    • G06F2212/466Metadata, control data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/65Details of virtual memory and virtual address translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开的实施例涉及确定数据恢复方法、数据恢复系统和计算机程序产品。该方法包括响应于在第一高速缓存单元处接收到要写入的数据,将数据中的元数据存储在第一高速缓存单元的第一非易失性高速缓存中。该方法还包括将数据中的用户数据存储在第一高速缓存单元的第一易失性高速缓存中。该方法还包括向第二高速缓存单元发送元数据和用户数据,以用于对用户数据进行数据恢复。使用本公开的技术方案,可以在无需增大电池供电能力甚至无需电池的情况下为高速缓存数据备份/恢复系统提供更大并且更有保障的数据存储空间。

Description

数据恢复方法、数据恢复系统和计算机可读介质
技术领域
本公开的实施例总体上涉及数据存储领域,具体地涉及数据恢复方法、数据恢复系统和计算机程序产品。
背景技术
存储装置阵列通常在将被写入阵列的主机数据写入阵列的持久存储设备(例如,HDD或者SSD驱动)之前使用动态随机存取存储器(DRAM)来缓冲数据,这种DRAM经常被称为写入高速缓存并且可以与阵列内的读取高速缓存组合或者作为分离的高速缓存被维持。如果存储系统能够一旦当主机数据在DRAM中就将主机写入确认为完成,而不是等待直至主机数据被写入到存储设备才将主机写入确认为完成,则阵列可以提供更高的I/O性能。
在当前的存储系统中,DRAM高速缓存可以充当读取和写入高速缓存,并且可以服务于用户读取/写入I/O。在DRAM中总是存在脏数据,这是因为DRAM高速缓存需要存储数据以等待被冲刷到后端驱动。但是,由于DRAM高速缓存作为一种随机存储存储器是易失性存储器,因此如果掉电则DRAM高速缓存中的所有数据都将丢失。为此,当前的存储系统在包括DRAM高速缓存的每个存储处理器(SP)中都设置了电池。当存储处理器掉电时,电池将保持SP运行从而使得可以将DRAM高速缓存中的数据倾泻到板载驱动(例如,SSD)中。因此,电池的容量将限制DRAM高速缓存的大小,例如,将其限制为10Gb或更小。由于SP中的DRAM高速缓存的大小不足,从而导致DRAM高速缓存容易被用尽,此时SP会开始对用户I/O进行节流,从而导致I/O响应时间迅速增加。
发明内容
本公开的实施例提供了数据恢复方法、数据恢复系统和计算机程序产品。
在本公开的第一方面,提供了一种数据恢复方法。该方法包括:响应于在第一高速缓存单元处接收到要写入的数据,将所述数据中的元数据存储在所述第一高速缓存单元的第一非易失性高速缓存中;将所述数据中的用户数据存储在所述第一高速缓存单元的第一易失性高速缓存中;以及向第二高速缓存单元发送所述元数据和所述用户数据,以用于对所述用户数据进行数据恢复。
在本公开的第二方面,提供了一种数据恢复方法。该方法包括:在第二高速缓存单元处从第一高速缓存单元接收数据中的元数据和用户数据;以及将所述元数据和所述用户数据存储在所述第二高速缓存单元中的第二非易失性高速缓存中。
在本公开的第三方面,提供了一种数据恢复系统。该系统包括:第一高速缓存单元;第二高速缓存单元;以及至少一个处理单元,被配置用于:响应于在所述第一高速缓存单元处接收到要写入的数据,将所述数据中的元数据存储在所述第一高速缓存单元的第一非易失性高速缓存中;将所述数据中的用户数据存储在所述第一高速缓存单元的第一易失性高速缓存中;以及向所述第二高速缓存单元发送所述元数据和所述用户数据,以用于对所述用户数据进行数据恢复。
在本公开的第四方面,提供了一种数据恢复系统。该系统包括:第一高速缓存单元;第二高速缓存单元;以及至少一个处理单元,被配置用于:在所述第二高速缓存单元处从所述第一高速缓存单元接收数据中的元数据和用户数据;以及将所述元数据和所述用户数据存储在所述第二高速缓存单元中的第二非易失性高速缓存中。
在本公开的第五方面,提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行使得机器执行根据本公开的第一方面所描述的方法的任意步骤。
在本公开的第六方面,提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行使得机器执行根据本公开的第二方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了根据本公开的实施例的高速缓存数据备份/恢复系统100的架构图;
图2示出了现有技术中的高速缓存数据备份/恢复系统100’的架构图;
图3示出了根据本公开的实施例的非易失性双列直插存储器模块300的示意图;
图4示出了根据本公开的实施例的成对高速缓存单元400的示意图;
图5示出了根据本公开的实施例的高速缓存存储器空间的空间来源500的示意图;
图6示出了根据本公开的实施例的高速缓存存储器空间的存储内容600的示意图;
图7示出了根据本公开的实施例的高速缓存数据备份/恢复系统100的更详细示意图;
图8示出了根据本公开的实施例的数据恢复方法800的流程图;
图9示出了根据本公开的实施例的数据恢复方法900的流程图;
图10A至图10C(以下统称为图10)示出了根据本公开的实施例的第一高速缓存单元与第二高速缓存单元的操作过程1000的示意图;
图11示出了可以用来实施本公开内容的实施例的示例设备1100的示意性框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以按照各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
图1示出了根据本公开的实施例的高速缓存数据备份/恢复系统100的架构图。如图1中所示,高速缓存数据备份/恢复系统100包括第一高速缓存单元110和第二高速缓存单元120。在第一高速缓存单元110和第二高速缓存单元120之间进行数据传送以实现数据备份和数据恢复。具体而言,第一高速缓存单元110和第二高速缓存单元120中的每个高速缓存单元为另一高速缓存单元提供数据备份和数据恢复。
如以上在背景技术中所描述的,由于SP中的DRAM高速缓存的大小不足,从而导致DRAM高速缓存容易被用尽,进而会导致I/O响应时间迅速增加。
具体而言,图2示出了现有技术中的高速缓存数据备份/恢复系统100’的架构图。高速缓存数据备份/恢复系统100’例如可以包括两个SP,即,SPA 110’和SPB 120’。在现有技术中的高速缓存数据备份/恢复系统100’中,为了在单个SP掉电或者故障时提供对SP中的DRAM高速缓存中的脏数据的访问,高速缓存数据备份/恢复系统100’会将写入I/O镜像到两个SP中的DRAM高速缓存中。传统DRAM高速缓存仅使用DRAM作为高速缓存介质来高速缓存最热数据,并且服务于主机读取/写入I/O,因此在图2的SPA 110’和SPB 120’中的存储器中仅包括DRAM高速缓存。
在图2中以数字1-6的形式示出了对写入I/O进行处理时的步骤。如图2中所示,步骤1表示SPA 110’接收到写入I/O,步骤2和步骤3表示在SPA 110’与SPB 120’之间进行写入数据中的元数据的同步,步骤4和步骤5表示将写入数据中的用户数据分别镜像到SPA 110’与SPB 120’中的DRAM高速缓存中,步骤6表示SPA 110’向发送该写入I/O的上层(驱动器)系统做出指示写入完成的响应。如图2中所示,在SPA 110’和SPB 120’之间的数据传送通过PCI-E接口进行。由于SPA 110’与SPB 120’中的每个SP均需要为另一SP镜像数据以用于恢复另一SP中的用户数据,因此当SPA 110’与SPB 120’中DRAM高速缓存处理写入I/O时,DRAM高速缓存空间可能会减少为一半,从而进一步导致DRAM高速缓存空间的不足。同时,由于SPA110’与SPB 120’中的DRAM高速缓存均为易失性存储器,因此如果一个SP掉电,则这个SP中的全部数据均会丢失,此时需要将另一SP中的全部数据镜像到这一SP中。此外,如果两个SP均掉电,则两个SP中的全部数据均会丢失。
为了至少部分地克服现有技术中存在的上述问题。本公开的实施例提供了数据恢复方案,用以在无需增大电池供电能力甚至无需电池的情况下,为高速缓存数据备份/恢复系统提供更大并且更有保障的数据存储空间。
本公开的实施例在高速缓存数据备份/恢复系统100中使用了非易失性双列直插存储器模块(NVDIMM)。NVDIMM是用于计算机的随机存储存储器,其中“非易失性”意味着即使在由于非预期掉电、系统宕机或者正常关机而使NVDIMM丧失电力支持,NVDIMM也仍然保持存储于其中的数据不被丢失,而“双列直插”则意味着将这种存储器标识为使用DIMM包。使用NVDIMM可以改善应用性能、数据安全性以及系统宕机恢复时间。
基于上述NVDIMM,近年来已经开发了一些快速非易失性技术,例如,3d Xpoint。这些快速非易失性技术具有低延时和高容量,更多的订货商将非易失性性存储器(NVM)、较小DRAM高速缓存(其容量通常为NVM容量的5%~10%)与快速/低延时的处理单元(例如,CPU)集成,从而使得可以在不使用超级电容的情况下实现NVDIMM,进而可以避免用于传统NVDIMM的不稳定生命周期的弱点,并且可以降低价格。这种新的NVDIMM的容量可以增长到数百GB或者甚至TB。上述NVDIMM可以如图3中所示。在图3中,示出了根据本公开的实施例的非易失性双列直插存储器模块300的示意图。这些类型的NVDIMM的价格在DRAM与SSD之间,并且在I/O延时方面遵循以下顺序,DRAM<NVDIMM<NVMe<SSD,即,NVDIMM的延时大于DRAM的延时,但是小于SSD的延时。因此,在高速缓存数据备份/恢复系统中使用NVDIMM可以在保持价格经济的情况下实现更佳的存储容量和存储速度。
在本公开的实施例中,将NVDIMM集成到SP的外壳中以形成新的高速缓存单元,从而将仅包括DRAM高速缓存的高速缓存单元优化为具有混合高速缓存的高速缓存单元。
图4示出了根据本公开的实施例的成对高速缓存单元400的示意图。图4中包括第一高速缓存单元110和第二高速缓存单元120这一对高速缓存单元。如图4中所示,第一高速缓存单元110和第二高速缓存单元120中的每个高速缓存单元中均包括作为处理单元的CPU以及多个DRAM高速缓存和多个NVDIMM高速缓存。应当理解,图4中所示出的CPU、DRAM高速缓存以及多个NVDIMM高速缓存的数目仅为示例,而并非旨在于以任何方式显示本公开的范围。如图4中所示,CPU通过双列直插(DIMM)的形式分别与DRAM和NVDIMM连接并且进行数据和指令的传送。同时,第一高速缓存单元110和第二高速缓存单元120通过通信管理器接口(CMI)来进行数据传送。应当理解,上述数据和指令的传送形式仅为示例,而并非旨在于以任何方式显示本公开的范围。实际上,对于高速缓存数据备份/恢复系统而言,由于其本身具有DIMM插口,因此只需将NVDIMM插入到DIMM插口中即可以实现对高速缓存单元的组装。
根据本公开的实施例,当通过将NVDIMM集成到高速缓存单元而形成了如4中所示的分别具有DRAM高速缓存和NVDIMM高速缓存的第一高速缓存单元110和第二高速缓存单元120后,第一高速缓存单元110和第二高速缓存单元120中的每个高速缓存会具有统一的高速缓存存储器空间。
图5示出了根据本公开的实施例的高速缓存存储器空间的空间来源500的示意图。如图5中所示,上述统一的高速缓存存储器空间分别包括第一存储器空间和第二存储器空间。第一存储器空间来自DRAM高速缓存,而第二存储器空间来自NVDIMM高速缓存。
根据本公开的实施例,如图5中所示的第一存储器空间和第二存储器空间可以分别存储不同的内容。图6示出了根据本公开的实施例的高速缓存存储器空间的存储内容600的示意图。如图6中所示,第一存储器空间存储干净页面,而第二存储器空间存储元数据和脏页面。换句话说,存储器中的所有干净页面被映射到第一存储器空间,而所有元数据和脏页面被映射到第二存储器空间。
以下详细地描述根据本公开的实施例的高速缓存数据备份/恢复系统100的结构。参照图7,其示出了根据本公开的实施例的高速缓存数据备份/恢复系统100的更详细示意图。如图7中所示,数据备份/恢复系统100包括第一高速缓存单元110和第二高速缓存单元120,其中第一高速缓存单元110包括第一易失性高速缓存112和第一非易失性高速缓存114,并且第二高速缓存单元120包括第二易失性高速缓存122和第二非易失性高速缓存124。
应当理解,第一易失性高速缓存112和第二易失性高速缓存122可以对应于DRAM高速缓存,并且第一非易失性高速缓存114和第二非易失性高速缓存124可以对应于NVDIMM。然而,上述对应关系仅为示例,而并非旨在于以任何方式显示本公开的范围。
图7的根据本公开的实施例的高速缓存数据备份/恢复系统100与图2的根据现有技术的高速缓存数据备份/恢复系统100’结构上的主要不同在于:添加了第一非易失性高速缓存114和第二非易失性高速缓存124。应当理解,尽管在图7中的第一高速缓存单元110和第二高速缓存单元120中并未具体示出相应的处理单元,但是在它们中可以包括处理单元,并且可以由处理单元来执行相应的操作。此处在图7中未包括处理单元仅仅是为了以简洁的形式来描述本公开的实施例,而并非旨在于以任何方式显示本公开的范围。
在图7中以数字1-6的形式示出了高速缓存数据备份/恢复系统100对写入I/O进行处理时的步骤。
总体而言,当第一高速缓存单元110接收到写入I/O时,该写入I/O中的用户数据将以脏页面的形式被高速缓存,而后第一高速缓存单元110将对发送该写入I/O的上层(驱动器)系统做出指示写入完成的响应。存储了用户数据的脏页面将被存储在第一高速缓存单元110的第一易失性高速缓存112中以用于可能的快速使用,并且被存储在第二高速缓存单元120的第二非易失性高速缓存124中以用于备份和恢复。应当理解,上述写入I/O来自上层(驱动器)系统仅为示例,而并非旨在于以任何方式显示本公开的范围。根据本公开的实施例,写入I/O可以来自上层系统、外部系统、中间部件或者任何可能向高速缓存数据备份/恢复系统100发送或者转发写入I/O的元件或者单元。
具体而言,在图7中,步骤1表示第一高速缓存单元110接收到写入I/O,步骤2和步骤3表示在第一高速缓存单元110与第二高速缓存单元120之间进行写入数据中的元数据的同步(也可以被称为元数据通信),步骤4和步骤5表示将写入数据中的用户数据分别存储到第一高速缓存单元110的第一易失性高速缓存112与第二高速缓存单元120的第二非易失性高速缓存124,步骤6表示第一高速缓存单元110向发送该写入I/O的上层(驱动器)系统做出指示写入完成的响应。与图2中所示的类似,在第一高速缓存单元110与第二高速缓存单元120之间的数据传送通过PCI-E接口进行。
根据本公开的实施例,将存储由第一高速缓存单元110接收到的用户数据的脏页面高速缓存在第一易失性高速缓存112和第二非易失性高速缓存124中主要出于以下考虑:首先,对于I/O响应速度而言,第一易失性高速缓存112和第二易失性高速缓存122的I/O响应速度通常比第一非易失性高速缓存114和第二非易失性高速缓存124的I/O响应速度快得多,例如,前者速度可以是后者速度的十倍甚至更快。此外,在第一高速缓存单元110已经接收到写入I/O后,相同逻辑单元号(LUN)和逻辑块地址(LBA)范围内的其他写入I/O和读取I/O同样被发送到第一高速缓存单元110的可能性很高。最后,在第一高速缓存单元110已经接收到写入I/O后,对于潜在的对于同一用户数据的读取I/O,将用户数据存储在第一易失性高速缓存112中显然对于读取I/O高速缓存命中而言效率更高。
基于图7中所示的根据本公开的实施例的高速缓存数据备份/恢复系统100的更详细示意图,以下参照图8至图10来详细描述根据本公开的实施例的数据恢复方法以及第一高速缓存单元110与第二高速缓存单元120的具体流程和操作。应当理解的是,以下描述的流程和操作还可以包括未示出的附加步骤和操作和/或可以省略所示出的步骤和操作,本公开的范围在此方面不受限制。
图8示出了根据本公开的实施例的数据恢复方法800的流程图。具体而言,方法800从第一高速缓存单元110的角度来描述进行数据恢复的流程。应当理解的是,方法800还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。
方法800开始于框802,在框802,第一高速缓存单元110响应于接收到来自上层系统的要写入的数据,将要写入的数据中的元数据存储在第一高速缓存单元110的第一非易失性高速缓存114中。
在框804,第一高速缓存单元110将要写入的数据中的用户数据存储在第一高速缓存单元110的第一易失性高速缓存112中。
在框806,第一高速缓存单元110向第二高速缓存单元120发送要写入的数据中的元数据和用户数据,以用于在需要时通过从第二高速缓存单元120接收上述用户数据来对用户数据进行数据恢复。
图9示出了根据本公开的实施例的数据恢复方法900的流程图。具体而言,方法800从第二高速缓存单元120的角度来描述进行数据恢复的流程。应当理解的是,方法900还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。
方法900开始于框902,在框902,第二高速缓存单元120从第一高速缓存单元110接收数据中的元数据和用户数据。应当理解,框902中的步骤可以与方法800中的框806中的步骤相对应。即,第二高速缓存单元120在框902中的步骤中接收到的元数据和用户数据可以是第一高速缓存单元110在方法800中的框806中的步骤中向第二高速缓存单元120发送的元数据和用户数据。
在框904,第二高速缓存单元120将在框902的步骤中接收到的元数据和用户数据存储在第二高速缓存单元120的第二非易失性高速缓存124中。
根据本公开的实施例,在方法800和方法900中,元数据被分别存储在第一高速缓存单元110的第一非易失性高速缓存114中以及第二高速缓存单元120的第二非易失性高速缓存124中。这是为了保证即使在第一高速缓存单元110和/或第二高速缓存单元120掉电的情况下元数据也不会丢失。这是因为根据本公开的实施例,要写入的数据中的元数据中包括要写入的数据中的用户数据的属性等信息。因此,在对用户数据进行恢复时,需要首先通过对比元数据来在第一非易失性高速缓存114和第二非易失性高速缓存124中找到对应的元数据,再通过找到的元数据来找到对应的用户数据。
图10A-图10C示出了根据本公开的实施例的第一高速缓存单元与第二高速缓存单元的操作过程1000的示意图。根据本公开的实施例,操作过程1000是对方法800和方法900的步骤的整合以及进一步细化。应当理解,操作过程1000并不是对方法800和方法900的步骤的唯一整合和细化方式,并且并未以任何形式对方法800和方法900进行限制。
操作过程1000由图10A、图10B和图10C共同示出。在图10A、图10B和图10C中,均包括以虚线框形式表示的第一高速缓存单元110和第二高速缓存单元120,其中在第一高速缓存单元110中示出的框表示这些框所代表的操作在第一高速缓存单元110中被执行,在第二高速缓存单元120中示出的框表示这些框所代表的操作在第二高速缓存单元120中被执行。具体而言,在第一高速缓存单元110中被执行的操作所对应的框的标号以“11”开始,在在第二高速缓存单元120中被执行的操作所对应的框的标号以“12”开始。
操作过程1000开始于框1102,在框1102中,第一高速缓存单元110接收写入I/O。根据本公开的实施例,上述写入I/O可以表示要写入的数据。
在框1104中,响应于接收到写入I/O,第一高速缓存单元110搜索自身的高速缓存哈希表,以确定在自身的高速缓存中是否存在高速缓存命中。根据本公开的实施例,这一步骤可以包括确定在第一高速缓存单元110中针对要写入的数据(尤其是针对要写入的数据中的用户数据)是否存在已分配高速缓存页面。
在框1106中,响应于在框1104中确定存在高速缓存命中,即,在第一高速缓存单元110中针对用户数据存在已分配高速缓存页面,操作过程前进到框1108;否则,操作过程前进到A,即,在图10B中示出的操作过程。
在框1108中,确定高速缓存命中所针对的页面是否是干净页面。根据本公开的实施例,这一步骤可以包括确定在第一高速缓存单元110中存在的已分配高速缓存页面是否是干净页面。响应于该页面是干净页面,操作过程前进到框1110;否则,操作过程前进到B,即,在图10C中示出的操作过程。
在框1110中,第一高速缓存单元110与第二高速缓存单元120同步元数据,其中可以包括第一高速缓存单元110向第二高速缓存单元120发送元数据同步请求。根据本公开的实施例,第一高速缓存单元110执行与第二高速缓存单元120的元数据同步可以包括第一高速缓存单元110将要写入的数据中的元数据存储在第一非易失性高速缓存114中,以及向第二高速缓存单元120发送该元数据。
在框1202中,响应于从第一高速缓存单元110接收到元数据同步请求,第二高速缓存单元120执行元数据同步,并且请求锁定第二非易失性高速缓存124中的将用于存储要写入的数据中的用户数据的页面。根据本公开的实施例,第二高速缓存单元120通过将从第一高速缓存单元110接收到的元数据存储在第二非易失性高速缓存124中来执行与第一高速缓存单元110的元数据同步。
在框1204中,响应于在框1202中的用来进行页面锁定的请求,第二高速缓存单元120进行页面锁定。如果页面锁定成功,则第二高速缓存单元120向第一高速缓存单元110发送指示页面锁定成功的消息,操作过程前进到框1112。如果页面锁定失败,则说明针对试图锁定的页面存在未决的I/O,此时第二高速缓存单元120等待该未决的I/O完成后继续对该页面进行页面锁定。
在框1112中,第一高速缓存单元110响应于从第二高速缓存单元120接收到指示页面锁定成功的消息,确定元数据同步完成。
在框1114中,响应于确定元数据同步完成,第一高速缓存单元110将要写入的数据中的用户数据存储在第一易失性高速缓存112中。
在框1116中,第一高速缓存单元110向第二高速缓存单元120发送上述用户数据。
在框1206中,第二高速缓存单元120从第一高速缓存单元110接收上述用户数据。
在框1208中,响应于从第一高速缓存单元110接收到上述用户数据,第二高速缓存单元120将该用户数据存储在第二非易失性高速缓存124中,并且向第一高速缓存单元110发送指示用户数据存储完成的消息。
在框1118中,第一高速缓存单元110从第二高速缓存单元120接收指示用户数据存储完成的消息。
在框1120中,响应于从第二高速缓存单元120接收到指示用户数据存储完成的消息,第一高速缓存单元110向该写入I/O的发送方通知写入完成。
以上参照图10A描述了当在框1106中确定存在高速缓存命中并且在框1108中确定高速缓存命中所针对的页面是干净页面时操作过程1000所包括的操作。以下继续参照图10B来描述当在框1106中确定不存在高速缓存命中(即,高速缓存未命中)时操作过程1000所包括的操作。
在框1122中,响应于在框1106中确定不存在高速缓存命中,第一高速缓存单元110在第一易失性高速缓存112中分配页面,即,分配易失性高速缓存页面。
在框1124中,第一高速缓存单元110将在框1122中的操作中所分配的页面添加到自身的高速缓存哈希表中,以用于之后可能的搜索。根据本公开的实施例,新分配的页面在高速缓存单元的高速缓存哈希表中不具有对应的条目,因此需要将其添加到高速缓存哈希表中以便进行搜索。
在框1126中,第一高速缓存单元110与第二高速缓存单元120同步元数据,其中可以包括第一高速缓存单元110向第二高速缓存单元120发送元数据同步请求以及指示在第一高速缓存单元110不存在高速缓存命中的消息。根据本公开的实施例,当在框1106中确定不存在高速缓存命中时,在框1126中的操作中,第一高速缓存单元110执行与第二高速缓存单元120的元数据同步可以包括第一高速缓存单元110将要写入的数据中的元数据存储在第一非易失性高速缓存114中,向第二高速缓存单元120发送该元数据,以及向第二高速缓存单元120发送指示第一高速缓存单元110中针对该用户数据不存在已分配高速缓存页面的消息。
在框1210中,响应于从第一高速缓存单元110接收到元数据同步请求,第二高速缓存单元120执行元数据同步,并且在第二非易失性高速缓存124中分配页面,即,分配非易失性高速缓存页面。根据本公开的实施例,第二高速缓存单元120通过将从第一高速缓存单元110接收到的元数据存储在第二非易失性高速缓存124中来执行与第一高速缓存单元110的元数据同步。
在框1212中,第二高速缓存单元120请求锁定在框1210中的操作中分配的非易失性高速缓存页面。
在框1214中,响应于在框1202中的用来进行页面锁定的请求,第二高速缓存单元120进行页面锁定并且将该页面添加到第二高速缓存单元120自身的高速缓存哈希表中。由于该页面是新分配的页面,因此通常不会存在针对该页面的未决I/O。因此,在页面锁定成功后,第二高速缓存单元120向第一高速缓存单元110发送指示页面锁定成功的消息。
在框1128中,第一高速缓存单元110响应于从第二高速缓存单元120接收到指示页面锁定成功的消息,确定元数据同步完成。
在框1130中,响应于确定元数据同步完成,第一高速缓存单元110将要写入的数据中的用户数据存储在第一易失性高速缓存112中。
在框1132中,第一高速缓存单元110向第二高速缓存单元120发送上述用户数据。
在框1216中,第二高速缓存单元120从第一高速缓存单元110接收上述用户数据。
在框1218中,响应于从第一高速缓存单元110接收到上述用户数据,第二高速缓存单元120将该用户数据存储在第二非易失性高速缓存124中,并且向第一高速缓存单元110发送指示用户数据存储完成的消息。
在框1134中,第一高速缓存单元110从第二高速缓存单元120接收指示用户数据存储完成的消息。
在框1136中,响应于从第二高速缓存单元120接收到指示用户数据存储完成的消息,第一高速缓存单元110向该写入I/O的发送方通知写入完成。
以上参照图10B描述了当在框1106中确定不存在高速缓存命中(即,高速缓存未命中)时操作过程1000所包括的操作。以下继续参照图10C来描述当在框1108中确定高速缓存命中所针对的页面不是干净页面(即,在第一高速缓存单元110中存在的已分配高速缓存页面不是干净页面)时操作过程1000所包括的操作。
在框1138中,第一高速缓存单元110与第二高速缓存单元120同步元数据,其中可以包括第一高速缓存单元110向第二高速缓存单元120发送元数据同步请求。根据本公开的实施例,第一高速缓存单元110执行与第二高速缓存单元120的元数据同步可以包括第一高速缓存单元110将要写入的数据中的元数据存储在第一非易失性高速缓存114中,以及向第二高速缓存单元120发送该元数据。
在框1220中,响应于从第一高速缓存单元110接收到元数据同步请求,第二高速缓存单元120执行元数据同步,并且请求锁定第二非易失性高速缓存124中的将用于存储要写入的数据中的用户数据的页面。根据本公开的实施例,第二高速缓存单元120通过将从第一高速缓存单元110接收到的元数据存储在第二非易失性高速缓存124中来执行与第一高速缓存单元110的元数据同步。
在框1222中,响应于在框1220中的用来进行页面锁定的请求,第二高速缓存单元120进行页面锁定。如果页面锁定成功,则第二高速缓存单元120向第一高速缓存单元110发送指示页面锁定成功的消息,操作过程前进到框1140。如果页面锁定失败,则说明针对试图锁定的页面存在未决的I/O,此时第二高速缓存单元120等待该未决的I/O完成后继续对该页面进行页面锁定。
在框1140中,第一高速缓存单元110响应于从第二高速缓存单元120接收到指示页面锁定成功的消息,确定元数据同步完成。
在框1142中,响应于确定元数据同步完成,第一高速缓存单元110确定在框1108的操作中所确定的脏页面(由于在框1108中确定高速缓存命中所针对的页面不是干净页面,因此该页面为脏页面)是否在第一易失性高速缓存112中。如果该脏页面不在第一易失性高速缓存112中,则操作过程前进到框1144。如果该脏页面在第一易失性高速缓存112中,则操作过程前进到框1146。
在框1144中,响应于在框1142中确定脏页面不在第一易失性高速缓存112中,这意味着脏页面在第一非易失性高速缓存114中,此时,第一高速缓存单元110在第一易失性高速缓存112中分配页面,即,分配易失性高速缓存页面。
在框1146中,当响应于在框1142中确定脏页面在第一易失性高速缓存112中而进入到框1146时,第一高速缓存单元110在第一易失性高速缓存112中建立虚拟易失性高速缓存页面,并且通过该虚拟易失性高速缓存页面来将要写入的数据中的用户数据存储在第一易失性高速缓存112中的该脏页面(即,已分配高速缓存页面)中。根据本公开的实施例,当在框1108中确定高速缓存命中所针对的页面是脏页面时,此时由于命中的页面是脏页面,因而说明要写入的数据中的用户数据是用来替换该脏页面中的数据的。此时,可以先建立一个虚拟页面以存储要写入的数据中的用户数据,而后再将该用户数据写入该脏页面中以替换该脏页面中的原有数据。在框1146中,当响应于在框1144中在第一易失性高速缓存112中分配页面而进入到框1146时,第一高速缓存单元110在第一易失性高速缓存112中的分配的页面中存储要写入的数据中的用户数据。
在框1148中,第一高速缓存单元110向第二高速缓存单元120发送上述用户数据。
在框1224中,第二高速缓存单元120从第一高速缓存单元110接收上述用户数据。
在框1226中,响应于从第一高速缓存单元110接收到上述用户数据,第二高速缓存单元120将该用户数据存储在第二非易失性高速缓存124中。
在框1228中,响应于将该用户数据存储在第二非易失性高速缓存124中,第二高速缓存单元120确定旧数据(即,与在框1108的操作中所确定的脏页面中的数据相对应的数据)是否在第二易失性高速缓存122中。如果旧数据在第二易失性高速缓存122中,则操作过程前进到框1230。如果旧数据不在第二易失性高速缓存122中,即,在第二非易失性高速缓存124中,则操作过程前进到框1232。
在框1230中,响应于在框1228中确定旧数据在第二易失性高速缓存122中,第二高速缓存单元120将第二易失性高速缓存122中的、上述旧数据所在的易失性高速缓存页面无效。
在框1232中,响应于在框1228中确定旧数据不在第二易失性高速缓存122中或者在框1230中将第二易失性高速缓存122中的、上述旧数据所在的易失性高速缓存页面无效,第二高速缓存单元120向第一高速缓存单元110发送指示用户数据存储完成的消息。
在框1150中,第一高速缓存单元110从第二高速缓存单元120接收指示用户数据存储完成的消息。
在框1152,响应于在框1150中从第二高速缓存单元120接收到指示用户数据存储完成的消息,第一高速缓存单元110确定旧数据(即,与在框1108的操作中所确定的脏页面中的数据相对应的数据)是否在第一易失性高速缓存112中。如果旧数据在第二易失性高速缓存112中,则操作过程前进到框1154。如果旧数据不在第二易失性高速缓存112中,即,在第一非易失性高速缓存114中,则操作过程前进到框1156。
在框1154中,响应于在框1152中确定旧数据在第一易失性高速缓存112中,第一高速缓存单元110将第一易失性高速缓存112中的、在框1146中分配的已分配高速缓存页面无效。
在框1156中,响应于在框1152中确定旧数据不在第二易失性高速缓存112中或者在框1154中将第一易失性高速缓存112中的、在框1146中分配的已分配高速缓存页面无效,第一高速缓存单元110向该写入I/O的发送方通知写入完成。
以上参照图10C描述当在框1108中确定高速缓存命中所针对的页面不是干净页面(即,在第一高速缓存单元110中存在的已分配高速缓存页面不是干净页面)时操作过程1000所包括的操作。应当理解,图10中的步骤并不全是必须的,根据本公开的实施例,可以根据需要来对图10中的步骤进行合并、添加和删除等各种可行的调整,而不会影响本公开的保护范围。
以上参照图10描述了根据本公开的实施例的第一高速缓存单元与第二高速缓存单元的操作过程1000,操作过程1000主要涉及将写入I/O数据中的元数据和用户数据分别写入第一高速缓存单元110和第二高速缓存单元120中。例如,元数据被分别写入到第一非易失性高速缓存114和第二非易失性高速缓存124,用户数据被分别写入到第一易失性高速缓存112和第二非易失性高速缓存124。当出于重启等原因而导致第一高速缓存单元110中的第一易失性高速缓存112中的用户数据丢失时,可以通过从第二高速缓存单元120中的第二非易失性高速缓存124获取该用户数据来在第一易失性高速缓存112中恢复该用户数据。
具体而言,第一高速缓存单元110可以向第二高速缓存单元120请求在第二非易失性高速缓存124中存储的元数据和用户数据。在从第二非易失性高速缓存124获得了元数据之后,第一高速缓存单元110将在第一非易失性高速缓存114中存储的元数据与上述获得的元数据比较,从而确定与第一易失性高速缓存112中的丢失的用户数据对应的用户数据。在确定该对应的用户数据是最新的时,后第一高速缓存单元110使用从第二非易失性高速缓存124获得的用户数据来恢复第一易失性高速缓存112中的丢失的用户数据。
特别地,当第一高速缓存单元110和第二高速缓存单元120先后或者同时例如断电,从而导致第一易失性高速缓存112和第二易失性高速缓存122中的用户数据均丢失时,第一高速缓存单元110和第二高速缓存单元120先后进行元数据比较,确定对应的用户数据并且确定该对应的用户数据是否是最新的。在确定了最新的用户数据后,第一高速缓存单元110和第二高速缓存单元120各自恢复第一易失性高速缓存112和第二易失性高速缓存122中丢失的用户数据。
特别地,例如,当第二高速缓存单元120由于严重故障而变得根本不可用时,第一高速缓存单元110可以将第一易失性高速缓存112中的用户数据映射到第一非易失性高速缓存124中,以避免在第一高速缓存单元110掉电时第一易失性高速缓存112中的用户数据丢失。
需要注意的是,根据本公开的实施例,尽管实现本公开的技术方案可以无需对硬件继续修改,但是应通过修改BIOS等方式来避免NVDIMM高速缓存中的数据在重启等情况中被消除。例如,可以通过设置来避免BIOS向NVDIMM高速缓存存储器空间中写入0。
通过以上参考图1至图10的描述,可以看出,根据本公开的实施例的技术方案相对于现有技术具有诸多优点。使用本公开的实施例的技术方案,可以克服现有技术中的由于DRAM高速缓存的大小不足从而导致DRAM高速缓存容易被用尽,进而会导致I/O响应时间迅速增加的问题。具体而言,本公开的实施例中提供的技术方案使得可以在无需增大电池供电能力甚至无需电池的情况下为高速缓存数据备份/恢复系统提供更大并且更有保障的数据存储空间。此外,本公开的实施例中提供的技术方案可以使用现有高速缓存数据备份/恢复系统、通过将NVDIMM高速缓存集成到DRAM高速缓存中而被容易地实现,并且无需对硬件或者平台进行任何改变,因而具有易于实现的优点。最后,本公开的实施例中提供的技术方案使得可以容易地并且经济地扩充高速缓存数据备份/恢复系统中的高速缓存的空间,从而可以进一步改进平台的整体I/O性能。
图11图示出了可以用来实施本公开内容的实施例的示例设备1100的示意性框图。如图所示,设备1100包括中央处理单元(CPU)11001,其可以根据存储在只读存储器(ROM)11002中的计算机程序指令或者从存储单元11008加载到随机访问存储器(RAM)11003中的计算机程序指令,来执行各种适当的动作和处理。在RAM 11003中,还可存储设备11000操作所需的各种程序和数据。CPU 11001、ROM 11002以及RAM 11003通过总线11004彼此相连。输入/输出(I/O)接口11005也连接至总线11004。
设备11000中的多个部件连接至I/O接口11005,包括:输入单元11006,例如键盘、鼠标等;输出单元11007,例如各种类型的显示器、扬声器等;存储单元11008,例如磁盘、光盘等;以及通信单元11009,例如网卡、调制解调器、无线通信收发机等。通信单元11009允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法800、方法900和操作过程1000,可由处理单元11001执行。例如,在一些实施例中,方法800、方法900和操作过程1000可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元11008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 11002和/或通信单元11009而被载入和/或安装到设备1100上。当计算机程序被加载到RAM 11003并由CPU 11001执行时,可以执行上文描述方法800、方法900和操作过程1000的一个或多个动作。
本公开可以是方法、设备、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是、但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、设备(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (32)

1.一种数据恢复方法,包括:
响应于在第一高速缓存单元处接收到要写入的数据,将所述数据中的元数据存储在所述第一高速缓存单元的第一非易失性高速缓存中;
将所述数据中的用户数据存储在所述第一高速缓存单元的第一易失性高速缓存中;以及
向第二高速缓存单元发送所述元数据和所述用户数据,以用于对所述用户数据进行数据恢复。
2.根据权利要求1所述的方法,其中向所述第二高速缓存单元发送所述元数据和所述用户数据包括:
向所述第二高速缓存单元发送所述元数据;
从所述第二高速缓存单元接收指示所述元数据是否被成功存储的消息;以及
响应于所述消息指示所述元数据被成功存储,向所述第二高速缓存单元发送所述用户数据。
3.根据权利要求1所述的方法,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中不存在所述已分配高速缓存页面,在所述第一易失性高速缓存中分配易失性高速缓存页面;以及
将所述用户数据存储在分配的所述易失性高速缓存页面中。
4.根据权利要求3所述的方法,还包括:
向所述第二高速缓存单元发送指示所述第一高速缓存单元中针对所述用户数据不存在所述已分配高速缓存页面的消息。
5.根据权利要求1所述的方法,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中存在所述已分配高速缓存页面,确定所述已分配高速缓存页面是否是干净页面;以及
响应于确定所述已分配高速缓存页面是所述干净页面,将所述用户数据存储在所述已分配高速缓存页面中。
6.根据权利要求1所述的方法,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中存在所述已分配高速缓存页面,确定所述已分配高速缓存页面是否是干净页面;
响应于确定所述已分配高速缓存页面不是所述干净页面,确定所述已分配高速缓存页面是否在所述第一易失性高速缓存中;
响应于确定所述已分配高速缓存页面在所述第一易失性高速缓存中,在所述第一易失性高速缓存中建立虚拟易失性高速缓存页面;以及
通过所述虚拟易失性高速缓存页面将所述用户数据存储在所述已分配高速缓存页面中。
7.根据权利要求1所述的方法,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中存在所述已分配高速缓存页面,确定所述已分配高速缓存页面是否是干净页面;
响应于确定所述已分配高速缓存页面不是所述干净页面,确定所述已分配高速缓存页面是否在所述第一易失性高速缓存中;
响应于确定所述已分配高速缓存页面不在所述第一易失性高速缓存中,在所述第一易失性高速缓存中分配易失性高速缓存页面;以及
将所述用户数据存储在分配的所述易失性高速缓存页面中。
8.根据权利要求7所述的方法,还包括:
向所述第二高速缓存单元发送指示所述已分配高速缓存页面不在所述第一易失性高速缓存中的消息。
9.根据权利要求7所述的方法,还包括:
响应于确定所述已分配高速缓存页面不在所述第一易失性高速缓存中,使所述已分配高速缓存页面无效。
10.根据权利要求1所述的方法,还包括:
从所述第二高速缓存单元接收指示所述用户数据是否被成功存储的消息。
11.根据权利要求1所述的方法,还包括:
响应于所述用户数据丢失,从所述第二高速缓存单元接收存储在所述第二高速缓存单元的第二非易失性高速缓存中的所述元数据和所述用户数据;以及
通过来自所述第二非易失性高速缓存中的所述元数据和所述用户数据来恢复丢失的所述用户数据。
12.根据权利要求1所述的方法,还包括:
响应于所述第二高速缓存单元不可用,将所述用户数据存储在所述第一非易失性高速缓存中。
13.根据权利要求1所述的方法,其中将所述数据中的所述元数据存储在所述第一非易失性高速缓存中包括:
仅在所述第一高速缓存单元的所述第一非易失性高速缓存中而不在所述第一高速缓存单元的所述第一易失性高速缓存中存储所述元数据;并且
其中将所述数据中的所述用户数据存储在所述第一易失性高速缓存中包括:
仅在所述第一高速缓存单元的所述第一易失性高速缓存中而不在所述第一高速缓存单元的所述第一非易失性高速缓存中存储所述元数据。
14.一种数据恢复方法,包括:
在第二高速缓存单元处从第一高速缓存单元接收数据中的元数据和用户数据;
将所述元数据和所述用户数据存储在所述第二高速缓存单元中的第二非易失性高速缓存中;
从所述第一高速缓存单元接收指示所述第一高速缓存单元中针对所述用户数据不存在已分配高速缓存页面的消息;以及
以下之一:
(i)响应于接收到所述消息,在所述第二非易失性高速缓存中分配非易失性高速缓存页面,所述元数据和所述用户数据被存储在分配的所述非易失性高速缓存页面,以及(ii)响应于接收到所述消息,使第二易失性高速缓存中的、与所述已分配高速缓存页面对应的易失性高速缓存页面无效。
15.根据权利要求14所述的方法,其中将所述元数据和所述用户数据存储在所述第二非易失性高速缓存中包括:
将所述元数据存储在所述第二非易失性高速缓存中;
向所述第一高速缓存单元发送所述元数据被成功存储的指示;
响应于从所述第一高速缓存单元接收所述用户数据,将所述用户数据存储在所述第二非易失性高速缓存中。
16.根据权利要求14所述的方法,还包括:
向所述第一高速缓存单元发送所述用户数据被成功存储的指示。
17.一种数据恢复系统,包括:
第一高速缓存单元;
第二高速缓存单元;以及
至少一个处理单元,被配置用于:
响应于在所述第一高速缓存单元处接收到要写入的数据,将所述数据中的元数据存储在所述第一高速缓存单元的第一非易失性高速缓存中,将所述数据中的用户数据存储在所述第一高速缓存单元的第一易失性高速缓存中,以及向所述第二高速缓存单元发送所述元数据和所述用户数据,以用于对所述用户数据进行数据恢复。
18.根据权利要求17所述的数据恢复系统,其中向所述第二高速缓存单元发送所述元数据和所述用户数据包括:
向所述第二高速缓存单元发送所述元数据;
从所述第二高速缓存单元接收指示所述元数据是否被成功存储的消息;以及
响应于所述消息指示所述元数据被成功存储,向所述第二高速缓存单元发送所述用户数据。
19.根据权利要求17所述的数据恢复系统,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中不存在所述已分配高速缓存页面,在所述第一易失性高速缓存中分配易失性高速缓存页面;以及
将所述用户数据存储在分配的所述易失性高速缓存页面中。
20.根据权利要求19所述的数据恢复系统,其中所述至少一个处理单元还被配置用于:
向所述第二高速缓存单元发送指示所述第一高速缓存单元中针对所述用户数据不存在所述已分配高速缓存页面的消息。
21.根据权利要求17所述的数据恢复系统,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中存在所述已分配高速缓存页面,确定所述已分配高速缓存页面是否是干净页面;以及
响应于确定所述已分配高速缓存页面是所述干净页面,将所述用户数据存储在所述已分配高速缓存页面中。
22.根据权利要求17所述的数据恢复系统,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中存在所述已分配高速缓存页面,确定所述已分配高速缓存页面是否是干净页面;
响应于确定所述已分配高速缓存页面不是所述干净页面,确定所述已分配高速缓存页面是否在所述第一易失性高速缓存中;
响应于确定所述已分配高速缓存页面在所述第一易失性高速缓存中,在所述第一易失性高速缓存中建立虚拟易失性高速缓存页面;以及
通过所述虚拟易失性高速缓存页面将所述用户数据存储在所述已分配高速缓存页面中。
23.根据权利要求17所述的数据恢复系统,其中将所述用户数据存储在所述第一易失性高速缓存中包括:
确定所述第一高速缓存单元中针对所述用户数据是否存在已分配高速缓存页面;
响应于确定所述第一高速缓存单元中存在所述已分配高速缓存页面,确定所述已分配高速缓存页面是否是干净页面;
响应于确定所述已分配高速缓存页面不是所述干净页面,确定所述已分配高速缓存页面是否在所述第一易失性高速缓存中;
响应于确定所述已分配高速缓存页面不在所述第一易失性高速缓存中,在所述第一易失性高速缓存中分配易失性高速缓存页面;以及
将所述用户数据存储在分配的所述易失性高速缓存页面中。
24.根据权利要求23所述的数据恢复系统,其中所述至少一个处理单元还被配置用于:
向所述第二高速缓存单元发送指示所述已分配高速缓存页面不在所述第一易失性高速缓存中的消息。
25.根据权利要求23所述的数据恢复系统,其中所述至少一个处理单元还被配置用于:
响应于确定所述已分配高速缓存页面不在所述第一易失性高速缓存中,使所述已分配高速缓存页面无效。
26.根据权利要求17所述的数据恢复系统,其中所述至少一个处理单元还被配置用于:
从所述第二高速缓存单元接收指示所述用户数据是否被成功存储的消息。
27.根据权利要求17所述的数据恢复系统,其中所述至少一个处理单元还被配置用于:
响应于所述用户数据丢失,从所述第二高速缓存单元接收存储在所述第二高速缓存单元的第二非易失性高速缓存中的所述元数据和所述用户数据;以及
通过来自所述第二非易失性高速缓存中的所述元数据和所述用户数据来恢复丢失的所述用户数据。
28.根据权利要求17所述的数据恢复系统,其中所述至少一个处理单元还被配置用于:
响应于所述第二高速缓存单元不可用,将所述用户数据存储在所述第一非易失性高速缓存中。
29.一种数据恢复系统,包括:
第一高速缓存单元;
第二高速缓存单元;以及
至少一个处理单元,被配置用于:
在所述第二高速缓存单元处从所述第一高速缓存单元接收数据中的元数据和用户数据;以及
将所述元数据和所述用户数据存储在所述第二高速缓存单元中的第二非易失性高速缓存中;
从所述第一高速缓存单元接收指示所述第一高速缓存单元中针对所述用户数据不存在已分配高速缓存页面的消息;以及
以下之一:
(i)响应于接收到所述消息,在所述第二非易失性高速缓存中分配非易失性高速缓存页面,所述元数据和所述用户数据被存储在分配的所述非易失性高速缓存页面,以及(ii)响应于接收到所述消息,使第二易失性高速缓存中的、与所述已分配高速缓存页面对应的易失性高速缓存页面无效。
30.根据权利要求29所述的系统,其中将所述元数据和所述用户数据存储在所述第二非易失性高速缓存中包括:
将所述元数据存储在所述第二非易失性高速缓存中;
向所述第一高速缓存单元发送所述元数据被成功存储的指示;
响应于从所述第一高速缓存单元接收所述用户数据,将所述用户数据存储在所述第二非易失性高速缓存中。
31.根据权利要求29所述的数据恢复系统,其中所述至少一个处理单元还被配置用于:
向所述第一高速缓存单元发送所述用户数据被成功存储的指示。
32.一种非瞬态计算机可读介质,存储指令集,所述指令集在被执行使得机器执行根据权利要求1至16中的任一权利要求所述的方法的步骤。
CN201810050814.4A 2018-01-18 2018-01-18 数据恢复方法、数据恢复系统和计算机可读介质 Active CN110058964B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810050814.4A CN110058964B (zh) 2018-01-18 2018-01-18 数据恢复方法、数据恢复系统和计算机可读介质
US16/249,166 US10860481B2 (en) 2018-01-18 2019-01-16 Data recovery method, data recovery system, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810050814.4A CN110058964B (zh) 2018-01-18 2018-01-18 数据恢复方法、数据恢复系统和计算机可读介质

Publications (2)

Publication Number Publication Date
CN110058964A CN110058964A (zh) 2019-07-26
CN110058964B true CN110058964B (zh) 2023-05-02

Family

ID=67212908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810050814.4A Active CN110058964B (zh) 2018-01-18 2018-01-18 数据恢复方法、数据恢复系统和计算机可读介质

Country Status (2)

Country Link
US (1) US10860481B2 (zh)
CN (1) CN110058964B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110058964B (zh) 2018-01-18 2023-05-02 伊姆西Ip控股有限责任公司 数据恢复方法、数据恢复系统和计算机可读介质
CN110413214B (zh) * 2018-04-28 2023-07-18 伊姆西Ip控股有限责任公司 用于存储管理的方法、设备和计算机程序产品
US10754798B1 (en) * 2019-09-11 2020-08-25 International Business Machines Corporation Link speed recovery in a data storage system
CN112765111A (zh) 2019-10-21 2021-05-07 伊姆西Ip控股有限责任公司 用于处理数据的方法、设备和计算机程序产品
CN112748854B (zh) 2019-10-30 2024-04-26 伊姆西Ip控股有限责任公司 对快速存储设备的优化访问
CN111324306B (zh) * 2020-02-16 2021-04-20 西安奥卡云数据科技有限公司 一种基于nvdimm的数据分类缓存分配方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104145252A (zh) * 2012-03-05 2014-11-12 国际商业机器公司 两级高速缓存系统中的自适应高速缓存提升

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6675264B2 (en) * 2001-05-07 2004-01-06 International Business Machines Corporation Method and apparatus for improving write performance in a cluster-based file system
US20030005219A1 (en) * 2001-06-29 2003-01-02 Royer Robert J. Partitioning cache metadata state
US7073029B2 (en) * 2003-01-27 2006-07-04 Hewlett-Packard Development Company, L.P. Storage system using fast storage and log-structured storage
US7024530B2 (en) * 2003-03-14 2006-04-04 International Business Machines Corporation Method, system, and program for establishing and using a point-in-time copy relationship
EP1690185A4 (en) * 2003-10-20 2007-04-04 Rhode Island Education UPPER MEMORY MEMORY STRUCTURE FOR STORAGE SERVERS
US7130957B2 (en) * 2004-02-10 2006-10-31 Sun Microsystems, Inc. Storage system structure for storing relational cache metadata
US7117310B2 (en) * 2004-02-18 2006-10-03 Lsi Logic Corporation Systems and methods for cache synchronization between redundant storage controllers
KR100755700B1 (ko) * 2005-12-27 2007-09-05 삼성전자주식회사 비휘발성 메모리가 캐쉬로 사용되는 저장 장치 및 그 관리방법
US7574566B2 (en) * 2006-09-21 2009-08-11 Sun Microsystems, Inc. System and method for efficient software cache coherence
US8706968B2 (en) * 2007-12-06 2014-04-22 Fusion-Io, Inc. Apparatus, system, and method for redundant write caching
US8489817B2 (en) * 2007-12-06 2013-07-16 Fusion-Io, Inc. Apparatus, system, and method for caching data
WO2008090525A2 (en) * 2007-01-25 2008-07-31 Nxp B.V. Hardware triggered data cache line pre-allocation
JP2008276646A (ja) * 2007-05-02 2008-11-13 Hitachi Ltd ストレージ装置及びストレージ装置におけるデータの管理方法
JP2009075759A (ja) * 2007-09-19 2009-04-09 Hitachi Ltd ストレージ装置及びストレージ装置におけるデータの管理方法
JP5466953B2 (ja) * 2008-02-08 2014-04-09 富士通株式会社 バックアップ方法及びディスクアレイシステム
US7908512B2 (en) * 2008-03-05 2011-03-15 International Business Machines Corporation Method and system for cache-based dropped write protection in data storage systems
JP2010009141A (ja) * 2008-06-24 2010-01-14 Toshiba Corp データ転送方法
US20100205349A1 (en) * 2009-02-11 2010-08-12 Stec, Inc. Segmented-memory flash backed dram module
US8566639B2 (en) * 2009-02-11 2013-10-22 Stec, Inc. Flash backed DRAM module with state of health and/or status information accessible through a configuration data bus
US8327076B2 (en) * 2009-05-13 2012-12-04 Seagate Technology Llc Systems and methods of tiered caching
KR101717644B1 (ko) * 2009-09-08 2017-03-27 샌디스크 테크놀로지스 엘엘씨 고체-상태 저장 디바이스 상에서 데이터를 캐싱하는 장치, 시스템, 및 방법
US8954647B2 (en) * 2011-01-28 2015-02-10 Apple Inc. Systems and methods for redundantly storing metadata for non-volatile memory
US8499121B2 (en) * 2011-08-31 2013-07-30 Hewlett-Packard Development Company, L.P. Methods and apparatus to access data in non-volatile memory
US9104578B2 (en) * 2012-07-06 2015-08-11 Seagate Technology Llc Defining address ranges used to cache speculative read data
US9280469B1 (en) * 2012-12-28 2016-03-08 Emc Corporation Accelerating synchronization of certain types of cached data
US9229870B1 (en) 2013-06-27 2016-01-05 Emc Corporation Managing cache systems of storage systems
US9251064B2 (en) * 2014-01-08 2016-02-02 Netapp, Inc. NVRAM caching and logging in a storage system
US9354992B2 (en) * 2014-04-25 2016-05-31 Netapp, Inc. Interconnect path failover
US9507722B2 (en) * 2014-06-05 2016-11-29 Sandisk Technologies Llc Methods, systems, and computer readable media for solid state drive caching across a host bus
US9626116B1 (en) * 2015-06-22 2017-04-18 EMC IP Holding Company LLC Distributed service level objective management in active-active environments
US9916241B2 (en) * 2015-08-14 2018-03-13 Netapp, Inc. Storage controller caching using symmetric storage class memory devices
US9836404B2 (en) * 2015-08-14 2017-12-05 Netapp, Inc. Write mirroring to storage class memory devices
US9836232B1 (en) * 2015-09-30 2017-12-05 Western Digital Technologies, Inc. Data storage device and method for using secondary non-volatile memory for temporary metadata storage
US10019367B2 (en) * 2015-12-14 2018-07-10 Samsung Electronics Co., Ltd. Memory module, computing system having the same, and method for testing tag error thereof
US9880762B1 (en) * 2015-12-30 2018-01-30 EMC IP Holding Company LLC Compressing metadata blocks prior to writing the metadata blocks out to secondary storage
US9928168B2 (en) * 2016-01-11 2018-03-27 Qualcomm Incorporated Non-volatile random access system memory with DRAM program caching
US10067877B1 (en) * 2016-06-30 2018-09-04 EMC IP Holding Company LLC Method, apparatus and computer program product for use in managing multi-cache data storage systems
US10289339B2 (en) * 2017-02-28 2019-05-14 Dell Products, Lp System and method for storing modified data to an NVDIMM during a save operation
US10152422B1 (en) * 2017-06-13 2018-12-11 Seagate Technology Llc Page-based method for optimizing cache metadata updates
CN109213693B (zh) * 2017-06-30 2023-05-05 伊姆西Ip控股有限责任公司 存储管理方法、存储系统和计算机程序产品
CN110058964B (zh) 2018-01-18 2023-05-02 伊姆西Ip控股有限责任公司 数据恢复方法、数据恢复系统和计算机可读介质
US11016669B2 (en) * 2018-05-01 2021-05-25 Qualcomm Incorporated Persistent write data for energy-backed memory

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104145252A (zh) * 2012-03-05 2014-11-12 国际商业机器公司 两级高速缓存系统中的自适应高速缓存提升

Also Published As

Publication number Publication date
CN110058964A (zh) 2019-07-26
US20190220402A1 (en) 2019-07-18
US10860481B2 (en) 2020-12-08

Similar Documents

Publication Publication Date Title
CN110058964B (zh) 数据恢复方法、数据恢复系统和计算机可读介质
US11163658B2 (en) Methods, devices and computer readable mediums for managing storage system
US10983955B2 (en) Data unit cloning in memory-based file systems
US20150089185A1 (en) Managing Mirror Copies without Blocking Application I/O
CN109725825B (zh) 用于管理缓存的方法、设备和计算机程序产品
US9442858B2 (en) Solid state drives as a persistent cache for database systems
US9830088B2 (en) Optimized read access to shared data via monitoring of mirroring operations
CN108431783B (zh) 访问请求处理方法、装置及计算机系统
US10884926B2 (en) Method and system for distributed storage using client-side global persistent cache
US9104553B2 (en) Extending cache for an external storage system into individual servers
US11030092B2 (en) Access request processing method and apparatus, and computer system
KR20200060220A (ko) 비휘발성 메모리 기반 파일 시스템 및 이를 이용한 데이터 갱신 방법
US20210286734A1 (en) Persistent read cache in a scale out storage system
US11068299B1 (en) Managing file system metadata using persistent cache
WO2016206070A1 (zh) 一种文件更新方法及存储设备
CN112764662B (zh) 用于存储管理的方法、设备和计算机程序产品
CN103077099A (zh) 一种块级快照系统及基于该系统的用户读写方法
US11520818B2 (en) Method, apparatus and computer program product for managing metadata of storage object
CN113448877A (zh) 用于数据存储的方法、设备和计算机程序
US10210087B1 (en) Reducing index operations in a cache
EP3186729B1 (en) Methods for persisting data on nonvolatile memory for fast updates and instantaneous recovery and devices thereof
US10558618B1 (en) Metadata compression
US11106585B2 (en) System and method for deduplication aware read cache in a log structured storage array
KR101847861B1 (ko) 컴퓨팅 장치, 스토리지 장치 및 데이터 관리 방법
US20200341953A1 (en) Multi-node deduplication using hash assignment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant