TWI768693B - 用以進行全快閃記憶體陣列伺服器的資料存取管理的方法與設備 - Google Patents

用以進行全快閃記憶體陣列伺服器的資料存取管理的方法與設備 Download PDF

Info

Publication number
TWI768693B
TWI768693B TW110103686A TW110103686A TWI768693B TW I768693 B TWI768693 B TW I768693B TW 110103686 A TW110103686 A TW 110103686A TW 110103686 A TW110103686 A TW 110103686A TW I768693 B TWI768693 B TW I768693B
Authority
TW
Taiwan
Prior art keywords
node
data
program module
module
level program
Prior art date
Application number
TW110103686A
Other languages
English (en)
Other versions
TW202134880A (zh
Inventor
林義峰
Original Assignee
慧榮科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 慧榮科技股份有限公司 filed Critical 慧榮科技股份有限公司
Publication of TW202134880A publication Critical patent/TW202134880A/zh
Application granted granted Critical
Publication of TWI768693B publication Critical patent/TWI768693B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • G06F12/0868Data transfer between cache memory and other subsystems, e.g. storage devices or host systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1668Details of memory controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0688Non-volatile semiconductor memory arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1032Reliability improvement, data loss prevention, degraded operation etc
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1056Simplification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/15Use in a specific computing environment
    • G06F2212/154Networked environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/21Employing a record carrier using a specific recording technology
    • G06F2212/214Solid state disk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/26Using a specific storage system architecture
    • G06F2212/261Storage comprising a plurality of storage devices
    • G06F2212/262Storage comprising a plurality of storage devices configured as RAID
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/28Using a specific disk cache architecture
    • G06F2212/285Redundant cache memory
    • G06F2212/286Mirrored cache memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/31Providing disk cache in a specific location of a storage system
    • G06F2212/312In storage controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/65Details of virtual memory and virtual address translation
    • G06F2212/657Virtual address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7201Logical to physical mapping or translation of blocks or pages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7204Capacity control, e.g. partitioning, end-of-life degradation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7208Multiple device management, e.g. distributing data over multiple flash devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Hardware Redundancy (AREA)
  • Small-Scale Networks (AREA)

Abstract

用以進行全快閃記憶體陣列(AFA)伺服器的資料存取管理的方法及AFA伺服器。該方法包含:利用運行在一第一節點上的一上層程式模組來檢測是否接收到來自用戶的一客戶端裝置的任何請求;因應寫入請求,利用一中間層程式模組將對應於寫入請求的資料鏡像到一第二節點;以及在該中間層程式模組將該資料刷新至一下層程式模組之前,因應該資料從該第一節點的一第一揮發性記憶體鏡像到該第二節點的一第二揮發性記憶體,在不檢查該資料是否在多個節點中的任一節點的任何非揮發性記憶體中受到保護的情況下,利用該中間層程式模組發送一確認至該客戶端裝置。

Description

用以進行全快閃記憶體陣列伺服器的資料存取管理的方法與 設備
本發明係關於記憶體控制,尤指一種用以進行全快閃記憶體陣列(All Flash Array,簡稱AFA)伺服器的資料存取管理的方法以及相關設備(apparatus)諸如AFA伺服器及其控制電路等。
資料儲存伺服器可以被設置為儲存一個或多個用戶的用戶資料,並且在現有技術中已經提出了針對資料儲存伺服器的各種控制方法,以便給用戶帶來良好的用戶體驗。由於非揮發性(Non-Volatile,NV)記憶體諸如快閃記憶體已經被廣泛應用於各種資料儲存裝置諸如固態硬碟(solid state drive,SSD)等,現有技術中提出將資料儲存伺服器用NV記憶體作為其儲存介質的非揮發性(NV)記憶體類型資料儲存伺服器來實現,例如其中安裝有多個SSD的AFA伺服器。但是,可能會出現某些問題。例如,存取該多個SSD中的任一SSD的快閃記憶體的管理會很複雜。為了確保這個SSD中的快閃記憶體的存取控制符合相關規範,這個SSD中的快閃記憶體的控制器通常配備有某些管理機制以妥善地管理其內部操作。雖然SSD製造商可能試著使SSD看起來像是替代硬式磁碟機(HDD)的不錯的解決方案,但是SSD的某些特性與HDD完全不同。如此一來,上述控制方法對於安裝有多個SSD的AFA伺服器可能變得不適合或無效,進而導致AFA伺服器的整體效能下降。因此,需要以在沒有副作用或較不會帶來副作用的情況下提供一種新穎的方法和相關的架構來解決這些問題。
本發明之一目的在於提供一種用以進行全快閃記憶體陣列(All Flash Array,簡稱AFA)伺服器的資料存取管理的方法與相關設備(例如AFA伺服器及其控制電路等),以解決上述的問題。
本發明之另一目的在於提供一種用以進行AFA伺服器的資料存取管理的方法與相關設備(例如AFA伺服器及其控制電路等),以保護AFA伺服器中的資料。
本發明一實施例揭示了一種用以進行一AFA伺服器的資料存取管理的方法,該方法包含:利用在該全快閃記憶體陣列伺服器的多個節點(node)的一第一節點上運行的多個程式模組中的一中間層程式模組上方的一上層程式模組來檢測是否接收到來自用戶的一客戶端裝置(client device)的任何請求,其中包含一寫入請求的至少一請求已被接收到;因應該寫入請求,利用該中間層程式模組透過該第一節點和一第二節點之間的至少一通信路徑將對應於該寫入請求的資料鏡像(mirror)到該多個節點中的該第二節點,其中該資料從該第一節點的一第一揮發性記憶體鏡像至該第二節點的一第二揮發性記憶體;以及在該中間層程式模組將該資料刷新(flush)到於該多個程式模組中的該中間層程式模組下方的一下層程式模組之前,因應該資料從該第一節點的該第一揮發性記憶體鏡像到該第二節點的該第二揮發性記憶體,利用該中間層程式模組透過該上層程式模組向該客戶端裝置發送對應於該寫入請求的一確認(Acknowledgement,Ack),而且無需檢查該資料是否在該多個節點中的任何一個中的任何非揮發性記憶體中受到保護。
本發明一實施例揭示了一種AFA伺服器,包含:多個節點以及複數 個固態硬碟(solid state drive,SSD),該多個節點,包含:一第一節點以及一第二節點,該第一節點,包含:至少一處理器,用以在一第一組程式模組的控制下控制該第一節點的操作;以及一第一揮發性記憶體,用以為該第一節點暫時儲存信息,該第二節點,包含:至少一處理器,用以在一第二組程式模組的控制下控制該第二節點的操作,其中該第二組程式模組分別與該第一組程式模組相同;以及一第二揮發性記憶體,用以為該第二節點暫時儲存信息,該複數個SSD包含:一第一SSD群組,對應於該第一節點;以及一第二SSD群組,對應於該第二節點,其中,在該第一節點上運行的該第一組程式模組中的一中間層程式模組上方的一上層程式模組檢測是否接收到來自用戶的一客戶端裝置的任何請求,其中包含一寫入請求的至少一請求已被接收到;因應該寫入請求,該中間層程式模組透過該第一節點和該第二節點之間的至少一通信路徑將對應於該寫入請求的資料鏡像(mirror)到該第二節點,其中該資料從該第一節點的該第一揮發性記憶體鏡像至該第二節點的該第二揮發性記憶體;以及在該中間層程式模組將該資料刷新(flush)到於該第一組程式模組中的該中間層程式模組下方的一下層程式模組之前,因應該資料從該第一節點的該第一揮發性記憶體鏡像到該第二節點的該第二揮發性記憶體,該中間層程式模組透過該上層程式模組向該客戶端裝置發送對應於該寫入請求的一確認(Acknowledgement,Ack),而且無需檢查該資料是否在該多個節點中的任何一個中的任何非揮發性記憶體中受到保護。
本發明的方法和相關設備(例如AFA伺服器及其控制電路等)可以提高整體效能,並依據該方法的多種控制方案保護資料,另外,本發明的方法和相關設備可以在沒有副作用或較不會帶來副作用的情況下解決現有技術的問題。
10A,10B:機架頂(TOR)交換機
12A,12B:固態硬碟(SSD)群組
100:全快閃記憶體陣列(AFA)伺服器
100A,100B:節點
100S:固態硬碟(SSD)
100R:背板電路
110A,110B:處理器
112:程式模組
112A,112B:程式模組
120A,120B:動態隨機存取記憶體(DRAM)
122A,122B:複製到快閃記憶體(C2F)固態硬碟(SSD)
130A,130B:網路介面(IF)模組
132A,132B,134A,134B:網路介面(IF)電路
140A,140B:非透明網橋(NTB)通信電路
150A,150B:主機板管理控制器(BMC)
152A,152B:暫存器電路
160A,160B:儲存介面(IF)模組
162A,162B,164A,164B:儲存介面(IF)電路
170A,170B:備用電源單元
S01~S11,S20~S32,S40~S44,S50~S56:步驟
第1圖是依據本發明一實施例的一全快閃記憶體陣列(All Flash Array,簡稱AFA)伺服器的示意圖。
第2圖是依據本發明一實施例中如第1圖所示的該AFA伺服器的某些實施細節的示意圖。
第3圖是依據本發明一實施例所繪示的如第1圖所示的該AFA伺服器的一雙節點架構的示意圖。
第4圖是依據本發明一實施例所繪示的如第1圖所示的多個節點的任一節點中的某些程式模組的示意圖。
第5圖是依據本發明一實施例所繪示的一種用以進行一AFA伺服器諸如第1圖所示的AFA伺服器的資料存取管理的方法的一寫入控制方案的示意圖。
第6圖是依據本發明一實施例的針對第5圖所示的該寫入控制方案的流程圖。
第7圖是依據本發明一實施例所繪示的用以進行該AFA伺服器的資料存取管理的方法的多個重映射(remapping)控制方案的示意圖,其中該AFA伺服器可具備在不同名稱空間的位址之間的某些重映射層。
第8圖是依據本發明一實施例所繪示的用以進行該AFA伺服器的資料存取管理的方法的一資料縮減控制方案的示意圖。
第9圖是依據本發明一實施例所繪示的用以進行該AFA伺服器的資料存取管理的方法中的某些映射關係和相關管理信息的示意圖。
第10圖是依據本發明一實施例的針對用以進行該AFA伺服器的資料存取管理的方法的一讀取控制方案的流程圖。
第11圖是依據本發明另一實施例的針對用以進行該AFA伺服器的資料存取管理的方法的一寫入控制方案的流程圖。
第1圖是依據本發明一實施例的一全快閃記憶體陣列(All Flash Array,簡稱AFA)伺服器100的示意圖。AFA伺服器100可以包含多個節點,諸如二節點,分別為節點100A和節點100B,其中該多個節點中的任一個(例如節點100A和節點100B的其中一個)可以具有與該多個節點中的另一個(例如節點100A和節點100B中的另一個)相同或相似的架構。例如,節點100A可包含可以被統稱為處理器110A的至少一處理器(例如,一個或多個處理器諸如一個或多個中央處理單元(Central Processing Units.CPU)),並包含一動態隨機存取記憶體(Dynamic Random Access Memory,DRAM)120A、一複製到快閃記憶體(Copy-to-Flash,簡稱C2F)固態硬碟(Solid State Drive,簡稱SSD)122A、包含有一個或多個網路介面(interface,IF)電路諸如網路介面電路132A和134A(分別標示為「網路IF CKT」以求簡明)的一網路介面(IF)模組130A、一非透明網橋(Non-Transparent Bridge,簡稱NTB)模組(或NTB)諸如一NTB通信電路140A(標示為「NTB CKT」以求簡明)、一主機板管理控制器(Board Management Controller,簡稱BMC)150A、一暫存器(register)電路152A(標示為「REG CKT」以求簡明)其耦接至BMC 150A、一儲存介面(IF)模組160A其包含一個或多個儲存介面電路諸如儲存介面電路162A和164A(分別標示為「儲存IF CKT」以求簡明)以及一備用電源諸如一備用電源單元170A(例如,電池),其中這些組件的至少一部分(例如,一部分或全部)可以藉由節點100A的總線彼此耦接,但本發明不限於此。依據某些實施例,節點100A的架構可以作不同變化。
相似地,節點100B可包含可以統稱為處理器110B的至少一處理器(例如,一個或多個處理器諸如一個或多個CPU),並包含一DRAM 120B、一C2F SSD 122B、包含有一個或多個網路介面(IF)電路諸如網路介面電路132B和 134B(分別標示為「Network IF CKT」以求簡明)的一網路介面(IF)模組130B、一NTB模組(或NTB)諸如一NTB通信電路140B標示為「NTB CKT」以求簡明)、一BMC 150B、一暫存器電路152B(標示為「Register CKT」以求簡明)其耦接至BMC 150B、一儲存介面(IF)模組160B其包含一個或多個儲存介面電路諸如儲存介面電路162B和164B(分別標示為「Storage IF CKT」以求簡明)以及一備用電源諸如一備用電源單元170B(例如,電池),其中這些組件的至少一部分(例如,一部分或全部)可以藉由節點100B的總線彼此耦接,但本發明不限於此。依據某些實施例,節點100B的架構可以作不同變化。
如第1圖所示,AFA伺服器100可以更包含耦接到節點100A和100B的多個SSD,諸如一SSD群組12A和一SSD群組12B,SSD群組12A和12B可以耦接到節點100A和100B,且可以預設分別連接/連線(link)到節點100A和100B,其中節點100A和100B與SSD群組12B和12A之間的虛線可指出多個可選的(optional)連線。舉例來說,節點100A可以利用儲存介面模組160A以啟動儲存介面電路164A和SSD群組12A之間的連線,以存取SSD群組12A中的資料,且節點100B可以利用儲存介面模組160B啟動儲存介面電路164B和SSD群組12B之間的連線,以進一步存取SSD群組12B中的資料。當需要時,節點100A和100B與SSD群組12A和12B之間的連線關係可以改變。例如節點100A可以利用儲存介面模組160A來啟動儲存介面電路162A和SSD群組12B之間的連線,以存取SSD群組12B中的資料,且節點100B可以利用儲存介面模組160B來啟動儲存介面電路162B和SSD群組12A之間的連線,以存取SSD群組12A中的資料。
運行著程式模組112A的處理器110A可用以控制節點100A的操作。DRAM 120A可用以緩衝資料(例如待寫入SSD群組12A的資料),並且C2F SSD 122A可用以將DRAM 120A中的緩衝後資料(簡稱“緩衝資料”)複製到C2F SSD 122A中的快閃記憶體中,以在需要時防止緩衝資料的資料遺失(data loss)。舉例 來說,C2F SSD 122A可以藉由安裝在節點100A內的主電路板(例如主機板或母板)上的一擴充卡諸如一M.2模組(例如具有符合M.2規範的連接器的電路板)來實現,其中C2F SSD 122A可以包含一儲存控制器、一個或多個快閃記憶體晶片等,但本發明不限於此。另外,包含有網路介面電路132A和134A的網路介面模組130A可用以將節點100A(例如該主電路板上的處理器110A、DRAM 120A等)藉由至少一網路交換機諸如機架頂(top-of-rack,可簡稱TOR)交換機10A和10B耦接到至少一網路(例如區域網路(Local Area Network,LAN)、廣域網路(Wide Area Network,WAN)、網際網路(Internet)等)。另外,包含儲存介面電路162A和164A的儲存介面模組160A可用以將節點100A(例如該主電路板上的處理器110A、DRAM 120A等)耦接到多個快閃儲存裝置(例如節點100A和100B共享的SSD群組12A和12B),用以存取(例如讀取或寫入)該多個快閃儲存裝置中的資料。如此一來,AFA伺服器100可用以藉由節點100A提供用戶儲存服務。
相似地,運行著程式模組112B的處理器110B可用以控制節點100B的操作。DRAM 120B可用以緩衝資料(例如待寫入SSD群組12B的資料),並且C2F SSD 122B可用以將DRAM 120B中的緩衝後資料(簡稱“緩衝資料”)複製到C2F SSD 122B中的快閃記憶體中,以在需要時防止緩衝資料的資料遺失。舉例來說,C2F SSD 122B可以藉由安裝在節點100B內的主電路板(例如主機板或母板)上的一擴充卡諸如一M.2模組(例如具有符合M.2規範的連接器的電路板)來實現,其中C2F SSD 122B可以包含一儲存控制器、一個或多個快閃記憶體晶片等,但本發明不限於此。另外,包含有網路電路132B和134B的網路介面模組130B可用以將節點100B(例如該主電路板上的處理器110B、DRAM 120B等)藉由至少一網路交換機諸如TOR交換機10A和10B耦接到至少一網路(例如LAN、WAN、網際網路等)。另外,包含儲存介面電路162B和164B的儲存介面模組160B可用以將節點100B(例如該主電路板上的處理器110B、DRAM 120B等)耦接到多個快閃儲存裝 置(例如節點100A和100B共享的SSD群組12A和12B),用以存取(例如讀取或寫入)該多個快閃儲存裝置中的資料。如此一來,AFA伺服器100可用以藉由節點100B提供用戶儲存服務。
關於節點100A及其對等(peer)節點(例如節點100B)之間的通信,該NTB模組(例如NTB通信電路140A)可用以藉由在節點100A和100B之間的一NTB路徑(標示為「NTB」以求簡明)與對應的NTB模組(例如NTB通信電路140B)通信,使節點100A和100B的資料和儲存狀態同步,並進一步使它們相同。相似地,關於節點100B及其對等節點(例如節點100A)之間的通信,該NTB模組(例如NTB通信電路140B)可用以藉由在節點100A和100B之間的該NTB路徑(標示為「NTB」以求簡明)與對應的NTB模組(例如NTB通信電路140A)通信,使節點100A和100B的資料和儲存狀態同步,並進一步使它們相同。尤其,諸如NTB通信電路140A和140B的NTB模組可以提供節點100A和100B之間一傳輸橋的功能以及分離節點100A和100B的各自的位址域以使節點100A和100B分別有彼此獨立的位址域,以在沒有任何位址衝突的情況下提供/加強節點100A和100B之間的通信。例如,節點100A和100B的各個總線可以符合快捷外設組件互聯(Peripheral Component Interconnect Express,PCIe)標準,並且節點100A和100B中的每一節點的NTB模組可以被認為是該節點的一端點(endpoint),其中節點100A和100B可以透過該傳輸橋彼此通信和共享裝置,但本發明不限於此。依據某些實施例,諸如NTB通信電路140A和140B的NTB模組可以透過客制化的網路介面電路來實現,以控制節點100A和100B彼此通信,使得它們就像正在透過網路介面電路進行通信一樣。
在運行著程式模組112A的處理器110A和運行著程式模組112B的處理器110B的控制下,節點100A和100B可維持和監視NTB上的脈搏,以確定對等節點的可用性,以進行高可用性(High Availability,HA)控制。舉例來說,節點100B 可用以向節點100A發送脈搏信號,且節點100A可用以檢測並監視來自節點100B的脈搏信號以確定節點100B的可用性,其中來自節點100B的脈搏信號是否存在可以指出節點100B是否可用(或健康程度)。對於另一個例子來說,節點100A可用以向節點100B發送脈搏信號,並且節點100B可用以檢測並監視來自節點100A的脈搏信號以確定節點100A的可用性,其中來自節點100A的脈搏信號是否存在可以指出節點100A是否可用(或健康程度)。依據第1圖所示的架構,如第1圖所示,當節點100A和100B其中一個不可使用時,節點100A和100B其中的另一個可以繼續為用戶提供AFA伺服器100的儲存服務。
需注意的是,AFA伺服器100配備了超過一個的節點間(inter-node)通信路徑(例如節點之間的超過一個的相互通信路徑)。除NTB路徑外,AFA伺服器100還可配置為具有一個或多個其他通信路徑,例如BMC 150A和150B之間的一BMC路徑,其中BMC 150A可用以管理節點100A的硬體層的至少一部分(例如一部分或全部),而BMC 150B可用以管理節點100B的硬體層的至少一部分(例如一部分或全部)。關於節點100A及其對等節點(例如節點100B)之間的通信,BMC 150A可用以透過該BMC路徑與BMC 150B通信以存取(例如讀取或寫入)暫存器電路152B中的一個或多個暫存器的一個或多個暫存器值,以在節點100B上進行狀態檢查操作等。相似地,關於節點100B及其對等節點(例如節點100A)之間的通信,BMC 150B可用以透過該BMC路徑與BMC 150A通信以存取(例如讀取或寫入)暫存器電路152A中一個或多個暫存器的一個或多個暫存器值,以在節點100A上進行狀態檢查操作等。尤其,BMC 150A與BMC 150B可獨立地管理節點100A與100B的各自的硬體層,而不需要仰賴處理器110A與110B。舉例來說,當處理器110A發生故障時,BMC 150A可以處理節點100A的未完成的工作,而當處理器110B發生故障時,BMC 150B可以處理節點100B的未完成的工作,但本發明不限於此。依據某些實施例,BMC 150A和150B可用以分別接管(take over)節點 100A和100B,以進行緊急處理操作來減少資料遺失的機率。
依據本實施例,AFA伺服器100可以被配置為由多種類型的電源供電。節點100A和100B的每一節點可以包括至少一主電源(例如至少一電源供應器),用以於主電源處於正常電源狀況下提供電力給該節點的其他組件。舉例來說,節點100A的主電源可以供電給節點100A的主電路板,並且節點100B的主電源可以供電給節點100B的主電路板。當檢測到一個或多個節點(例如節點100A及/或節點100B)的異常電源狀況時,AFA伺服器100中的一個或多個相關的備用電源(例如備用電源單元170A及/或備用電源單元170B)可用以提供備用電力。舉例來說,當節點100A的主電源發生電源故障時,備用電源單元170A可以供電給節點100A的主電路板(例如處理器110A、DRAM 120A、C2F SSD 122A、NTB通信電路140A、BMC 150A、暫存器電路152A等),當節點100B的主電源發生電源故障時,備用電源單元170B可以供電給節點100B的主電路板(例如處理器110B、DRAM 120B、C2F SSD 122B、NTB通信電路140B、BMC 150B、暫存器電路152B等)。
依據某些實施例,節點100A和100B的每一節點(例如節點100A和100B的各自的主電路板中的每一節點)可以更包含多個感測器(sensor)/檢測器(detector)用以至少對該節點的組件進行檢測以產生檢測結果(例如從這些傳感器/檢測器中的任一個所獲得的狀態信息)。舉例來說,這些檢測結果中的一功率檢測結果可以表示該節點的主電源的功率狀態,尤其,可以指出該節點是否發生異常電源狀況,以供觸發該節點啟動備用電源(例如備用電源單元170A或備用電源單元170B)以提供備用電力。
第2圖依據本發明一實施例繪示第1圖所示的AFA伺服器100的某些實施細節,其中,可以將SSD 100S作為第1圖所示實施例中提到的多個SSD的例子。除了節點100A和100B以及SSD 100S,AFA伺服器100可更包含一背板 (backplane)電路100R。背板電路100R可用以將諸如SSD群組12A和12B的SSD 100S電氣連接到節點100A和100B。舉例來說,背板電路100R可以藉由具有相關連接器等的背板電路板來實現。另外,可以在背板電路100R內實現NTB通信電路140A和140B之間的該NTB路徑的局部(partial)路徑,以及BMC 150A和150B之間的該BMC路徑的局部路徑。由於該BMC路徑和該NTB路徑中的每一路徑都不通過可能易於損壞的任何電纜,所以節點100A和100B之間的通信路徑很穩健,且因此節點100A和100B可以保持有效的通信以及相關的控制,以確保AFA伺服器100的整體效能及正常運行。
依據某些實施例,SSD 100S中的每一SSD可以是一單埠(single port)SSD,尤其,可以是一單埠的基於裝置的(device-based)SSD。另外,藉助於背板電路100R,AFA伺服器100可以支援SSD 100S中的每一SSD的熱插拔。
依據某些實施例,兩個節點100A和100B中的一個可以在AFA伺服器100的高可用性(High Availability簡稱HA)架構中用來作為一現用節點(active node),也就是扮演該現用節點的角色,並且兩個節點100A和100B中的另一個可在AFA伺服器100的該HA架構中用來作為一待命節點(standby node),也就是扮演該待命節點的角色。諸如現用節點和待命節點的兩個節點100A和100B可以彼此互動,尤其,可以藉由至少兩條通信路徑(諸如NTB通信電路140A和140B之間的NTB路徑以及BMC 150A和150B之間的BMC路徑)來交換節點信息,並且可以藉由NTB路徑來同步資料,但本發明不限於此。依據某些實施例,AFA伺服器100可以配備有超過兩個的節點間(inter-node)通信路徑(例如節點之間的超過兩個的相互通信路徑)。
第3圖是依據本發明一實施例所繪示的如第1圖所示的AFA伺服器100的一雙節點架構的示意圖。依據本實施例,節點100A和100B可以被分別配置為該現用節點和該待命節點,但本發明不限於此。舉例來說,節點100A和100B 可以在需要時交換它們所扮演的角色。如第3圖所示,除了某些硬體(hardware,HW)組件諸如第1圖或第2圖所示的架構中的部分組件外,還可繪示某些軟體(software,SW)程式/程序,例如HA框架程式、網絡(Web)伺服器程式、資料庫(database)程式、操作於一服務模式的儲存控制模組程式以及操作於一待機模式的儲存控制模組程式(分別標示為「HA框架」、「Web伺服器」、「資料庫」、「於服務模式下的儲存控制模組」以及「於待機模式下的儲存控制模組」以求簡明)以指出AFA伺服器100中的關聯互動,其中,上述程式的名稱分別代表其相關功能。
運行於節點100A上的軟體程式(例如,HA框架程式,Web伺服器程式,資料庫程式和操作於該服務模式的儲存控制模組程式)可作為程式模組112A的例子,並且運行於節點100B上的軟體程式(例如,HA框架程式,Web伺服器程式,資料庫程式和操作於該待機模式的儲存控制模組程式)可作為程式模組112B的例子,但本發明不限於此。另外,網路介面模組130A的該一個或多個網路介面電路可更包含網路介面電路136A,並且網路介面模組130B的該一個或多個網路介面電路可更包含網路介面電路136B。因此,AFA伺服器100可以配備有至少三個節點間(inter-node)通信路徑(例如節點之間的至少三個相互通信路徑),諸如NTB路徑、BMC路徑以及網路介面電路136A和136B之間的網路路徑。舉例來說,節點100A和100B可用以藉由NTB路徑進行快取鏡像(cache mirroring)操作,並透過BMC路徑檢查本地/遠端控制器狀態,以及藉由網路介面電路136A和136B之間的網路路徑進行額外的通信操作。
第4圖是依據本發明一實施例所繪示的如第1圖所示的多個節點100A與100B的任一(例如每一)節點中的程式模組112的示意圖。例如,程式模組112可以代表運行在節點100A的處理器110A上的程式模組112A或運行在節點100B的處理器110B上的程式模組112B。如第4圖所示,程式模組112可以包含某些主程式模組,例如儲存協定及區塊輸入/輸出(IO)介面模組、儲存快取模組、儲存 池模組、儲存服務連續HA模組、儲存功能模組以及儲存管理模組(分別標示為「儲存協定及區塊IO介面」、「儲存快取」、「儲存池」、「儲存服務連續HA」、「儲存功能」以及「儲存管理」以求簡明),其中這些主程式模組中的任一程式模組可以包括一個或多個子模組。另外,程式模組112中的某些程式模組之間的箭頭指出這些程式模組可以彼此在各自所屬的多個層的程式模組之間互動。舉例來說,儲存協定及區塊IO介面模組可以被視為儲存快取模組上方的一上層(例如一上層程式模組),儲存池模組可以被視為儲存快取模組下方一下層(例如一下層程式模組),儲存功能模組和儲存快取模組可被安排在一中間層以作為中間層程式模組,其中儲存協定及區塊IO介面模組以及儲存池模組可用以與客戶端裝置和SSD群組互動,但本發明不限於此。當需要時,該節點可以觸發其他程式模組與這些程式模組中的一個或多個進行互動。
儲存協定及區塊IO介面模組可以包含某些子模組諸如小型計算機系統介面(Small Computer System Interface,簡稱SCSI)模組、網際網路SCSI(Internet SCSI,簡稱iSCSI)模組和區塊裝置(Block Device)模組(分別標示為「SCSI」、「iSCSI」和「區塊裝置」以求簡明)。儲存快取模組可以包含某些子模組諸如使用軟體實現的永久記憶體(Persistent Memory using SW implementation)模組和寫入緩衝模組(Write Buffer module;也可稱為「寫入緩衝器模組」),於圖中分別標示為「永久記憶體(軟體實現)」和「寫入緩衝」以求簡明。儲存池模組可以包含一子模組諸如快閃記憶體陣列(Flash Array)模組(為簡便起見標示為「快閃記憶體陣列」)。儲存服務連續HA模組可以包含一子模組諸如HA框架模組(標示為「HA框架」以求簡明)。儲存功能模組可以包含某些子模組諸如卷管理器(Volume Manager)模組和資料減少模組(分別標示為「卷管理器」和「資料減少」以求簡明),其中資料減少模組可以包含某些子模組諸如壓縮引擎(Compression Engine)模組和重複資料刪除引擎(Deduplication Engine)模組,可以分別稱為「壓縮引擎」 和「重複資料刪除引擎」。儲存管理模組可以包含某些子模組諸如網絡(Web)用戶界面(User Interface,UI)模組、應用程式編程介面(Application Programming Interface,API)伺服器模組、請求代理(Request Broker)模組和資料庫模組(分別標示為「網絡UI」、「API伺服器」、「請求代理」和「資料庫」以求簡明)。上列模組的名稱分別指出其相關功能。為了便於理解,對某一模組諸如卷管理器模組、壓縮引擎模組、重複資料刪除引擎模組等而言,某些實施例中所提到的諮詢(consult)該模組的操作可包含對這個模組進行呼叫、查詢等操作以從它取得對應的處理結果,但本發明不限於此。
依據某些實施例,AFA伺服器100(例如,該現用節點,諸如節點100A和100B的其中之一)可用以從AFA伺服器100外部的客戶端裝置接收請求諸如寫入請求、讀取請求等,並分別因應這些請求來操作。
第5圖是依據本發明一實施例所繪示的一種用以進行一AFA伺服器諸如第1圖所示的AFA伺服器100的資料存取管理的方法的一寫入控制方案的示意圖。該方法可以應用於第1圖所示的AFA伺服器100。為了更好地理解,節點100A和100B可以分別用來作為該現用節點和該待命節點,尤其分別扮演該現用節點和該待命節點的角色,但本發明不限於此。因應寫入請求,現用節點(例如節點100A和100B的其中之一,諸如在本實施例中的節點100A)可以利用寫入緩衝模組來接收對應於寫入請求的資料(例如4千位元組(kilobytes,KB)資料,可稱為「4KB資料」以求簡明),並在步驟S01中將該資料寫入(例如緩衝)至其寫入緩衝器(例如該節點的DRAM)中,且於步驟S02中藉由NTB路徑將該資料諸如4KB資料鏡像到待命節點(例如節點100A和100B中的另一個,諸如在本實施例中的節點100B),並且於步驟S03中對用戶的客戶端裝置發送與寫入請求相對應的一確認(acknowledgement,Ack)。由於資料已被鏡像到遠端側(例如在本實施例中的DRAM 120B),所以鏡像的資料由待命節點(例如其寫入緩衝模組)所保護。
針對現用節點的後續操作,在步驟S04中,對於每一4KB資料查詢(query),寫入緩衝模組可以使用卷管理器模組來為該資料獲取或分配(allocate)一儲存池邏輯區塊位址(storage pool logical block address,SLBA)。在步驟S05中,寫入緩衝模組可以諮詢重複資料刪除引擎以對該資料進行重複資料刪除功能。在步驟S06中,寫入緩衝模組可以諮詢壓縮引擎以對資料進行壓縮功能。在步驟S07中,當該DRAM(例如本實施例中的DRAM 120A)中的緩衝資料(例如待寫入的資料)的資料量達到預定臨界值時,例如,現用節點已經收集了N組壓縮資料,並且該N組壓縮資料的總資料量適合被儲存為一全條帶(full stripe),現用節點可以利用快閃記體陣列模組將該N組壓縮資料(可以稱為N個壓縮資料以求簡明)聚合(aggregate)成該全條帶。舉例來說,該全條帶可以表示包含預定數量的組塊(chunk)(例如十二個組塊)的一條帶,其中這些組塊可以包含一第一預定數量的資料組塊(例如十個資料組塊)和一第二預定數量的奇偶校驗組塊(例如兩個奇偶校驗組塊)。在步驟S08中,在收集一個或多個條帶諸如一預定數量的條帶(例如:一個條帶、兩個條帶、三個條帶、四個條帶等例子中的任一者,可依據於該方法中的各種控制方案來決定)之後,現用節點可以利用寫入緩衝模組將陣列信息諸如一SLBA陣列(SLBA所組成的陣列)、一壓縮資料陣列(壓縮資料所組成的陣列)等(例如該SLBA陣列與該壓縮資料陣列所組成的一陣列:{SLBA陣列,壓縮資料陣列})提交給快閃記憶體陣列模組(或儲存池模組),以供編寫(尤其,寫入)該一個或多個條帶。在步驟S09中,快閃記憶體陣列模組可以對各個碟(例如,現用節點的SSD群組,諸如本實施例中的SSD群組12A)進行條帶寫入操作。舉例來說,由於該壓縮引擎已在步驟S06中進行了壓縮功能,因此4KB空間包含多個SLBA的各自的壓縮資料。
在進行如第5圖所示的步驟S01至S09的操作之後,現用節點可以將相關的管理信息發送到待命節點以更新待命節點中的管理信息,以使待命節點在 需要時能夠替換現用節點以繼續為用戶提供AFA伺服器100的儲存服務。舉例來說,在步驟S10中,現用節點的卷管理器模組可以將卷管理器模組的重映射表同步(例如更新和發送)到待命節點記憶體(例如待命節點的記憶體),以控制(例如產生、更新等)由卷管理器模組所管理的某些映射關係。在步驟S11中,現用節點的快閃記憶體陣列模組可以向待命節點快閃記憶體陣列(例如待命節點的快閃記憶體陣列模組)發出重映射表更新指令,以將快閃記憶體陣列模組的重映射表更新至待命節點記憶體(例如待命節點的記憶體),以控制(例如產生、更新等)由快閃記憶體陣列模組所管理的某些映射關係。如上所述,現用節點能夠因應寫入請求來進行這些操作;現用節點還能夠因應讀取請求來進行相關操作以復原(recover)該資料,舉例來說,依據分別由卷管理器模組和快閃記憶體陣列模組所管理的映射關係,其中,在後續的某些實施例中將描述針對管理這些映射關係的某些實施細節。
如第5圖的上半部所示,藉助於軟體模擬,節點100A和100B中的任一節點(例如,每一節點)可以包含基於該多個節點中的另一個節點的一模擬永久記憶體(emulated persistent memory;也可以稱為PMem以求簡明),其中PMem可以操作在NTB路徑上,且因此可被視為基於NTB的PMem。舉例來說,該任一節點諸如節點100A可以扮演現用節點的角色,而另一節點諸如節點100B可以扮演待命節點的角色。當現用節點的主電源的電源故障發生(例如節點100A和100B各自的主電源這兩者的電源故障都發生)時,現用節點可以將其DRAM中的現有信息(例如:緩衝資料、管理表等)刷新到內部非揮發性記憶體(Non-Volatile Memory簡稱NVM)儲存裝置(例如:現用節點的C2F SSD,諸如本實施例中的C2F SSD 122A)和PMem這兩者。尤其,由於這些節點中的每一節點都配備有自己的內部NVM儲存裝置和PMem,待命節點可以將其DRAM中的刷新自現用節點的現有信息(例如,刷新自現用節點的緩衝資料、管理表等)刷新到內部NVM儲存裝置(例 如:待命節點的C2F SSD,諸如本實施例中的C2F SSD 122B)中。
對於現用節點,雖然基於NTB的PMem中的DRAM 120A和120B是揮發性記憶體,AFA伺服器100可以藉助於軟件模擬將基於NTB的PMem利用作為永久記憶體,這是因為在其寫入緩衝模組控制下操作的待命節點可以保護刷新自現用節點的任何現有信息。當發生電源故障時,現用節點可以將其DRAM中的現有信息刷新到內部NVM儲存裝置諸如符合M.2規範的多個NVM儲存裝置的其中之一當中,且藉由將現有信息通過NTB路徑發送到待命節點的DRAM,可以將其DRAM(現用節點本身的DRAM)中的現有信息刷新到PMem中。如此一來,待命節點可以將其DRAM中的現有信息刷新到其內部NVM儲存裝置(例如,符合M.2規範的多個NVM儲存裝置的其中之一)當中。
依據某些實施例,節點100A和100B可以從現用節點和待命節點的角色互相交換,並且可以進行如上所述的關於節點100B和100A的相對應的操作。為了簡明起見,於這些實施例中類似的內容在此不重複贅述。
第6圖是依據本發明一實施例的針對第5圖所示的該寫入控制方案的流程圖。為了更好地理解,節點100A和100B可以分別用來作為該現用節點和該待命節點,尤其分別扮演該現用節點和該待命節點的角色,但本發明不限於此。
在步驟S20中,現用節點(例如:節點100A和100B的其中之一,諸如本實施例中的節點100A)可以利用儲存協定及區塊IO介面模組來檢測是否接收到任何請求諸如寫入請求。如果是,進入步驟S21;如果否,重新進入步驟S20。
在步驟S21中,因應寫入請求,現用節點可以利用寫入緩衝模組來接收與寫入請求相對應的資料(例如4KB資料),並將該資料寫入(例如緩衝)到資料緩衝器諸如該節點的DRAM(標示為「寫入」以求簡明)。
在步驟S22中,現用節點可以利用寫入緩衝模組藉由NTB路徑將該資料諸如4KB資料鏡像到待命節點(例如:節點100A和100B中的另一個,諸如在本 實施例中的節點100B)(標示為「鏡像到遠端」以求簡明)。
在步驟S23中,現用節點可以利用寫入緩衝模組將對應於寫入請求的一確認(acknowledgement,Ack)發送給用戶的客戶端裝置,舉例來說,藉由上層程式模組諸如儲存協定及區塊IO介面模組。
在步驟S24中,對於每一4KB資料查詢,寫入緩衝模組可以使用卷管理器模組來獲取或分配該資料的SLBA。
在步驟S25中,寫入緩衝模組可以諮詢重複資料刪除引擎以選擇性地對資料進行重複資料刪除功能。舉例來說,如果步驟S21中提到的資料存在於現用節點的SSD群組中,則需要進行重複資料刪除之操作;否則,不需要進行重複資料刪除之操作。
在步驟S26中,寫入緩衝模組可以諮詢壓縮引擎以對資料進行壓縮功能。
在步驟S27中,現用節點可以利用快閃記憶體陣列模組來檢查緩衝資料的資料量是否適合儲存為一全條帶(例如:包括預定數量的組塊的條帶,如在第5圖所示的實施例中所提到的),舉例來說,檢查是否已經收集了N組壓縮資料諸如N個壓縮資料。如果是,進入步驟S28;如果否,重新進入步驟S20。
在步驟S28中,現用節點可以利用快閃記憶體陣列模組將N組壓縮資料諸如N個壓縮資料聚合到該全條帶中,尤其,在SSD群組中為該全條帶分配儲存空間。
在步驟S29中,現用節點可以利用寫入緩衝模組將陣列信息諸如上述陣列{SLBA陣列,壓縮資料陣列}交給快閃記憶體陣列模組。
在步驟S30中,現用節點可以利用快閃記憶體陣列模組對現用節點的SSD群組(例如本實施例中的SSD群組12A)中的各個碟進行條帶寫入操作,尤其,是將整個全條帶寫入SSD群組。舉例來說,在將整個全條帶寫入該SSD群組 之後,該全條帶可以包含分別儲存在該節點的該SSD群組中的某些SSD的一組資料組塊和分別儲存在該節點的該SSD群組中的某些其他SSD的一組奇偶校驗組塊,諸如分別儲存在該SSD群組中的十個SSD中的十個資料組塊(例如,資料組塊D1、D2、...和D10)以及分別儲存在該SSD群組中的兩個其他SSD中兩個奇偶校驗組塊(例如奇偶校驗組塊P和奇偶校驗組塊Q)。
在步驟S31中,現用節點可以利用卷管理器模組將卷管理器模組的重映射表同步(例如更新並發送)到待命節點的記憶體,以控制(例如產生、更新等)由卷管理器模組所管理的映射關係。
在步驟S32中,現用節點可以利用快閃記憶體陣列模組向待命節點的快閃記憶體陣列模組發出該重映射表更新指令,以將(現用節點的)快閃記憶體陣列模組的重映射表更新至待命節點的記憶體,以控制(例如產生、更新等)由快閃記體陣列模組所管理的映射關係。
依據本實施例,可以用獨立磁碟冗餘陣列(Redundant Array of Independent Disks,RAID)6級(RAID-6)配置來保護節點100A和100B的每一節點,其中節點100A和100B的各自的快閃記憶體陣列模組可以依據RAID-6配置來進行條帶寫入操作或條帶讀取操作,但本發明不限於此。另外,在寫入過程中,現用節點的快閃記憶體陣列模組可以收集壓縮資料以產生該組資料組塊諸如十個資料組塊(例如資料組塊D1、D2、...和D10),並對該組資料組塊進行奇偶校驗計算以產生該組奇偶校驗組塊諸如兩個奇偶校驗組塊(例如奇偶校驗組塊P和Q),並進一步將全條帶的所有組塊(例如,十個資料組塊和兩個奇偶校驗組塊)分別寫入該SSD群組中的相關SSD(例如12個SSD)。舉例來說,當該SSD群組包含12個SSD時,快閃記憶體陣列模組可以將一條帶寫入12個SSD,以均勻地使用該SSD群組的儲存空間;當該SSD群組包含24個SSD(例如(12 * 2)=24)時,快閃記憶體陣列模組可以向這24個SSD寫入兩個條帶(例如每12個SSD一個條帶)以均 勻地使用該SSD群組的儲存空間;當該SSD群組包含36個SSD(例如(12 * 3)=36)時,快閃記憶體陣列模組可以向這36個SSD寫入三個條帶(例如每12個SSD一個條帶)以均勻地使用該SSD群組的儲存空間;其餘可以依此類推,但本發明不限於此。
為了更好的理解,該方法可用第6圖所示的工作流程來說明,但本發明不限於此。依據某些實施例,一個或多個步驟可於第6圖所示的工作流程中增加、刪除或修改。
在後續的某些實施例中,將進一步說明諸如實現多種類型的位址、位址重新映射(remapping)、儲存池、儲存空間供應(provision)/池化(pooling)等進一步細節,其中“重新映射”可簡稱為“重映射”。舉例來說,由於在不同類型的位址之間存在多層映射關係,因此該多層映射關係中的每一層可以被視為該多層映射關係中的一層重映射關係(例如重映射關係層諸如重映射層),並且這些層可以被視為轉換層諸如位址轉換層。
第7圖依據本發明一實施例繪示用以進行該AFA伺服器(例如第1圖所示的AFA伺服器100)的資料存取管理的方法的多重映射控制方案,其中,該AFA伺服器可以配備有不同名稱空間(namespace)的位址之間的某些重映射層。尤其,在AFA伺服器100中,節點100A和100B的每一節點可以用以藉助於不同定址名稱空間(addressing namespace)之間的多個重映射層來進行資料存取管理。舉例來說,定址名稱空間可以包含一系列裝置邏輯區塊位址(device logical block address,DLBA)的裝置/碟(device/disk)邏輯區塊定址名稱空間、一系列儲存池邏輯區塊位址(storage spool logical block address,SLBA)的儲存池邏輯區塊定址名稱空間以及一系列虛擬卷邏輯區塊位址(virtual volume logical block address,VVIBA)的虛擬卷邏輯區塊定址名稱空間。在這種情況下,在該節點的儲存系統中可以存在帶有至少兩個重映射層的至少三個名稱空間。另外,該多個重映射 層可以包含在該系列DLBA的該裝置/碟邏輯區塊定址名稱空間和該系列SLBA的該儲存池邏輯區塊定址名稱空間之間的一第一重映射層,且可以更包含在該系列SLBA的該儲池邏輯區塊定址名稱空間和該系列VVLBA的該虛擬卷邏輯區塊定址名稱空間之間的一第二重映射層。
如第7圖的左半部所示,運行在該節點上的快閃記憶體陣列模組的控制下,該節點可用以進行儲存空間池化操作。該節點(例如運行在其上的快閃記憶體陣列模組)可以對在該裝置/碟邏輯區塊定址名稱空間中的一對應的SSD群組(例如針對節點100A的SSD群組12A或針對節點100B的SSD群組12B)進行該儲存空間池化操作,以於該儲存池邏輯區塊定址名稱空間中產生一邏輯組合的(logically combined)儲存裝置諸如儲存池(於圖中的用以表示該邏輯組合的儲存裝置的圓柱體上標示為“儲存池”,以便能更好地理解),以將該對應的SSD群組中的所有SSD的各自的儲存空間合併為該儲存池的整體儲存空間。舉例來說,快閃記憶體陣列模組可以將一預定數量(例如12、24、36、48等)的SSD集結/群組化(group)以作為一或多個對應的獨立磁碟冗餘陣列(RAID)群組,尤其,可以將12/24/36/48個(12個、24個、36個或48個)快捷NVM(NVM Express,簡稱NVMe)SSD集結/群組化以作為1/2/3/4個(1個、2個、3個或4個)RAID-6群組,並將相應的RAID群組導出(export)為一單一虛擬碟。另外,快閃記憶體陣列模組可以提供寫入時重定向(redirect-on-write)RAID-6保護,這保護包含以下各項的各種操作:跨碟快閃記憶體轉換層(Cross-disk Flash translation layer,簡稱FTL),例如,將任何SLBA映射到一DLBA諸如某一儲存裝置(例如該SSD群組中的一SSD)的一裝置標識符(identifier,簡稱ID)以及這個儲存裝置的一裝置邏輯區塊位址(logical block address,LBA)的組合(標示為「(裝置ID,裝置LBA)」以求簡明);跨碟損耗均衡(Cross-disk wear-leveling),例如,在該SSD群組中尤其在其SSD之間進行損耗均衡;以及跨碟垃圾收集(garbage collection,簡稱GC),例如在SSD群 組中尤其在其SSD之間進行GC。另外,快閃記憶體陣列模組可以處置(handle)碟故障/移除,舉例來說,當發生該SSD群組中的任何SSD的碟故障及/或碟移除時,進行錯誤處置(error handling)操作。
如第7圖的右半部所示,運行在該節點上的卷管理器模組的控制下,該節點可被配置成進行儲存空間供應(provision)操作。該節點(例如,運行在其上的卷管理器模組)可以對在該儲存池邏輯區塊定址名稱空間中的該儲存池進行該儲存空間供應操作,以產生多個虛擬卷(virtual volume){Vol}諸如x個虛擬卷Vol(1)至Vol(x),將該儲存池的該整體儲存空間的多個部分指派(assign)為該多個虛擬卷{Vol}的各自的儲存空間,以供用來作為多目的及/或多個用戶的各自的專用儲存區域。舉例來說,卷管理器模組可以靈活地將來自該儲存池的空間及/或效能(例如對應於效能的儲存資源)指派給不同的用戶(例如:空間精簡供應(space thin provision)和服務品質(quality of service,QoS)等配置)。另外,卷管理器模組可以提供虛擬卷操作,該虛擬卷操作包括各種操作諸如:創建一虛擬卷(也可以稱為“卷”以求簡明);產生每卷的(per-volume)寫入時重定向快照(snapshot);克隆(clone)一卷;將一卷的一快照恢復(restore)成該卷;以及擴展一卷的一卷大小。
為了更好地理解,該多個虛擬卷{Vol}可被繪示為虛擬卷Vol(1)、Vol(2)、Vol(3)、Vol(4)、...、Vol(x-2)、Vol(x-1)和Vol(x)如第7圖所示,但本發明不限於此。另外,由該快閃記憶體陣列模組和該卷管理器模組所進行的操作的某些實施細節可被繪示如第7圖所示,但本發明不限於此。舉例來說,這些實施細節中的一個或多個可予以變化。
第8圖依據本發明一實施例繪示用以進行該AFA伺服器(例如第1圖所示的AFA伺服器100)的資料存取管理的方法的一資料縮減控制方案。在AFA伺服器100中,節點100A和100B的每一節點可被配置成藉助於前述的在不同定址名稱空間之間的多個重映射層來進行重複資料刪除和壓縮等操作。
如第8圖的右半部所示,在運行於該節點上的該重複資料刪除引擎的控制下,該節點可被配置成進行重複資料刪除操作。該節點(例如運行於其上的重複資料刪除引擎)可以在寫入過程中進行該重複資料刪除操作,尤其,可以在該系列SLBA的該儲存池邏輯區塊定址名稱空間與該系列的VVLBA的該虛擬卷邏輯區塊定址名稱空間之間的該第二重映射層進行該重複資料刪除操作。舉例來說,當檢測到於一特定SLBA的待寫入的資料存在時,該節點的重複資料刪除引擎可以藉由為該待寫入的資料記錄指向這個SLBA的一硬鏈接(hard-link)來進行該重複資料刪除操作,以避免該SLBA的現有資料的資料重複(duplication),其中該節點可以產生該硬鏈接而不是再度將相同的資料寫入該儲存池。舉例來說,重複資料刪除引擎可以進行重複資料刪除操作以管理共享相同內容的多個不同的VVLBA,諸如:VVLBA V1-LBA1(例如某一虛擬卷Vol(V1)的卷ID V1和虛擬卷Vol(V1)的LBA LBA1的組合)和VVLBA V1-LBA2(例如,虛擬卷Vol(V1)的卷ID V1和虛擬卷Vol(V1)的LBA LBA2的組合)在一SLBA SLBAx上共享相同的內容(標示為「(V1-LBA1,SLBAx),(V1-LBA2,SLBAx)」以求簡明);VVLBA V1-LBA3(例如虛擬卷Vol(V1)的卷ID V1和虛擬卷Vol(V1)的LBA LBA3的組合)和VVLBA V2-LBA3(例如另一個虛擬卷Vol(V2)的卷ID V2和虛擬卷Vol(V2)的LBA LBA3的組合)在一SLBA SLBAy上共享相同的內容(標示為「(V1-LBA3,SLBAy),(V2-LBA3,SLBAy)」以求簡明);VVLBA V1-LBA4(例如虛擬卷Vol(V1)的卷ID V1和虛擬卷Vol(V1)的LBA LBA4的組合)和VVLBA V2-LBA5(例如,虛擬卷Vol(V2)的卷ID V2和虛擬卷Vol(V2)的LBA LBA5的組合)在一SLBA SLBAz上共享相同的內容(標示為「(V1-LBA4,SLBAz),(V2-LBA5,SLBAz)」以求簡明);其餘可依此類推,但本發明不限於此。另外,重複資料刪除引擎可以記錄SLBA參考計數,例如,藉由使用共享內容的SLBA和相關SLBA參考計數的一組合的格式,如下所示:(SLBAx,2);(SLBAy,2);(SLBAz,2);(SLBA1,3);(SLBA1,100); 其餘可依此類推,但本發明不限於此。
如第8圖的左半部所示,在運行於該節點上的該壓縮引擎的控制下,該節點可被配置成進行壓縮操作。該節點(例如運行在其上的壓縮引擎)可以在寫入過程中進行該壓縮操作,尤其是在該系列DLBA的該裝置/碟邏輯區塊定址名稱空間和該系列SLBA的該儲存池邏輯區塊定址名稱空間之間的該第一重映射層進行該壓縮操作。舉例來說,該壓縮引擎可以將N組資料壓縮為N個壓縮資料,並分別記錄該N個壓縮資料的各自的壓縮狀態信息條目{{SLBA(1),DLBA(1),Start_Offset(1),Length(1)},{SLBA(2),DLBA(2),Start_Offset(2),Length(2)},...}(例如:該N個壓縮資料中的第n個壓縮資料的SLBA SLBA(n)、DLBA DLBA(n)、起始偏移量Start_Offset(n)和長度Length(n)的一組合{SLBA(n),DLBA(n),Start_Offset(n),Length(n)},其中符號“n”可以表示在區間[1,N]中的一整數),並將該N個壓縮資料收集並聚合為一資料條帶(data stripe),以供對該對應的SSD群組進行條帶寫入操作。舉例來說,該壓縮引擎可以控制一DLBA以持有(hold)多個SLBA,並且可以記錄分別指出持有關係的壓縮狀態信息條目,諸如:一壓縮狀態信息條目,包含SLBA SLBA1、DLBA DLBA1、0位元組(bytes,簡稱B)的起始偏移量為以及100位元組的長度的組和(例如:{SLBA(1)=SLBA1,DLBA(1)=DLBA1,Start_Offset(1)=0(B),Length(1)=100(B)},標示為「(SLBA1,DLBA1,0,100B)」以求簡明);一壓縮狀態信息條目,包含SLBA SLBA2、DLBA DLBA1、100位元組的起始偏移量以及200位元組的長度的組合(例如:{SLBA(2)=SLBA2,DLBA(2)=DLBA1,Start_Offset(2)=100(B),Length(2)=200(B)},標示為「(SLBA2,DLBA1,100B,200B)」以求簡明);一壓縮狀態信息條目,包含SLBA SLBA100、DLBA DLBA1、300位元組的起始偏移量和1000位元組的長度的組合(例如:{SLBA(3)=SLBA100,DLBA(3)=DLBA1,Start_Offset(3)=300(B),Length(3)=1000(B)},標示為「(SLBA100,DLBA1, 300B,1000B)」以求簡明);其餘可依此類推,但本發明不限於此。
由該重複資料刪除引擎進行的該重複資料刪除操作和由該壓縮引擎進行的該壓縮操作的某些實施細節可被繪示如第8圖所示,但本發明不限於此。例如,這些實施細節中的一個或多個可予以變化。
第9圖依據本發明一實施例繪示用以進行該AFA伺服器(例如第1圖所示的AFA伺服器100)的資料存取管理的方法中的某些映射關係和相關的管理信息。在AFA伺服器100中,節點100A和100B的每一節點可被配置成藉助於前述的在不同定址名稱空間之間的多個重映射層來存取資料。舉例來說,該系列VVLBA中的任何VVLBA可包含某一虛擬卷Vol的卷ID和虛擬卷Vol的一LBA的組合(標示為「虛擬卷的卷ID+LBA」以求簡明)。
當來自客戶端裝置的寫入請求指出需要在一VVLBA上寫入一組資料時,該節點可以利用卷管理器模組來獲取或分配一SLBA,並且可以於該資料的首次寫入被進行的情況下,利用卷管理器模組來記錄指出該VVLBA和該SLBA之間的映射關係的一VVLBA到SLBA(VVLBA-to-SLBA)映射信息條目,但本發明不限於此。舉例來說,該節點可以如第8圖所示的實施例中所述在寫入的期間諮詢重複資料刪除引擎以進行重複資料刪除操作,並且在重複資料刪除引擎進行該重複資料刪除操作以產生該硬鏈接之後,該節點可以利用重複資料刪除引擎修改或更新這個映射關係以匹配該硬鏈接。另外,由於該節點可以分別接收多個寫入請求並因應該多個寫入請求來操作,因此該節點可以記錄分別指出多個VVLBA和多個SLBA之間的多個映射關係的多個VVLBA到SLBA映射信息條目(標示為「{{VVLBA,SLBA},...}」以求簡明)。舉例來說,該節點可以使用該多個VVLBA到SLBA映射信息條目(例如{{VVLBA,SLBA},...})將該多個VVLBA重新映射到該多個SLBA。藉由使用該系列SLBA,該節點可以將一唯一(unique)ID指派給任何碟(例如該SSD群組的任一SSD)的任何區塊。此外, 該節點可以諮詢壓縮引擎以進行該壓縮操作,並記錄分別指出壓縮資料的壓縮狀態的多個壓縮狀態信息條目(標示為「{{SLBA,DLBA,Start_Offset,Length},...}」以求簡明)諸如在第8圖所示的實施例中所描述的實施細節,但本發明不限於此。
為了更好地理解,在第9圖的最上方所示的一排(row)圓柱體和其內的某些小方框可以分別表示該多個虛擬卷{Vol}和在該多個VVLBA的資料,以及在這排圓柱體下方連續排列的一排小方框可以表示在該多個SLBA的非壓縮資料,其中,通過這排圓柱體的水平線可以代表在該系列SLBA的該儲存池邏輯區塊定址名稱空間和該系列VVLBA的該虛擬卷邏輯區塊定址名稱空間之間的該第二重映射層。另外,其碟ID為0、1、...和7的一組碟#0、#1、...和#7(如第9圖的最下方所示,用另一排圓柱體來繪示)可作為該對應的SSD群組中的一組SSD的例子,以及在它們上方的一排小方框可以表示RAID保護的壓縮資料,且上述RAID保護的壓縮資料具有被儲存在這組碟#0至#7中的壓縮資料和相關的奇偶校驗碼(標示為「P」和「Q」以便於理解),其儲存位址例如在包含一個或多個DLBA的RAID保護的壓縮DLBA(RAID Protected Compressed DLBA,簡稱RPCP_DLBA),其中,這兩排小方框之間的水平線可以表示該系列DLBA的該裝置/碟邏輯區塊定址名稱空間和該系列SLBA的該儲存池邏輯區塊定址名稱空間之間的該第一重映射層。需注意的是,該第一重映射層可被視為一儲存池轉換層(storage pool translation layer,STL)。在包含這組碟#0至#7的該SSD群組中,上述定址名稱空間可更包含一系列基於裝置的SSD物理頁面位址(physical page address簡稱PPA)的一基於裝置的SSD物理頁面定址名稱空間。另外,該多個重映射層可更包含在該系列基於裝置的SSD PPA的該基於裝置的SSD物理頁面定址名稱空間和該系列DLBA的該裝置/碟邏輯區塊定址名稱空間之間的FTL,用於在該系列DLBA與該SSD群組中的這些SSD的各自的快閃記憶體的各自的PPA之間 進行位址轉換。
依據某些實施例,由於卷管理器模組可以產生和更新該第二重映射層的重映射表以記錄分別指出該多個VVLBA和該多個SLBA之間的該多個映射關係的該多個VVLBA到SLBA映射信息條目,因此,卷管理器模組可以藉由該第二重映射層的該重映射表管理這些映射關係。在因應讀取請求而在該多個VVLBA中的一VVLBA讀取資料的期間,卷管理器模組可以參考該第二重映射層的該重映射表以獲得與這個VVLBA相關聯的SLBA。另外,由於快閃記憶體陣列模組可以產生和更新該第一重映射層的重映射表以記錄分別指出該多個SLBA和該多個DLBA之間的多個映射關係的多個SLBA到DLBA(SLBA-to-DLBA)映射信息條目,因此快閃記憶體模組可以藉由該第一重映射層的該重映射表來管理這些映射關係。在因應該讀取請求而在與這個VVLBA相關聯的SLBA讀取資料的期間,快閃記憶體陣列模組可以參考該第一重映射層的該重映射表以獲得與這個SLBA相關的DLBA。在實施(或啟用)該壓縮引擎的壓縮功能的情況下,該多個壓縮狀態信息條目{{SLBA,DLBA,Start_Offset,Length},...}可作為該多個SLBA到DLBA映射信息條目的例子,其中該多個壓縮狀態信息條目{{SLBA,DLBA,Start_Offset,Length},...}包括該多個SLBA和該多個DLBA之間的該多個映射關係,且還包含這些壓縮狀態信息條目{{SLBA,DLBA,Start_Offset,Length},...}各自的壓縮狀態{Start_Offset,Length}。無論是否實施/啟用了該壓縮引擎的壓縮功能,由於卷管理器模組都可以產生和更新該第二重映射層的該重映射表,並且快閃記憶體陣列模組可以產生和更新該第一重映射層的該重映射表,因此該現用節點可以在讀取資料的期間參考該第一重映射層的該重映射表以及該第二重映射層的該重映射表,以獲得相關的映射關係且因此進一步獲得資料。
第10圖是依據本發明一實施例的針對用以進行該AFA伺服器(例如第 1圖所示的AFA伺服器100)的資料存取管理的方法的一讀取控制方案的流程圖。為了更好地理解,節點100A和100B可以分別用來作為該現用節點及該待命節點,尤其分別扮演該現用節點和該待命節點的角色,但本發明不限於此。另外,該寫入緩衝模組可被配置成在寫入資料的期間控制某些操作,且也可被配置成在讀取資料的期間控制某些操作。舉例來說,該寫入緩衝模組可以在寫入資料的期間觸發程式模組112內的某些模組以進行第5圖中所示的步驟S02至S08的操作的至少一部分(例如:一部分或全部)且進行如第6圖所示的工作流程中的相關操作,並且可以在讀取資料的期間觸發程式模組112內的某些模組以進行操作。
在步驟S40中,現用節點(例如節點100A和100B的其中之一,諸如本實施例中的節點100A)可以利用儲存協定及區塊IO介面模組來檢測是否接收到任何請求諸如讀取請求。如果是,進入步驟S41;如果否,重新進入步驟S40。
在步驟S41中,因應該讀取請求,現用節點可以利用快閃記憶體陣列模組對現用節點的該SSD群組(例如本實施例中的SSD群組12A)中的各個碟進行條帶讀取,尤其,可以從該SSD群組讀取至少一條帶(例如:一個或多個條帶)。為了更好地理解,在步驟S41中提到的該至少一條帶可以是藉由第5圖所示的工作流程的多次疊代(iteration)而被寫入到現用節點的該SSD群組中的多個條帶中的至少一個,諸如在步驟S30中已被寫入該SSD群組的該全條帶。
在步驟S42中,現用節點可以利用寫入緩衝模組從快閃記憶體陣列模組讀取相關的陣列信息(例如針對該至少一條帶的陣列信息)諸如上述陣列{SLBA陣列,壓縮資料陣列}。
在步驟S43中,現用節點可以利用寫入緩衝模組來諮詢壓縮引擎,以依據該相關的陣列信息(例如針對該至少一條帶的陣列信息)諸如上述陣列{SLBA陣列,壓縮資料陣列}對該至少一條帶中的壓縮資料進行解壓縮操作,以獲取客戶端裝置的讀取請求所請求的資料。
在步驟S44中,現用節點可以利用寫入緩衝模組(例如透過上層程式模組諸如儲存協定及區塊IO介面模組)將資料回傳(return)給客戶端裝置。
依據本實施例,當寫入緩衝模組向快閃記憶體陣列模組提交與客戶端裝置的讀取請求相對應的內部讀取請求時,快閃記憶體陣列模組可以將該至少一條帶和上述陣列{SLBA陣列,壓縮資料陣列}回傳給寫入緩衝模組,以供寫入緩衝模組諮詢壓縮引擎來進行解壓縮操作,但本發明不限於此。依據某些實施例,當寫入緩衝模組向快閃記憶體陣列模組提交與客戶端裝置的讀取請求相對應的內部讀取請求時,快閃記憶體陣列模組可以將請求資料和對應的壓縮狀態信息條目{SLBA,DLBA,Start_Offset,Length}的壓縮狀態{Start_Offset,Length}回傳給寫入緩衝模組,以供寫入緩衝模組諮詢壓縮引擎來進行解壓縮操作。
為了更好的理解,該方法可用第10圖所示的工作流程來說明,但本發明不限於此。依據某些實施例,一個或多個步驟可於第10圖所示的工作流程中增加、刪除或修改驟。
針對第4圖所示的程式模組112的某些實施細節可以進一步描述如下。依據某些實施例,在節點100A和100B的每一節點中,儲存協定及區塊IO介面模組可以充當儲存協定及後端IO介面,尤其,可以利用SCSI模組、iSCSI模組等以藉由某些協定諸如SCSI、iSCSI等)為用戶導出(export)儲存服務,其中區塊裝置模組可以藉由其他模組諸如儲存快取模組(例如其寫入緩衝模組)、儲存功能模組(例如其卷管理器模組)、儲存池模組(例如其快閃記憶體陣列模組)等來與區塊裝置(例如該SSD群組的SSD)進行互動。舉例來說,儲存協定及區塊IO介面模組可以利用儲存效能開發套件(Storage Performance Development Kit,簡稱SPDK)來實現,並且可被配置為具有於SPDK中不存在的某些額外功能。針對這些額外功能,儲存協定及區塊IO介面模組可以支援視窗硬體品質實驗室(Windows Hardware Quality Labs,WHQL)指令、處置SCSI中止(abort)或重置指令並且可以提供一預定的唯一標識符諸如預定的全球名稱(World Wide Name,WWN),例如用於設置儲存區域網絡(storage area network,SAN),但本發明不限於此。舉例來說,雖然SPDK不允許支援兩個不同協定的一個目標(target),但是配備了上述額外功能的儲存協定及區塊IO介面模組可以藉由SCSI模組、iSCSI模組等來管理支持不同協定諸如SCSI、iSCSI等的一個目標。另外,具有上述額外功能的儲存協定及區塊IO介面模組可以利用該區塊裝置模組來註冊各種類型的區塊裝置模組(例如NVMe區塊裝置模組、記憶體區塊裝置模組、製造商定義(manufacturer-defined)區塊裝置模組等),並註冊相同類型的區塊裝置模組的多個區塊裝置實例(instance)(例如:NVMe區塊裝置模組的區塊裝置實例nvme0、nvme1、nvme2、nvme3等;記憶體區塊裝置模組的區塊裝置實例memblk0、memblk1、memblk2等;以及製造商定義區塊裝置模組的區塊裝置實例SMIBDev1、SMIBDev2、SMIBDev3等)。此外,該區塊裝置模組可以將區塊裝置與儲存協定相關聯,尤其,可以使用iSCSI模組將一區塊裝置映射到一SCSI裝置、或映射到某一iSCSI目標的一邏輯單元編號(logical unit number,簡稱LUN)等,但本發明不限於此。舉例來說,區塊裝置模組可以管理不同層的裝置映射操作,包含以下操作:將多個iSCSI目標的其中之一的LUN LUN1、LUN2、LUN3等映射至多個SCSI裝置SCSI_Dev1、SCSI_Dev2、SCSI_Dev3等,且將SCSI裝置SCSI_Dev1、SCSI_Dev2、SCSI_Dev3等映射至製造商定義區塊裝置SMIBDev1、SMIBDev2、SMIBDev3等,並且將製造商定義區塊裝置SMIBDev1,SMIBDev2,SMIBDev3等映射至由卷管理器模組所管理的虛擬卷Vol(1)、Vol(2)、Vol(3)等。
依據某些實施例,在節點100A和100B的每一節點中,儲存快取模組(例如寫入緩衝模組)可被配置成提供一基於環的(ring based)記憶體緩衝器用於服務用戶寫入IO,例如待寫入的資料。儲存快取模組可以利用寫入緩衝模組作 為記憶體空間管理器來管理該節點的DRAM(例如DRAM 120A和DRAM 120B的其中之一)中的一環緩衝器(ring buffer)。舉例來說,寫入緩衝模組可以分配用於儲存用戶寫入IO(例如該待寫入的資料)的記憶體(例如該環緩衝器中的一儲存區域),並且可以在將資料刷新到該節點的快閃記憶體陣列(Flash Array,簡稱FA)(例如,在第4圖所示的快閃記憶體陣列模組的控制下,由該SSD群組組成的FA)後回收(reclaim)該記憶體(例如該環緩衝器中的該儲存區域)。寫入緩衝模組可以利用PMem的服務將資料鏡像到待命節點,並且當將資料寫入現用/服務節點記憶體(例如現用節點的DRAM)的操作完成時、或是當將資料寫入待命節點記憶體(例如待命節點的DRAM)的操作完成時可以向用戶提交/承諾寫入完成。另外,儲存快取模組(例如寫入緩衝模組)可被配置成提供用戶讀取IO的服務,尤其,可諮詢卷管理器模組以決定該資料的一資料位置(例如該資料所被儲存的位置,諸如一SLBA),例如藉由查詢一卷重映射表(諸如該第二重映射層的該重映射表),並且無需將來自FA的已加載的資料放置到寫入緩衝記憶體(例如:位於該節點的DRAM中的由寫入緩衝模組管理的寫入緩衝器),其中無需讀取快取。例如,當用戶從未寫入資料時,寫入緩衝模組可以使用全零資料將其交給用戶的客戶端裝置;當資料在寫入緩衝記憶體中時,寫入緩衝模組可以將資料從記憶體複製到IO緩衝器(例如:位於該節點的DRAM中的由儲存協定及區塊IO介面模組所管理的緩衝器)並交給用戶的客戶端裝置;以及當資料在該FA中時,寫入緩衝模組可以向該FA提交內部讀取請求來獲取資料,以進一步回傳資料。此外,儲存快取模組(例如寫入緩衝模組)可被配置成將資料從寫入緩衝記憶體刷新到FA並進行內聯儲存(inline storage)功能,尤其,進行一系列如第11圖所示之操作。
第11圖是依據本發明另一實施例的針對用以進行該AFA伺服器(例如第1圖所示的AFA伺服器100)的資料存取管理的方法的一寫入控制方案的流程圖。為了更好地理解,節點100A和100B可以分別用來作為該現用節點以及該待 命節點,尤其分別扮演該現用節點和該待命節點的角色,但本發明不限於此。
在步驟S50中,現用節點(例如節點100A和100B的其中之一,諸如本實施例中的節點100A)可以利用儲存協定及區塊IO介面模組來檢測是否接收到任何請求諸如寫入請求。如果是,進入步驟S51;如果否,重新進入步驟S50。
在步驟S51中,因應在一VVLBA VVLBA0上寫入資料的寫入請求,寫入緩衝模組可以諮詢卷管理器模組來決定一SLBA SLBA0,以便知道要將資料儲存在哪裡,其中卷管理器模組可以回傳該SLBA SLBA0。舉例來說,針對首次寫入的情況(例如,在卷管理器模組檢測到卷管理器模組的重映射表中的該多個VVLBA到SLBA映射信息條目當中沒有一個包含VVLBA VVLBA0的情況下,這表示從這些VVLBA到SLBA映射信息條目中的任何VVLBA到SLBA映射信息條目都找不到VVLBA VVLBA0),卷管理器模組可以將一新SLBA分配為用於儲存資料的SLBA SLBA0,並在卷管理器模組的重映射表中記錄一VVLBA到SLBA映射信息條目{VVLBA0,SLBA0}。在另一個例子中,針對覆寫的情況(例如,在卷管理器模組在卷管理器模組的重映射表中的該多個VVLBA到SLBA映射信息條目中的VVLBA到SLBA映射信息條目{VVLBA0,SLBA0}檢測到VVLBA VVLBA0的情況下,這表示檢測到這個VVLBA到SLBA映射信息條目{VVLBA0,SLBA0}包含VVLBA VVLBA0),卷管理器模組可以將SLBA SLBA0回傳以覆寫資料,這個SLBA SLBA0例如是在先前的寫入操作中已與VVLBA VVLBA0相關聯的SLBA SLBA0。
在步驟S52中,寫入緩衝模組可以諮詢重複資料刪除引擎,以決定是否存在其他SLBA SLBA'具有與待寫入的新資料相同的資料,其中,這個決定結果可以指出該待寫入的新資料是否重複。如果是(例如,檢測到具有與該待寫入的新資料相同的資料的SLBA SLBA’,就是該待寫入的新資料是重複資料),進入步驟S52A;如果否,進入步驟S53。
在步驟S52A中,重複資料刪除引擎可以通知卷管理器模組將卷管理器模組的重映射表中的VVLBA到SLBA映射信息條目{VVLBA0,SLBA0}從{VVLBA0,SLBA0}更新(例如改變)為{VVLBA0,SLBA’},其中更新的VVLBA到SLBA映射信息條目{VVLBA0,SLBA’}可以作為該硬鏈接的一例子。
在步驟S53中,寫入緩衝模組可以藉由壓縮引擎壓縮資料,並將壓縮後的資料放入由快閃記憶體陣列模組管理的一壓縮隊列(queue)中。
在步驟S54中,快閃記憶體陣列模組可以檢查該壓縮隊列是否已經累積了足夠的資料,例如,檢查該壓縮隊列中的所有壓縮資料是否達到一預定資料量(例如該全條帶)。如果是(例如,壓縮隊列已經累積了足夠的資料),進入步驟S55;如果否,重新進入步驟S50。
在步驟S55中,快閃記憶體陣列模組可以將壓縮隊列中的所有壓縮資料刷新到FA(例如,在快閃記憶體陣列模組的控制下的以該SSD群組形成的FA),其中快閃記憶體陣列模組可以更新快閃記憶體陣列模組的重映射表(例如,這個重映射表中的壓縮狀態信息條目{{SLBA,DLBA,Start_Offset,Length},...})。當步驟S55的操作完成時(例如,快閃記憶體陣列模組已經將壓縮隊列中的所有壓縮資料寫入至該SSD群組),快閃記憶體陣列模組可以將完成狀態通知寫入緩衝模組。
在步驟S56中,寫入緩衝模組可以回收寫入緩衝記憶體並更新在待命節點的記憶體狀態(例如,卷管理器模組和快閃記憶體陣列模組的各自的重映射表)。
為了更好的理解,該方法可用第11圖所示的工作流程來說明,但本發明不限於此。依據某些實施例,一個或多個步驟可於第11圖所示的工作流程中增加、刪除或修改。
以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
10A,10B:機架頂(TOR)交換機
12A,12B:固態硬碟(SSD)群組
100:全快閃記憶體陣列(AFA)伺服器
100A,100B:節點
110A,110B:處理器
112A,112B:程式模組
120A,120B:動態隨機存取記憶體(DRAM)
122A,122B:複製到快閃記憶體(C2F)固態硬碟(SSD)
130A,130B:網路介面(IF)模組
132A,132B,134A,134B:網路介面(IF)電路
140A,140B:非透明網橋(NTB)通信電路
150A,150B:主機板管理控制器(BMC)
152A,152B:暫存器電路
160A,160B:儲存介面(IF)模組
162A,162B,164A,164B:儲存介面(IF)電路
170A,170B:備用電源單元

Claims (16)

  1. 一種用以進行一全快閃記憶體陣列(All Flash Array,AFA)伺服器的資料存取管理的方法,該方法包含:利用在該全快閃記憶體陣列伺服器的多個節點(node)的一第一節點上運行的多個程式模組中的一中間層程式模組上方的一上層程式模組來檢測是否接收到來自用戶的一客戶端裝置的任何請求,其中包含一寫入請求的至少一請求已被接收到;因應該寫入請求,利用該中間層程式模組透過該第一節點和一第二節點之間的至少一通信路徑將對應於該寫入請求的資料鏡像(mirror)到該多個節點中的該第二節點,其中該資料從該第一節點的一第一揮發性記憶體鏡像至該第二節點的一第二揮發性記憶體;以及在該中間層程式模組將該資料刷新(flush)到於該多個程式模組中的該中間層程式模組下方的一下層程式模組之前,因應該資料從該第一節點的該第一揮發性記憶體鏡像到該第二節點的該第二揮發性記憶體,利用該中間層程式模組透過該上層程式模組向該客戶端裝置發送對應於該寫入請求的一確認(Acknowledgement,Ack),而且無需檢查該資料是否在該多個節點中的任何一個中的任何非揮發性記憶體中受到保護;其中該上層程式模組被配置成與該客戶端裝置互動,該下層程式模組被配置成與該第一節點的一固態硬碟(solid state drive,SSD)群組互動,且該中間層程式模組被配置成於該上層程式模組以及該下層程式模組之間進行操作。
  2. 如申請專利範圍第1項所述之方法,其中該第一節點在該全快閃記憶體陣列伺服器的一高可用性(High Availability,HA)架構中用來作為一現 用節點,而該第二個節點在該高可用性架構中用來作為一待命節點,其中該現用節點係用來分別因應來自該客戶端裝置的多個請求來進行操作,該多個請求包含該至少一請求,且該待命節點係用來在需要時替換該現用節點以繼續為該用戶提供該全快閃記憶體陣列伺服器的儲存服務,以維持關於該儲存服務的高可用性。
  3. 如申請專利範圍第1項所述之方法,其中藉助於軟體模擬,該多個節點中的任一節點包含基於該多個節點中的另一節點的一模擬永久記憶體,並且該模擬永久記憶體被配置成使用該另一節點的至少一內部備份裝置來保護從該任一節點發送到該另一節點的任何資料。
  4. 如申請專利範圍第1項所述之方法,其中藉助於軟體模擬,該第一節點包含基於該第二節點的一模擬永久記憶體,並且該模擬永久記憶體被配置成使用該第二節點的至少一內部備份裝置來保護該資料。
  5. 如申請專利範圍第4項所述之方法,其中該模擬永久記憶體被配置成使用該第二節點的該至少一內部備份裝置保護從該第一節點發送到該第二節點的任何資料。
  6. 如申請專利範圍第1項所述之方法,其中該至少一通信路徑包含該第一節點的一第一非透明網橋(Non-Transparent Bridge,NTB)通信電路與該第二節點的一第二非透明網橋通信電路之間的一非透明網橋路徑;以及藉助於軟體模擬,該第一節點將該非透明網橋路徑、該第一揮發性記憶體的至少一部分以及第二揮發性記憶體的至少一部分組合為基於該第二節點的一 模擬永久記憶體,以供保護該資料。
  7. 如申請專利範圍第1項所述之方法,其中該上層程式模組包含一儲存協定及區塊輸入輸出(Input/Output,IO)介面模組以供被配置成與該客戶端裝置互動,該下層程式模組包含一儲存池模組以供被配置成與該第一節點的該固態硬碟群組互動,且該中間層程式模組包含一儲存快取模組(Storage Caching module)以供被配置成於該上層程式模組中之該儲存協定及區塊輸入輸出介面模組以及該下層程式模組中之該儲存池模組之間進行操作。
  8. 如申請專利範圍第7項所述之方法,其中在該全快閃記憶體陣列伺服器中,該多個節點中的每一節點被配置成藉助於不同定址名稱空間之間的多個重映射層來進行資料存取管理;以及該多個程式模組中的一卷管理器(Volume Manager)模組被配置成提供該多個重映射層中的一重映射層,並且該儲存池模組內的一快閃記憶體陣列模組被配置成提供該多個重映射層中的另一重映射層。
  9. 如申請專利範圍第1項所述之方法,其中在該全快閃記憶體陣列伺服器中,該多個節點中的每一節點被配置成藉助於不同定址名稱空間之間的多個重映射層來進行資料存取管理;所述定址名稱空間包括一系列裝置邏輯區塊位址(device logical block address,DLBA)的一裝置邏輯區塊定址名稱空間、一系列儲存池邏輯區塊位址(storage pool logical block address,SLBA)的一儲存池邏輯區塊定址名稱空間以及一系列虛擬卷邏輯區塊位址(virtual volume logical block address,VVLBA)的一虛擬卷邏輯區塊定址名稱空間;以及該多個重映射層中的一重映射層是在該系列裝置邏輯區塊位址的該裝置 邏輯區塊定址名稱空間與該系列儲存池邏輯區塊位址的該儲存池邏輯區塊定址名稱空間之間的一第一重映射層,且該多個重映射層中的另一重映射層是在該系列儲存池邏輯區塊位址的該儲存池邏輯區塊定址名稱空間與該系列虛擬卷邏輯區塊位址的該虛擬卷邏輯區塊定址名稱空間之間的一第二重映射層。
  10. 如申請專利範圍第9項所述之方法,其中該下層程式模組包括一快閃記憶體陣列模組,該快閃記憶體陣列模組被配置成在寫入該資料的期間為該資料決定一裝置邏輯區塊位址;以及在運行於該第一節點上的該快閃記憶體陣列模組的控制下,該第一節點被配置成對在該裝置邏輯區塊定址名稱空間中的該固態硬碟群組進行儲存空間池化(pooling)操作,以在該儲存池邏輯區塊定址名稱空間中產生一儲存池,以將該固態硬碟群組中的所有固態硬碟的各自的儲存空間合併為該儲存池的整體儲存空間,其中該儲存池是一邏輯組合的儲存裝置。
  11. 如申請專利範圍第9項所述之方法,其中該多個程式模組包含一卷管理器(Volume Manager)模組,該卷管理器模組被配置成在寫入該資料的期間為該資料決定一儲存池邏輯區塊位址;以及在運行於該第一節點上的該卷管理器模組的控制下,該第一節點被配置成對在該儲存池邏輯區塊定址名稱空間中的該儲存池進行儲存空間供應(provision)操作以產生多個虛擬卷,並將該儲存池的整體儲存空間的多個部分指派(assign)為該多個虛擬卷的各自的儲存空間,以供用來作作為各個專用儲存區域,其中,該儲存池是藉由組合在該裝置邏輯區塊定址名稱空間中的該固態硬碟群組而產生的一邏輯組合的儲存裝置。
  12. 如申請專利範圍第1項所述之方法,更包含:利用該下層程式模組來壓縮該資料以產生一組壓縮資料;利用該下層程式模組收集多組壓縮資料並將該多組壓縮資料寫入對應於該第一節點的該固態硬碟群組中,以產生包含分別儲存在該固態硬碟群組中的多個固態硬碟中的多個組塊(chunk)的一條帶(stripe),其中該多組壓縮資料包括該組壓縮資料;以及利用該下層程式模組記錄該多組壓縮資料的各自的壓縮狀態信息條目(entry),其中該多組壓縮資料的所述各自的壓縮狀態信息條目分別指出該多組壓縮資料的各自的壓縮狀態。
  13. 如申請專利範圍第12項所述之方法,其中該至少一請求更包含一讀取請求;以及該方法更包含:因應該讀取請求,利用該中間層程式模組將對應於該讀取請求的一內部讀取請求提交給該下層程式模組;利用該下層程式模組從該固態硬碟群組為該中間層程式模組讀取該條帶;利用該中間層程式模組諮詢一關於壓縮的程式模組以對該條帶進行解壓縮操作以獲得該資料;以及利用該中間層程式模組透過該上層程式模組將該資料回傳給該客戶端裝置。
  14. 一種全快閃記憶體陣列(All Flash Array,AFA)伺服器,包含:多個節點,包含:一第一節點,包含:至少一處理器,用以在一第一組程式模組的控制下控制該第一節點的操 作;以及一第一揮發性記憶體,用以為該第一節點暫時儲存信息;以及一第二節點,包含:至少一處理器,用以在一第二組程式模組的控制下控制該第二節點的操作,其中該第二組程式模組分別與該第一組程式模組相同;以及一第二揮發性記憶體,用以為該第二節點暫時儲存信息;以及複數個固態硬碟(solid state drive,SSD),包含:一第一固態硬碟群組,對應於該第一節點;以及一第二固態硬碟群組,對應於該第二節點;其中:在該第一節點上運行的該第一組程式模組中的一中間層程式模組上方的一上層程式模組檢測是否接收到來自用戶的一客戶端裝置的任何請求,其中包含一寫入請求的至少一請求已被接收到;因應該寫入請求,該中間層程式模組透過該第一節點和該第二節點之間的至少一通信路徑將對應於該寫入請求的資料鏡像(mirror)到該第二節點,其中該資料從該第一節點的該第一揮發性記憶體鏡像至該第二節點的該第二揮發性記憶體;以及在該中間層程式模組將該資料刷新(flush)到於該第一組程式模組中的該中間層程式模組下方的一下層程式模組之前,因應該資料從該第一節點的該第一揮發性記憶體鏡像到該第二節點的該第二揮發性記憶體,該中間層程式模組透過該上層程式模組向該客戶端裝置發送對應於該寫入請求的一確認(Acknowledgement,Ack),而且無需檢查該資料是否在該多個節點中的任何一個中的任何非揮發性記憶體中受到保護; 其中該上層程式模組被配置成與該客戶端裝置互動,該下層程式模組被配置成與對應於該第一節點的該第一固態硬碟群組互動,且該中間層程式模組被配置成於該上層程式模組以及該下層程式模組之間進行操作。
  15. 如申請專利範圍第14項所述之全快閃記憶體陣列伺服器,其中:該下層程式模組壓縮該資料以產生一組壓縮資料;該下層程式模組收集多組壓縮資料並將該多組壓縮資料寫入對應於該第一節點的該第一固態硬碟群組中,以產生包含分別儲存在該第一固態硬碟群組中的多個固態硬碟中的多個組塊(chunk)的一條帶(stripe),其中該多組壓縮資料包括該組壓縮資料;以及該下層程式模組記錄該多組壓縮資料的各自的壓縮狀態信息條目(entry),其中該多組壓縮資料的所述各自的壓縮狀態信息條目分別指出該多組壓縮資料的各自的壓縮狀態。
  16. 如申請專利範圍第15項所述之全快閃記憶體陣列伺服器,其中該至少一請求更包含一讀取請求,其中:因應該讀取請求,該中間層程式模組將對應於該讀取請求的一內部讀取請求提交給該下層程式模組;該下層程式模組從該第一固態硬碟群組為該中間層程式模組讀取該條帶;該中間層程式模組諮詢一關於壓縮的程式模組以對該條帶進行解壓縮操作以獲得該資料;以及該中間層程式模組透過該上層程式模組將該資料回傳給該客戶端裝置。
TW110103686A 2020-03-02 2021-02-01 用以進行全快閃記憶體陣列伺服器的資料存取管理的方法與設備 TWI768693B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202062983756P 2020-03-02 2020-03-02
US62/983,756 2020-03-02
US16/984,132 US20210271393A1 (en) 2020-03-02 2020-08-03 Method and apparatus for performing data access management of all flash array server
US16/984,132 2020-08-03

Publications (2)

Publication Number Publication Date
TW202134880A TW202134880A (zh) 2021-09-16
TWI768693B true TWI768693B (zh) 2022-06-21

Family

ID=77463006

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110103686A TWI768693B (zh) 2020-03-02 2021-02-01 用以進行全快閃記憶體陣列伺服器的資料存取管理的方法與設備

Country Status (3)

Country Link
US (1) US20210271393A1 (zh)
CN (1) CN113342258B (zh)
TW (1) TWI768693B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114201115A (zh) * 2021-12-14 2022-03-18 北京达佳互联信息技术有限公司 数据存储系统、方法、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693214A (zh) * 2011-01-26 2012-09-26 株式会社日立制作所 传感器信息处理分析系统以及分析服务器
CN105264493A (zh) * 2013-02-12 2016-01-20 华为技术有限公司 信息中心网络上的动态虚拟机迁移
CN109697025A (zh) * 2017-10-20 2019-04-30 株式会社日立制作所 存储装置、数据管理方法和数据管理程序的存储介质
TW202008170A (zh) * 2018-08-06 2020-02-16 慧榮科技股份有限公司 用於在儲存伺服器中進行儲存控制的方法、記憶裝置及其記憶體控制器、以及儲存伺服器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6418506B1 (en) * 1996-12-31 2002-07-09 Intel Corporation Integrated circuit memory and method for transferring data using a volatile memory to buffer data for a nonvolatile memory array
JPH11239254A (ja) * 1998-02-19 1999-08-31 Ricoh Co Ltd デジタル複合機
JP4049297B2 (ja) * 2001-06-11 2008-02-20 株式会社ルネサステクノロジ 半導体記憶装置
JP2004246939A (ja) * 2003-02-12 2004-09-02 Toshiba Corp 電子機器のメモリオンボード書込み装置および電子機器
KR101429183B1 (ko) * 2012-05-09 2014-08-12 주식회사 디에이아이오 반도체 메모리 시스템 및 이의 동작 방법
US9286007B1 (en) * 2013-03-14 2016-03-15 Emc Corporation Unified datapath architecture
US10114829B1 (en) * 2015-06-26 2018-10-30 EMC IP Holding Company LLC Managing data cache for file system realized within a file
US11422719B2 (en) * 2016-09-15 2022-08-23 Pure Storage, Inc. Distributed file deletion and truncation
TWI698742B (zh) * 2017-11-30 2020-07-11 慧榮科技股份有限公司 用來於一記憶裝置中進行存取控制之方法以及記憶裝置及其控制器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693214A (zh) * 2011-01-26 2012-09-26 株式会社日立制作所 传感器信息处理分析系统以及分析服务器
CN105264493A (zh) * 2013-02-12 2016-01-20 华为技术有限公司 信息中心网络上的动态虚拟机迁移
CN109697025A (zh) * 2017-10-20 2019-04-30 株式会社日立制作所 存储装置、数据管理方法和数据管理程序的存储介质
TW202008170A (zh) * 2018-08-06 2020-02-16 慧榮科技股份有限公司 用於在儲存伺服器中進行儲存控制的方法、記憶裝置及其記憶體控制器、以及儲存伺服器

Also Published As

Publication number Publication date
CN113342258A (zh) 2021-09-03
CN113342258B (zh) 2024-03-26
TW202134880A (zh) 2021-09-16
US20210271393A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
US11093324B2 (en) Dynamic data verification and recovery in a storage system
US8832363B1 (en) Clustered RAID data organization
KR101769883B1 (ko) 저장부 할당 장치, 시스템, 및 방법
US9069476B2 (en) Method for managing storage system using flash memory, and computer
US20170269980A1 (en) Methods to identify, handle and recover from suspect ssds in a clustered flash array
US9304901B2 (en) System and method for handling I/O write requests
EP2799973B1 (en) A method for layered storage of enterprise data
JP5112003B2 (ja) ストレージ装置及びこれを用いたデータ格納方法
US8250335B2 (en) Method, system and computer program product for managing the storage of data
CN111587423B (zh) 分布式存储系统的分层数据策略
KR101055918B1 (ko) 패일오버에 따른 캐시 데이터의 보존
WO2013008264A1 (en) Storage system and its data processing method
US20080320258A1 (en) Snapshot reset method and apparatus
US20150095696A1 (en) Second-level raid cache splicing
US10235059B2 (en) Technique for maintaining consistent I/O processing throughput in a storage system
WO2015011825A1 (ja) ストレージシステムおよびストレージシステムの制御方法
US11809720B2 (en) Techniques for storage management
US8799573B2 (en) Storage system and its logical unit management method
US11526447B1 (en) Destaging multiple cache slots in a single back-end track in a RAID subsystem
TWI768693B (zh) 用以進行全快閃記憶體陣列伺服器的資料存取管理的方法與設備
WO2018022779A1 (en) Evacuating blades in a storage array that includes a plurality of blades
US20180307427A1 (en) Storage control apparatus and storage control method
JP5597266B2 (ja) ストレージシステム
TW202230122A (zh) 用於為儲存裝置資料複製卸載的系統及方法
JP2014182812A (ja) データ記憶装置