CN114327300A - 一种数据存储方法、ssd控制器、ssd及电子设备 - Google Patents
一种数据存储方法、ssd控制器、ssd及电子设备 Download PDFInfo
- Publication number
- CN114327300A CN114327300A CN202210202041.3A CN202210202041A CN114327300A CN 114327300 A CN114327300 A CN 114327300A CN 202210202041 A CN202210202041 A CN 202210202041A CN 114327300 A CN114327300 A CN 114327300A
- Authority
- CN
- China
- Prior art keywords
- data
- cache
- flash memory
- ssd
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Techniques For Improving Reliability Of Storages (AREA)
- Memory System (AREA)
Abstract
本申请实施例提供一种数据存储方法、SSD控制器、SSD及电子设备,其中方法包括:将所述数据流缓存到SSD的非易失性缓存;其中,所述非易失性缓存为SSD的闪存颗粒的前置缓存,并且所述非易失性缓存的数据读写延时介于SSD中的易失性缓存和闪存颗粒之间;若所述非易失性缓存中缓存的数据流达到预设的写入条件,将达到所述写入条件的数据流,写入到所述闪存颗粒。本申请实施例可以降低多流技术下数据流传输数量的限制,提升SSD支持的多流数量,从而提升SSD的数据存储性能。
Description
技术领域
本申请实施例涉及存储器技术领域,具体涉及一种数据存储方法、SSD控制器、SSD及电子设备。
背景技术
SSD(Solid State Disk,固态硬盘)是使用固态电子存储芯片阵列制成的硬盘,其可以采用闪存颗粒作为存储介质。相比于传统的机械硬盘,SSD具有读写速度快、功耗低、噪音低、轻便等优点,因此SSD在存储领域得到了广泛的应用。
在Multi-Stream(多流)技术下,SSD可通过Multi-Stream协议,将主机端传输的数据流在闪存颗粒中进行分区存放,以实现SSD的盘内区域隔离。然而,出于SSD掉电时的数据存储安全性、以及闪存颗粒可能多次page(页) program(编程)的考虑,SSD可支持的多流数量会存在一定的限制,因此如何优化SSD的数据存储方案,以提升SSD支持的多流数量,从而提升SSD的数据存储性能,成为了本领域技术人员亟需解决的技术问题。
发明内容
有鉴于此,本申请实施例提供一种数据存储方法、SSD控制器、SSD及电子设备,以提升SSD支持的多流数量,从而提升SSD的数据存储性能。
为实现上述目的,本申请实施例提供如下技术方案。
第一方面,本申请实施例提供一种数据存储方法,包括:
获取主机传输的数据流;
将所述数据流缓存到SSD的非易失性缓存;其中,所述非易失性缓存为SSD的闪存颗粒的前置缓存,并且所述非易失性缓存的数据读写延时介于SSD中的易失性缓存和闪存颗粒之间;
若所述非易失性缓存中缓存的数据流达到预设的写入条件,将达到所述写入条件的数据流,写入到所述闪存颗粒。
第二方面,本申请实施例提供一种数据存储方法,包括:
检测SSD的闪存颗粒中数据的读取频率;
若数据的读取频率高于预定频率,将所述数据搬移到所述闪存颗粒的前置缓存;所述前置缓存包括非易失性缓存,所述非易失性缓存的数据读写延时介于SSD中的易失性缓存和闪存颗粒之间。
第三方面,本申请实施例提供一种SSD控制器,所述SSD控制器被配置为执行如上述第一方面所述的数据存储方法,或者,如上述第二方面所述的数据存储方法。
第四方面,本申请实施例提供一种SSD,包括:如上述所述的SSD控制器、非易失性缓存、以及闪存颗粒;
其中,所述非易失性缓存作为所述闪存颗粒的前置缓存,用于缓存主机传输至所述SSD的数据流;所述非易失性缓存的数据读写延时介于所述SSD的易失性缓存和闪存颗粒之间。
第五方面,本申请实施例提供一种电子设备,包括主机以及如上述所述的SSD,所述主机与所述SSD之间通过多流协议传输数据。
本申请实施例在SSD的闪存颗粒使用单位bit数较多的闪存单元,并且闪存颗粒需要进行多次page program时,可在SSD中设置非易失性缓存作为闪存颗粒的前置缓存,并且该非易失性缓存的数据读写延时介于SSD中的易失性缓存和非易失性的闪存颗粒之间。从而,在SSD获取到主机端传输的数据流时,本申请实施例可将所述数据流缓存到SSD中的非易失性缓存中,并且非易失性缓存中的数据流达到预设的写入条件时,可写入到闪存颗粒中,以实现多流场景下,数据流在SSD中的分区隔离存储。由于本申请实施例使用非易失性缓存作为闪存颗粒的前置缓存,来缓存主机侧传输的数据流,因此即使SSD发生掉电情况,本申请实施例也可保障非易失性缓存中的数据不出现丢失,而不必在掉电时立刻将非易失性缓存中的数据写入到闪存颗粒中;从而,本申请实施例可规避SSD中的电容对于前置缓存所缓存的数据量限制,避免主机侧的数据流数量所受的限制,从而提升主机侧在多流场景下可传输给SSD的数据流数量,提升SSD的数据存储性能。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1A为SSD的结构示例图。
图1B为闪存颗粒的类型示例图。
图2为应用SSD的电子设备的示例图。
图3为本申请实施例提供的SSD的另一示例图。
图4A为本申请实施例提供的数据存储方法的流程图。
图4B为本申请实施例提供的数据存储方法的另一流程图。
图5A为本申请实施例提供的SSD的再一示例图。
图5B为本申请实施例提供的数据存储方法的再一流程图。
图5C为本申请实施例提供的数据存储方案的实现示例图。
图6为本申请实施例提供的SSD的又一示例图。
图7A为本申请实施例提供的数据存储方法的又一流程图。
图7B为本申请实施例搬移数据到前置缓存的方法流程图。
图8为本申请实施例提供的SSD的又另一示例图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1A示例性的示出了SSD的结构示例图,如图1A所示,SSD可以包括:SSD控制器110和闪存颗粒120。SSD控制器110为SSD中的主控芯片,主要实现SSD中的数据存储控制和管理,例如SSD控制器可管理用户(一般为主机侧)传输至SSD进行读写的数据流、管理逻辑地址和物理地址的映射、管理闪存颗粒的特性等。闪存颗粒120为SSD中存储数据的存储介质,在一些实施例中,闪存颗粒可以是非易失性的存储介质。例如,SSD中可以使用NAND闪存颗粒,其中,NAND闪存是一种非易失性存储技术,即断电后仍能保存数据。
闪存颗粒(例如NAND闪存颗粒)可以由多个以bit(比特)为单位的闪存单元构成,一个闪存单元存储数据的单位bit数可以是一位或者多位。基于闪存颗粒中的每个闪存单元存储数据的单位bit数,闪存颗粒可以分为多种不同的类型。也就是说,基于闪存颗粒中电子单元的密度大小,闪存颗粒可以具有不同的类型。图1B示例性的示出了闪存颗粒的类型示例图,可进行参照。如图1B所示,闪存颗粒可以分为SLC(Single Level Cell,单层单元)、MLC(Multi Level Cell,多层单元)、TLC(Triple Level Cell,三层单元)、QLC(QuadLevel Cell,四层单元)等多种类型;其中,基于SLC的闪存颗粒以1bit为单位存储数据,基于MLC的闪存颗粒以2bit为单位存储数据,基于TLC的闪存颗粒以3bit为单位存储数据,基于QLC的闪存颗粒以4bit为单位存储数据。需要说明的是,闪存单元的单位bit数越多,则闪存颗粒每bit的数据存储成本越低,但是理论上的数据读写速度越慢;例如QLC和TLC相比于SLC和MLC具有更低的数据存储成本,但是数据读写速度则较慢。因此QLC等单位bit数较多的闪存单元比较适用于数据存储量较大且需求成本较低的数据存储场景,例如数据仓库等企业级的数据存储场景。
可以看出,随着闪存单元存储数据的单位bit数增多(例如闪存颗粒基于QLC等单位bit数较多的闪存单元存储数据),SSD能够降低数据的单bit存储成本,但是在实际应用过程中,闪存单元的单位bit数增多,将带来闪存颗粒的数据稳定性变差、读写page的时间变长,写入数据需要多次page program(编程)等挑战,这导致SSD需要为闪存颗粒设置大容量的前置缓存,以满足闪存颗粒多次page program的需求。在此情况下,如果该前置缓存选用大容量的易失性缓存(例如DDR缓存),则出于SSD掉电时的数据存储安全性考虑,SSD需要为该前置缓存设置大容量的电容,以在SSD掉电时,通过该大容量的电容将前置缓存中的数据写入到闪存颗粒。而在Multi-Stream场景下,为保障前置缓存中缓存的数据流,能够在掉电时写入到闪存颗粒中,前置缓存需要基于电容可支持的写入数据量来缓存数据,这导致SSD需要基于电容可支持的写入数据量来限制多流数量,致使SSD在应用Multi-Stream技术时,存在多流数量限制。
为便于说明上述问题,以基于QLC的闪存颗粒为例,图2示例性的示出了应用SSD的电子设备的示例图,如图2所示,该电子设备可以包括:主机210、接口220、SSD 230。其中,主机210可以例如与SSD 230耦合的计算机,主机中可设置处理器等用于数据处理、计算的处理核心。接口220可以是主机210与SSD 230耦合接口,并支持Multi-Stream协议。SSD 230为主机210耦合的固态硬盘,其通过接口220与主机210交换数据,在本示例中,SSD可以包括SSD控制器110、基于QLC的闪存颗粒120、易失性缓存240和电容250。
在主机与SSD传输数据的过程中,主机与SSD可通过Multi-Stream协议传输数据,并且SSD可通过Multi-Stream技术,将主机端传输的数据进行分区存放。具体来说,在Multi-Stream技术下,主机端可传输给SSD多个数据流,并且数据流会携带Stream ID(数据流标识);SSD可根据主机端提供的Stream ID,将具有相同Stream ID的数据(相同StreamID的数据一般具有相同或相似的数据特性)写入到闪存颗粒的相似物理空间中,以实现SSD的盘内区域隔离。
结合图2所示,在Multi-Stream场景下,易失性缓存240作为闪存颗粒120的前置缓存,易失性缓存240可以缓存主机210传输给SSD的多个数据流,并且该多个数据流可通过易失性缓存240写入到闪存颗粒120中,实现不同Stream ID的数据流在闪存颗粒中的分区存放。在一个示例中,易失性缓存240可以为DDR(Double Data Rate,双倍数据速率)缓存,DDR缓存可以DRAM(Dynamic Random Access Memory,动态随机存取存储器)为介质。
然而,由于易失性缓存240的易失性特点(即掉电时,易失性缓存240中的数据将会丢失),为保障SSD的数据存储安全,易失性缓存240中的数据需要在掉电时写入到闪存颗粒中,此时,SSD控制器110需要驱动电容250来控制易失性缓存240在掉电时,将数据写入到闪存颗粒。在此情况下,由于基于QLC的闪存颗粒需要通过多次的program进行写数据,在多流并发下,为避免易失性缓存240中缓存的数据过多,难以在掉电情况下完全写入到闪存颗粒中而出现数据丢失,因此需要在闪存颗粒每次program的间隔内,限制易失性缓存240所缓存的数据量。例如,在闪存颗粒每次program的间隔内,需要限制易失性缓存240所缓存的数据量不超过电容250可支持的写入数据量,从而避免易失性缓存240中超出的数据在掉电时难以写入到闪存颗粒中,出现数据丢失的不安全情况。
需要说明的是,闪存颗粒中的一个 block 通常包含多个page,因此在Multi-Stream技术下,闪存颗粒在块中读写数据时,涉及到对于page的读写操作。此时,如果闪存颗粒使用QLC等单位bit数较多的闪存单元,则闪存颗粒需要通过多次的program进行写数据,同时闪存颗粒需要较长的时间进行page读写、闪存颗粒的tProg和tR的时间均较长(tProg是指数据编程写入page的时间,tR是指数据从page读取的时间)。
通过上述描述可以看出,在SSD使用易失性缓存作为闪存颗粒的前置缓存时,如果闪存颗粒使用QLC等单位bit数较多的闪存单元,则出于掉电时的数据存储安全性、以及闪存颗粒可能多次page program的考虑,需要基于电容能支持的写入数据量,来限制易失性缓存所缓存的数据量,这导致主机侧并发传输的数据流数量需要进行限制,以避免较多的数据流同时缓存在易失性缓存;而这进一步导致主机侧难以并发传输数量较多的数据流,从而对于Multi-Stream技术的应用造成限制,降低了SSD的数据存储性能。
解决上述问题的一个思路是,由于主机侧可传输的数据流数量与缓存所能保存的数据量呈正相关,因此可在SSD中设置更大容量的电容,以提升电容所能支持的易失性缓存的写入数据量,然而SSD的电路板空间有限,更大容量的电容设置将挤占SSD的板上空间,并且提升了SSD的设计难度。
基于此,本申请实施例提供改进型的技术思路,在SSD中设置大容量和单bit数据存储成本较低的非易失性缓存,通过非易失性缓存来缓存Multi-Stream场景下的数据流,并且基于非易失性缓存的非易失特性,规避SSD在掉电时数据可能出现丢失的不安全问题。
基于上述思路,本申请实施例考虑在SSD中引入非易失性缓存,该非易失性缓存的数据读写延时介于易失性缓存和闪存颗粒之间(闪存颗粒可以为非易失性的存储介质);并且将该非易失性缓存作为闪存颗粒的前置缓存,通过改进多流技术下的数据存储方案,使得闪存颗粒在使用QLC等单位bit数较多的闪存单元时,本申请实施例能够通过该非易失性缓存的非易失特性,将闪存颗粒的tProg和tR的时间较长、较长的page读写时间的缺点所带来的约束进行规避,从而在SSD掉电时,仍能通过该非易失性缓存保存数据,而不必将数据立刻写入到闪存颗粒中,进而本申请实施例可规避电容所能支持的写入数据量对于SSD缓存数据的限制,提升Multi-Stream的多流数量,提升SSD的数据存储性能。
作为可选实现,图3示例性的示出了本申请实施例提供的SSD的另一示例图。参照图3所示,在本申请实施例中,SSD可以包括:SSD控制器110、闪存颗粒120、非易失性缓存310;闪存颗粒120可以使用单位bit数较多的闪存单元,比如闪存颗粒120使用的闪存单元存储数据的单位bit数为4(例如基于QLC的闪存颗粒),或者大于4;在闪存颗粒使用单位bit数较多的闪存单元时,闪存颗粒需要通过多次的pageprogram进行写数据。
非易失性缓存310为SSD中设置的非易失性的内存缓存,并且非易失性缓存310的数据读写延时介于易失性缓存和闪存颗粒120之间。
在一个示例中,非易失性缓存310可以为SCM(Storage Class Memory,储存级存储器),例如PCM(Phase-change memory,相变存储器)、3D-Xpoint等;SCM具有容量大和单bit成本比DRAM等易失性缓存低3到5倍的特点。
在本申请实施例中,非易失性缓存可作为闪存颗粒的前置缓存,用于对主机侧传输的数据流进行缓存,并且非易失性缓存中的数据流可写入到闪存颗粒中。在一些实施例中,主机端在传输多个数据流时,数据流可通过非易失性缓存作为桥梁,写入SSD的闪存颗粒(简称为写数据过程);并且闪存颗粒中的数据,可通过非易失性缓存作为桥梁进行读取(简称为读数据过程)。下面将分别从写数据和读数据的角度,对本申请实施例提供的数据存储方法进行介绍。
作为可选实现,图4A示例性的示出了本申请实施例提供的数据存储方法的可选流程图。该方法流程可由SSD执行实现,例如由SSD中的SSD控制器执行实现。需要说明的是,SSD控制器内部可设置硬件加速模块和片内处理器,本申请实施例可结合SSD控制器内部的硬件逻辑以及片内处理器的程序逻辑,执行实现该方法流程。参照图4A,该方法流程可以包括如下步骤。
在步骤S410中,获取主机传输的数据流。
在步骤S411中,将所述数据流缓存到SSD的非易失性缓存。
在步骤S412中,若所述非易失性缓存中的缓存的数据流达到预设的写入条件,将达到所述写入条件的数据流,写入到闪存颗粒。
在一些实施例中,数据流从非易失性缓存写入到闪存颗粒的写入条件例如:任一数据流在非易失性缓存中缓存的数据量达到闪存颗粒的最小编程单元的数据量要求,则可将该数据流写入到闪存颗粒中;或者,在发生掉电时,如果非易失性缓存中缓存的数据流的数据量未达到最小编程单元的数据量要求,则补足数据流的数据量,从而将补足数据量的数据流写入到闪存颗粒中。
在一个示例中,假设闪存颗粒的最小编程单元要求的数据量为96KB(最小编程单元的具体数据量要求可根据闪存颗粒的具体情况设置,本申请实施例并不设限),主机侧以4KB为单位持续性的传输数据流,则在非易失性缓存缓存主机侧传输的数据流后,如果任一个数据流的数据量达到96KB,则该数据流可从非易失性缓存写入到闪存颗粒中。在进一步的示例中,如果任一个数据流在非易失性缓存中所缓存的数据量未达到96KB时,发生掉电情况,则非易失性缓存可将该数据流的数据量补足到96KB(例如通过空白值或者其他设定数值进行数据量的补充),并将补足到96KB的数据流从非易失性缓存写入到闪存颗粒中。
在一些实施例中,本申请实施例在将数据流从非易失性缓存写入到闪存颗粒时,可根据数据流携带的数据流标识,将不同数据流标识的数据流写入到闪存颗粒的不同区域,以实现不同数据流标识的数据在SSD中的分区隔离存储。
本申请实施例在SSD的闪存颗粒使用单位bit数较多的闪存单元,并且闪存颗粒需要进行多次page program时,可在SSD中设置非易失性缓存作为闪存颗粒的前置缓存,并且该非易失性缓存的数据读写延时介于SSD中的易失性缓存和非易失性的闪存颗粒之间。从而,在SSD获取到主机端传输的数据流时,本申请实施例可将所述数据流缓存到SSD中的非易失性缓存中,并且非易失性缓存中的数据流达到预设的写入条件时,可写入到闪存颗粒中,以实现多流场景下,数据流在SSD中的分区隔离存储。由于本申请实施例使用非易失性缓存作为闪存颗粒的前置缓存,来缓存主机侧传输的数据流,因此即使SSD发生掉电情况,本申请实施例也可保障非易失性缓存中的数据不出现丢失,而不必在掉电时立刻将非易失性缓存中的数据写入到闪存颗粒中;从而,本申请实施例可规避SSD中的电容对于前置缓存所缓存的数据量限制,进而避免主机侧的数据流数量受到限制,提升主机侧在多流场景下可传输给SSD的数据流数量,提升SSD的数据存储性能。
在本申请实施例的一些实施例中,SSD设置的非易失性缓存可缓存主机侧传输的所有数据流,也可仅设置非易失性缓存对主机侧传输的特定特性的数据流进行缓存。作为可选实现,本申请实施例可设置非易失性缓作为闪存颗粒的前置缓存,并且缓存多流技术下第一特性的数据流(例如读写性能要求低的数据流、冷数据、数据块较小的数据流等)。也就是说,主机端在传输多个数据流时,第一特性的数据流可通过非易失性缓存作为桥梁,写入SSD的闪存颗粒;并且闪存颗粒中第一特性的数据,可通过非易失性缓存作为桥梁进行读取。
作为可实现,图4B示例性的示出了本申请实施例提供的数据存储方法的另一可选流程图。该方法流程可由SSD控制器执行实现,参照图4B,该方法流程可以包括如下步骤。
在步骤S420中,获取主机传输的数据流。
在步骤S421中,确定所述数据流的数据特性。
在本申请实施例中,主机可通过与SSD的接口协议(例如Multi-Stream协议),将数据流传输到SSD,从而SSD中的SSD控制器可获取主机传输的多个数据流,并确定每个数据流的数据特性。
在一些实施例中,在Multi-Stream技术下,基于SSD在多流的接口协议特性,主机可根据数据流的读写特征(例如,数据流的冷热特征、读写性能要求、数据块大小等),为传输给SSD的数据流标记Stream ID,从而主机可将携带Stream ID的数据流传输给SSD。此时,SSD控制器可获取到主机端传输的携带Stream ID的多个数据流,并基于每个数据流携带的Stream ID,确定每个数据流的数据特性。
作为可选实现,本申请实施例可将数据流分为第一特性的数据流和第二特性的数据流,例如,第一特性的数据流包括读写性能要求低的数据流、冷数据、数据块较小的数据流,第二特性的数据流包括读写性能要求高的数据流、热数据、数据块较大的数据流等。也就是说,在可能的示例中,第一特性的数据流的读写性能要求低于第二特性的数据流、或者第一特性的数据流的数据块小于第二特性的数据流、或者第一特性的数据流为冷数据并且第二特性的数据流为热数据。冷数据可以理解为是访问频率较低的数据,比如企业备份数据、操作日志数据等,热数据可以理解为是频繁访问的数据,比如Meta data(元数据)等。
在本申请实施例中,主机端传输的第一特性的数据流可由SSD中设置的非易失性缓存(例如SCM)进行前置缓存。作为可选实现,针对第一特性的数据流,本申请实施例可设置第一特性的数据对应的Stream ID范围,从而SSD控制器可通过主机端传输的数据流携带的Stream ID,确定主机端传输的数据流的特性是否为第一特性,比如,主机端传输的数据流携带的Stream ID在第一特性的数据流对应的Stream ID范围内,则可确定主机端传输的数据流为第一特性的数据流,可由SSD中的非易失性缓存进行前置缓存。
在步骤S422中,若所述数据特性为第一特性,将所述数据流缓存到SSD中的非易失性缓存。
SSD控制器在确定主机传输的数据流的数据特性为第一特性时(例如数据流携带的Stream ID在第一特性的数据流对应的Stream ID范围内),则SSD控制器可确定由非易失性缓存进行数据流的缓存,从而SSD控制器可将数据流缓存到非易失性缓存中。在一个示例中,主机端传输的读写性能要求较低的数据流、冷数据、数据块较小的数据流可缓存到非易失性缓存中,例如,SSD控制器在基于数据流携带的Stream ID,确定数据流为读写性能要求较低的数据流、冷数据、数据块较小的数据流中的任一项时,可基于数据流携带的StreamID,将数据流缓存到非易失性缓存。
在步骤S423中,若所述非易失性缓存中缓存的数据流达到预设的写入条件,将达到所述写入条件的数据流,写入到闪存颗粒。
在进一步的一些实施例中,基于非易失性缓存作为闪存颗粒的前置缓存,因此非易失性缓存所缓存的数据达到一定条件时,需要写入到前置缓存中。作为可选实现,本申请实施例可设置数据流从缓存(包括非易失性缓存和易失性缓存)写入到闪存颗粒的写入条件,当非易失性缓存中缓存的数据流达到该写入条件时,本申请实施例可将数据流从非易失性缓存写入到闪存颗粒。具体的写入条件内容可参照前文相应部分的描述。
针对第一特性的数据流,本申请实施例可将非易失性缓存作为闪存颗粒和主机之间的中间数据缓存,从而利用非易失性缓存的数据读写延时高于易失性缓存、低于闪存颗粒,并且非易失性缓存的大容量、单bit数据存储成本较低以及非易失性的特性,避免SSD在掉电时需要通过电容将前置缓存中的数据立刻写入到闪存颗粒的情况,进而将闪存颗粒多次的page program所带来的约束进行规避,提升了多流场景下主机侧可传输的数据流数量,减少了主机侧的数据传输约束,为提升SSD更大的存储性能提供了可能。进一步的,通过非易失性缓存对第一特性的数据进行缓存和管理,可使得SSD能够在多流技术下满足主机端读写数据的多流特性要求。
在进一步的一些实施例中,本申请实施例也可在SSD中设置易失性缓存,该易失性缓存可用于在非多流场景下,作为闪存颗粒的前置缓存来缓存数据;该易失性缓存也可在多流场景下,作为闪存颗粒的前置缓存,用于对主机侧传输的第二特性的数据流进行缓存(例如缓存读写性能要求高的数据流、热数据、数据块较大的数据流等)。作为可选实现,图5A示例性的示出了本申请实施例提供的SSD的再一示例图。结合图3和图5A所示,SSD还可以包括:易失性缓存240。在一个示例中,易失性缓存240可以为DDR(Double Data Rate,双倍数据速率)缓存,此处所指的DDR缓存可以例如DDR4、DDR5等SSD内部的数据缓存,DDR缓存具有低延时的数据读写特性。DDR缓存为易失性的缓存,在多流场景下,本申请实施例由非易失性缓存缓存第一特性的数据流,由易失性缓存缓存第二特性的数据流,因此在设备掉电时,本申请实施例需要进一步确保易失性缓存240中的数据写入到闪存颗粒内。
作为可选实现,图5B示例性的示出了本申请实施例提供的数据存储方法的再一可选流程图,该方法流程可由SSD控制器执行实现,参照图5B,该方法流程可以包括如下步骤。
在步骤S501中,获取主机传输的数据流。
在步骤S502中,确定所述数据流的数据特性。
在步骤S503中,若所述数据特性为第一特性,将所述数据流缓存到SSD中的非易失性缓存。
在步骤S504中,若所述非易失性缓存中缓存的数据流达到预设的写入条件,将达到所述写入条件的数据流,写入到闪存颗粒。
步骤S501至步骤S504的介绍可参照前文相应部分的描述。
在步骤S505中,若所述数据特性为第二特性,将所述数据流缓存到SSD中的易失性缓存。
在一些实施例中,针对第二特性的数据流,本申请实施例可设置第二特性的数据流对应的Stream ID范围,从而SSD控制器可通过主机端传输的数据流携带的Stream ID,确定主机端传输的数据流的特性是否为第二特性,比如,主机端传输的数据流携带的StreamID在第二特性的数据流对应的Stream ID范围内,则可确定主机端传输的数据流为第二特性的数据流,可由SSD中的易失性缓存进行前置缓存。
在步骤S506中,若所述易失性缓存中缓存的数据流达到写入条件,将达到所述写入条件的数据流,写入到闪存颗粒。
易失性缓存中缓存的数据流写入到闪存颗粒的条件可同理参照前文相应部分的描述。
结合图4B和图5B所示流程,可以看出,本申请实施例在设置非易失性缓存对第一特性的数据流进行前置缓存的情况下,还可设置易失性缓存对第二特性的数据流进行前置缓存。基于易失性缓存具有低延时的数据读写特性(例如易失性缓存的数据读写延时低于非易失性缓存和闪存颗粒),因此易失性缓存可被配置为对主机端传输的读写性能要求较高的数据流、热数据、数据块较大的数据流等第二特性的数据流进行缓存,从而使得SSD能够在多流技术下进一步满足主机端读写数据的多流特性要求。
作为可选实现,本申请实施例可设置非易失性缓存的数据读写延时介于易失性缓存和闪存颗粒之间;例如,非易失性缓存的数据读写延时高于易失性缓存,低于闪存颗粒。在一个示例中,非易失性缓存为SCM,易失性缓存为DDR缓存,闪存颗粒基于QLC。
需要进一步说明的是,在设置易失性缓存缓存第二特性的数据流的情况下,为保障易失性缓存中的数据在掉电时能够写入到闪存颗粒,本申请实施例需对易失性缓存所缓存的数据量进行限制,例如易失性缓存所缓存的数据量不超过SSD中的电容支持的写入数据量。可以理解的是,尽管对易失性缓存的缓存数据量进行了限制,但是由于本申请实施例结合采用非易失性缓存来缓存第一特性的数据流,因此仍可降低主机侧传输数据流的约束,提升SSD的数据存储性能。
为便于理解本申请实施例将主机端传输的数据写入SSD的闪存颗粒的过程,图5C示例性的示出了本申请实施例提供的数据存储方案的实现示例图,如图5C所示,主机可通过与SSD耦合的接口以及SSD的接口协议特性,向SSD传输多个数据流511至51n,n表示SSD支持的数据流数量,具体可根据实际情况而定,本申请实施例并不设限。需要说明的是,多流属于非易失存储中的重要特性,可在SSD的接口端支持不同数据特性的数据流的隔离,例如支持数据读写性能,数据冷热,数据块大小等不同特性的数据流的隔离。本申请实施例在定义n个数据流的情况下,可以根据数据读写性能,数据冷热,数据块大小等不同需求,分stream的对数据流进行隔离管理。
在本申请实施例中,数据流511至51n的n个数据流可以分别携带数据流标识,SSD控制器可通过各个数据流携带的数据流标识,确定各个数据流的数据特性。为便于说明,假设数据流511至51k携带的数据流标识与读写性能要求低的数据流、冷数据、数据块较小的数据流中任一项的数据流标识相对应,则可确定数据流511至51k为第一特性的数据流,SSD控制器可将数据流511至51k缓存到非易失性缓存310中;假设数据流51k+1至51n携带的数据流标识与读写性能要求高的数据流、热数据、数据块较大的数据流中任一项的数据流标识相对应,则可确定数据流51k+1至51n为第二特性的数据流,SSD控制器可将数据流51k+1至51n缓存到易失性缓存240中。作为可选实现,易失性缓存240所缓存的数据量不大于电容支持的写入数据量。
非易失性缓存310在缓存数据的情况下,针对非易失性缓存310中达到写入条件的数据流,非易失性缓存310可将该数据流写入到闪存颗粒120中。易失性缓存240在缓存数据的情况下,针对易失性缓存240中达到写入条件的数据流,易失性缓存240可将该数据写入到闪存颗粒120中。
进一步的,在发生掉电的情况下,本申请实施例可通过SSD中的电容,将易失性缓存240中缓存的数据写入到闪存颗粒120中。
在进一步的一些实施例中,由于非易失性缓存的数据读写延时高于易失性的缓存(例如SCM的数据读写延时比DRAM高2至3倍),因此非易失性缓存的数据读写延时将对SSD的FTL(Flash Translation Layer,闪存转换层)的读取与更新带来一定的影响。基于此,本申请实施例可在SSD中进一步设置DMA(Direct Memory Access,直接存储器访问)引擎,通过DMA引擎实现SSD中存储器件之间的直接数据传输,从而隐藏非易失性缓存的数据读写延时对于FTL的影响。需要说明的是,FTL可以用于用户逻辑地址和闪存物理地址之间的映射,例如通过FTL Table(表)作为用户逻辑地址和闪存物理地址的映射表。
作为可选实现,图6示例性的示出了本申请实施例提供的SSD的又一示例图。结合图5A和图6所示,SSD中可以进一步包括:DMA引擎610,该DMA引擎可用于非易失性缓存与闪存颗粒之间的直接数据传输。进一步的,该DMA引擎还可用于易失性缓存和闪存颗粒之间的直接数据传输、和/或非易失性缓存和易失性缓存之间的直接数据传输。
本申请实施例在从主机端向SSD写数据时,针对主机端传输的多个数据流,SSD控制器可将第一特性的数据流缓存到非易失性缓存,将第二特性的数据流缓存到易失性缓存,并且非易失性缓存和易失性缓存中缓存的数据达到写入条件时,可写入到SSD的闪存颗粒中。基于非易失性缓存的非易失性特点、数据读写延时介于易失性缓存和闪存颗粒、同时,非易失性缓存的大容量和单bit数据存储成本较低、以及非易失性的特性,本申请实施例可在SSD发生掉电时,不必立刻将非易失性缓存中的数据写入到闪存颗粒中,从而降低前置缓存为掉电情况限制的数据量对于数据流数量的约束,提升主机侧可传输的数据流数量,提升SSD的数据存储性能。
下面从SSD的闪存颗粒读取数据的角度,对本申请实施例提供的数据存储方案进行介绍。作为可选实现,图7A示例性的示出了本申请实施例提供的数据存储方法的又一可选流程图,该方法流程可由SSD控制器执行实现,参照图7A,该方法流程可以包括如下步骤。
在步骤S710中,检测SSD的闪存颗粒中数据的读取频率。
本申请实施例可对闪存颗粒中存储的数据进行读取频率的检测,从而确定出闪存颗粒中读写频率较为频繁的数据。在一些实施例中,本申请实施例可以sector(扇区)为单位,检测闪存颗粒中数据的读取频率,例如通过检测闪存颗粒中各个sector的数据读取频率,以实现检测闪存颗粒中数据的读取频率。
在步骤S711中,若数据的读取频率高于预定频率,将所述数据搬移到所述闪存颗粒的前置缓存;其中,所述前置缓存包括非易失性缓存,所述非易失性缓存的数据读写延时介于SSD中的易失性缓存和闪存颗粒之间。
在检测闪存颗粒中数据的读取频率的过程中,如果检测到数据的读取频率高于预定频率,为避免频繁读取的数据需要再通过闪存颗粒进行读取,本申请实施例可将频繁读取的数据搬移到闪存颗粒的前置缓存中,以提升该频繁读取的数据的读写效率。在一些实施例中,本申请实施例设置的闪存颗粒的前置缓存可以包括非易失性缓存,本申请实施例可将频繁读取的数据,从闪存颗粒搬移到所述非易失性缓存。
在一些实施例中,在将数据从闪存颗粒搬移到前置缓存时,本申请实施例可以sector的最小物理单元为数据搬移的单位。例如,本申请实施例在检测到闪存颗粒中某个sector的数据读取频率达到预定频率时,可将该sector的最小物理单元中的数据搬移到非易失性缓存。
在一些实施例中,闪存颗粒的前置缓存可以包括非易失性缓存(例如SCM)和易失性缓存(例如DDR缓存),并且非易失性缓存缓存第一特性的数据,易失性缓存缓存第二特性的数据,因此本申请实施例需针对闪存颗粒中频繁读取的数据确定数据特性;并基于频繁读取的数据的数据特性,确定数据是搬移到易失性缓存还是非易失性缓存。作为可选实现,图7B示例性的示出了本申请实施例搬移数据到前置缓存的可选方法流程图。如图7B所示,该方法流程可以包括如下步骤。
在步骤S720中,确定读取频率高于预定频率的数据的数据特性。
在一些实施例中,如果闪存颗粒中频繁读取的数据为读写性能较低的数据、冷数据、数据块较小的数据中的任一项,则该频繁读取的数据为第一特性的数据;如果该频繁读取的数据为读写性能较高的数据、热数据、数据块较大的数据中的任一项,则该频繁读取的数据为第二特性的数据。
在步骤S721中,若所述数据特性为第一特性,将所述数据从闪存颗粒搬移到非易失性缓存。
非易失性缓存的具体介绍可参照前文相应部分的描述,本申请实施例此处不再赘述。在一些实施例中,针对数据读取频率达到预定频率的sector,如果sector中数据的数据特性为第一特性,则本申请实施例可将sector的最小物理单元中的数据搬移到非易失性缓存。
在步骤S722中,若所述数据特性为第二特性,将所述数据从闪存颗粒搬移到易失性缓存。
易失性缓存的具体介绍可参照前文相应部分的描述,本申请实施例此处不再赘述。在一些实施例中,针对数据读取频率达到预定频率的sector,如果sector中数据的数据特性为第二特性,则本申请实施例可将sector的最小物理单元中的数据搬移到易失性缓存。
作为可选实现,闪存颗粒在存储数据时可同步存储数据的数据流标识,本申请实施例可通过闪存颗粒中频繁读取的数据的数据流标识,确定该频繁读取的数据为第一特性的数据还是第二特性的数据。从而,针对闪存颗粒中不同数据流标识的频繁读取的数据,本申请实施例可通过不同的数据流标识的特征,实现不同特性的数据的精细化搬移控制。
本申请实施例在前文提供相应的写数据方案的情况下,适应性的提供闪存颗粒的数据读取方案,能够在多流技术场景下,满足不同数据特性的数据的读取需求,提升从SSD中读取数据的效率。
作为一种实现示例,在基于QLC的SSD中,本申请实施例可将SCM作为闪存颗粒的前置缓存,从而基于SCM的特性,将QLC需要2次page program所带来的约束进行规避。
需要说明的是,在传统技术中,闪存颗粒主要使用TLC作为闪存单元,在TLC单次page program的情况下,SSD可以使用DRAM等易失性缓存作为前置缓存,然后通过合理的使用电容来保证掉电情况下的数据写入;但是随着虚拟化的演进,主机侧的多流特性要求越来越高,已无法通过有限的若干个数据流来满足主机侧的数据传输需求,同时,在闪存单元的技术演进过程中,伴随着QLC的大批量使用,QLC的多次page program的特性,已使得传统DRAM的前置缓存,在面对越来越高的主机侧的多流特性时,产生局限。因此,伴随着SCM作为一种全新介质的提出,本申请实施例创造性的将SCM应用于SSD的数据存储方案中,从而基于SCM的特性,将QLC需要2次page program所带来的约束进行规避,以提升主机侧可传输的数据流数量,提升SSD的数据存储性能。
作为一种实现示例,图8示例性的示出了本申请实施例提供的SSD的又另一示例图。参照图8所示,在多流810的数据传输场景下,SSD可以包括SSD控制器110、SCM 820(SCM可以视为是非易失性缓存的一种示例)、DDR缓存830(DDR缓存可以视为是易失性缓存的一种示例)、基于QLC的NAND闪存颗粒840(闪存颗粒的一种示例)、SCM 820与NAND闪存颗粒840的数据通路850、DDR缓存830与NAND闪存颗粒840的数据通路860。下面针对SSD的上述结构,分别进行介绍。
多流810属于非易失存储的重要特性,主要是在SSD的接口端支持数据读写性能,数据冷热,数据块大小等不同特性的数据隔离。SSD可以支持的流数量,每个流的具体定义可由用户在主机侧进行定义。
SSD控制器110内部可以设置FEC(FrontEndController,前端控制器)111、MEC(MiddleEndController,中间端控制器)112、BEC(BackEndController,后端控制器)113等硬件加速模块,以及FEP(FrontEndProcessor,前端处理器)114、MEP(MiddleEndProcessor,中间端处理器)115、BEP(BackEndProcessor,后端处理器)116等片内处理器;SSD控制器通过这些硬件加速模块和片内处理器,可控制管理读写数据流,逻辑地址和物理地址的映射,NAND闪存颗粒840的特性管理等操作。
当用户从主机侧发起数据读写操作时,本申请实施例的SSD控制器可根据主机侧下发的Stream ID,对不同特性的数据流进行分区的读写。例如,根据主机侧下发的第一特性的数据流对应的Stream ID,SSD控制器可在SCM 820中进行第一特性的数据流的读写,根据主机侧下发的第二特性的数据流对应的Stream ID,SSD控制器可在DDR缓存830中进行第二特性的数据流的读写。通过不同特性的数据流的读写位置区分,SSD可确保NAND闪存颗粒840在使用QLC时,不同Stream ID下的数据读写路径存在不同,满足多流技术下的数据多流特性要求,并且实现在异常掉电时,易失性的DDR缓存830中的数据能够写入到NAND闪存颗粒840,实现数据在内存和NAND闪存颗粒进出时的性能平衡。
SCM 820在SSD中作为NAND闪存颗粒840的前置缓存,是具有非易失特性的内存缓存。SCM 820的数据读写延时介于DDR等易失内存缓存和NAND闪存颗粒等非易失存储介质之间,并且SCM具有容量大和单bit成本比内存(例如DRAM)低3到5倍的特点。
在本申请实施例中,SSD在读写数据的过程中,可根据Stream ID将读写性能要求低、冷数据、数据块较小的数据流(第一特性的数据流的一种示例),缓存到SCM中。在这种情况下,SCM的特性可以有效的将NAND闪存颗粒(基于QLC)多次program所带来的约束进行规避。例如,在SSD发生掉电时,SCM中缓存的数据不会出现丢失情况,从而不必立刻将SCM中的数据写入到NAND闪存颗粒中,规避了前置缓存的数据缓存量限制对于数据流数量的限制,能够提升主机侧传输的数据流数量,提升SSD在多流场景下的数据存储性能。
DDR缓存830为SSD内部的易失性内存缓存,具有低延时的数据读写特性,其作为NAND闪存颗粒的前置缓存,在SSD读写数据的过程中,可根据Stream ID,缓存读写性能要求高、热数据、数据块较大的数据流(第二特性的数据流的一种示例)。为保障DDR缓存830中的数据能够在掉电时写入到NAND闪存颗粒,DDR缓存830缓存的数据量需基于SSD中的电容支持的写入数据量而定。
NAND闪存颗粒840是基于QLC的非易失性介质,在QCL以4bit为单位存储数据的情况下,NAND闪存颗粒的一个WL(Word Line,字线)可以具有4个page,分别为upper page(上页)、lower page(下页)、middle page(中页)、extra page(额外页)。基于QLC的NAND闪存颗粒,在page program和读取时需要较长时间,因此具有较大的数据块和2次page program的特性。为满足NAND闪存颗粒的上述特性,在数据写入NAND闪存颗粒的过程中,一般需要大量的前置缓存来保证program的成功,如果该前置缓存设置为易失性缓存,则为保障SSD掉电时的数据存储安全性,SSD需要通过设置大容量的电容来保障前置缓存中的数据能够写入到NAND闪存颗粒中,这导致前置缓存中缓存的数据量会基于电容支持的写入数据量进行限制,从而导致主机侧可传输的数据流数量受限,比如主机侧仅可支持2路数据流的传输;
基于此,本申请实施例通过改进SSD的数据存储方案,在SSD中引入SCM和DDR缓存作为NAND闪存颗粒的前置缓存,来分别缓存第一特性的数据和第二特性的数据,从而基于SCM的非易失性特性,能够在SSD发生掉电时,保障数据的存储安全性,从而降低主机侧传输的数据流数量限制,提升主机侧可传输的数据流数量(例如最多支持200路数据流的传输),实现多流技术在SSD中应用的优化,提升SSD的数据存储性能。
数据通路850用于SCM 820与NAND闪存颗粒840的数据互通,可在SCM缓存的数据达到写入条件时,将数据从SCM经过数据通路850写入到NAND闪存颗粒;同时,在NAND闪存颗粒的某个sector被频繁读取,且该sector中的数据为第一特性的数据时,将该sector的最小物理单元中的数据,从NAND闪存颗粒经过数据通路850搬移到SCM。
数据通路860用于DDR缓存830与NAND闪存颗粒840的数据互通,可在DDR缓存缓存的数据达到写入条件时,将数据从DDR缓存经过数据通路860写入到NAND闪存颗粒;同时,在NAND闪存颗粒的某个sector被频繁读取,且该sector中的数据为第二特性的数据时,将该sector的最小物理单元中的数据,从NAND闪存颗粒经过数据通路860搬移到DDR缓存。
进一步的,在掉电时,DDR缓存中的数据可通过数据通路860写入到NAND闪存颗粒840。
进一步的,DMA引擎610可用于SCM 820与NAND闪存颗粒840之间的直接数据传输,和/或,DDR缓存与NAND闪存颗粒840之间的直接数据传输。
需要说明的是,如果NAND闪存颗粒基于SLC、MLC、TLC等闪存单元,则基于SLC、MLC、TLC单次page program的特性,SSD可以使用DRAM缓存等易失性缓存,作为NAND闪存颗粒的前置缓存。
本申请实施例能够通过非易失性缓存的特性,在闪存颗粒使用单位bit数较多的闪存单元时,将闪存颗粒多次的page program所带来的数据流数量限制进行规避,并且解决了SSD在异常掉电时需要大容量电容将前置缓存中的数据写入到闪存颗粒的约束,能够提升主机侧传输的数据流数量,实现多流技术在SDD应用时的优化,提升SSD的数据存储性能。进一步的,在数据多流特性下,基于不同的数据特性,实现了数据在非易失性缓存和闪存颗粒、易失性缓存和闪存颗粒、易失性缓存和非易失性缓存与闪存颗粒之间的分区管理及控制。进一步的,通过引入DMA引擎,有效的使能非易失性缓存的大容量、低成本的特性,并通过DMA的硬件加速,实现了非易失性缓存在读写延时上的优化。
上文描述了本申请实施例提供的多个实施例方案,各实施例方案介绍的各可选方式可在不冲突的情况下相互结合、交叉引用,从而延伸出多种可能的实施例方案,这些均可认为是本申请实施例披露、公开的实施例方案。
虽然本申请实施例披露如上,但本申请并非限定于此。任何本领域技术人员,在不脱离本申请的精神和范围内,均可作各种更动与修改,因此本申请的保护范围应当以权利要求所限定的范围为准。
Claims (14)
1.一种数据存储方法,其中,包括:
获取主机传输的数据流;
将所述数据流缓存到SSD的非易失性缓存;其中,所述非易失性缓存为SSD的闪存颗粒的前置缓存,并且所述非易失性缓存的数据读写延时介于SSD中的易失性缓存和闪存颗粒之间;
若所述非易失性缓存中缓存的数据流达到预设的写入条件,将达到所述写入条件的数据流,写入到所述闪存颗粒。
2.根据权利要求1所述的方法,其中,还包括:确定所述数据流的数据特性;
所述将所述数据流缓存到SSD的非易失性缓存包括:
若所述数据特性为第一特性,将所述数据流缓存到所述非易失性缓存。
3.根据权利要求2所述的方法,其中,还包括:
若所述数据特性为第二特性,将所述数据流缓存到所述SSD的易失性缓存,所述易失性缓存所缓存的数据量不超出所述SSD的电容支持的写入数据量;
若所述易失性缓存中缓存的数据流达到所述写入条件,将达到所述写入条件的数据流,写入到所述闪存颗粒。
4.根据权利要求3所述的方法,其中,所述第一特性的数据流的读写性能要求低于所述第二特性的数据流、或者、所述第一特性的数据流的数据块小于所述第二特性的数据流、或者、所述第一特性的数据流为冷数据并且所述第二特性的数据流为热数据。
5.根据权利要求3所述的方法,其中,所述数据流携带数据流标识;所述确定所述数据流的数据特性包括:
若所述数据流携带的数据流标识,在第一特性的数据流对应的数据流标识范围内,则确定所述数据流的数据特性为第一特性;
若所述数据流携带的数据流标识,在第二特性的数据流对应的数据流标识范围内,则确定所述数据流的数据特性为第二特性。
6.根据权利要求3所述的方法,其中,还包括:
配置所述非易失性缓存与所述闪存颗粒之间,和/或,所述易失性缓存与所述闪存颗粒之间通过直接存储器访问DMA引擎,进行直接数据传输;
和/或,在掉电时,将所述易失性缓存中的数据写入到所述闪存颗粒。
7.根据权利要求1所述的方法,其中,所述若所述非易失性缓存中缓存的数据流达到预设的写入条件,将达到所述写入条件的数据流,写入到所述闪存颗粒包括:
如果任一数据流在所述非易失性缓存中缓存的数据量达到闪存颗粒的最小编程单元的数据量要求,则将该数据流写入到闪存颗粒中;
或者,在发生掉电时,如果非易失性缓存中缓存的数据流的数据量未达到最小编程单元的数据量要求,则补足数据流的数据量,将补足数据量的数据流写入到闪存颗粒中。
8.根据权利要求1-7任一项所述的方法,其中,所述闪存颗粒使用四层单元QLC作为闪存单元,所述非易失性缓存包括储存级存储器SCM,所述易失性缓存包括双倍数据速率DDR缓存。
9.一种数据存储方法,其中,包括:
检测SSD的闪存颗粒中数据的读取频率;
若数据的读取频率高于预定频率,将所述数据搬移到所述闪存颗粒的前置缓存;所述前置缓存包括非易失性缓存,所述非易失性缓存的数据读写延时介于SSD中的易失性缓存和闪存颗粒之间。
10.根据权利要求9所述的方法,其中,所述前置缓存还包括易失性缓存;所述将所述数据搬移到所述闪存颗粒的前置缓存包括:
确定读取频率高于预定频率的数据的数据特性;
若所述数据特性为第一特性,将所述数据从所述闪存颗粒搬移到非易失性缓存;
若所述数据特性为第二特性,将所述数据从所述闪存颗粒搬移到所述易失性缓存。
11.根据权利要求10所述的方法,其中,所述检测SSD的闪存颗粒中数据的读取频率包括:检测所述闪存颗粒中各个扇区的数据读取频率;
所述确定读取频率高于预定频率的数据的数据特性包括:若所述闪存颗粒中扇区的数据读取频率高于预定频率,确定所述扇区中数据的数据特性;
所述若所述数据特性为第一特性,将所述数据从所述闪存颗粒搬移到非易失性缓存包括:若所述扇区中数据的数据特性为第一特性,将所述扇区的最小物理单元中的数据搬移到所述非易失性缓存;
所述若所述数据特性为第二特性,将所述数据从所述闪存颗粒搬移到所述易失性缓存包括:若所述扇区中数据的数据特性为第二特性,将所述扇区的最小物理单元中的数据搬移到所述易失性缓存。
12.一种SSD控制器,其中,所述SSD控制器被配置为执行如权利要求1-8任一项所述的数据存储方法,或者,如权利要求9-11任一项所述的数据存储方法。
13.一种SSD,其中,包括:如权利要求12所述的SSD控制器、非易失性缓存、以及闪存颗粒;
其中,所述非易失性缓存作为所述闪存颗粒的前置缓存,用于缓存主机传输至所述SSD的数据流;所述非易失性缓存的数据读写延时介于所述SSD的易失性缓存和闪存颗粒之间。
14.一种电子设备,其中,包括主机以及如权利要求13所述的SSD,所述主机与所述SSD之间通过多流协议传输数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210202041.3A CN114327300A (zh) | 2022-03-03 | 2022-03-03 | 一种数据存储方法、ssd控制器、ssd及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210202041.3A CN114327300A (zh) | 2022-03-03 | 2022-03-03 | 一种数据存储方法、ssd控制器、ssd及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114327300A true CN114327300A (zh) | 2022-04-12 |
Family
ID=81031084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210202041.3A Pending CN114327300A (zh) | 2022-03-03 | 2022-03-03 | 一种数据存储方法、ssd控制器、ssd及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114327300A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114860160A (zh) * | 2022-04-15 | 2022-08-05 | 北京科杰科技有限公司 | 一种针对Hadoop数据平台的扩容资源预测方法及系统 |
US12019903B2 (en) | 2022-10-04 | 2024-06-25 | Western Digital Technologies, Inc. | Data storage device with flow tracking ability |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101388110A (zh) * | 2008-10-31 | 2009-03-18 | 深圳市同洲电子股份有限公司 | 数据快速读取方法及装置 |
US20120246392A1 (en) * | 2011-03-23 | 2012-09-27 | Samsung Electronics Co., Ltd. | Storage device with buffer memory including non-volatile ram and volatile ram |
US20130080687A1 (en) * | 2011-09-23 | 2013-03-28 | Avalanche Technology, Inc. | Solid state disk employing flash and magnetic random access memory (mram) |
CN103324578A (zh) * | 2013-06-20 | 2013-09-25 | 深圳市瑞耐斯技术有限公司 | 一种nand闪存设备及其随机写入方法 |
CN103377152A (zh) * | 2012-04-26 | 2013-10-30 | 深圳市朗科科技股份有限公司 | 固态硬盘的写操作控制方法及写操作装置 |
US20180121109A1 (en) * | 2016-10-31 | 2018-05-03 | Alibaba Group Holding Limited | Flash storage failure rate reduction and hyperscale infrastructure robustness enhancement through the mram-nor flash based cache architecture |
CN111091861A (zh) * | 2019-12-27 | 2020-05-01 | 尧云科技(西安)有限公司 | 一种基于高速非易失性存储器的固态硬盘掉电保护方法 |
-
2022
- 2022-03-03 CN CN202210202041.3A patent/CN114327300A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101388110A (zh) * | 2008-10-31 | 2009-03-18 | 深圳市同洲电子股份有限公司 | 数据快速读取方法及装置 |
US20120246392A1 (en) * | 2011-03-23 | 2012-09-27 | Samsung Electronics Co., Ltd. | Storage device with buffer memory including non-volatile ram and volatile ram |
US20130080687A1 (en) * | 2011-09-23 | 2013-03-28 | Avalanche Technology, Inc. | Solid state disk employing flash and magnetic random access memory (mram) |
CN103377152A (zh) * | 2012-04-26 | 2013-10-30 | 深圳市朗科科技股份有限公司 | 固态硬盘的写操作控制方法及写操作装置 |
CN103324578A (zh) * | 2013-06-20 | 2013-09-25 | 深圳市瑞耐斯技术有限公司 | 一种nand闪存设备及其随机写入方法 |
US20180121109A1 (en) * | 2016-10-31 | 2018-05-03 | Alibaba Group Holding Limited | Flash storage failure rate reduction and hyperscale infrastructure robustness enhancement through the mram-nor flash based cache architecture |
CN111091861A (zh) * | 2019-12-27 | 2020-05-01 | 尧云科技(西安)有限公司 | 一种基于高速非易失性存储器的固态硬盘掉电保护方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114860160A (zh) * | 2022-04-15 | 2022-08-05 | 北京科杰科技有限公司 | 一种针对Hadoop数据平台的扩容资源预测方法及系统 |
US12019903B2 (en) | 2022-10-04 | 2024-06-25 | Western Digital Technologies, Inc. | Data storage device with flow tracking ability |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11640266B2 (en) | Rate limit on the transitions of zones to open | |
US11599304B2 (en) | Data aggregation in ZNS drive | |
CN114327300A (zh) | 一种数据存储方法、ssd控制器、ssd及电子设备 | |
US11194521B1 (en) | Rate limit on the transitions of streams to open | |
US20210373809A1 (en) | Write Data-Transfer Scheduling in ZNS Drive | |
US20230342312A1 (en) | Storage device and computer device | |
US20240094911A1 (en) | Dynamic And Shared CMB And HMB Allocation | |
US11960741B2 (en) | Implied streams | |
US20230297277A1 (en) | Combining Operations During Reset | |
US11861224B2 (en) | Data transfer management from host buffers | |
US20240152293A1 (en) | Scatter gather list adaptive bucketing | |
US20240329880A1 (en) | Flash Interface With Switching Logic | |
US11816337B2 (en) | Enterprise host memory buffer | |
US11893253B1 (en) | Dynamic TD-PPM state and die mapping in multi-NAND channels | |
US12118219B2 (en) | Asymmetric time division peak power management (TD-PPM) timing windows | |
US20240319898A1 (en) | Irregular jumbo block size unification | |
US11934684B2 (en) | Maximum data transfer size per tenant and command type | |
US20240220138A1 (en) | Dynamic zone group creation and recalibration balancing | |
US11894046B2 (en) | Alignment optimization of key value pair data storage | |
US11645009B2 (en) | Data storage with improved read parallelism | |
US11604592B2 (en) | Data management for efficient low power mode handling in a storage device | |
US11500447B2 (en) | Power allocation management for external storage | |
US12039198B2 (en) | Dynamic write shaping | |
US20230176775A1 (en) | Enterprise Host Memory Buffer For DRAM-less SSD | |
US20240143512A1 (en) | Write buffer linking for easy cache reads |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220412 |