CN114372007A - 存储器系统及控制非易失性存储器的控制方法 - Google Patents
存储器系统及控制非易失性存储器的控制方法 Download PDFInfo
- Publication number
- CN114372007A CN114372007A CN202111645918.8A CN202111645918A CN114372007A CN 114372007 A CN114372007 A CN 114372007A CN 202111645918 A CN202111645918 A CN 202111645918A CN 114372007 A CN114372007 A CN 114372007A
- Authority
- CN
- China
- Prior art keywords
- block
- data
- host
- offset
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
- G06F3/0616—Improving the reliability of storage systems in relation to life time, e.g. increasing Mean Time Between Failures [MTBF]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
- G06F12/0238—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
- G06F12/0246—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
- G06F12/0253—Garbage collection, i.e. reclamation of unreferenced memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0804—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with main memory updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
- G06F12/1009—Address translation using page tables, e.g. page table structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/064—Management of blocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/0644—Management of space entities, e.g. partitions, extents, pools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0652—Erasing, e.g. deleting, data cleaning, moving of data to a wastebasket
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0659—Command handling arrangements, e.g. command buffers, queues, command scheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0673—Single storage device
- G06F3/0679—Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0688—Non-volatile semiconductor memory arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7205—Cleaning, compaction, garbage collection, erase control
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Memory System (AREA)
- Techniques For Improving Reliability Of Storages (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种存储器系统及控制非易失性存储器的控制方法。本发明实现能够谋求I/O性能改善的存储器系统。实施方式的存储器系统当从主机接收到指定逻辑地址的写入请求时,决定应被写入来自所述主机的数据的第1区块与所述第1区块的第1位置两者,将来自所述主机的数据写入到所述第1区块的所述第1位置。所述存储器系统对所述主机通知所述第1逻辑地址、指定所述第1区块的第1区块编号、及第1区块内偏移,所述第1区块内偏移是以具有与页尺寸不同尺寸的粒度的倍数来表示所述第1区块的前端至所述第1位置的偏移。
Description
分案申请的相关信息
本案是分案申请。该分案的母案是申请日为2018年1月10日、申请号为201810021746.9、发明名称为“存储器系统及控制非易失性存储器的控制方法”的发明专利申请案。
[相关申请案]
本申请案享有以日本专利申请案2017-181425号(申请日:2017年9月21日)作为基础申请案的优先权。本申请案通过参照该基础申请案而包含基础申请案的所有内容。
技术领域
本发明的实施方式涉及一种存储器系统及控制非易失性存储器的控制方法。
背景技术
近年来,具备非易失性存储器的存储器系统广泛普及。
作为这种存储器系统之一,已知基于NAND(Not AND,与非)闪存技术的固态硬盘(SSD)。
在数据中心的服务器中,也使用SSD作为存储器。对于利用于像服务器这样的主机计算机中的存储器,要求较高的I/O(Input/Output,输入/输出)性能。因此,最近开始提出主机与存储器之间的新颖的接口。
然而,一般来说,因为NAND型闪速存储器的控制较为复杂,所以当实现用来改善I/O性能的新颖的接口时,必须考虑主机与存储器(存储器系统)之间适当的作用分配。
发明内容
本发明提供一种能够实现I/O性能改善的存储器系统及控制非易失性存储器的控制方法。
根据实施方式,能够连接于主机的存储器系统具备:非易失性存储器,包含分别包含多个页的多个区块;及控制器,电连接于所述非易失性存储器,且控制所述非易失性存储器。所述控制器当从所述主机接收到指定第1逻辑地址的写入请求时,执行如下动作:决定应被写入来自所述主机的数据的第1区块与所述第1区块的第1位置的两者,将来自所述主机的数据写入到所述第1区块的所述第1位置,且对所述主机通知所述第1逻辑地址、指定所述第1区块的第1区块编号、及第1区块内偏移,所述第1区块内偏移是以具有与页尺寸不同尺寸的粒度的倍数来表示所述第1区块的前端至所述第1位置的偏移。所述控制器当执行所述非易失性存储器的无用信息收集时,执行如下动作:从所述多个区块选择用于所述无用信息收集的复制源区块及复制目标区块,决定应被写入所述复制源区块内所存储的有效数据的所述复制目标区块的第2位置,将所述有效数据复制到所述复制目标区块的所述第2位置,对所述主机通知所述有效数据的逻辑地址、指定所述复制目标区块的第2区块编号、及以所述粒度的倍数来表示所述复制目标区块的前端至所述第2位置的偏移的第2区块内偏移。
附图说明
图1是表示主机与实施方式的存储器系统(闪速存储装置)的关系的框图。
图2是用来对现有型SSD与主机之间的作用分配、及该实施方式的闪速存储装置与主机之间的作用分配进行说明的图。
图3是表示经由网络机器来执行多个主机与多个闪速存储装置之间的数据传输的计算机系统的构成例的框图。
图4是表示该实施方式的存储器系统的构成例的框图。
图5是表示设置在该实施方式的存储器系统的NAND接口与多个NAND型闪速存储器芯片块的关系的框图。
图6是表示多利用个区块的集合所构筑的超级区块的构成例的图。
图7是用来对该实施方式的存储器系统所应用的写入命令进行说明的图。
图8是用来对针对图7的写入命令的响应进行说明的图。
图9是用来对该实施方式的存储器系统所应用的Trim(修整)命令进行说明的图。
图10是用来对图8的响应所包含的规定实体地址的区块编号及偏移进行说明的图。
图11是用来对根据写入命令执行的写入动作与对该写入命令的响应所包含的返回值的关系进行说明的图。
图12是用来对跳过不良页的写入动作进行说明的图。
图13是用来对跳过不良页的写入动作的另一例进行说明的图。
图14是用来对将逻辑地址与数据的配对写入区块内的页的动作进行说明的图。
图15是用来对将数据写入到区块内的页的用户数据区域,并将该数据的逻辑地址写入到该页的冗余区域的动作进行说明的图。
图16是用来对使用超级区块时的区块编号与偏移的关系进行说明的图。
图17是表示利用主机与该实施方式的存储器系统所执行的写入动作处理的顺序的顺序图。
图18是表示写入针对已写入数据的更新数据的数据更新动作的图。
图19是用来对更新利用该实施方式的存储器系统所管理的区块管理表格的动作进行说明的图。
图20是用来对更新利用主机所管理的查找表格(逻辑实体地址转换表格)的动作进行说明的图。
图21是用来对根据表示与应无效化的数据相对应的实体地址的来自主机的通知而更新区块管理表格的动作进行说明的图。
图22是用来对该实施方式的存储器系统所应用的读取命令进行说明的图。
图23是用来对利用该实施方式的存储器系统所执行的读取动作进行说明的图。
图24是用来对根据来自主机的读取命令,读取不同实体存储位置分别存储的数据部的动作进行说明的图。
图25是表示利用主机与该实施方式的存储器系统所执行的读取处理的顺序的顺序图。
图26是用来对该实施方式的存储器系统所应用的无用信息收集(GC)控制命令进行说明的图。
图27是用来对该实施方式的存储器系统所应用的GC用回调命令进行说明的图。
图28是表示利用该实施方式的存储器系统所执行的无用信息收集(GC)动作的程序的顺序图。
图29是用来对为了无用信息收集(GC)而执行的数据复制动作的示例进行说明的图。
图30是用来对基于图29的数据复制动作的结果而更新的主机的查找表格的内容进行说明的图。
图31是用来对针对写入命令的响应与GC用回调处理的关系进行说明的图。
图32是用来对该实施方式的存储器系统所应用的无用信息收集(GC)控制命令的另一例进行说明的图。
图33是用来对该实施方式的存储器系统所应用的GC用回调命令的另一例进行说明的图。
图34是用来对利用该实施方式的存储器系统所执行的写入/读取/GC动作进行说明的图。
图35是表示用来管理参照计数的区块管理表格的构成例的图。
图36是用来对该实施方式的存储器系统所应用的重复命令进行说明的图。
图37是用来对使参照计数减少1的Trim命令进行说明的图。
图38是表示利用主机与该实施方式的存储器系统所执行的参照计数增加/减少处理的顺序图。
具体实施方式
以下,参照附图,对实施方式进行说明。
首先,参照图1,对一实施方式的包含存储器系统的计算机系统的构成进行说明。
该存储器系统是以对非易失性存储器写入数据,且从非易失性存储器读出数据的方式构成的半导体存储装置。该存储器系统是作为基于NAND闪存技术的闪速存储装置3而实现的。
该计算机系统可包含主机(主机装置)2、及多个闪速存储装置3。主机2可以是以将包含多个闪速存储装置3的闪存阵列用作存储器的方式构成的服务器。主机(服务器)2与多个闪速存储装置3经由接口50而相互连接(内部相互连接)。作为用于该内部相互连接的接口50,可使用PCI Express(PCIe,Peripheral Component Interconnect Express,外围组件互连高速)(注册商标),NVM Express(NVMe,Non-Volatile Memory express,非易失性存储器高速)(注册商标),Ethernet(以太网,注册商标),NVMe over Fabrics(NVMeOF)等,但并不限定于此。
作为主机2而发挥功能的服务器的典型例可列举数据中心内的服务器。
在主机2是利用数据中心内的服务器而实现的实例中,该主机(服务器)2可经由网络51而连接于多个终端用户终端(用户端)61。主机2能够对这些终端用户终端61提供各种服务。
能够利用主机(服务器)2提供的服务的例子有:(1)向各用户端(各终端用户终端61)提供系统开发平台的平台即服务(PaaS)、及(2)向各用户端(各终端用户终端61)提供像虚拟服务器这样的基础设施的基础设施即服务(IaaS)等。
多个虚拟机器可在作为该主机(服务器)2而发挥功能的实体服务器上执行。在主机(服务器)2上运行的这些虚拟机器各自能够作为以向所对应的若干个用户端(终端用户终端61)提供各种服务的方式构成的虚拟服务器而发挥功能。
主机(服务器)2包含管理构成闪存阵列的多个闪速存储装置3的存储器管理功能、及对终端用户终端61分别提供包含存储器存取的各种服务的前端功能。
在现有型SSD中,NAND型闪速存储器的区块/页的阶层构造是利用SSD内的闪存转换层(FTL)来隐藏。也就是说,现有型SSD的FTL具有如下等功能:(1)使用作为逻辑实体地址转换表格而发挥功能的查找表格,来自管理逻辑地址各自与NAND型闪速存储器的实体地址各自之间的映射,(2)用来隐藏以页为单位的读取/写入及以区块为单位的删除动作,(3)执行NAND型闪速存储器的无用信息收集(GC)。逻辑地址各自与NAND型闪速存储器的实体地址之间的映射无法从主机看到。NAND型闪速存储器的区块/页构造也无法从主机看到。
另一方面,有在主机中也执行一种地址转换(应用程序级地址转换)的情况。该地址转换使用应用程序级地址转换表格来管理应用程序用逻辑地址各自与SSD用逻辑地址各自之间的映射。另外,在主机中,也为了消除SSD用逻辑地址空间上所产生的碎片,而执行用来变更该逻辑地址空间上的数据配置的一种GC(应用程序级GC)。
然而,在主机及SSD分别具有地址转换表格这样冗余的构成(SSD具有作为逻辑实体地址转换表格而发挥功能的查找表格,主机具有应用程序级地址转换表格)中,为了保存这些地址转换表格而要消耗庞大的存储器资源。进而,包含主机侧的地址转换与SSD侧的地址转换的双重地址转换也成为使I/O性能降低的因素。
进而,主机侧的应用程序级GC成为使向SSD的数据写入量增加到即时用户数据量的数倍(例如2倍)程度的因素。这种数据写入量的增加虽然不会使SSD的写入放大增加,但会使系统整体的存储性能降低,另外,也使SSD的寿命变短。
为了消除这种问题点,也提出了将现有型SSD的FTL的功能全部转移到主机的对策。
然而,为了实现该对策,必须使主机直接处理NAND型闪速存储器的区块及页。NAND型闪速存储器的容量于每一代NAND型闪速存储器都在增加,伴随于此,每一代NAND型闪速存储器的区块尺寸/页尺寸也不同。因此,想到了在主机2中混合使用不同区块尺寸、页尺寸的NAND型闪速存储器的情况。对主机来说难以处理不同的区块尺寸/页尺寸。另外,假定由于可能存在因各种制造上的理由等而产生的数量无法预测的不良页(bad page),所以在每个区块中,区块内实质上能够利用的页数不同,从而可能存在该NAND型闪速存储器内的区块尺寸在每个区块中不同的情况。对主机来说,处理不良页及不均等的区块尺寸变得更加困难。
因此,在本实施方式中,在主机2与闪速存储装置3之间分担FTL的作用。主机2管理作为逻辑实体地址转换表格而发挥功能的查找表格,但应使用于写入的区块的选择不由主机2而由闪速存储装置3来执行。另外,GC也不由主机2而由闪速存储装置3来执行。以下,将转移至主机2的FTL功能称为全局FTL。
主机2的全局FTL可具有执行存储服务的功能、管理查找表格(LUT)的功能、损耗控制功能、用来实现高可用性的功能、防止存储器中存储具有相同内容的多个重复数据部的重复排除(De-duplication)功能等。
另一方面,闪速存储装置3能够执行低级抽象(LLA)。LLA为用于NAND型闪速存储器的抽象的功能。LLA包含吸收区块尺寸的不均等性、吸收区块/页构造、及辅助数据配置的功能等。辅助数据配置的功能包含决定用于无用信息收集的复制源区块与复制目标区块的功能、对上位阶层(主机2)通知有效数据的复制目标位置的功能、决定用户数据的写入目标位置(区块编号、该区块内的位置)的功能、及对上位阶层(主机2)通知已写入用户数据的该写入目标位置(区块编号、该区块内的位置)的功能等。另外,LLA具有执行GC的功能。进而,LLA也具有对每个域(QoS(Quality of Service,服务质量)域)执行闪速存储装置3的资源管理的QoS控制功能。
QoS控制功能包含对每个QoS域(或每个区块)决定存取单位的功能。存取单位表示主机2能够进行写入/读取的最小数据尺寸(Grain)。闪速存储装置3支持单一或多种存取单位(Grain),主机2在闪速存储装置3支持多种存取单位的情况下,对闪速存储装置3指示每个QoS域(或每个区块)应使用的存取单位。
另外,QoS控制功能包含用来尽量防止QoS域间的性能干扰的功能。该功能基本上是用来保持稳定的时延的功能。
为了实现该功能,闪速存储装置3可以使NAND型闪速存储器内的多个区块分别只属于一个组的方式将NAND型闪速存储器内的多个区块分类成多个组。在该情况下,各组包含多个区块,但不存在不同组共有同一区块的情况。这多个组作为所述多个QoS域而发挥功能。
或者,闪速存储装置3可以使闪速存储装置3内的多个NAND型闪速存储器芯片块分别只属于一个组(一个QoS域)的方式将闪速存储装置3内的多个NAND型闪速存储器芯片块分类成多个组(多个QoS域)。在该情况下,各组(QoS域)包含多个芯片块,但不存在不同QoS域共有同一芯片块的情况。
图2表示现有型SSD与主机之间的作用分配、及本实施方式的闪速存储装置3与主机2之间的作用分配。
图2的左侧表示包含现有型SSD与执行虚拟磁盘服务的主机的计算机系统整体的阶层构造。
在主机(服务器)中,执行用来对多个终端用户提供多个虚拟机器的虚拟机器服务101。在虚拟机器服务101上的各虚拟机器中,执行由对应的终端用户使用的操作系统及用户应用程序102。
另外,在主机(服务器)中,执行与多个用户应用程序102相对应的多个虚拟磁盘服务103。各虚拟磁盘服务103将现有型SSD内的存储资源的容量的一部分作为对应的用户应用程序102用存储资源(虚拟磁盘)分配。在各虚拟磁盘服务103中,也执行使用应用程序级地址转换表格来将应用程序级的逻辑地址转换为SSD用逻辑地址的应用程序级地址转换。进而,在主机中,也执行应用程序级GC104。
命令从主机(服务器)向现有型SSD的发送、及命令结束的响应从现有型SSD向主机(服务器)的回传是经由主机(服务器)及现有型SSD各自存在的I/O队列200来执行的。
现有型SSD包含写入缓冲区(WB)301、查找表格(LUT)302、无用信息收集功能303、及NAND型闪速存储器(NAND闪存阵列)304。现有型SSD只管理一个查找表格(LUT)302,NAND型闪速存储器(NAND闪存阵列)304的资源由多个虚拟磁盘服务103所共有。
在该构成中,由于包含虚拟磁盘服务103下的应用程序级GC104与现有型SSD内的无用信息收集功能303(LUT级GC)的重复的GC,而使写入放大变大。另外,在现有型SSD中,可能会产生相邻干扰问题,即由于来自某一终端用户或某一虚拟磁盘服务103的数据写入量的增加而使GC的频率增加,由此导致对于其它终端用户或其它虚拟磁盘服务103的I/O性能劣化。
另外,由于存在包含各虚拟磁盘服务内的应用程序级地址转换表格与现有型SSD内的LUT302的重复资源,而消耗了大量存储器资源。
图2的右侧表示包含本实施方式的闪速存储装置3与主机2的计算机系统整体的阶层构造。
在主机(服务器)2中,执行用来对多个终端用户提供多个虚拟机器的虚拟机器服务401。在虚拟机器服务401上的各虚拟机器中,执行由对应的终端用户所使用的操作系统及用户应用程序402。
另外,在主机(服务器)2中,执行与多个用户应用程序402相对应的多个I/O服务403。在这些I/O服务403中,可包含基于LBA(Logical Block Address,逻辑区块地址)的区块I/O服务、键值存储服务等。各I/O服务403包含管理逻辑地址各自与闪速存储装置3的实体地址各自之间的映射的查找表格(LUT)。这里,逻辑地址意思是能够识别存取对象的数据的标识符。该逻辑地址可以是指定逻辑地址空间上的位置的逻辑区块地址(LBA),或者也可以是键值存储的键(标签)。
在基于LBA的区块I/O服务中,也可以使用管理逻辑地址(LBA)各自与闪速存储装置3的实体地址各自之间的映射的LUT。
在键值存储服务中,也可以使用管理逻辑地址(即像键的那样的标签)各自与闪速存储装置3的实体地址各自之间的映射的LUT,该闪速存储装置3存储着与这些逻辑地址(即像键的那样的标签)相对应的数据。在该LUT中,也可以管理标签、存储着利用该标签进行识别的数据的实体地址、及该数据的数据长度的对应关系。
各终端用户可选择应使用的寻址方法(LBA、键值存储的键等)。
这些各LUT不是将来自用户应用程序402的逻辑地址各自转换成各个闪速存储装置3用逻辑地址,而是将来自用户应用程序402的逻辑地址各自转换成各个闪速存储装置3的实体地址。也就是说,这些各LUT是整合(合并)了将闪速存储装置3用逻辑地址转换成实体地址的表格、与应用程序级地址转换表格的表格。
在主机(服务器)2中,在所述每个QoS域中存在I/O服务403。属于某一QoS域的I/O服务403管理逻辑地址各自与实体地址各自之间的映射,该逻辑地址是由所对应的QoS域内的用户应用程序402所使用逻辑地址,该实体地址是属于分配至所对应的QoS域的资源组的区块群的实体地址。
命令从主机(服务器)2向闪速存储装置3的发送及命令结束的响应等从闪速存储装置3向主机(服务器)2的回传是经由存在于主机(服务器)2及闪速存储装置3各自的I/O队列500而执行的。这些I/O队列500也可以被分类成与多个QoS域相对应的多个队列组。
闪速存储装置3包含与多个QoS域相对应的多个写入缓冲区(WB)601、与多个QoS域相对应的多个无用信息收集(GC)功能602、及NAND型闪速存储器(NAND闪存阵列)603。
在该图2的右侧所示的构成中,将现有型SSD内的LUT302与应用程序级地址转换表格合并为I/O服务403内的一个LUT,因此能够减少地址转换信息的存储所消耗的存储器资源的量。另外,地址转换阶段的数量减少,因此能够使I/O性能提升。
进而,不执行包含应用程序级GC与LUT级GC的重复GC,而只由闪速存储装置3执行用于GC(统一GC)的数据复制。因此,与执行重复GC的构成相比,能够大幅减少系统整体的写入放大。其结果为,能够改善I/O性能,且能够使闪速存储装置3的寿命最大化。
图3表示图1的系统构成的变化例。
在图3中,多个主机2A与多个闪速存储装置3之间的数据传输是经由网络机器(这里为网络开关1)而执行的。
也就是说,在图3的计算机系统中,将图1的服务器2的存储器管理功能转移到管理器2B,且将服务器2的前端功能转移到多个主机(终端用户服务用主机)2A。
管理器2B管理多个闪速存储装置3,根据来自各主机(终端用户服务用主机)2A的要求,将这些闪速存储装置3的存储资源分配到各主机(终端用户服务用主机)2A。
各主机(终端用户服务用主机)2A经由网络而连接于一个以上的终端用户终端61。各主机(终端用户服务用主机)2A管理作为所述经整合(合并)的逻辑实体地址转换表格的查找表格(LUT)。各主机(终端用户服务用主机)2A使用自身的LUT,只管理由对应的终端用户所使用的逻辑地址各自与分配给自身的资源的实体地址各自之间的映射。因此,该构成能够使系统容易地横向扩展。
各主机2A的全局FTL具有管理查找表格(LUT)的功能、用来实现高可用性的功能、重复排除(De-duplication)功能、及QoS策略控制功能等。
管理器2B是用来管理多个闪速存储装置3的专用装置(计算机)。管理器2B具有预约由各主机2A所要求的容量的存储资源的全局资源预约功能。进而,管理器2B具有监视各闪速存储装置3的消耗程度的损耗监视功能、将预约的存储资源(NAND资源)分配到各主机2A的NAND资源分配功能、QoS策略控制功能、及全局时钟管理功能等。
各闪速存储装置3具有本地FTL。该本地FTL为用来与各主机2A的全局FTL联合的功能。该本地FTL可包含QoS控制功能、管理各QoS域的写入缓冲区的功能、在QoS域内或QoS域间执行GC数据复制的功能、用于恢复的LUT复制功能、管理用于重复排除(De-duplication)的参照计数的功能、工作量解析功能、及内务处理功能等。
根据图3的系统构成,各闪速存储装置3的管理是利用管理器2B来执行的,因此各主机2A只要执行对分配到自身的一个以上的闪速存储装置3发送I/O要求的动作、及接收来自闪速存储装置3的响应的动作即可。也就是说,多个主机2A与多个闪速存储装置3之间的数据传输只经由开关1来执行,管理器2B与该数据传输无关。另外,如上所述,由主机2A各自管理的LUT的内容相互独立。因此,能够容易地增加主机2A的数量,所以能够实现横向扩展型的系统构成。
图4表示闪速存储装置3的构成例。
闪速存储装置3包含控制器4及非易失性存储器(NAND型闪速存储器)5。闪速存储装置3也可以还包含随机存取存储器例如DRAM(Dynamic Random Access Memory,动态随机存取存储器)6。
NAND型闪速存储器5包含存储单元阵列,该存储单元阵列包含配置为矩阵状的多个存储单元。NAND型闪速存储器5可以是二维构造的NAND型闪速存储器,也可以是三维构造的NAND型闪速存储器。
NAND型闪速存储器5的存储单元阵列包含多个区块BLK0~BLKm-1。区块BLK0~BLKm-1各自是利用多个页(这里为页P0~Pn-1)编成的。区块BLK0~BLKm-1作为删除单位而发挥功能。区块有时也称为“删除区块”、“实体区块”、或“实体删除区块”。页P0~Pn-1各自包含连接于同一字线的多个存储单元。页P0~Pn-1是数据写入动作及数据读入动作的单位。
控制器4经由像Toggle、开放式NAND闪存接口(ONFI)这样的NAND接口13,电连接于作为非易失性存储器的NAND型闪速存储器5。控制器4是以控制NAND型闪速存储器5的方式构成的存储器控制器(控制电路)。
如图5所示,NAND型闪速存储器5包含多个NAND型闪速存储器芯片块。各NAND型闪速存储器芯片块是包括包含多个区块BLK的存储单元阵列、及控制该存储单元阵列的周边电路的非易失性存储器芯片块。各个NAND型闪速存储器芯片块能够独立地进行动作。因此,NAND型闪速存储器芯片块作为并联动作单位而发挥功能。NAND型闪速存储器芯片块也称为“NAND型闪速存储器芯片”或“非易失性存储器芯片”。在图5中,例示如下情况:在NAND接口13连接着16个信道Ch1、Ch2、…Ch16,且在这些信道Ch1、Ch2、…Ch16各自分别连接着相同数量(例如每个信道2个芯片块)的NAND型闪速存储器芯片块。各信道包含用来与对应的NAND型闪速存储器芯片块进行通信的通信线(存储器总线)。
控制器4经由信道Ch1、Ch2、…Ch16来控制NAND型闪速存储器芯片块#1~#32。控制器4能够同时驱动信道Ch1、Ch2、…Ch16。
连接在信道Ch1~Ch16的16个NAND型闪速存储器芯片块#1~#16可编成第1存储体,另外,连接在信道Ch1~Ch16的其余16个NAND型闪速存储器芯片块#17~#32可编成第2存储体。存储体作为用来使多个存储器模块通过存储体交叉来进行并联动作的单位而发挥功能。在图5的构成例中,利用16信道及使用2个存储体的存储体交叉,而能够使最多32个NAND型闪速存储器芯片块进行并联动作。
在本实施方式中,控制器4可管理各自包含多个区块BLK的多个区块(以下称为超级区块),也可以超级区块为单位来执行删除动作。
超级区块并不限定于此,也可以包含从NAND型闪速存储器芯片块#1~#32各选择一个共计32个区块BLK。此外,NAND型闪速存储器芯片块#1~#32各自也可以具有多平面构成。例如,当NAND型闪速存储器芯片块#1~#32各自具有包含两个平面的多平面构成时,一个超级区块可包含从与NAND型闪速存储器芯片块#1~#32相对应的64个平面各选择一个共计64个区块BLK。在图6中,例示一个超级区块SB包含从NAND型闪速存储器芯片块#1~#32各选择一个共计32个区块BLK(在图5中以粗框包围的区块BLK)的情况。
如图4所示,控制器4包含主机接口11、CPU12、NAND接口13、及DRAM接口14等。这些CPU12、NAND接口13、DRAM接口14经由总线10而相互连接。
该主机接口11是以执行与主机2的通信的方式构成的主机接口电路。该主机接口11例如也可以是PCIe控制器(NVMe控制器)。主机接口11从主机2接收各种要求(命令)。这些要求(命令)中包含写入请求(写入命令)、读取请求(读取命令)、及其它各种要求(命令)。
CPU12是以控制主机接口11、NAND接口13、DRAM接口14的方式构成的处理器。CPU12响应于闪速存储装置3的电源接通,从NAND型闪速存储器5或未图示的ROM(Read OnlyMemory,只读存储器)将控制程序(固件)载入DRAM6,然后执行该固件,由此进行各种处理。此外,固件也可以载入于控制器4内的未图示的SRAM(Static Random Access Memory,静态随机存取存储器)上。该CPU12能够执行用来处理来自主机2的各种命令的命令处理等。CPU12的动作是由利用CPU12而执行的所述固件控制的。此外,也可以利用控制器4内的专用硬件来执行一部分或全部命令处理。
CPU12能够作为写入动作控制部21、读取动作控制部22、及GC动作控制部23而发挥功能。在这些写入动作控制部21、读取动作控制部22、及GC动作控制部23中,安装了用来实现图2的右侧所示的系统构成的应用程序程序接口(API)。
写入动作控制部21从主机2接收指定逻辑地址的写入请求(写入命令)。逻辑地址是能够识别应写入的数据(用户数据)的标识符,例如可以是LBA,或者也可以是像键值存储的键那样的标签。当接收到写入命令时,写入动作控制部21首先决定应被写入来自主机2的数据的区块(写入目标区块)及该区块内的位置(写入目标位置)。接下来,写入动作控制部21将来自主机2的数据(写入数据)写入该写入目标区块的写入目标位置。在该情况下,写入动作控制部21不仅写入来自主机2的数据,还可以将该数据与该数据的逻辑地址的两者写入到写入目标区块。
然后,写入动作控制部21将所指定的逻辑地址、及表示被写入了数据(写入数据)的NAND型闪速存储器5内的位置(实体存储位置)的实体地址回传到主机2。
在该情况下,该实体地址是利用(1)该写入目标区块的区块编号、及(2)表示该写入目标区块内的写入目标位置的区块内偏移来表示的。区块编号是指定被写入数据的区块的标识符。作为区块编号可使用能够唯一地识别多个区块内的任意一个的各种值。
区块内偏移表示写入目标区块的前端至写入目标位置的偏移、即写入目标位置相对于写入目标区块的前端的偏移。写入目标区块的前端至写入目标位置的偏移的尺寸以具有与页尺寸不同尺寸的粒度(Grain)的倍数来表示。粒度(Grain)是所述存取单位。粒度(Grain)的尺寸的最大值限制到区块尺寸。换句话说,区块内偏移是以具有与页尺寸不同尺寸的粒度的倍数来表示写入目标区块的前端至写入目标位置的偏移。
粒度(Grain)可具有小于页尺寸的尺寸。例如,当页尺寸为16K字节时,粒度(Grain)的尺寸可以是4K字节。在该情况下,在某一区块中,规定各自的尺寸为4K字节的多个偏移位置。与区块内的最初的偏移位置相对应的区块内偏移例如为0,与区块内的下一个偏移位置相对应的区块内偏移例如为1,与区块内的再下一个偏移位置相对应的区块内偏移例如为2。
或者,粒度(Grain)也可以具有大于页尺寸的尺寸。例如,粒度(Grain)可以是页尺寸的数倍的尺寸。当页尺寸为16K字节时,粒度可以是32K字节的尺寸。
这样一来,写入动作控制部21自行决定应被写入数据的区块及该区块内的位置的两者,然后对主机2通知区块编号及区块内偏移作为表示写入了来自主机2的数据(用户数据)的位置的实体地址,而并非通知区块编号及页编号。由此,主机2能够将用户数据写入到NAND型闪速存储器5而无需在意区块尺寸、页写入顺序制约、不良页、页尺寸等,进而,能够将由区块编号及区块内偏移所表示的实体地址映射到该用户数据的逻辑地址。
读取动作控制部22当从主机2接收到指定实体地址(即区块编号及区块内偏移)的读取请求(读取命令)时,基于这些区块编号及区块内偏移,从NAND型闪速存储器5读取数据。读取对象的区块是利用区块编号来特定的。该区块内的读取对象的实体存储位置是利用区块内偏移来特定的。通过使用该区块内偏移,而主机2无需处理NAND型闪速存储器的每个世代的不同页尺寸。
为了获得读取对象的实体存储位置,读取动作控制部22首先使该区块内偏移除以表示页尺寸的粒度的数(这里是4),然后将由该除法所得的商及余数分别决定为读取对象的页编号及读取对象的页内偏移。
GC动作控制部23当执行NAND型闪速存储器5的无用信息收集时,从NAND型闪速存储器5内的多个区块选择用于该无用信息收集的复制源区块(GC源区块)及复制目标区块(GC目的地区块)。在该情况下,GC动作控制部23通常选择多个复制源区块(GC源区块)、及一个以上的复制目标区块(GC目的地区块)。用于选择复制源区块(GC源区块)的条件(GC策略)可由主机2来指定。例如,既可以使用优先选择有效数据量最少的区块作为复制源区块(GC源区块)的GC策略,也可以使用其它GC策略。这样一来,复制源区块(GC源区块)及复制目标区块(GC目的地区块)的选择并非由主机2而是由闪速存储装置3的控制器4(GC动作控制部23)来执行的。控制器4也可以使用各区块管理表格来管理各区块的有效数据量。
当从主机2接收到指定无用信息收集的复制源组(源Qos域)及复制目标组(目的地Qos域)的命令(GC控制命令)时,GC动作控制部23从属于复制源组区块群中选择无用信息收集的复制源区块,并从属于复制目标组的区块群中选择无用信息收集的复制目标区块。
有效数据/无效数据的管理也可以使用区块管理表格32来执行。该区块管理表格32例如可以存在于每个区块。在与某一区块相对应的区块管理表格32中,存储着表示该区块内的数据各自的有效/无效的位图旗标。这里,有效数据意思是被从LUT参照的数据(即作为最新的数据与逻辑地址建立关联的数据),且之后有可能被从主机2读取的数据。无效数据意思是已经不可能被从主机2读取的数据。例如,与某一逻辑地址建立关联的数据是有效数据,与任何逻辑地址均未建立关联的数据是无效数据。
GC动作控制部23决定应被写入复制源区块(GC源区块)内所存储的有效数据的复制目标区块(GC目的地区块)内的位置(复制目标位置),将有效数据复制到复制目标区块(GC目的地区块)的该被决定的位置(复制目标位置)。在该情况下,GC动作控制部23可将有效数据与该有效数据的逻辑地址的两者复制到复制目标区块(GC目的地区块)。GC动作控制部23可通过参照与复制源区块(GC源区块)相对应的区块管理表格32而特定出GC源区块内的有效数据。或者,在另一实施方式中,也可以由主机2来执行有效数据/无效数据的管理。在该情况下,GC动作控制部23可从主机2接收表示GC源区块内的各数据的有效/无效的信息,并基于该接收到的信息来特定出GC源区块内的有效数据。
然后,GC动作控制部23对主机2通知被复制的有效数据的逻辑地址、复制目标区块(GC目的地区块)的区块编号、及以所述粒度的倍数来表示复制目标区块(GC目的地区块)的前端至复制目标位置的偏移的区块内偏移。
在本实施方式中,如上所述,写入动作控制部21能够将来自主机2的数据(写入数据)与来自主机2的逻辑地址的两者写入到写入目标区块。因此,GC动作控制部23能够从该复制源区块(GC源区块)容易地获得复制源区块(GC源区块)内的各数据的逻辑地址,所以能够对主机2容易地通知被复制的有效数据的逻辑地址。
NAND接口13是以在CPU12的控制下,控制NAND型闪速存储器5的方式构成的存储器控制电路。DRAM接口14是以在CPU12的控制下,控制DRAM6的方式构成的DRAM控制电路。DRAM6的存储区域的一部分用于写入缓冲区(WB)31的存储。另外,DRAM6的存储区域的另一部分用于区块管理表格32的存储。此外,这些写入缓冲区(WB)31及区块管理表格32也可以存储在控制器4内的未图示的SRAM中。
图7表示闪速存储装置3所应用的写入命令。
写入命令是对闪速存储装置3要求数据的写入的命令。该写入命令可包含命令ID(Identity,标识)、QoS域ID、逻辑地址、长度等。
命令ID是表示该命令为写入命令的ID(命令代码),写入命令中包含写入命令用命令ID。
QoS域ID是能够唯一地识别应写入数据的QoS域的标识符。根据来自某一终端用户的写入请求而从主机2发送的写入命令可包含指定与该终端用户相对应的QoS域的QoS域ID。名字空间ID可视为QoS域ID。
逻辑地址是用来识别应写入的写入数据的标识符。如上所述,该逻辑地址既可以是LBA,也可以是键值存储的键。当逻辑地址是LBA时,该写入命令所包含的逻辑地址(起始LBA)表示应被写入写入数据的逻辑位置(最初的逻辑位置)。
长度表示应写入的写入数据的长度。该长度(数据长度)既可以由粒度(Grain)的数量指定,也可以由LBA的数量指定,或者,其尺寸也可以由字节指定。
如上所述,控制器4能够以使NAND型闪速存储器5内的多个区块各自只属于一个组的方式将NAND型闪速存储器5内的多个区块分类成多个组(多个QoS域)。然后,控制器4能够针对每个组(QoS域)管理闲置区块列表(闲置区块池)与有源区块列表(有源区块池)。
各区块的状态大致分为存储着有效数据的有源区块、与未存储有效数据的闲置区块。作为有源区块的各区块由有源区块列表管理。另一方面,作为闲置区块的各区块由闲置区块列表管理。
当从主机2接收到写入命令时,控制器4决定应被写入来自主机2的数据的区块(写入目标区块)及该写入目标区块内的位置(写入目标位置)。控制器4可将属于与QoS域ID相对应的QoS域的闲置区块群中的一个决定为写入目标区块。写入目标位置是考虑页写入顺序的制约及不良页等而决定的。然后,控制器4将来自主机2的数据写入到写入目标区块内的写入目标位置。
此外,如果该写入目标区块整体已被用户数据占满,那么控制器4将该写入目标区块移动到有源区块列表(有源区块池)。然后,控制器4从与该QoS域相对应的闲置区块列表再次选择闲置区块,并将该所选择的闲置区块分配为新的写入目标区块。
如果当由闲置区块列表所管理的剩余闲置区块的数量下降到由规定的策略所决定的阈值以下时,或者从主机2指示实施无用信息收集时,控制器4可开始该QoS域的无用信息收集。
在该QoS域的无用信息收集时,控制器4从与该QoS域相对应的有源区块群中选择复制源区块(GC源区块)与复制目标区块(GC目的地区块)。选择哪个区块作为GC候补(复制源区块)既可按照由主机2所指定的所述策略来决定,也可以由主机2指定。在也基于策略来决定的情况下,例如可选择有效数据量最少的区块作为GC候补(复制源区块)。
图8表示对图7的写入命令的响应。
该响应包含逻辑地址、实体地址、及长度。
逻辑地址是图7的写入命令所包含的逻辑地址。
实体地址表示根据图7的写入命令而被写入数据的NAND型闪速存储器5内的实体存储位置。在本实施方式中,该实体地址并非由区块编号与页编号的组合指定,而是如上所述般,由区块编号与偏移(区块内偏移)的组合指定。区块编号是能够唯一地识别闪速存储装置3内的所有区块中的任意一个的标识符。在对所有区块赋予了不同区块编号的情况下,也可以直接使用这些区块编号。或者,区块编号也可以利用芯片块编号与芯片块内区块编号的组合来表现。长度表示应写入的写入数据的长度。该长度(数据长度)既可由粒度(Grain)的数量来指定,也可以由LBA的数量来指定,或者,其尺寸也可以由字节来指定。
图9表示闪速存储装置3所应用的Trim命令。
该Trim命令是包含表示存储着应设为无效的数据的实体存储位置的区块编号及区块内偏移的命令。也就是说,该Trim命令并非指定像LBA那样的逻辑地址,而能够指定实体地址。该Trim命令包含命令ID、实体地址、及长度。
命令ID是表示该命令为Trim命令的ID(命令代码),Trim命令中包含Trim命令用命令ID。
实体地址表示存储着应无效化的数据的最初的实体存储位置。在本实施方式中,该实体地址由区块编号与偏移(区块内偏移)的组合指定。
长度表示应无效化的数据的长度。该长度(数据长度)可以由粒度(Grain)的数量指定,也可以由字节指定。
控制器4使用区块管理表格32来管理表示多个区块分别包含的数据各自的有效/无效的旗标(位图旗标)。当从主机2接收到包含表示存储着应设为无效的数据的实体存储位置的区块编号及偏移(区块内偏移)的Trim命令时,控制器4更新区块管理表格32,将与Trim命令所包含的区块编号及区块内偏移相对应的实体存储位置的数据所对应的旗标(位图旗标)变更为表示无效的值。
图10表示规定实体地址的区块编号及偏移。
区块编号指定某一个区块BLK。如图10所示,各区块BLK包含多个页(这里为页0~页n)。
在页尺寸(各页的用户数据存储区域)为16K字节,且粒度(Grain)为4KB的尺寸的实例中,该区块BLK逻辑上被分割为4×(n+1)个区域。
偏移+0表示页0的最初4KB区域,偏移+1表示页0的第2个4KB区域,偏移+2表示页0的第3个4KB区域,偏移+3表示页0的第4个4KB区域。
偏移+4表示页1的最初4KB区域,偏移+5表示页1的第2个4KB区域,偏移+6表示页1的第3个4KB区域,偏移+7表示页1的第4个4KB区域。
图11表示根据写入命令而执行的写入动作与对该写入命令的响应所包含的返回值的关系。
闪速存储装置3的控制器4利用闲置区块列表来管理不包含有效数据的闲置区块群,从这些闲置区块群中选择一个区块(闲置区块),将所选择的区块分配为写入目标区块。现在,假定将区块BLK#1分配为写入目标区块的情况。控制器4以页0、页1、页2、…页n的顺序将数据以页为单位写入区块BLK#1。
在图11中,假定在已将16K字节数据写入到区块BLK#1的页0的状态下,从主机2接收到指定逻辑地址(LBAx)及长度(=4)的写入命令的情况。控制器4将区块BLK#1的页1决定为写入目标位置,将从主机2接收的16K字节写入数据写入到区块BLK#1的页1。然后,控制器4将对该写入命令的响应(逻辑地址、区块编号、偏移(区块内偏移)、长度)回传到主机2。在该实例中,逻辑地址为LBAx,区块编号为BLK#1,偏移(区块内偏移)为+5,长度为4。
图12表示跳过不良页(bad page)的写入动作。
在图12中,假定在已经对区块BLK#1的页0、页1写入数据的状态下,从主机2接收到指定逻辑地址(LBAx+1)及长度(=4)的写入命令的情况。如果区块BLK#1的页2是不良页,那么控制器4将区块BLK#1的页3决定为写入目标位置,将从主机2接收的16K字节写入数据写入到区块BLK#1的页3。然后,控制器4将对该写入命令的响应(逻辑地址、区块编号、偏移(区块内偏移)、长度)回传到主机2。在该实例中,逻辑地址为LBAx+1,区块编号为BLK#1,偏移(区块内偏移)为+12,长度为4。
图13表示跳过不良页的写入动作的另一例。
在图13中,假定跨隔着不良页的2个页写入数据的情况。现在,假定已经对区块BLK#2的页0、页1写入数据,且在写入缓冲区31残留着未写入的8K字节写入数据的情况。在该状态下,如果接受到指定逻辑地址(LBAy)及长度(=6)的写入命令,那么控制器4使用未写入的8K字节写入数据、及从主机2新接收的24K字节写入数据内的最初的8K字节写入数据,准备与页尺寸相对应的16K字节写入数据。然后,控制器4将该准备好的16K字节写入数据写入到区块BLK#2的页2。
如果区块BLK#2的下一个页3是不良页,那么控制器4将区块BLK#2的页4决定为下一写入目标位置,将从主机2接收到的24K字节写入数据内的剩余16K字节写入数据写入到区块BLK#2的页4。
然后,控制器4将对该写入命令的响应(逻辑地址、区块编号、偏移(区块内偏移)、长度)回传到主机2。在该实例中,该响应可包含LBAy、区块编号(=BLK#2)、偏移(=+10)、长度(=2)、区块编号(=BLK#2)、偏移(=+16)、长度(=4)。
图14、图15表示将逻辑地址与数据的配对写入区块内的页的动作。
在各区块中,各页可包含用来存储用户数据的用户数据区域、及用来存储管理数据的冗余区域。页尺寸为16KB+α。
控制器4将4KB用户数据及与该4KB用户数据相对应的逻辑地址(例如LBA)的两者写入到写入目标区块BLK。在该情况下,如图14所示,可将各自包含LBA与4KB用户数据的4个数据集合写入同一页。区块内偏移也可以表示集合边界。
或者,也可以如图15所示,将4个4KB用户数据写入到页内的用户数据区域,并将与这4个4KB用户数据相对应的4个LBA写入该页内的冗余区域。
图16表示使用超级区块的实例中的区块编号与偏移(区块内偏移)的关系。以下,也将区块内偏移简称为偏移。
这里,为了简化图示,假定某一个超级区块SB#1包含4个区块BLK#11、BLK#21、BLK#31、BLK#41的情况。控制器4以区块BLK#11的页0、区块BLK#21的页0、区块BLK#31的页0、区块BLK#41的页0、区块BLK#11的页1、区块BLK#21的页1、区块BLK#31的页1、区块BLK#41的页1、…的顺序写入数据。
偏移+0表示区块BLK#11的页0的最初4KB区域,偏移+1表示区块BLK#11的页0的第2个4KB区域,偏移+2表示区块BLK#11的页0的第3个4KB区域,偏移+3表示区块BLK#11的页0的第4个4KB区域。
偏移+4表示区块BLK#21的页0的最初4KB区域,偏移+5表示区块BLK#21的页0的第2个4KB区域,偏移+6表示区块BLK#21的页0的第3个4KB区域,偏移+7表示区块BLK#21的页0的第4个4KB区域。
同样地,偏移+12表示区块BLK#41的页0的最初4KB区域,偏移+13表示区块BLK#41的页0的第2个4KB区域,偏移+14表示区块BLK#41的页0的第3个4KB区域,偏移+15表示区块BLK#41的页0的第4个4KB区域。
偏移+16表示区块BLK#11的页1的最初4KB区域,偏移+17表示区块BLK#11的页1的第2个4KB区域,偏移+18表示区块BLK#11的页1的第3个4KB区域,偏移+19表示区块BLK#11的页1的第4个4KB区域。
偏移+20表示区块BLK#21的页1的最初4KB区域,偏移+21表示区块BLK#21的页1的第2个4KB区域,偏移+22表示区块BLK#21的页1的第3个4KB区域,偏移+23表示区块BLK#21的页1的第4个4KB区域。
同样地,偏移+28表示区块BLK#41的页1的最初4KB区域,偏移+29表示区块BLK#41的页1的第2个4KB区域,偏移+30表示区块BLK#41的页1的第3个4KB区域,偏移+31表示区块BLK#41的页1的第4个4KB区域。
例如,当将与指定某一LBA(LBAx)的写入命令相对应的4K字节数据写入到与偏移+8相对应的位置时,控制器4可将逻辑地址(=LBAx)、区块编号(=SB#1)、偏移(=+8)、长度(=1)作为对该写入命令的响应回传到主机2。
图17表示利用主机2与闪速存储装置3所执行的写入动作处理的顺序。
主机2将包含QoS域ID、LBA、长度的写入命令发送到闪速存储装置3。当闪速存储装置3的控制器4接收到该写入命令时,控制器4决定应被写入来自主机2的写入数据的写入目标区块及该写入目标区块内的位置。更详细来说,控制器4从闲置区块列表选择一个闲置区块,将所选择的闲置区块分配为写入目标区块(步骤S12)。也就是说,将该所选择的闲置区块及该所选择的闲置区块内的可利用的最初的页决定为应被写入来自主机2的写入数据的写入目标区块及该写入目标区块内的位置。在已经分配写入目标区块的情况下,无需执行该步骤12中的写入目标区块分配处理。将已经分配的写入目标区块内的可利用的下一页决定为应被写入来自主机2的写入数据的写入目标区块内的位置。
控制器4可管理与多个QoS域相对应的多个闲置区块列表。也可以在与某一QoS域相对应的闲置区块列表中,只注册对该QoS域预约的区块群。在该情况下,在步骤S12中,控制器4也可以选择与由写入命令的QoS域ID所指定的QoS域相对应的闲置区块列表,从该所选择的闲置区块列表选择一个闲置区块,将该所选择的闲置区块分配为写入目标区块。由此,能够防止与不同QoS域相对应的数据混合存在于相同区块。
控制器4将从主机2接收的写入数据写入到写入目标区块(步骤S12)。在步骤S12中,控制器4将逻辑地址(这里为LBA)与写入数据的两者写入到写入目标区块。
控制器4更新区块管理表格32,将与写入的数据相对应的位图旗标(即与写入该数据的实体存储位置的实体地址相对应的位图旗标)从0变更为1(步骤S13)。例如,如图18所示,假定将起始LBA为LBAx的16K字节更新数据写入到与区块BLK#1的偏移+4~+7相对应的实体存储位置的情况。在该情况下,如图19所示,在区块BLK#1用区块管理表格中,将与偏移+4~+7相对应的位图旗标分别从0变更为1。
控制器4将对该写入命令的响应回传到主机2(步骤S14)。例如,如图18所示,如果将起始LBA为LBAx的16K字节更新数据写入到与区块BLK#1的偏移+4~+7相对应的实体存储位置,那么将包含LBAx、区块编号(=BLK1)、偏移(=+4)、长度(=4)的响应从控制器4发送到主机2。
当主机2接收到该响应时,主机2更新由主机2所管理的LUT,将与被写入的写入数据相对应的逻辑地址分别映射到实体地址。如图20所示,LUT包含与多个逻辑地址(例如LBA)各自相对应的多个条目。在与某一逻辑地址(例如某一LBA)相对应的条目中,存储表示存储着与该LBA相对应的数据的NAND型闪速存储器5内的位置(实体存储位置)的实体地址PBA,即区块编号及偏移(区块内偏移)。如图18所示,如果将起始LBA为LBAx的16K字节更新数据写入到与区块BLK#1的偏移+4~+7相对应的实体存储位置,那么如图20所示,更新LUT,在与LBAx相对应的条目中存储BLK#1、偏移+4,在与LBAx+1相对应的条目中存储BLK#1、偏移+5,在与LBAx+2相对应的条目中存储BLK#1、偏移+6,在与LBAx+3相对应的条目中存储BLK#1、偏移+7。
其后,主机2对闪速存储装置3发送用来使因所述更新数据的写入而成为无用的过往数据无效化的Trim命令(步骤S21)。如图18所示,当过往数据存储在与区块BLK#0的偏移+0、偏移+1、偏移+2、偏移+3相对应的位置时,如图21所示,从主机2对闪速存储装置3发送指定区块编号(=BLK#0)、偏移(=+0)、长度(=4)的Trim命令。闪速存储装置3的控制器4根据该Trim命令来更新区块管理表格32(步骤S15)。在步骤S15中,如图21所示,在区块BLK#0用区块管理表格中,将与偏移+0~+3相对应的位图旗标分别从1变更为0。
图22表示闪速存储装置3所应用的读取命令。
读取命令是对闪速存储装置3要求数据的读出的命令。该读取命令包含命令ID、实体地址PBA、长度、传输目标指示器。
命令ID是表示该命令为读取命令的ID(命令代码),读取命令中包含读取命令用命令ID。
实体地址PBA表示应被读出数据的最初的实体存储位置。实体地址PBA是由区块编号、偏移(区块内偏移)指定的。
长度表示应被读取的数据的长度。该数据长度可由Grain的数量来指定。
传输目标指示器表示应被传输所读出的数据的主机2内的存储器上的位置。
一个读取命令能够指定多个实体地址PBA(区块编号、偏移)与长度的组。
图23表示读取动作。
这里,假定从主机2接收到指定区块编号(=BLK#2)、偏移(=+5)、长度(=3)的读取命令的情况。闪速存储装置4的控制器5基于区块编号(=BLK#2)、偏移(=+5)、长度(=3)从BLK#2读取数据d1~d3。在该情况下,控制器4从BLK#2的页1读取1页尺寸的数据,并从该读取数据提取数据d1~数据d3。接下来,控制器4将数据d1~数据d3传输到由传输目标指示器所指定的主机存储器上。
图24表示根据来自主机2的读取命令,读取不同实体存储位置分别存储的数据部的动作。
这里,假定从主机2接收到指定区块编号(=BLK#2)、偏移(=+10)、长度(=2)、区块编号(=BLK#2)、偏移(=+16)、长度(=4)的读取命令的情况。闪速存储装置4的控制器5基于区块编号(=BLK#2)、偏移(=+10)、长度(=2),从BLK#2的页2读取1页尺寸的数据,并从该读取数据提取数据d1~数据d2。接下来,控制器5基于区块编号(=BLK#2)、偏移(=+16)、长度(=4),从BLK#2的页4读取1页尺寸的数据(数据d3~数据d4)。然后,控制器5将通过结合数据d1~数据d2与数据d3~数据d4所获得的长度(=6)的读取数据传输到由读取命令内的传输目标指示器所指定的主机存储器上。
由此,即便在区块内存在不良页的情况下,也不会发生读取错误,而能够从个别的实体存储位置读取数据部。另外,即便在数据是跨2个区块被写入的情况下,也能够通过发出一个读取命令来读取该数据。
图25表示利用主机2与闪速存储装置3所执行的读取处理的顺序。
主机2参照由主机2所管理的LUT,将来自用户应用程序的读取请求所包含的逻辑地址转换成区块编号、偏移。然后,主机2将指定该区块编号、偏移、长度的读取命令发送到闪速存储装置3。
当闪速存储装置3的控制器4从主机2接收到读取命令时,控制器4将与由读取命令所指定的区块编号相对应的区块决定为读取对象的区块,并且基于由该读取命令所指定的偏移而决定读取对象的页(步骤S31)。在步骤S31中,控制器4可首先使由读取命令所指定的偏移除以表示页尺寸的粒度的数量(这里是4)。然后,控制器4可将由该除法所得的商及余数分别决定为读取对象的页编号及读取对象的页内偏移位置。
控制器4从NAND型闪速存储器5读取由区块编号、偏移、长度所规定的数据(步骤S32),将该读取数据发送到主机2。
图26表示闪速存储装置3所应用的GC控制命令。
GC控制命令可包含命令ID、策略、源QoS域ID、目的地QoS域ID等。
命令ID是表示该命令为GC控制命令的ID(命令代码),GC控制命令中包含GC控制命令用命令ID。
策略是指定用来选择GC候补区块(GC源区块)的条件(GC策略)的参数。闪速存储装置3的控制器4支持多种GC策略。
由控制器4所支持的GC策略中,可包含优先选择有效数据量较少的区块作为GC候补区块(GC源区块)的策略(Greedy,贪婪法)。
另外,由控制器4所支持的GC策略中,也可以包含如下策略:与具有较高更新频率的数据(热数据)集中的区块相比,优先选择具有较低更新频率的数据(冷数据)集中的区块作为GC候补区块(GC源区块)。
进而,GC策略也可以指定GC开始条件。GC开始条件例如可表示剩余闲置区块的个数。
控制器4利用有源区块列表来管理包含有效数据的区块群,在执行GC的情况下,基于由GC控制命令所指定的GC策略,从利用有源区块列表所管理的区块群中选择一个以上GC候补区块(GC源区块)。
源QoS域ID是指定应将哪个QoS域设为GC源的参数。控制器4从属于由源QoS域ID所指定的QoS域的区块群、即与该QoS域相对应的有源区块列表,选择一个以上GC候补区块(GC源区块)。
目的地QoS域ID是指定应将哪个QoS域设为GC目的地的参数。控制器4可选择属于由目的地QoS域ID所指定的QoS域的闲置区块群内的一个以上闲置区块作为GC目的地区块。
源QoS域ID及目的地QoS域ID既可以指定相同QoS域,也可以指定互不相同的QoS域。也就是说,源QoS域ID及目的地QoS域ID各自是指定多个QoS域的任意的一个的参数。
控制器4可在与源QoS域相对应的剩余闲置区块的数量成为由策略所指定的阈值以下的情况下,开始GC。如果接收到包含指定强制执行GC的策略的GC控制命令,那么控制器4可在从主机2接收到该GC控制命令时立刻开始GC。
图27表示GC用回调命令。
GC用回调命令用于对主机2通知通过GC所复制的有效数据的逻辑地址、及表示该有效数据的复制目标位置的区块编号及偏移。
GC用回调命令可包含命令ID、逻辑地址、长度、目的地实体地址、源实体地址(可选)。
命令ID是表示该命令为GC用回调命令的ID(命令代码),GC用回调命令中包含GC用回调命令用命令ID。
逻辑地址表示通过GC而从GC源区块复制到GC目的地区块的有效数据的逻辑地址。
长度表示该被复制的数据的长度。该数据长度可由粒度(Grain)的数量来指定。
目的地实体地址表示被复制了有效数据的GC目的地区块内的位置。目的地实体地址是由区块编号、偏移(区块内偏移)来指定的。
源实体地址(可选)表示曾存储有效数据的GC源区块内的位置。源实体地址是由区块编号、偏移(区块内偏移)来指定的。
图28表示无用信息收集(GC)动作的程序。
闪速存储装置3的控制器4基于由主机2所指定的策略,从属于由源QoS域ID所指定的QoS域的区块群,选择有效数据与无效数据混合存在的一个以上的GC源区块(复制源区块)(步骤S41)。接下来,控制器4从属于由目的地QoS域ID所指定的QoS域的闲置区块群中选择一个以上的闲置区块,将所选择的闲置区块分配为GC目的地区块(复制目标区块)(步骤S42)。
控制器4将GC源区块(复制源区块)内的所有有效数据复制到GC目的地区块(复制目标区块)(步骤S44)。在步骤S44中,控制器4不仅复制GC源区块(复制源区块)内的有效数据,而是将该有效数据及与该有效数据相对应的逻辑地址的两者从GC源区块(复制源区块)复制到GC目的地区块(复制目标区块)。由此,能够在GC目的地区块(复制目标区块)内保存数据与逻辑地址的配对。
然后,控制器4使用GC用回调命令,对主机2通知被复制的有效数据的逻辑地址、及表示被复制了该有效数据的GC目的地区块(复制目标区块)内的位置的目的地实体地址(区块编号、偏移(区块内偏移))(步骤S44)。此外,在步骤S44中,控制器4也可以不仅通知被复制的有效数据的逻辑地址及目的地实体地址,还对主机2通知源实体地址。
当主机2接收到该GC用回调命令时,主机2更新由主机2所管理的LUT,将与被复制的有效数据相对应的逻辑地址分别映射到目的地实体地址(步骤S51)。
图29表示为了进行GC而执行的数据复制动作的示例。
在图29中,假定如下情况:将与GC源区块(这里为区块BLK#50)的偏移+4相对应的位置所存储的有效数据(LBA=10)复制到与GC目的地区块(这里为区块BLK#100)的偏移+0相对应的位置,且将与GC源区块(这里为区块BLK#50)的偏移+10相对应的位置所存储的有效数据(LBA=20)复制到与GC目的地区块(这里为区块BLK#100)的偏移+1相对应的位置。在该情况下,控制器4对主机通知{LBA10、BLK#100、偏移(=+0)、LBA20、BLK#100、偏移(=+1)}(GC用回调处理)。
图30表示基于图29的数据复制动作的结果而更新的主机2的LUT的内容。
在该LUT中,与LBA10相对应的区块编号及偏移从BLK#50、偏移(=+4)更新为BLK#100、偏移(=+0)。同样地,与LBA20相对应的区块编号及偏移从BLK#50、偏移(=+10)更新为BLK#100、偏移(=+1)。
LUT更新后,主机2可对闪速存储装置3发送指定BLK#50及偏移(=+4)的Trim命令,将与BLK#50的偏移(=+4)相对应的位置所存储的数据无效化。进而,主机2可对闪速存储装置3发送指定BLK#50及偏移(=+10)的Trim命令,将与BLK#50的偏移(=+10)相对应的位置所存储的数据无效化。
图31表示对写入命令的响应与GC用回调处理的关系。
有时,会发生在控制器4复制与某一逻辑地址相对应的有效数据期间,从主机2接收到指定该逻辑地址的写入命令的状况。
在图31中,假定在执行图29的数据复制动作(与LBA10相对应的数据复制动作)中,从主机2接收到指定LBA10的写入命令的情况。
控制器4将从主机2接收的写入数据写入到写入目标区块(这里为写入与BLK#3的偏移+0相对应的位置)。然后,控制器4对主机2通知{LBA10、BLK#3、偏移(=+0)}。
主机2更新LUT,将与LBA10相对应的区块编号及偏移从BLK#50、偏移(+4)变更为BLK#3、偏移(+0)。
如果之后从控制器4对主机2通知LBA10的目的地实体地址,那么表示与LBA10相对应的存储着最新数据的位置的区块编号及偏移(BLK#3、偏移(+0))可能会被错误地变更为与LBA10相对应的目的地实体地址(这里为BLK#100、偏移(=+0))。
在本实施方式中,控制器4可不仅对主机2通知LBA10及目的地实体地址(BLK#100、偏移(=+0)),还通知源实体地址(BLK#50、偏移(=+4))。主机2当源实体地址(BLK#50、偏移(=+4))与根据LUT而当前映射到LBA10的区块编号、偏移不一致时,不更新LUT。由此,能够防止表示存储着与LBA10相对应的最新数据的位置的区块编号及偏移(BLK#3、偏移(+0))被错误地变更为与LBA10相对应的目的地实体地址(这里为BLK#100、偏移(=+0))。
图32表示GC控制命令的另一例。
该图32的GC控制命令可指定源装置ID与源QoS域ID的配对来代替源QoS域ID。进而,该图32的GC控制命令可指定目的地装置ID与目的地QoS域ID的配对来代替目的地QoS域ID。由此,能够使某一闪速存储装置3作为GC源而进行动作,并使另一闪速存储装置3作为GC目的地而进行动作。在源装置ID与目的地装置ID相同的情况下,在一个闪速存储装置3内执行GC。
图33表示与图32的GC控制命令相对应的GC用回调命令的示例。
图33的GC用回调命令包含目的地装置ID与目的地实体地址的配对来代替目的地实体地址。另外,图33的GC用回调命令可包含源装置ID与源实体地址的配对(可选)来代替源实体地址(可选)。
现在,摄像使装置ID为1的闪速存储装置3作为GC源而进行动作,且使装置ID为2的闪速存储装置3作为GC目的地而进行动作的情况。主机2可将指定源装置ID#1及目的地装置ID#2的GC控制命令发送到装置ID#1的闪速存储装置3及装置ID#2的闪速存储装置3。
装置ID#1的闪速存储装置3从属于由源QoS域ID所指定的QoS域的区块群中选择GC源区块,向由目的地装置ID所指定的闪速存储装置(装置ID#2的闪速存储装置)发送GC源区块内的有效数据与该有效数据的逻辑地址。GC源区块内的有效数据与该有效数据的逻辑地址例如是经由图3的开关1而从装置ID#1的闪速存储装置3传输到装置ID#2的闪速存储装置3。
装置ID#2的闪速存储装置3从属于由目的地QoS域ID所指定的QoS域的闲置区块群中选择GC目的地区块,将经由开关1而接收的有效数据及逻辑地址写入(复制)到GC目的地区块。
装置ID#2的闪速存储装置3利用GC用回调命令来对主机2通知被复制的有效数据的逻辑地址、及被复制了该有效数据的目的地实体地址(区块编号、偏移)。
装置ID#1的闪速存储装置3利用GC用回调命令来对主机2通知被复制的有效数据的逻辑地址、及曾存储该有效数据的源实体地址(区块编号、偏移)。
图34表示写入/读取/GC动作。
首先,对写入来自主机2的数据的主机写入动作进行说明。
(1)控制器4从主机2接收LBA及写入数据。
(2)控制器4将LBA与写入数据的两者写入到写入目标区块。在未分配写入目标区块的情况下,控制器4从闲置区块列表选择一个闲置区块,将该所选择的闲置区块分配为新写入目标区块。然后,控制器4将LBA与写入数据的两者写入该新写入目标区块。
(3)控制器4对主机2通知该LBA、及表示被写入该写入数据的写入目标区块内的位置的实体地址PBA。该实体地址PBA是由区块编号及偏移表示的。当写入目标区块整体被数据占满时,控制器4将该写入目标区块注册到有源区块列表。
其次,对读取动作进行说明。
(4)主机2参照由主机2管理的LUT,将来自用户应用程序的读取请求所包含的LBA转换成读取用实体地址PBA(区块编号、偏移)。
(5)基于从主机2接收的读取用实体地址PBA(区块编号、偏移),控制器4将具有该区块编号的区块决定为读取对象的区块。读取对象的区块为由有源区块列表所管理的区块群(有源区块)中的任一个、或当前的GC源区块、或当前的写入目标区块。然后,控制器4基于偏移而从读取对象的区块读取数据。
其次,对GC动作进行说明。
(6)控制器4选择GC源区块(复制源区块)及GC目的地区块(复制目标区块),将GC源区块内所存储的有效数据与该有效数据的LBA的两者复制到GC目的地区块。
(7)控制器4对主机2通知被复制的有效数据的LBA、及表示被复制了该有效数据的GC目的地区块内的位置的PBA(区块编号、偏移)的两者。
或者,控制器4也可以对主机2通知被复制的有效数据的LBA、表示被复制了该有效数据的GC目的地区块内的位置的PBA(区块编号、偏移)、及表示曾存储该有效数据的GC源区块内的位置的PBA(区块编号、偏移)。
图35表示用来管理参照计数的区块管理表格的构成例。
主机2支持重复排除功能。因此,当与由用户应用程序要求写入的数据一致的重复数据已经存在于闪速存储装置3(NAND型闪速存储器5)中时,主机2不将该数据写入到闪速存储装置3,而仅将指代存储着该数据的位置(区块编号、偏移)的指示器与被要求写入的数据的LBA建立关联。因此,闪速存储装置3(NAND型闪速存储器5)中所存储的各4K字节数据可能不仅被一个逻辑地址参照,而且被多个逻辑地址参照。
在本实施方式中,闪速存储装置3具有针对每4K字节数据管理参照计数的功能。这里,与某一数据相对应的参照计数表示参照了该数据的逻辑地址的数量。
在图35中,例示了区块BLK#1用区块管理表格。
区块BLK#1用区块管理表格包含与区块BLK#1的多个偏移值各自相对应的多个条目。
例如,在与偏移+0相对应的条目中,存储与区块BLK#1的偏移+0相对应的位置所存储的4KB数据所对应的参照计数。同样地,在与偏移+1相对应的条目中,存储与区块BLK#1的偏移+1相对应的位置所存储的4KB数据所对应的参照计数。
参照计数为1以上的数据为有效数据,参照计数为0的数据为无效数据。
闪速存储装置3基于从主机2接收的重复命令/Ttim命令,来使参照计数增加/减少。
图36表示为了管理参照计数而应用于闪速存储装置3的重复命令。
重复命令是对闪速存储装置3要求将某一实体地址(区块编号、偏移)中所存储的数据的参照计数增加1的命令。
该重复命令可包含命令ID、实体地址PBA、及长度等。
命令ID是表示该命令为重复命令的ID(命令代码),重复命令中包含重复命令用命令ID。
实体地址PBA表示存储着应使参照计数增加1的数据的最初的实体存储位置。实体地址PBA是由区块编号、偏移(区块内偏移)来指定的。
长度表示应使参照计数增加1的数据的长度。该数据长度能够由粒度(Grain)的数量来指定。
控制器4当从主机2接收到包含表示存储着应使参照计数增加的数据的实体存储位置的区块编号及区块内偏移的重复命令时,更新区块管理表格32,使与重复命令所包含的区块编号及区块内偏移相对应的实体存储位置的数据所对应的参照计数增加1。
图37表示为了管理参照计数而应用于闪速存储装置3的Trim命令。
该Trim命令为对闪速存储装置3要求使某一实体地址(区块编号、偏移)中所存储的数据的参照计数减少1的命令。
该Trim命令可包含命令ID、实体地址PBA、及长度等。
命令ID是表示该命令为Trim命令的ID(命令代码),Trim命令中包含Trim命令用命令ID。
实体地址PBA表示存储着应使参照计数减少1的数据的最初的实体存储位置。实体地址PBA是由区块编号、偏移(区块内偏移)来指定的。
长度表示应使参照计数减少1的数据的长度。该数据长度能够由粒度(Grain)的数量来指定。
控制器4当从主机2接收到包含表示存储着应使参照计数减少的数据的实体存储位置的区块编号及区块内偏移的Trim命令时,更新区块管理表格32,使与Trim命令所包含的区块编号及区块内偏移相对应的实体存储位置的数据所对应的参照计数减少1。
图38表示参照计数增加/减少处理。
当闪速存储装置3的控制器4从主机2接收到重复命令时,控制器4使与由重复命令所指定的实体地址PBA(区块编号、偏移)相对应的参照计数、即与由该区块编号及偏移所指定的NAND型闪速存储器5内的实体存储位置所存储的数据相对应的参照计数增加1(步骤S61)。在该情况下,控制器4更新与具有由重复命令所指定的区块编号的区块相对应的区块管理表格32。在该区块管理表格32的更新中,使与由重复命令所指定的偏移相对应的区块管理表格32内的条目中所存储的参照计数增加1。在由重复命令所指定的长度为2以上的情况下,不仅使与由重复命令所指定的偏移相对应的参照计数增加1,也使与该偏移后续的若干个偏移相对应的参照计数增加1。
在闪速存储装置3的控制器4从主机2接收到Trim命令时,控制器4使与由Trim命令所指定的实体地址PBA(区块编号、偏移)相对应的参照计数、即与由该区块编号及偏移所指定的NAND型闪速存储器5内的实体存储位置所存储的数据相对应的参照计数减少1(步骤S62)。在该情况下,控制器4更新与具有由Trim命令所指定的区块编号的区块相对应的区块管理表格32。在该区块管理表格32的更新中,使与由Trim命令所指定的偏移相对应的区块管理表格32内的条目中所存储的参照计数减少1。在由Trim命令所指定的长度为2以上的情况下,不仅使与由Trim命令所指定的偏移相对应的参照计数减少1,也使与该偏移后续的若干个偏移相对应的参照计数减少1。
在GC中,控制器4参照与GC源区块相对应的区块管理表格,以尺寸为4KB的数据为单位,判定GC源区块内的数据为有效数据或是无效数据。控制器4判定参照计数为0的数据是无效数据,且判定参照计数为1以上的数据是有效数据。然后,控制器4将有效数据(参照计数为1以上的数据)及与该有效数据相对应的逻辑地址从GC源区块复制到GC目的地区块。
更详细来说,控制器4在执行NAND型闪速存储器5的无用信息收集的情况下,选择用于无用信息收集的复制源区块及复制目标区块。控制器4将复制源区块内所存储的参照计数为1以上的第1数据(有效数据)与第1数据的逻辑地址的两者复制到复制目标区块。然后,控制器4对主机2通知第1数据的逻辑地址、复制目标区块的区块编号、及以粒度的倍数表示被复制了第1数据的相对于复制目标区块前端的偏移位置的区块内偏移。
如以上说明,根据本实施方式,并非由主机2而是由闪速存储装置3来决定应被写入来自主机2的数据(用户数据)的写入目标区块及该写入目标区块内的位置(写入目标位置)。闪速存储装置3将用户数据写入到写入目标区块内的写入目标位置,然后,对主机2通知写入目标区块的区块编号及区块内偏移,该区块内偏移是以具有与页尺寸不同尺寸的粒度的倍数来表示写入目标区块的前端至写入目标位置的偏移。由此,主机2无需在意区块尺寸、页写入顺序制约、不良页、页尺寸等便能够将用户数据写入到NAND型闪速存储器5,进而,能够将由区块编号及区块内偏移所表示的实体地址(抽象化的实体地址)映射到该用户数据的逻辑地址。
这样一来,闪速存储装置3能够利用决定写入目标区块及该写入目标区块内的位置,且将区块编号与区块内偏移回传到主机2的这一构成,来实现上位阶层(主机2)的应用程序级地址转换表格与现有型SSD的LUT级地址转换表格的合并,而且,闪速存储装置3能够考虑NAND型闪速存储器5的特征/制约来控制NAND型闪速存储器5。因此,能够实现主机2与闪速存储装置3之间适当的作用分配,由此,能够实现包含主机2与闪速存储装置3的系统整体的I/O性能的提升。
另外,根据本实施方式,并非由管理地址转换表格的主机2而是由闪速存储装置3来选择用于无用信息收集的复制源区块及复制目标区块,并将复制源区块内所存储的有效数据复制到复制目标区块。然后,闪速存储装置3对主机2通知被复制的有效数据的逻辑地址、复制目标区块的区块编号、及表示被复制了有效数据的复制目标区块内的位置的区块内偏移。这样一来,利用闪速存储装置3来执行无用信息收集,并且从闪速存储装置3对主机2通知逻辑地址、区块编号、及区块内偏移,因此主机2能够使用地址转换表格(LUT)来正确地管理逻辑地址各自与NAND型闪速存储器5的实体地址(即区块编号与区块内偏移的配对)各自之间的映射。另外,能够将应用程序级GC与闪速存储装置3的GC合并,因此能够大幅降低写入放大。
此外,闪速存储装置3也可以用作设置在存储器阵列内的多个闪速存储装置3的一个。存储器阵列可经由缆线或网络而连接于像服务器计算机这样的信息处理装置。存储器阵列包含控制该存储器阵列内的多个闪速存储装置3的控制器。在将闪速存储装置3应用于存储器阵列的情况下,可使该存储器阵列的控制器作为闪速存储装置3的主机2而发挥功能。
另外,在本实施方式中,例示了NAND型闪速存储器作为非易失性存储器。然而,本实施方式的功能也能够应用于例如MRAM(Magnetoresistive Random Access Memory,磁阻式随机存取存储器)、PRAM(Phase change Random Access Memory,相变随机存取存储器),ReRAM(Resistive Random Access Memory,可变电阻式随机存取存储器)、或FeRAM(Ferroelectric Random Access Memory,铁电随机存取存储器)这样的其它各种非易失性存储器。
对本发明的若干个实施方式进行了说明,但这些实施方式是作为示例而提出的,并非意在限定发明的范围。这些新颖的实施方式能够以其它各种方式实施,且能够在不脱离发明的主旨的范围内进行各种省略、置换、变更。这些实施方式及其变化包含在发明的范围或主旨内,并且包含在权利要求书所记载的发明及其均等的范围内。
[符号的说明]
2 主机
3 闪速存储装置
4 控制器
5 NAND型闪速存储器
21 写入动作控制部
22 读取动作控制部
23 GC动作控制部
Claims (24)
1.一种存储器系统,其特征在于:其是能够连接于主机的存储器系统,且包括:
非易失性存储器,包含多个区块,所述多个区块各自是删除动作的单位;及
控制器,电连接于所述非易失性存储器;且
所述多个区块分类成多个域;
所述控制器构成为:
在从所述主机接收到请求第1数据的写入、且指定应写入所述第1数据的域的标识符的写入命令的情形时,从所述多个域中选择与所述指定的标识符建立关联的域,从属于所述选择的域的区块的集合中分配应写入所述第1数据的第1区块,将所述第1数据写入所述第1区块内的第1存储位置。
2.根据权利要求1所述的存储器系统,其特征在于:
所述写入命令还指定了与所述第1数据相对应的逻辑地址,且不指定所述第1区块的标识符。
3.根据权利要求2所述的存储器系统,其特征在于:
所述控制器还构成为至少使用所述第1区块的所述标识符来将所述第1存储位置通知所述主机。
4.根据权利要求3所述的存储器系统,其特征在于:
所述控制器构成为使用所述第1区块的所述标识符与所述第1区块内的偏移地址来将所述第1存储位置通知所述主机。
5.根据权利要求4所述的存储器系统,其特征在于:
所述多个区块各自包含多个页,所述多个页各自是数据写入动作的单位;
所述控制器使用具有与所述多个页各自的尺寸不同尺寸的粒度的倍数来指定所述偏移地址。
6.根据权利要求4所述的存储器系统,其特征在于:
所述控制器构成为:
在从所述主机接收到指定所述第1区块的所述标识符与所述第1区块内的偏移地址的读取命令的情形时,从所述第1区块内的所述第1存储位置读出所述第1数据。
7.根据权利要求6所述的存储器系统,其特征在于:
所述读取命令不指定与所述第1数据相对应的所述逻辑地址。
8.根据权利要求2所述的存储器系统,其特征在于:
所述控制器还构成为:
将与所述第1数据相对应的所述逻辑地址与所述第1数据一起写入所述第1区块内的所述第1存储位置。
9.根据权利要求8所述的存储器系统,其特征在于:
所述控制器还构成为:
将所述第1数据与所述逻辑地址从所述第1区块内的所述第1存储位置复制到所述非易失性存储器的第2存储位置;
将所述第2存储位置与所述逻辑地址通知所述主机。
10.根据权利要求1所述的存储器系统,其特征在于:
所述多个区块各自只属于所述多个域中的一个域。
11.根据权利要求1所述的存储器系统,其特征在于:
所述非易失性存储器包含多个存储器芯片块,所述多个存储器芯片块各自只属于所述多个域中的一个域。
12.一种存储器系统,其特征在于:其是能够连接于主机的存储器系统,且包括:
非易失性存储器,包含多个区块,所述多个区块各自是删除动作的单位;及
控制器,电连接于所述非易失性存储器;且
所述控制器构成为:
在从所述主机接收到请求第1数据的写入、指定与所述第1数据相对应的逻辑地址、且不指定应写入所述第1数据的区块的标识符的写入命令的情形时,将所述第1数据写入所述非易失性存储器内的第1存储位置,且使用被写入了所述第1数据的区块的标识符与被写入了所述第1数据的区块内的偏移地址来将所述第1存储位置通知所述主机;
在从所述主机接收到请求所述第1数据的读出、且指定被写入了所述第1数据的所述区块的所述标识符与被写入了所述第1数据的区块内的所述偏移地址的读取命令的情形时,从所述非易失性存储器内的所述第1存储位置读出所述第1数据。
13.根据权利要求12所述的存储器系统,其特征在于:
所述多个区块分类成多个域;
所述写入命令还指定应写入所述第1数据的域的标识符;
所述控制器构成为:
从所述多个域中选择与所述指定的标识符建立关联的域;
从属于所述选择的域的区块的集合中分配应写入所述第1数据的区块。
14.一种控制方法,其特征在于:其是通过控制器来控制包含多个区块的非易失性存储器的控制方法,所述多个区块各自是删除动作的单位;且
所述多个区块分类成多个域;
在从主机接收到请求第1数据的写入、且指定应写入所述第1数据的域的标识符的写入命令的情形时,从所述多个域中选择与所述指定的标识符建立关联的域,从属于所述选择的域的区块的集合中分配应写入所述第1数据的第1区块,将所述第1数据写入所述第1区块内的第1存储位置。
15.根据权利要求14所述的控制方法,其特征在于:
所述写入命令还指定了与所述第1数据相对应的逻辑地址,且不指定所述第1区块的标识符。
16.根据权利要求15所述的控制方法,其特征在于:
至少使用所述第1区块的所述标识符来将所述第1存储位置通知所述主机。
17.根据权利要求16所述的控制方法,其特征在于:
所述通知包含使用所述第1区块的所述标识符与所述第1区块内的偏移地址来将所述第1存储位置通知所述主机。
18.根据权利要求17所述的控制方法,其特征在于:
所述多个区块各自包含多个页,所述多个页各自是数据写入动作的单位;
所述偏移地址是使用具有与所述多个页各自的尺寸不同尺寸的粒度的倍数来指定的。
19.根据权利要求17所述的控制方法,其特征在于还包括:
在从所述主机接收到指定所述第1区块的所述标识符与所述第1区块内的偏移地址的读取命令的情形时,从所述第1区块内的所述第1存储位置读出所述第1数据。
20.根据权利要求19所述的控制方法,其特征在于:
所述读取命令不指定与所述第1数据相对应的所述逻辑地址。
21.根据权利要求15所述的控制方法,其特征在于:
将与所述第1数据相对应的所述逻辑地址与所述第1数据一起写入所述第1区块内的所述第1存储位置。
22.根据权利要求21所述的控制方法,其特征在于还包括:
将所述第1数据与所述逻辑地址从所述第1区块内的所述第1存储位置复制到所述非易失性存储器的第2存储位置;及
将所述第2存储位置与所述逻辑地址通知所述主机。
23.根据权利要求14所述的控制方法,其特征在于:
所述多个区块各自只属于所述多个域中的一个域。
24.根据权利要求14所述的控制方法,其特征在于:
所述非易失性存储器包含多个存储器芯片块,所述多个存储器芯片块各自只属于所述多个域中的一个域。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017181425A JP6785204B2 (ja) | 2017-09-21 | 2017-09-21 | メモリシステムおよび制御方法 |
JP2017-181425 | 2017-09-21 | ||
CN201810021746.9A CN109542331A (zh) | 2017-09-21 | 2018-01-10 | 存储器系统及控制非易失性存储器的控制方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810021746.9A Division CN109542331A (zh) | 2017-09-21 | 2018-01-10 | 存储器系统及控制非易失性存储器的控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114372007A true CN114372007A (zh) | 2022-04-19 |
Family
ID=65720270
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111645918.8A Pending CN114372007A (zh) | 2017-09-21 | 2018-01-10 | 存储器系统及控制非易失性存储器的控制方法 |
CN201810021746.9A Withdrawn CN109542331A (zh) | 2017-09-21 | 2018-01-10 | 存储器系统及控制非易失性存储器的控制方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810021746.9A Withdrawn CN109542331A (zh) | 2017-09-21 | 2018-01-10 | 存储器系统及控制非易失性存储器的控制方法 |
Country Status (4)
Country | Link |
---|---|
US (4) | US10545862B2 (zh) |
JP (1) | JP6785204B2 (zh) |
CN (2) | CN114372007A (zh) |
TW (1) | TWI684098B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11422726B1 (en) * | 2018-05-01 | 2022-08-23 | Amazon Technologies, Inc. | Efficient storage device data move operation based on priority of garbage collection command |
US10599580B2 (en) | 2018-05-23 | 2020-03-24 | International Business Machines Corporation | Representing an address space of unequal granularity and alignment |
US11144229B2 (en) * | 2018-11-01 | 2021-10-12 | EMC IP Holding Company LLC | Bandwidth efficient hash-based migration of storage volumes between storage systems |
JP2020170477A (ja) * | 2019-04-05 | 2020-10-15 | 株式会社バッファロー | 記憶装置、その制御方法、及びプログラム |
JP2021028762A (ja) | 2019-08-09 | 2021-02-25 | キオクシア株式会社 | 情報処理装置および制御方法 |
JP2021114038A (ja) | 2020-01-16 | 2021-08-05 | キオクシア株式会社 | メモリシステムおよび制御方法 |
KR102267477B1 (ko) | 2020-02-20 | 2021-06-22 | 삼성전자주식회사 | 스토리지 장치 및 이의 동작 방법 |
TWI756810B (zh) * | 2020-09-02 | 2022-03-01 | 瑞昱半導體股份有限公司 | 晶片與相關的晶片系統 |
TWI808384B (zh) * | 2021-02-23 | 2023-07-11 | 慧榮科技股份有限公司 | 儲存裝置、快閃記憶體控制器及其控制方法 |
TWI821152B (zh) * | 2021-02-23 | 2023-11-01 | 慧榮科技股份有限公司 | 儲存裝置、快閃記憶體控制器及其控制方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006164408A (ja) * | 2004-12-08 | 2006-06-22 | Toshiba Corp | 不揮発性半導体記憶装置及びそのデータ消去方法。 |
US8364918B1 (en) * | 2007-04-06 | 2013-01-29 | Marvell International Ltd. | Sensed opportunistic garbage collection in memory components |
US8429352B2 (en) * | 2007-06-08 | 2013-04-23 | Sandisk Technologies Inc. | Method and system for memory block flushing |
JP5026213B2 (ja) * | 2007-09-28 | 2012-09-12 | 株式会社日立製作所 | ストレージ装置及びデータ重複排除方法 |
US8364931B2 (en) * | 2009-06-29 | 2013-01-29 | Mediatek Inc. | Memory system and mapping methods using a random write page mapping table |
CN101963891A (zh) * | 2010-09-25 | 2011-02-02 | 成都市华为赛门铁克科技有限公司 | 数据存储处理方法与装置、固态硬盘系统与数据处理系统 |
US20130019057A1 (en) * | 2011-07-15 | 2013-01-17 | Violin Memory, Inc. | Flash disk array and controller |
US10359949B2 (en) | 2011-10-31 | 2019-07-23 | Apple Inc. | Systems and methods for obtaining and using nonvolatile memory health information |
JP2013174975A (ja) * | 2012-02-23 | 2013-09-05 | Toshiba Corp | メモリシステムとそのデータ書き込み方法 |
CN103176752A (zh) * | 2012-07-02 | 2013-06-26 | 晶天电子(深圳)有限公司 | 带有耐用转换层及临时文件转移功能从而实现闪速存储器磨损降低的超耐用固态驱动器 |
WO2014110095A1 (en) | 2013-01-08 | 2014-07-17 | Violin Memory Inc. | Method and system for data storage |
US9329991B2 (en) | 2013-01-22 | 2016-05-03 | Seagate Technology Llc | Translation layer partitioned between host and controller |
JP6443794B2 (ja) * | 2013-08-16 | 2018-12-26 | エルエスアイ コーポレーション | ホストとコントローラとの間でパーティション化された変換レイヤ |
US20160232088A1 (en) * | 2014-07-17 | 2016-08-11 | Sandisk Enterprise Ip Llc | Garbage Collection in Storage System with Distributed Processors |
WO2016013076A1 (ja) | 2014-07-23 | 2016-01-28 | 富士通株式会社 | 情報処理装置、メモリコントローラ、記憶装置の制御プログラム及び記憶装置の制御方法 |
JP2016170583A (ja) * | 2015-03-12 | 2016-09-23 | 株式会社東芝 | メモリシステムおよび情報処理システム |
JP6403162B2 (ja) | 2015-07-23 | 2018-10-10 | 東芝メモリ株式会社 | メモリシステム |
TWI578222B (zh) * | 2015-11-18 | 2017-04-11 | 慧榮科技股份有限公司 | 資料儲存裝置及其資料維護方法 |
JP6414853B2 (ja) | 2015-12-14 | 2018-10-31 | 東芝メモリ株式会社 | メモリシステムおよび制御方法 |
JP6448571B2 (ja) | 2016-03-08 | 2019-01-09 | 東芝メモリ株式会社 | ストレージシステム、情報処理システムおよび制御方法 |
JP6523193B2 (ja) * | 2016-03-08 | 2019-05-29 | 東芝メモリ株式会社 | ストレージシステム、情報処理システムおよび制御方法 |
JP6448570B2 (ja) * | 2016-03-08 | 2019-01-09 | 東芝メモリ株式会社 | ストレージシステム、情報処理システムおよび制御方法 |
US10409719B2 (en) | 2016-03-17 | 2019-09-10 | Samsung Electronics Co., Ltd. | User configurable passive background operation |
US11775189B2 (en) * | 2019-04-03 | 2023-10-03 | Pure Storage, Inc. | Segment level heterogeneity |
-
2017
- 2017-09-21 JP JP2017181425A patent/JP6785204B2/ja active Active
- 2017-12-29 TW TW106146402A patent/TWI684098B/zh active
-
2018
- 2018-01-10 CN CN202111645918.8A patent/CN114372007A/zh active Pending
- 2018-01-10 CN CN201810021746.9A patent/CN109542331A/zh not_active Withdrawn
- 2018-03-07 US US15/913,987 patent/US10545862B2/en active Active
-
2019
- 2019-12-20 US US16/723,458 patent/US11144451B2/en active Active
-
2021
- 2021-10-12 US US17/499,825 patent/US11797436B2/en active Active
-
2023
- 2023-09-13 US US18/367,547 patent/US20230418739A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US11144451B2 (en) | 2021-10-12 |
TW201915747A (zh) | 2019-04-16 |
CN109542331A (zh) | 2019-03-29 |
US10545862B2 (en) | 2020-01-28 |
US20190087323A1 (en) | 2019-03-21 |
JP6785204B2 (ja) | 2020-11-18 |
JP2019057151A (ja) | 2019-04-11 |
US20220058117A1 (en) | 2022-02-24 |
TWI684098B (zh) | 2020-02-01 |
US20230418739A1 (en) | 2023-12-28 |
US20200125487A1 (en) | 2020-04-23 |
US11797436B2 (en) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109542333B (zh) | 存储器系统及控制非易失性存储器的控制方法 | |
US11151029B2 (en) | Computing system and method for controlling storage device | |
CN114115747B (zh) | 存储器系统及控制方法 | |
US11467955B2 (en) | Memory system and method for controlling nonvolatile memory | |
CN109726139B (zh) | 存储器系统及控制方法 | |
US11797436B2 (en) | Memory system and method for controlling nonvolatile memory | |
JP7013546B2 (ja) | メモリシステム | |
JP7490714B2 (ja) | メモリシステムおよび制御方法 | |
JP7204020B2 (ja) | 制御方法 | |
JP7167295B2 (ja) | メモリシステムおよび制御方法 | |
JP7102482B2 (ja) | メモリシステムおよび制御方法 | |
JP2023021450A (ja) | メモリシステム | |
JP2022179798A (ja) | メモリシステムおよび制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |