CN110032333B - 存储器系统及其操作方法 - Google Patents
存储器系统及其操作方法 Download PDFInfo
- Publication number
- CN110032333B CN110032333B CN201811470074.6A CN201811470074A CN110032333B CN 110032333 B CN110032333 B CN 110032333B CN 201811470074 A CN201811470074 A CN 201811470074A CN 110032333 B CN110032333 B CN 110032333B
- Authority
- CN
- China
- Prior art keywords
- data
- memory chip
- memory
- importance
- chip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015654 memory Effects 0.000 title claims abstract description 254
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000004044 response Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 abstract description 10
- 238000013507 mapping Methods 0.000 description 78
- 238000010586 diagram Methods 0.000 description 19
- 101100481702 Arabidopsis thaliana TMK1 gene Proteins 0.000 description 10
- 238000011017 operating method Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 101001114057 Homo sapiens P antigen family member 1 Proteins 0.000 description 1
- 102100023219 P antigen family member 1 Human genes 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0611—Improving I/O performance in relation to response time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
- G06F12/0238—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
- G06F12/0246—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/0292—User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
- G06F12/1009—Address translation using page tables, e.g. page table structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0608—Saving storage space on storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/065—Replication mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0652—Erasing, e.g. deleting, data cleaning, moving of data to a wastebasket
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0659—Command handling arrangements, e.g. command buffers, queues, command scheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0673—Single storage device
- G06F3/0679—Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0688—Non-volatile semiconductor memory arrays
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C16/00—Erasable programmable read-only memories
- G11C16/02—Erasable programmable read-only memories electrically programmable
- G11C16/06—Auxiliary circuits, e.g. for writing into memory
- G11C16/10—Programming or data input circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7201—Logical to physical mapping or translation of blocks or pages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7207—Details relating to flash memory management management of metadata or control data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7208—Multiple device management, e.g. distributing data over multiple flash devices
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Memory System (AREA)
Abstract
一种存储器系统包括多个存储器芯片和控制器,该多个存储器芯片包括第一存储器芯片和第二存储器芯片。控制器包括处理从主机接收的请求的第一中央处理单元(CPU)和通过多个通道分别控制多个存储器芯片的操作的多个第二CPU。控制器中存储重要性表,并且重要性表包括关于存储在存储器系统中的数据的数据编程方法的信息,该关于数据编程方法的信息与数据的重要性信息相对应。第二CPU被配置为基于重要性表在第一存储器芯片和第二存储器芯片两者中编程数据中的至少一些,使得数据中的至少一些被存储在第一存储器芯片和第二存储器芯片两者中作为相同的数据。
Description
相关申请的交叉引用
本申请要求于2017年11月29日向韩国知识产权局提交的韩国专利申请NO.10-2017-0161842的权益,其公开通过引用整体被并入本文。
技术领域
本发明构思涉及存储器系统,并且更具体地,涉及能够将相同的数据复制并存储在多个存储器芯片中的存储器系统以及存储器系统的操作方法。
背景技术
存储器设备被分类为易失性存储器设备和非易失性存储器设备。易失性存储器设备包括,例如,动态随机存取存储器(Dynamic Random Access Memory,DRAM)和静态随机存取存储器(Static Random Access Memory,SRAM)。非易失性存储器设备包括,例如,闪速存储器、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-OnlyMemory,EEPROM)和电阻存储器。
在半导体存储设备当中,非易失性存储设备(例如,闪速存储器设备)被设计成具有多平面结构以增加其存储容量。多平面非易失性存储器设备包括多个平面,每个平面包括多个存储器块。
主机可以向存储器系统发送编程、读取和擦除请求。存储器系统响应于从主机接收的编程、读取和擦除请求而执行编程、读取和擦除操作,并且由存储器系统执行编程、读取和擦除操作所用的时间彼此不同。
发明内容
本发明构思提供了一种存储器系统以及存储器系统的操作方法,该存储器系统能够通过在多个存储器芯片中复制和编程相同的数据并从多个存储器芯片中的一个读取数据来提高数据读取操作速度。
根据本发明构思的一方面,提供了一种存储器系统,其包括:包括第一存储器芯片和第二存储器芯片的多个存储器芯片,和访问多个存储器芯片的控制器。控制器包括被配置为处理从主机接收的请求的第一中央处理单元(Central Processing Unit,CPU)和被配置为通过多个通道分别控制多个存储器芯片的操作的多个第二CPU。在控制器中存储重要性表,并且重要性表包括关于用于存储在存储器系统中的数据的数据编程方法的信息,并且所述关于数据编程方法的信息与数据的重要性信息相对应。第二CPU被配置为基于重要性表编程第一存储器芯片和第二存储器芯片中的数据的至少一些,使得数据中的至少一些作为相同的数据被存储在第一存储器芯片和第二存储器芯片两者中。
根据本发明构思的另一方面,提供了一种包括第一存储器芯片和第二存储器芯片的存储器系统的操作方法。该操作方法包括:响应于对第一数据的编程请求,在第一存储器芯片和第二存储器芯片两者中编程第一数据,使得第一数据作为相同的数据被存储在第一存储器芯片和第二存储器芯片两者中;响应于对第一数据的读取请求,确定第一存储器芯片和第二存储器芯片是否正在对与第一数据不同的数据执行操作,并在确定第一存储器芯片和第二存储器芯片中的另一个正在对与第一数据不同的数据执行操作时,从第一存储器芯片和第二存储器芯片中的一个读取第一数据。
根据本发明构思的另一方面,提供了一种包括多个存储器芯片的存储器系统的操作方法。该操作方法包括:基于第一数据的第一重要性,在多个存储器芯片当中的多个第一存储器芯片中编程第一数据,使得第一数据作为相同的数据被存储在多个第一存储器芯片的全部中;基于第二数据的第二重要性仅在多个存储器芯片当中的单个第二存储器芯片中编程第二数据;在第一映射表中存储与在其中存储了第一数据的多个第一存储器芯片中的至少一个存储器芯片相对应的物理地址;以及在第二映射表中存储与在其中存储了第二数据的单个第二存储器芯片相对应的物理地址。
根据本发明的又一方面,一种存储器系统包括:多个存储器芯片;和被配置为控制多个存储器芯片的操作的控制器。控制器包括具有包括第一条目和第二条目的多个条目的重要性表。第一条目包括第一重要性信息和指示多个存储器芯片的第一数量的第一编程信息,并且第二条目包括第二重要性信息和指示多个存储器芯片的第二数量的第二编程信息。控制器被配置为根据第一编程信息在第一数量的多个存储器芯片中存储具有第一重要性的第一数据,并且还被配置为根据第二编程信息在第二数量的多个存储器芯片中存储具有第二重要性的第二数据,使得第二数据作为相同的数据被存储在第二数量的多个存储器芯片中的每一个中。
附图说明
从以下结合附图的详细描述中将更清楚地理解本发明构思的实施例。
图1是包括存储器系统的系统的示例性实施例的框图。
图2是图1的控制器的示例性实施例的框图。
图3是存储器系统的示例性实施例的框图。
图4是存储器系统的操作方法的示例性实施例的流程图。
图5是用于描述图3的操作S120和操作S130的示例性实施例的流程图。
图6是存储器系统的示例性实施例的框图。
图7是用于描述在存储器系统的示例性实施例中形成一对芯片的第一存储器芯片和第二存储器芯片的框图。
图8是存储器系统的操作方法的示例性实施例的流程图。
图9显示了存储器系统的示例性实施例中的映射表,该映射表包括逻辑地址和在其中存储数据的页面的物理地址之间的映射信息。
图10A和图10B显示了在存储器系统的示例性实施例中的第一映射表和第二映射表,该第一映射表和第二映射表包括逻辑地址和要在其中存储数据的页面的物理地址之间的映射信息。
图11是存储器系统的示例性实施例的框图。
图12是存储器系统的示例性实施例的框图。
图13是存储器系统的示例性实施例的操作方法的流程图。
图14显示了在存储器系统的示例性实施例中的映射表,该映射表包括逻辑地址和要在其中存储数据的页面的物理地址之间的映射信息。
图15是存储器系统的操作方法的示例性实施例的流程图。
图16是用于描述图15的操作S210的示例性实施例的流程图。
图17是从图1的控制器修改的控制器的框图。
图18A、图18B和图19显示了存储在存储器系统的示例性实施例的本地存储器中的重要性表。
具体实施方式
图1是根据本发明构思的示例性实施例的包括存储器系统1000的系统10的框图。
参考图1,系统10可以包括主机2000和存储器系统1000。存储器系统1000可以是固态驱动器(Solid State Drive,SSD)。然而,实施例不限于此,并且存储器系统1000可以被实施为嵌入式多媒体卡(Embedded Multimedia Card,Emmc)、通用闪存(UFS)、独立磁盘冗余阵列(redundant array of independent disk,RAID)等。
主机2000可以与存储器系统1000通信并且可以包括各种设备。例如,主机2000可以包括诸如便携式媒体播放器(Portable Media Player,PMP)、个人数字助理(PersonalDigital Assistant,PDA)或智能电话的便携式电子设备、诸如计算机或高清晰度电视(High-Definition Television,HDTV)的电子设备、或安装在电子设备中的应用处理器。存储器系统1000可以响应于从主机2000接收的请求Req(例如,数据访问请求),执行对在与逻辑地址ADD_L相对应的位置中的数据DATA进行编程或从与逻辑地址ADD_L相对应的位置读取数据DATA的存储器操作。
存储器系统1000可以包括控制器100和一个或多个非易失性存储器芯片200。控制器100可以通过一个或多个通道访问非易失性存储器芯片200。例如,存储器系统1000可以包括n个通道Ch1至Chn,并且控制器100可以通过n个通道Ch1至Chn访问非易失性存储器芯片200。例如,控制器100可以并行访问与不同的通道相对应的非易失性存储器芯片200。
非易失性存储器芯片200可以包括闪速存储器。然而,闪速存储器仅仅是一个示例,实施例不限于此。例如,非易失性存储器芯片200可以包括诸如电阻随机存取存储器(Resistive Random Access Memory,ReRAM)、磁阻随机存储器(Magnetoresistive RandomMemory,MRAM)或相变随机存取存储器(Phase-Change Random Access Memory,PRAM)的非易失性存储器。
控制器100可以包括用于基于主机2000的请求Req控制存储器操作的一个或多个中央处理单元(CPU)。在实施例中,控制器100可以包括用于执行与主机2000相接口相关的操作的一个或多个第一CPU 110,以及用于执行与存储器相接口相关的操作的一个或多个第二CPU 120。第一CPU 110可以能够并行处理从主机2000接收的请求。第二CPU 120可以能够并行处理对非易失性存储器芯片200的访问。
第一CPU 110和第二CPU 120可以以各种方式被包括在存储器系统1000中。例如,控制器100可以包括一个第一CPU 110和多个第二CPU 120。可替换地,控制器100可以包括多个第一CPU 110和多个第二CPU 120。在实施例中,第一CPU 110和第二CPU 120可以具有相同的操作速度,或者在另一实施例中具有不同的操作速度。
当非易失性存储器芯片200包括闪速存储器时,控制器100可以包括闪存转换层(Flash Translation Layer,FTL)。FTL可以包括用于管理例如闪速存储器的编程、读取和擦除操作的系统软件(或固件),并且可以被加载在控制器100的内部操作存储器中并且由第二CPU 120驱动。
第一CPU 110可以通过处理从主机2000提供的数据访问请求来生成内部命令,并将其发送到第二CPU 120。在闪速存储器系统中,第二CPU 120可以通过驱动FTL来执行地址转换操作或控制与非易失性存储器芯片200的数据交换的操作。因为第一CPU 110执行与主机2000的相接口相关的操作,所以第一CPU 110可以被称为主机CPU(host CPU,HCPU),并且因为第二CPU 120执行用于驱动FTL的操作,所以第二CPU 120可以被称为FTL CPU(FTLCPU,FCPU)。
根据示例性实施例的存储器系统1000可以在非易失性存储器芯片200中包括的多个不同的存储器芯片中编程相同的数据。在这种情况下,在实施例中,存储器系统1000可以基于从主机2000发送的编程请求Req中包括的数据的重要性信息,在非易失性存储器芯片200中包括的多个不同的存储器芯片中编程相同的数据。在实施例中,当基于从主机2000发送的命令执行读取操作时,存储器系统1000可以例如取决于不同的存储器芯片的当前可用性从存储数据的多个存储器芯片中的一个选择性地读取数据。因此,可以减少读取数据所花费的时间。
图2是图1的控制器100的示例性实施例的框图。
参考图1和图2,控制器100可以包括HCPU 110、FCPU 120、本地存储器130、映射表140、主机接口150和存储器接口160。例如,一个HCPU 110和一个FCPU 120被包括在控制器100中。然而,如上所描述,各种数量的HCPU和FCPU可以被包括在控制器100中。在实施例中,控制器100可以包括多个FCPU 120。HCPU 110和FCPU 120可以被实施为一个物理元件并且在设备中功能地被划分。
FCPU 120可以通过使用FTL来执行用于将逻辑地址转换为物理地址的地址转换操作。在映射表140中,FTL可以具有虚拟块设备(例如,主机2000)上的逻辑地址和非易失性存储器芯片上的物理地址之间的映射信息。当接收到对预定逻辑地址的编程请求或读取请求时,FTL可以通过使用映射信息将逻辑地址转换为物理地址。无论何时将从主机2000接收的数据DATA存储在控制器100的内部RAM中,都可以更新映射表140。尽管映射表140被示出为单独的元素,但是根据实施例,映射表140可以被包括在RAM或FCPU 120中。
主机接口150可以基于连接到存储器系统1000的主机2000的协议来接口主机2000和控制器100之间的数据交换。
主机接口150提供主机2000和非易失性存储器系统1000之间的物理连接。例如,主机接口150可以支持各种接口标准或协议,诸如高级技术附件(Advanced TechnologyAttachment,ATA)、串行ATA(Serial ATA,SATA)、外部SATA(External SATA,E-SATA)、小型计算机小型接口(Small Computer Small Interface,SCSI)、串行附接SCSI(SerialAttached SCSI,SAS)、外围组件互联(Peripheral Component Interconnection,PCI)、PCI快速(PCI Express,PCI-E)、IEEE 1394、通用串行总线(Universal Serial Bus,USB)、安全数字(Secure Digital,SD)卡、多媒体卡(Multimedia Card,MMC)、嵌入式多媒体卡(embedded Multimedia Card,eMMC)以及紧凑型闪存(Compact Flash,CF)卡接口标准和协议。
存储器接口160提供控制器100和非易失性存储器芯片200之间的物理连接。例如,命令、地址和数据可以通过存储器接口160在控制器100和非易失性存储器芯片200之间交换。
本地存储器130可以包括用于缓冲器存储器、高速缓冲存储器或操作存储器的随机存取存储器(Random Access Memory,RAM)。例如,控制器100可以将从主机2000接收的数据DATA存储在RAM中,并且在非易失性存储器芯片200中编程存储在RAM中的数据DATA。控制器100可以将从非易失性存储器芯片200读取的数据DATA存储在RAM中,并将存储在RAM中的数据DATA输出到主机2000。
控制器100可以将管理非易失性存储器芯片200所需的数据或代码存储在RAM中。例如,控制器100可以从非易失性存储器芯片200读取管理非易失性存储器芯片200所需的数据或代码,并将数据或代码加载到RAM中以驱动数据或代码。RAM可以包括诸如动态RAM(Dynamic RAM,DRAM)、静态RAM(Static RAM,SRAM)、同步DRAM(Synchronous DRAM,SDRAM)、相变RAM(Phase-Change RAM,PRAM)、磁RAM(Magnetic RAM,MRAM)、电阻RAM(ResistiveRAM,RRAM)和铁电RAM(Ferroelectric RAM,FeRAM)的各种随机存取存储器中的至少一个。
图3是存储器系统的示例性实施例的框图。图4是存储器系统的操作方法的示例性实施例的流程图。
参考图3,控制器100可以包括HCPU 110和FCPU 120。FCPU 120可以包括第一至第kFCPU 120_1至120_3。第一至第k FCPU 120_1至120_3中的每一个可以通过第一通道CH_A、CH_C或CH_E和第二通道CH_B、CH_D或CH_F连接到非易失性存储器芯片。例如,第一FCPU120_1可以通过第一通道CH_A和第二通道CH_B连接到非易失性存储器芯片。
第一通道CH_A、CH_C或CH_E和第二通道CH_B、CH_D或CH_F中的每一个可以被电连接到m个非易失性存储器芯片200a_1至200a_4、200b_1至200b_4、200c_1至200c_4、200d_1至200d_4、200e_1至200e_4、或200f_1至200f_4。在这种情况下,k和m可以是等于或大于4的自然数。尽管在图3中两个通道被连接到第一至第k FCPU 120_1至120_3中的每一个,但是实施例不限于此,并且三个或更多通道可以被连接到第一至第k FCPU 120_1至120_3中的每一个。
第一通道CH_A、CH_C或CH_E和第二通道CH_B、CH_D或CH_F中的每一个可以指能够向与其对应的非易失性存储器芯片200a_1至200a_4、200b_1至200b_4、200c_1至200c_4、200d_1至200d_4、200e_1至200e_4、或200f_1至200f_4发送命令、物理地址和数据并从其接收命令、物理地址和数据的独立总线。因此,连接到不同的通道的非易失性存储器芯片200a_1至200a_4、200b_1至200b_4、200c_1至200c_4、200d_1至200d_4、200e_1至200e_4、和200f_1至200f_4可以彼此独立地操作。
参考图3和图4,响应于第一数据的单个编程请求Req_p,控制器100可以在第一存储器芯片和第二存储器芯片两者中编程第一数据(S110)。也就是说,相同的数据或同一(identical)的数据(例如,相同的第一数据或同一第一数据)可以被存储在第一存储器芯片和第二存储器芯片两者中。控制器100可以从主机接收编程请求Req_p、第一数据和第一逻辑地址。HCPU 110可以通过处理从主机接收的编程请求Req_p来生成内部编程命令CMD_p。基于从HCPU 110接收的内部编程命令CMD_p,FCPU 120可以在两个或多个不同的存储器芯片(例如,第一存储器芯片和第二存储器芯片)中的每一个中编程第一数据。也就是说,FCPU 120可以在第一存储器芯片和第二存储器芯片两者中编程相同的数据或同一数据(例如,相同的第一数据或同一第一数据)。
FCPU 120可以基于第一数据的重要性信息来确定是在一个存储器芯片中还是在多个存储器芯片中编程第一数据。在确定在多个存储器芯片中编程第一数据时,FCPU 120可以确定要在其中编程第一数据的存储器芯片的数量和编程第一数据的方法。
在实施例中,第一数据的重要性信息可以被包括在对从主机接收的第一数据的编程请求Req_p中,或者可以作为单独的命令从主机接收。在实施例中,可以基于对接收到第一数据的读取请求Req_r的次数,在存储器系统中生成第一数据的重要性信息。下面将关于图15来描述基于要被编程的数据的重要性编程数据的操作。
在实施例中,HCPU 110可以将内部编程命令CMD_p发送到第一至第kFCPU 120_1至120_3中的一个,例如,第一FCPU 120_1。第一FCPU 120_1可以从HCPU 110接收内部编程命令CMD_p,并且将第一逻辑地址转换为与其对应的第一物理地址和第二物理地址。第一FCPU120_1可以在与第一物理地址相对应的第一存储器芯片和与第二物理地址相对应的第二存储器芯片中编程第一数据。在这种情况下,第一存储器芯片和第二存储器芯片可以是连接到相同的通道的存储器芯片(例如,连接到CH_A的200a_1和200a_2),或者连接到不同的通道的存储器芯片(例如,连接到CH_A的200a_1和连接到CH_B的200b_1)。下面将关于图6描述第一存储器芯片和第二存储器芯片连接到相同的通道(例如,CH_A)的情况,以及下面将关于图11描述第一存储器芯片和第二存储器芯片连接到不同的通道(例如,CH_A和CH_B)的情况。
在实施例中,HCPU 110可以将内部编程命令CMD_p发送到第一至第kFCPU 120_1至120_3中的两个或多个。例如,HCPU 110可以将内部编程命令CMD_p发送到第一FCPU 120_1和第二FCPU 120_2。第一FCPU 120_1可以从HCPU 110接收内部编程命令CMD_p,并且将第一逻辑地址转换为与其对应的第一物理地址。第一FCPU 120_1可以在与第一物理地址相对应的第一存储器芯片(例如,200a_1)中编程第一数据。第二FCPU 120_2可以从HCPU 110接收内部编程命令CMD_p,并且将第一逻辑地址转换为与其对应的第二物理地址。第二FCPU120_2可以在与第二物理地址相对应的第二存储器芯片(例如,200c_1或200d_1)中编程第一数据。下面将关于图12描述其中相同的第一数据被存储在由两个或多个不同的FCPU控制的存储器芯片中的情况。
如上面关于图3和图4所描述,尽管相同的数据(例如,第一数据)被编程在两个不同的存储器芯片中,但是实施例不限于此,并且相同的数据可以被编程在三个或更多不同的存储器芯片中。
响应于对第一数据的读取请求Req_r,控制器100可以确定第一存储器芯片和第二存储器芯片是否正在对与第一数据不同的数据执行操作(S120)。控制器100可以从主机接收对第一数据的读取请求Req_r。HCPU 110可以通过处理从主机接收的读取请求Req_r来生成内部读取命令CMD_r,并且将内部读取命令CMD_r发送到FCPU 120以用于执行对第一存储器芯片和第二存储器芯片的操作。FCPU 120可以接收内部读取命令CMD_r,并确定第一存储器芯片和第二存储器芯片是否正在对与第一数据不同的数据执行操作。
当第一存储器芯片正在对与第一数据不同的数据执行操作时,FCPU 120可以从第二存储器芯片读取第一数据(S130)。下面将关于图5详细描述操作S120和操作S130。
在确定仅将第一数据存储在第一存储器芯片中并且当第一存储器芯片正在对与第一数据不同的数据执行操作时,FCPU 120应该等待,直到操作终止,以从第一存储器芯片读取第一数据。因此,从第一存储器芯片读取第一数据所花费的时间可能增加。具体地,由于数据编程或擦除操作所花费的时间可能比数据读取操作所花费的时间更长,因此当第一存储器芯片正在对与第一数据不同的数据执行编程或擦除操作时,从第一存储器芯片读取第一数据所花费的时间可能进一步增加。
根据示例性实施例的存储器系统可以在不同的存储器芯片(例如,第一存储器芯片和第二存储器芯片)中编程相同的数据(例如,第一数据),然后从第一存储器芯片和第二存储器芯片中的一个选择性地读取第一数据。因此,即使当第一存储器芯片正在对与第一数据不同的数据执行操作时,也可以从第二存储器芯片读取第一数据,并且因此可以减少读取第一数据所花费的时间。
图5是用于描述图3的操作S120和操作S130的示例性实施例的流程图。
参考图5,控制器100响应于从主机接收的对第一数据的读取请求Req_r确定第一存储器芯片和第二存储器芯片是否正在对与第一数据不同的数据执行操作的操作S120可以包括:确定第一存储器芯片是否正在对与第一数据不同的数据执行擦除或编程操作(S121),以及确定第二存储器芯片是否正在对与第一数据不同的数据执行擦除或编程操作(S123)。在实施例中,当第一存储器芯片和第二存储器芯片正在对与第一数据不同的数据执行操作时,可以生成忙标志并将其临时存储在本地存储器(例如,图2的本地存储器130)中。控制器100可以基于存储在本地存储器130中的忙标志确定第一存储器芯片正在对与第一数据不同的数据执行操作。
当第一存储器芯片没有对与第一数据不同的数据执行擦除或编程操作时,控制器100可从第一存储器芯片读取第一数据(S140)。例如,当第一存储器芯片没有对与第一数据不同的数据执行任何操作时,控制器100可以立即从第一存储器芯片读取第一数据。并且,当第一存储器芯片正在对与第一数据不同的数据执行读取操作时,控制器100可在读取操作终止之后从第一存储器芯片读取第一数据。
当第一存储器芯片正在对与第一数据不同的数据执行擦除或编程操作时,控制器100可以确定第二存储器芯片是否正在对与第一数据不同的数据执行擦除或编程操作(S123)。当第二存储器芯片没有对与第一数据不同的数据执行擦除或编程操作时,控制器100可以从第二存储器芯片读取第一数据(S130)。例如,当第二存储器芯片没有对与第一数据不同的数据执行任何操作时,控制器100可以立即从第二存储器芯片读取第一数据。并且,当第二存储器芯片正在对与第一数据不同的数据执行读取操作时,控制器100可以在读取操作终止之后从第二存储器芯片读取第一数据。
当第二存储器芯片正在对与第一数据不同的数据执行擦除或编程操作时,控制器100可以确定第一存储器芯片是否正在对与第一数据不同的数据执行擦除或编程操作(S121)。
尽管在图5中,操作S123在操作S121之后执行,但是实施例不限于此,并且操作S121可以在操作S123之后执行或者操作S121和操作S123可以同时执行。
根据示例性实施例的存储器系统可以在不同的存储器芯片(例如,第一存储器芯片和第二存储器芯片)中编程相同的数据(例如,第一数据),然后从第一存储器芯片和第二存储器芯片中的没有正在对与第一数据不同的数据执行擦除或编程操作一个存储器芯片选择性地读取第一数据。因此,可以减少读取第一数据所花费的时间。
图6是存储器系统的示例性实施例的框图。图7是用于描述在存储器系统的示例性实施例中形成一对芯片的第一存储器芯片和第二存储器芯片的框图。图6和图7是作为图4的操作S110的示例性实施例的用于描述在连接到相同的通道(例如,CH_A)的多个存储器芯片中存储相同的数据的操作的框图。
参考图6,HCPU 110可以响应于对第一数据的编程请求Req_p,将内部编程命令CMD_p发送到第一FCPU 120_1。第一FCPU 120_1可以在连接到第一通道CH_A的第一存储器芯片(例如,200a_1)和第二存储器芯片(例如,200a_2)中编程第一数据。
参考图6和图7,连接到第一通道CH_A的m个存储器芯片200a_1、200a_2、200a_3和200a_4中的每一个可以包括第一至第a区块(cell block)BLK1至BLKa,并且第一至第a区块BLK1至BLKa中的每一个可以包括第一至第b页面Page1至Pageb。在这种情况下,a和b可以是等于或大于2的自然数。在实施例中,m可以是偶数,但不限于此。第一至第a区块BLK1至BLKa中的每一个可以与数据擦除单元相对应,并且第一至第b页面Page1至Pageb中的每一个可以与区块中的数据编程或读取单元相对应。
当控制器100从主机接收到编程请求Req_p、数据和逻辑地址时,数据可以被存储在控制器100的缓冲器(例如,本地存储器130)中,然后被编程在页面阵列条带(Page Arraystripe,PAstripe)单元中的存储器芯片200a_1、200a_2、200a_3和200a_4中。
在存储器芯片200a_1、200a_2、200a_3和200a_4的相同的位置(例如,具有相同的物理地址的页面)处提供的页面可以形成页面组,并且在这种情况下,PAstripe可以指存储在页面组中的数据。例如,存储器芯片200a_1、200a_2、200a_3和200a_4的第一区块BLK1中包括的第一页面page1可以形成页面组,并且PAstripe单元的数据可以被存储在包括第一页面page1的页面组中。
当控制器100从主机接收到读取请求Req_r时,可以从PAstripe单元中的存储器芯片200a_1、200a_2、200a_3和200a_4读取数据。例如,可以一起读取存储在存储器芯片200a_1、200a_2、200a_3和200a_4的第一区块BLK1中包括的第一页面Page1中的数据。
提供在存储器芯片200a_1、200a_2、200a_3和200a_4的相同的位置处的区块(例如,具有相同的物理地址的区块)可以形成块组,并且在这种情况下,块阵列条带(BlockArray stripe,BAstripe)可以指存储在块组中的数据。例如,存储器芯片200a_1、200a_2、200a_3和200a_4的第一区块BLK1可以形成块组,并且当控制器100从主机接收到擦除请求时,数据可以以BAstripe单元被擦除。
在实施例中,第一数据DATA1可以被编程在第一存储器芯片200a_1和第二存储器芯片200a_2的相同的位置处提供的第一页面Page1中。因此,在第一存储器芯片200a_1和第二存储器芯片200a_2中存储第一数据DATA1的位置可以具有相同的物理地址。
当控制器100从主机接收到对第一数据DATA1的编程请求Req_p时,包括第一数据DATA1并形成PAstripe的数据被存储在控制器100的缓冲器(例如,本地存储器130)中。第一FCPU 120_1可以在存储器芯片200a_1、200a_2、200a_3和200a_4的页面中编程存储在缓冲器中的PAstripe。
在这种情况下,第一FCPU 120_1可以优先将数据存储在奇数编号的编号的存储器芯片(例如,200a_1和200a_3)中,然后基于连接到第一通道CH_A的存储器芯片的顺序将数据存储在偶数编号的存储器芯片(例如,200a_2和200a_4)中。然而,实施例不限于此,并且数据可以被存储在偶数编号的存储器芯片(例如,200a_2和200a_4)中,然后被存储在奇数编号的存储器芯片(例如,200a_1和200a_3)中。
在实施例中,顺序地连接到第一通道CH_A的第一存储器芯片200a_1和第二存储器芯片200a_2可以形成一对芯片PC,并且第一存储器芯片200a_1可以是连接到第一通道CH_A的奇数编号的存储器芯片,而第二存储器芯片200a_2可以是连接到第一通道CH_A的偶数编号的存储器芯片。因此,数据可以不是同时而是顺序地被存储在第一存储器芯片200a_1和第二存储器芯片200a_2中。在相同的第一数据DATA1被编程在第一存储器芯片200a_1和第二存储器芯片200a_2中之后,当第一存储器芯片200a_1正在对与第一数据DATA1不同的数据执行编程操作时,第二存储器芯片200a_2没有在执行编程操作,并且因此可以执行第一数据DATA1的读取操作。
在实施例中,当第一数据DATA1被编程在在第一存储器芯片200a_1和第二存储器芯片200a_2的相同的位置处提供的第一页面Page1中的每一个中时,在第一数据DATA1的擦除操作中,由于以BAstripe单元执行擦除操作,因此存储在第一存储器芯片200a_1和第二存储器芯片200a_2中的第一数据DATA1可以从其中同时被擦除。
然而,根据实施例的示例性实施例的存储器系统不限于对具有顺序地连接到相同的通道(例如,CH_A)的第一存储器芯片200a_1和第二存储器芯片200a_2的相同的物理地址的页面中的相同的数据的编程。相同的数据可以被存储在具有顺序地连接到相同的通道CH_A的第一存储器芯片200a_1和第二存储器芯片200a_2的不同的物理地址的页面中,或者被存储在没有被顺序地连接到相同的通道CH_A的多个存储器芯片中。
图8是存储器系统的操作方法的示例性实施例的流程图,并且是用于描述图4的操作S110和操作S130的示例性实施例的流程图。图9显示了在存储器系统的示例性实施例中的映射表140,该映射表包括逻辑地址和要在其中存储数据的页面的物理地址之间的映射信息。例如,图9显示了逻辑页面号码(logical page number,LPN)和物理页面号码(physical page number,PPN)之间的映射信息。
参考图6、图8和图9,控制器100可以在映射表140中存储从主机接收的第一逻辑地址和与第一存储器芯片相对应的第一物理地址(S115)。已经接收到内部编程命令CMD_p的第一FCPU 120_1可以将第一逻辑地址转换为其对应的第一物理地址和与第二物理地址,并且在与第一物理地址相对应的第一存储器芯片200a_1中和与第二物理地址相对应的第二存储器芯片200a_2中编程第一数据。在这种情况下,第一FCPU 120_1可以将第一逻辑地址和与第一存储器芯片200a_1相对应的第一物理地址存储在映射表140中。
映射表140可以存储指示在非易失性存储器芯片200中的数据存储位置的映射信息。例如,在映射表140中,用于指定要在其中编程数据的页面的逻辑地址Page_ADD_L1至Page_ADD_Lb可以被1:1映射到指示要在其中编程数据的页面的物理位置的物理地址Page_ADD_P1至Page_ADD_Pb。
在这种情况下,在确定在不同的存储器芯片(例如,第一存储器芯片200a_1和第二存储器芯片200a_2)中编程相同的第一数据编程时,与在其中存储第一数据的第一存储器芯片200a_1的页面相对应的第一物理地址可以被存储映射表140中,但是与在其中存储第一数据的第二存储器芯片200a_2的页面相对应的第二物理地址可以不被存储在映射表140中。然而,在确定在不同的存储器芯片中存储相同的数据时,关于在其中存储数据的存储器芯片的数量的信息可以被附加地存储在映射表140中,并且用于基于第一物理地址计算第二物理地址的计算信息可以被存储在本地存储器(例如,图2的本地存储器130)中。
例如,如图7中,要在不同的存储器芯片中编程的第一数据DATA1可以被编程到第一存储器芯片200a_1中包括的第一区块BLK1的第一页面Page1中和第二存储器芯片200a_2中包括的第一区块BLK1的第一页面Page1中。在映射表140中,可以存储用于指定要在其中编程第一数据DATA1的页面的第一逻辑地址(例如,PAGE_ADD_L1)和与第一存储器芯片200a_1中包括的第一区块BLK1的第一页面Page1相对应的第一物理地址(例如,PAGE_ADD_P1),并且可以附加地存储指示第一数据DATA1被存储在总共两个存储器芯片(例如,第一存储器芯片200a_1和第二存储器芯片200a_2)中的信息。由于第一数据DATA1被编程在第一存储器芯片200a_1和第二存储器芯片200a_2的相同的物理位置中,因此即使在没有附加地存储与第二存储器芯片200a_2中包括的第一区块BLK1的第一页面Page1相对应的第二物理地址时,第一FCPU 120_1也可以基于第一物理地址PAGE_ADD_P1计算第二物理地址。
响应于对第一数据DATA1的读取请求Req_r,控制器100可以确定第一存储器芯片200a_1和第二存储器芯片200a_2是否正在对与第一数据DATA1不同的数据执行操作(S120)。当从主机接收到对第一数据DATA1的读取请求Req_r时,HCPU 110可以将内部读取命令CMD_r发送到第一FCPU 120_1。
控制器100可以基于映射表140的第一物理地址PAGE_ADD_P1从第二存储器芯片200a_2读取第一数据DATA1(S135)。在实施例中,当第一存储器芯片200a_1正在对与第一数据DATA1不同的数据执行操作时,第一FCPU 120_1可以基于映射表140的第一物理地址PAGE_ADD_P1计算第二物理地址,并且从与第二物理地址相对应的第二存储器芯片200a_2读取第一数据DATA1(S135)。
然而,在根据示例性实施例的存储器系统中,在确定在第一存储器芯片200a_1和第二存储器芯片200a_2中编程相同的第一数据时,与第二存储器芯片200a_2相对应的第二物理地址也可以被存储在映射表140中。
图10A和图10B显示了在存储器系统的示例性实施例中的第一映射表140_1和第二映射表140_2,该第一映射表140_1和第二映射表140_2包括逻辑地址和要在其中存储数据的页面的物理地址之间的映射信息。图10A和图10B显示了在确定在多个存储器芯片中编程相同的数据时,逻辑地址和物理地址之间的映射信息被存储在单独的映射表中。
参考图10A和图10B,不管数据是被编程在一个存储器芯片中还是被编程在多个存储器芯片中,在第一映射表140_1中,用于指定要在其中编程数据的页面的逻辑地址Page_ADD_L1至Page_ADD_Lb可以被1:1映射到指示要在其中编程数据的页面的物理位置的物理地址Page_ADD_P1至Page_ADD_Pb。
在确定在多个存储器芯片中编程相同的数据时,在第二映射表140_2中,用于指定要在其中编程数据的页面的逻辑地址Page_ADD_L1和Page_ADD_Lb可以被1:1映射到指示要在其中编程数据的页面的物理位置的第一物理地址Page_ADD_P1和Page_ADD_Pb。关于在其中存储数据的存储器芯片的数量的信息可以被附加地存储在第二映射表140_2中。用于基于第一物理地址Page_ADD_P1和Page_ADD_Pb计算与除第一存储器芯片之外的第二存储器芯片相对应的第二物理地址的计算信息可以被存储在本地存储器(例如,图2的本地存储器130),其中第一存储器芯片与第一物理地址Page_ADD_P1和Page_ADD_Pb相对应。使用计算信息,FCPU(例如,图3的FCPU 120)可以基于第一物理地址Page_ADD_P1和Page_ADD_Pb计算第二物理地址,并且从与第二物理地址相对应的第二存储器芯片读取数据。
图11是存储器系统的示例性实施例的框图。图11是作为图4的操作S110的示例实施例的用于描述将相同的数据存储在其操作由相同的FCPU(例如,第一FCPU 120_1)控制的多个存储器芯片中的操作的框图。
参考图11,HCPU 110可以响应于对第一数据的编程请求Req_p,将内部编程命令CMD_p发送到第一FCPU 120_1。第一FCPU 120_1可以在连接到第一通道CH_A的第一存储器芯片(例如,200a_1)中和连接到第二通道CH_B的第二存储器芯片(例如,200b_1)中编程第一数据。
第一FCPU 120_1可以将第一逻辑地址转换为与其对应的第一物理地址和第二物理地址,并且在与第一物理地址相对应的第一存储器芯片200a_1中和与第二物理地址相对应的第二存储器芯片200b_1中编程第一数据。第一FCPU 120_1可以将第一逻辑地址和与第一存储器芯片200a_1相对应的第一物理地址存储在映射表中。映射表可以包括图9的映射表140或者图10的第一映射表140_1和第二映射表140_2。第一物理地址和第二物理地址之间的映射信息可以被存储在本地存储器(例如,图2的本地存储器130)中,并且FCPU 120可以基于第一物理地址通过使用映射信息来计算第二物理地址。在实施例中,第一数据可以被编程到具有基于连接到第一FCPU 120_1的第一通道CH_A和第二通道CH_B的相同的物理地址的第一存储器芯片200a_1和第二存储器芯片和200b_1中,但是不限于此。
因此,第一FCPU 120_1可以确定第一存储器芯片200a_1和第二存储器芯片200b_1是否正在对与第一数据不同的数据执行操作,然后通过使用第一物理地址从第一存储器芯片200a_1读取第一数据,或者通过基于第一物理地址计算第二物理地址从第二存储器芯片200b_1读取第一数据。
图12是存储器系统的示例性实施例的框图。图12是作为图4的操作S110的示例实施例的用于描述将相同的数据存储在其操作由不同的FCPU(例如,第一FCPU 120_1和第二FCPU 120_2)控制的多个存储器芯片中的操作的框图。
参考图12,响应于对第一数据的编程请求Req_p,HCPU 110可以将内部编程命令CMD_p发送到不同的FCPU,例如,第一FCPU 120_1和第二FCPU 120_2。第一FCPU 120_1可以在第一存储器芯片(例如,200a_1)中编程第一数据,并且第二FCPU 120_2可以在第二存储器芯片(例如,200c_1)中编程第一数据。
第一FCPU 120_1可以将第一逻辑地址转换为与其对应的第一物理地址,并且第二FCPU 120_2可以将第一逻辑地址转换为与其对应的第二物理地址。第一FCPU 120_1可以在与第一物理地址相对应的第一存储器芯片200a_1中编程第一数据,并且第二FCPU 120_2可以在与第二物理地址相对应的第二存储器芯片200c_1中编程第一数据。
第一FCPU 120_1可以将第一逻辑地址和与第一存储器芯片200a_1相对应的第一物理地址存储在映射表中,并且第二FCPU 120_2可以将第一逻辑地址和与第二存储器芯片200c_1相对应的第二物理地址存储在映射表中。下面将关于图13和图14来描述映射表。
响应于对第一数据的读取请求Req_r,HCPU 110可以将内部读取命令CMD_r发送到第一FCPU 120_1或第二FCPU 120_2。例如,HCPU 110可以基于存储在本地存储器(例如,本地存储器130)中的忙标志,确定第一存储器芯片200a_1和第二存储器芯片200c_1是否正在对与第一数据不同的数据执行操作,并且将内部读取命令CMD_r发送到第二FCPU 120_2以在第二存储器芯片200c_1中编程第一数据,该第二存储器芯片200c_1没有正在对与第一数据不同的数据执行编程或擦除操作。
在实施例中,HCPU 110可以将内部读取命令CMD_r发送到第一FCPU 120_1和第二FCPU 120_2两者,并且控制第一存储器芯片200a_1或第二存储器芯片200c_1以第一FCPU120_1和第二FCPU 120_2中的能够比另一个更快地读取第一数据来读取第一数据的方式读取第一数据。
相比于图6、图11和图12,与相同的第一数据被编程到连接到相同的通道的多个存储器芯片中的情况(例如,图19的编程类型A)相比,在相同的第一数据被编程到连接到不同的通道并由相同的FCPU控制的多个存储器芯片中的情况(例如,图19的编程类型B)下,可以提高对于第一数据的读取操作速度,并且因为在其中存储第一数据的存储器芯片的操作之间的相互影响被减少,所以在相同的第一数据被编程在由不同的FCPU控制的多个存储器芯片中情况(例如,图19的编程类型C的)下,可以甚至进一步提高第一数据的读取操作速度。然而,控制器100在编程类型B中比在编程类型C中可以更容易控制存储器芯片要在其中编程相同的第一数据的操作,并且在编程类型A中比在编程类型B中可以更容易控制存储器芯片要在其中编程相同的第一数据的操作。
另外,当增加要在其中编程相同的第一数据的存储器芯片的数量时,由于至少一个或多个存储器芯片没有正在对与第一数据不同的数据执行操作的可能性增加,因此可以提高第一数据的读取操作速度。
因此,基于第一数据的重要性,可以确定要在其中编程第一数据的存储器芯片的数量,并且确定在其中存储第一数据的多个存储器芯片的方法可以变化。下面将关于图15等来描述第一数据的重要性。
图13是存储器系统的操作方法的示例性实施例的流程图,并且是用于描述图4的操作S110和操作S130的示例性实施例的流程图。图14显示了在存储器系统的示例性实施例中的映射表140a,该映射表140a包括逻辑地址和要在其中存储数据的页面的物理地址之间的映射信息。
参考图12至图14,控制器100可以将从主机接收的第一逻辑地址和与第二存储器芯片相对应的第二物理地址存储在映射表140a中(S117)。当从主机接收到对第一数据的编程请求Req_p和第一逻辑地址(例如,PAGE_ADD_L1)时,HCPU 110可以将内部编程命令CMD_p发送到多个FCPU 120中的一些(例如,第一FCPU 120_1和第二FCPU 120_2)。第一FCPU 120_1可以将第一逻辑地址PAGE_ADD_L1转换为第一物理地址(例如,PAGE_ADD_P1_1),并且将第一逻辑地址PAGE_ADD_L1和与第一存储器芯片200a_1相对应的第一物理地址PAGE_ADD_P1_1存储在映射表140a中。第二FCPU 120_2可以将第一逻辑地址PAGE_ADD_L1转换为第二物理地址(例如,PAGE_ADD_P1_2),并且将第一逻辑地址PAGE_ADD_L1和与第二存储器芯片200c_1相对应的第二物理地址PAGE_ADD_P1_2存储在映射表140a中。
映射表140a可以将指示数据存储位置的映射信息存储在非易失性存储器芯片200中。例如,在确定将数据存储在一个存储器芯片中时,逻辑地址(例如,Page_ADD_L2和Page_ADD_L3)和与其对应的物理地址(例如,Page_ADD_P2和Page_ADD_P3)可以以1:1的对应被存储在映射表140a中。在确定将数据存储在多个存储器芯片中时,逻辑地址(例如,Page_ADD_L1和Page_ADD_Lb)和物理地址(例如,Page_ADD_P1_1和Page_ADD_P1_2以及Page_ADD_Pb_1、Page_ADD_Pb_2和Page_ADD_Pb_3)可以以1:i的对应被存储在映射表140a中。在这种情况下,i可以表示在其中存储相同的数据的存储器芯片的数量。
当从主机接收到对第一数据的读取请求Req_r时,响应于读取请求Req_r,控制器100可以确定第一存储器芯片200a_1和第二存储器芯片200c_1是否正在对与第一数据不同的数据执行操作(S120)。
控制器100可以基于映射表140a的第二物理地址PAGE_ADD_P1_2从第二存储器芯片200c_1读取第一数据(S137)。在实施例中,当第一存储器芯片200a_1正在对与第一数据不同的数据执行操作时,第二FCPU 120_2可以从与映射表140a中的第二物理地址PAGE_ADD_P1_2相对应的第二存储器芯片200c_1读取第一数据。
图15是存储器系统的操作方法的示例性实施例的流程图。
参考图3和图15,控制器100可以从主机接收编程请求Req_p、第一数据、第一逻辑地址、第二数据和第二逻辑地址。HCPU 110可以通过处理从主机接收的编程请求Req_p来生成内部编程命令CMD_p。
FCPU 120可以基于第一数据的第一重要性在多个不同的存储器芯片中编程第一数据(S210),以及基于第二数据的第二重要性在一个存储器芯片中编程第二数据(S220)。第二重要性可能低于或少于第一重要性。在这种情况下,可以通过使用上面关于图6、图11和图12所描述的方法中的至少一种来将第一数据编程在多个存储器芯片中。
数据重要性可以充当当FCPU 120确定是将数据存储在多个存储器芯片中还是仅存储在单个存储器芯片中时使用的标准。例如,需要短时间读取的数据可能具有高重要性。在实施例中,FCPU 120可以将相同的数据与数据的重要性成比例地存储在多个存储器芯片中。
在实施例中,第一数据的重要性信息可以被包括在从主机接收的对第一数据的编程请求Req_p中,或者可以作为单独的命令从主机接收。在实施例中,可以基于接收到对第一数据的读取请求Req_r的次数而在存储器系统中生成第一数据的重要性信息。
FCPU 120可以将第一逻辑地址转换为与要在其中存储第一数据的多个存储器芯片相对应的物理地址,并且将第一逻辑地址和与存储器芯片中的至少一个相对应的物理地址存储在第一映射表中(S230)。第一映射表可以包括图9的映射表140、图10的第一映射表140_1和第二映射表140_2或图14的映射表140a。
FCPU 120可以将第二逻辑地址转换为与要在其中存储数据的一个存储器芯片相对应的物理地址,并且将第二逻辑地址和转换的物理地址存储在第二映射表中(S240)。
与图15相关的第一映射表和第二映射表可以被配置为像图9的映射表140或图14的映射表140a一样的一个映射表,或者被配置为像图10的第一映射表140_1和第二映射表140_2一样的不同的映射表。
图16是用于描述图15的操作S210的示例性实施例的流程图。
参考图16,控制器100可以从外部设备(例如,主机)接收关于第一数据的第一重要性和第二数据的第二重要性的信息(S211)。在实施例中,关于第一重要性和第二重要性的信息可以被包括在从主机接收的编程请求(例如,图1的编程请求Req_p)中,但是不限于此,并且可以作为与编程请求不同的单独的命令而从主机接收。在实施例中,从外部设备接收的关于第一重要性和第二重要性的信息可以包括指示要在其中编程第一数据和第二数据中的每一个的存储器芯片的数量的信息,但是不限于此。在实施例中,存储器系统可以包括重要性表,并且基于从外部设备接收的关于第一重要性和第二重要性的信息、以及重要性表确定要在其中编程第一数据和第二数据的存储器芯片的数量。
控制器100可以基于第一重要性确定要在其中编程第一数据的存储器芯片的数量(S213)。控制器100可以基于第二重要性确定要在其中编程第二数据的存储器芯片的数量。然而,根据示例性实施例的存储器系统不限于此,并且控制器100可以基于第一重要性在非易失性存储器芯片当中选择要在其中编程第一数据的多个存储器芯片。下面将关于图19来提供其描述。
然而,根据示例性实施例的存储器系统不限于从外部设备接收关于第一重要性和第二重要性的信息。例如,存储器系统可以收集关于要被重复读取的数据的信息。存储器系统可以基于接收到的对第一数据和第二数据的读取请求的次数生成关于第一数据的重要性的信息和关于第二数据的重要性的信息,并将其存储在本地存储器中。
当在第一数据已经被编程之后从外部设备接收到关于第一重要性的信息时,根据本发明构思的示例性实施例的存储器系统可以基于接收到的关于第一重要性的信息从要在其中编程第一数据的多个存储器芯片的部分中擦除第一数据。例如,擦除第一数据的操作可以与垃圾收集操作一起执行。另外,当在第一数据和第二数据已经被编程之后从外部设备接收到关于第一重要性和第二重要性的信息时,根据示例性实施例的存储器系统还可以基于接收到的关于第一重要性和第二重要性的信息在附加的存储器芯片中编程第一数据和第二数据。
图17是从图1的控制器100修改的控制器100a的框图。关于图17将不会重复描述上面关于图2描述的元件。图18A、图18B和图19显示了存储在存储器系统的示例性实施例的本地存储器130a中的重要性表131a、131b和131c。
参考图17,控制器100a可以包括HCPU 110、FCPU 120、本地存储器130a、映射表140、主机接口150和存储器接口160。本地存储器130a可以存储重要性表131,并且重要性表131可以存储关于与要被编程到非易失性存储器芯片中的数据的重要性信息相对应的数据编程方法的信息。FCPU 120可以基于重要性表131确定要在其中编程第一数据的存储器芯片的数量。在确定在多个存储器芯片中编程第一数据时,FCPU 120可以基于重要性表131选择要在其中编程第一数据的多个存储器芯片。
参考图17和图18A,重要性表131a可以存储数据的重要性信息DATA_I和要在其中编程数据的不同的存储器芯片的数量。例如,重要性信息DATA_I可以具有从0到3的总共四个值,并且以从0到3的方向指示高重要性。因此,重要性信息DATA_I的大值可以指示数据的读取操作应该被快速执行。然而,上面的描述仅仅是为了方便解释,并且根据示例性实施例的存储器系统不限于此。
重要性表131a可以以这样的方式来配置,该方式是要在其中编程相同的数据的不同的存储器芯片的数量与要被编程的数据的重要性信息DATA_I的值成比例地增加。当增加要在其中编程相同的数据的存储器芯片的数量时,存储器芯片中的至少一个可能没有正在对除了接收到读取请求的数据之外的数据执行操作的机会增加,并且因此可以增加快速响应从主机接收的读取请求的可能性。
参考图17和图18B,重要性表131a可以存储数据的重要性信息DATA_I和要在其中编程数据的不同的存储器芯片的数量。例如,重要性信息DATA_I可以具有从0到3的总共四个值。重要性表131b可以被配置为当要被编程的数据的重要性信息DATA_I具有等于或大于特定值(例如,2)的值时在两个存储器芯片中编程数据,并且当要被编程的数据的重要性信息DATA_I具有小于特定值的值时在一个存储器芯片中编程数据。
由于非易失性存储器芯片的总容量在相同的数据被编程到多个存储器芯片中时可能减少,因此可以考虑数据的快速读取和非易失性存储器芯片的总容量的增益两者来确定特定值。
参考图17和图19,重要性表131c可以存储数据的重要性信息DATA_I和关于数据编程方法的信息。例如,重要性信息DATA_I可以具有从0到3的总共四个值,并且以从0到3的方向指示较高的重要性。重要性表131c可以被配置为当重要性信息DATA_I具有值0时在一个存储器芯片中编程数据(例如,编程类型N)。重要性表131c可以被配置为当重要性信息DATA_I具有值1时,如上面关于图6所描述的,在连接到相同的通道的多个存储器芯片中编程相同的数据(例如,编程类型A)。重要性表131c可以被配置为当重要性信息DATA_I具有值2时,如上面关于图11所描述的,在连接到不同的通道并由相同的FCPU控制的多个存储器芯片中编程相同的数据(例如,编程类型B)。重要性表131c可以被配置为当重要性信息DATA_I具有值3时,如上面关于图12所描述的,在由不同的FCPU控制的多个存储器芯片中编程相同的数据(例如,编程类型C)。
图17的重要性表131可以包括图18A的重要性表131a、图18B的重要性表131b和图19的重要性表131c中的至少一个。基于根据本发明构思的存储器系统及其操作方法,由于数据可以被编程在多个不同的存储器芯片中并且可以从存储器芯片中的一个中读取,因此可以提高读取操作速度。此外,由于确定是否在多个存储器芯片中编程数据,因此基于数据的重要性信息,可以防止非易失性存储器芯片的容量的过度消耗。
虽然已经参考本发明构思的实施例具体地显示和描述了本发明构思,但是将理解,在不脱离以下权利要求的精神和范围的情况下,可以在其中进行形式和细节上的各种改变。
Claims (18)
1.一种存储器系统,包括:
多个存储器芯片,包括第一存储器芯片和第二存储器芯片;以及
控制器,被配置为访问所述多个存储器芯片,
其中,所述控制器包括:
第一CPU,被配置为处理从主机接收的请求;以及
多个第二CPU,被配置为通过多个通道分别控制所述多个存储器芯片的操作,
其中,重要性表被存储在所述控制器中,所述重要性表包括关于存储在所述存储器系统中的数据的数据编程方法的信息,关于所述数据编程方法的所述信息与所述数据的重要性信息相对应,并且,
其中,所述第二CPU被配置为基于所述重要性表在所述第一存储器芯片和所述第二存储器芯片两者中编程所述数据中的至少一些,使得所述数据中的所述至少一些作为相同的数据被存储在所述第一存储器芯片和所述第二存储器芯片两者中,其中所述重要性表包括与所述数据的重要性信息相对应的、关于要在其中编程所述数据的所述多个存储器芯片的数量的信息。
2.根据权利要求1所述的存储器系统,其中,所述重要性表包括关于选择所述多个存储器芯片当中的要在其中编程所述数据的存储器芯片的方法的信息。
3.根据权利要求1所述的存储器系统,其中,所述第二CPU被配置为基于所述重要性表在两者都连接到所述多个通道中的相同的通道的所述第一存储器芯片和所述第二存储器芯片中编程所述相同的数据。
4.根据权利要求1所述的存储器系统,其中,所述第一存储器芯片和所述第二存储器芯片两者都由所述多个第二CPU中的相同的第二CPU来编程。
5.根据权利要求1所述的存储器系统,其中,所述第一存储器芯片和所述第二存储器芯片由所述多个第二CPU当中的彼此不同的第二CPU来编程。
6.根据权利要求1所述的存储器系统,其中,所述控制器被配置为:
响应于对第一数据的读取请求,确定所述第一存储器芯片和所述第二存储器芯片是否正在对与所述第一数据不同的数据执行操作;以及
当确定所述第一存储器芯片和所述第二存储器芯片中的一个正在对与所述第一数据不同的数据执行操作时,从所述第一存储器芯片和所述第二存储器芯片中的另一个读取所述第一数据。
7.根据权利要求6所述的存储器系统,其中,所述存储器控制器被配置使得所述多个第二CPU中的第一个对与所述第一数据不同的数据执行操作,同时所述多个第二CPU中的第二个从所述第一存储器芯片和所述第二存储器芯片中的所述另一个读取所述第一数据。
8.一种存储器系统的操作方法,包括:
提供包括第一存储器芯片和第二存储器芯片的多个存储器芯片、和被配置为访问所述多个存储器芯片的控制器,其中所述控制器包括第一CPU和多个第二CPU,所述第一CPU被配置为处理从主机接收的请求,所述多个第二CPU被配置为通过多个通道分别控制所述多个存储器芯片的操作;
在所述控制器中存储重要性表,其中所述重要性表包括关于存储在所述存储器系统中的数据的数据编程方法的信息,其中关于所述数据编程方法的所述信息与所述数据的重要性信息相对应,并且其中所述重要性表包括与所述数据的重要性信息相对应的、关于要在其中编程所述数据的所述多个存储器芯片的数量的信息;以及
基于所述重要性表,经由所述第二CPU在所述第一存储器芯片和所述第二存储器芯片两者中编程所述数据中的至少一些,使得所述数据中的所述至少一些作为相同的数据被存储在所述第一存储器芯片和所述第二存储器芯片两者中。
9.根据权利要求8所述的方法,还包括:
响应于对第一数据的读取请求,确定所述第一存储器芯片和所述第二存储器芯片是否正在对与所述第一数据不同的数据执行操作;以及
当确定所述第一存储器芯片和所述第二存储器芯片中的一个正在对与所述第一数据不同的数据执行操作时,从所述第一存储器芯片和所述第二存储器芯片中的另一个读取所述第一数据。
10.根据权利要求9所述的方法,还包括:
所述多个第二CPU中的第一个对与所述第一数据不同的数据执行操作,同时所述多个第二CPU中的第二个从所述第一存储器芯片和所述第二存储器芯片中的所述另一个读取所述第一数据。
11.根据权利要求8所述的方法,其中,所述重要性表包括关于选择所述多个存储器芯片当中的要在其中编程所述数据的存储器芯片的方法的信息。
12.根据权利要求8所述的方法,还包括所述第二CPU基于所述重要性表在两者都连接到所述多个通道中的相同的通道的所述第一存储器芯片和所述第二存储器芯片中编程所述相同的数据。
13.根据权利要求8所述的方法,还包括由所述多个第二CPU中的相同的第二CPU编程所述第一存储器芯片和所述第二存储器芯片两者。
14.根据权利要求8所述的方法,还包括由所述多个第二CPU中的彼此不同的第二CPU编程所述第一存储器芯片和所述第二存储器芯片。
15.根据权利要求8所述的方法,还包括响应于对第一数据的编程请求,在所述第一存储器芯片和所述第二存储器芯片两者中编程第一数据,使得所述第一数据作为相同的数据被存储在所述第一存储器芯片和所述第二存储器芯片两者中。
16.根据权利要求15所述的方法,其中,对所述第一数据的编程包括:
从外部设备接收所述第一数据的重要性信息;以及
基于从所述外部设备接收的、所述第一数据的重要性信息,在所述第一存储器芯片和所述第二存储器芯片两者中编程所述第一数据。
17.根据权利要求16所述的方法,其中,所述第一数据的重要性信息被包括在对所述第一数据的所述编程请求中。
18.根据权利要求16所述的方法,其中,所述第一存储器芯片和所述第二存储器芯片中的每一个包括多个页面,并且
其中,所述第一数据被存储在页面阵列条带中,所述页面阵列条带包括所述第一存储器芯片和所述第二存储器芯片两者中具有相同的物理地址的页面。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0161842 | 2017-11-29 | ||
KR1020170161842A KR20190063054A (ko) | 2017-11-29 | 2017-11-29 | 메모리 시스템 및 이의 동작 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110032333A CN110032333A (zh) | 2019-07-19 |
CN110032333B true CN110032333B (zh) | 2024-05-31 |
Family
ID=66635955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811470074.6A Active CN110032333B (zh) | 2017-11-29 | 2018-11-28 | 存储器系统及其操作方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10909031B2 (zh) |
KR (2) | KR20190063054A (zh) |
CN (1) | CN110032333B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11334254B2 (en) * | 2019-03-29 | 2022-05-17 | Pure Storage, Inc. | Reliability based flash page sizing |
KR20200134784A (ko) * | 2019-05-23 | 2020-12-02 | 에스케이하이닉스 주식회사 | 저장 장치 및 그 동작 방법 |
US11416161B2 (en) | 2019-06-28 | 2022-08-16 | Western Digital Technologies, Inc. | Zone formation for zoned namespaces |
KR20210046348A (ko) * | 2019-10-18 | 2021-04-28 | 삼성전자주식회사 | 복수의 프로세서들에 유연하게 메모리를 할당하기 위한 메모리 시스템 및 그것의 동작 방법 |
KR20210115954A (ko) * | 2020-03-17 | 2021-09-27 | 에스케이하이닉스 주식회사 | 컨트롤러 및 메모리 시스템 |
US11972150B2 (en) | 2021-09-29 | 2024-04-30 | Silicon Motion, Inc. | Method and non-transitory computer-readable storage medium and apparatus for programming data into flash memory through dedicated acceleration hardware |
CN115878020A (zh) * | 2021-09-29 | 2023-03-31 | 慧荣科技股份有限公司 | 编码历程信息的存取方法和计算机可读取存储介质和装置 |
US11860775B2 (en) | 2021-09-29 | 2024-01-02 | Silicon Motion, Inc. | Method and apparatus for programming data into flash memory incorporating with dedicated acceleration hardware |
JP2023082442A (ja) * | 2021-12-02 | 2023-06-14 | キオクシア株式会社 | 情報処理システム及びメモリシステム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012043246A (ja) * | 2010-08-20 | 2012-03-01 | Canon Inc | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
CN107229535A (zh) * | 2017-05-23 | 2017-10-03 | 杭州宏杉科技股份有限公司 | 数据块的多副本存储方法、存储设备、数据读取方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8041879B2 (en) * | 2005-02-18 | 2011-10-18 | Sandisk Il Ltd | Flash memory backup system and method |
US7873799B2 (en) * | 2005-11-04 | 2011-01-18 | Oracle America, Inc. | Method and system supporting per-file and per-block replication |
US7694093B2 (en) * | 2007-04-27 | 2010-04-06 | Hewlett-Packard Development Company, L.P. | Memory module and method for mirroring data by rank |
US9075957B2 (en) | 2008-08-04 | 2015-07-07 | Sandisk Il Ltd. | Backing up digital content that is stored in a secured storage device |
US8144512B2 (en) | 2009-12-18 | 2012-03-27 | Sandisk Technologies Inc. | Data transfer flows for on-chip folding |
JP5060574B2 (ja) | 2010-03-16 | 2012-10-31 | 株式会社東芝 | メモリシステム |
US8700949B2 (en) * | 2010-03-30 | 2014-04-15 | International Business Machines Corporation | Reliability scheme using hybrid SSD/HDD replication with log structured management |
JP5066241B2 (ja) | 2010-09-24 | 2012-11-07 | 株式会社東芝 | メモリシステム |
KR101917192B1 (ko) | 2012-03-12 | 2018-11-12 | 삼성전자주식회사 | 불휘발성 메모리 장치 및 불휘발성 메모리 장치의 읽기 방법 |
WO2015008356A1 (ja) | 2013-07-17 | 2015-01-22 | 株式会社日立製作所 | ストレージコントローラ、ストレージ装置、ストレージシステム、半導体記憶装置 |
KR101752304B1 (ko) | 2014-12-29 | 2017-06-29 | 한양대학교 산학협력단 | 복수의 플래시 메모리 컨트롤러를 포함하는 솔리드 스테이트 드라이브 및 상기 플래시 메모리 컨트롤러가 수행하는 압축 해제 방법 |
KR20160132204A (ko) | 2015-05-07 | 2016-11-17 | 에스케이하이닉스 주식회사 | 메모리 시스템 및 메모리 시스템의 동작방법 |
CN106445749B (zh) * | 2015-05-12 | 2021-04-23 | 爱思开海力士有限公司 | 使用独立磁盘冗余阵列的动态自动调谐的最大延迟的减小 |
KR102403253B1 (ko) | 2015-07-06 | 2022-05-30 | 삼성전자주식회사 | 불휘발성 메모리 장치를 포함하는 스토리지 장치 |
JP2017062715A (ja) | 2015-09-25 | 2017-03-30 | 富士通株式会社 | ストレージ装置、制御ユニット、及び制御プログラム |
US10515671B2 (en) * | 2016-09-22 | 2019-12-24 | Advanced Micro Devices, Inc. | Method and apparatus for reducing memory access latency |
KR20180080775A (ko) * | 2017-01-05 | 2018-07-13 | 에스케이하이닉스 주식회사 | 동적 미러링이 가능한 메모리 장치, 메모리 모듈 및 반도체 시스템 |
JP7383428B2 (ja) | 2019-09-06 | 2023-11-20 | キヤノン株式会社 | 定着装置及び画像形成装置 |
-
2017
- 2017-11-29 KR KR1020170161842A patent/KR20190063054A/ko not_active IP Right Cessation
-
2018
- 2018-11-26 US US16/199,304 patent/US10909031B2/en active Active
- 2018-11-28 CN CN201811470074.6A patent/CN110032333B/zh active Active
-
2021
- 2021-01-08 US US17/144,713 patent/US11630766B2/en active Active
-
2024
- 2024-04-05 KR KR1020240046934A patent/KR20240049262A/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012043246A (ja) * | 2010-08-20 | 2012-03-01 | Canon Inc | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
CN107229535A (zh) * | 2017-05-23 | 2017-10-03 | 杭州宏杉科技股份有限公司 | 数据块的多副本存储方法、存储设备、数据读取方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190163623A1 (en) | 2019-05-30 |
CN110032333A (zh) | 2019-07-19 |
KR20190063054A (ko) | 2019-06-07 |
US20210133096A1 (en) | 2021-05-06 |
US10909031B2 (en) | 2021-02-02 |
KR20240049262A (ko) | 2024-04-16 |
US11630766B2 (en) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110032333B (zh) | 存储器系统及其操作方法 | |
US11573742B2 (en) | Dynamic data placement for collision avoidance among concurrent write streams | |
US20080195833A1 (en) | Systems, methods and computer program products for operating a data processing system in which a file system's unit of memory allocation is coordinated with a storage system's read/write operation unit | |
US10061695B2 (en) | Memory system and operating method thereof | |
US20130103893A1 (en) | System comprising storage device and related methods of operation | |
KR102526608B1 (ko) | 전자 장치 및 그것의 동작 방법 | |
US10067873B2 (en) | Data storage device and operating method thereof | |
US11086772B2 (en) | Memory system performing garbage collection operation and operating method of memory system | |
KR20190120573A (ko) | 메모리 시스템, 데이터 처리 시스템 및 메모리 시스템의 동작 방법 | |
KR102349381B1 (ko) | 데이터 저장 장치 및 그것의 동작 방법 | |
KR20170110810A (ko) | 데이터 처리 시스템 및 그것의 동작 방법 | |
CN113590023A (zh) | 在多平面存储器装置的单独平面上存储区名称空间中的区 | |
CN113448511B (zh) | 通过链接阵列依序预提取 | |
US11461238B2 (en) | Storage device, memory controller, and method for fetching write commands from submission queues to perform full page writes | |
US20210149597A1 (en) | Controller and operation method thereof | |
US20200089421A1 (en) | Data storage device, operation method thereof, and storage system including the same | |
US20190278703A1 (en) | Memory system, operating method thereof and electronic device | |
US11954041B2 (en) | Controller including map cache and memory system including controller | |
US11157401B2 (en) | Data storage device and operating method thereof performing a block scan operation for checking for valid page counts | |
US10606509B2 (en) | Data storage device managing write tag, writing operation method thereof, and storage system including the same | |
US20240143193A1 (en) | Memory system related to selectively storing data and a corresponding map, and an operating method of the memory system | |
KR20240004013A (ko) | 메모리 컨트롤러, 스토리지 장치 및 그 동작 방법 | |
CN112732171A (zh) | 控制器及其操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |