KR20220067776A - 컨트롤러 및 컨트롤러의 동작방법 - Google Patents

컨트롤러 및 컨트롤러의 동작방법 Download PDF

Info

Publication number
KR20220067776A
KR20220067776A KR1020200154396A KR20200154396A KR20220067776A KR 20220067776 A KR20220067776 A KR 20220067776A KR 1020200154396 A KR1020200154396 A KR 1020200154396A KR 20200154396 A KR20200154396 A KR 20200154396A KR 20220067776 A KR20220067776 A KR 20220067776A
Authority
KR
South Korea
Prior art keywords
data
host
prediction
read
memory
Prior art date
Application number
KR1020200154396A
Other languages
English (en)
Inventor
정상훈
Original Assignee
에스케이하이닉스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이하이닉스 주식회사 filed Critical 에스케이하이닉스 주식회사
Priority to KR1020200154396A priority Critical patent/KR20220067776A/ko
Priority to US17/336,633 priority patent/US20220155995A1/en
Priority to CN202110741072.1A priority patent/CN114519019A/zh
Publication of KR20220067776A publication Critical patent/KR20220067776A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/161Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement
    • G06F13/1626Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement by reordering requests
    • G06F13/1631Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement by reordering requests through address comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1668Details of memory controller
    • G06F13/1673Details of memory controller using buffers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0679Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0238Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0292User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/06Addressing a physical block of locations, e.g. base addressing, module addressing, memory dedication
    • G06F12/0607Interleaved addressing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0862Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0875Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with dedicated cache, e.g. instruction or stack
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0658Controller construction arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/60Details of cache memory
    • G06F2212/6026Prefetching based on access pattern detection, e.g. stride based prefetch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7201Logical to physical mapping or translation of blocks or pages

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

메모리 장치를 제어하는 컨트롤러는, 호스트 리드 요청들에 연관된 호스트 데이터 청크들 중 주소가 연속하는 호스트 데이터 청크들을 포함하는 하나 이상의 데이터 스트림을 검출하고, 상기 검출된 데이터 스트림별로 예측 데이터 청크를 결정하고, 상기 메모리 장치가 상기 예측 데이터 청크를 준비하도록 상기 메모리 장치를 제어하고, 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 준비된 예측 데이터 청크를 상기 호스트로 제공하는 프로세서; 및 상기 호스트로 제공하기 위한 예측 데이터 청크를 버퍼링하는 메모리를 포함한다.

Description

컨트롤러 및 컨트롤러의 동작방법{CONTROLLER AND OPERATING METHOD THEREOF}
본 발명은 메모리 장치를 제어하는 컨트롤러에 관한 것이다.
최근 컴퓨터 환경에 대한 패러다임(paradigm)이 언제, 어디서나 컴퓨터 시스템을 사용할 수 있도록 하는 유비쿼터스 컴퓨팅(ubiquitous computing)으로 전환되고 있다. 이로 인해 휴대폰, 디지털 카메라, 노트북 컴퓨터 등과 같은 휴대용 전자 장치의 사용이 급증하고 있다. 이와 같은 휴대용 전자 장치는 일반적으로 메모리 장치를 이용하는 메모리 시스템, 다시 말해 데이터 저장 장치를 사용한다. 데이터 저장 장치는 휴대용 전자 장치의 주 기억 장치 또는 보조 기억 장치로 사용된다.
비휘발성 메모리 장치를 이용한 데이터 저장 장치는 하드 디스크와 달리 기계적인 구동부가 없어서 안정성 및 내구성이 뛰어나며, 또한 정보의 액세스 속도가 매우 빠르고 전력 소모가 적다는 장점이 있다. 이러한 장점을 갖는 메모리 시스템의 일 예로 데이터 저장 장치는, USB(Universal Serial Bus) 메모리 장치, 다양한 인터페이스를 갖는 메모리 카드, 솔리드 스테이트 드라이브(SSD: Solid State Drive) 등을 포함한다.
본 발명의 실시 예는 멀티 스트림 환경에서의 예측 리드(predictive read) 동작을 보다 효과적으로 수행함으로써 메모리 시스템의 동작 속도를 향상시킬 수 있는 컨트롤러 및 그의 동작 방법을 제공한다.
본 발명의 실시 예에 따르면, 메모리 장치를 제어하는 컨트롤러는, 호스트 리드 요청들에 연관된 호스트 데이터 청크들 중 주소가 연속하는 호스트 데이터 청크들을 포함하는 하나 이상의 데이터 스트림을 검출하고, 상기 검출된 데이터 스트림별로 예측 데이터 청크를 결정하고, 상기 메모리 장치가 상기 예측 데이터 청크를 준비하도록 상기 메모리 장치를 제어하고, 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 준비된 예측 데이터 청크를 상기 호스트로 제공하는 프로세서; 및 상기 호스트로 제공하기 위한 예측 데이터 청크를 버퍼링하는 메모리를 포함한다.
또한, 상기 프로세서는 상기 데이터 스트림별로 상기 연속하는 데이터 청크들과 주소가 연속하는 데이터 청크를 상기 예측 데이터 청크로 결정할 수 있다.
또한, 상기 프로세서는 상기 호스트 데이터 청크들 중 각각이 서로 동일한 길이를 갖고 정해진 길이 이상 연속하는 호스트 데이터 청크들을 검출하고, 상기 검출된 호스트 데이터 청크들이 하나의 데이터 스트림에 포함되는 것으로 결정함으로써 상기 하나 이상의 데이터 스트림을 검출할 수 있다.
또한, 상기 프로세서는 상기 호스트 리드 청크들 중 데이터 길이가 임계값 이상인 데이터 청크들을 검출하고, 상기 검출된 데이터 청크들 중 서로 연속하는 데이터 청크들을 검출함으로써 상기 하나 이상의 데이터 스트림을 검출할 수 있다.
또한, 상기 프로세서는 상기 검출된 데이터 스트림별로 스트림 ID를 부여할 수 있다.
또한, 상기 주소는 상기 호스트에서 사용되는 논리 주소이고, 상기 프로세서는 상기 예측 데이터 청크에 대응하는 예측 리드 요청을 생성하고, 상기 예측 리드 요청 및 상기 예측 리드 요청에 선행하는 선행 리드 요청의 논리 주소를 상기 메모리 장치에 연관된 물리 주소로 변환하고, 상기 변환된 물리 주소들에 기초하여 상기 예측 리드 요청에 대응하는 예측 리드 커맨드 및 상기 선행 리드 요청에 대응하는 선행 리드 커맨드를 생성할 수 있다.
또한, 상기 프로세서는 상기 변환된 물리 주소들이 서로 동일 메모리 다이를 가리키는 경우, 상기 예측 리드 커맨드 및 선행 리드 커맨드로서 캐시 리드 커맨드들을 생성할 수 있다.
또한, 상기 프로세서는 상기 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 예측 리드 커맨드에 응하여 상기 메모리 장치의 페이지 버퍼에 준비된 데이터 청크를 상기 메모리에 버퍼링하고, 상기 버퍼링된 데이터 청크를 상기 호스트로 제공할 수 있다.
또한, 상기 프로세서는 상기 변환된 물리 주소들이 서로 다른 메모리 다이를 가리키는 경우, 상기 예측 리드 커맨드 및 선행 리드 커맨드로서 노멀 리드 커맨드들을 생성하고, 상기 생성된 노멀 리드 커맨드들을 인터리브(interleave)할 수 있다.
또한, 상기 프로세서는 상기 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 예측 리드 커맨드에 응하여 상기 메모리에 준비된 예측 데이터 청크를 상기 호스트로 제공할 수 있다.
본 발명의 실시 예에 따르면, 메모리 장치를 제어하는 컨트롤러는, 호스트 리드 요청들에 연관된 호스트 데이터 청크들 중 주소가 연속하는 호스트 데이터 청크들을 포함하는 하나 이상의 데이터 스트림을 검출하는 단계; 상기 검출된 데이터 스트림별로 예측 데이터 청크를 결정하는 단계; 상기 메모리 장치가 상기 예측 데이터 청크를 준비하도록 상기 메모리 장치를 제어하는 단계; 및 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 준비된 예측 데이터 청크를 상기 호스트로 제공하는 단계를 포함한다.
본 발명의 실시 예는 멀티 스트림 환경에서의 예측 리드 동작을 보다 효과적으로 수행함으로써 메모리 시스템의 동작 속도를 향상시킬 수 있는 컨트롤러 및 그의 동작 방법을 제공한다.
도 1은 본 발명의 실시 예에 따른 컨트롤러를 포함하는 데이터 처리 시스템의 일 예를 설명한다.
도 2는 컨트롤러를 설명하기 위한 도면이다.
도 3은 메모리 장치 내의 메모리 다이의 예시적인 구성을 나타낸다.
도 4는 예측 리드 동작을 설명하기 위한 도면이다.
도 5는 멀티 스트림(multi-stream) 환경에서의 리드 커맨드 수신을 설명하기 위한 도면이다.
도 6은 본 발명의 실시 예에 따른 컨트롤러의 동작을 설명하기 위한 도면이다.
도 7a 내지 도 7b는 메모리 다이의 리드 동작을 설명하기 위한 도면이다.
도 8은 예측 리드 동작 및 선행하는 호스트 리드 동작이 캐시 리드 커맨드들을 사용하여 수행되는 경우의 타이밍도이다.
도 9는 예측 리드 동작 및 선행하는 호스트 리드 동작이 인터리브된 노멀 리드 커맨드들을 사용하여 수행되는 경우의 타이밍도이다.
도 10은 본 발명의 실시 예에 따른 컨트롤러의 동작을 나타낸다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구성될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록하며 통상의 지식을 가진자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.
도 1은 본 발명의 실시 예에 따른 컨트롤러(130)를 포함하는 데이터 처리 시스템(100)의 일 예를 설명한다.
도 1을 참조하면, 데이터 처리 시스템(100)은, 호스트(102) 및 메모리 시스템(110)을 포함한다.
호스트(102)는 전자 장치, 예를 들어 휴대폰, MP3 플레이어, 랩탑 컴퓨터 등과 같은 휴대용 전자 장치들, 또는 데스크탑 컴퓨터, 게임기, TV, 프로젝터 등과 같은 전자 장치들을 포함할 수 있다.
호스트(102)는 적어도 하나의 운영 시스템(OS: operating system)을 포함할 수 있다. 운영 시스템은 호스트(102)의 기능 및 동작을 전반적으로 관리 및 제어하고, 데이터 처리 시스템(100) 또는 메모리 시스템(110)을 사용하는 사용자와 호스트(102) 간에 상호 동작을 제공한다. 운영 시스템은 사용자의 사용 목적 및 용도에 상응한 기능 및 동작을 지원하며, 호스트(102)의 이동성(mobility)에 따라 일반 운영 시스템과 모바일 운용 시스템으로 구분할 수 있다. 운영 시스템에서의 일반 운영 시스템 시스템은, 사용자의 사용 환경에 따라 개인용 운영 시스템과 기업용 운영 시스템으로 구분할 수 있다.
메모리 시스템(110)은 호스트(102)의 요청에 응하여 호스트(102)의 데이터를 저장하기 위해 동작할 수 있다. 예를 들어, 메모리 시스템(110)은 솔리드 스테이트 드라이브(SSD: Solid State Drive), MMC, eMMC(embedded MMC), RS-MMC(Reduced Size MMC), micro-MMC 형태의 멀티 미디어 카드(MMC: Multi Media Card), SD, mini-SD, micro-SD 형태의 시큐어 디지털(SD: Secure Digital) 카드, USB(Universal Serial Bus) 저장 장치, UFS(Universal Flash Storage) 장치, CF(Compact Flash) 카드, 스마트 미디어(Smart Media) 카드, 메모리 스틱(Memory Stick) 등과 같은 다양한 종류의 저장 장치들 중 어느 하나로 구현될 수 있다.
메모리 시스템(110)은 다양한 종류의 저장 장치에 의해 구현될 수 있다. 예를 들어, 상기 저장 장치는 DRAM(Dynamic Random Access Memory), SRAM(Static RAM) 등과 같은 휘발성 메모리 장치와, ROM(Read Only Memory), MROM(Mask ROM), PROM(Programmable ROM), EPROM(Erasable ROM), EEPROM(Electrically Erasable ROM), FRAM(Ferromagnetic ROM), PRAM(Phase change RAM), MRAM(Magnetic RAM), RRAM(Resistive RAM), 플래시 메모리 등과 같은 비휘발성 메모리 장치를 포함할 수 있다. 상기 플래시 메모리는 3차원 스택 구조를 가질 수 있다.
메모리 시스템(110)은 메모리 장치(150) 및 컨트롤러(130)를 포함할 수 있다. 메모리 장치(150)는 호스트(102)를 위한 데이터를 저장할 수 있으며, 컨트롤러(130)는 메모리 장치(150)로의 데이터 저장을 제어할 수 있다.
컨트롤러(130) 및 메모리 장치(150)는 하나의 반도체 장치로 집적될 수 있다. 일 예로, 컨트롤러(130) 및 메모리 장치(150)는 하나의 반도체 장치로 집적되어 SSD를 구성할 수 있다. 메모리 시스템(110)이 SSD로 사용되면, 메모리 시스템(110)에 연결된 호스트(102)의 동작 속도는 향상될 수 있다. 게다가, 컨트롤러(130) 및 메모리 장치(150)는, 하나의 반도체 장치로 집적되어 메모리 카드를 구성할 수도 있다. 예를 들어, 컨트롤러(130) 및 메모리 장치(150)는 PC 카드(PCMCIA: Personal Computer Memory Card International Association), 컴팩트 플래시 카드(CF), 스마트 미디어 카드(SM, SMC), 메모리 스틱, 멀티미디어 카드(MMC, RS-MMC, MMCmicro), SD 카드(SD, miniSD, microSD, SDHC), 유니버설 플래시 기억 장치(UFS) 등과 같은 메모리 카드를 구성할 수 있다.
다른 일 예로, 메모리 시스템(110)은, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 태블릿 컴퓨터(tablet computer), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 블랙박스(black box), 디지털 카메라(digital camera), DMB(Digital Multimedia Broadcasting) 재생기, 3차원 텔레비전(3-dimensional television), 스마트 텔레비전(smart television), 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 영상 녹화기(digital picture recorder), 디지털 영상 재생기(digital picture player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 데이터 센터를 구성하는 스토리지, 정보를 무선 환경에서 송수신할 수 있는 장치, 홈 네트워크를 구성하는 다양한 전자 장치들 중 하나, 컴퓨터 네트워크를 구성하는 다양한 전자 장치들 중 하나, 텔레매틱스 네트워크를 구성하는 다양한 전자 장치들 중 하나, RFID(radio frequency identification) 장치, 또는 컴퓨팅 시스템을 구성하는 다양한 구성 요소들 중 하나 등을 구성할 수 있다.
메모리 장치(150)는 플래시 메모리 장치일 수 있다. 플래시 메모리 장치는 메모리 셀 트랜지스터들로 구성된 메모리 셀 어레이에 데이터를 저장할 수 있다. 플래시 메모리 장치는 메모리 다이, 메모리 블록 및 페이지 계층 구조를 가질 수 있다. 도 1은 컨트롤러(130)와 제1 및 제2 채널(CH1, CH2)로 연결된 제1 내지 제4 메모리 다이(DIE1 - DIE4)를 예시한다.
플래시 메모리는 복수의 메모리 다이를 포함할 수 있다. 하나의 메모리 다이는 복수의 메모리 블록을 포함할 수 있다. 메모리 블록은 이레이즈 동작의 최소 단위일 수 있다. 하나의 메모리 블록은 복수의 페이지를 포함할 수 있다. 페이지는 라이트 동작의 최소 단위일 수 있다.
하나의 메모리 다이는 컨트롤러(130)와 연결된 채널을 통해 한 번에 하나의 커맨드를 수신할 수 있다. 커맨드를 수신한 메모리 다이들은 병렬로 동작할 수 있다.
컨트롤러(130)는 호스트(102)로부터의 요청에 응하여 메모리 장치(150)를 제어할 수 있다. 예를 들어, 컨트롤러(130)는 메모리 장치(150)로부터 리드된 데이터를 호스트(102)로 제공하고, 호스트(102)로부터 제공된 데이터를 메모리 장치(150)에 저장할 수 있다. 이러한 동작을 위해, 컨트롤러(130)는 메모리 장치(150)의 리드(read), 프로그램(program), 이레이즈(erase) 등의 동작을 제어할 수 있다.
도 2 및 도 3을 참조하여 컨트롤러(130) 및 메모리 장치(150)가 보다 자세히 설명된다.
도 2는 컨트롤러(130)를 설명하기 위한 도면이다.
컨트롤러(130)는 서로 내부 버스를 통해 동작 가능하도록 연결된 호스트 인터페이스(132), 프로세서(134), 메모리 인터페이스(142) 및 메모리(144)를 포함할 수 있다.
호스트 인터페이스(132)는 호스트(102)의 커맨드(command) 및 데이터를 처리하며, USB(Universal Serial Bus), MMC(Multi-Media Card), PCI-E(Peripheral Component Interconnect-Express), SAS(Serial-attached SCSI), SATA(Serial Advanced Technology Attachment), PATA(Parallel Advanced Technology Attachment), SCSI(Small Computer System Interface), ESDI(Enhanced Small Disk Interface), IDE(Integrated Drive Electronics), MIPI(Mobile Industry Processor Interface) 등과 같은 다양한 인터페이스 프로토콜들 중 적어도 하나를 통해 호스트(102)와 통신하도록 구성될 수 있다.
호스트 인터페이스(132)는 호스트(102)와 데이터를 주고받는 영역으로 호스트 인터페이스 계층(HIL: Host Interface Layer)이라 불리는 펌웨어(firmware)를 통해 구동될 수 있다.
메모리 인터페이스(142)는 컨트롤러(130)가 호스트(102)로부터의 요청에 응답하여 메모리 장치(150)를 제어하도록, 컨트롤러(130)와 메모리 장치(150) 간의 인터페이싱을 위한 메모리/스토리지(storage) 인터페이스로서의 역할을 할 수 있다. 메모리 장치(150)가 플래시 메모리, 특히 NAND 플래시 메모리인 경우, 메모리 인터페이스(142)는 메모리 장치(150)를 위한 제어 신호를 생성하고, 프로세서(134)의 제어 하에 메모리 장치(150)로 제공되는 데이터를 처리할 수 있다. 메모리 인터페이스(142)는 컨트롤러(130)와 메모리 장치(150) 사이의 커맨드 및 데이터를 처리하기 위한 인터페이스, 예를 들어 NAND 플래시 인터페이스로서 동작할 수 있다.
메모리 인터페이스(142)는 플래시 인터페이스 계층(FIL: Flash Interface Layer)이라 불리는 펌웨어(firmware)를 통해 구동될 수 있다.
프로세서(134)는 메모리 시스템(110)의 전체적인 동작을 제어할 수 있다. 프로세서(134)는 메모리 시스템(110)의 전반적인 동작을 제어하기 위해 펌웨어를 구동할 수 있다. 상기 펌웨어는 플래시 변환 계층(FTL: Flash Translation Layer)으로 불릴 수 있다. 그리고, 프로세서(134)는 마이크로프로세서 또는 중앙 처리 장치(CPU) 등으로 구현될 수 있다.
프로세서(134)는 플래시 변환 계층을 구동하여 호스트로부터 수신된 요청에 대응하는 포그라운드 동작(foreground operation)을 수행할 수 있다. 예를 들어, 프로세서(134)는 호스트로부터의 라이트 요청에 응하여 메모리 장치(150)의 라이트 동작을 제어하고, 리드 요청에 응하여 메모리 장치(150)의 리드 동작을 제어할 수 있다.
또한, 컨트롤러(130)는 마이크로프로세서 또는 중앙 처리 장치(CPU) 등으로 구현된 프로세서(134)를 통해 메모리 장치(150)에 대한 백그라운드(background) 동작을 수행할 수도 있다. 예를 들어, 메모리 장치(150)에 대한 백그라운드 동작은 가비지 컬렉션(GC: Garbage Collection) 동작, 웨어 레벨링(WL: Wear Leveling) 동작, 맵 플러시(map flush) 동작, 배드 블록 관리(bad block management) 동작 등을 포함할 수 있다.
메모리(144)는 메모리 시스템(110) 및 컨트롤러(130)의 동작 메모리로서의 역할을 수행할 수 있으며, 메모리 시스템(110) 및 컨트롤러(130)의 구동을 위한 데이터를 저장할 수 있다. 컨트롤러(130)는 호스트(102)로부터의 요청에 응하여 메모리 장치(150)가 리드, 프로그램, 이레이즈 동작을 수행하도록 메모리 장치(150)를 제어할 수 있다. 컨트롤러(130)는 메모리 장치(150)로부터 독출되는 데이터를 호스트(102)로 제공할 수 있으며, 호스트(102)로부터 제공되는 데이터를 메모리 장치(150)에 저장할 수 있다. 메모리(144)는 컨트롤러(130)와 메모리 장치(150)가 이러한 동작을 수행하는 데 필요한 데이터를 저장할 수 있다.
메모리(144)는 휘발성 메모리로 구현될 수 있다. 예를 들어, 메모리(144)는 정적 랜덤 액세스 메모리(SRAM: Static Random Access Memory), 또는 동적 랜덤 액세스 메모리(DRAM: Dynamic Random Access Memory) 등으로 구현될 수 있다. 메모리(144)는 컨트롤러(130) 내부 또는 외부에 배치될 수 있다. 도 1은 컨트롤러(130) 내부에 배치된 메모리(144)를 예시한다. 일 실시예에서, 메모리(144)는 메모리(144)와 컨트롤러(130) 사이의 데이터를 입출력하는 메모리 인터페이스를 갖는 외부 휘발성 메모리 장치로 구현될 수 있다.
메모리(144)는 호스트(102)와 메모리 장치(150) 간의 라이트, 리드 등의 동작을 수행하기 위한 데이터를 저장하기 위해 프로그램 메모리, 데이터 메모리, 라이트 버퍼(buffer)/캐시(cache), 리드 버퍼/캐시, 데이터 버퍼/캐시, 맵(map) 버퍼/캐시 등을 포함할 수 있다.
도 3은 메모리 장치(150) 내의 메모리 다이(300)의 예시적인 구성을 나타낸다.
메모리 다이(300)는 도 1을 참조하여 설명된 제1 내지 제4 메모리 다이(DIE1 - DIE4)와 대응할 수 있다. 메모리 다이(300)는 복수의 메모리 셀들을 포함하는 메모리 셀 어레이(330)를 포함할 수 있다. 메모리 셀 어레이(330)는 복수의 메모리 블록들을 포함할 수 있다.
도 3을 참조하면, 메모리 셀 어레이(330)는 복수의 비트라인들(BL0 - BLm-1)과 연결된 복수의 셀 스트링(340)들을 포함할 수 있다. 각 열(column)의 셀 스트링(340)은 적어도 하나의 드레인 선택 트랜지스터(DST)와 적어도 하나의 소스 선택 트랜지스터(SST)를 포함할 수 있다. 드레인 선택 트랜지스터(DST) 및 소스 선택 트랜지스터(SST) 사이에 복수 개의 메모리 셀들(MC0 to MCn-1)이 직렬로 연결될 수 있다. 각각의 메모리 셀들(MC0 to MCn-1)은 셀 당 복수의 비트들의 데이터 정보를 저장하는 MLC로 구현될 수 있다. 각각의 셀 스트링(340)들은 대응하는 비트라인들(BL0 to BLm-1)에 각각 전기적으로 연결될 수 있다. 예를 들어, 도 3에 도시된 바와 같이 제1 셀 스트링은 제1 비트라인(BL0)과 연결되고, 마지막 셀 스트링은 마지막 비트라인(BLm-1)과 연결될 수 있다. 참고로, 도 3에서 ‘DSL’은 드레인 선택 라인, ‘SSL’은 소스 선택 라인, ‘CSL’은 공통 소스 라인을 나타낸다.
도 3은 NAND 플래시 메모리 셀들을 도시하고 있으나, 본 발명은 이에 한정되지 않는다. 상기 메모리 셀들은 NOR 플래시 메모리 셀 또는 두 종류 이상의 메모리 셀들이 혼합된 하이브리드 플래시 메모리 셀들일 수 있다. 또한, 메모리 장치(150)는 전하 저장층으로서 전도성 플로팅 게이트를 포함하는 플래시 메모리 장치 또는 전하 저장층이 절연막으로 구성된 차지 트랩형 플래시(CTF, Charge Trap Flash) 메모리 장치일 수도 있다.
메모리 다이(300)는 동작 모드에 따라 워드라인들로 공급하기 위한 프로그램 전압, 리드 전압, 패스 전압을 포함하는 워드라인 전압들을 제공하는 전압 공급부(310)를 더 포함할 수 있다. 전압 공급부(310)의 전압 생성 동작은 제어회로(미도시)에 의해 제어될 수 있다. 상기 제어회로의 제어 하에, 전압 공급부(310)는 메모리 셀 어레이의 메모리 블록들(또는 섹터들) 중 하나를 선택할 수 있고, 상기 선택된 메모리 블록의 워드라인들 중 하나를 선택할 수 있으며, 상기 워드라인 전압을 선택 워드라인으로 제공하고, 필요에 따라 비선택 워드라인으로 제공할 수 있다.
메모리 다이(300)는 제어회로에 의해 제어되는 리드/라이트 회로(320)를 포함할 수 있다. 검증/정상 리드 동작 중에, 리드/라이트 회로(320)는 메모리 셀 어레이로부터 데이터를 리드하기 위해 감지 증폭기로서 동작할 수 있다. 프로그램 동작 중에, 리드/라이트 회로(320)는 상기 메모리 셀 어레이에 저장될 데이터에 따라 비트라인들을 구동하는 라이트 드라이버로서 동작할 수 있다. 프로그램 동작 중에, 리드/라이트 회로(320)는 버퍼(미도시)로부터 상기 메모리 셀 어레이에 저장될 데이터를 수신하고, 상기 수신된 데이터에 따라 비트라인들을 구동할 수 있다. 리드/라이트 회로(320)는 각각이 열(column)들(또는 비트라인들) 또는 열쌍(column pair)들(또는 비트라인 쌍들)과 대응하는 복수의 페이지 버퍼들(322 - 326)을 포함할 수 있으며, 각각의 페이지 버퍼들(322 - 326)은 복수의 래치들(미도시)을 포함할 수 있다.
도 4는 예측 리드(predictive read) 동작을 설명하기 위한 도면이다.
도 4는 호스트(102)와 컨트롤러(130)가 주고받는 요청 및 데이터를 도시한다.
호스트(102)는 컨트롤러(130)로 데이터 스트림을 요청할 수 있다. 데이터 스트림은 주소가 연속하는 일련의 데이터를 지칭할 수 있다. 호스트(102)는 컨트롤러(130)로 데이터 스트림을 요청하기 위해, 데이터의 주소를 기준으로 상기 데이터 스트림을 일정한 크기의 데이터 청크들로 분할하고, 상기 데이터 청크들을 리드하기 위한 복수의 리드 요청들을 생성할 수 있다. 호스트(102)는 상기 데이터 스트림에 연관된 복수의 리드 요청들을 컨트롤러(130)로 제공할 수 있다. 예를 들어, 호스트(102)는 리드 요청인 제1 내지 제4 요청(REQ1 - REQ4)를 컨트롤러(130)로 제공할 수 있다.
호스트(102)로부터 컨트롤러(130)로 제공되는 리드 요청들은 각각 리드하려는 데이터 청크의 주소 정보를 포함할 수 있다. 도면에서 각 요청에 포함되는 주소 정보는 [시작 주소, 데이터 길이]의 포맷으로 표시된다. 데이터 길이 정보는 상기 시작 주소로부터 연속하는 데이터의 길이를 나타낼 수 있다. 예를 들어, 제2 요청(REQ2)의 주소 정보 [20, 10]은 주소 '20'부터 10개의 연속하는 주소를 나타낼 수 있다. 한편, 상기 데이터 길이 정보가 연속하는 주소의 개수 정보로 표현되는 경우를 예로 들어 본 발명의 실시 예가 설명되지만, 상기 데이터 길이 정보를 표현하는 방법은 이에 제한되지 않는다.
제1 내지 제4 요청(REQ1 - REQ4)는 주소 '10'부터 40개의 주소가 연속하는 데이터 청크들에 연관된 리드 요청들로서, 하나의 데이터 스트림에 연관된 리드 요청들일 수 있다. 하나의 데이터 스트림에 대한 복수의 리드 요청들은 시퀀셜 리드 요청들로 지칭될 수 있다.
프로세서(134)는 호스트 인터페이스(132)를 통해 호스트(102)로부터 수신된 복수의 리드 요청들과 연관된 복수의 데이터 청크들의 주소 정보들에 기초하여 상기 복수의 리드 요청들이 시퀀셜 리드 요청들인지, 그리고 복수의 데이터 청크들이 하나의 데이터 스트림에 포함되는 데이터 청크들인지 여부를 판단할 수 있다. 예를 들어, 프로세서(134)는 복수의 데이터 청크들의 주소들이 정해진 개수 이상 연속하는 경우 상기 주소들이 연속하는 데이터 청크들이 하나의 데이터 스트림에 포함되는 것으로 판단할 수 있다. 도 4의 예에서, 프로세서(134)는 제1 내지 제4 요청(REQ1 - REQ4)의 주소 정보에 기초하여 40개의 주소가 연속하는 데이터 청크들이 하나의 데이터 스트림에 포함되는 것으로 판단하고, 제1 내지 제4 요청(REQ1 - REQ4)를 시퀀셜 리드 요청으로 판단할 수 있다.
현재 수신되는 요청들이 시퀀셜 리드 요청들로 판단되면, 프로세서(134)는 호스트(102)로부터 하나의 데이터 스트림에 연관된 리드 요청이 앞으로 더 수신될 것으로 예측하고, 예측 리드 요청을 생성할 수 있다. 예를 들어, 프로세서(134)는 호스트(102)가 주소 '10'부터 '49'까지의 데이터 청크들을 요청하면 호스트(102)가 상기 데이터 청크들에 연속하는 주소 '50'부터의 데이터 청크를 더 요청할 것으로 예측할 수 있다. 프로세서(134)는 호스트(102)가 주소 '50'부터의 데이터 청크를 요청하기 전이라도, 주소 '50'부터 10개의 연속하는 주소를 갖는 데이터 청크에 대한 예측 리드 요청인 제5 요청(REQ5)를 생성할 수 있다. 프로세서(134)는 제1 내지 제5 요청(REQ1 - REQ5)에 응하여 리드 동작을 수행하도록 메모리 장치(150)를 제어할 수 있다.
프로세서(134)가 데이터 스트림을 검출하여 예측 데이터 청크를 결정하고, 예측 리드 요청을 생성함으로써 상기 예측 데이터 청크를 미리 준비하도록 메모리 장치(150)를 제어하는 동작은 예측 리드 동작으로 지칭될 수 있다.
메모리 장치(150)는 제1 내지 제5 요청(REQ1 - REQ5)에 응하여 제1 내지 제4 데이터 청크(DATA1 - DATA4)를 메모리(144)에 버퍼링할 수 있을뿐만 아니라, 제5 데이터 청크(DATA5)도 미리 준비할 수 있다. 도면에서 각 데이터 청크에 대응하는 주소 정보는 [시작 주소, 데이터 길이]의 포맷으로 표시된다. 메모리 장치(150)가 데이터 청크를 준비한다는 것은 내부 페이지 버퍼에 데이터 청크를 래치하는 것 또는 메모리(144)에 버퍼링하는 것을 지칭할 수 있다. 메모리 장치(150)가 데이터를 준비하는 동작은 도 7a 내지 도 7b를 참조하여 설명된다.
호스트 인터페이스(132)는 호스트(102)로부터 요청된 제1 내지 제4 데이터 청크(DATA1 - DATA4)를 호스트(102)로 제공할 수 있다. 그리고, 프로세서(134)는 호스트(102)로부터 제5 데이터 청크(DATA5)에 대한 요청이 수신되면 메모리(144)에 버퍼링된 제5 데이터 청크(DATA5)를 호스트 인터페이스(132)를 통해 호스트(102)로 제공할 수 있다.
프로세서(134)는 호스트(102)로부터 요청될 것으로 예측되는, 예측 데이터 청크(predicted data chunk)를 메모리 장치(150)로부터 메모리(144)에 미리 버퍼링하기 위한 예측 리드 커맨드를 생성하고, 상기 예측 리드 커맨드를 사용하여 메모리 장치(150)를 제어할 수 있다. 프로세서(134)는 호스트(102)로부터 상기 예측 데이터 청크에 대한 요청이 수신되면 준비된 예측 데이터 청크를 바로 호스트(102)로 제공함으로써 메모리 시스템(110)의 리드 동작 성능을 향상시킬 수 있다.
도 5는 멀티 스트림(multi-stream) 환경에서의 리드 요청 수신을 설명하기 위한 도면이다.
호스트(102)는 복수의 어플리케이션들(APP1 - APP3)을 실행할 수 있다. 복수의 어플리케이션들(APP1 - APP3) 각각은 컨트롤러(130)로 서로 다른 데이터 스트림을 요청할 수 있다. 복수의 어플리케이션들(APP1 - APP3) 각각은 컨트롤러(130)로 데이터의 주소를 기준으로 데이터 스트림을 일정한 크기의 데이터 청크들로 분할하고, 데이터 청크들에 대한 복수의 리드 요청들을 생성할 수 있다. 호스트(102)는 복수의 어플리케이션들(APP1 - APP3)에 의해 각각 생성된 복수의 리드 요청들을 컨트롤러(130)로 제공할 수 있다.
도 5는 제1 어플리케이션(APP1)에 의해 생성된 리드 요청인 제1 내지 제4 요청(REQ1 - REQ4), 제2 어플리케이션(APP2)에 의해 생성된 리드 요청인 제5 내지 제8 요청(REQ5 - REQ8) 및 제3 어플리케이션(APP3)에 의해 생성된 리드 요청인 제9 내지 제12 요청(REQ9 - REQ12)를 예시한다. 도 5의 예에서, 제1 내지 제12 요청(REQ1 - REQ12)에 연관된 데이터 청크들의 주소 정보에 따르면, 동일한 어플리케이션에서 요청되는 데이터 청크들의 주소는 서로 연속할 수 있으나, 서로 다른 어플리케이션에서 요청되는 데이터 청크들끼리는 주소가 서로 연속하지 않을 수 있다.
컨트롤러(130)가 호스트(102)로부터 수신된 요청들에 기초하여 하나 이상의 데이터 스트림을 검출하고, 데이터 스트림별로 상기 요청들을 구분하여 처리하면 메모리 시스템(110)의 성능과 수명이 향상될 수 있다. 예를 들어, 컨트롤러(130)가 데이터 스트림별로 예측 리드 요청을 생성하고, 예측 데이터 청크들을 데이터 스트림별로 준비할 수 있다면 메모리 시스템(110)의 리드 동작 성능이 향상될 수 있다.
서로 다른 어플리케이션에 의해 생성된 시퀀셜 리드 요청들은 뒤섞여서 컨트롤러(130)로 수신될 수 있다. 도 5는 제1 내지 제12 요청(REQ1 - REQ12)들이 서로 뒤섞여서 컨트롤러(130)로 수신되는 경우를 예시한다. 도 5의 예에서 연속하여 수신된 요청들에 연관된 데이터 청크들의 주소가 연속하지 않을 수 있다.
호스트(102)가 컨트롤러(130)로 요청을 제공할 때 상기 요청과 연관된 데이터 청크의 스트림 ID(identifier)를 함께 제공하고, 프로세서(134)가 상기 스트림 ID를 사용하여 요청들을 데이터 스트림별로 구분하여 처리할 수 있는 경우도 있다. 그러나, 호스트(102)가 컨트롤러(130)로 요청을 제공할 때 상기 스트림 ID를 제공하지 않는 경우도 있다. 호스트(102)가 컨트롤러(130)로 상기 스트림 ID를 제공하지 않더라도 프로세서(134)가 뒤섞여서 수신되는 리드 요청들에 기초하여 하나 이상의 데이터 스트림을 검출하고, 데이터 스트림별로 예측 리드 요청을 생성할 것이 요구된다.
본 발명의 실시 예에 따르면, 프로세서(134)는 호스트(102)로부터의 리드 요청들에 연관된 데이터 청크들의 주소 정보에 기초하여 하나 이상의 데이터 스트림을 검출할 수 있다. 예를 들어, 프로세서(134)는 정해진 개수 이상의 주소들이 연속하는 데이터 청크들을 검출하면, 상기 검출된 데이터 청크들이 포함되는 데이터 스트림이 호스트(102)로부터 수신되는 것으로 결정할 수 있다.
프로세서(134)는 검출된 데이터 스트림별로 예측 리드 요청을 생성할 수 있다. 예를 들어, 컨트롤러(130)는 검출된 데이터 스트림별로 서로 다른 스트림 ID를 부여할 수 있다. 프로세서(134)는 데이터 스트림별로 호스트(102)로부터 요청될 데이터 청크의 주소를 예측할 수 있다. 그리고, 프로세서(134)는 각 스트림 ID에 대응하는 예측 데이터 청크를 준비하기 위한 예측 리드 요청을 생성할 수 있다. 프로세서(134)는 상기 스트림 ID별 예측 리드 요청에 기초하여 메모리 장치(150)가 상기 예측 데이터 청크를 준비하도록 메모리 장치(150)를 제어할 수 있다. 호스트(102)로부터 상기 예측 데이터 청크에 대한 요청이 수신되면, 프로세서(134)는 상기 준비된 예측 데이터 청크를 호스트(102)로 제공할 수 있다.
본 발명의 실시 예에 따르면, 프로세서(134)는 호스트(102)가 컨트롤러(130)로 스트림 ID를 제공하지 않더라도 리드 요청들의 주소 정보로부터 데이터 스트림을 검출하고, 데이터 스트림별로 예측 리드 요청을 생성할 수 있다. 컨트롤러(130)로 연속하여 수신된 요청들에 포함된 주소가 연속하지 않는 경우라도 프로세서(134)가 하나 이상의 데이터 스트림을 검출하여 데이터 스트림별 예측 리드 요청을 생성할 수 있으므로, 메모리 시스템(110)의 리드 동작 성능이 향상될 수 있다.
본 발명의 실시 예에 따른 컨트롤러(130)의 동작이 도 6 내지 도 10을 참조하여 자세히 설명된다.
도 6은 본 발명의 실시 예에 따른 컨트롤러(130)의 동작을 설명하기 위한 도면이다.
멀티 스트림 환경에서, 호스트(102)는 복수의 어플리케이션들(APP1 - APP3)에 의해 각각 생성된 복수의 시퀀셜 리드 요청들을 컨트롤러(130)로 제공할 수 있다. 복수의 어플리케이션들(APP1 - APP3)에 의해 생성된 시퀀셜 리드 요청들은 서로 섞여서 컨트롤러(130)로 수신될 수 있다. 도 6은 복수의 어플리케이션들(APP1 - APP3)에 의해 생성된 제1 내지 제12 요청(REQ1 - REQ12)이 서로 섞여서 수신되어, 연속하여 수신된 요청들끼리 주소가 서로 연속하지 않는 경우를 예시한다.
프로세서(134)는 호스트(102)로부터 최근 수신된 리드 요청들의 주소 정보를 수집하고, 상기 수집된 주소 정보에 기초하여 데이터 스트림을 검출할 수 있다. 구현에 따라, 프로세서(134)는 정해진 크기 이상의 데이터 청크를 리드하기 위한 리드 요청들의 주소 정보만을 수집할 수 있다. 예를 들어, 프로세서(134)는 리드 요청에 포함된 데이터 길이가 임계값 이상인 리드 요청들의 주소 정보만을 수집할 수 있다.
도 6의 예에서, 프로세서(134)는 호스트(102)로부터 수신된 제1 내지 제12 요청(REQ1 - REQ12)의 주소 정보를 수집할 수 있다. 프로세서(134)는 수집된 주소 정보들에 기초하여, 서로 동일한 데이터 길이를 가지면서 정해진 개수 이상의 주소들이 연속하는 데이터 청크들을 검출함으로써 하나 이상의 데이터 스트림을 검출할 수 있다. 그리고, 프로세서(134)는 검출된 데이터 스트림에 스트림 ID를 부여할 수 있다.
프로세서(134)가 40개 이상의 주소들이 연속하는 데이터 청크들을 검출함으로써 데이터 스트림을 검출하는 예에서, 프로세서(134)는 각각 '10'의 데이터 길이를 갖고 40개의 주소들이 연속하는 제1 내지 제4 요청(REQ1 - REQ4)에 기초하여 데이터 스트림을 검출하고, 상기 데이터 스트림에 스트림 ID '1'을 부여할 수 있다. 마찬가지로, 프로세서(134)는 각각 '20'의 데이터 길이를 갖고 80개의 주소들이 연속하는 제5 내지 제8 요청(REQ5 - REQ8)을 포함하는 데이터 스트림에 스트림 ID '2'를 부여할 수 있다. 프로세서(134)는 각각 '30'의 데이터 길이를 갖고 120개의 주소들이 연속하는 제9 내지 제12 요청(REQ9 - REQ12)을 포함하는 데이터 스트림에 스트림 ID '3'을 부여할 수 있다.
프로세서(134)는 스트림 ID가 부여된 데이터 스트림들의 정보를 저장하는 스트림 테이블(600)을 생성할 수 있다. 스트림 테이블(600)은 메모리(144)에 저장될 수 있다. 스트림 테이블(600)은 데이터 스트림에 포함되는 데이터 청크들의 시작 주소, 연속하는 데이터 길이, 마지막 주소 및 예측된 주소 정보를 스트림 ID별로 포함할 수 있다.
프로세서(134)는 상기 수집된 주소 정보들을 참조하여 스트림 ID별 데이터 청크들의 시작 주소, 데이터 길이 및 마지막 주소 정보를 스트림 테이블(600)에 업데이트할 수 있다. 예를 들어, 제1 내지 제4 요청(REQ1 - REQ4)에 연관된 데이터 청크들은 시퀀셜 데이터 청크들로서 스트림 ID '1'에 해당할 수 있다. 프로세서(134)는 제1 내지 제4 요청(REQ1 - REQ4)의 주소 정보를 참조하여 스트림 ID '1'의 시작 주소를 '10', 데이터 길이를 '10', 마지막 주소를 '49'로 결정하고, 스트림 테이블(600)을 업데이트할 수 있다. 마찬가지로, 프로세서(134)는 제5 내지 제8 요청(REQ5 - REQ8)의 주소 정보를 참조하여 스트림 ID '2'의 시작 주소를 '100', 데이터 길이를 '20', 마지막 주소를 '189'로 결정하고, 제9 내지 제12 요청(REQ9 - REQ12)의 주소 정보를 참조하여 스트림 ID '3'의 시작 주소를 '200', 데이터 길이를 '30', 마지막 주소를 '329'로 결정하고 스트림 테이블(600)을 업데이트할 수 있다.
프로세서(134)는 스트림 ID별 시작 주소, 데이터 길이 및 마지막 주소 정보에 기초하여 스트림 ID별로 호스트(102)로부터 요청될 데이터 청크의 시작 주소를 예측하고, 상기 예측된 주소 정보를 스트림 테이블(600)에 업데이트할 수 있다. 예를 들어, 프로세서(134)는 스트림 테이블(600)에서 스트림 ID '1'의 마지막 주소 정보 '49'에 기초하여 호스트(102)로부터 요청될 데이터 청크의 시작 주소를 '50'으로 예측하고, 스트림 테이블(600)에서 스트림 ID '1'의 예측된 주소 정보를 업데이트할 수 있다. 마찬가지로, 컨트롤러(130)는 스트림 ID '2' 및 스트림 ID '3'에 대해서도 마지막 주소 정보 '189', '329'에 기초하여 예측된 주소 정보를 각각 '190', '330'으로 결정하고, 스트림 테이블(600)을 업데이트할 수 있다.
프로세서(134)는 스트림 테이블(600)의 데이터 길이 및 예측된 주소 정보에 기초하여 예측 리드 요청을 생성할 수 있다. 예를 들어, 프로세서(134)는 스트림 ID '1'의 예측된 주소 정보 '50', 데이터 길이 정보 '10'에 기초하여 주소 '50'부터 연속하는 10개의 연속하는 주소를 갖는 데이터 청크에 대한 예측 리드 요청인 제13 요청(REQ13)을 생성할 수 있다. 마찬가지로, 프로세서(134)는 스트림 ID '2'의 데이터 길이 및 예측된 주소 정보에 기초하여 주소 '190'부터 연속하는 20개의 주소를 갖는 데이터 청크에 대한 예측 리드 요청인 제14 요청(REQ14)을 생성하고, 스트림 ID '3'의 데이터 길이 및 예측된 주소 정보에 기초하여 주소 '330'부터 연속하는 30개의 주소를 갖는 데이터 청크에 대한 예측 리드 요청인 제15 요청(REQ15)을 생성할 수 있다.
프로세서(134)는 제13 내지 제15 요청(REQ13 - REQ15)에 기초하여 메모리 장치(150)를 제어할 수 있다. 메모리 장치(150)는 제13 내지 제15 요청(REQ13 - REQ15)에 응하여 스트림 ID별로 호스트(102)가 요청할 것으로 예측되는, 예측 데이터 청크들을 준비할 수 있다. 상기 예측 데이터 청크들이 호스트(102)로부터 요청되는 경우, 프로세서(134)는 상기 준비된 데이터 청크를 호스트(102)로 제공할 수 있다.
구현에 따라, 상기 예측 데이터 청크들이 호스트(102)로부터 요청되면 프로세서(134)는 상기 예측 데이터 청크들에 연속하는 다음 데이터 청크들이 호스트(102)로부터 더 요청될 것으로 예측할 수 있다. 프로세서(134)는 상기 예측 데이터 청크들의 주소 정보에 기초하여 스트림 테이블(600)의 마지막 주소 정보를 업데이트하고, 호스트(102)로부터 요청될 데이터 청크의 주소를 새로 예측할 수 있다. 프로세서(134)는 새로 예측된 주소에 기초하여 다음 예측 리드 요청을 생성할 수 있다.
한편, 프로세서(134)는 상기 호스트 리드 요청 및 예측 리드 요청을 처리하기 위해 메모리 장치(150)로 제공할 리드 커맨드를 생성할 수 있다. 프로세서(134)는 호스트 리드 요청 및 예측 리드 요청에 대응하는 캐시 리드(cache read) 커맨드들 및 노멀 리드 커맨드들을 선택적으로 생성할 수 있다. 그리고, 프로세서(134)는 호스트 리드 요청 및 예측 리드 요청에 대응하는 노멀 리드 커맨드들을 선택적으로 인터리브(interleave)할 수 있다. 메모리 장치(150)가 캐시 리드 커맨드들을 수행하거나 인터리브된 노멀 리드 커맨드들을 수행하는 경우, 인터리브되지 않은 노멀 리드 커맨드를 수행하는 경우에 비해 메모리 시스템(110)의 예측 리드 동작 성능이 더욱 향상될 수 있다.
노멀 리드 커맨드 및 캐시 리드 커맨드가 도 7a 내지 도 7b를 참조하여 설명된다.
도 7a 및 도 7b는 컨트롤러(130) 및 메모리 다이(300)를 도시한다. 컨트롤러(130)는 도 1을 참조하여 설명된 컨트롤러(130)에 대응하고, 메모리 다이(300)는 도 3을 참조하여 설명된 메모리 다이(300)와 대응한다.
도 7a 및 도 7b는 메모리 다이(300)에 포함된 하나의 메모리 셀 어레이(330) 및 상기 메모리 셀 어레이(330)에 연결된 래치 그룹들(402, 404)을 도시한다. 도 3을 참조하여 설명된 바와 같이, 메모리 다이(300)는 복수의 페이지 버퍼들을 포함할 수 있으며, 페이지 버퍼들 각각은 복수의 래치들을 포함할 수 있다. 예를 들어, 페이지 버퍼들 각각은 센싱 래치(sensing latch) 및 캐시 래치(cache latch)를 포함할 수 있다.
센싱 래치는 리드 동작 중에 비트라인으로부터 흐르는 전류를 센싱하고, 센싱 결과에 기초하여 리드하려는 메모리 셀의 데이터를 래칭할 수 있다. 캐시 래치는 리드 동작 중에 상기 센싱 래치에 래칭된 데이터들을 래칭하고, 컨트롤러(130)로 출력할 수 있다. 도 7a 및 도 7b는 메모리 셀 어레이(330)와 연관된 복수의 비트라인들에 연결된 복수의 센싱 래치들을 포함하는 센싱 래치 그룹(402) 및 상기 복수의 센싱 래치들에 연결된 복수의 캐시 래치들을 포함하는 캐싱 래치 그룹(404)을 도시한다.
프로세서(134)는 메모리 장치(150)로 노멀 리드 커맨드 또는 캐시 리드 커맨드를 제공할 수 있다.
도 7a를 참조하여 메모리 장치(150)의 노멀 리드 커맨드 동작이 설명된다.
단계 S702에서, 프로세서(134)는 메모리 인터페이스(142)를 통해 메모리 장치(150)로 노멀 리드 커맨드를 제공할 수 있다.
한편, 메모리 장치(150)의 메모리 영역은 호스트(102)에서 사용되는 주소와 상이한 주소로 식별될 수 있다. 호스트 리드 요청 및 예측 리드 요청은 호스트(102)에서 사용되는 논리 주소 정보를 포함할 수 있다. 예를 들어, 상기 논리 주소는 호스트(102)의 운영 체제의 파일 시스템에서 사용되는 LBA(logical block address)일 수 있다. 프로세서(134)는 리드 요청의 논리 주소 정보를 물리 주소 정보로 변환하고, 상기 물리 주소 정보를 포함하는 리드 커맨드를 메모리 장치(150)의 메모리 다이들 중 어느 하나로 제공할 수 있다.
단계 S704에서, 메모리 다이(300)는 상기 노멀 리드 커맨드에 응하여 센싱 동작을 수행할 수 있다.
예를 들어, 메모리 다이(300)는 메모리 셀 어레이(330)에서 상기 물리 주소가 가리키는 메모리 셀들과 연관된 워드라인들에 리드 전압을 인가하여 비트라인들로부터 흐르는 전류를 센싱하고, 센싱 결과에 기초하여 리드하려는 메모리 셀의 데이터를 센싱 래치 그룹(402)에 래칭할 수 있다.
단계 S706에서, 메모리 다이(300)는 센싱된 데이터의 캐싱 동작을 수행할 수 있다.
예를 들어, 메모리 다이(300)는 센싱 래치 그룹(402)에 래칭된 데이터를 캐시 래치 그룹(404)에 래칭할 수 있다.
단계 S708에서, 메모리 다이(300)는 캐시 래치에 래칭된 데이터를 컨트롤러(130)의 메모리(144)로 출력하는 데이터 출력 동작을 수행할 수 있다.
도 7b를 참조하여 메모리 장치(150)의 캐시 리드 커맨드 동작이 설명된다.
단계 S722에서, 프로세서(134)는 메모리 인터페이스(142)를 통해 메모리 장치(150)로 제1 캐시 리드 커맨드를 제공할 수 있다.
예를 들어, 프로세서(134)는 리드 요청의 논리 주소 정보를 물리 주소 정보로 변환한 결과, 복수의 리드 요청들이 동일 메모리 다이에서 처리되어야 하는 경우 상기 리드 요청들에 기초하여 복수의 캐시 리드 커맨드들을 생성할 수 있다. 상기 제1 캐시 리드 커맨드는 상기 복수의 캐시 리드 커맨드들 중 어느 하나일 수 있다.
단계 S724에서, 메모리 다이(300)는 상기 제1 캐시 리드 커맨드에 대응하는 제1 데이터에 대한 센싱 동작을 수행할 수 있다.
예를 들어, 메모리 다이(300)는 메모리 셀 어레이(330)의 워드라인들에 리드 전압을 인가하여 비트라인들로부터 흐르는 전류를 센싱하고, 상기 센싱 결과에 기초하여 상기 제1 데이터를 센싱 래치 그룹(402)에 래칭할 수 있다.
단계 S726에서, 메모리 다이(300)는 상기 제1 데이터의 캐싱 동작을 수행할 수 있다. 캐싱 동작은 도 7b의 단계 S706을 참조하여 설명되었다.
단계 S728에서, 프로세서(134)는 메모리 인터페이스(142)를 통해 메모리 장치(150)로 제2 캐시 리드 커맨드를 제공할 수 있다. 제2 캐시 리드 커맨드는 상기 복수의 캐시 리드 커맨드들 중 제1 캐시 리드 커맨드에 후속하는 커맨드일 수 있다.
단계 S730에서, 메모리 다이(300)는 상기 제2 캐시 리드 커맨드에 응하여 캐시 래치 그룹에 래칭된 상기 제1 데이터를 메모리(144)로 출력함과 동시에 제2 캐시 리드 커맨드에 대응하는 제2 데이터에 대한 센싱 동작을 수행할 수 있다. 이후에, 메모리 다이(300)는 상기 센싱된 제2 데이터에 대한 래칭 동작을 수행할 수 있다.
메모리 다이(300)가 제1 및 제2 캐시 리드 커맨드 동작을 수행하는 경우 제2 캐시 리드 커맨드에 응하여 상기 제1 데이터를 출력하는 동작과 상기 제2 데이터를 센싱하는 동작이 동시에 수행될 수 있다. 따라서, 메모리 다이(300)가 연속하는 캐시 리드 커맨드 동작을 수행하는 경우는 연속하는 노멀 리드 커맨드 동작을 수행하는 경우에 비해 리드 동작 성능이 향상될 수 있다.
프로세서(134)는 물리 주소에 기초하여 메모리 장치(150)에서 데이터가 저장된 메모리 다이를 식별할 수 있다. 프로세서(134)는 메모리 시스템(110)의 리드 동작 성능을 향상시키기 위해 복수의 리드 요청들이 처리될 메모리 다이가 동일한지 여부에 따라 상기 리드 요청들에 기초하여 노멀 리드 커맨드들 또는 캐시 리드 커맨드들을 선택적으로 생성할 수 있다. 예를 들어, 프로세서(134)는 예측 리드 요청이 선행하는 호스트 리드 요청과 동일한 메모리 다이에서 처리되는 경우 상기 호스트 리드 요청 및 예측 리드 요청에 대응하는 캐시 리드 커맨드들을 생성할 수 있다. 반면에, 프로세서(134)는 예측 리드 커맨드가 선행하는 호스트 리드 커맨드와 다른 메모리 다이에서 수행되는 경우, 상기 예측 리드 커맨드에 응하여 인터리브 리드 방식으로 리드 동작을 수행하도록 메모리 장치(150)를 제어할 수 있다.
도 8은 예측 리드 동작 및 선행하는 호스트 리드 동작이 캐시 리드 커맨드들을 사용하여 수행되는 경우의 타이밍도이다.
프로세서(134)는 상기 호스트 리드 요청 및 예측 리드 요청이 동일한 메모리 다이에서 처리되어야 하는 경우 상기 호스트 리드 요청에 대응하는 호스트 캐시 리드 커맨드 및 예측 리드 요청에 대응하는 예측 캐시 리드 커맨드를 생성할 수 있다.
예를 들어, 상기 호스트 리드 요청 및 예측 리드 요청은 모두 제1 메모리 다이(DIE1)에서 처리될 수 있다. 프로세서(134)는 호스트 캐시 리드 커맨드 및 예측 캐시 리드 커맨드를 제1 메모리 다이(DIE1)로 순차적으로 제공할 수 있다.
도 8을 참조하면, 제1 메모리 다이(DIE1)는 상기 호스트 캐시 리드 커맨드에 응하여 호스트 데이터 청크의 센싱 동작 및 캐싱 동작을 수행할 수 있다. 제1 메모리 다이(DIE1)는 후속하는 예측 캐시 리드 커맨드에 응하여 호스트 데이터 청크의 출력 동작을 수행함과 동시에 예측 데이터 청크의 센싱 동작을 수행할 수 있다. 이후에, 제1 메모리 다이(DIE1)는 상기 센싱된 예측 데이터 청크의 캐싱 동작을 수행하여 상기 예측 데이터 청크를 캐시 래치에 래칭할 수 있다.
제1 메모리 다이(DIE1)는 상기 예측 캐시 리드 커맨드에 응하여 예측 데이터 청크를 페이지 버퍼에 래칭함으로써 상기 예측 데이터 청크를 준비할 수 있다. 상기 캐시 래치에 래칭된 예측 데이터의 출력 동작은 선택적으로 수행될 수 있다. 예를 들어, 호스트(102)로부터 상기 예측 데이터가 요청되는 경우 프로세서(134)는 상기 요청에 응하여 제1 메모리 다이(DIE1)로 데이터 출력 커맨드를 제공할 수 있다. 제1 메모리 다이(DIE1)는 상기 데이터 출력 커맨드에 응하여 상기 예측 데이터의 출력 동작을 수행할 수 있다. 프로세서(134)는 메모리(144)로 출력된 상기 예측 데이터를 호스트(102)로 제공할 수 있다. 반면에, 제1 메모리 다이(DIE1)는 상기 데이터 출력 커맨드를 수신하기 전에 다른 커맨드를 수신하면, 상기 예측 데이터를 상기 캐시 래치에서 제거할 수 있다.
컨트롤러(130)가 동일 메모리 다이에 포함된 호스트 데이터 청크 및 예측 데이터 청크를 획득하기 위해서 캐시 리드 커맨드들을 사용하면, 노멀 리드 커맨드들을 사용하는 경우에 비해 예측 데이터 청크를 더욱 빠르게 획득할 수 있다.
한편, 도 1을 참조하여 설명된 것과 같이 메모리 장치(150)는 복수의 메모리 다이들을 포함할 수 있다. 복수의 메모리 다이들은 리드 커맨드에 응하여 병렬로 리드 동작을 수행할 수 있다. 프로세서(134)는 복수의 메모리 다이들에 대한 리드 커맨드들을 인터리브할 수 있다. 커맨드들을 인터리브한다는 것은 프로세서(134)가 복수의 메모리 다이들에 순차적으로 커맨드가 제공될 수 있도록 커맨드 제공 순서를 결정하는 것을 지칭할 수 있다.
도 9는 예측 리드 동작 및 선행하는 호스트 리드 동작이 인터리브된 노멀 리드 커맨드들을 사용하여 수행되는 경우의 타이밍도이다.
상기 호스트 리드 커맨드는 제1 메모리 다이(DIE1)에서 수행되고, 상기 예측 리드 커맨드는 제2 메모리 다이(DIE2)에서 수행될 수 있다. 제1 및 제2 메모리 다이(DIE1, DIE2)는 제1 채널(CH1)을 통해서 순차적으로 리드 커맨드를 수신할 수 있다. 그러나, 일단 리드 커맨드를 수신하면 제1 및 제2 메모리 다이(DIE1, DIE2)는 서로 병렬로 동작할 수 있다.
프로세서(134)는 상기 호스트 리드 요청 및 예측 리드 요청이 서로 다른 메모리 다이에서 처리되어야 하는 경우 상기 호스트 리드 요청 및 예측 리드 요청에 각각 대응하는 호스트 노멀 리드 커맨드 및 예측 노멀 리드 커맨드를 생성할 수 있다. 그리고, 프로세서(134)는 상기 호스트 노멀 리드 커맨드 및 예측 노멀 리드 커맨드를 인터리브할 수 있다. 메모리 인터페이스(142)는 상기 인터리브된 상기 호스트 리드 커맨드 및 예측 리드 커맨드를 제1 및 제2 메모리 다이(DIE1, DIE2)에 순차적으로 제공할 수 있다.
제1 메모리 다이(DIE1)는 상기 호스트 리드 커맨드에 응하여 호스트 데이터 청크의 센싱 동작, 캐싱 동작 및 출력 동작을 수행할 수 있으며, 제2 메모리 다이(DIE2)는 상기 예측 리드 커맨드에 응하여 예측 데이터 청크의 센싱 동작, 캐싱 동작 및 출력 동작을 수행할 수 있다. 상기 센싱 동작, 캐싱 동작 및 출력 동작은 도 7a를 참조하여 설명되었다.
제2 메모리 다이(DIE2)는 상기 예측 노멀 리드 커맨드에 응하여 예측 데이터 청크를 메모리(144)에 버퍼링함으로써 상기 예측 데이터 청크를 준비할 수 있다. 호스트(102)로부터 상기 예측 데이터 청크가 요청되는 경우, 프로세서(134)는 메모리(144)로 출력된 상기 예측 데이터 청크를 호스트(102)로 제공할 수 있다. 한편, 정해진 조건을 만족할 때까지 호스트(102)로부터 상기 예측 데이터가 요청되지 않으면, 프로세서(134)는 메모리(144)로 출력된 상기 예측 데이터를 제거할 수 있다.
도 9를 참조하면, 호스트 노멀 리드 커맨드 및 예측 노멀 리드 커맨드의 각 동작은 동시에 수행될 수 있으므로, 컨트롤러(130)는 호스트(102)에 의해 요청될 것으로 예측되는 데이터를 신속하게 획득할 수 있다.
도 10은 본 발명의 실시 예에 따른 컨트롤러(130)의 동작을 나타낸다.
단계 S1002에서, 프로세서(134)는 호스트(102)로부터 최근 수신한 라지 청크 리드 요청들의 주소 정보를 수집할 수 있다.
예를 들어, 상기 라지 청크 리드 요청은 정해진 크기 이상의 데이터 청크에 대한 리드 요청을 지칭할 수 있다. 즉, 프로세서(134)는 호스트(102)로부터의 리드 요청에 포함되는 데이터 길이 정보가 임계값 이상인 리드 요청들의 주소 정보만을 수집할 수 있다. 한편, 상기 주소 정보는 논리 주소 정보를 포함할 수 있다.
단계 S1004에서, 프로세서(134)는 상기 논리 주소 정보에 기초하여 데이터 스트림을 검출할 수 있다.
예를 들어, 프로세서(134)는 수집된 주소 정보에서 정해진 개수 이상의 주소들이 연속하는 것을 검출하면, 상기 주소가 연속하는 데이터 청크들이 하나의 데이터 스트림에 포함되는 것으로 판단함으로써 데이터 스트림을 검출할 수 있다. 구현에 따라, 프로세서(134)는 서로 동일한 길이를 갖고 주소가 연속하는 데이터 청크들을 검출함으로써 데이터 스트림을 검출할 수 있다.
프로세서(134)는 상기 검출된 데이터 스트림에 스트림 ID를 부여할 수 있다. 프로세서(134)는 스트림 ID별 시작 주소, 데이터 길이 및 마지막 주소 정보를 도 6을 참조하여 설명된 스트림 테이블(600)에 업데이트할 수 있다.
단계 S1006에서, 프로세서(134)는 상기 검출된 데이터 스트림에 기초하여 호스트(102)로부터 요청될 데이터 청크의 논리 주소를 예측할 수 있다.
예를 들어, 프로세서(134)는 스트림 테이블(600)의 스트림 ID별 시작 주소, 데이터 길이 및 마지막 주소 정보에 기초하여 스트림 ID별로 호스트(102)로부터 요청될 데이터 청크의 시작 주소를 예측할 수 있다. 그리고, 상기 데이터 길이에 기초하여 상기 요청될 데이터 청크의 데이터 길이를 예측할 수 있다. 프로세서(134)는 상기 예측된 주소 정보를 스트림 테이블(600)에 업데이트할 수 있다.
단계 S1008에서, 프로세서(134)는 스트림 테이블(600)의 스트림 ID별 데이터 길이 및 예측된 주소 정보에 기초하여 스트림 ID별 예측 리드 요청을 생성할 수 있다.
단계 S1010에서, 프로세서(134)는 상기 예측 리드 요청에 대응하는 예측 리드 커맨드를 생성할 수 있다.
예를 들어, 프로세서(134)는 리드 커맨드들을 메모리 장치(150)로 제공하기 위해, 대응하는 리드 요청들의 논리 주소 정보를 물리 주소 정보로 변환할 수 있다. 프로세서(134)는 상기 예측 리드 요청 및 선행하는 리드 요청의 물리 주소 정보들에 기초하여 상기 예측 리드 요청 및 상기 예측 리드 요청에 선행하는 리드 요청이 처리될 메모리 다이가 동일한지 여부를 판단할 수 있다.
프로세서(134)는 상기 예측 리드 요청 및 상기 예측 리드 요청에 선행하는 리드 요청이 처리될 메모리 다이가 동일한 경우, 상기 예측 리드 요청 및 선행하는 리드 요청에 대응하는 캐시 리드 커맨드들을 생성할 수 있다.
프로세서(134)는 상기 예측 리드 요청 및 선행하는 리드 요청이 처리될 메모리 다이가 서로 다른 경우 상기 예측 리드 요청 및 선행하는 리드 요청에 대응하는 노멀 리드 커맨드들을 생성하고, 상기 노멀 리드 커맨드들을 인터리브할 수 있다.
단계 S1012에서, 프로세서(134)는 메모리 인터페이스(142)를 통해 메모리 장치(150)로 예측 리드 커맨드를 제공할 수 있다.
메모리 장치(150)는 상기 예측 리드 커맨드에 응하여 호스트(102)로부터 요청될 것으로 예측되는, 예측 데이터 청크를 미리 준비할 수 있다. 예를 들어, 메모리 장치(150)는 예측 노멀 리드 커맨드에 응하여 상기 예측 데이터 청크를 메모리(144)로 출력할 수 있다. 그리고, 메모리 장치(150)는 예측 캐시 리드 커맨드에 응하여 상기 예측 데이터 청크를 캐시 래치에 래칭할 수 있다.
단계 S1014에서, 프로세서(134)는 호스트(102)로부터의 상기 예측된 주소를 갖는 데이터 청크에 대한 리드 요청에 응하여, 상기 준비된 데이터 청크를 호스트(102)로 제공할 수 있다.
본 발명의 실시 예에 따르면, 컨트롤러(130)는 리드 커맨드들의 주소 정보에 기초하여 하나 이상의데이터 스트림을 검출하고, 데이터 스트림별로 예측 데이터 청크를 결정하고, 메모리 장치(150)가 상기 예측 데이터 청크를 미리 준비하도록 제어할 수 있다. 컨트롤러(130)는 호스트(102)가 컨트롤러(130)로 스트림 ID를 제공하지 않더라도 데이터 스트림별로 예측 리드 동작을 수행할 수 있으므로, 메모리 시스템(110)의 리드 동작 성능을 향상시킬 수 있다.
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
110: 메모리 시스템
130: 컨트롤러
150: 메모리 장치

Claims (20)

  1. 메모리 장치를 제어하는 컨트롤러에 있어서,
    호스트 리드 요청들에 연관된 호스트 데이터 청크들 중 주소가 연속하는 호스트 데이터 청크들을 포함하는 하나 이상의 데이터 스트림을 검출하고, 상기 검출된 데이터 스트림별로 예측 데이터 청크를 결정하고, 상기 메모리 장치가 상기 예측 데이터 청크를 준비하도록 상기 메모리 장치를 제어하고, 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 준비된 예측 데이터 청크를 상기 호스트로 제공하는 프로세서; 및
    상기 호스트로 제공하기 위한 예측 데이터 청크를 버퍼링하는 메모리
    를 포함하는 컨트롤러.
  2. 제1항에 있어서,
    상기 프로세서는
    상기 데이터 스트림별로 상기 연속하는 데이터 청크들과 주소가 연속하는 데이터 청크를 상기 예측 데이터 청크로 결정하는
    컨트롤러.
  3. 제1항에 있어서,
    상기 프로세서는
    상기 호스트 데이터 청크들 중 각각이 서로 동일한 길이를 갖고 정해진 길이 이상 연속하는 호스트 데이터 청크들을 검출하고, 상기 검출된 호스트 데이터 청크들이 하나의 데이터 스트림에 포함되는 것으로 결정함으로써 상기 하나 이상의 데이터 스트림을 검출하는
    컨트롤러.
  4. 제1항에 있어서,
    상기 프로세서는
    상기 호스트 리드 청크들 중 데이터 길이가 임계값 이상인 데이터 청크들을 검출하고, 상기 검출된 데이터 청크들 중 서로 연속하는 데이터 청크들을 검출함으로써 상기 하나 이상의 데이터 스트림을 검출하는
    컨트롤러.
  5. 제1항에 있어서,
    상기 프로세서는
    상기 검출된 데이터 스트림별로 스트림 ID를 부여하는
    컨트롤러.
  6. 제1항에 있어서,
    상기 주소는 상기 호스트에서 사용되는 논리 주소이고,
    상기 프로세서는
    상기 예측 데이터 청크에 대응하는 예측 리드 요청을 생성하고, 상기 예측 리드 요청 및 상기 예측 리드 요청에 선행하는 선행 리드 요청의 논리 주소를 상기 메모리 장치에 연관된 물리 주소로 변환하고, 상기 변환된 물리 주소들에 기초하여 상기 예측 리드 요청에 대응하는 예측 리드 커맨드 및 상기 선행 리드 요청에 대응하는 선행 리드 커맨드를 생성하는
    컨트롤러.
  7. 제6항에 있어서,
    상기 프로세서는
    상기 변환된 물리 주소들이 서로 동일 메모리 다이를 가리키는 경우, 상기 예측 리드 커맨드 및 선행 리드 커맨드로서 캐시 리드 커맨드들을 생성하는
    컨트롤러.
  8. 제7항에 있어서,
    상기 프로세서는
    상기 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 예측 리드 커맨드에 응하여 상기 메모리 장치의 페이지 버퍼에 준비된 데이터 청크를 상기 메모리에 버퍼링하고, 상기 버퍼링된 데이터 청크를 상기 호스트로 제공하는
    컨트롤러.
  9. 제6항에 있어서,
    상기 프로세서는
    상기 변환된 물리 주소들이 서로 다른 메모리 다이를 가리키는 경우, 상기 예측 리드 커맨드 및 선행 리드 커맨드로서 노멀 리드 커맨드들을 생성하고, 상기 생성된 노멀 리드 커맨드들을 인터리브(interleave)하는
    컨트롤러.
  10. 제9항에 있어서,
    상기 프로세서는
    상기 호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 예측 리드 커맨드에 응하여 상기 메모리에 준비된 예측 데이터 청크를 상기 호스트로 제공하는
    컨트롤러.
  11. 메모리 장치를 제어하는 컨트롤러에 있어서,
    호스트 리드 요청들에 연관된 호스트 데이터 청크들 중 주소가 연속하는 호스트 데이터 청크들을 포함하는 하나 이상의 데이터 스트림을 검출하는 단계;
    상기 검출된 데이터 스트림별로 예측 데이터 청크를 결정하는 단계;
    상기 메모리 장치가 상기 예측 데이터 청크를 준비하도록 상기 메모리 장치를 제어하는 단계; 및
    호스트로부터 상기 예측 데이터 청크에 대한 요청을 수신하면 상기 준비된 예측 데이터 청크를 상기 호스트로 제공하는 단계
    를 포함하는 동작 방법.
  12. 제11항에 있어서,
    상기 검출된 데이터 스트림별로 예측 데이터 청크를 결정하는 단계는
    상기 데이터 스트림별로 상기 연속하는 데이터 청크들과 주소가 연속하는 데이터 청크를 상기 예측 데이터 청크로 결정하는 단계를 포함하는
    동작 방법.
  13. 제11항에 있어서,
    하나 이상의 데이터 스트림을 검출하는 단계는
    상기 호스트 데이터 청크들 중 각각이 서로 동일한 길이를 갖고 정해진 길이 이상 연속하는 호스트 데이터 청크들을 검출하는 단계; 및
    상기 검출된 호스트 데이터 청크들이 하나의 데이터 스트림에 포함되는 것으로 결정하는 단계를 포함하는
    동작 방법.
  14. 제11항에 있어서,
    하나 이상의 데이터 스트림을 검출하는 단계는
    상기 호스트 리드 청크들 중 데이터 길이가 임계값 이상인 데이터 청크들을 검출하는 단계; 및
    상기 검출된 데이터 청크들 중 서로 연속하는 데이터 청크들을 검출함으로써 상기 하나 이상의 데이터 스트림을 검출하는 단계를 포함하는
    동작 방법.
  15. 제11항에 있어서,
    상기 검출된 데이터 스트림별로 스트림 ID를 부여하는 단계
    를 더 포함하는 동작 방법.
  16. 제11항에 있어서,
    상기 주소는 상기 호스트에서 사용되는 논리 주소이고,
    상기 메모리 장치가 상기 예측 데이터 청크를 준비하도록 상기 메모리 장치를 제어하는 단계는
    상기 예측 데이터 청크에 대응하는 예측 리드 요청을 생성하는 단계;
    상기 예측 리드 요청 및 상기 예측 리드 요청에 선행하는 선행 리드 요청의 논리 주소를 상기 메모리 장치에 연관된 물리 주소로 변환하는 단계; 및
    상기 변환된 물리 주소들에 기초하여 상기 예측 리드 요청에 대응하는 예측 리드 커맨드 및 상기 선행 리드 요청에 대응하는 선행 리드 커맨드를 생성하는 단계를 포함하는
    동작 방법.
  17. 제16항에 있어서,
    상기 예측 리드 커맨드 및 선행 리드 커맨드를 생성하는 단계는
    상기 변환된 물리 주소들이 서로 동일 메모리 다이를 가리키는 경우, 상기 예측 리드 커맨드 및 선행 리드 커맨드로서 캐시 리드 커맨드들을 생성하는 단계
    를 포함하는 동작 방법.
  18. 제17항에 있어서,
    상기 준비된 예측 데이터 청크를 상기 호스트로 제공하는 단계는
    상기 예측 리드 커맨드에 응하여 상기 메모리 장치의 페이지 버퍼에 준비된 데이터 청크를 상기 컨트롤러의 메모리에 버퍼링하는 단계; 및
    상기 버퍼링된 데이터 청크를 상기 호스트로 제공하는 단계를 포함하는
    동작 방법.
  19. 제16항에 있어서,
    상기 예측 리드 커맨드 및 선행 리드 커맨드를 생성하는 단계는
    상기 변환된 물리 주소들이 서로 다른 메모리 다이를 가리키는 경우, 상기 예측 리드 커맨드 및 선행 리드 커맨드로서 노멀 리드 커맨드들을 생성하는 단계; 및
    상기 생성된 노멀 리드 커맨드들을 인터리브(interleave)하는 단계를 포함하는
    동작 방법.
  20. 제19항에 있어서,
    상기 준비된 예측 데이터 청크를 상기 호스트로 제공하는 단계는
    상기 예측 리드 커맨드에 응하여 상기 컨트롤러의 메모리에 준비된 예측 데이터 청크를 상기 호스트로 제공하는 단계를 포함하는
    동작 방법.

KR1020200154396A 2020-11-18 2020-11-18 컨트롤러 및 컨트롤러의 동작방법 KR20220067776A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200154396A KR20220067776A (ko) 2020-11-18 2020-11-18 컨트롤러 및 컨트롤러의 동작방법
US17/336,633 US20220155995A1 (en) 2020-11-18 2021-06-02 Controller and operating method thereof
CN202110741072.1A CN114519019A (zh) 2020-11-18 2021-06-30 控制器及其操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200154396A KR20220067776A (ko) 2020-11-18 2020-11-18 컨트롤러 및 컨트롤러의 동작방법

Publications (1)

Publication Number Publication Date
KR20220067776A true KR20220067776A (ko) 2022-05-25

Family

ID=81586628

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200154396A KR20220067776A (ko) 2020-11-18 2020-11-18 컨트롤러 및 컨트롤러의 동작방법

Country Status (3)

Country Link
US (1) US20220155995A1 (ko)
KR (1) KR20220067776A (ko)
CN (1) CN114519019A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220413757A1 (en) * 2021-06-24 2022-12-29 Western Digital Technologies, Inc. Write Performance by Relocation During Sequential Reads
US11797228B2 (en) 2021-06-24 2023-10-24 Western Digital Technologies, Inc. Efficient handling of background operations for improving sustained performance of host reads and writes

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160075174A (ko) * 2014-12-19 2016-06-29 에스케이하이닉스 주식회사 메모리 시스템 및 그 동작방법
US11048624B2 (en) * 2017-04-25 2021-06-29 Samsung Electronics Co., Ltd. Methods for multi-stream garbage collection
US10579538B2 (en) * 2018-02-21 2020-03-03 Western Digital Technologies, Inc. Predicting addresses in non-volatile storage
US11188256B2 (en) * 2018-06-19 2021-11-30 Western Digital Technologies, Inc. Enhanced read-ahead capability for storage devices
JP2020047335A (ja) * 2018-09-18 2020-03-26 キオクシア株式会社 不揮発性メモリ及びメモリシステム
US10877896B2 (en) * 2019-03-07 2020-12-29 Micron Technology, Inc. Adaptive readahead cache manager based on detected active streams of read commands
US11023380B2 (en) * 2019-09-10 2021-06-01 Western Digital Technologies, Inc. Non-volatile storage system with filtering of data samples for a monitored operational statistic
JP2021043908A (ja) * 2019-09-13 2021-03-18 キオクシア株式会社 メモリシステムおよび制御方法
US10997080B1 (en) * 2020-02-11 2021-05-04 Western Digital Technologies, Inc. Method and system for address table cache management based on correlation metric of first logical address and second logical address, wherein the correlation metric is incremented and decremented based on receive order of the first logical address and the second logical address

Also Published As

Publication number Publication date
US20220155995A1 (en) 2022-05-19
CN114519019A (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
US11537483B2 (en) Controller for managing superblocks and operation method thereof
KR20190087217A (ko) 데이터 저장 장치 및 그것의 동작 방법
US11226895B2 (en) Controller and operation method thereof
US10860231B2 (en) Memory system for adjusting map segment based on pattern and operating method thereof
US10802761B2 (en) Workload prediction in memory system and method thereof
KR20200059936A (ko) 메모리 시스템 및 메모리 시스템의 동작방법
KR20200086472A (ko) 컨트롤러, 데이터 저장 장치 및 그것의 동작 방법
US20190369880A1 (en) Memory system and operating method thereof
US20200379681A1 (en) Memory system and operating method thereof
US20220155995A1 (en) Controller and operating method thereof
KR20220077573A (ko) 메모리 시스템 및 메모리 시스템의 동작방법
KR20220050407A (ko) 컨트롤러 및 컨트롤러의 동작방법
KR20200044460A (ko) 메모리 시스템 및 그것의 동작방법
US11675537B2 (en) Controller for performing data input/output operation and memory management operation at the same time and operation method thereof
KR20200055281A (ko) 메모리 시스템 및 메모리 시스템의 동작방법
KR20200068259A (ko) 컨트롤러 및 컨트롤러의 동작방법
CN110309075B (zh) 存储器控制器以及具有存储器控制器的存储器系统
CN111240585A (zh) 控制器、包括控制器的存储器系统及其操作方法
KR20210012329A (ko) 메모리 시스템 및 메모리 시스템의 동작 방법
US20190155700A1 (en) Memory system and method of operating the same
US20220229595A1 (en) Controller and operation method thereof
KR20190041082A (ko) 데이터 저장 장치 및 그것의 동작 방법
KR20200071282A (ko) 메모리 시스템 및 메모리 시스템의 동작방법
US11645008B2 (en) Memory system and operating method thereof for controlling a multi-plane read operation
KR20210152760A (ko) 컨트롤러 및 메모리 시스템