KR20220067797A - 메모리 컨트롤러 - Google Patents

메모리 컨트롤러 Download PDF

Info

Publication number
KR20220067797A
KR20220067797A KR1020200154440A KR20200154440A KR20220067797A KR 20220067797 A KR20220067797 A KR 20220067797A KR 1020200154440 A KR1020200154440 A KR 1020200154440A KR 20200154440 A KR20200154440 A KR 20200154440A KR 20220067797 A KR20220067797 A KR 20220067797A
Authority
KR
South Korea
Prior art keywords
request
write
tpu
controller
read
Prior art date
Application number
KR1020200154440A
Other languages
English (en)
Inventor
김주현
김도훈
김진영
신기범
연제완
이광순
Original Assignee
에스케이하이닉스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이하이닉스 주식회사 filed Critical 에스케이하이닉스 주식회사
Priority to KR1020200154440A priority Critical patent/KR20220067797A/ko
Priority to US17/227,140 priority patent/US11675537B2/en
Priority to CN202110716219.1A priority patent/CN114518839A/zh
Publication of KR20220067797A publication Critical patent/KR20220067797A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/161Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement
    • G06F13/1615Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement using a concurrent pipeline structrure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1008Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's in individual solid state devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0238Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
    • G06F12/0246Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0253Garbage collection, i.e. reclamation of unreferenced memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0292User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/20Handling requests for interconnection or transfer for access to input/output bus
    • G06F13/28Handling requests for interconnection or transfer for access to input/output bus using burst mode transfer, e.g. direct memory access DMA, cycle steal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0613Improving I/O performance in relation to throughput
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0658Controller construction arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0679Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7201Logical to physical mapping or translation of blocks or pages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7205Cleaning, compaction, garbage collection, erase control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7208Multiple device management, e.g. distributing data over multiple flash devices

Abstract

메모리 장치를 제어하는 컨트롤러는, 호스트로부터 논리 주소를 포함하는 요청을 수신하는 요청 수신부; 상기 요청 수신부로부터 획득한 요청이 미완료된 요청에 대해 의존성을 갖는지 여부를 판단하는 의존성 확인부; 의존성을 갖지 않는 요청의 논리 주소에 매핑된 물리 주소에 대한 커맨드를 생성하는 맵 관리자; 및 상기 맵 관리자로부터 획득한 커맨드를 상기 메모리 장치로 제공하는 커맨드 제출부를 포함하고, 상기 요청 수신부, 의존성 확인부, 맵 관리자 및 커맨드 제출부는 파이프라인 방식으로 동작한다.

Description

메모리 컨트롤러 {MEMORY CONTROLLER}
본 발명은 메모리 장치를 제어하는 컨트롤러에 관한 것이다.
최근 컴퓨터 환경에 대한 패러다임(paradigm)이 언제, 어디서나 컴퓨터 시스템을 사용할 수 있도록 하는 유비쿼터스 컴퓨팅(ubiquitous computing)으로 전환되고 있다. 이로 인해 휴대폰, 디지털 카메라, 노트북 컴퓨터 등과 같은 휴대용 전자 장치의 사용이 급증하고 있다. 이와 같은 휴대용 전자 장치는 일반적으로 메모리 장치를 이용하는 메모리 시스템, 다시 말해 데이터 저장 장치를 사용한다. 데이터 저장 장치는 휴대용 전자 장치의 주 기억 장치 또는 보조 기억 장치로 사용된다.
비휘발성 메모리 장치를 이용한 데이터 저장 장치는 하드 디스크와 달리 기계적인 구동부가 없어서 안정성 및 내구성이 뛰어나며, 또한 정보의 액세스 속도가 매우 빠르고 전력 소모가 적다는 장점이 있다. 이러한 장점을 갖는 메모리 시스템의 일 예로 데이터 저장 장치는, USB(Universal Serial Bus) 메모리 장치, 다양한 인터페이스를 갖는 메모리 카드, 솔리드 스테이트 드라이브(SSD: Solid State Drive) 등을 포함한다.
본 발명은 데이터 입출력 동작과 메모리 관리 동작을 동시에 수행함으로써 메모리 시스템의 성능을 향상시킬 수 있는 컨트롤러 및 그의 동작 방법을 제공하고자 한다.
본 발명은 파이프라인을 사용하여 데이터 입출력 동작의 처리량(throughput)을 향상시킬 수 있는 컨트롤러 및 그의 동작 방법을 제공하고자 한다.
본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 이하의 실시 예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
본 발명의 실시 예에 따르면, 메모리 장치를 제어하는 컨트롤러는, 호스트로부터 논리 주소를 포함하는 요청을 수신하는 요청 수신부; 상기 요청 수신부로부터 획득한 요청이 미완료된 요청에 대해 의존성을 갖는지 여부를 판단하는 의존성 확인부; 의존성을 갖지 않는 요청의 논리 주소에 매핑된 물리 주소에 대한 커맨드를 생성하는 맵 관리자; 및 상기 맵 관리자로부터 획득한 커맨드를 상기 메모리 장치로 제공하는 커맨드 제출를 포함하고, 상기 요청 수신부, 의존성 확인부, 맵 관리자 및 커맨드 제출부는 파이프라인 방식으로 동작한다.
또한, 상기 요청 수신부는 라이트 요청을 복수의 요청들로 슬라이싱하고 상기 슬라이싱된 요청을 상기 의존성 확인부로 제공하는 라이트 입출력 TPU (tensor processing unit); 리드 요청을 상기 의존성 확인부로 제공하는 리드 입출력 TPU; 및 상기 호스트로부터 수신된 요청의 유형에 따라 상기 수신된 요청을 상기 라이트 입출력 TPU 또는 리드 입출력 TPU로 제공하는 호스트 TPU를 포함할 수 있다.
또한, 상기 맵 관리자는 상기 의존성 확인부로부터의 리드 요청의 논리 주소에 대응하는 물리 주소를 탐색하는 호스트 리드 TPU; 및 상기 탐색된 물리 주소에 기초하여 상기 리드 요청에 대응하는 리드 커맨드를 생성하는 사후 TPU를 포함할 수 있다.
또한, 상기 커맨드 제출부는 상기 리드 커맨드를 상기 메모리 장치로 제공하는 채널 DMA를 제어하는 채널 TPU; 상기 메모리 장치로부터 상기 리드 커맨드에 대응하는 리드 데이터를 획득하고, 상기 획득된 라이트 데이터에 ECC 디코딩을 수행하는 리드 경로를 제어하는 리드 경로 TPU; 및 상기 리드 TPU 및 채널 TPU를 제어하는 FIL 코어를 포함할 수 있다.
또한, 상기 컨트롤러는 호스트의 논리 주소와 상기 메모리 장치의 물리 주소를 매핑하여 맵 데이터를 생성하는 주소 매핑 동작을 수행하고, 백그라운드 동작(background operation)을 수행하고, 상기 요청의 예외처리를 수행하는 CPU(central processing unit); 및 상기 맵 데이터를 포함하는 맵 테이블을 저장하는 메모리를 더 포함할 수 있다.
또한, 상기 의존성 확인부는 상기 요청 수신부로부터 획득한 요청이 미완료된 트림 요청에 대해 의존성을 갖는 경우 상기 CPU로 예외처리를 요청하는 체크 TPU를 포함할 수 있다.
또한, 상기 체크 TPU는 미완료된 트림 요청의 논리 주소 정보를 포함하는 트림 비트맵을 참조하여 상기 획득한 요청의 논리 주소와 상기 미완료된 트림 요청의 논리 주소가 일치하는 경우 상기 획득한 요청이 미완료된 트림 요청에 대해 의존성을 갖는 것으로 결정할 수 있다.
또한, 상기 CPU는 상기 획득한 요청이 라이트 요청인 경우 상기 예외처리 요청에 응하여 상기 미완료된 트림 요청의 처리가 완료될 때까지 상기 획득한 요청의 처리를 지연시킬 수 있다.
또한, 상기 CPU는 상기 획득한 요청이 리드 요청인 경우 상기 예외처리 요청에 응하여 상기 획득한 요청에 대응하는 논리 주소가 트림되었다는 응답을 상기 호스트로 제공할 수 있다.
또한, 상기 의존성 확인부는 상기 획득한 요청이 미완료된 라이트 요청에 대해 의존성을 갖는 경우 상기 CPU로 예외처리를 요청하는 라이트 캐시 TPU를 포함할 수 있다.
또한, 상기 라이트 캐시 TPU는 미완료된 라이트 요청의 논리 주소 정보를 포함하는 라이트 캐시를 참조하여 상기 획득한 요청의 논리 주소와 상기 미완료된 라이트 요청의 논리 주소가 일치하는 경우, 상기 획득한 요청이 미완료된 라이트 요청에 대해 의존성을 갖는 것으로 결정할 수 있다.
또한, 상기 CPU는 상기 획득한 요청이 라이트 요청인 경우 상기 예외처리 요청에 응하여 상기 미완료된 라이트 요청의 처리가 완료될 때까지 상기 획득한 요청의 처리를 지연시킬 수 있다.
또한, 상기 CPU는 상기 획득한 요청이 리드 요청인 경우 상기 예외처리 요청에 응하여 상기 메모리로부터 상기 미완료된 라이트 요청에 연관된 데이터를 탐색하고, 상기 탐색된 데이터를 상기 호스트로 제공할 수 있다.
또한, 상기 CPU는 상기 메모리 장치에서 상기 맵 테이블의 적어도 일부가 프로그램될 메모리 영역의 물리 주소를 결정하고, 상기 물리 주소를 포함하는 맵 플러시 요청을 생성할 수 있다.
또한, 상기 맵 관리자는 상기 CPU에 의해 결정된 물리 주소를 사용하여 상기 맵 테이블을 업데이트하는 맵 플러시 TPU; 및 상기 결정된 물리 주소에 기초하여 상기 맵 플러시 요청에 대응하는 라이트 커맨드를 생성하는 사후 TPU를 포함할 수 있다.
또한, 상기 컨트롤러는 의존성을 갖지 않는 라이트 요청들에 연관된 라이트 데이터가 스트라이핑 되도록 상기 라이트 요청들을 종합하고, 상기 종합된 라이트 요청에 대한 주소 매핑 요청을 상기 CPU로 제공하는 라이트 종합부를 더 포함할 수 있다.
또한, 상기 파이프라인은 하나 이상의 의존성 확인부 및 라이트 종합부를 더 포함하고, 상기 복수의 의존성 확인부 들은 병렬로 동작하고, 상기 복수의 라이트 종합부들은 병렬로 동작할 수 있다.
또한, 상기 라이트 종합부는 상기 의존성 확인부로부터 획득한 라이트 요청을 큐잉하는 라이트 큐 TPU; 및 상기 큐잉된 라이트 요청들의 라이트 데이터를 스트라이핑함으로써 상기 큐잉된 라이트 요청들을 종합하고, 상기 종합된 라이트 요청들을 상기 CPU로 제공하는 플러시 TPU를 더 포함할 수 있다.
또한, 상기 플러시 TPU는 상기 라이트 큐 TPU에 정해진 수의 라이트 요청들이 큐잉되면, 상기 라이트 데이터에 포함되는 데이터 청크들이 상기 메모리 장치에 포함되는 복수의 메모리 다이들에 분산되어 프로그램될 수 있도록 각 데이터 청크의 어드레스의 일부를 결정함으로써 상기 라이트 데이터를 스트라이핑할 수 있다.
또한, 상기 CPU는 상기 주소 매핑 요청에 응하여 상기 종합된 라이트 요청의 논리 주소와 상기 메모리 장치의 물리 주소를 매핑함으로써 맵 데이터를 생성할 수 있다.
또한, 상기 맵 관리자는 상기 CPU에 의해 생성된 맵 데이터를 사용하여 상기 맵 테이블을 업데이트하는 올-라이트 TPU; 및 상기 매핑된 물리 주소에 기초하여 상기 라이트 요청에 대응하는 라이트 커맨드를 생성하는 사후 TPU를 포함할 수 있다.
또한, 상기 커맨드 제출부는 상기 라이트 커맨드에 대응하는 라이트 데이터를 획득하고, 상기 획득된 라이트 데이터에 ECC(error correction code) 인코딩을 수행하는 라이트 경로를 제어하는 라이트 경로 TPU; 상기 라이트 커맨드 및 상기 라이트 경로로부터의 데이터를 상기 메모리 장치로 제공하는 채널 DMA(direct memory access)를 제어하는 채널 TPU; 및 상기 라이트 경로 TPU 및 채널 TPU를 제어하는 FIL(flash interface layer)코어를 포함할 수 있다.
또한, 상기 CPU는 상기 가비지 컬렉션 동작의 소스 블록 및 목적지 블록을 결정하고, 상기 소스 블록에 대한 리드 요청을 생성하여 상기 맵 관리자로 제공하고, 상기 리드 요청에 연관된 데이터가 상기 메모리에 버퍼링되면 상기 목적지 블록에 대한 라이트 요청을 생성하여 상기 라이트 종합부로 제공할 수 있다.
또한, 상기 맵 관리자는 상기 맵 테이블을 참조하여 상기 CPU로부터의 가비지 컬렉션 리드 요청의 논리 주소에 대응하는 물리 주소를 탐색하는 가비지 컬렉션 리드 TPU를 더 포함할 수 있다.
또한, 상기 컨트롤러는 상기 CPU, 요청 수신부, 의존성 확인부, 맵 관리자 및 커맨드 제출부의 관여 없이 상기 호스트와 상기 메모리의 데이터 입출력을 수행하는 호스트 DMA(direct memory access)를 더 포함할 수 있다.
본 발명은 데이터 입출력 동작과 메모리 관리 동작을 동시에 수행함으로써 메모리 시스템의 성능을 향상시킬 수 있는 컨트롤러 및 그의 동작 방법을 제공할 수 있다.
본 발명은 파이프라인을 사용하여 데이터 입출력 동작의 처리량(throughput)을 향상시킬 수 있는 컨트롤러 및 그의 동작 방법을 제공할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시 예에 따른 메모리 시스템을 포함하는 데이터 처리 시스템의 일 예를 개략적으로 도시한 도면이다.
도 2는 메모리 장치 내의 메모리 셀 어레이의 예시적인 구성을 나타낸 회로도이다.
도 3은 본 발명의 실시 예에 따른 컨트롤러를 개략적으로 나타낸다.
도 4는 본 발명의 실시 예에 따른 컨트롤러의 라이트 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예에 따른 컨트롤러의 리드 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 실시 예에 따른 컨트롤러의 백그라운드 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 실시 예에 따른 컨트롤러를 상세히 나타낸다.
도 8 내지 도 10은 호스트의 라이트 요청에 대한 컨트롤러의 동작을 설명하기 위한 도면이다.
11 내지 도 13은 호스트의 리드 요청에 대한 컨트롤러의 동작을 설명하기 위한 도면이다.
도 14는 본 발명의 실시 예에 따른 컨트롤러를 개략적으로 나타낸다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구성될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.
도 1은 본 발명의 실시 예에 따른 메모리 시스템을 포함하는 데이터 처리 시스템의 일 예를 개략적으로 도시한 도면이다.
도 1을 참조하면, 데이터 처리 시스템(100)은, 호스트(102) 및 메모리 시스템(110)을 포함한다.
호스트(102)는 전자 장치, 예를 들어 휴대폰, MP3 플레이어, 랩탑 컴퓨터 등과 같은 휴대용 전자 장치들, 또는 데스크탑 컴퓨터, 게임기, TV, 프로젝터 등과 같은 전자 장치들을 포함할 수 있다.
호스트(102)는 적어도 하나의 운영 체제(OS: operating system)를 포함할 수 있다. 운영 체제는 호스트(102)의 기능 및 동작을 전반적으로 관리 및 제어하고, 데이터 처리 시스템(100) 또는 메모리 시스템(110)을 사용하는 사용자와 호스트(102) 간에 상호 동작을 제공한다. 운영 체제는 사용자의 사용 목적 및 용도에 상응한 기능 및 동작을 지원하며, 호스트(102)의 이동성(mobility)에 따라 일반 운영 체제와 모바일 운영 체제로 구분할 수 있다. 운영 체제에서의 일반 운영 체제는, 사용자의 사용 환경에 따라 개인용 운영 체제와 기업용 운영 체제로 구분할 수 있다.
메모리 시스템(110)은 호스트(102)의 요청에 응하여 호스트(102)의 데이터를 저장하기 위해 동작할 수 있다. 예를 들어, 메모리 시스템(110)은 솔리드 스테이트 드라이브(SSD: Solid State Drive), MMC, eMMC(embedded MMC), RS-MMC(Reduced Size MMC), micro-MMC 형태의 멀티 미디어 카드(MMC: Multi Media Card), SD, mini-SD, micro-SD 형태의 시큐어 디지털(SD: Secure Digital) 카드, USB(Universal Serial Bus) 저장 장치, UFS(Universal Flash Storage) 장치, CF(Compact Flash) 카드, 스마트 미디어(Smart Media) 카드, 메모리 스틱(Memory Stick) 등과 같은 다양한 종류의 저장 장치들 중 어느 하나로 구현될 수 있다.
메모리 시스템(110)은 다양한 종류의 저장 장치에 의해 구현될 수 있다. 예를 들어, 상기 저장 장치는 DRAM(Dynamic Random Access Memory), SRAM(Static RAM) 등과 같은 휘발성 메모리 장치와, ROM(Read Only Memory), MROM(Mask ROM), PROM(Programmable ROM), EPROM(Erasable ROM), EEPROM(Electrically Erasable ROM), FRAM(Ferromagnetic ROM), PRAM(Phase change RAM), MRAM(Magnetic RAM), RRAM(Resistive RAM), 플래시 메모리 등과 같은 비휘발성 메모리 장치를 포함할 수 있다. 상기 플래시 메모리는 3차원 스택 구조를 가질 수 있다.
메모리 시스템(110)은 메모리 장치(150) 및 컨트롤러(130)를 포함할 수 있다. 메모리 장치(150)는 호스트(102)를 위한 데이터를 저장할 수 있으며, 컨트롤러(130)는 메모리 장치(150)로의 데이터 저장을 제어할 수 있다.
컨트롤러(130) 및 메모리 장치(150)는 하나의 반도체 장치로 집적될 수 있다. 일 예로, 컨트롤러(130) 및 메모리 장치(150)는 하나의 반도체 장치로 집적되어 SSD를 구성할 수 있다. 메모리 시스템(110)이 SSD로 사용되면, 메모리 시스템(110)에 연결된 호스트(102)의 동작 속도는 향상될 수 있다. 게다가, 컨트롤러(130) 및 메모리 장치(150)는, 하나의 반도체 장치로 집적되어 메모리 카드를 구성할 수도 있다. 예를 들어, 컨트롤러(130) 및 메모리 장치(150)는 PC 카드(PCMCIA: Personal Computer Memory Card International Association), 컴팩트 플래시 카드(CF), 스마트 미디어 카드(SM, SMC), 메모리 스틱, 멀티미디어 카드(MMC, RS-MMC, MMCmicro), SD 카드(SD, miniSD, microSD, SDHC), 유니버설 플래시 기억 장치(UFS) 등과 같은 메모리 카드를 구성할 수 있다.
다른 일 예로, 메모리 시스템(110)은, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 태블릿 컴퓨터(tablet computer), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 블랙박스(black box), 디지털 카메라(digital camera), DMB(Digital Multimedia Broadcasting) 재생기, 3차원 텔레비전(3-dimensional television), 스마트 텔레비전(smart television), 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 영상 녹화기(digital picture recorder), 디지털 영상 재생기(digital picture player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 데이터 센터를 구성하는 스토리지, 정보를 무선 환경에서 송수신할 수 있는 장치, 홈 네트워크를 구성하는 다양한 전자 장치들 중 하나, 컴퓨터 네트워크를 구성하는 다양한 전자 장치들 중 하나, 텔레매틱스 네트워크를 구성하는 다양한 전자 장치들 중 하나, RFID(radio frequency identification) 장치, 또는 컴퓨팅 시스템을 구성하는 다양한 구성 요소들 중 하나 등을 구성할 수 있다.
메모리 장치(150)는 비휘발성 메모리 장치일 수 있으며, 전원이 공급되지 않아도 저장된 데이터를 유지할 수 있다. 메모리 장치(150)는 프로그램 동작을 통해 호스트(102)로부터 제공된 데이터를 저장할 수 있고, 리드 동작을 통해 호스트(102)로 메모리 장치(150)는 저장된 데이터를 제공할 수 있다. 메모리 장치(150)는 복수의 채널들(CH1, CH2) 및 복수의 웨이들(WAY1, WAY2)을 통해 컨트롤러(130)와 연결된 복수의 메모리 다이들(DIE1, DIE2)을 포함할 수 있다.
메모리 장치(150)는 플래시 메모리 장치일 수 있다. 플래시 메모리 장치는 메모리 셀 트랜지스터들로 구성된 메모리 셀 어레이에 데이터를 저장할 수 있다. 플래시 메모리 장치는 메모리 다이, 플레인, 메모리 블록 및 페이지 계층 구조를 가질 수 있다. 하나의 메모리 다이는 한 번에 하나의 커맨드를 수신할 수 있다. 플래시 메모리는 복수의 메모리 다이를 포함할 수 있다. 하나의 메모리 다이는 복수의 플레인을 포함할 수 있으며, 상기 복수의 플레인은 상기 메모리 다이가 수신한 커맨드를 병렬로 처리할 수 있다. 각 플레인은 복수의 메모리 블록을 포함할 수 있다. 메모리 블록은 이레이즈 동작의 최소 단위일 수 있다. 하나의 메모리 블록은 복수의 페이지를 포함할 수 있다. 페이지는 라이트 동작의 최소 단위일 수 있다.
메모리 셀은 하나의 메모리 셀에 저장할 수 있는 비트의 수에 따라 단일 레벨 셀(SLC: Single Level Cell), 멀티 레벨 셀(MLC: Multi Level Cell), 트리플 레벨 셀(TLC: Triple Level Cell) 또는 쿼드러플 레벨 셀(QLC: Quadruple Level Cell)로 지칭될 수 있다.
상기 메모리 셀의 레벨에 따라 하나의 워드라인에 연결된 메모리 셀들은 복수의 논리 페이지를 포함할 수 있다. 예를 들어, TLC 메모리 블록의 각 워드라인은 논리 페이지로서 MSB(most significant bit) 페이지, CSB(central significant bit) 페이지, LSB(least significant bit) 페이지와 연관될 수 있다.
본 발명의 일 실시예에 따르면, 메모리 장치(150)는 플래시 메모리, 예를 들어 NAND 플래시 메모리와 같은 비휘발성 메모리로 설명된다. 그러나, 메모리 장치(150)는 상변환 메모리(PCRAM: Phase Change Random Access Memory), 저항 메모리(RRAM(ReRAM): Resistive Random Access Memory), 강유전체 메모리(FRAM: Ferroelectrics Random Access Memory), 및 스핀 주입 자기 메모리(STT-RAM(STT-MRAM): Spin Transfer Torque Magnetic Random Access Memory) 등과 같은 메모리들 중 어느 하나의 메모리로 구현될 수도 있다.
도 2는 메모리 장치(150) 내의 메모리 셀 어레이의 예시적인 구성을 나타낸 회로도이다.
도 2를 참조하면, 메모리 장치(150)에 포함된 메모리 블록(330)은 복수의 비트라인들(BL0 내지 BLm-1)과 연결된 복수의 셀 스트링들(340)을 포함할 수 있다. 각 열(column)의 셀 스트링(340)은 적어도 하나의 드레인 선택 트랜지스터(DST)와 적어도 하나의 소스 선택 트랜지스터(SST)를 포함할 수 있다. 드레인 선택 트랜지스터(DST) 및 소스 선택 트랜지스터(SST) 사이에 복수 개의 메모리 셀들(MC0 to MCn-1)이 직렬로 연결될 수 있다. 각각의 메모리 셀들(MC0 to MCn-1)은 셀 당 복수의 비트들의 데이터 정보를 저장하는 MLC로 구현될 수 있다. 각각의 셀 스트링들(340)은 대응하는 비트라인들(BL0 to BLm-1)에 각각 전기적으로 연결될 수 있다. 예를 들어, 도 2에 도시된 바와 같이 제1 셀 스트링은 제1 비트라인(BL0)과 연결되고, 마지막 셀 스트링은 마지막 비트라인(BLm-1)과 연결될 수 있다. 참고로, 도 2에서 ‘DSL’은 드레인 선택 라인, ‘SSL’은 소스 선택 라인, ‘CSL’은 공통 소스 라인을 나타낸다.
메모리 장치(150)는 동작 모드에 따라 워드라인들로 공급하기 위한 프로그램 전압, 리드 전압, 패스 전압을 포함하는 워드라인 전압들을 제공하는 전압 공급부(310)를 더 포함할 수 있다. 전압 공급부(310)의 전압 생성 동작은 제어회로(미도시)에 의해 제어될 수 있다. 상기 제어회로의 제어 하에, 전압 공급부(310)는 메모리 셀 어레이의 메모리 블록들(또는 섹터들) 중 하나를 선택할 수 있고, 상기 선택된 메모리 블록의 워드라인들 중 하나를 선택할 수 있으며, 상기 워드라인 전압을 선택 워드라인으로 제공하고, 필요에 따라 비선택 워드라인으로 제공할 수 있다.
메모리 장치(150)는 제어회로에 의해 제어되는 리드/라이트 회로(320)를 포함할 수 있다. 검증/정상 리드 동작 중에, 리드/라이트 회로(320)는 메모리 셀 어레이로부터 데이터를 리드하기 위해 감지 증폭기로서 동작할 수 있다. 프로그램 동작 중에, 리드/라이트 회로(320)는 상기 메모리 셀 어레이에 저장될 데이터에 따라 비트라인들을 구동하는 라이트 드라이버로서 동작할 수 있다. 프로그램 동작 중에, 리드/라이트 회로(320)는 버퍼(미도시)로부터 상기 메모리 셀 어레이에 저장될 데이터를 수신하고, 상기 수신된 데이터에 따라 비트라인들을 구동할 수 있다. 리드/라이트 회로(320)는 각각이 열(column)들(또는 비트라인들) 또는 열쌍(column pair)들(또는 비트라인 쌍들)과 대응하는 복수의 페이지 버퍼들(322 내지 326)을 포함할 수 있으며, 각각의 페이지 버퍼들(322 내지 326)은 복수의 래치들(미도시)을 포함할 수 있다.
다시 도 1을 참조하면, 컨트롤러(130)는 호스트(102)로부터 수신된 요청에 응하여 포그라운드 동작(foreground operation) 수행할 수 있다. 예를 들어, 컨트롤러(130)는 호스트(102)로부터의 라이트(write) 요청에 응하여 메모리 장치(150)의 프로그램(program) 동작을 제어하고, 리드 요청에 응하여 메모리 장치(150)의 리드(read) 동작을 제어할 수 있다.
호스트(102)가 컨트롤러(130)로 제공하는 라이트 요청 또는 리드 요청에는 호스트(102)에서 사용되는 논리 주소가 포함될 수 있다. 예를 들어, 상기 논리 주소는 호스트(102)의 운영 체제의 파일 시스템에서 사용되는 LBA(logical block address)일 수 있다.
메모리 장치(150)의 메모리 영역은 상기 논리 주소와 상이한 물리 주소로 식별될 수 있다. 예를 들어, 메모리 장치(150)의 페이지마다 서로 다른 물리 주소가 할당될 수 있다. 컨트롤러(130)는 메모리 장치(150)를 제어하기 위해 논리 주소와 물리 주소를 매핑하여 맵 데이터를 생성할 수 있다. 컨트롤러(130)는 논리 주소들을 기준으로 상기 논리 주소들에 대응하는 물리 주소들을 나타내는 맵 데이터를 내부 메모리에 맵 테이블 포맷으로 저장할 수 있다.
맵 테이블에 저장되는 맵 데이터의 최소 단위는 맵 엔트리(map entry)로 지칭될 수 있다. 예를 들어, 하나의 맵 엔트리는 메모리 장치(150)의 한 페이지 이상의 데이터에 대응할 수 있다. 하나의 맵 엔트리는 대응하는 데이터와 연관된 논리 주소 및 물리 주소 정보를 포함할 수 있다. 페이지의 크기가 4KB인 경우, 구현에 따라 4KB의 데이터마다 하나의 맵 엔트리가 대응되거나 16KB의 데이터마다 하나의 맵 엔트리가 대응될 수 있다. 그러나, 하나의 맵 엔트리에 대응하는 데이터의 크기는 본 예시로 제한되지 않는다.
메모리 장치(150)는 프로그램 동작의 단위와 이레이즈 동작의 단위가 상이하고, 덮어쓰기를 지원하지 않는 특성을 가질 수 있다. 따라서, 컨트롤러(130)는 어떤 논리 주소에 연관된 데이터를 변경하기 위해서 상기 논리 주소 및 물리 주소의 기존 매핑을 해제하고, 메모리 장치(150)의 다른 영역에 상기 변경될 데이터를 프로그램하고, 상기 논리 주소 및 상기 변경된 데이터가 프로그램된 영역의 물리 주소를 매핑하여 새로운 맵 데이터를 생성하고, 상기 생성된 맵 데이터를 사용하여 맵 테이블을 업데이트할 수 있다. 예를 들어, 컨트롤러(130)는 논리 주소와 물리 주소의 매핑이 변경되면 새로운 맵 엔트리를 생성하고, 상기 생성된 맵 엔트리를 이용하여 상기 메모리에 저장된 맵 테이블을 업데이트할 수 있다.
컨트롤러(130)는 호스트(102)의 트림(trim) 요청에 응하여 논리 주소 및 물리 주소의 기존 매핑을 해제할 수도 있다. 트림 요청은 호스트(102)가 더 이상 사용되지 않는 논리 주소에 대한 정보를 제공함으로써 메모리 시스템(110)이 사용되지 않는 논리 주소의 매핑을 해제하도록 하는 요청을 지칭할 수 있다.
이하에서, 논리 주소와 물리 주소를 매핑하거나, 논리 주소와 물리 주소의 기존 매핑을 해제함으로써 맵 데이터를 변경하는 동작은 주소 매핑 동작으로 지칭된다. 상기 주소 매핑 동작을 제외하고, 호스트(102)의 요청에 응하여 메모리 장치(150)에 액세스하기 위한 일련의 동작은 데이터 입출력 동작으로 지칭된다.
컨트롤러(130)는 상기 데이터 입출력 동작을 수행하기 위해 상기 맵 테이블을 참조하여 논리 주소를 물리 주소로 변환(translation)할 수 있다. 예를 들어 리드 요청을 처리하기 위해, 컨트롤러(130)는 상기 맵 테이블에서 상기 리드 요청의 논리 주소를 포함하는 맵 엔트리를 탐색할 수 있다. 컨트롤러(130)는 상기 맵 엔트리에 기초하여 논리 주소를 물리 주소로 변환할 수 있다. 그리고, 컨트롤러(130)는 상기 물리 주소가 가리키는 영역에서 데이터를 리드하도록 메모리 장치(150)를 제어할 수 있다.
컨트롤러(130)는 상기 포그라운드 동작뿐만 아니라 메모리 장치(150)에 대한 백그라운드 동작(background operation)을 수행할 수 있다. 예를 들어, 메모리 장치(150)에 대한 백그라운드 동작은 가비지 컬렉션 동작, 웨어 레벨링 동작, 맵 업데이트 동작, 메모리 블록 관리 동작 등을 포함할 수 있다.
컨트롤러(130)는 CPU(central processing unit)와 같은 프로세서를 포함할 수 있다. 만약 CPU가 상기 데이터 입출력 동작, 주소 매핑 동작 및 백그라운드 동작을 모두 수행하는 경우, 컨트롤러(130)는 하나의 CPU만을 사용해서는 메모리 시스템(110)의 규격(specification)이 요구하는 처리량(throughput)을 발휘하기 어려울 수 있다. 예를 들어, 하나의 CPU에서 가비지 컬렉션 동작이 수행되는 중 데이터 입출력 동작이 요구되면, 상기 가비지 컬렉션 동작을 종료한 뒤에 상기 데이터 입출력 동작을 수행할 수 있다. 가비지 컬렉션 동작을 종료한 뒤에 상기 데이터 입출력 동작을 수행하면 데이터 입출력 동작이 지연되고, 처리량이 저하될 수 있다.
만약 컨트롤러(130)가 복수의 CPU를 포함하고 상기 복수의 CPU가 상기 데이터 입출력 동작, 주소 매핑 동작 및 백그라운드 동작을 병렬로 제어한다면 메모리 시스템(110)의 처리량이 향상될 수도 있다. 그러나, 컨트롤러(130)의 CPU의 개수가 증가하는 만큼 컨트롤러(130) 칩(chip)의 크기가 증가하고, 전력 소비량도 증가할 수 있다.
본 발명의 실시 예에 따르면, 컨트롤러(130)는 하나 이상의 CPU 및 복수의 TPU(tensor processing unit)들을 포함할 수 있다. 상기 복수의 TPU들은 상기 CPU의 관여 없이 상기 데이터 입출력 동작을 수행할 수 있다. 상기 CPU는 상기 주소 매핑 동작 및 백그라운드 동작을 포함하는 메모리 관리 동작을 수행할 수 있다. 도 1은 상기 CPU를 포함하는 제어 영역(210)과 상기 복수의 TPU들을 포함하는 입출력 영역(230)을 개략적으로 도시한다.
상기 CPU 및 복수의 TPU들 각각은 동시에 동작할 수 있다. 따라서, 컨트롤러(130)는 상기 메모리 관리 동작과 데이터 입출력 동작을 병렬로 수행할 수 있다. 상기 메모리 관리 동작과 데이터 입출력 동작이 병렬로 수행되면, 상기 메모리 관리 동작에 의해 상기 데이터 입출력 동작이 지연되지 않고, 데이터 입출력 동작의 처리량이 향상될 수 있다.
상기 CPU는 범용 프로세서로서 다양한 연산을 지원하기 위해 다수의 논리 게이트, 예를 들어 700만 논리 게이트로 구현될 수 있다. 반면에, 상기 TPU는 상기 다양한 연산들 중 일부 연산들에 특화된 프로세서로서 상기 CPU보다 적은 수의 논리 게이트, 예를 들어 20만 논리 게이트로 구현될 수 있다. 따라서, 컨트롤러(130)가 복수의 TPU를 이용하여 데이터 입출력 동작을 수행하더라도, 복수의 CPU가 상기 데이터 입출력 동작, 주소 매핑 동작 및 백그라운드 동작을 병렬로 수행하는 경우에 비해 컨트롤러(130)의 칩 크기가 작아지고, 전력 소비량도 감소할 수 있다.
한편, 상기 데이터 입출력 동작을 위해 각 TPU에서 펌웨어가 구동될 수 있다. 메모리 시스템(110)의 부팅 시, 메모리 장치(150)에 저장된 펌웨어들이 컨트롤러(130) 내부의 메모리로 로드되고, 각 TPU에서 구동될 수 있다. 메모리 장치(150)에 저장된 펌웨어들은 변경될 수 있다. 변경이 어려운 하드웨어 회로를 사용하여 데이터 입출력 동작을 사용하는 경우에 비해, 복수의 TPU를 사용하여 데이터 입출력 동작을 수행하는 경우에 컨트롤러(130)가 다양한 사용 환경에 유연하게 적용될 수 있다.
또한, 상기 복수의 TPU들은 데이터 입출력 동작의 처리량을 향상시키기 위해 파이프라인을 구성할 수 있다. 상기 복수의 TPU들이 파이프라인을 구성하는 경우의 컨트롤러(130)에 대해 도 3을 참조하여 자세히 설명된다.
도 3은 본 발명의 실시 예에 따른 컨트롤러(130)를 개략적으로 나타낸다. 구체적으로, 도 3은 컨트롤러(130)를 기능별로 세분화한 블록도이다.
도 1을 참조하여 설명된 바와 같이, 컨트롤러(130)는 제어 영역(210) 및 입출력 영역(230)을 포함할 수 있다. 제어 영역(210)은 도 1을 참조하여 설명된 메모리 관리 동작을 수행하고, 상기 데이터 입출력 동작의 예외처리를 수행할 수 있다. 제어 영역(210)은 FTL(flash translation layer, 212)이라는 펌웨어로 구현될 수 있다.
입출력 영역(230)은 논리 블록들로서 요청 수신부(232), 의존성 확인부(234), 라이트 종합부(236), 맵 관리자(238) 및 NVM 커맨드 제출부(242)를 포함할 수 있다. 입출력 영역(230)에 포함되는 각 논리 블록들은 하나 이상의 펌웨어로 구현될 수 있다. 그리고, 각 논리 블록들은 데이터 입출력 동작을 위한 파이프라인을 구성할 수 있다. 입출력 영역(230)은 예외적인 경우를 제외하면, 어떤 요청을 처리하기 위해 제어 영역(210)의 관여 없이 상기 요청에 대응하는 데이터 입출력 동작을 수행할 수 있다. 예를 들어, 상기 예외적인 경우는 상기 요청을 처리하기 위해 주소 매핑 동작이 필요한 경우나 상기 요청이 앞서 수신된 요청에 대해 의존성(dependency)을 갖는 경우를 포함할 수 있다. 상기 요청이 의존성을 갖는 경우에 대해서는 이하에서 자세히 설명된다.
입출력 영역(230)은 상기 데이터 입출력 동작의 예외적인 경우가 발생하면 제어 영역(210)으로 예외 신호를 제공할 수 있다. 제어 영역(210)은 상기 예외 신호에 응하여 상기 데이터 입출력 동작을 수행할 수 있다.
제어 영역(210)은 상기 메모리 관리 동작을 수행할 수 있다. 제어 영역(210)이 상기 메모리 관리 동작을 수행하기 위해 데이터 입출력 동작을 수행하는 경우가 있다. 예를 들어, 제어 영역(210)이 가비지 컬렉션 동작을 수행하기 위해 메모리 장치(150)의 리드 동작과 프로그램 동작을 제어할 필요가 있다. 제어 영역(210)은 입출력 영역(230)으로 제어 신호를 제공함으로써 상기 메모리 관리 동작을 수행하기 위해 필요한 데이터 입출력 동작을 수행하도록 제어할 수 있다.
이하에서, 입출력 영역(230)에 포함되는 각 논리 블록들의 기능이 설명된다.
요청 수신부(232)는 호스트(102)로부터 요청을 수신할 수 있다. 요청 수신부(232)는 수신된 요청을 분석(parsing)하고, 수신된 요청의 유형을 결정할 수 있다. 예를 들어, 상기 요청의 유형은 리드 요청, 라이트 요청 및 트림 요청 중 어느 하나로 결정될 수 있다.
요청 수신부(232)는 상기 요청과 연관된 데이터의 크기에 따라, 상기 요청을 복수의 요청들로 슬라이싱(slicing)할 수 있다.
요청 수신부(232)는 호스트(102)의 커맨드(command) 및 데이터를 처리하며, USB(Universal Serial Bus), MMC(Multi-Media Card), PCI-E(Peripheral Component Interconnect-Express), SAS(Serial-attached SCSI), SATA(Serial Advanced Technology Attachment), PATA(Parallel Advanced Technology Attachment), SCSI(Small Computer System Interface), ESDI(Enhanced Small Disk Interface), IDE(Integrated Drive Electronics), MIPI(Mobile Industry Processor Interface) 등과 같은 다양한 인터페이스 프로토콜들 중 적어도 하나를 통해 호스트(102)와 통신하도록 구성될 수 있다.
의존성 확인부(234)는 요청 수신부(232)로부터 수신된 요청이 의존성(dependency)을 갖는지 판단할 수 있다. 의존성 확인부(234)는 앞서 수신되었으나 미완료된 요청이 상기 수신된 요청의 처리 순서에 영향을 주는 경우 상기 수신된 요청이 의존성을 갖는다고 판단할 수 있다.
예를 들어, 앞서 수신된 트림 요청이 미완료된 경우 상기 미완료된 트림 요청과 연관된 논리 주소와 물리 주소 간 매핑이 아직 해제되지 않을 수 있다. 그리고 앞서 수신된 라이트 요청이 미완료된 경우 상기 라이트 요청에 연관된 데이터가 아직 메모리 장치(150)에 프로그램되지 않을 수 있다. 상기 수신된 요청의 논리 주소가 미완료된 트림 요청 또는 미완료된 라이트 요청의 논리 주소와 일치하는 경우, 상기 미완료된 트림 요청 또는 상기 미완료된 라이트 요청이 상기 수신된 요청보다 먼저 처리되지 않으면 상기 논리 주소에 대한 데이터가 메모리 장치(150)에 정상적으로 저장되지 않을 수 있다. 의존성 확인부(234)는 상기 수신된 요청의 논리 주소가 미완료된 트림 요청 또는 미완료된 라이트 요청의 논리 주소와 일치하는 경우 상기 수신된 요청이 의존성을 갖는다고 판단할 수 있다.
의존성 확인부(234)는 라이트 요청에 응하여 메모리 장치(150)에서 프로그램이 완료되기 전까지 상기 라이트 요청에 연관된 논리 주소를 캐싱하고, 트림 요청에 응하여 상기 트림 요청과 연관된 논리 주소와 물리 주소 간 매핑이 해제되기 전까지 상기 트림 요청에 연관된 논리 주소를 비트맵으로 표시할 수 있다. 의존성 확인부(234)는 요청 수신부(232)로부터 수신된 요청에 연관된 논리 주소가 상기 캐싱된 논리 주소 및 상기 비트맵으로 표시된 논리 주소에 해당하는 경우 상기 논리 주소가 의존성을 갖는다고 판단할 수 있다.
라이트 종합부(236)는 의존성 확인부(234)로부터 수신된 라이트 요청들을 라이트 큐에 큐잉하고, 상기 큐잉된 라이트 요청들을 종합할 수 있다. 라이트 요청들을 종합하는 동작은 상기 큐잉된 라이트 요청들에 연관된 데이터를 스트라이핑(striping)하는 동작을 포함할 수 있다.
도 1에 도시된 복수의 메모리 다이들(DIE1 to DIE2)은 프로그램 또는 리드 동작을 병렬로 수행할 수 있다. 그리고, 각 메모리 다이는 메모리 블록의 메모리 셀 레벨에 따라 하나의 워드라인에 연관된 복수의 논리 페이지들을 동시에 프로그램하는 원 샷 프로그램을 수행할 수 있다.
스트라이핑은 복수의 데이터 청크들이 복수의 메모리 다이들에 분산되어 프로그램될 수 있도록 각 데이터 청크의 웨이 어드레스를 결정하는 동작을 포함할 수 있다. 그리고, 스트라이핑은 복수의 데이터 청크들이 원 샷 프로그램될 수 있도록 각 데이터 청크의 논리 페이지 어드레스를 결정하는 동작을 더 포함할 수 있다. 라이트 종합부(236)는 상기 큐잉된 라이트 요청들에 연관된 데이터 크기의 합이 정해진 크기에 도달하면 상기 데이터를 스트라이핑할 수 있다. 상기 정해진 크기는 페이지 크기, 하나의 채널에 포함된 메모리 다이의 수 및 메모리 셀 레벨에 기초하여 결정될 수 있다. 이하에서 상기 정해진 크기를 스트라이핑 사이즈로 지칭한다.
데이터가 스트라이핑되면 복수의 메모리 다이들(DIE1 to DIE2)은 데이터를 동시에 프로그램하고, 상기 데이터를 동시에 리드할 수 있으므로 메모리 시스템(110)의 처리량이 향상될 수 있다. 라이트 종합부(236)는 상기 종합된 라이트 요청에 대한 논리 주소들의 주소 매핑이 수행될 수 있도록 FTL(212)로 예외 신호를 제공할 수 있다.
맵 관리자(238)는 요청에 응하여 논리 주소를 물리 주소로 변환하고, 상기 물리 주소에 기초하여 메모리 장치(150)로 제공하기 위한 커맨드를 생성할 수 있다. 그리고, 맵 관리자(238)는 FTL(212)의 주소 매핑 동작으로 인해 변경된 맵 데이터를 메모리(144)에 업데이트하고, FTL(212)의 맵 플러시(flush) 요청에 응하여 메모리(144)에 저장된 맵 테이블의 적어도 일부를 메모리 장치(150)에 저장할 수 있다.
NVM 커맨드 제출부(242)는 상기 생성된 커맨드를 이용하여 메모리 장치(150)를 제어할 수 있다.
NVM 커맨드 제출부(242)는 컨트롤러(130)가 호스트(102)로부터의 요청에 응답하여 메모리 장치(150)를 제어하도록, 컨트롤러(130)와 메모리 장치(150) 간의 인터페이싱을 위한 메모리/스토리지(storage) 인터페이스로서의 역할을 할 수 있다. 메모리 장치(150)가 플래시 메모리, 특히 NAND 플래시 메모리인 경우, NVM 커맨드 제출부(242)는 메모리 장치(150)를 위한 제어 신호를 생성하고, CPU(134)의 제어 하에 메모리 장치(150)로 제공되는 데이터를 처리할 수 있다. NVM 커맨드 제출부(242)는 컨트롤러(130)와 메모리 장치(150) 사이의 커맨드 및 데이터를 처리하기 위한 인터페이스, 예를 들어 NAND 플래시 인터페이스로서 동작할 수 있다.
도 4는 본 발명의 실시 예에 따른 컨트롤러(130)의 라이트 동작을 설명하기 위한 도면이다.
단계 S402에서, 요청 수신부(232)는 호스트(102)로부터 라이트 요청을 수신할 수 있다.
한편, 상기 라이트 요청에 대응하는 라이트 데이터는 호스트 DMA(direct memory access, 미도시)를 통해 제어 영역(210) 및 입출력 영역(230)의 관여 없이 컨트롤러(130) 내부 버퍼에 버퍼링될 수 있다. 상기 버퍼에 상기 라이트 데이터의 버퍼링이 완료되면 요청 수신부(232)는 호스트(102)로 응답을 제공할 수 있다.
단계 S404에서, 의존성 확인부(234)는 요청 수신부(232)로부터 수신된 요청이 앞서 수신되었으나 미완료된 요청에 의존성을 갖는지 여부를 판단할 수 있다.
상기 수신된 요청이 의존성을 갖지 않는 경우(단계 S404에서, "NO"), 의존성 확인부(234)는 상기 수신된 요청을 라이트 종합부(236)로 제공할 수 있다. 단계 S408에서, 라이트 종합부(236)는 상기 수신된 요청을 라이트 큐에 큐잉할 수 있다.
상기 수신된 요청이 의존성을 갖는 경우(단계 S404에서, "YES"), 의존성 확인부(234)는 FTL(212)로 예외 신호를 제공할 수 있다. 단계 S406에서, FTL(212)은 상기 미완료된 요청의 처리가 완료될 때까지 상기 수신된 요청의 수행을 지연시킬 수 있다. 상기 미완료된 요청의 처리가 완료되면, FTL(212)은 라이트 종합부(236)로 제어 신호를 제공할 수 있다. 라이트 종합부(236)는 상기 제어 신호에 응하여 단계 S408을 수행할 수 있다.
단계 S410에서, 라이트 종합부(236)는 상기 요청을 큐잉한 결과 라이트 큐에 큐잉된 요청들에 연관된 데이터가 정해진 스트라이핑 사이즈에 도달하였는지 판단할 수 있다.
상기 데이터가 정해진 스트라이핑 사이즈에 도달하지 않은 경우(단계 S410에서, "NO"), 라이트 종합부(236)는 상기 라이트 데이터를 버퍼에 버퍼링한 상태로 라이트 동작을 종료할 수 있다.
상기 데이터가 정해진 스트라이핑 사이즈에 도달한 경우(단계 S410에서, "YES"), 라이트 종합부(236)는 FTL(212)로 예외 신호를 제공할 수 있다. 단계 S412에서, FTL(212)은 상기 예외 신호에 응하여 라이트 큐에 큐잉된 라이트 요청들의 주소 매핑 동작을 수행함으로써 상기 라이트 요청들의 논리 주소를 물리 주소에 매핑할 수 있다. FTL(212)은 주소 매핑이 완료되면 맵 관리자(238)로 제어 신호를 제공할 수 있다.
단계 S414에서, 맵 관리자(238)는 주소 매핑 동작으로 인해 변경된 맵 데이터를 메모리(144)에 업데이트할 수 있다.
단계 S416에서, 맵 관리자(238)는 상기 라이트 요청들의 물리 주소에 기초하여 메모리 장치(150)를 제어하기 위한 라이트 커맨드를 생성할 수 있다.
단계 S418에서, NVM 커맨드 제출부(242)는 맵 관리자(238)로부터의 상기 라이트 커맨드에 기초하여 메모리 장치(150)의 프로그램 동작을 제어할 수 있다.
도 5는 본 발명의 실시 예에 따른 컨트롤러(130)의 리드 동작을 설명하기 위한 도면이다.
단계 S502에서, 요청 수신부(232)는 호스트(102)로부터 리드 요청을 수신할 수 있다.
단계 S504에서, 의존성 확인부(234)는 요청 수신부(232)로부터의 리드 요청이 미완료된 트림 요청에 의존성을 갖는지 여부를 판단할 수 있다.
상기 리드 요청이 미완료된 트림 요청에 의존성을 갖는 경우(단계 S504에서, "YES"), 상기 트림 요청과 연관된 논리 주소와 물리 주소 간 매핑이 아직 해제되지 않았을 수 있다. 그러나 호스트(102)는 상기 트림 요청을 이미 제공하였으므로 메모리 시스템(110)에 트림 요청이 반영될 것을 요구할 수 있다. S506에서 의존성 확인부(234)는 FTL(212)로 예외 신호를 제공할 수 있다. FTL(212)은 상기 예외 신호에 응하여, 요청 수신부(232)를 통해 상기 리드 요청에 연관된 논리 주소가 이미 트림되었다는 응답을 호스트(102)로 제공할 수 있다.
상기 리드 요청이 미완료된 트림 요청에 의존성을 갖지 않는 경우(단계 S504에서, "NO"), 단계 S508에서 의존성 확인부(234)는 상기 리드 요청이 미완료된 라이트 요청에 의존성을 갖는지 여부를 판단할 수 있다.
상기 리드 요청이 미완료된 라이트 요청에 의존성을 갖는 경우(단계 S508에서, "YES"), 상기 라이트 요청과 연관된 데이터는 메모리 장치(150)에 아직 프로그램되지 않고 버퍼에 버퍼링된 상태일 수 있다. 호스트(102)는 상기 라이트 요청을 이미 제공하였으므로, 상기 라이트 요청과 동일한 논리 주소의 리드 요청을 메모리 시스템(110)으로 제공하면 메모리 시스템(110)이 상기 데이터를 제공할 것을 요구할 수 있다. S510에서, 의존성 확인부(234)는 FTL(212)로 예외 신호를 제공할 수 있다. FTL(212)은 상기 예외 신호에 응하여, 상기 버퍼에 버퍼링된 데이터를 호스트(102)로 제공할 수 있다.
상기 리드 요청이 미완료된 라이트 요청에 의존성을 갖지 않는 경우(단계 S508에서, "NO"), 의존성 확인부(234)는 맵 관리자(238)로 상기 리드 요청을 제공할 수 있다. 단계 S512에서, 맵 관리자(238)는 컨트롤러(130)에 저장된 맵 데이터를 참조하여 상기 리드 요청의 논리 주소를 물리 주소로 변환할 수 있다.
단계 S514에서, 맵 관리자(238)는 상기 물리 주소에 기초하여 메모리 장치(150)를 제어하기 위한 리드 커맨드를 생성할 수 있다.
단계 S516에서, NVM 커맨드 제출부(242)는 맵 관리자(238)로부터의 리드 커맨드에 기초하여 메모리 장치(150)의 리드 동작을 제어할 수 있다.
도 6은 본 발명의 실시 예에 따른 컨트롤러(130)의 백그라운드 동작을 설명하기 위한 도면이다.
구체적으로, 도 6은 컨트롤러(130)의 가비지 컬렉션 동작을 설명한다. 컨트롤러(130)는 소스 블록들의 유효 데이터를 수집하여 목적지 블록에 저장하는 가비지 컬렉션 동작을 수행함으로써 메모리 장치(150)의 여유 공간을 확보할 수 있다.
단계 S602에서, FTL(212)은 가비지 컬렉션 동작을 트리거할 수 있다. FTL(212)은 가비지 컬렉션 동작을 수행하기 위해 메모리 장치(150)의 메모리 블록들 중에서 소스 블록 및 목적지 블록을 선택할 수 있다.
단계 S604에서, FTL(212)은 상기 소스 블록의 유효 데이터를 수집하기 위해, GC(garbage collection) 리드 요청을 생성할 수 있다. FTL(212)은 상기 GC 리드 요청을 수행하도록 맵 관리자(238)로 제어 신호를 제공할 수 있다.
단계 S606에서, 맵 관리자(238)는 컨트롤러(130)에 저장된 맵 데이터를 참조하여 상기 GC 리드 요청에 응하여 리드될 유효 데이터의 논리 주소 및 물리 주소를 결정할 수 있다. 맵 관리자(238)는 상기 유효 데이터의 물리 주소에 기초하여 리드 커맨드를 생성할 수 있다.
단계 S608에서, NVM 커맨드 제출부(242)는 상기 리드 커맨드에 기초하여 메모리 장치(150)의 리드 동작을 제어할 수 있다. 메모리 장치(150)로부터 리드된 데이터는 컨트롤러(130) 내부 버퍼에 버퍼링될 수 있다.
단계 S610에서, FTL(212)은 상기 버퍼링된 데이터를 위한 GC 라이트 요청을 생성할 수 있다. FTL(212)은 상기 GC 라이트 요청을 수행하도록 라이트 종합부(236)로 제어 신호를 제공할 수 있다.
단계 S612에서, 라이트 종합부(236)는 GC 라이트 요청을 라이트 큐에 큐잉할 수 있다. 구현에 따라, 호스트 라이트 요청과 상기 GC 라이트 요청은 서로 다른 라이트 큐에 큐잉될 수 있다. 라이트 종합부(236)는 라이트 큐에 큐잉된 GC 라이트 요청들에 연관된 데이터의 크기가 스트라이핑 사이즈에 도달할 때까지 GC 라이트 요청들을 라이트 큐에 큐잉할 수 있다. 라이트 종합부(236)는 상기 데이터의 크기가 스트라이핑 사이즈에 도달하면 FTL(212)로 예외 신호를 제공할 수 있다.
단계 S614에서, FTL(212)은 상기 데이터가 상기 목적지 블록에 저장될 수 있도록 GC 라이트 요청들의 논리 주소와 물리 주소 간 주소 매핑 동작을 수행할 수 있다. FTL(212)은 주소 매핑이 완료되면 맵 관리자(238)로 제어 신호를 제공할 수 있다.
단계 S616에서, 맵 관리자(238)는 주소 매핑 동작으로 인해 변경된 맵 데이터를 메모리(144)에 업데이트할 수 있다.
단계 S618에서, 맵 관리자(238)는 상기 라이트 요청들의 물리 주소에 기초하여 메모리 장치(150)를 제어하기 위한 라이트 커맨드를 생성할 수 있다.
단계 S620에서, NVM 커맨드 제출부(242)는 맵 관리자(238)로부터의 상기 라이트 커맨드에 기초하여 메모리 장치(150)의 프로그램 동작을 제어함으로써 소스 블록의 유효 데이터를 목적지 블록에 저장할 수 있다.
도 3을 참조하여 설명된 논리 블록들이 컨트롤러(130)에 구현되는 예가 도 7을 참조하여 구체적으로 설명된다.
도 7은 본 발명의 실시 예에 따른 컨트롤러(130)를 상세히 나타낸다.
컨트롤러(130)는 CPU(134), 복수의 TPU들 및 메모리(144)를 포함할 수 있다. 복수의 TPU들은 기능에 따라 그룹화될 수 있다. 도 3을 참조하면, 복수의 TPU들은 호스트 TPU 그룹(132), 캐시 TPU 그룹(136), 맵 TPU 그룹(138) 및 NVM TPU 그룹(142)으로 그룹화될 수 있다. 구현에 따라, 하나의 TPU 그룹은 LLC(last level cache, 미도시)를 공유할 수 있다.
CPU(134), 복수의 TPU들 및 메모리(144)는 버스(146)를 통해 서로 연결될 수 있다.
메모리(144)는 메모리 시스템(110) 및 컨트롤러(130)의 동작 메모리로서의 역할을 수행할 수 있으며, 메모리 시스템(110) 및 컨트롤러(130)의 구동을 위한 데이터를 저장할 수 있다. 예를 들어, 메모리(144)는 호스트(102)와 메모리 장치(150) 간에 입출력되는 데이터를 임시로 저장할 수 있다. 메모리(144)는 주소 변환 동작을 위한 맵 데이터를 저장할 수 있다. 그리고, 메모리(144)는 메모리 관리 동작을 위한 리드 카운트 정보, 유효 페이지 정보 및 저널 데이터와 같은 메타 데이터를 저장할 수 있다.
메모리(144)는 휘발성 메모리로 구현될 수 있다. 예를 들어, 메모리(144)는 정적 랜덤 액세스 메모리(SRAM: Static Random Access Memory), 또는 동적 랜덤 액세스 메모리(DRAM: Dynamic Random Access Memory) 등으로 구현될 수 있다. 메모리(144)는 컨트롤러(130) 내부 또는 외부에 배치될 수 있다. 도 1은 컨트롤러(130) 내부에 배치된 메모리(144)를 예시한다. 일 실시예에서, 메모리(144)는 메모리(144)와 컨트롤러(130) 사이의 데이터를 입출력하는 메모리 인터페이스를 갖는 외부 휘발성 메모리 장치로 구현될 수 있다.
호스트 TPU 그룹(132)은 도 3을 참조하여 설명된 요청 수신부(232)를 구동할 수 있다. 호스트 TPU 그룹(132)은 호스트 TPU(402), 라이트 입출력 TPU(404) 및 리드 입출력 TPU(406)을 포함할 수 있다.
호스트 TPU(402)는 호스트(102)로부터 수신된 요청을 분석하고, 상기 요청의 유형을 판단할 수 있다. 상기 요청이 라이트 요청인 경우 상기 요청을 라이트 입출력 TPU(404)로 제공하고, 상기 요청이 리드 요청인 경우 상기 요청을 리드 입출력 TPU(406)로 제공할 수 있다.
라이트 입출력 TPU(404)는 호스트 TPU(402)로부터 수신한 라이트 요청을 캐시 TPU 그룹(136)으로 제공할 수 있다. 라이트 입출력 TPU(404)는 상기 라이트 요청에 연관된 데이터의 크기에 따라 상기 요청을 복수의 요청들로 슬라이싱하고, 상기 슬라이싱된 복수의 요청들을 캐시 TPU 그룹(136)으로 제공할 수 있다. 예를 들어, 라이트 입출력 TPU(404)는 128KB 데이터에 대한 라이트 요청을 수신하면, 상기 라이트 요청을 주소 매핑의 최소 단위인 4KB 데이터에 대한 32개의 라이트 요청들로 슬라이싱할 수 있다. 주소 매핑의 최소 단위는 본 예시로 제한되지 않는다. 구현에 따라, 라이트 입출력 TPU(404)와 캐시 TPU 그룹(136)은 버스(146)와는 별개의 인터페이스로 연결될 수 있다.
리드 입출력 TPU(406)은 호스트 TPU(402)로부터 수신한 리드 요청을 캐시 TPU 그룹(136)으로 제공할 수 있다. 리드 입출력 TPU(406)은 라이트 입출력 TPU(404)와 유사하게 상기 리드 요청에 연관된 데이터의 크기에 따라 상기 요청을 복수의 요청들로 슬라이싱하고, 상기 슬라이싱된 복수의 요청들을 캐시 TPU 그룹(136)으로 제공할 수 있다. 구현에 따라, 리드 입출력 TPU(404)와 캐시 TPU 그룹(136)은 버스(146)와는 별개의 인터페이스로 연결될 수 있다.
캐시 TPU 그룹(136)은 도 3을 참조하여 설명된 의존성 확인부(234) 및 라이트 종합부(236)를 구동할 수 있다. 캐시 TPU 그룹(136)은 체크 TPU(422), 라이트 캐시 TPU(424), 라이트 큐 TPU(426) 및 플러시 TPU(428)를 포함할 수 있다.
의존성 확인부(234)는 체크 TPU(422) 및 라이트 캐시 TPU(424)에 의해 구동될 수 있다.
체크 TPU(422)는 라이트 입출력 TPU(404) 또는 리드 입출력 TPU(406)로부터 수신된 요청이 미완료된 트림 요청에 대해 의존성을 갖는지 여부를 판단할 수 있다.
트림 요청이 완료되기 전까지는 상기 트림 요청의 논리 주소의 매핑이 해제되었다는 정보가 맵 테이블에 반영되지 않을 수 있다. 만약 컨트롤러(130)가 트림 요청이 완료되기 전에 상기 트림 요청의 논리 주소와 동일한 논리 주소에 대한 리드 요청 또는 라이트 요청을 처리한다면 호스트(102)로 잘못된 데이터를 제공하거나, 호스트(102)로부터의 데이터가 메모리 장치(150)에 정상적으로 저장되지 않을 수 있다. 따라서, 체크 TPU(422)는 라이트 입출력 TPU(404) 또는 리드 입출력 TPU(406)로부터 수신된 요청의 논리 주소가 미완료된 트림 요청의 논리 주소와 일치하는지 여부를 판단할 수 있다.
예를 들어, 체크 TPU(422)는 라이트 입출력 TPU(404)로부터 트림 요청이 수신되면 상기 트림 요청의 논리 주소를 트림 비트맵에 표시할 수 있다. 체크 TPU(422)는 주기적으로 상기 트림 비트맵에 표시된 논리 주소들의 매핑을 해제하도록 CPU(134)로 예외 신호를 제공할 수 있다. 체크 TPU(422)는 CPU(134)에 의해 상기 트림 요청이 완료되면 상기 트림 비트맵의 표시를 해제할 수 있다.
체크 TPU(422)는 상기 트림 비트맵을 참조하여 상기 수신된 요청의 논리 주소가 미완료된 트림 요청의 논리 주소와 일치하는지 여부를 판단할 수 있다. 상기 수신된 요청의 논리 주소가 미완료된 트림 요청의 논리 주소와 일치하는 경우, 체크 TPU(422)는 상기 트림 요청이 완료된 이후에 상기 수신된 요청이 처리될 수 있도록 CPU(134)로 상기 수신된 요청에 대한 예외 신호를 제공할 수 있다. 체크 TPU(422)는 상기 수신된 요청이 미완료된 트림 요청의 논리 주소와 일치하지 않는 경우 상기 수신된 요청을 라이트 캐시 TPU(424)로 제공할 수 있다.
라이트 캐시 TPU(424)는 체크 TPU(422)로부터 수신된 요청이 미완료된 라이트 요청에 대해 의존성을 갖는지 여부를 판단할 수 있다.
만약 컨트롤러(130)가 어떤 논리 주소에 대한 라이트 요청이 완료되기 전에 상기 논리 주소에 대한 후속 요청을 처리한다면, 호스트(102)로 잘못된 데이터를 제공하거나 메모리 장치(150)에 잘못된 데이터를 저장할 수 있다.
라이트 캐시 TPU(424)는 라이트 캐시에 미완료된 라이트 요청에 대한 논리 주소 정보를 저장할 수 있다. 예를 들어, 라이트 캐시는 캐시 TPU 그룹(136)의 LLC에 포함될 수 있다. 라이트 캐시 TPU(424)는 상기 수신된 요청의 논리 주소가 미완료된 라이트 요청의 논리 주소와 일치하는 경우, 상기 미완료된 라이트 요청이 완료된 이후에 상기 수신된 요청이 처리될 수 있도록 CPU(134)로 상기 수신된 요청에 대한 예외 신호를 제공할 수 있다.
라이트 캐시 TPU(424)는 상기 수신된 요청이 리드 요청이고, 논리 주소가 미완료된 라이트 요청의 논리 주소와 일치하지 않는 경우 상기 수신된 요청을 맵 TPU 그룹(138)으로 제공할 수 있다. 구현에 따라, 상기 라이트 캐시 TPU(424)와 맵 TPU 그룹(138)은 버스(146)와는 별도의 인터페이스를 통해 연결될 수 있다.
라이트 캐시 TPU(424)는 상기 수신된 요청이 라이트 요청이고, 논리 주소가 미완료된 라이트 요청의 논리 주소와 일치하지 않는 경우 상기 수신된 요청을 라이트 큐 TPU(426)로 제공할 수 있다.
라이트 종합부(236)는 라이트 큐 TPU(426) 및 플러시 TPU(428)에 의해 구동될 수 있다.
라이트 큐 TPU(426)는 라이트 요청들을 라이트 큐에 큐잉할 수 있다. 예를 들어, 상기 라이트 큐는 캐시 TPU 그룹(136)의 LLC에 포함될 수 있다. 라이트 큐 TPU(426)는 정해진 수의 라이트 요청들이 큐잉되면 상기 라이트 요청들을 플러시 TPU(428)로 제공할 수 있다. 예를 들어, 상기 라이트 요청들의 정해진 수는 상기 라이트 요청들의 데이터 크기의 합이 스트라이핑 사이즈에 도달하는 라이트 요청들의 수일 수 있다.
플러시 TPU(428)는 상기 라이트 큐 TPU(426)로부터의 라이트 요청들에 연관된 데이터가 스트라이핑되도록 라이트 요청들을 종합할 수 있다. 예를 들어, 플러시 TPU(428)는 메모리 장치(150)의 수, 메모리 장치(150)의 메모리 셀 레벨 및 성능 요구사항에 기초하여 결정된 순서대로 상기 데이터를 스트라이핑할 수 있다. 플러시 TPU(428)는 데이터가 메모리 장치(150)에 상기 스트라이핑된 순서대로 프로그램될 수 있도록 상기 라이트 요청들을 종합할 수 있다. 플러시 TPU(428)는 상기 종합된 라이트 요청에 대한 논리 주소들의 주소 매핑이 수행될 수 있도록 CPU(134)로 예외 신호를 제공할 수 있다.
CPU(134)는 코어(442) 및 DTCM(data tightly-coupled memory, 444)을 포함할 수 있다. 코어(442)는 도 3을 참조하여 설명된 FTL(212)을 구동함으로써 메모리 관리 동작을 수행할 수 있다. DTCM(444)은 코어(442)에서의 일정한 접근시간이 보장될 필요가 있는 데이터를 저장할 수 있다.
코어(442)는 플러시 TPU(428)로부터의 예외 신호에 응하여 상기 종합된 라이트 요청에 대한 논리 주소들의 주소 매핑을 수행함으로써 맵 데이터를 변경할 수 있다. 또한, 코어(442)는 체크 TPU(422)로부터의 예외 신호에 응하여 트림 요청에 대한 논리 주소들의 주소 매핑을 해제함으로써 맵 데이터를 변경할 수도 있다.
코어(442)는 변경된 맵 데이터에 기초하여 메모리(144)에 저장된 맵 테이블을 업데이트하도록 맵 TPU 그룹(138)을 제어할 수 있다. 코어(442)는 상기 업데이트된 맵 테이블이 메모리 장치(150)에 주기적으로 프로그램될 수 있도록 맵 플러시 요청을 생성하고, 상기 업데이트된 맵 테이블이 프로그램될 메모리 영역의 물리 주소를 결정할 수 있다.
코어(442)는 체크 TPU(422) 및 라이트 캐시 TPU(424)로부터의 예외 신호에 응하여 의존성을 갖는 요청들을 스케줄링할 수 있다. 그리고, 코어(442)는 도 1을 참조하여 설명된 백그라운드 동작 또한 수행할 수 있다.
코어(442)는 요청을 DTCM(444)에 저장하고, 맵 TPU 그룹(138)으로 제어 신호를 제공할 수 있다. DTCM(444)에 저장되는 요청은 주소 매핑이 완료된 라이트 요청, 맵 데이터 업데이트 요청, 상기 의존성을 갖는 요청 또는 상기 백그라운드 동작에 포함되는 데이터 입출력 요청을 포함할 수 있다. 코어(442)는 필요한 경우, DTCM(444)에 요청과 함께 변경된 맵 데이터를 저장할 수 있다.
맵 TPU 그룹(138)은 도 3을 참조하여 설명된 맵 관리자(238)를 구동할 수 있다. 맵 TPU 그룹(138)은 사전 TPU(Pre TPU, 462), 맵 플러시 TPU(464), 호스트 리드 TPU(466), GC 리드 TPU(garbage collection read TPU, 468) 및 올-라이트 TPU(470) 및 사후 TPU(Post TPU, 472)를 포함할 수 있다.
사전 TPU(462)는 DTCM(444)에 저장된 요청 및 변경된 맵 데이터를 페치(fetch)할 수 있다. 사전 TPU(462)는 상기 페치된 요청의 종류에 따라 상기 페치된 요청을 맵 플러시 TPU(464), 호스트 리드 TPU(466), GC 리드 TPU(468) 및 올-라이트 TPU(470) 중 어느 하나로 제공할 수 있다.
맵 플러시 TPU(464)는 CPU(134)로부터의 맵 플러시 요청에 응하여, 맵 테이블이 프로그램될 메모리 영역의 물리 주소를 메모리(144)의 맵 테이블에 업데이트할 수 있다. 상기 물리 주소는 CPU(134)로부터 획득할 수 있다. 맵 플러시 TPU(464)는 메모리(144)에 유효 페이지 테이블, 저널 데이터 등을 더 업데이트할 수 있다.
호스트 리드 TPU(466)는 호스트(102)로부터의 호스트 리드 요청을 위한 주소 변환 동작을 수행할 수 있다. 호스트 리드 TPU(466)는 메모리(144)에 저장된 맵 테이블을 참조하여 상기 리드 요청의 논리 주소에 대응하는 물리 주소를 탐색할 수 있다. 호스트 리드 TPU(466)는 메모리(144)에 저장된 리드 카운트 정보를 업데이트할 수 있다.
GC 리드 TPU(468)는 가비지 컬렉션 동작에 포함되는 가비지 컬렉션 리드 요청을 위한 주소 변환 동작을 수행할 수 있다. GC 리드 TPU(468)는 메모리(144)에 저장된 맵 테이블을 참조하여 상기 리드 요청의 논리 주소에 대응하는 물리 주소를 탐색할 수 있다. GC 리드 TPU(468)는 메모리(144)에 저장된 리드 카운트 정보를 업데이트할 수 있다.
올-라이트 TPU(470)는 라이트 요청에 응하여 변경된 맵 데이터에 기초하여 메모리(144)의 맵 테이블을 업데이트할 수 있다. 상기 라이트 요청은 호스트(102)로부터의 라이트 요청 및 백그라운드 동작에 포함되는 라이트 요청을 포함할 수 있다. 올-라이트 TPU(470)는 메모리(144)에 유효 페이지 테이블, 저널 데이터 등을 더 업데이트할 수 있다.
사후 TPU(472)는 맵 플러시 TPU(464), 호스트 리드 TPU(466), GC 리드 TPU(468) 또는 올-라이트 TPU(470)에 의해 변환 또는 업데이트된 물리 주소에 기초하여 상기 요청에 대응하는 커맨드를 생성하고, 생성된 커맨드를 NVM TPU 그룹(142)으로 제공할 수 있다. 커맨드는 상기 커맨드의 유형, 상기 커맨드에 연관된 물리 주소, 메모리 장치(150)의 워드라인 전압 레벨 등을 포함하는 디스크립터(descriptor)를 포함할 수 있다. 상기 커맨드의 유형은 리드 커맨드 및 라이트 커맨드를 포함할 수 있다. 상기 리드 커맨드는 상기 가비지 컬렉션 리드 요청 또는 호스트 리드 요청에 기초하여 생성될 수 있다. 상기 라이트 커맨드는 상기 라이트 요청 또는 맵 플러시 요청에 기초하여 생성될 수 있다. 한편, 커맨드는 IOP로 지칭될 수도 있다.
NVM TPU 그룹(142)은 FIL(flash interface layer) 코어(482), IOPT(484), 라이트 경로 TPU(486), 라이트 경로(488), 채널 TPU(490), 채널 DMA(492), 리드 TPU(494), 리드 경로(496) 및 완료 TPU(completion TPU, 498)를 포함할 수 있다. NVM TPU 그룹(142)은 도 2를 참조하여 설명된 NVM CMD 제출부(240)를 포함할 수 있다.
FIL 코어(482)는 사후 TPU(472)로부터의 커맨드의 디스크립터를 참조하여 라이트 경로 TPU(486), 채널 TPU(490) 및 리드 경로 TPU(494)를 제어할 수 있다. 구현에 따라, FIL 코어(482)는 범용 프로세서 코어로 구현될 수 있다.
IOPT(IOP TCM, 484)는 FIL 코어(482)의 TCM(tightly-coupled memory)일 수 있다. 사후 TPU(472)로부터 수신된 커맨드는 IOPT(484)에 저장될 수 있다. FIL 코어(482)는 IOPT(484)로부터 상기 커맨드를 획득할 수 있다.
채널 DMA(492)는 메모리 장치(150)로 상기 커맨드를 제공하고, 메모리(144)와 메모리 장치(150) 간 데이터 입출력 동작을 수행할 수 있다. 채널 TPU(490)는 FIL 코어(482)의 제어에 응하여 채널 DMA(492)를 제어할 수 있다. 채널 TPU(490) 및 채널 DMA(492)는 메모리 장치(150)에 연결된 채널의 수에 따라 NVM TPU 그룹(142)에 복수 개 포함될 수 있다.
라이트 경로(488)는 메모리(144)로부터 출력된 데이터가 채널 DMA(492)를 통해 메모리 장치(150)에 저장되기 전에 상기 데이터가 경유하는 경로이다. 라이트 경로(488)는 라이트 경로(488)를 경유하는 데이터에 대한 ECC(error correction code) 인코딩을 수행함으로써 상기 데이터에 패리티 비트를 부가할 수 있다. 라이트 경로 TPU(486)는 FIL 코어(482)의 제어에 응하여 라이트 경로(488)를 제어할 수 있다.
리드 경로(496)는 메모리 장치(150)로부터 출력된 데이터가 채널 DMA(492)를 통해 메모리(144)에 저장되기 전에 상기 데이터가 경유하는 경로이다. 리드 경로(496)는 리드 경로(496)를 경유하는 데이터의 ECC 디코딩을 수행할 수 있다. 리드 TPU(494)는 FIL 코어(482)의 제어에 응하여 리드 경로(496)를 제어할 수 있다. 리드 TPU(494) 및 리드 경로(496)는 메모리 장치(150)에 연결된 채널의 수에 따라 NVM TPU 그룹(142)에 복수 개 포함될 수 있다.
도 7을 참조하여 설명된 TPU들은 동시에 동작할 수 있으며, 상기 데이터 입출력 동작을 위한 파이프라인을 구성할 수 있다. 그리고, 상기 파이프라인은 예외 상황을 제외하면 CPU(134)의 관여 없이 상기 데이터 입출력 동작을 수행할 수 있다. 따라서, 메모리 시스템(110)의 처리량이 향상될 수 있다.
이하에서, 도 8 내지 도 10을 참조하여 본 발명의 실시 예에 따른 컨트롤러(130)의 라이트 동작이 설명된다.
도 8은 라이트 큐의 데이터가 스트라이핑 사이즈에 도달하지 않은 경우의 컨트롤러(130)의 라이트 동작을 설명하기 위한 도면이다. 도 8의 동작은 도 4를 참조하여 설명된 단계 S402, 단계 S404, 단계 S408 및 단계 S410에 대응할 수 있다.
단계 S802에서, 호스트 TPU(402)는 호스트(102)로부터의 요청을 수신할 수 있다. 호스트 TPU(402)는 상기 요청을 분석하여 라이트 요청으로 판단되면 상기 요청을 라이트 입출력 TPU(404)로 제공할 수 있다.
단계 S804에서, 라이트 입출력 TPU(404)는 상기 라이트 요청에 연관된 라이트 데이터의 크기에 따라 상기 요청을 복수의 라이트 요청들로 슬라이싱하고, 상기 슬라이싱된 복수의 라이트 요청들을 체크 TPU(422)로 제공할 수 있다.
단계 S806에서, 체크 TPU(422)는 라이트 입출력 TPU(404)로부터 수신된 라이트 요청이 미완료된 트림 요청에 대해 의존성을 갖는지 여부를 판단할 수 있다.
도 8은 상기 수신된 라이트 요청이 미완료된 트림 요청에 대해 의존성을 갖지 않는 경우를 예로 들어 라이트 동작을 설명한다. 단계 S810에서 체크 TPU(422)는 상기 수신된 라이트 요청을 라이트 캐시 TPU(424)로 제공할 수 있다. 라이트 캐시 TPU(424)는 체크 TPU(422)로부터 수신된 라이트 요청이 미완료된 라이트 요청에 대해 의존성을 갖는지 여부를 판단할 수 있다.
도 8은 상기 수신된 라이트 요청이 미완료된 라이트 요청에 대해 의존성을 갖지 않는 경우를 예로 들어 라이트 동작을 설명한다. 단계 S814에서 라이트 캐시 TPU(424)는 상기 수신된 라이트 요청을 라이트 큐 TPU(426)로 제공할 수 있다. 라이트 큐 TPU(426)는 상기 수신된 라이트 요청을 라이트 큐에 큐잉할 수 있다.
한편, 상기 라이트 요청에 대응하는 라이트 데이터는 호스트 DMA(direct memory access, 미도시)를 통해 CPU(134) 및 복수의 TPU들의 관여 없이 메모리(144)에 저장될 수 있다. 호스트 TPU 그룹(232)은 상기 라이트 데이터가 메모리 장치(150)에 프로그램되기 전이라도, 일단 메모리(144)에 저장되면 호스트(102)로 상기 라이트 요청의 완료 응답을 제공할 수 있다.
단계 S816에서, 플러시 TPU(428)는 라이트 큐에 큐잉된 라이트 요청들에 대응하는 데이터 청크들을 스트라이핑함으로써 상기 라이트 요청들을 종합할 수 있다. 예를 들어, 플러시 TPU(428)는 상기 라이트 요청들에 대응하는 데이터 청크들이 복수의 메모리 다이들에 분산되어 프로그램되고, 복수의 논리 페이지들에 원 샷 프로그램될 수 있도록 각 데이터 청크의 웨이 어드레스 및 논리 페이지 어드레스를 결정할 수 있다.
플러시 TPU(428)는 큐잉된 라이트 요청들에 대응하는 데이터의 크기가 스트라이핑 사이즈에 도달하거나, 호스트(102)로부터 플러시 요청을 수신하기 전까지는 상기 라이트 요청들에 응하여 상기 데이터 청크들을 스트라이핑하고, 라이트 동작을 종료할 수 있다.
도 9는 라이트 큐의 데이터가 스트라이핑 사이즈에 도달한 경우의 컨트롤러(130)의 라이트 동작을 설명하기 위한 도면이다. 도 9의 동작은 도 4를 참조하여 설명된 단계 S402, 단계 S404, 단계 S408 내지 단계 S418에 대응할 수 있다.
도 9에 도시된 단계 S802 내지 단계 S816은 도 8을 참조하여 설명된 단계 S802 내지 단계 S816와 동일할 수 있다.
단계 S918에서, 큐잉된 라이트 요청들에 대응하는 데이터의 크기가 스트라이핑 사이즈에 도달하거나, 호스트(102)로부터 플러시 요청을 수신하면 플러시 TPU(428)는 상기 종합된 라이트 요청에 대한 논리 주소들의 주소 매핑이 수행될 수 있도록 코어(442)로 예외 신호를 제공할 수 있다.
단계 S920에서, 코어(442)는 상기 예외 신호에 응하여 상기 논리 주소들을 물리 주소들에 매핑하는 주소 매핑 동작을 수행할 수 있다. 코어(442)는 DTCM(444)에 상기 종합된 라이트 요청 및 상기 주소 매핑 동작에 의해 생성된 맵 데이터를 저장할 수 있다.
코어(442)는 상기 주소 매핑 동작을 수행하기 위해 필요한 경우 백그라운드 동작을 더 수행할 수 있다. 예를 들어, 코어(442)는 오픈 블록을 할당하는 동작 및 배드 블록을 검출하는 동작을 포함하는 메모리 블록 관리 동작을 수행할 수 있다.
한편, 라이트 요청을 처리할 때 코어(442)의 주소 매핑 동작에서 가장 긴 시간이 소요될 수 있다. 그러나, 코어(442)의 주소 매핑 동작은 호스트(102)의 라이트 요청에 응하여 매번 수행되지는 않을 수 있다. 예를 들어, 상기 라이트 큐에 정해진 수의 라이트 요청이 큐잉되기 전까지는 코어(442)의 주소 매핑 동작은 수행되지 않을 수 있다. 따라서, 주소 매핑 동작에 코어(442)가 개입하더라도 전체적인 라이트 요청의 처리량은 향상될 수 있다.
단계 S922에서, 사전 TPU(462)는 DTCM(444)으로부터 상기 라이트 요청 및 맵 데이터를 획득할 수 있다.
단계 S924에서, 사전 TPU는 상기 획득한 요청을 분석하여 라이트 요청으로 판단하고, 올-라이트 TPU(470)로 상기 라이트 요청 및 맵 데이터를 제공할 수 있다.
단계 S926에서, 올-라이트 TPU(470)는 상기 맵 데이터를 사용하여 메모리(144)에 저장된 맵 테이블을 업데이트할 수 있다.
단계 S928에서, 올-라이트 TPU(470)는 맵 테이블을 업데이트하면 상기 라이트 요청 및 상기 맵 데이터에 포함된 물리 주소를 사후 TPU(472)로 제공할 수 있다.
단계 S930에서, 사후 TPU(472)는 올-라이트 TPU(470)로부터의 라이트 요청 및 물리 주소에 기초하여 메모리 장치(150)를 제어하기 위한 라이트 커맨드를 생성할 수 있다. 사후 TPU(472)는 상기 생성된 라이트 커맨드를 IOPT(484)로 제공할 수 있다.
단계 S932에서, FIL 코어(482)는 IOPT(484)로부터 커맨드를 획득하고, 상기 획득한 커맨드를 라이트 커맨드로 판단할 수 있다. 단계 S934에서, FIL 코어(482)는 상기 라이트 커맨드에 응하여 채널 TPU(490) 및 라이트 경로 TPU(486)를 제어할 수 있다.
단계 S936 및 단계 S938에서, FIL 코어(482)는 상기 라이트 커맨드를 채널 DMA(492)를 통해 메모리 장치(150)로 제공할 수 있다. 라이트 TPU(486)는 FIL 코어(482)의 제어에 응하여, 라이트 경로(488)가 메모리(144)로부터 라이트 데이터를 획득하도록 제어할 수 있다.
단계 S940 및 단계 S942에서, 채널 TPU(490)는 FIL 코어(482)의 제어에 응하여, 채널 DMA(492)가 라이트 경로(488)로부터 획득한 라이트 데이터를 메모리 장치(150)로 제공하도록 채널 DMA(492)를 제어할 수 있다. 메모리 장치(150)는 상기 라이트 커맨드에 응하여 상기 라이트 데이터를 프로그램할 수 있다.
상기 라이트 데이터의 프로그램이 완료되면, 단계 S944에서 완료 TPU(498)는 메모리 장치(150)로부터 응답을 받고 상기 응답에 따라 라이트 요청의 처리를 완료하거나, 코어(442)로 예외 신호를 제공할 수 있다.
도 10은 라이트 요청이 미완료된 요청에 의존성을 갖는 경우 컨트롤러(130)의 라이트 동작을 설명하기 위한 도면이다. 도 10의 동작은 도 4를 참조하여 설명된 단계 S402 내지 단계 S408에 대응할 수 있다.
단계 S802 내지 단계 S806은 도 8을 참조하여 설명된 단계 S802 내지 단계 S810과 동일할 수 있다.
단계 S806 및 단계 S810에서의 판단 결과 상기 수신된 요청이 미완료된 트림 요청 또는 미완료된 라이트 요청에 대해 의존성을 갖는 경우, 단계 S1008에서 의존성 확인부(234)는 코어(442)로 예외 신호를 제공할 수 있다. 코어(442)는 상기 예외 신호에 응하여, 상기 미완료된 트림 요청 또는 미완료된 라이트 요청의 처리가 완료될 때까지 상기 수신된 요청의 처리를 지연시킬 수 있다.
상기 미완료된 요청의 처리가 완료되면, 코어(442)는 단계 S1012에서 라이트 큐 TPU(426)로 제어 신호를 제공할 수 있다. 라이트 큐 TPU(426)는 상기 제어 신호에 응하여 라이트 큐에 상기 수신된 요청을 큐잉할 수 있다.
상기 수신된 요청이 큐잉된 이후에, 상기 큐잉된 요청은 도 8의 단계 S816 및 도 9의 단계 S918 내지 단계 S944를 참조하여 설명된 것과 동일하게 처리될 수 있다.
이하에서, 도 11 내지 도 13을 참조하여 본 발명의 실시 예에 따른 컨트롤러(130)의 리드 동작이 설명된다.
도 11은 호스트(102)의 리드 요청에 대한 컨트롤러(130)의 동작을 설명하기 위한 도면이다. 구체적으로, 도 11은 리드 요청이 미완료된 트림 커맨드 또는 라이트 커맨드에 대한 의존성을 갖지 않는 경우를 예로 들어 컨트롤러(130)의 동작을 설명하는 도면이다. 도 11의 동작은 도 5를 참조하여 설명된 단계 S502, 단계 S504, 단계 S508, 단계 S512 내지 단계 S516에 대응할 수 있다.
단계 S1102에서, 호스트 TPU(402)는 호스트(102)로부터의 요청을 수신할 수 있다. 호스트 TPU(402)는 상기 요청을 분석하여 리드 요청으로 판단되면 상기 요청을 리드 입출력 TPU(406)로 제공할 수 있다.
단계 S1104에서, 리드 입출력 TPU(406)는 상기 리드 요청에 연관된 리드 데이터의 크기에 따라 상기 리드 요청을 체크 TPU(422)로 제공할 수 있다.
단계 S1106에서, 체크 TPU(422)는 리드 입출력 TPU(406)로부터 수신된 리드 요청이 미완료된 트림 요청에 대해 의존성을 갖는지 여부를 판단할 수 있다.
상기 수신된 리드 요청이 미완료된 트림 요청에 대해 의존성을 갖지 않는 경우, 단계 S1110에서 체크 TPU(422)는 상기 수신된 리드 요청을 라이트 캐시 TPU(424)로 제공할 수 있다. 라이트 캐시 TPU(424)는 체크 TPU(422)로부터 수신된 리드 요청이 미완료된 라이트 요청에 대해 의존성을 갖는지 여부를 판단할 수 있다.
상기 수신된 리드 요청이 미완료된 라이트 요청에 대해 의존성을 갖지 않는 경우, 단계 S1114에서 라이트 캐시 TPU(424)는 사전 TPU(462)로 상기 수신된 리드 요청을 제공할 수 있다.
단계 S1116에서, 사전 TPU는 라이트 캐시 TPU(424)로부터 획득한 요청을 분석하여 호스트(102)로부터의 리드 요청으로 판단하고, 호스트 리드 TPU(466)로 상기 리드 요청을 제공할 수 있다.
단계 S1118에서, 호스트 리드 TPU(468)는 메모리(144)에 저장된 맵 테이블을 참조하여 상기 리드 요청의 논리 주소에 매핑된 물리 주소를 탐색하고, 상기 논리 주소를 상기 탐색된 물리 주소로 변환할 수 있다.
단계 S1120에서, 호스트 리드 TPU(468)는 상기 리드 요청 및 상기 탐색된 물리 주소를 사후 TPU(472)로 제공할 수 있다.
단계 S1122에서, 사후 TPU(472)는 호스트 리드 TPU(468)로부터의 리드 요청 및 물리 주소에 기초하여 메모리 장치(150)를 제어하기 위한 리드 커맨드를 생성할 수 있다. 사후 TPU(472)는 상기 생성된 리드 커맨드를 IOPT(484)로 제공할 수 있다.
단계 S1124 및 단계 S1126에서, FIL 코어(482)는 IOPT(484)로부터 커맨드를 획득하고, 상기 획득한 커맨드를 리드 커맨드로 판단할 수 있다. 채널 DMA(492)는 FIL 코어(482)의 제어에 응하여, 상기 리드 커맨드를 메모리 장치(150)로 제공할 수 있다. 메모리 장치(150)는 상기 리드 커맨드에 응하여 리드 동작을 수행할 수 있다.
단계 S1128 및 S1130에서, 채널 TPU(490)는 FIL 코어(482)의 제어에 응하여, 채널 DMA(492)가 메모리 장치(150)로부터 획득한 리드 데이터를 리드 경로(496)로 제공하도록 채널 DMA(492)를 제어할 수 있다. 상기 리드 데이터는 리드 경로(496)를 통해 메모리(144)에 저장되고, 호스트 DMA(미도시)를 통해 호스트(102)로 제공될 수 있다.
도 12는 리드 요청이 미완료된 트림 요청에 대해 의존성을 갖는 경우의 컨트롤러(130)의 동작을 나타낸다. 도 12의 동작은 도 5를 참조하여 설명된 단계 S502 내지 단계 S506에 대응할 수 있다.
단계 S1102 내지 단계 S1106은 도 11을 참조하여 설명된 단계 S1102 내지 단계 S1106과 동일할 수 있다.
단계 S1106의 판단 결과 상기 수신된 리드 요청이 미완료된 트림 요청에 대해 의존성을 갖는 경우, 단계 S1208에서 체크 TPU(422)는 상기 수신된 리드 요청에 대한 예외 신호를 코어(442)로 제공할 수 있다. 코어(442)는 상기 예외 신호에 응하여, 상기 수신된 리드 요청의 논리 주소가 트림되었다는 응답을 호스트(102)로 제공할 수 있다.
미완료된 트림 요청에 대한 상기 리드 요청의 의존성 판단 및 예외처리에 의해 메모리 시스템(110)이 상기 리드 요청에 응하여 호스트(102)로 잘못된 데이터를 제공하는 문제가 방지될 수 있다.
도 13은 리드 요청이 미완료된 라이트 요청에 대해 의존성을 갖는 경우의 컨트롤러(130)의 동작을 나타낸다. 도 13은 리드 요청이 미완료된 트림 요청에 대해 의존성을 갖는 경우의 컨트롤러(130)의 동작을 나타낸다. 도 13의 동작은 도 5를 참조하여 설명된 단계 S502, 단계 S504 및 단계 S510에 대응할 수 있다.
단계 S1102 내지 단계 S1106 및 단계 S1110은 도 11을 참조하여 설명된 단계 S1102 내지 단계 S1106 및 단계 S1110과 동일할 수 있다.
단계 S1110의 판단 결과 상기 수신된 리드 요청이 미완료된 라이트 요청에 대해 의존성을 갖는 경우, 단계 S1312에서 라이트 캐시 TPU(424)는 상기 수신된 리드 요청에 대한 예외 신호를 코어(442)로 제공할 수 있다.
단계 S1314에서, 코어(442)는 상기 예외 신호에 응하여, 미완료된 라이트 요청에 대응하는 데이터를 메모리(144)에서 탐색하고, 상기 탐색된 데이터를 호스트(102)로 제공할 수 있다.
미완료된 라이트 요청에 대한 상기 리드 요청의 의존성 판단 및 예외처리에 의해 메모리 시스템(110)이 상기 리드 요청에 응하여 호스트(102)로 잘못된 데이터를 제공하는 문제가 방지될 수 있다.
본 발명의 실시 예에 따르면, 컨트롤러(130)에 포함되는 복수의 TPU들은 파이프라인을 구성하여 데이터 입출력 동작을 수행할 수 있다. 따라서, 메모리 시스템(110)의 라이트 동작 및 리드 동작에 대한 처리량이 향상될 수 있다.
한편, 복수의 TPU들이 파이프라인을 구성하는 경우, 데이터 입출력 동작의 처리량은 요청의 처리 시간이 가장 오래 걸리는 TPU에 의해 결정될 수 있다. 복수의 TPU들 중 적어도 일부는 처리 시간을 단축하기 위해 병렬로 구성될 수 있다. 적어도 일부의 TPU가 병렬로 구성되는 컨트롤러(130)의 예는 도 14를 참조하여 설명된다.
도 14는 본 발명의 실시 예에 따른 컨트롤러(130)를 개략적으로 나타낸다.
도 1을 참조하여 설명된 바와 같이, 컨트롤러(130)는 제어 영역(210) 및 입출력 영역(230)을 포함할 수 있다. 제어 영역(210)은 도 1을 참조하여 설명된 메모리 관리 동작을 수행하고, 상기 데이터 입출력 동작의 예외처리를 수행할 수 있다.
입출력 영역(230)은 논리 블록들로서 요청 수신부(232), 의존성 확인부(234), 라이트 종합부(236), 맵 관리자(238) 및 NVM 커맨드 제출부(242)를 포함할 수 있다. 입출력 영역(230)에 포함되는 논리 블록들은 도 3을 참조하여 설명된 것과 대응한다.
상기 논리 블록들은 데이터 입출력 동작을 위한 파이프라인을 구성할 수 있다. 만약 상기 데이터 입출력 동작을 수행하기 위해 상기 논리 블록들 중 의존성 확인부(234) 및 라이트 종합부(236)에서 가장 긴 시간이 소요된다면, 의존성 확인부(234) 및 라이트 종합부(236)에서 병목 현상이 발생할 수 있다. 의존성 확인부(234) 및 라이트 종합부(236)에서 병목 현상이 발생하는 경우, 데이터 입출력 동작의 처리량은 의존성 확인부(234) 및 라이트 종합부(236)의 처리량으로 제한될 수 있다.
따라서, 컨트롤러(130)는 복수의 의존성 확인부(234) 및 복수의 라이트 종합부(236)를 포함하고, 복수의 의존성 확인부(234) 및 복수의 라이트 종합부(236)는 병렬로 동작하도록 구성될 수 있다. 예를 들어, 컨트롤러(130)는 병렬로 동작하는 복수의 캐시 TPU 그룹(136)을 포함할 수 있다. 복수의 의존성 확인부(234) 및 복수의 라이트 종합부(236)가 병렬로 동작하면 병목 현상이 제거되고 데이터 입출력 동작의 처리량이 향상될 수 있다.
본 발명의 실시 예에 따르면, 컨트롤러(130)는 데이터 입출력 동작을 수행하는 복수의 TPU들 및 메모리 관리 동작을 수행하는 CPU를 포함할 수 있다. 상기 복수의 TPU들은 데이터 입출력 동작을 위한 파이프라인을 구성할 수 있다. 상기 메모리 관리 동작은 주소 매핑 동작, 백그라운드 동작을 포함할 수 있다. 본 발명의 실시 예에 따르면, 데이터 입출력 동작과 메모리 관리 동작이 병렬로 수행될 수 있으므로 메모리 시스템(110)의 처리량이 향상될 수 있다.
이상에서 설명한 본 발명은 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
110: 메모리 시스템
130: 컨트롤러
150: 메모리 장치

Claims (25)

  1. 메모리 장치를 제어하는 컨트롤러에 있어서,
    호스트로부터 논리 주소를 포함하는 요청을 수신하는 요청 수신부;
    상기 요청 수신부로부터 획득한 요청이 미완료된 요청에 대해 의존성을 갖는지 여부를 판단하는 의존성 확인부;
    의존성을 갖지 않는 요청의 논리 주소에 매핑된 물리 주소에 대한 커맨드를 생성하는 맵 관리자; 및
    상기 맵 관리자로부터 획득한 커맨드를 상기 메모리 장치로 제공하는 커맨드 제출부를 포함하고,
    상기 요청 수신부, 의존성 확인부, 맵 관리자 및 커맨드 제출부는 파이프라인 방식으로 동작하는
    컨트롤러.
  2. 제1항에 있어서,
    상기 요청 수신부는
    라이트 요청을 복수의 요청들로 슬라이싱하고 상기 슬라이싱된 요청을 상기 의존성 확인부로 제공하는 라이트 입출력 TPU(tensor processing unit);
    리드 요청을 상기 의존성 확인부로 제공하는 리드 입출력 TPU; 및
    상기 호스트로부터 수신된 요청의 유형에 따라 상기 수신된 요청을 상기 라이트 입출력 TPU 또는 리드 입출력 TPU로 제공하는 호스트 TPU를 포함하는
    컨트롤러.
  3. 제1항에 있어서,
    상기 맵 관리자는
    상기 의존성 확인부로부터의 리드 요청의 논리 주소에 대응하는 물리 주소를 탐색하는 호스트 리드 TPU; 및
    상기 탐색된 물리 주소에 기초하여 상기 리드 요청에 대응하는 리드 커맨드를 생성하는 사후 TPU를 포함하는
    컨트롤러.
  4. 제3항에 있어서,
    상기 커맨드 제출부는
    상기 리드 커맨드를 상기 메모리 장치로 제공하는 채널 DMA를 제어하는 채널 TPU;
    상기 메모리 장치로부터 상기 리드 커맨드에 대응하는 리드 데이터를 획득하고, 상기 획득된 라이트 데이터에 ECC 디코딩을 수행하는 리드 경로를 제어하는 리드 경로 TPU; 및
    상기 리드 TPU 및 채널 TPU를 제어하는 FIL 코어를 포함하는
    컨트롤러.
  5. 제1항에 있어서,
    상기 컨트롤러는
    호스트의 논리 주소와 상기 메모리 장치의 물리 주소를 매핑하여 맵 데이터를 생성하는 주소 매핑 동작을 수행하고, 백그라운드 동작(background operation)을 수행하고, 상기 요청의 예외처리를 수행하는 CPU(central processing unit); 및
    상기 맵 데이터를 포함하는 맵 테이블을 저장하는 메모리
    를 더 포함하는 컨트롤러.
  6. 제5항에 있어서,
    상기 의존성 확인부는
    상기 요청 수신부로부터 획득한 요청이 미완료된 트림 요청에 대해 의존성을 갖는 경우 상기 CPU로 예외처리를 요청하는 체크 TPU를 포함하는
    컨트롤러.
  7. 제6항에 있어서,
    상기 체크 TPU는
    미완료된 트림 요청의 논리 주소 정보를 포함하는 트림 비트맵을 참조하여 상기 획득한 요청의 논리 주소와 상기 미완료된 트림 요청의 논리 주소가 일치하는 경우 상기 획득한 요청이 미완료된 트림 요청에 대해 의존성을 갖는 것으로 결정하는
    컨트롤러.
  8. 제6항에 있어서,
    상기 CPU는
    상기 획득한 요청이 라이트 요청인 경우 상기 예외처리 요청에 응하여 상기 미완료된 트림 요청의 처리가 완료될 때까지 상기 획득한 요청의 처리를 지연시키는
    컨트롤러.
  9. 제6항에 있어서,
    상기 CPU는
    상기 획득한 요청이 리드 요청인 경우 상기 예외처리 요청에 응하여 상기 획득한 요청에 대응하는 논리 주소가 트림되었다는 응답을 상기 호스트로 제공하는
    컨트롤러.
  10. 제5항에 있어서,
    상기 의존성 확인부는
    상기 획득한 요청이 미완료된 라이트 요청에 대해 의존성을 갖는 경우 상기 CPU로 예외처리를 요청하는 라이트 캐시 TPU를 포함하는
    컨트롤러.
  11. 제10항에 있어서,
    상기 라이트 캐시 TPU는
    미완료된 라이트 요청의 논리 주소 정보를 포함하는 라이트 캐시를 참조하여 상기 획득한 요청의 논리 주소와 상기 미완료된 라이트 요청의 논리 주소가 일치하는 경우, 상기 획득한 요청이 미완료된 라이트 요청에 대해 의존성을 갖는 것으로 결정하는
    컨트롤러.
  12. 제11항에 있어서,
    상기 CPU는
    상기 획득한 요청이 라이트 요청인 경우 상기 예외처리 요청에 응하여 상기 미완료된 라이트 요청의 처리가 완료될 때까지 상기 획득한 요청의 처리를 지연시키는
    컨트롤러.
  13. 제11항에 있어서,
    상기 CPU는
    상기 획득한 요청이 리드 요청인 경우 상기 예외처리 요청에 응하여 상기 메모리로부터 상기 미완료된 라이트 요청에 연관된 데이터를 탐색하고, 상기 탐색된 데이터를 상기 호스트로 제공하는
    컨트롤러.
  14. 제5항에 있어서,
    상기 CPU는
    상기 메모리 장치에서 상기 맵 테이블의 적어도 일부가 프로그램될 메모리 영역의 물리 주소를 결정하고, 상기 물리 주소를 포함하는 맵 플러시 요청을 생성하는
    컨트롤러.
  15. 제14항에 있어서,
    상기 맵 관리자는
    상기 CPU에 의해 결정된 물리 주소를 사용하여 상기 맵 테이블을 업데이트하는 맵 플러시 TPU; 및
    상기 결정된 물리 주소에 기초하여 상기 맵 플러시 요청에 대응하는 라이트 커맨드를 생성하는 사후 TPU를 포함하는
    컨트롤러.
  16. 제5항에 있어서,
    상기 컨트롤러는
    의존성을 갖지 않는 라이트 요청들에 연관된 라이트 데이터가 스트라이핑 되도록 상기 라이트 요청들을 종합하고, 상기 종합된 라이트 요청에 대한 주소 매핑 요청을 상기 CPU로 제공하는 라이트 종합부를 더 포함하는
    컨트롤러.
  17. 제16항에 있어서,
    상기 컨트롤러는
    하나 이상의 의존성 확인부 및 라이트 종합부를 더 포함하고,
    상기 복수의 의존성 확인부들은 병렬로 동작하고,
    상기 복수의 라이트 종합부들은 병렬로 동작하는
    컨트롤러.
  18. 제16항에 있어서,
    상기 라이트 종합부는
    상기 의존성 확인부로부터 획득한 라이트 요청을 큐잉하는 라이트 큐 TPU; 및
    상기 큐잉된 라이트 요청들의 라이트 데이터를 스트라이핑함으로써 상기 큐잉된 라이트 요청들을 종합하고, 상기 종합된 라이트 요청들을 상기 CPU로 제공하는 플러시 TPU를 더 포함하는
    컨트롤러.
  19. 제18항에 있어서,
    상기 플러시 TPU는
    상기 라이트 큐 TPU에 정해진 수의 라이트 요청들이 큐잉되면, 상기 라이트 데이터에 포함되는 데이터 청크들이 상기 메모리 장치에 포함되는 복수의 메모리 다이들에 분산되어 프로그램될 수 있도록 각 데이터 청크의 어드레스의 일부를 결정함으로써 상기 라이트 데이터를 스트라이핑하는
    컨트롤러.
  20. 제16항에 있어서,
    상기 CPU는
    상기 주소 매핑 요청에 응하여 상기 종합된 라이트 요청의 논리 주소와 상기 메모리 장치의 물리 주소를 매핑함으로써 맵 데이터를 생성하는
    컨트롤러.
  21. 제16항에 있어서,
    상기 맵 관리자는
    상기 CPU에 의해 생성된 맵 데이터를 사용하여 상기 맵 테이블을 업데이트하는 올-라이트 TPU; 및
    상기 매핑된 물리 주소에 기초하여 상기 라이트 요청에 대응하는 라이트 커맨드를 생성하는 사후 TPU를 포함하는
    컨트롤러.
  22. 제21항에 있어서,
    상기 커맨드 제출부는
    상기 라이트 커맨드에 대응하는 라이트 데이터를 획득하고, 상기 획득된 라이트 데이터에 ECC(error correction code) 인코딩을 수행하는 라이트 경로를 제어하는 라이트 경로 TPU;
    상기 라이트 커맨드 및 상기 라이트 경로로부터의 데이터를 상기 메모리 장치로 제공하는 채널 DMA(direct memory access)를 제어하는 채널 TPU; 및
    상기 라이트 경로 TPU 및 채널 TPU를 제어하는 FIL(flash interface layer) 코어를 포함하는
    컨트롤러.
  23. 제16항에 있어서,
    상기 CPU는
    가비지 컬렉션 동작의 소스 블록 및 목적지 블록을 결정하고,
    상기 소스 블록에 대한 리드 요청을 생성하여 상기 맵 관리자로 제공하고,
    상기 리드 요청에 연관된 데이터가 상기 메모리에 버퍼링되면 상기 목적지 블록에 대한 라이트 요청을 생성하여 상기 라이트 종합부로 제공하는
    컨트롤러.
  24. 제23항에 있어서,
    상기 맵 관리자는
    상기 맵 테이블을 참조하여 상기 CPU로부터의 가비지 컬렉션 리드 요청의 논리 주소에 대응하는 물리 주소를 탐색하는 가비지 컬렉션 리드 TPU를 더 포함하는
    컨트롤러.
  25. 제5항에 있어서,
    상기 컨트롤러는
    상기 CPU, 요청 수신부, 의존성 확인부, 맵 관리자 및 커맨드 제출부의 관여 없이 상기 호스트와 상기 메모리의 데이터 입출력을 수행하는 호스트 DMA(direct memory access)를 더 포함하는
    컨트롤러.
KR1020200154440A 2020-11-18 2020-11-18 메모리 컨트롤러 KR20220067797A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200154440A KR20220067797A (ko) 2020-11-18 2020-11-18 메모리 컨트롤러
US17/227,140 US11675537B2 (en) 2020-11-18 2021-04-09 Controller for performing data input/output operation and memory management operation at the same time and operation method thereof
CN202110716219.1A CN114518839A (zh) 2020-11-18 2021-06-28 存储器控制器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200154440A KR20220067797A (ko) 2020-11-18 2020-11-18 메모리 컨트롤러

Publications (1)

Publication Number Publication Date
KR20220067797A true KR20220067797A (ko) 2022-05-25

Family

ID=81586642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200154440A KR20220067797A (ko) 2020-11-18 2020-11-18 메모리 컨트롤러

Country Status (3)

Country Link
US (1) US11675537B2 (ko)
KR (1) KR20220067797A (ko)
CN (1) CN114518839A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240095165A1 (en) * 2022-09-15 2024-03-21 Western Digital Technologies, Inc. Efficient l2p dram for high-capacity drives
CN116643945B (zh) * 2023-05-31 2023-12-15 合芯科技有限公司 一种二级缓存的数据检测方法、系统及计算机设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4967680B2 (ja) * 2007-01-23 2012-07-04 ソニー株式会社 記憶装置およびコンピュータシステム、並びに記憶装置の管理方法
TWI521343B (zh) * 2011-08-01 2016-02-11 Toshiba Kk An information processing device, a semiconductor memory device, and a semiconductor memory device
KR101876574B1 (ko) 2012-02-02 2018-07-09 에스케이하이닉스 주식회사 데이터 입출력 컨트롤러 및 이를 포함하는 시스템
KR20140057454A (ko) * 2012-11-02 2014-05-13 삼성전자주식회사 비휘발성 메모리 장치 및 이와 통신하는 호스트 장치
US10146440B2 (en) * 2016-12-20 2018-12-04 Intel Corporation Apparatus, system and method for offloading collision check operations in a storage device
KR102398201B1 (ko) 2017-06-30 2022-05-17 삼성전자주식회사 프로세서의 개입 없이 단순 작업을 관리하는 스토리지 장치

Also Published As

Publication number Publication date
US11675537B2 (en) 2023-06-13
US20220156002A1 (en) 2022-05-19
CN114518839A (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
KR101730991B1 (ko) 스토리지 장치 및 스토리지 장치의 동작 방법
US11226895B2 (en) Controller and operation method thereof
US10860231B2 (en) Memory system for adjusting map segment based on pattern and operating method thereof
US11249897B2 (en) Data storage device and operating method thereof
KR102503177B1 (ko) 메모리 시스템 및 그것의 동작 방법
KR20210017481A (ko) 컨트롤러 및 컨트롤러의 동작방법
KR102564774B1 (ko) 메모리 시스템 혹은 데이터 처리 시스템의 동작을 진단하는 장치 혹은 진단을 통해 신뢰성을 확보하는 방법
KR102567224B1 (ko) 데이터 저장 장치 및 이를 포함하는 컴퓨팅 시스템
US11537318B2 (en) Memory system and operating method thereof
US20220155995A1 (en) Controller and operating method thereof
US10901891B2 (en) Controller and operation method thereof
US10162568B2 (en) Method for searching matching key of storage device and server system including the same
KR20200059936A (ko) 메모리 시스템 및 메모리 시스템의 동작방법
KR20200044461A (ko) 메모리 시스템 및 그것의 동작방법
CN113254362A (zh) 存储设备和存储器控制器的操作方法
US11675537B2 (en) Controller for performing data input/output operation and memory management operation at the same time and operation method thereof
KR20180029124A (ko) 메모리 시스템 및 메모리 시스템의 동작 방법
KR20180111157A (ko) 컨트롤러 및 컨트롤러의 동작 방법
KR20200044460A (ko) 메모리 시스템 및 그것의 동작방법
KR20220050407A (ko) 컨트롤러 및 컨트롤러의 동작방법
KR20200035630A (ko) 메모리 시스템 및 그것의 동작방법
KR20200033459A (ko) 메모리 시스템 및 그것의 동작방법
US11922062B2 (en) Controller and operating method thereof
KR20220105285A (ko) 컨트롤러 및 컨트롤러의 동작 방법
KR20200113991A (ko) 컨트롤러 및 메모리 시스템