KR20220127559A - 다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법 - Google Patents

다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법 Download PDF

Info

Publication number
KR20220127559A
KR20220127559A KR1020210032001A KR20210032001A KR20220127559A KR 20220127559 A KR20220127559 A KR 20220127559A KR 1020210032001 A KR1020210032001 A KR 1020210032001A KR 20210032001 A KR20210032001 A KR 20210032001A KR 20220127559 A KR20220127559 A KR 20220127559A
Authority
KR
South Korea
Prior art keywords
machine learning
input
stream
storage device
output request
Prior art date
Application number
KR1020210032001A
Other languages
English (en)
Inventor
양승준
노강호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210032001A priority Critical patent/KR20220127559A/ko
Priority to CN202210215803.3A priority patent/CN115083478A/zh
Priority to US17/691,758 priority patent/US20220291864A1/en
Publication of KR20220127559A publication Critical patent/KR20220127559A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C16/00Erasable programmable read-only memories
    • G11C16/02Erasable programmable read-only memories electrically programmable
    • G11C16/04Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS
    • G11C16/0483Erasable programmable read-only memories electrically programmable using variable threshold transistors, e.g. FAMOS comprising cells having several storage transistors connected in series
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0238Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
    • G06F12/0246Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0292User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/20Handling requests for interconnection or transfer for access to input/output bus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0616Improving the reliability of storage systems in relation to life time, e.g. increasing Mean Time Between Failures [MTBF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/064Management of blocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0679Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1032Reliability improvement, data loss prevention, degraded operation etc
    • G06F2212/1036Life time enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7201Logical to physical mapping or translation of blocks or pages

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)
  • Supplying Of Containers To The Packaging Station (AREA)
  • Warehouses Or Storage Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 실시 예에 따른 다중 스트림을 지원하는 스토리지 장치의 동작 방법은 외부 호스트로부터 입출력 요청을 수신하는 단계; 복수의 기계 학습 모델들을 기반으로, 입출력 요청에 대한 기계 학습을 수행하여 복수의 스트림 식별자 후보들을 생성하는 단계; 입출력 요청의 특성을 기반으로 모델 비율을 생성하는 단계; 모델 비율을 복수의 스트림 식별자 후보들에 반영하여, 입출력 요청에 대한 최종 스트림 식별자를 할당하는 단계; 및 최종 스트림 식별자를 기반으로 입출력 요청에 대응하는 쓰기 데이터를 스토리지 장치의 불휘발성 메모리 장치에 저장하는 단계를 포함하고, 복수의 기계 학습 모델들 각각은 서로 다른 기계 학습 알고리즘에 기반된다.

Description

다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법{OPERATION METHOD OF STORAGE DEVICE CONFIGURED TO SUPPORT MULTI-STREAMS}
본 발명은 반도체 메모리에 관한 것으로, 좀 더 상세하게는 다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법에 관한 것이다.
반도체 메모리는 SRAM, DRAM 등과 같이 전원 공급이 차단되면 저장하고 있던 데이터가 소멸되는 휘발성 메모리 장치 및 플래시 메모리 장치, PRAM, MRAM, RRAM, FRAM 등과 같이 전원 공급이 차단되어도 저장하고 있던 데이터를 유지하는 불휘발성 메모리 장치로 구분된다.
최근에는 플래시 메모리를 기반으로 하는 솔리드 스테이트 드라이브(SSD)가 컴퓨팅 시스템의 대용량 저장 매체로서 널리 사용된다. SSD를 사용하는 호스트는 어플리케이션에 따라 다양한 종류의 데이터를 생성할 수 있다. 호스트는 SSD의 동작 성능을 개선하기 위해 데이터와 함께 데이터에 관한 정보를 스토리지 장치에 제공할 수 있다. 그러나, 호스트가 정보를 제어하지 않는 경우, SSD의 성능 및 수명을 향상시키는데 문제가 발생할 수 있다.
본 발명의 목적은 호스트로부터의 데이터를 스트림 단위로 구분하여 향상된 성능 및 향상된 수명을 갖는 다중 스트림을 지원하도록 구성된 스토리지 장치의 동작 방법을 제공하는데 있다.
본 발명의 실시 예에 따르면, 다중 스트림을 지원하는 스토리지 장치의 동작 방법은 외부 호스트로부터 입출력 요청을 수신하는 단계; 복수의 기계 학습 모델들을 기반으로, 상기 입출력 요청에 대한 기계 학습을 수행하여 복수의 스트림 식별자 후보들을 생성하는 단계; 상기 입출력 요청의 특성을 기반으로 모델 비율을 생성하는 단계; 상기 모델 비율을 상기 복수의 스트림 식별자 후보들에 반영하여, 상기 입출력 요청에 대한 최종 스트림 식별자를 할당하는 단계; 및 상기 최종 스트림 식별자를 기반으로 상기 입출력 요청에 대응하는 쓰기 데이터를 상기 스토리지 장치의 불휘발성 메모리 장치에 저장하는 단계를 포함하고, 상기 복수의 기계 학습 모델들 각각은 서로 다른 기계 학습 알고리즘에 기반된다.
본 발명의 실시 예에 따르면, 다중 스트림을 지원하는 스토리지 장치의 동작 방법은 외부 호스트로부터 순차 입출력 요청을 수신하는 단계; 제1 및 제2 기계 학습 모델들을 기반으로, 상기 순차 입출력 요청에 대한 기계 학습을 수행하여, 제1 및 제2 결과 값들을 생성하는 단계; 상기 순차 입출력 요청의 특성을 기반으로 제1 모델 비율을 생성하는 단계; 상기 제1 및 제2 결과 값들에 상기 제1 모델 비율을 반영하여 제1 스트림 식별자를 생성하는 단계; 상기 순차 입출력 요청에 상기 제1 스트림 식별자를 할당하는 단계; 상기 외부 호스트로부터 랜덤 입출력 요청을 수신하는 단계; 상기 제1 및 제2 기계 학습 모델들을 기반으로, 상기 랜덤 입출력 요청에 대한 상기 기계 학습을 수행하여, 제3 및 제4 결과 값들을 생성하는 단계; 상기 랜덤 입출력 요청의 특성을 기반으로 상기 제1 모델 비율과 다른 제2 모델 비율을 생성하는 단계; 상기 제3 및 제4 결과 값들에 상기 제2 모델 비율을 반영하여 제2 스트림 식별자를 생성하는 단계; 및 상기 랜덤 입출력 요청에 상기 제2 스트림 식별자를 할당하는 단계를 포함한다.
본 발명의 실시 예에 따르면, 다중 스트림을 지원하는 스토리지 장치의 동작 방법은 외부 호스트로부터 입출력 요청을 수신하는 단계; 복수의 기계 학습 모델들을 기반으로, 상기 입출력 요청에 대한 기계 학습을 수행하여 복수의 스트림 식별자 후보들을 생성하는 단계; 앙상블 모델을 기반으로, 상기 복수의 스트림 식별자 후보들에 대한 추론을 수행하여, 최종 스트림 식별자를 생성하는 단계; 및 상기 최종 스트림 식별자를 기반으로 상기 입출력 요청에 대응하는 쓰기 데이터를 상기 스토리지 장치의 불휘발성 메모리 장치에 저장하는 단계를 포함하고, 상기 복수의 기계 학습 모델들 각각은 서로 다른 기계 학습 알고리즘에 기반된다.
본 발명에 따르면, 스토리지 장치는 복수의 기계 학습 모델들을 기반으로 호스트로부터 수신된 쓰기 요청에 대한 스트림을 할당할 수 있다. 이 때, 스토리지 장치는 수신된 쓰기 요청의 특성을 기반으로 복수의 기계 학습 모델들 각각에 대한 반영 비율을 결정할 수 있다. 따라서, 유사한 특성을 갖는 쓰기 요청들이 동일한 스트림으로 관리되기 때문에, 향상된 성능을 갖는 다중 스트림을 지원하도록 구성된 스토리지 장치의 동작 방법이 제공된다.
도 1은 본 발명의 실시 예에 따른 스토리지 시스템을 예시적으로 보여주는 블록도이다.
도 2는 도 1의 스토리지 시스템의 소프트웨어 계층을 예시적으로 보여주는 도면이다.
도 3은 도 1의 불휘발성 메모리 장치를 예시적으로 보여주는 블록도이다.
도 4는 스토리지 장치에서 관리되는 스트림을 설명하기 위한 도면이다.
도 5는 도 1의 스트림 관리자를 보여주는 도면이다.
도 6은 도 5의 모델 비율 연산기의 예를 보여주는 블록도이다.
도 7 내지 도 9는 도 5의 스트림 관리자의 동작을 설명하기 위한 도면들이다.
도 10은 도 1의 스토리지 장치의 동작을 보여주는 순서도이다.
도 11은 도 1의 스트림 관리자를 보여주는 도면이다.
도 12은 본 발명에 따른 스토리지 장치가 적용된 스토리지 시스템을 예시적으로 보여주는 도면이다.
도 13는 본 발명의 실시 예에 따른 스토리지 시스템을 예시적으로 보여주는 블록도이다.
도 14는 본 발명의 실시 예에 따른 스토리지 장치가 적용된 데이터 센터를 예시적으로 보여주는 블록도이다.
이하에서, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다.
상세한 설명에서 사용되는 부 또는 유닛(unit), 모듈(module), 엔진(engine) 등의 용어를 참조하여 설명되는 구성 요소들 및 도면에 도시된 기능 블록들은 소프트웨어, 또는 하드웨어, 또는 그것들의 조합의 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계 코드, 펌웨어, 임베디드 코드, 및 애플리케이션 소프트웨어일 수 있다. 예를 들어, 하드웨어는 전기 회로, 전자 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어들, 압력 센서, 관성 센서, 멤즈(MEMS; microelectromechanical system), 수동 소자, 또는 그것들의 조합을 포함할 수 있다.
또한, 다르게 정의되지 않는 한, 본문에서 사용되는 기술적 또는 과학적인 의미를 포함하는 모든 용어들은 본 발명이 속하는 기술 분야에서의 당업자에 의해 이해될 수 있는 의미를 갖는다. 일반적으로 사전에서 정의된 용어들은 관련된 기술 분야에서의 맥락적 의미와 동등한 의미를 갖도록 해석되며, 본문에서 명확하게 정의되지 않는 한, 이상적 또는 과도하게 형식적인 의미를 갖도록 해석되지 않는다.
도 1은 본 발명의 실시 예에 따른 스토리지 시스템을 예시적으로 보여주는 블록도이다. 도 1을 참조하면, 스토리지 시스템(10)은 호스트(11) 및 스토리지 장치(100)를 포함할 수 있다. 일 실시 예에서, 스토리지 시스템(10)은 개인용 컴퓨터, 랩탑, 서버, 워크스테이션, 스마트폰, 태블릿 PC, 디지털 카메라, 블랙박스 등과 같이 다양한 정보를 처리하고, 처리된 정보를 저장하도록 구성된 정보 처리 장치들 중 하나일 수 있다.
호스트(11)는 스토리지 시스템(100)의 제반 동작을 제어할 수 있다. 예를 들어, 호스트(11)는 스토리지 장치(100)에 데이터(DATA)를 저장하거나 또는 스토리지 장치(100)에 저장된 데이터(DATA)를 읽기 위한, 요청(RQ; request)을 스토리지 장치(100)로 전송할 수 있다. 일 실시 예에서, 호스트(11)는 스토리지 시스템(10)을 제어하도록 구성된 중앙 처리 유닛(CPU; central processing unit), 애플리케이션 프로세서(AP; application processor)와 같은 프로세서 코어이거나 또는 네트워크를 통해 연결된 컴퓨팅 노드일 수 있다.
일 실시 예에서, 호스트(11)는 호스트 컨트롤러(12) 및 호스트 메모리(13)를 포함할 수 있다. 호스트 컨트롤러(12)는 호스트(11)의 제반 동작을 제어하거나 또는 호스트(11) 측에서, 스토리지 장치(100)를 제어하도록 구성된 장치일 수 있다. 호스트 메모리(13)는 호스트(11)에서 사용되는 버퍼 메모리, 캐시 메모리 또는 동작 메모리일 수 있다.
스토리지 장치(100)는 호스트(11)의 제어에 따라 동작할 수 있다. 스토리지 장치(100)는 스토리지 컨트롤러(110) 및 불휘발성 메모리 장치(120)를 포함할 수 있다. 스토리지 컨트롤러(110)는 호스트(11)의 제어에 따라 불휘발성 메모리 장치(120)에 데이터를 저장하거나 또는 불휘발성 메모리 장치(120)에 저장된 데이터를 읽을 수 있다. 일 실시 예에서, 스토리지 컨트롤러(110)는 불휘발성 메모리 장치(120)를 효율적으로 사용하기 위한 다양한 관리 동작을 수행할 수 있다.
스토리지 컨트롤러(110)는 중앙 처리 유닛(CPU; central processing unit)(111), 플래시 변환 계층(FTL; flash translation layer)(112), 에러 정정 코드(ECC; error correction code) 엔진(113), AES(advanced encryption standard) 엔진(114), 버퍼 메모리(115), 호스트 인터페이스 회로(116), 메모리 인터페이스 회로(117), 및 스트림 관리자(118)를 포함할 수 있다.
CPU(111)는 스토리지 컨트롤러(110)의 제반 동작을 제어할 수 있다. FTL(112)은 불휘발성 메모리 장치(120)를 효율적으로 사용하기 위한 다양한 동작을 수행할 수 있다. 예를 들어, 호스트(11)는 스토리지 장치(100)의 저장 공간을 논리 어드레스로서 관리할 수 있다. FTL(112)은 호스트(11)로부터의 논리 어드레스 및 스토리지 장치(100)의 물리 어드레스 사이의 어드레스 맵핑을 관리하도록 구성될 수 있다. FTL(112)은 웨어 레벨링 동작을 수행하여, 불휘발성 메모리 장치(120)의 메모리 블록들 중 특정 메모리 블록에 대한 과도한 열화를 방지할 수 있다. FTL(112)의 웨어 레벨링 동작에 의해 불휘발성 메모리 장치(120)의 수명이 향상될 수 있다. FTL(112)은 불휘발성 메모리 장치(120)에 대한 가비지 콜렉션을 수행하여, 자유 메모리 블록을 확보할 수 있다.
일 실시 예에서, FTL(112)은 소프트웨어 또는 하드웨어 형태로 구현될 수 있다. FTL(112)이 소프트웨어 형태로 구현되는 경우, FTL(112)과 관련된 프로그램 코드 또는 정보는 버퍼 메모리(115)에 저장될 수 있고, CPU(111)에 의해 실행될 수 있다. FTL(112)이 하드웨어 형태로 구현되는 경우, FTL(112)의 동작을 수행하도록 구성된 하드웨어 가속기가 CPU(112)와 별도로 구비될 수 있다.
ECC 엔진(113)은 불휘발성 메모리 장치(120)로부터 읽은 데이터에 대한 에러 검출 및 에러 정정을 수행할 수 있다. 예를 들어, ECC 엔진(113)은 불휘발성 메모리 장치(120)에 기입될 데이터에 대한 에러 정정 코드(또는 패리티 비트)를 생성할 수 있다. 생성된 에러 정정 코드(또는 패리티 비트)는 기입될 데이터와 함께 불휘발성 메모리 장치(120)에 저장될 수 있다. 이후에, 불휘발성 메모리 장치(120)로부터 기입된 데이터가 독출될 경우, ECC 엔진(113)은 독출된 데이터 및 대응하는 에러 정정 코드(또는 대응하는 패리티 비트)를 기반으로 독출된 데이터의 에러를 검출하고 정정할 수 있다.
AES 엔진(114)은 호스트(11) 또는 불휘발성 메모리 장치(120)로부터 수신된 데이터에 대한 암호화(encryption) 동작 또는 복호화 동작(decryption) 동작을 수행할 수 있다. 일 실시 예에서, 암호화(encryption) 동작 또는 복호화 동작(decryption) 동작은 대칭 키 알고리즘(symmetric-key algorithm)을 기반으로 수행될 수 있다.
버퍼 메모리(115)는 스토리지 컨트롤러(110)로 입력된 데이터를 임시 저장하도록 구성된 쓰기 버퍼 또는 읽기 버퍼일 수 있다. 또는 버퍼 메모리(115)는 스토리지 컨트롤러(110)가 동작하는데 필요한 다양한 정보를 저장하도록 구성될 수 있다. 예를 들어, 버퍼 메모리(115)는 FTL(112)에 의해 관리되는 매핑 테이블을 저장할 수 있다. 또는 버퍼 메모리(115)는 FTL(112)과 관련된 소프트웨어, 펌웨어, 또는 정보를 저장할 수 있다.
일 실시 예에서, 버퍼 메모리(115)는 SRAM일 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니며, 버퍼 메모리(115)는 DRAM, MRAM, PRAM 등과 같은 다양한 종류의 메모리 장치로 구현될 수 있다. 도면의 간결성 및 설명의 편의를 위해, 버퍼 메모리(115)가 스토리지 컨트롤러(110)에 포함되는 것으로 도 1에 도시되어 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 버퍼 메모리(115)는 스토리지 컨트롤러(110)의 외부에 위치할 수 있고, 스토리지 컨트롤러(110)는 별도의 통신 채널 또는 인터페이스를 통해 버퍼 메모리와 통신할 수 있다.
호스트 인터페이스 회로(116)는 미리 정해진 인터페이스 규약에 따라, 호스트(11)와 통신하도록 구성될 수 있다. 일 실시 예에서, 미리 정해진 인터페이스 규약은 ATA(Advanced Technology Attachment) 인터페이스, SATA(Serial ATA) 인터페이스, e-SATA(external SATA) 인터페이스, SCSI(Small Computer Small Interface) 인터페이스, SAS(Serial Attached SCSI) 인터페이스, PCI(Peripheral Component Interconnection) 인터페이스, PCIe(PCI express) 인터페이스, NVMe(NVM express) 인터페이스, IEEE 1394, USB(universal serial bus) 인터페이스, SD(secure digital) 카드, MMC(multi-media card) 인터페이스, eMMC(embedded multi-media card) 인터페이스, UFS(Universal Flash Storage) 인터페이스, eUFS(embedded Universal Flash Storage) 인터페이스, CF(compact flash) 카드 인터페이스, 또는 네트워크 인터페이스 등과 같은 다양한 인터페이스 규약들 중 적어도 하나를 포함할 수 있다. 호스트 인터페이스 회로(116)는 미리 정해진 인터페이스 규약에 기반된 신호를 호스트(11)로부터 수신하고, 수신된 신호를 기반으로 동작할 수 있다. 또는 호스트 인터페이스 회로(116)는 미리 정해진 인터페이스 규약에 기반된 신호를 호스트(11)로 전송할 수 있다.
메모리 인터페이스 회로(117)는 미리 정해진 인터페이스 규약에 따라 불휘발성 메모리 장치(120)와 통신하도록 구성될 수 있다. 일 실시 예에서, 미리 정해진 인터페이스 규약은 토글 인터페이스, 온파이(ONFI) 인터페이스 등과 같은 다양한 인터페이스 규약들 중 적어도 하나를 포함할 수 있다. 일 실시 예에서, 메모리 인터페이스 회로(117)는 토글 인터페이스를 기반으로 불휘발성 메모리 장치(120)와 통신할 수 있다. 이 경우, 메모리 인터페이스 회로(117)는 복수의 채널들(CHs)을 통해 불휘발성 메모리 장치(120)와 통신할 수 있다. 일 실시 예에서, 복수의 채널들(CHs) 각각은 다양한 제어 신호들(예를 들어, /CE, CLE, ALE, /WE, /RE, R/B 등), 데이터 신호들(DQ), 및 데이터 스트로브 신호(DQS)를 전송하도록 구성된 복수의 신호 라인들을 포함할 수 있다.
스트림 관리자(118)는 호스트(11)로부터 수신된 데이터 또는 입출력 요청을 복수의 스트림들로 구분하거나 또는 스트림 단위로 관리할 수 있다. 예를 들어, 호스트(11)로부터 수신된 데이터는 다양한 속성 또는 다양한 특성을 가질 수 있다. 이 때, 데이터에 대한 별도의 구분 없이 데이터가 불휘발성 메모리 장치(120)에 저장되는 경우, 불휘발성 메모리 장치(120)에 대한 유지 관리 동작(예를 들어, 가비지 콜렉션)이 빈번하게 발생할 수 있다. 일 예로서, 불휘발성 메모리 장치(120)의 빈번한 유지 관리 동작은 스토리지 장치(100)의 WAF(write amplification factor) 특성을 증가(즉, 성능을 하락)시킬 수 있다.
본 발명의 실시 예에 따른 스토리지 컨트롤러(110)의 스트림 관리자(118)는 호스트(11)로부터 수신된 데이터의 다양한 속성(예를 들어, 논리 블록 어드레스, 데이터 크기, 데이터 빈도 등)을 기반으로 데이터를 스트림 단위로 분류할 수 있고, 분류된 스트림을 기반으로 데이터를 불휘발성 메모리 장치(120)에 저장할 수 있다. 이 경우, 유사한 특성을 갖는 데이터가 동일한 스트림으로 분류되기 때문에, 불휘발성 메모리 장치(120)에 대한 유지 관리 동작의 횟수가 감소될 수 있다. 따라서, 스토리지 장치(100)의 전체적인 성능 저하가 방지될 수 있다. 일 실시 예에서, 본 발명에 따른 스트림 관리자(118)는 복수의 기계 학습 모델들을 기반으로 데이터에 대한 스트림 할당을 수행할 수 있다. 복수의 기계 학습 모델들 각각은 서로 다른 기계 학습 알고리즘을 기반으로 데이터에 대한 스트림 분류를 수행할 수 있고, 스트림 관리자(118)는 데이터의 특성을 기반으로 복수의 기계 학습 모델들로부터 결과들을 조합하여 데이터에 대한 최종 스트림을 결정할 수 있다. 본 발명에 따른 스트림 관리자(118)의 구조 및 동작은 이하의 도면들을 참조하여 더욱 상세하게 설명된다.
상술된 바와 같이, 본 발명의 실시 예에 따르면, 스토리지 장치(100)는 호스트(11)로부터 데이터의 특성에 대한 정보(예를 들어, 명시적인 스트림 지정)가 없더라도, 데이터의 다양한 속성 정보를 기반으로 데이터를 복수의 스트림들로 구분하고 관리할 수 있다. 이 경우, 가비지 콜렉션과 같은 불휘발성 메모리 장치(120)에 대한 유지 관리 동작 횟수가 감소되기 때문에, 향상된 성능 및 향상된 수명을 갖는 스토리지 장치(100)가 제공된다.
도 2는 도 1의 스토리지 시스템의 소프트웨어 계층을 예시적으로 보여주는 도면이다. 도 1 및 도 2를 참조하면, 스토리지 시스템(10)의 소프트웨어 계층은 애플리케이션 계층(APP), 파일 시스템 계층(FS), 장치 드라이버 계층(DD), 스트림 관리자(118), 및 플래시 변환 계층(112)을 포함할 수 있다.
애플리케이션 계층(APP)은 호스트(11)에서 구동되는 다양한 응응 프로그램들을 포함할 수 있다. 파일 시스템(FS)은 애플리케이션 계층(APP)에서 의해 사용되는 파일 또는 데이터를 조직화하도록 구성될 수 있다. 예를 들어, 파일 시스템(FS)은 스토리지 장치(100)의 저장 공간을 논리 블록 어드레스(LBA; logical block address)로서 관리할 수 있다. 파일 시스템(FS)은 스토리지 장치(100)에 저장된 데이터에 대하여 논리 블록 어드레스를 부여하고 관리할 수 있다. 일 실시 예에서, 파일 시스템(FS)은 호스트(11)의 운영 체제에 따라 다른 형태를 가질 수 있다. 파일 시스템(FS)은 FAT(File Allocation Table), FAT32, NTFS(NT File System), HFS(Hierarchical File System), JSF2(Journaled File System2), XFS, ODS-5(On-Disk Structure-5), UDF, ZFS, UFS(Unix File System), ext2, ext3, ext4, ReiserFS, Reiser4, ISO 9660, Gnome VFS, BFS, WinFS 등과 같은 다양한 파일 시스템 형태들 중 적어도 하나를 포함할 수 있다. 장치 드라이버(DD)는 파일 시스템 계층(FS) 또는 애플리케이션 계층(APP)으로부터의 정보를 스토리지 장치(100)에서 인식 가능한 정보로 변환하는 동작을 수행할 수 있다. 일 실시 예에서, 애플리케이션 계층(APP), 파일 시스템 계층(FS), 및 장치 드라이버(DD)는 소프트웨어 형태로 구현될 수 있으며, 호스트(11) 상에서 구동될 수 있다.
스트림 관리자(118)는 호스트(11)로부터 수신된 요청에 대하여 스트림을 할당하도록 구성될 수 있다. 일 실시 예에서, 스트림 관리자(118)는 기계 학습을 기반으로 데이터에 대한 스트림을 할당하도록 구성될 수 있다.
FTL(112)은 호스트(11)로부터 수신된 요청의 논리 블록 어드레스를 불휘발성 메모리 장치(120)에서 사용되는 물리 블록 어드레스(또는 물리 어드레스)로 변환하도록 구성될 수 있다. 일 실시 예에서, FTL(112)은 스트림 관리자(118)로부터 할당된 스트림 식별자에 대한 정보를 수신하고, 호스트(11)로부터 수신된 요청이 할당된 스트림 별로 불휘발성 메모리 장치(120)에 저장되도록 어드레스 매핑을 수행할 수 있다.
도 3은 도 1의 불휘발성 메모리 장치를 예시적으로 보여주는 블록도이다. 도 4는 스토리지 장치에서 관리되는 스트림을 설명하기 위한 도면이다. 도 1, 도 3, 및 도 4를 참조하면, 불휘발성 메모리 장치(120)는 복수의 불휘발성 메모리들(NVM11~NVM44)을 포함할 수 있다. 복수의 불휘발성 메모리들(NVM11~NVM44) 각각은 하나의 반도체 칩, 하나의 반도체 다이, 또는 하나의 반도체 패키지로 구현될 수 있다.
불휘발성 메모리(NVM11)는 복수의 플레인들(PL1, PL2) 및 주변 회로(PERI)을 포함할 수 있다. 복수의 플레인들(PL1, PL2) 각각은 복수의 메모리 블록들(BLK11~BLK14, BLK21~BLK24)을 포함할 수 있다. 복수의 메모리 블록들(BLK11~BLK14, BLK21~BLK24) 각각은 복수의 페이지들을 포함할 수 있다. 일 실시 예에서, 동일한 플레인(예를 들어, PL1)에 포함된 복수의 메모리 블록들(예를 들어, BLK11~BLK14)은 동일한 비트라인을 공유하도록 구성될 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
불휘발성 메모리(NVM11)의 주변 회로(PERI)는 복수의 채널들(CH1~CH4) 중 대응하는 채널(예를 들어, CH1)과 연결될 수 있다. 주변 회로(PERI)는 대응하는 채널을 통해 수신된 다양한 신호에 응답하여, 대응하는 채널을 통해 수신된 데이터를 복수의 플레인들(PL1, PL2)에 저장하거나 또는 복수의 플레인들(PL1, PL2)에 저장된 데이터를 대응하는 채널을 통해 출력할 수 있다. 상술된 동작을 위해, 주변 회로(PERI)는 어드레스 디코더, 전압 발생기, 페이지 버퍼 회로, 입출력 회로, 및 제어 로직 회로 등과 같은 다양한 구성 요소들을 포함할 수 있다.
도면의 간결성을 위하여, 하나의 불휘발성 메모리(NVM11)가 2개의 플레인들(PL2)을 포함하고, 하나의 플레인이 4개의 메모리 블록들을 포함하는 것으로 도시되어 있으나, 본 발명의 범위가 이에 한정되는 것은 아니며, 플레인들의 개수, 메모리 블록들의 개수, 또는 페이지들의 개수는 다양하게 변형될 수 있다. 일 실시 예에서, 나머지 불휘발성 메모리들(NVM12~NVM44)은 앞서 설명된 불휘발성 메모리(NVM11)과 유사한 구조를 가질 수 있으며, 이에 대한 상세한 설명은 생략된다.
복수의 불휘발성 메모리들(NVM11~NVM44) 중 제1 일부(NVM11, NVM12, NVM13, NVM14)는 제1 채널(CH1)을 통해 스토리지 컨트롤러(1100)와 통신할 수 있고, 제2 일부(NVM21, NVM22, NVM23, NVM24)는 제2 채널(CH2)을 통해 스토리지 컨트롤러(1100)와 통신할 수 있고, 제3 일부(NVM31, NVM32, NVM33, NVM34)는 제3 채널(CH3)을 통해 스토리지 컨트롤러(1100)와 통신할 수 있고, 제4 일부(NVM41, NVM42, NVM43, NVM44)는 제4 채널(CH4)을 통해 스토리지 컨트롤러(1100)와 통신할 수 있다. 복수의 불휘발성 메모리들(NVM11~NVM44) 중 제1 일부(NVM11, NVM21, NVM31, NVM41)는 제1 웨이(WAY1)를 구성할 수 있고, 제2 일부(NVM12, NVM22, NVM32, NVM42)는 제2 웨이(WAY2)를 구성할 수 있고, 제3 일부(NVM13, NVM23, NVM33, NVM43)는 제3 웨이(WAY3)를 구성할 수 있고, 제4 일부(NVM14, NVM24, NVM34, NVM44)는 제4 웨이(WAY4)를 구성할 수 있다. 즉, 불휘발성 메모리 장치(1200)는 멀티-웨이/멀티-채널의 구조를 가질 수 있으며, 본 발명의 범위가 도 3에 도시된 구조에 한정되지 않음이 이해될 것이다.
일 실시 예에서, 스토리지 장치(1000)는 불휘발성 메모리 장치(1200)에 포함된 복수의 메모리 블록들을 복수의 스트림들을 기반으로 관리할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 스토리지 장치(1100)는 복수의 메모리 블록들 중 제1 메모리 블록들(BLK1)을 제1 스트림 식별자(SID1)에 대응하는 스트림으로 관리할 수 있고, 제2 메모리 블록들(BLK2)을 제2 스트림 식별자(SID2)에 대응하는 스트림으로 관리할 수 있고, 제3 메모리 블록들(BLK3)을 제3 스트림 식별자(SID3)에 대응하는 스트림으로 관리할 수 있고, 제1 메모리 블록들(BLK4)을 제4 스트림 식별자(SID4)에 대응하는 스트림으로 관리할 수 있다.
일 실시 예에서, 동일한 스트림 식별자(예를 들어, SID1)에 대응하는 메모리 블록들(예를 들어, 제1 메모리 블록들(BLK1))은 동일한 플레인에 포함되거나, 동일한 불휘발성 메모리에 포함되거나, 동일한 채널과 연결된 불휘발성 메모리들에 포함되거나, 또는 동일한 웨이에 포함된 불휘발성 메모리들에 포함될 수 있다. 또는, 스트림 식별자(예를 들어, SID1)에 대응하는 메모리 블록들(예를 들어, 제1 메모리 블록들(BLK1))은 복수의 불휘발성 메모리들에 각각 분산될 수 있다. 그러나 상술된 내용은 단순 예시들이며, 본 발명의 범위가 이에 한정되는 것은 아니다.
상술된 바와 같이, 스트림 관리자(118)는 유사한 특성을 갖는 데이터를 동일한 스트림으로서 관리할 수 있고, 이에 따라, 유사한 특성을 갖는 데이터들은 동일한 스트림에 대응하는 메모리 블록들에 저장될 것이다. 이 경우, 동일한 스트림에 저장된 데이터가 유사한 특성을 갖기 때문에, 스토리지 장치(100)의 유지 관리 동작(예를 들어, 가비지 콜렉션)로 인한 성능 저하가 감소되거나 또는 WAF(write amplification factor)가 감소될 수 있다.
도 5는 도 1의 스트림 관리자를 보여주는 도면이다. 이하에서, 본 발명의 실시 예들을 용이하게 설명하기 위해, 스토리지 장치(100)는 호스트(11)로부터 쓰기 요청(RQ)을 수신하고, 수신된 쓰기 요청을 기반으로 스트림 식별자(SID)를 할당하는 것으로 가정한다. 이 때, 쓰기 요청(RQ)은 데이터의 속성 또는 특성(예를 들어, 스트림)에 대한 별도의 정보를 포함하지 않을 수 있다. 이하의 실시 예들에서, 하나의 쓰기 요청(RQ)에 대한 스트림 할당이 설명되나, 본 발명의 범위가 이에 한정되는 것은 아니다. 예를 들어, 스트림 관리자(118)는 복수의 쓰기 요청들을 누적하고, 누적된 복수의 쓰기 요청들에 대한 스트림 할당을 수행할 수 있다. 일 실시 예에서, 복수의 쓰기 요청들은 논리 블록 어드레스를 기반으로 누적될 수 있고, 복수의 쓰기 요청들의 데이터의 합은 미리 정해진 단위(예를 들어, 청크 단위)를 가질 수 있다.
일 실시 예에서, 이하의 도면들을 참조하여, 쓰기 요청(RQ)에 대한 스트림을 할당하는 방법이 중점적으로 설명되나, 본 발명의 범위가 이에 한정되는 것은 아니다. 예를 들어, 스토리지 장치(100)는 도 1 내 도 4를 참조하여 설명된 방법을 기반으로 쓰기 요청에 대응하는 쓰기 데이터가 할당된 스트림 별로 불휘발성 메모리 장치(120)에 저장되도록 후속 동작(즉, 어드레스 매핑 및 프로그램 동작)을 수행할 수 있다.
이하에서, 본 발명의 실시 예들을 용이하게 설명하기 위해, "스트림(stream)," "스트림 식별자(stream identifier)" 등의 용어들이 사용된다. 스트림(stream)은 동일하거나 또는 유사한 특성을 갖는 데이터 집합을 의미할 수 있다. 또는 스트림(stream)은 호스트(11)에 의해 관리되는 논리 블록 어드레스들이 연속인 데이터의 집합을 의미할 수 있다. 스트림 식별자(stream identifier)는 복수의 스트림들 각각에 대하여 부여됨으로써, 복수의 스트림들 각각을 구분하기 위한 고유한 정보일 수 있다.
도 1 및 도 5를 참조하면, 스트림 관리자(118)는 복수의 기계 학습 모델들(ML1~MLn), 모델 비율 연산기(MRC), 및 스트림 식별자 판별기(DTM)를 포함할 수 있다. 일 실시 예에서, 스트림 관리자(118) 또는 스트림 관리자(118)에 포함된 구성 요소들 각각은 소프트웨어 모듈, 하드웨어 블록, 하드웨어 IP(intellectual property), 하드웨어 가속기, 또는 그것들의 조합을 기반으로 구현될 수 있다.
복수의 기계 학습 모델들(ML1~MLn) 각각은 쓰기 요청(RQ)에 대한 기계 학습을 수행하여, 결과 값들(a_1~a_n)을 출력할 수 있다. 복수의 기계 학습 모델들(ML1~MLn)의 결과 값들은 쓰기 요청(RQ)에 대한 스트림 식별자 후보로서 사용될 수 있다. 예를 들어, 쓰기 요청(RQ)의 다양한 특성은 복수의 기계 학습 모델들(ML1~MLn)의 입력 값으로서 제공될 수 있다. 복수의 기계 학습 모델들(ML1~MLn) 각각은 쓰기 요청(RQ)의 다양한 특성에 대한 기계 학습을 수행하여, 결과 값들(a_1~a_n)을 도출할 수 있다. 일 실시 예에서, 쓰기 요청(RQ)의 특성 또는 속성은 논리 블록 어드레스 범위(LBA range), 요청 크기(request size) 등과 같은 정보를 포함할 수 있다. 또는 쓰기 요청(RQ)의 특성 또는 속성은 인접한 쓰기 요청들(즉, 워크로드)의 논리 블록 어드레스의 연속성, 덮어쓰기(overwrite) 비율 등과 같은 정보를 포함할 수 있다.
일 실시 예에서, 복수의 기계 학습 모델들(ML1~MLn) 각각은 서로 다른 기계 학습 알고리즘을 사용할 수 있다. 즉, 동일한 쓰기 요청(RQ)에 대하여, 복수의 기계 학습 모델들(ML1~MLn) 각각의 결과 값들(a_1~a_n)은 서로 다른 값을 가질 수 있다. 일 실시 예에서, 기계 학습 알고리즘의 종류는 선형 회귀 알고리즘, 서포트 벡터 머신 알고리즘, 딥 뉴럴 네트워크 알고리즘, 딥스트림 알고리즘, K-평균 알고리즘, 클러스터링 알고리즘, 오토 인코더 알고리즘, 콘볼루션 뉴럴 네트워크 알고리즘, 샴 네트워크 알고리즘 등과 같은 다양한 기계 학습 알고리즘들을 포함할 수 있다.
스트림 관리자(118)는 복수의 기계 학습 모델들(ML1~MLn)의 결과 값들(a_1~a_n) 중 하나 또는 그것들의 조합을 기반으로, 쓰기 요청(RQ)에 대한 스트림 식별자(SID)를 결정할 수 있다.
스트림 식별자(118)의 모델 비율 연산기(MRC)는 쓰기 요청(RQ)을 기반으로 모델 비율(R_x)을 연산할 수 있다. 모델 비율(R_x)은 복수의 기계 학습 모델들(ML1~MLn)의 결과 값들(a_1~a_n)에 반영되는 비율 또는 가중치를 가리킬 수 있다. 예를 들어, 복수의 기계 학습 모델들(ML1~MLn) 중 제1 기계 학습 모델(ML1)은 순차 패턴(sequential pattern)을 상대적으로 정확하게 분류할 수 있고, 제2 기계 학습 모델(ML2)은 랜덤 패턴(random pattern)을 상대적으로 정확하게 분류할 수 있다. 쓰기 요청(RQ)이 순차 패턴(sequential pattern)을 갖는 경우, 모델 비율 연산기(MRC)는 제1 기계 학습 모델(ML1)의 제1 결과 값(a_1)이 스트림 식별자(SID)에 상대적으로 높은 비율로 반영되도록 모델 비율(R_x)을 연산할 수 있다. 또는 쓰기 요청(RQ)이 랜덤 패턴(random pattern)을 갖는 경우, 모델 비율 연산기(MRC)는 제2 기계 학습 모델(ML2)의 제2 결과 값(a_2)이 스트림 식별자(SID)에 상대적으로 높은 비율로 반영되도록 모델 비율(R_x)을 연산할 수 있다.
일 실시 예에서, 모델 비율 연산기(MRC)는 쓰기 요청(RQ)의 특성 또는 속성을 기반으로 모델 비율(R_x)을 연산할 수 있다. 쓰기 요청(RQ)의 특성 또는 속성은 논리 블록 어드레스 범위(LBA range), 요청 크기(request size) 등과 같은 정보를 포함할 수 있다. 또는 쓰기 요청(RQ)의 특성 또는 속성은 인접한 쓰기 요청들(즉, 워크로드)의 논리 블록 어드레스의 연속성, 덮어쓰기(overwrite) 비율 등과 같은 정보를 포함할 수 있다. 모델 비율 연산기(MRC)의 동작 및 구성은 도 6을 참조하여 더욱 상세하게 설명된다.
스트림 식별자 판별기(DTM)는 복수의 기계 학습 모델들(ML1~MLn)로부터의 복수의 결과 값들(a_1~a_n)을 수신하고, 모델 비율 연산기(MRC)로부터 모델 비율(R_x)을 수신할 수 있다. 스트림 식별자 판별기(DTM)는 복수의 기계 학습 모델들(ML1~MLn)로부터의 복수의 결과 값들(a_1~a_n)에 모델 비율(R_x)을 반영함으로써, 쓰기 요청(RQ)에 대한 스트림 식별자(SID)를 결정 또는 할당할 수 있다. 예를 들어, 스트림 식별자(SID)는 수학식 1과 같이 연산될 수 있다.
Figure pat00001
수학식 1을 참조하면, n은 기계 학습 모델의 개수를 가리키고, ai는 제i 기계 학습 모델(MLi)의 결과 값을 가리키고, ri는 모델 비율(R_x)에 포함된 계수들 중 제i 기계 학습 모델(MLi)에 대응하는 계수 값을 가리킨다. 상술된 바와 같이, 스트림 식별자(SID)는 복수의 기계 학습 모델들(ML1~MLn)의 결과 값들(a_1~a_n)에 모델 비율(R_x)을 반영함으로써 결정될 수 있다.
일 실시 예에서, 스트림 분류 또는 할당에서 하나의 기계 학습 모델이 사용될 경우, 하나의 기계 학습 모델의 특성이 따라 특정 논리 블록 어드레스 범위에서의 스트림 분류 정확성 또는 성능이 떨어질 수 있다.
반면에, 상술된 바와 같이, 본 발명의 실시 예에 따른 스트림 관리자(118)는 쓰기 요청(RQ)에 대하여, 복수의 기계 학습 모델들(ML1~MLn)을 통해 스트림 식별자 후보들(즉, 결과 값들(a_1~a_n))을 연산하고, 연산된 식별자 후보들에 쓰기 요청(RQ)에 기반된 모델 비율(R_x)을 반영함으로써, 스트림 식별자(SID)를 연산할 수 있다. 이 경우, 쓰기 요청(RQ)의 다양한 특성에 대하여, 서로 다른 기계 학습 모델로부터 연산된 결과 값이 스트림 식별자(SID)에 지배적으로(predominantly) 반영될 수 있다. 따라서, 스토리지 장치(100)의 스트림 분류 정확성이 향상되며, 이에 따라 스토리지 장치(100)의 성능이 향상되거나 또는 WAF 특성이 개선될 수 있다.
도 6은 도 5의 모델 비율 연산기의 예를 보여주는 블록도이다. 도 1, 도 5, 및 도 6을 참조하면, 스트림 관리자(118)의 모델 비율 연산기(MRC)는 특성 추출기 및(IOCX) 룩 업 테이블(LUT)을 포함할 수 있다.
특성 추출기(IOCX)는 쓰기 요청(RQ)의 특성을 추출하도록 구성될 수 있다. 예를 들어, 쓰기 요청(RQ)의 특성은 쓰기 요청(RQ)의 논리 블록 어드레스, 논리 블록 어드레스 범위, 요청 크기와 같은 정보를 포함할 수 있다. 또는 쓰기 요청(RQ)의 특성은 인접한 쓰기 요청들(즉, 워크 로드)의 논리 블록 어드레스 연속성, 덮어쓰기 비율 등과 같은 정보를 포함할 수 있다. 상술된 쓰기 요청(RQ)의 특성 또는 모델 비율(R_x)을 선택하는데 사용되는 특성은 단순 예시들이며, 본 발명의 범위가 이에 한정되는 것은 아니다. 쓰기 요청(RQ)의 특성은 상술된 다양한 특성들 또는 언급되지 않은 다양한 특성들 중 하나 또는 그 이상의 조합을 포함할 수 있다.
룩 업 테이블(LUT)은 복수의 엔트리들을 포함할 수 있다. 복수의 엔트리들 각각은 복수의 특성들(CR1~CRm) 각각에 대하여, 복수의 기계 학습 모델들(ML1~MLn)에 대한 계수들(r_11~r_mn)을 포함할 수 있다. 모델 비율 연산기(MRC)는 룩 업 테이블(LUT)로부터 쓰기 요청(RQ)의 특성(CRx)에 대응하는 모델 비율(R_x)을 선택할 수 있다. 예를 들어, 특성 추출기(IOCX)로부터 추출된 특성이 제1 특성(CR1)인 경우, 모델 비율 연산기(MRC)는 [r_11, r_12, …r1n]을 모델 비율(R_x)로서 선택할 수 있다. 또는, 특성 추출기(IOCX)로부터 추출된 특성이 제2 특성(CR2)인 경우, 모델 비율 연산기(MRC)는 [r_21, r_22, …r2n]을 모델 비율(R_x)로서 선택할 수 있다. 선택된 모델 비율(R_x)은 도 5를 참조하여 설명된 스트림 식별자 판별기(DTM)로 제공될 수 있다.
일 실시 예에서, 룩 업 테이블(LUT)은 다양한 워크로드들에 대한 테스트를 통해 학습된 결과일 수 있으며, 스토리지 장치(100)의 제조 단계에서 스토리지 장치(100)의 펌웨어로서 저장될 수 있다. 일 실시 예에서, 룩 업 테이블(LUT)은 불휘발성 메모리 장치(120)에 저장될 수 있고, 스토리지 장치(100)의 부트 업시, 불휘발성 메모리 장치(120)로부터 스토리지 컨트롤러(110)로 로드될 수 있다. 일 실시 예에서, 룩 업 테이블(LUT)은 다른 하드웨어 가속기 또는 하드웨어 연산기로 대체될 수 있다.
도 7 내지 도 9는 도 5의 스트림 관리자의 동작을 설명하기 위한 도면들이다. 설명의 편의를 위해, 스트림 관리자(118)는 2개의 기계 학습 모델들(ML1, ML2)을 사용하여 스트림 분류를 수행하는 것으로 가정한다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니며, 스트림 관리자(118)는 더 많은 기계 학습 모델들을 사용할 수 있다. 설명의 편의를 위해, 스트림 관리자(118)는 쓰기 요청(RQ)의 특성은 쓰기 요청(RQ)의 논리 블록 어드레스인 것으로 가정한다.
도 7 내지 도 9의 실시 예들에서, 제1 및 제2 기계 학습 모델들(ML1, ML2)은 도 7 내지 도 9에 도시된 워크로드(Workload)를 기반으로 학습된 것으로 가정한다. 워크로드(Workload)는 순차 패턴(sequential pattern) 및 랜덤 패턴(random pattern)을 포함할 수 있다. 워크로드(Workload)에서, 제1 및 제3 논리 블록 어드레스 범위들(LBA_r1, LBA_r3)은 랜덤 패턴(RAND.)을 갖는 I/O 요청들의 집합일 수 있고, 제2 및 제4 논리 블록 어드레스 범위들(LBA_r2, LBA_r4)은 순차 패턴(SEQ.)을 갖는 I/O 요청들의 집합일 수 있다. 도 7 내지 도 9의 실시 예들에서, 워크로드(Workload)의 특성 또는 쓰기 요청의 특성을 논리 블록 어드레스 범위를 기준으로 순차 패턴 및 랜덤 패턴으로 구분하였으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 7에 도시된 바와 같이, 제1 기계 학습 모델(ML1)의 스트림 분류 성능 또는 정확성은 랜덤 패턴(RAND.)에 대하여 상대적으로 좋을 수 있으나, 순차 패턴(SEQ)에 대해서는 상대적으로 나쁠 수 있다. 이와 반대로 제2 기계 학습 모델(ML2)의 스트림 분류 성능 또는 정확성은 랜덤 패턴(RAND.)에 대하여, 상대적으로 나쁠 수 있으나, 순차 패턴(SEQ)에 대하여 좋을 수 있다. 즉, 동일한 쓰기 요청에 대하여, 기계 학습 모델 또는 기계 학습 알고리즘에 따라 스트림 분류 성능이 서로 다를 수 있다. 본 발명의 실시 예에 따른 스트림 관리자(118)는 쓰기 요청(RQ)의 특성에 따른 범위를 기반으로, 복수의 기계 학습 모델들(ML1~MLn) 각각에 대한 모델 비율을 다르게 적용함으로써, 쓰기 요청(RQ)의 특성에 따른 모든 범위들에 대하여 스트림 분류 정확도를 향상시킬 수 있다.
예를 들어, 도 1, 도 5, 및 도 8을 참조하면, 호스트(11)로부터 수신된 제1 쓰기 요청(RQ1)은 제2 논리 블록 어드레스 범위(LBA_r2)에 포함될 수 있다. 스트림 관리자(118)의 제1 및 제2 기계 학습 모델들(ML1, ML2) 각각은 제1 쓰기 요청(RQ1)에 대한 기계 학습을 수행하여, 결과 값들을 도출할 수 있다. 스트림 관리자(118)의 모델 비율 연산기(MRC)는 제2 논리 블록 어드레스 범위LBA_r2)에 대응하는 모델 비율로서 제1 모델 비율(R_1)을 선택 또는 연산할 수 있다. 제2 논리 블록 어드레스 범위(LBA_r2)는 순차 패턴(SEQ.)에 대응되고, 순차 패턴(SEQ.)에 대하여, 제2 기계 학습 모델(ML2)이 제1 기계 학습 모델(ML1)보다 더 나은 스트림 분류 성능 및 정확도를 가질 수 있다. 따라서, 제1 모델 비율(R_1)에서, 제1 기계 학습 모델(ML1)에 대응하는 계수(r11)는 0.05로 설정되고, 제2 기계 학습 모델(ML2)에 대응하는 계수(r12)는 0.95로 설정될 수 있다. 제1 모델 비율(R_1)을 기반으로 스트림 식별자(SID)가 연산되는 경우, 순차 패턴(SEQ.)에 대하여, 더 나은 성능 및 정확도를 갖는 제2 기계 학습 모델(ML2)의 결과 값이 지배적으로 반영될 것이다.
반면에, 도 1, 도 5, 및 도 9를 참조하면, 호스트(11)로부터 수신된 제2 쓰기 요청(RQ2)은 제3 논리 블록 어드레스 범위(LBA_r3)에 포함될 수 있다. 스트림 관리자(118)의 제1 및 제2 기계 학습 모델들(ML1, ML2) 각각은 제2 쓰기 요청(RQ2)에 대한 기계 학습을 수행하여 결과 값들을 도출할 수 있다. 스트림 관리자의 모델 비율 연산기(MRC)는 제3 논리 블록 어드레스 범위(LBA_r3)에 대응하는 모델 비율로서 제2 모델 비율(R_2)을 선택 또는 연산할 수 있다. 제3 논리 블록 어드레스 범위(LBA_r3)는 랜덤 패턴(RAND.)에 대응되고, 랜덤 패턴(RAND.)에 대하여, 제1 기계 학습 모델(ML1)이 제2 기계 학습 모델(ML2)보다 더 나은 스트림 분류 성능 및 정확도를 가질 수 있다. 따라서, 제2 모델 비율(R_2)에서, 제1 기계 학습 모델(ML1)에 대응하는 계수(r21)는 0.90으로 설정되고, 제2 기계 학습 모델(ML2)에 대응하는 계수(r22)는 0.10으로 설정될 수 있다. 제2 모델 비율(R_2)을 기반으로 스트림 식별자(SID)가 연산되는 경우, 랜덤 패턴(RAND.)에 대하여 더 나은 성능 및 정확도를 갖는 제1 기계 학습 모델(ML2)의 결과 값이 지배적으로 반영될 것이다.
상술된 바와 같이, 본 발명의 실시 예에 따른 스토리지 장치(100)는 복수의 기계 학습 모델들을 사용하여 쓰기 요청 또는 입출력 요청에 대한 스트림 분류를 수행할 수 있다. 이 때, 스토리지 장치(100)는 쓰기 요청 또는 입출력 요청의 특성을 기반으로, 복수의 기계 학습 모델들에 반영되는 모델 비율을 선택 또는 연산할 수 있다. 따라서, 쓰기 요청 또는 입출력 요청의 특성에 따른 모든 범위에 대하여, 스트림 분류의 성능 및 정확도가 향상될 수 있으며, 이에 따라, 스토리지 장치의 전반적인 성능이 향상될 수 있다.
도 10은 도 1의 스토리지 장치의 동작을 보여주는 순서도이다. 도 1 및 도 10을 참조하면, S110 단계에서, 스토리지 장치(100)는 호스트(11)로부터 입출력 요청을 수신할 수 있다. 예를 들어, 스토리지 장치(100)는 호스트 인터페이스 회로(116)를 통해 호스트(11)로부터 입출력 요청을 수신할 수 있다. 일 실시 예에서, 입출력 요청은 앞서 설명된 쓰기 요청일 수 있다. 일 실시 예에서, 입출력 요청은 스트림 식별자와 같은 정보를 포함하지 않을 수 있다. 또는 입출력 요청은 논리적 스트림 식별자를 포함할 수 있다. 일 실시 예에서, 논리적 스트림 식별자는 스토리지 장치(100)에서 관리되는 스트림 식별자(즉, 물리적 스트림 식별자)와 별개로, 호스트(11)에 의해 관리되는 스트림을 지칭하는 정보일 수 있다. 일 실시 예에서, 호스트(11)에 의해 관리되는 논리적 스트림들의 개수는 스토리지 장치(100)에서 관리되는 물리적 스트림들의 개수보다 많을 수 있다. 이 경우, 스토리지 장치(100)는 논리적 스트림들을 물리적 스트림들로 매핑하기 위한 별도의 관리 또는 스트림 할당이 필요하며, 이 때, 스토리지 장치(100)는 앞서 설명된 동작 방법을 기반으로 논리적 스트림들 및 물리적 스트림들 사이의 맵핑을 수행할 수 있다.
일 실시 예에서, 입출력 요청은 누적된 복수의 쓰기 요청들을 포함할 수 있다. 예를 들어, 스토리지 장치(100)는 복수의 쓰기 요청들을 호스트(11)로부터 수신하고, 수신된 복수의 쓰기 요청들을 누적할 수 있다. 스토리지 장치(100)는 복수의 쓰기 요청들이 누적된 단위인 입출력 요청의 단위로 스트림 할당을 수행할 수 있다. 일 실시 예에서, 하나의 입출력 요청(즉, 스트림 할당이 수행되는 단위)에 포함된 누적된 쓰기 요청들의 개수는 미리 정해진 개수일 수 있다. 또는 하나의 입출력 요청(즉, 스트림 할당이 수행되는 단위)에 포함된 누적된 쓰기 요청들에 대응하는 누적된 쓰기 데이터의 크기는 미리 정해진 크기일 수 있다.
스토리지 장치(100)는 S110 단계의 동작 이후에, S120 단계 내지 S150 단계의 동작들을 수행할 수 있다. 일 실시 예에서, 스토리지 장치(100)는 또는 입출력 요청들 각각에 대하여, S120 단계 내지 S150 단계의 동작들을 수행할 수 있다. 또는 스토리지 장치(100)는 S110 단계의 동작을 통해 입출력 요청들을 미리 정해진 크기 단위로 누적하고, 미리 정해진 크기 단위로 S120 단계 내지 S150 단계의 동작들을 수행할 수 있다. 일 실시 예에서, 스토리지 장치(100)는 논리 블록 어드레스 범위에 따라 입출력 요청들을 구분하여 누적할 수 있다. 이하에서 설명의 편의를 위해, 하나의 입출력 요청에 대하여 S120 단계 내지 S150 단계의 동작들이 수행되는 것으로 가정한다.
S120 단계에서, 스토리지 장치(100)는 적어도 2개의 기계 학습 모델들(또는 복수의 기계 학습 모델들)을 사용하여 스트림 식별자의 후보들을 생성할 수 있다. 예를 들어, 스토리지 장치(100)는 복수의 기계 학습 모델들을 기반으로 입출력 요청에 대한 기계 학습을 수행하여 결과 값들을 도출할 수 있다. 결과 값들은 스트림 식별자의 후보들일 수 있다. 일 실시 예에서, 복수의 기계 학습 모델들 각각은 서로 다른 기계 학습 알고림즘에 기반될 수 있으며, 복수의 기계 학습 모델 각각은 입출력 요청의 특성에 따른 구간들 각각에 대하여 서로 다른 스트림 분류 성능 및 정확도를 가질 수 있다.
S130 단계에서, 스토리지 장치(100)는 입출력 요청의 특성을 추출할 수 있다. 일 실시 예에서, 입출력 요청의 특성은 논리 블록 어드레스, 논리 블록 어드레스 범위, 요청 크기 등과 같은 정보를 포함할 수 있다. 또는 입출력 요청의 특성은 인접한 입출력 요청들(즉, 워크로드)의 논리 블록 어드레스의 연속성, 덮어쓰기 비율 등과 같은 정보를 포함할 수 있다. 일 실시 예에서, 워크로드)의 논리 블록 어드레스의 연속성, 덮어쓰기 비율은 입출력 요청 또는 쓰기 요청을 샘플링함으로써 획득될 수 있다.
S140 단계에서, 스토리지 장치(100)는 추출된 특성을 기반으로, 모델 비율을 결정할 수 있다. 예를 들어, 스토리지 장치(100)의 스트림 관리자(118)는 도 6을 참조하여 설명된 구성을 기반으로, 복수의 기계 학습 모델들 각각에 반영될 모델 비율을 결정할 수 있다.
S150 단계에서, 스토리지 장치(100)는 스트림 식별자의 후보들 및 모델 비율을 기반으로, 입출력 요청에 대한 스트림 식별자(SID)를 결정할 수 있다. 예를 들어, 스토리지 장치(100)의 스트림 관리자(118)는 모델 비율을 스트림 식별자의 후보들(즉, 복수의 기계 학습 모델들의 결과 값들)에 각각 반영함으로써, 입출력 요청에 대한 스트림 식별자(SID)를 결정할 수 있다. 이 경우, 복수의 기계 학습 모델들 중 입출력 요청의 특성에 대하여 더 나은 스트림 분류 성능을 갖는 기계 학습 모델이 최종 결정된 스트림 식별자(SID)에 지배적으로 반영되기 때문에, 스트림 식별자의 할당 및 분류에 대한 성능 및 정확도가 향상된다.
도 11은 도 1의 스트림 관리자를 보여주는 도면이다. 설명의 편의를 위해, 앞서 설명된 구성 요소들에 대한 상세한 설명은 생략된다. 도 1 및 도 11을 참조하면, 스트림 관리자(118-A)는 복수의 기계 학습 모델들(ML1~MLn) 및 스트림 식별자 판별기를 포함할 수 있다. 복수의 기계 학습 모델들(ML1~MLn)은 쓰기 요청(RQ)에 대한 기계 학습을 수행하여 결과 값들(a_1~a_n)을 도출할 수 있다. 복수의 기계 학습 모델들(ML1~MLn)은 앞서 설명되었으므로, 이에 대한 상세한 설명은 생략된다.
일 실시 예에서, 스트림 식별자 판별기는 제0 기계 학습 모델(ML0)로 구현될 수 있다. 제0 기계 학습 모델(ML0)은 쓰기 요청(RQ)을 기반으로, 복수의 기계 학습 모델들(ML1~MLn)로부터의 결과 값들(a_1~a_n)을 조합하도록 구성된 앙상블 모델일 수 있다. 즉, 도 6의 실시 예와 달리, 스트림 식별자(118-A)는 모델 비율(R_x) 및 특성(CRx) 사이의 관계를 포함하는 별도의 룩 업 테이블(LUT) 없이, 제0 기계 학습 모델(ML0)(또는 앙상블 모델)을 사용하여, 복수의 기계 학습 모델들(ML1~MLn)의 결과 값들(a_1~a_n)을 조합하여, 최종 스트림 식별자(SID)를 결정할 수 있다.
일 실시 예에서, 제0 기계 학습 모델(ML0)은 별도의 쓰기 요청(RQ0)의 특성에 대한 정보 없이, 복수의 기계 학습 모델들(ML1~MLn)의 결과 값들(a_1~a_n)을 입력 값들로 사용하여, 최종 스트림 식별자(SID)를 추론 또는 도출할 수 있다. 일 실시 예에서, 제0 기계 학습 모델(ML0)은 상술된 추론 과정 동안 학습될 수 있다.
상술된 바와 같이, 본 발명에 따르면, 스토리지 장치(100)는 호스트(11)로부터의 입출력 요청을 스트림 단위로 구분 또는 분류하여 관리할 수 있다. 예를 들어, 스토리지 장치(100)는 복수의 기계 학습 모델들을 사용하여 입출력 요청에 대한 스트림 식별자의 후보들을 생성하고, 입출력 요청의 특성을 기반으로 모델 비율을 결정할 수 있다. 스토리지 장치(100)는 스트림 식별자의 후보들에 모델 비율을 반영함으로써, 최종 스트림 식별자(SID)를 결정할 수 있다. 단일 기계 학습 모델을 사용하여 스트림을 분류하는 경우와 비교하여, 복수의 기계 학습 모델들을 사용하여 스트림을 분류하고, 복수의 기계 학습 모델들에 입출력 요청의 특성에 따라 다른 모델 비율을 반영하기 때문에, 입출력 요청의 특성에 따른 전 구간에서 스트림 분류 성능 및 정확도가 향상된다.
도 12은 본 발명에 따른 스토리지 장치가 적용된 스토리지 시스템을 예시적으로 보여주는 도면이다. 도 12은 도 1의 스토리지 장치(10)와 유사한 구성일 수 있다. 다만, 본 발명에 따른 효과를 좀 더 명확하게 설명하기 위해, 스토리지 시스템이 개념적인 형태로 도시된다.
도 1 및 도 12을 참조하면, 스토리지 시스템(10)에서, 복수의 애플리케이션들(APP1~APP4)이 구동될 수 있다. 일 실시 예에서, 복수의 애플리케이션들(APP1~APP4)은 호스트(11) 상에서 구동될 수 있다. 일 실시 예에서, 호스트(11)는 멀티-테넌트(multi-tenant)로 구현될 수 있으며, 복수의 애플리케이션들(APP1~APP4) 각각은 서로 다른 테넌트 상에서 구동될 수 있다.
복수의 애플리케이션들(APP1~APP4)은 파일 시스템(FS)을 통해 스토리지 장치(100)를 액세스하도록 구성될 수 있다. 일 실시 예에서, 복수의 애플리케이션들(APP1~APP4) 각각에서 생성되는 파일 또는 데이터는 서로 다른 특성을 가질 수 있다. 그러나 복수의 애플리케이션들(APP1~APP4)이 동일한 파일 시스템(FS)을 통해 스토리지 장치(100)를 액세스하는 경우, 별도의 정보(예를 들어, 호스트(11)에 의해 관리되는 스트림 정보)가 제공되지 않는 한, 스토리지 장치(100)는 복수의 애플리케이션들(APP1~APP4) 각각에서 생성되는 파일 또는 데이터를 일반적으로 관리할 것이다. 이 경우, 복수의 애플리케이션들(APP1~APP4) 각각에서 생성되는 파일 또는 데이터가 불휘발성 메모리 장치(120) 내에서 구분되지 않기 때문에, 유지 관리 동작이 빈번하게 발생할 것이다.
반면에, 본 발명의 실시 예에 따른 스토리지 장치(100)의 스트림 관리자(118)는 도 1 내지 도 12를 참조하여 설명된 스트림 할당 방법을 기반으로 복수의 애플리케이션들(APP1~APP4)에서 생성된 파일 또는 데이터를 복수의 스트림들(SID_1~SID_4)로 각각 구분할 수 있다. 즉, 제1 애플리케이션(APP_1)에 의해 생성된 파일 또는 데이터는 제1 스트림(SID_1)으로 분류될 수 있고, 제2 애플리케이션(APP_2)에 의해 생성된 파일 또는 데이터는 제2 스트림(SID_2)으로 분류될 수 있고, 제3 애플리케이션(APP_3)에 의해 생성된 파일 또는 데이터는 제3 스트림(SID_3)으로 분류될 수 있고, 제4 애플리케이션(APP_4)에 의해 생성된 파일 또는 데이터는 제4 스트림(SID_4)으로 분류될 수 있다. 이 경우, 하나의 애플리케이션에 의해 생성된 파일 또는 데이터가 동일한 스트림으로 관리되기 때문에, 불휘발성 메모리 장치(120)에 대한 유지 관리 동작이 감소되거나 또는 WAF 특성이 개선될 수 있다.
도 13는 본 발명의 실시 예에 따른 스토리지 시스템을 예시적으로 보여주는 블록도이다. 설명의 편의를 위해, 앞서 설명된 구성 요소들에 대한 상세한 설명은 생략된다. 도 13를 참조하면, 스토리지 시스템(1000)은 호스트(1100) 및 스토리지 장치(1200)를 포함할 수 있다. 호스트(1100)는 호스트 컨트롤러(1110), 호스트 메모리(1120), 장치 드라이버(1130), 및 스트림 관리자(1140)를 포함할 수 있다. 스토리지 장치(1200)는 스토리지 컨트롤러(1210) 및 불휘발성 메모리 장치(1220)를 포함할 수 있다.
일 실시 예에서, 도 1 내지 도 12를 참조하여 설명된 실시 예들에서는, 스토리지 장치가 쓰기 요청에 대한 스트림을 관리하였으나, 도 13의 실시 예에서는, 호스트(1100)가 스토리지 장치(1200)에 저장될 데이터에 대한 스트림을 관리하도록 구성될 수 있다. 일 실시 예에서, 호스트(1100)의 스트림 관리자(1140)는 도 1 내지 도 12를 참조하여 설명된 스트림 관리자이거나 또는 도 1 내지 도 12를 참조하여 설명된 스트림 할당 방법을 기반으로 동작할 수 있다.
일 실시 예에서, 호스트(1100)의 스트림 관리자(1140)에 의해 할당된 스트림에 대한 정보는 쓰기 요청과 함께 스토리지 장치(1200)로 제공될 수 있다.
일 실시 예에서, 스토리지 장치(1200)는 호스트(1100)로부터 제공된 스트림 정보를 기반으로 데이터를 관리하도록 구성될 수 있다. 일 실시 예에서, 스토리지 장치(1200)는 호스트(1100)로부터 제공된 스트림 정보와 별도로, 내부적으로 쓰기 요청들에 대한 내부 스트림을 관리하도록 구성될 수 있다. 이 경우, 스토리지 장치(1200)는 도 1 내지 도 12를 참조하여 설명된 스트림 할당 방법을 기반으로 내부 스트림을 관리할 수 있다.
도 14는 본 발명의 실시 예에 따른 스토리지 장치가 적용된 데이터 센터를 예시적으로 보여주는 블록도이다. 데이터 센터(2000)는 다양한 데이터를 유지 관리하고, 다양한 데이터에 대한 다양한 서비스를 제공하는 시설로서, 데이터 스토리지 센터로 불릴 수 있다. 데이터 센터(200)는 검색 엔진 또는 데이터 베이스 운용을 위한 시스템일 수 있으며, 다양한 기관에서 사용된 컴퓨팅 시스템일 수 있다. 데이터 센터(2000)는 복수의 애플리케이션 서버들(2100_1~2100_n) 및 복수의 스토리지 서버들(2200_1~2200_m)을 포함할 수 있다. 복수의 애플리케이션 서버들(2100_1~2100_n)의 개수 및 복수의 스토리지 서버들(2200_1~2200_m)의 개수는 다양하게 변형될 수 있다.
이하에서, 설명의 편의를 위해, 제1 스토리지 서버(2200_1)의 예시가 설명된다. 나머지 스토리지 서버들(2200_2~2200_m) 및 복수의 애플리케이션 서버들(2100_1~2100_n) 각각은 제1 스토리지 서버(2200_1)와 유사한 구조를 가질 수 있다.
제1 스토리지 서버(2200_1)는 프로세서(2210_1), 메모리(2220_1), 스위치(2230_1), 네트워크 인터페이스 커넥터(NIC; network interface connector)(2240_1), 및 스토리지 장치(2250_1)를 포함할 수 있다. 프로세서(2210_1)는 제1 스토리지 서버(2200_1)의 전반적인 동작을 제어할 수 있다. 메모리(2220_1)는 프로세서(2210_1)의 제어에 따라 다양한 명령어 또는 데이터를 저장할 수 있다. 프로세서(2210_1)는 메모리(2220_1)를 액세스하여 다양한 명령어를 실행하거나 또는 데이터를 처리하도록 구성될 수 있다. 일 실시 예에서, 메모리(2220_1)는 DDR SDRAM(Double Data Rate Synchronous DRAM), HBM(High Bandwidth Memory), HMC(Hybrid Memory Cube), DIMM(Dual In-line Memory Module), Optane DIMM 또는 NVDIMM(Non-Volatile DIMM)과 같은 다양한 종류의 메모리 장치들 중 적어도 하나를 포함할 수 있다.
일 실시 예에서, 제1 스토리지 서버(2200_1)에 포함된 프로세서(2210_1)의 개수 및 메모리(2220_1)의 개수는 다양하게 변형될 수 있다. 일 실시 예에서, 제1 스토리지 서버(2200_1)에 포함된 프로세서(2210_1) 및 메모리(2220_1)는 프로세서-메모리 페어를 구성할 수 있으며, 제1 스토리지 서버(2200_1)에 포함된 프로세서-메모리 페어의 개수는 다양하게 변형될 수 있다. 일 실시 예에서, 제1 스토리지 서버(2200_1)에 포함된 프로세서(2210_1)의 개수 및 메모리(2220_1)의 개수는 서로 다를 수 있다. 프로세서(2210_1)는 싱글 코어 프로세서 또는 멀티 코어 프로세서를 포함할 수 있다.
스위치(2230_1)는 프로세서(2210_1)의 제어에 따라 프로세서(2210_1) 및 스스토리지 장치(2250_1) 사이를 선택적으로 연결시키거나 또는 NIC(2240_1) 및 스토리지 장치(2250_1) 사이를 선택적으로 연결시킬 수 있다.
NIC(2240_1)는 제1 스토리지 서버(2200_1)를 네트워크(NT)와 연결시키도록 구성될 수 있다. NIC(2240_1)는 네트워크 인터페이스 카드, 네트워크 어댑터 등을 포함할 수 있다. NIC(2240_1)는 유선 인터페이스, 무선 인터페이스, 블루투스 인터페이스, 광학 인터페이스 등에 의해 네트워크(NT)에 연결될 수 있다. NIC(2240_1)는 내부 메모리, DSP, 호스트 버스 인터페이스 등을 포함할 수 있으며, 호스트 버스 인터페이스를 통해 프로세서(2210_1) 또는 스위치(2230_1) 등과 연결될 수 있다. 호스트 버스 인터페이스는, ATA(Advanced Technology Attachment), SATA(Serial ATA), e-SATA(external SATA), SCSI(Small Computer Small Interface), SAS(Serial Attached SCSI), PCI(Peripheral Component Interconnection), PCIe(PCI express), NVMe(NVM express), IEEE 1394, USB(universal serial bus), SD(secure digital) 카드, MMC(multi-media card), eMMC(embedded multi-media card), UFS(Universal Flash Storage), eUFS(embedded Universal Flash Storage), CF(compact flash) 카드 인터페이스 등과 같은 다양한 인터페이스들 중 적어도 하나를 포함할 수 있다. 일 실시 예에서, NIC(2240_1)는 프로세서(2210_1), 스위치(2230_1), 및 스토리지 장치(2250_1) 중 적어도 하나와 통합될 수도 있다.
스토리지 장치(2250_1)는 프로세서(2210_1)의 제어에 따라 데이터를 저장하거나 또는 저장된 데이터를 출력할 수 있다. 스토리지 장치(2250_1)는 컨트롤러(2251_1), 불휘발성 메모리(2252_1), DRAM(2253_1), 및 인터페이스(2254_1)를 포함할 수 있다. 일 실시 예에서, 스토리지 장치(2250_1)는 보안 또는 프라이버시를 위해 SE(Secure Element)를 더 포함할 수 있다.
컨트롤러(2251_1)는 스토리지 장치(2250_1)의 제반 동작을 제어할 수 있다. 일 실시 예에서, 컨트롤러(2250_1)는 SRAM을 포함할 수 있다. 컨트롤러(2251_1)는 인터페이스(2254_1)를 통해 수신된 신호들에 응답하여 불휘발성 메모리(2252_1)에 데이터를 저장하거나 또는 불휘발성 메모리(2252_1)에 저장된 데이터를 출력할 수 있다. 일 실시 예에서, 컨트롤러(2251_1)는 토글 인터페이스 또는 ONFI 인터페이스를 기반으로 불휘발성 메모리(2252_1)를 제어하도록 구성될 수 있다.
DRAM(2253_1)은 불휘발성 메모리(2252_1)에 저장될 데이터 또는 불휘발성 메모리(2252_1)로부터 읽어진 데이터를 임시 저장하도록 구성될 수 있다. DRAM(2253_1)은 컨트롤러(2251_1)가 동작하는데 필요한 다양한 데이터(예를 들어, 메타 데이터, 매핑 데이터 등)를 저장하도록 구성될 수 있다. 인터페이스(2254_1)는 프로세서(2210_1), 스위치(2230_1), 또는 NIC(2240_1)와 컨트롤러(2251_1) 사이의 물리적 연결을 제공할 수 있다. 일 실시 예에서, 인터페이스(2254_1)는 스토리지 장치(2250_1)를 전용 케이블로 직접 접속하는 DAS(Direct Attached Storage) 방식으로 구현될 수 있다. 일 실시 예에서, 인터페이스(2254_1)는 앞서 호스트 인터페이스 버스를 통해 설명된 다양한 인터페이스들 중 적어도 하나를 기반으로 구성될 수 있다.
상술된 제1 스토리지 서버(2200_1)의 구성들은 예시적인 것이며, 본 발명의 범위가 이에 한정되는 것은 아니다. 상술된 제1 스토리지 서버(2200_1)의 구성들은 다른 스토리지 서버들 또는 복수의 애플리케이션 서버들 각각에 적용될 수 있다. 일 실시 예에서, 복수의 애플리케이션 서버들(2100_1~2100_n) 각각에서, 스토리지 장치(2150_1)는 선택적으로 생략될 수 있다.
복수의 애플리케이션 서버들(2100_1~2100_n) 및 복수의 스토리지 서버들(2200_1~2200_m)은 네트워크(NT)를 통해 서로 통신할 수 있다. 네트워크(NT)는 FC(Fibre Channel) 또는 이더넷(Ethernet) 등을 이용하여 구현될 수 있다. 이 때, FC는 상대적으로 고속의 데이터 전송에 사용되는 매체이며, 고성능/고가용성을 제공하는 광 스위치를 사용할 수 있다. 네트워크(NT)의 액세스 방식에 따라 스토리지 서버들(2200_1~2200_m)은 파일 스토리지, 블록 스토리지, 또는 오브젝트 스토리지로서 제공될 수 있다.
일 실시 예에서, 네트워크(NT)는 SAN(Storage Area Network)와 같은 스토리지 전용 네트워크일 수 있다. 예를 들어, SAN은 FC 네트워크를 이용하고 FCP(FC Protocol)에 따라 구현된 FC-SAN일 수 있다. 또는, SAN은 TCP/IP 네트워크를 이용하고 iSCSI(SCSI over TCP/IP 또는 Internet SCSI) 프로토콜에 따라 구현된 IP-SAN일 수 있다. 일 실시 예에서, 네트워크(NT)는 TCP/IP 네트워크와 같은 일반 네트워크일 수 있다. 예를 들어, 네트워크(NT)는 FCoE(FC over Ethernet), NAS(Network Attached Storage), NVMe-oF(NVMe over Fabrics) 등의 프로토콜에 따라 구현될 수 있다.
일 실시 예에서, 복수의 애플리케이션 서버들(2100_1~2100_n) 중 적어도 하나는 네트워크(NT)를 통해 복수의 애플리케이션 서버들(2100_1~2100_n) 중 적어도 다른 하나 또는 복수의 스토리지 서버들(2200_1~2200_m) 중 적어도 하나를 액세스하도록 구성될 수 있다.
예를 들어, 제1 애플리케이션 서버(2100_1)는 사용자 또는 클라이언트가 요청한 데이터를 네트워크(NT)를 통해 복수의 스토리지 서버들(2200_1~2200_m) 중 적어도 하나에 저장할 수 있다. 또는 제1 애플리케이션 서버(2100_1)는 사용자 또는 클라이언트가 요청한 데이터를 네트워크(NT)를 통해 복수의 스토리지 서버들(2200_1~2200_m) 중 적어도 하나로부터 획득할 수 있다. 이 경우, 제1 애플리케이션 서버(2100_1)는 웹 서버 또는 DBMS(Database Management System) 등으로 구현될 수 있다.
즉, 제1 애플리케이션 서버(2100_1)의 프로세서(2110_1)는 네트워크(NT)를 통해, 다른 애플리케이션 서버(예를 들어, 2100_n)의 메모리(2120_n) 또는 스토리지 장치(2150_n)을 액세스할 수 있다. 또는 제1 애플리케이션 서버(2100_1)의 프로세서(2110_1)는 네트워크(NT)를 통해, 제1 스토리지 서버(2200_1)의 메모리(2220_1) 또는 스토리지 장치(2250_1)를 액세스할 수 있다. 이를 통해, 제1 애플리케이션 서버(2100_1)는 다른 애플리케이션 서버들(2100_2~2100_n) 또는 복수의 스토리지 서버들(2200_1~2200_m)에 저장된 데이터에 대한 다양한 동작들을 수행할 수 있다. 예를 들어, 제1 애플리케이션 서버(2100_1)는 다른 애플리케이션 서버들(2100_2~2100_n) 또는 복수의 스토리지 서버들(2200_1~2200_m) 사이에서 데이터를 이동 또는 카피(copy)하기 위한 명령어를 실행하거나 또는 발행할 수 있다. 이 경우, 이동 또는 카피되는 데이터는 스토리지 서버들(2200_1~2200_m)의 스토리지 장치들(2250_1~2250_m)로부터 스토리지 서버들(2200_1~2200_m)의 메모리들(2220_1~2220_m)를 거치거나 또는 직접 애플리케이션 서버들(2100_1~2100_n)의 메모리들(2120_1~2120_n)로 이동될 수 있다. 네트워크(NT)를 통해 전달되는 데이터는 보안 또는 프라이버시를 위해 암호화된 데이터일 수 있다.
일 실시 예에서, 상술된 스토리지 서버들(2200_1~2200_m) 또는 스토리지 장치들(2150_1~2150_n, 2250_1~2250_m)은 본 발명의 실시 예에 따른 스트림 관리자를 포함할 수 있다. 즉, 스토리지 서버들(2200_1~2200_m) 또는 스토리지 장치들(2150_1~2150_n, 2250_1~2250_m) 중 적어도 하나는 도 1 내지 도 12를 참조하여 설명된 방법을 기반으로 입력된 데이터에 대한 스트림을 할당하고 관리하도록 구성될 수 있다.
상술된 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.

Claims (10)

  1. 다중 스트림을 지원하는 스토리지 장치의 동작 방법에 있어서,
    외부 호스트로부터 입출력 요청을 수신하는 단계;
    복수의 기계 학습 모델들을 기반으로, 상기 입출력 요청에 대한 기계 학습을 수행하여 복수의 스트림 식별자 후보들을 생성하는 단계;
    상기 입출력 요청의 특성을 기반으로 모델 비율을 생성하는 단계;
    상기 모델 비율을 상기 복수의 스트림 식별자 후보들에 반영하여, 상기 입출력 요청에 대한 최종 스트림 식별자를 할당하는 단계; 및
    상기 최종 스트림 식별자를 기반으로 상기 입출력 요청에 대응하는 쓰기 데이터를 상기 스토리지 장치의 불휘발성 메모리 장치에 저장하는 단계를 포함하고,
    상기 복수의 기계 학습 모델들 각각은 서로 다른 기계 학습 알고리즘에 기반되는 동작 방법.
  2. 제 1 항에 있어서,
    상기 입출력 요청의 특성은 상기 입출력 요청의 논리 블록 어드레스, 논리 블록 어드레스 범위, 및 요청 크기 중 적어도 하나를 포함하는 동작 방법.
  3. 제 1 항에 있어서,
    상기 입출력 요청의 특성은 상기 입출력 요청과 인접한 입출력 요청들의 논리 블록 어드레스의 연속성 및 덮어쓰기 비율 중 적어도 하나를 포함하는 동작 방법.
  4. 제 1 항에 있어서,
    상기 모델 비율은 상기 복수의 기계 학습 모델들에 대응하는 복수의 계수들을 포함하고,
    상기 복수의 계수들은 서로 다른 값을 갖는 동작 방법.
  5. 제 4 항에 있어서,
    상기 입출력 요청의 상기 특성이 제1 논리 블록 어드레스 범위에 대응하는 경우에서의 상기 복수의 계수들은 상기 입출력 요청의 상기 특성이 제2 논리 블록 어드레스 범위에 대응하는 경우에서의 상기 복수의 계수들과 다른 동작 방법.
  6. 제 1 항에 있어서,
    상기 복수의 기계 학습 모델들 각각은 선형 회귀 알고리즘, 서포트 벡터 머신 알고리즘, 딥 뉴럴 네트워크 알고리즘, 딥스트림 알고리즘, K-평균 알고리즘, 클러스터링 알고리즘, 오토 인코더 알고리즘, 콘볼루션 뉴럴 네트워크 알고리즘, 샴 네트워크 알고리즘 중 적어도 하나의 알고리즘에 기반되는 동작 방법.
  7. 제 1 항에 있어서,
    상기 입출력 요청의 특성을 기반으로 모델 비율을 생성하는 단계는:
    상기 입출력 요청의 상기 특성을 추출하는 단계; 및
    룩 업 테이블로부터 상기 특성에 대응하는 상기 모델 비율을 선택하여 출력하는 단계를 포함하고,
    상기 룩 업 테이블은 복수의 엔트리들을 포함하고, 상기 복수의 엔트리들 각각은 복수의 특성들 각각에 대응하는 모델 비율에 대한 정보를 포함하는 동작 방법.
  8. 제 7 항에 있어서,
    상기 룩 업 테이블은 상기 스토리지 장치의 펌웨어에 포함되는 동작 방법.
  9. 제 1 항에 있어서,
    상기 최종 스트림 식별자가 제1 스트림 식별자인 경우, 상기 쓰기 데이터를 상기 불휘발성 메모리 장치의 제1 메모리 블록에 저장하고,
    상기 최종 스트림 식별자가 상기 제1 스트림 식별자와 다른 제2 스트림 식별자인 경우, 상기 쓰기 데이터를 상기 불휘발성 메모리 장치의 상기 제1 메모리 블록과 다른 제2 메모리 블록에 저장하는 동작 방법.
  10. 제 1 항에 있어서,
    상기 입출력 요청은 누적된 쓰기 요청들을 포함하고, 상기 누적된 쓰기 요청들에 대응하는 누적된 쓰기 데이터의 크기는 미리 정해진 크기인 동작 방법.

KR1020210032001A 2021-03-11 2021-03-11 다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법 KR20220127559A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210032001A KR20220127559A (ko) 2021-03-11 2021-03-11 다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법
CN202210215803.3A CN115083478A (zh) 2021-03-11 2022-03-07 配置为支持多流的存储设备的操作方法
US17/691,758 US20220291864A1 (en) 2021-03-11 2022-03-10 Operation method of storage device configured to support multi-stream

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210032001A KR20220127559A (ko) 2021-03-11 2021-03-11 다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법

Publications (1)

Publication Number Publication Date
KR20220127559A true KR20220127559A (ko) 2022-09-20

Family

ID=83194938

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210032001A KR20220127559A (ko) 2021-03-11 2021-03-11 다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법

Country Status (3)

Country Link
US (1) US20220291864A1 (ko)
KR (1) KR20220127559A (ko)
CN (1) CN115083478A (ko)

Also Published As

Publication number Publication date
CN115083478A (zh) 2022-09-20
US20220291864A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
US20190018605A1 (en) Use of predefined block pointers to reduce duplicate storage of certain data in a storage subsystem of a storage server
US9778856B2 (en) Block-level access to parallel storage
US11061770B1 (en) Reconstruction of logical pages in a storage system
US11256678B2 (en) Reconstruction of links between logical pages in a storage system
US11099940B1 (en) Reconstruction of links to orphaned logical pages in a storage system
US11269547B2 (en) Reusing overwritten portion of write buffer of a storage system
US20220027059A1 (en) Efficient token management in a storage system
US20210342298A1 (en) Finding storage objects of a snapshot group pointing to a logical page in a logical address space of a storage system
US10514861B1 (en) Reporting of space savings due to pattern matching in storage systems
US11620263B2 (en) Data compression using dictionaries
US11210230B2 (en) Cache retention for inline deduplication based on number of physical blocks with common fingerprints among multiple cache entries
US11921639B2 (en) Method for caching data, a host device for caching data, and a storage system for caching data
KR102493864B1 (ko) 스토리지 장치의 동작 방법 및 호스트 및 스토리지 장치를 포함하는 스토리지 시스템의 동작 방법
US11947419B2 (en) Storage device with data deduplication, operation method of storage device, and operation method of storage server
US11232043B2 (en) Mapping virtual block addresses to portions of a logical address space that point to the virtual block addresses
US11366601B2 (en) Regulating storage device rebuild rate in a storage system
US11907568B2 (en) Storage controller, storage device, and operation method of storage device
CN117112219A (zh) 主机内存数据访问的方法和装置
US10372347B2 (en) Selectively limiting throughput of test objects that share system resources with production objects
KR20220127559A (ko) 다중-스트림을 지원하도록 구성된 스토리지 장치의 동작 방법
US11360691B2 (en) Garbage collection in a storage system at sub-virtual block granularity level
KR102484073B1 (ko) 스토리지 시스템
US20240192860A1 (en) Method and device for log structured merge-tree based key-value data storage
US11860834B1 (en) Reporting of space savings due to pattern matching in storage systems
US20230153237A1 (en) Method and device for storing data