KR20200057397A - 메모리를 공유하는 이종의 프로세서들을 포함하는 스토리지 장치 및 그것의 동작 방법 - Google Patents
메모리를 공유하는 이종의 프로세서들을 포함하는 스토리지 장치 및 그것의 동작 방법 Download PDFInfo
- Publication number
- KR20200057397A KR20200057397A KR1020180141742A KR20180141742A KR20200057397A KR 20200057397 A KR20200057397 A KR 20200057397A KR 1020180141742 A KR1020180141742 A KR 1020180141742A KR 20180141742 A KR20180141742 A KR 20180141742A KR 20200057397 A KR20200057397 A KR 20200057397A
- Authority
- KR
- South Korea
- Prior art keywords
- processor
- buffer memory
- access
- memory
- request
- Prior art date
Links
- 230000015654 memory Effects 0.000 title claims abstract description 291
- 238000000034 method Methods 0.000 title claims description 54
- 238000004891 communication Methods 0.000 claims abstract description 26
- 230000003936 working memory Effects 0.000 claims abstract description 17
- 230000001133 acceleration Effects 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 13
- 101150039208 KCNK3 gene Proteins 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/167—Interprocessor communication using a common memory, e.g. mailbox
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/16—Handling requests for interconnection or transfer for access to memory bus
- G06F13/1668—Details of memory controller
- G06F13/1673—Details of memory controller using buffers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0207—Addressing or allocation; Relocation with multidimensional access, e.g. row/column, matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0868—Data transfer between cache memory and other subsystems, e.g. storage devices or host systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
- G06F12/109—Address translation for multiple virtual address spaces, e.g. segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0658—Controller construction arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1032—Reliability improvement, data loss prevention, degraded operation etc
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1041—Resource optimization
- G06F2212/1044—Space efficiency improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/21—Employing a record carrier using a specific recording technology
- G06F2212/214—Solid state disk
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/28—Using a specific disk cache architecture
- G06F2212/283—Plural cache memories
- G06F2212/284—Plural cache memories being distributed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/31—Providing disk cache in a specific location of a storage system
- G06F2212/313—In storage device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/65—Details of virtual memory and virtual address translation
- G06F2212/657—Virtual address space management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7201—Logical to physical mapping or translation of blocks or pages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7203—Temporary buffering, e.g. using volatile buffer or dedicated buffer blocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Neurology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Advance Control (AREA)
Abstract
스토리지 장치가 개시된다. 본 개시의 스토리지 장치는, 제 1 프로세서를 포함하는 가속기, 그리고 버퍼 메모리를 워킹 메모리로써 사용하되 상기 제 1 프로세서와 다른 이종의 제 2 프로세서를 포함하는 스토리지 컨트롤러를 포함한다. 상기 제 2 프로세서는, 상기 제 1 프로세서의 요청에 따라, 상기 제 1 프로세서와 상기 버퍼 메모리 사이의 제 1 통신 경로를 설정하고, 상기 제 1 프로세서는 상기 제 1 통신 경로를 통하여 상기 버퍼 메모리를 액세스할 수 있다.
Description
본 발명은 스토리지 장치에 관한 것으로, 좀 더 상세하게는, 서로 메모리를 공유하는 이종의 프로세서들을 포함하는 스토리지 장치의 동작 방법에 관한 것이다.
근래에 들어, 프로세서와 가속기를 결합하여 전자 장치의 처리 속도를 향상시키기 위한 많은 시도들이 있었다. 이러한 시도는 다양한 분야에 걸쳐 이루어졌으며, 특히, SSD (Solid State Drive)와 같은 대용량 스토리지 장치에 있어서도, 가속기 기반의 플랫폼을 갖는 스토리지 장치에 대한 많은 연구가 있었다.
그러나, 가속기를 포함하는 전자 장치에서, 컨트롤러에 의한 연산과 가속기 에 의한 가속 연산 사이의 데이터 교환은 필연적일 수 밖에 없다. 이에, 외부의 호스트 메모리를 통하여 컨트롤러와 가속기 사이의 데이터 교환이 이루어지는 방안이 이용되고 있으나, 이는 호스트 메모리와 가속기 사이, 혹은 호스트 메모리와 컨트롤러 사이의 병목 현상을 야기한다. 또한, 컨트롤러와 가속기 사이의 직접적인 통신을 구현한다 하더라도, 데이터의 교환에 따른 부하 증가, 성능 저하, 및 메모리 부족 문제 등은 여전히 중요한 이슈이다.
본 개시의 기술 사상은 서로 다른 이종의 프로세서들을 포함하는 스토리지 장치의 메모리 공유 방안을 제공한다.
본 개시의 예시적인 실시 예에 따른 스토리지 장치는, 제 1 프로세서를 포함하는 가속기, 그리고 버퍼 메모리를 워킹 메모리로써 사용하되 상기 제 1 프로세서와 다른 이종의 제 2 프로세서를 포함하는 스토리지 컨트롤러를 포함하되, 상기 제 2 프로세서는, 상기 제 1 프로세서의 요청에 따라, 상기 제 1 프로세서와 상기 버퍼 메모리 사이의 제 1 통신 경로를 설정하고, 상기 제 1 프로세서는 상기 제 1 통신 경로를 통하여 상기 버퍼 메모리를 액세스할 수 있다.
본 개시의 예시적인 실시 예에 따른 컨트롤러는, 제 1 프로세서, 버퍼 메모리를 워킹 메모리로써 사용하되 상기 제 1 프로세서와 다른 이종의 제 2 프로세서, 그리고 상기 제 1 프로세서와 상기 제 2 프로세서를 통신적으로 연결하는 버스를 포함하되, 상기 제 2 프로세서는, 상기 제 1 프로세서의 요청에 따라, 상기 제 1 프로세서와 상기 버퍼 메모리 사이의 제 1 통신 경로를 설정할 수 있다.
본 개시의 예시적인 실시 예에 따른, 제 1 프로세서, 상기 제 1 프로세서와는 다른 이종의 제 2 프로세서를 포함하는 스토리지 장치의 동작 방법은, 상기 제 1 프로세서에 의해, 상기 제 2 프로세서의 버퍼 메모리에 대한 액세스를 요청하는 단계, 상기 제 2 프로세서에 의해, 상기 버퍼 메모리의 물리 주소들에 대응하는 가상 주소들 중 적어도 일부를 상기 제 1 프로세서에 할당하는 단계, 그리고 상기 제 1 프로세서에 의해, 상기 할당된 논리 주소를 참조하여 상기 버퍼 메모리를 액세스하는 단계를 포함할 수 있다.
본 개시의 예시적인 실시 예들에 의하면, 프로세서는 다른 프로세서 전용의 버퍼 메모리를 액세스 할 수 있으므로, 연산 또는 가속 연산을 수행하기 위한 메모리 공간을 확보할 수 있다.
뿐만 아니라, 본 개시의 예시적인 실시 예들에 의하면, 프로세서는 연산 또는 가속 연산에 필요한 데이터를 획득하기 위해, 다른 프로세서 전용의 버퍼 메모리를 액세스할 수 있으므로, 불필요한 데이터의 복사를 방지할 수 있다.
도 1은 본 개시의 실시 예에 따른 전자 시스템의 예시적인 구성을 도시한다.
도 2는 도 1의 전자 시스템의 예시적인 구현을 도시한다.
도 3은 도 1의 스토리지 장치의 예시적인 구성을 도시한다.
도 4는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 5는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 6은 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 7은 도 6의 제 2 프로세서에 의해 관리되는 가상 주소를 통하여 제 1 프로세서가 버퍼 메모리를 액세스하는 것을 개념적으로 도시한다.
도 8은 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 9는 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 10은 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 11은 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 12는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 13은 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 14는 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 15는 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 16은 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 17은 도 1의 스토리지 장치의 예시적인 구성을 도시한다.
도 18은 도 17의 스토리지 장치의 예시적인 구성을 도시한다.
도 19는 본 개시의 예시적인 실시 예에 따른 컴퓨팅 시스템의 구성을 도시한다.
도 2는 도 1의 전자 시스템의 예시적인 구현을 도시한다.
도 3은 도 1의 스토리지 장치의 예시적인 구성을 도시한다.
도 4는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 5는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 6은 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 7은 도 6의 제 2 프로세서에 의해 관리되는 가상 주소를 통하여 제 1 프로세서가 버퍼 메모리를 액세스하는 것을 개념적으로 도시한다.
도 8은 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 9는 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 10은 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 11은 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 12는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 13은 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 14는 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 15는 도 3의 스토리지 장치의 예시적인 구성을 도시한다.
도 16은 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다.
도 17은 도 1의 스토리지 장치의 예시적인 구성을 도시한다.
도 18은 도 17의 스토리지 장치의 예시적인 구성을 도시한다.
도 19는 본 개시의 예시적인 실시 예에 따른 컴퓨팅 시스템의 구성을 도시한다.
이하에서, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다.
상세한 설명에서 사용되는 부 또는 유닛(unit), 모듈(module), ~기(~er, ~or) 등의 용어들을 참조하여 설명되는 구성 요소들 및 도면에 도시된 기능 블록들은 소프트웨어, 또는 하드웨어, 또는 그것들의 조합의 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계 코드, 펌웨어, 임베디드 코드, 및 애플리케이션 소프트웨어일 수 있다. 예를 들어, 하드웨어는 전기 회로, 전자 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어들, 압력 센서, 관성 센서, 멤즈(microelectromechanical system; MEMS), 수동 소자, 또는 그것들의 조합을 포함할 수 있다.
도 1은 본 개시의 실시 예에 따른 전자 시스템(1000)의 예시적인 구성을 도시한다.
전자 시스템(1000)는 메인 프로세서(1100), 워킹 메모리(1200), 스토리지 장치(1300), 통신 모듈(1400), 유저 인터페이스(1500), 및 시스템 버스(1600)를 포함할 수 있다. 예를 들어, 전자 시스템(1000)는 데스크톱(Desktop) 컴퓨터, 랩톱(Laptop) 컴퓨터, 태블릿(Tablet), 스마트폰, 웨어러블(Wearable) 장치, 비디오 게임기(Video Game Console), 워크스테이션(Workstation), 서버(Server), 전기 자동차 등과 같은 전자 시스템들 중 하나일 수 있다.
메인 프로세서(1100)는 전자 시스템(1000)의 전반적인 동작들을 제어할 수 있다. 예를 들어, 메인 프로세서(1100)는 다양한 종류의 산술 및/또는 논리 연산들을 처리할 수 있다. 이를 위해, 메인 프로세서(1100)는 적어도 하나 또는 그 이상의 프로세서 코어들을 포함하는 범용 프로세서, 전용 프로세서, 또는 애플리케이션 프로세서로 구현될 수 있다.
워킹 메모리(1200)는 전자 시스템(1000)의 동작에 이용되는 데이터를 저장할 수 있다. 예를 들어, 워킹 메모리(1200)는 메인 프로세서(1100)에 의해 처리된 또는 처리될 데이터를 일시적으로 저장할 수 있다. 예를 들어, 워킹 메모리(1200)는 DRAM (Dynamic RAM), SDRAM (Synchronous RAM) 등과 같은 휘발성 메모리, 및/또는 PRAM (Phase-change RAM), MRAM (Magneto-resistive RAM), ReRAM (Resistive RAM), FRAM (Ferro-electric RAM) 등과 같은 불휘발성 메모리를 포함할 수 있다.
스토리지 장치(1300)는 플래시 메모리, PRAM, MRAM, ReRAM, FRAM 등과 같은 적어도 하나의 불휘발성 메모리 장치를 포함할 수 있다. 나아가, 스토리지 장치(1300)는, 불휘발성 메모리 장치에 저장될 혹은 저장된 데이터를 처리하는데 필요한 DRAM과 같은 적어도 하나의 휘발성 메모리 장치 (또는 버퍼 메모리)를 포함할 수 있다. 예를 들어, 스토리지 장치(1300)는 하나 또는 그 이상의 SSD (Solid State Drive)와 같은 저장 매체로 구현될 수 있다.
통신 모듈(1400)은 전자 시스템(1000)의 외부 장치/시스템과 통신하기 위해 다양한 무선/유선 통신 규약 중 적어도 하나를 지원할 수 있다. 유저 인터페이스(1500)는 사용자와 전자 시스템(1000) 사이의 통신을 중재하기 위해 다양한 입력/출력 인터페이스를 포함할 수 있다.
시스템 버스(1600)는 전자 시스템(1000)의 구성 요소들 사이에서 통신 경로를 제공할 수 있다. 전자 시스템(1000)의 구성 요소들은 시스템 버스(1600)의 버스 포맷에 따라 데이터를 교환할 수 있다. 예를 들어, 시스템 버스(1600)는 PCIe (Peripheral Component Interconnect Express), NVMe (Nonvolatile Memory Express), UFS (Universal Flash Storage), SATA (Serial Advanced Technology Attachment), SCSI (Small Computer System Interface), SAS (Serial Attached SCSI), Gen-Z (Generation-Z), CCIX (Cache Coherent Interconnect for Accelerators), OpenCAPI (Open Coherent Accelerator Processor Interface) 등의 다양한 인터페이스 규약 중 하나 이상을 지원할 수 있다.
도 2는 도 1의 전자 시스템(1000)의 예시적인 구현을 도시한다.
실시 예에서, 스토리지 장치(1300)는 PCB (Printed Circuit Board)(1301)를 포함할 수 있다. 스토리지 장치(1300)는 PCB(1301) 상에 실장 또는 장착되는 하나 이상의 칩 또는 패키지를 포함할 수 있다. 예를 들어, 스토리지 컨트롤러(1310), 가속기(1330), 버퍼 메모리들(1350a, 1350b), 및 불휘발성 메모리 장치들(1370)이 PCB(1301) 상에 실장 또는 장착될 수 있다.
가속기(1310)는 스토리지 컨트롤러(1330)가 수행하는 동작들의 처리 속도를 향상시키는 가속 연산을 수행할 수 있다. 이를 위해, 가속기(1310)는 가속 연산을 수행하도록 구성되는 하드웨어 가속 장치를 포함할 수 있다. 예를 들어, 가속기(1310)는 GPU (Graphics Processing Unit), NNPU (Neural Network Processing Unit), FPGA(Field Programmable Gate Array), ASIC(Application-Specific Integrated Circuit), DSP (digital signal processor) 등을 포함할 수 있다.
실시 예에 있어서, 가속기(1310)의 기능은 스토리지 컨트롤러에 임베디드(embedded)될 수 있다. 예를 들어, GPU, NNPU, FPGA 등이 스토리지 컨트롤러(1330) 내에 구현되는 경우, 스토리지 컨트롤러(1330)는 이종의(heterogeneous) 프로세서들을 포함하는 시스템-온-칩(system-on-chip)으로 구현될 수 있다. 특히, FPGA의 기능이 스토리지 컨트롤러(1330) 내에 구현되는 경우, FPGA는 임베디드 FPGA (embedded FPAG; eFPGA)로 칭해질 수 있다.
스토리지 컨트롤러(1330)는 스토리지 장치(1300)의 전반적인 동작들을 제어하고 관리할 수 있다. 이를 위해, 스토리지 컨트롤러(1330)는 의도된 동작들을 수행하도록 구성되는 하드웨어 회로(예컨대, 아날로그 회로, 논리 회로 등)를 포함할 수 있다. 추가적으로 또는 대안적으로, 스토리지 컨트롤러(1330)는 의도된 동작들을 수행하기 위한 프로그램 코드의 명령어 집합을 실행하도록 구성되는 하나 이상의 프로세서를 포함할 수 있다.
버퍼 메모리들(1350)은 가속기(1310)의 가속 연산 및/또는 스토리지 컨트롤러(1330)의 연산을 위한 워킹 메모리들로써 사용될 수 있다. 예를 들어, 버퍼 메모리들(1350)의 일부는 가속기(1310) 전용의 버퍼 메모리들일 수 있으며, 다른 일부는 스토리지 컨트롤러(1330) 전용의 버퍼 메모리들일 수 있다. 예를 들어, 버퍼 메모리들(1350)은 DRAM으로 구현될 수 있으나, 이에 한정되지 않는다. 한편, 본 개시의 예시적인 실시 예들에 의하면, 스토리지 컨트롤러(1330) 전용의 버퍼 메모리의 적어도 일부의 저장 공간은 가속기(1310)에 의해 공유될 수 있다. 혹은, 가속기(1310) 전용의 버퍼 메모리의 적어도 일부의 저장 공간은 스토리지 컨트롤러(1330)에 의해 공유될 수 있다. 이에 대해서는 상세하게 후술될 것이다.
불휘발성 메모리 장치들(1370)은 플래시 메모리, PRAM, MRAM, ReRAM, FRAM 등으로 구현될 수 있다. 특히, 불휘발성 메모리 장치들(1370)이 낸드 타입의 플래시 메모리(NAND-type Flash Memory)들을 포함하는 경우, 불휘발성 메모리 장치들(1370)은 기판에 수직 방향으로 형성되고, 복수의 워드 라인 및 복수의 비트 라인을 따라 형성되는 메모리 셀들의 어레이를 포함할 수 있다.
실시 예에 있어서, 스토리지 장치(1300)는 커넥터(1302)를 통하여 외부로부터 전원을 공급받을 수 있으며, 커넥터(1303)를 통하여 메인 프로세서(도 1, 1100)과 통신을 수행할 수 있다. 한편, 데이터가 교환되는 커넥터(1303)는 싱글-포트(Single-port)만을 나타내는 것으로 의도되지 않으며, 듀얼-포트(Dual-port)를 나타내는 경우도 포함하는 것으로 이해되어야 한다.
도 3은 도 1의 스토리지 장치(1300)의 예시적인 구성을 도시한다. 스토리지 장치(1300)는 가속기(1310), 스토리지 컨트롤러(1330), 버퍼 메모리들(1350a, 1350b), 및 불휘발성 메모리 장치들(1370)을 포함한다.
실시 예에 있어서, 가속기(1310)와 스토리지 컨트롤러(1330)는 피어-투-피어(peer-to-peer) 방식으로 서로 통신할 수 있다. 즉, 가속기(1310)는 메인 프로세서(1100)의 직접적인 개입 없이 스토리지 컨트롤러(1330)와 통신을 수행할 수 있다. 예를 들어, 가속기(1310)와 스토리지 컨트롤러(1330) 사이의 데이터 교환은 호스트 메모리(예컨대, 도 1의 워킹 메모리(1200))를 거치지 않고 이루어질 수 있다. 예를 들어, 가속기(1310)와 스토리지 컨트롤러(1330) 사이의 버스(1320)를 통하여 데이터가 교환될 수 있다.
가속기(1310)는 메인 프로세서(1100)로부터 할당 받은 작업에 대한 가속 연산을 수행할 수 있다. 또는, 가속기(1310)는 제 2 프로세서(1331)의 연산을 가속할 수 있다. 가속기(1310)는 제 2 프로세서(1331)와는 다른 이종의 제 1 프로세서(1311)를 포함할 수 있다. 실시 예에 있어서, 제 1 프로세서(1311)는 GPU, NNPU 등일 수 있다. 특히, 가속기(1310)가 FPGA로 구현되는 경우, 제 1 프로세서(1311)는 재구성 가능한(Reconfigurable) 로직 회로로써 구현될 수 있다. 다만, 전술된 제 1 프로세서(1311)는 단지 예시적인 것이며, 제 2 프로세서(1331)와는 다른 이종의 프로세서로 구현되는 경우도 본 발명의 범위에 포함될 것이다.
스토리지 컨트롤러(1330)는 시스템 버스(1600)를 통하여 메인 프로세서(1100)와 서로 통신할 수 있다. 스토리지 컨트롤러(1330)는 메인 프로세서(1100)로부터 작업(task)들을 할당 받고, 할당 받은 작업에 관한 연산을 수행할 수 있다. 여기서의 연산은 가속 연산이 아닌 일반적인 연산을 의미할 수 있다. 또는, 스토리지 컨트롤러(1330)는 메인 프로세서(1100)로부터의 요청에 따라 작업에 대한 연산을 수행할 수 있다. 스토리지 컨트롤러(1330)는 연산을 수행하기 위한 제 2 프로세서(1331)를 포함할 수 있다. 예를 들어, 제 2 프로세서(1331)는 CPU (Central Processing Unit)로 구현될 수 있다.
버퍼 메모리들(1350a, 1350b)은 각각 제 1 프로세서(1311)와 제 2 프로세서(1331) 전용의 버퍼 메모리들일 수 있다. 여기서, 제 1 프로세서(1311)에 전용(dedicated)이라 함은, 가속기(1310)의 다른 구성 요소들에 의한 버퍼 메모리(1350a)의 사용을 배제하기 위해 의도되지 않는다. 유사하게, 제 2 프로세서(1331)에 전용(dedicated)이라 함은, 스토리지 컨트롤러(1330)의 다른 구성 요소들에 의한 버퍼 메모리(1350b)의 사용을 배제하기 위해 의도되지 않는다.
불휘발성 메모리 장치들(1370)은 복수의 채널(CH)들을 통하여 스토리지 컨트롤러(1330)과 통신을 수행할 수 있다. 스토리지 컨트롤러(1330)의 제어 하에 데이터를 저장하거나 저장된 데이터를 출력할 수 있다. 예를 들어, 불휘발성 메모리 장치들(1370)에 저장된 데이터의 적어도 일부는 제 1 프로세서(1311)에 의한 가속 연산 또는 제 2 프로세서(1331)에 의한 연산에 사용될 수 있다.
한편, 본 개시의 예시적인 실시 예에 따른 스토리지 장치(1300)에 의하면, 제 1 프로세서(1311)는 제 2 프로세서(1331) 전용의 버퍼 메모리(1350b)를 액세스할 수 있다. 예를 들어, 제 1 프로세서(1311)는 가속 연산에 필요한 버퍼 메모리(1350a)의 용량이 부족한 경우 버퍼 메모리(1350b)를 액세스할 수 있다. 예를 들어, 메모리 공간 확보를 위한 액세스는 제 1 유형의 액세스로 칭해질 수 있다. 또는, 제 1 프로세서(1311)는 제 2 프로세서(1331)에 의해 처리된 혹은 처리중인 데이터를 획득하기 위해 버퍼 메모리(1350b)를 액세스할 수 있다. 예를 들어, 데이터 획득을 위한 액세스는 제 2 유형의 액세스로 칭해질 수 있다.
유사하게, 제 2 프로세서(1331)는 제 1 프로세서(1311) 전용의 버퍼 메모리(1350a)를 액세스할 수 있다. 예를 들어, 제 2 프로세서(1331)는 연산에 필요한 버퍼 메모리(1350b)의용량이 부족한 경우 버퍼 메모리(1350a)를 액세스할 수 있다. 또는, 제 2 프로세서(1331)는 제 1 프로세서(1311)에 의해 처리된 혹은 처리중인 데이터를 획득하기 위해 버퍼 메모리(1350a)를 액세스할 수 있다.
특히, 피어-투-피어 방식을 지원하지 않는 스토리지 장치의 경우, 제 1 프로세서(1311)가 버퍼 메모리(1350b)에 저장된 데이터를 획득하기 위해서는, 버퍼 메모리(1350b)에 저장된 데이터는 호스트 메모리(예컨대, 도 1의 워킹 메모리(1200)에 복사된 후 다시 버퍼 메모리(1350a)로 복사되어야 한다. 반대의 경우도 마찬가지이다. 이 경우, 메인 프로세서(1100)와 스토리지 장치(1300) 사이에 병목 현상이 발생할 수 있다.
뿐만 아니라, 피어-투-피어 방식을 지원하는 스토리지 장치라 하더라도, 제 1 프로세서(1311)가 버퍼 메모리(1350b)에 저장된 데이터를 이용하기 위해서는, 버퍼 메모리(1350b)에 저장된 데이터는 버퍼 메모리(1350a)로 복사되어야 함이 일반적이다.
그러나, 본 개시에 의하면, 제 1 프로세서(1311)는 가속 연산에 필요한 충분한 공간을 확보하기 위해 혹은 가속 연산에 필요한 데이터를 획득하기 위해 버퍼 메모리(1350b)를 액세스할 수 있다. 그리고, 제 2 프로세서(1331)는 연산에 필요한 충분한 공간을 확보하기 위해 혹은 연산에 필요한 데이터를 획득하기 위해 버퍼 메모리(1350a)를 액세스할 수 있다. 그러므로, 프로세서들(1311, 1331)의 연산 속도가 향상될 뿐만 아니라, 버퍼 메모리의 데이터가 다른 버퍼 메모리로 불필요하게 복사되는 것이 방지될 수 있다.
도 4는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다. 설명의 이해를 돕기 위해 도 3을 함께 참조한다.
S110 단계에서, 제 1 프로세서(1311)는 메인 프로세서(1100)로부터 할당 받은 작업에 대한 가속 연산 또는 메인 프로세서로부터의 요청에 따른 가속 연산을 수행할 수 있다. 또는, 제 1 프로세서(1311)는 제 2 프로세서(1331)의 연산을 가속할 수 있다. 예를 들어, 가속 연산은 불휘발성 메모리 장치(1370)에 저장된 데이터에 대해 수행될 수 있으나, 이에 한정되지 않는다.
S120 단계에서, 제 1 프로세서(1311) 전용의 버퍼 메모리(1350a)의 용량이 가속 연산을 수행하는데 충분한지 여부가 판단된다. 만일 버퍼 메모리(1350a)의 잔여 용량이 충분하다면(Yes), 제 1 프로세서(1311)에 의해 가속 연산이 계속 수행됨으로써, 절차는 종료할 것이다. 반면, 버퍼 메모리(1350a)의 잔여 용량이 불충분하다면(No), S130 단계가 실행될 것이다.
S130 단계에서, 제 1 프로세서(1311)는 할당된 버퍼 메모리(1350b)의 공간을 액세스 하여 가속 연산을 수행하기 위한 공간으로 활용할 수 있다. 실시 예에 있어서, 제 1 프로세서(1311)는 제 1 프로세서(1311)에 할당된 버퍼 메모리(1350b)의 공간에 대한 읽기 및 쓰기 동작들을 수행할 수 있다.
실시 예에 있어서, 제 1 프로세서(1311)에 의한 버퍼 메모리(1350b)로의 액세스는 제 2 프로세서(1331)에 의해 관리되는 버퍼 메모리(1350b)의 물리 주소에 대응하는 가상 주소(virtual address)에 기반할 수 있다. 예를 들어, 가상 주소는 제 2 프로세서(1331)의 내부 메모리(예컨대, 캐시 메모리) 또는 스토리지 컨트롤러(1330)의 내부 메모리 등에 저장될 수 있다. 예를 들어, 제 2 프로세서(1331)는 제 1 프로세서(1311)에 할당된 가상 주소에 관한 정보를 버스(1320) 또는 별도의 전용 버스(미도시)를 통하여 제 1 프로세서(1311)에 제공할 수 있다.
도 5는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다. 본 실시 예는 도 4와는 달리, 메모리 공간 확보 대신 데이터 획득을 위한 액세스를 개시한다. 설명의 이해를 돕기 위해 도 3을 함께 참조한다.
S210 단계에서, 제 1 프로세서(1311)는 메인 프로세서(1100)로부터의 요청에 따라 작업에 대한 가속 연산을 수행할 수 있다. 또는, 제 1 프로세서(1311)는 메인 프로세서(1100)로부터 할당 받은 작업에 대한 가속 연산을 수행할 수 있다.
S220 단계에서, 제 1 프로세서(1311)는 제 2 프로세서(1331) 전용의 버퍼 메모리(1350b)으로의 액세스 요청을 스토리지 컨트롤러(1330)로 전송한다. 실시 예에 있어서, 버퍼 메모리(1350b)로의 액세스 요청은, 제 1 프로세서(1311)에 의한 가속 연산의 수행과 직접적으로 또는 간접적으로 관련되는 데이터에 대한 읽기 요청일 수 있다.
S230 단계에서, 제 1 프로세서(1311)에 의한 버퍼 메모리(1350b)로의 액세스 요청이 허용되는지 여부가 판단될 수 있다. 실시 예에 있어서, 버퍼 메모리(1350b)에 의해 액세스 요청된 영역에 저장된 데이터에 대한 보안을 유지할 필요가 있는 경우, 및/또는 쓰기 요청과 관련된 경우(S230 단계의 No), 제 2 프로세서(1331)는 제 1 프로세서(1311)의 액세스 요청을 거부할 수 있으며, 절차는 종료할 수 있다.
반면, 제 1 프로세서(1311)에 의한 버퍼 메모리(1350b)로의 액세스 요청이 허용되는 경우(S230 단계의 Yes), 제 1 프로세서(1311)는 버퍼 메모리(1350b)를 직접 액세스할 수 있다(S240). 실시 예에 있어서, 제 1 프로세서(1311)는 제 2 프로세서(1331)에 의해 관리되는 버퍼 메모리(1350b)의 가상 주소에 기반하여 버퍼 메모리(1350b)를 액세스할 수 있다.
이 경우, 제 1 프로세서(1311)에 의해 액세스 요청된 영역은 제 1 프로세서(1311)에 의한 가속 연산과 직접적으로 또는 간접적으로 관련된 데이터가 저장되어 있으며, 제 1 프로세서(1311)는 가속 연산과 관련된 데이터를 읽어내므로, 버퍼 메모리(1350b)의 일부 영역은 제 1 프로세서(1311)와 제 2 프로세서(1331)에 의해 공유될 수 있다.
도 6은 도 3의 스토리지 장치의 예시적인 구성을 도시한다. 예시적으로, 본 실시 예에서, 가속기(1310)에 의해 사용되는 버퍼 메모리(1350a)의 용량이 부족한 경우 추가 메모리를 확보하는 방안이 설명될 것이다.
실시 예에 있어서, 가속기(1310)와 스토리지 컨트롤러(1330)는 피어-투-피어 방식으로 통신을 수행한다. 즉, 가속기(1310)와 스토리지 컨트롤러(1330) 사이에 통신을 수행함에 있어, 호스트 장치(예컨대, 도 1의 메인 프로세서(1100))의 개입은 필요하지 않을 수 있다. 예를 들어, 제 1 프로세서(1311)는 버스(1320)를 통하여 버퍼 메모리(1350b)로의 액세스를 제 2 프로세서(1331)에 요청할 수 있으며, 제 2 프로세서(1331)는 버스(1320)를 통하여 버퍼 메모리(1350a)로의 액세스를 제 1 프로세서(1311)에 요청할 수 있다.
가속기(1310)는 메인 프로세서(도 1, 1100)로부터 할당 받은 작업 또는 메인 프로세서의 요청에 따른 작업에 대한 가속 연산을 수행하는 제 1 프로세서(1311)를 포함할 수 있다. 스토리지 컨트롤러(1330)는 메인 프로세서(도 1, 1100)로부터 할당 받은 작업 또는 메인 프로세서의 요청에 따른 작업에 대한 연산을 수행하는 제 2 프로세서(1331)를 포함할 수 있다.
가속기(1310)와 스토리지 컨트롤러(1330)는 메모리 관리 유닛들(1313, 1333)을 각각 포함할 수 있다. 메모리 관리 유닛들(1313, 1333)은 버퍼 메모리들(1350a, 1350b)에 대한 데이터 입출력들을 각각 제어할 수 있다. 예를 들어, 메모리 관리 유닛들(1313, 1333)은 제 1 및 제 2 프로세서들(1311, 1331)에 의해 각각 관리되는 가상 주소들을 물리 주소들로 변환할 수 있다. 예를 들어, 변환된 물리 주소들은 버퍼 메모리들(1350a, 1350b)의 물리 주소를 나타낼 수 있다.
가속기(1310)와 스토리지 컨트롤러(1330)는 인터페이스 회로들(1315, 1335)을 각각 포함할 수 있다. 인터페이스 회로들(1315, 1335)은 가속기(1310)와 스토리지 컨트롤러(1330) 사이의 통신을 수행하는데 필요한 제반 환경을 제공한다. 실시 예에 있어서, 인터페이스 회로들(1315, 1335)은 버스(1320)를 통하여 연결될 수 있다. 예를 들어, 버스(1320)는 PCIe, NVMe, UFS, SATA, SAS, Gen-Z, CCIX, OpenCAPI 등의 다양한 인터페이스 규약 중 하나 이상을 지원할 수 있다.
실시 예에 있어서, 인터페이스 회로들(1315, 1335)의 각각은 가속기(1310)와 스토리지 컨트롤러(1330) 사이에 교환되는 다양한 형태의 신호, 패킷 등을 송수신하는데 필요한 계층(예컨대, PHY 계층)을 포함할 수 있다. 인터페이스 회로들(1315, 1335)의 각각은 가속기(1310)와 스토리지 컨트롤러(1330) 사이에 교환되는 다양한 신호, 패킷 등을 변환 및/또는 처리하는데 필요한 계층(예컨대, 링크 계층)을 포함할 수 있다. 나아가, 인터페이스 회로들(1315, 1335) 각각은 통신되는 신호, 패킷 등의 통신 경로를 관리하거나 오류를 검출/복구하는 다양한 형태의 계층들을 포함할 수 있다.
계속하여 도 6을 참조하면, 제 1 프로세서(1311)가 작업에 관한 가속 연산을 수행하는 경우, 버퍼 메모리(1350a)의 용량이 부족할 수 있다. 제 1 프로세서(1311)는 버퍼 메모리(1350b)에 대한 액세스 요청을 제 2 프로세서(1331)로 전송할 수 있으며, 제 2 프로세서(1331)는 미사용 중인 메모리 영역의 적어도 일부(AR1)를 제 1 프로세서(1311)를 위한 메모리 영역으로 할당할 수 있다.
실시 예에 있어서, 제 2 프로세서(1331)는 할당된 영역(AR1)의 물리 주소에 대응하는 가상 주소를 관리할 수 있으며 제 1 프로세서(1311)에 제공할 수 있다. 제 1 프로세서(1311)는 할당된 영역(AR1)의 가상 주소와 메모리 관리 유닛(1333)에 의해 생성된 제어 신호에 기반하여 버퍼 메모리(1350b)를 직접 액세스할 수 있다. 즉, 제 1 프로세서(1311), 인터페이스 회로(1315), 버스(1320), 인터페이스 회로(1335), 메모리 관리 유닛(1333), 및 버퍼 메모리(1350b)를 연결하는 통신 경로가 형성될 수 있다.
실시 예에 있어서, 미사용된 영역으로써 제 1 프로세서(1311)로 할당된 영역(AR1)에 대한 제 1 프로세서(1311)의 액세스는 제한되지 않을 수 있다. 그러므로, 제 1 프로세서(1311)는 할당된 영역(AR1)에 대한 쓰기 동작 및 읽기 동작을 수행할 수 있다. 그리고, 할당된 영역(AR1)에 대한 제 2 프로세서(1331)의 액세스는 일부 제한될 수 있다. 예를 들어, 충돌을 피하기 위해, 할당된 영역(AR1)에 대한 제 2 프로세서(1331)의 쓰기와 관련된 액세스는 제한될 수 있다.
실시 예에 있어서, 제 2 프로세서(1331)는 할당된 영역(AR1)을 해제 또는 회수할 수 있다. 제 2 프로세서(1331)는 연산을 수행하기 위한 저장 공간이 부족한 경우, 할당된 영역(AR1)을 해제 또는 회수할 수 있다. 할당된 영역(AR1)을 해제 또는 회수함으로써, 할당된 영역(AR1)에 대한 제 1 프로세서(1311)의 액세스는 제한될 수 있다. 예를 들어, 제 2 프로세서(1331)의 제어 하에, 메모리 관리 유닛(1333)은 제 2 프로세서(1331) 이외의 외부 프로세서의 버퍼 메모리(1350b)에 대한 액세스를 차단할 수 있다.
실시 예에 있어서, 할당된 영역(AR1)에 대한 해제 또는 회수가 실행되기에 앞서, 할당된 영역(AR1)에 저장된 제 1 프로세서(1311)의 가속 연산에 필요한 데이터는 버퍼 메모리(1350a)로 백업 될 수 있다. 이 경우, 제 2 프로세서(1331)에 의한 해제 또는 회수의 알림, 제 1 프로세서(1311)에 의한 백업 실행 완료의 알림과 같은 쉐이크핸드(shakehand)가 선행될 수 있다. 그러나, 할당된 영역(AR1)의 해제에 앞서 수행되는 백업 동작은 이에 한정되지 않으며, 버퍼 메모리(1350b)의 할당된 영역(AR1)에 저장된 데이터를 버퍼 메모리(1350a)로 안전하게 백업시키는 다양한 방법이 사용될 수 있다.
도 7은 도 6의 제 2 프로세서에 의해 관리되는 가상 주소를 통하여 제 1 프로세서가 버퍼 메모리(1350b)을 액세스하는 것을 개념적으로 도시한다. 설명의 이해를 돕기 위해 도 6을 함께 참조한다.
제 1 프로세서(1311)는 메인 프로세서(도 1, 1100)부터 분배 받은 작업에 대한 가속 연산 또는 메인 프로세서의 요청에 따른 가속 연산을 수행한다. 제 2 프로세서(1331)는, 제 1 프로세서(1311)에 의해 사용되는 전용 버퍼 메모리(1350a)의 용량이 부족하거나 또는 제 1 프로세서(1311)가 버퍼 메모리(1350b)를 액세스할 필요가 있는 경우, 버퍼 메모리(1350b)의 적어도 일부를 제 1 프로세서(1311)에 할당할 수 있다.
제 2 프로세서(1331)는 메인 프로세서(도 1, 1100)로부터 분배 받은 작업에 대한 연산 또는 메인 프로세서의 요청에 따른 연산을 수행한다. 예시적으로, 제 1 작업(Task1)과 제 2 작업(Task2)은 연산과 관련된 작업인 것으로 도시되었다.
제 2 프로세서(1331)는 버퍼 메모리(1350b)의 물리 주소에 대응하는 가상 주소들을 관리할 수 있다. 예를 들어, 제 2 프로세서(1331)에 의해 관리되는 가상 주소는 가상 페이지 넘버(virtual page number)와 페이지 오프셋(page offset)을 포함할 수 있다. 제 2 프로세서(1331)는 제 1 작업(Task1)에 대한 연산을 수행하기 위해 제 1 가상 주소(VA1)를 이용할 수 있으며, 제 2 작업(Task2)에 대한 연산을 수행하기 위해 제 2 가상 주소(VA2)를 이용할 수 있다. 제 2 프로세서(1331)는 작업들(Task1, Task2)과 관련하여 버퍼 메모리(1350b)를 액세스하기 위해 가상 주소들(VA1, VA2)을 메모리 관리 유닛(1333)으로 전송할 수 있다.
메모리 관리 유닛(1333)은 가상 주소에 대응하는 물리 주소를 관리할 수 있다. 예를 들어, 물리 주소는 물리적 프레임 넘버(physical frame number)와 프레임 오프셋(frame offset)을 포함할 수 있다. 메모리 관리 유닛(1333)은 물리 주소에 기반하여, 가상 주소와 제 2 프로세서(1331)가 실제로 액세스하고자 하는 영역인 버퍼 메모리(1350b)의 물리 주소를 맵핑 시킬 수 있다.
실시 예에 있어서, 버퍼 메모리(1350b)가 DRAM으로 구현되는 경우, 맵핑된 버퍼 메모리(1350b)의 물리 주소는 컬럼 어드레스(column address; CA), 로우 어드레스(row address; RA), 랭크(rank) 어드레스, 뱅크(bank) 어드레스 등을 포함할 수 있다. 나아가, 칩 선택 신호와 물리 주소는 버퍼 메모리(1350b)를 액세스하기 위한 제어 신호로 일컬어질 수 있다.
한편, 전술된 메모리 관리 유닛(1333)에 의한 맵핑은 예시적인 것이며, 본 발명의 기술 사상은 이에 한정되지 않는다. 즉, 프로세서에 의해 관리되는 가상 주소와 버퍼 메모리의 물리 주소를 맵핑시키는 다양한 스킴에도 본 발명이 적용될 수 있을 것이다.
계속하여 도 7을 참조하면, 제 1 프로세서(1311)는 제 2 프로세서(1331)에 의해 할당된 제 3 가상 주소(VA3)를 통하여 버퍼 메모리(1350b)의 물리 영역을 액세스할 수 있다. 예시적으로, 제 3 가상 주소(VA3)는 버퍼 메모리(1350b)의 물리 주소 '1'에 대응하는 것으로 도시되었다. 실시 예에 있어서, 버퍼 메모리(1350a)의 용량이 부족한 경우, 제 2 프로세서(1331)는 버퍼 메모리(1350b)의 미사용 영역에 대응하는 가상 주소를 제 1 프로세서(1311)에 할당할 수 있다. 실시 예에 있어서, 제 1 프로세서(1311)가 데이터의 획득을 위해 버퍼 메모리(1350b)를 액세스하고자 하는 경우, 제 2 프로세서(1331)는 버퍼 메모리(1350b)의 해당 데이터가 저장된 영역의 가상 주소를 제 1 프로세서(1311)에 할당할 수 있다.
실시 예에 있어서, 제 1 프로세서(1311)가 할당된 제 3 가상 주소(VA3)에 따라 버퍼 메모리(1350b)를 액세스하고자 하는 경우, 메모리 관리 유닛(1333)은 칩 선택 신호(chip selection signal; CS0)를 버퍼 메모리(1350b)로 전송하여 버퍼 메모리(1350b)를 선택한다. 그리고, 메모리 관리 유닛(1333)은 제 3 가상 주소(VA3)에 대응하는 주소들을 버퍼 메모리(1350b)으로 전송하고, 제 1 프로세서(1311)와 버퍼 메모리(1350b) 사이의 통신 경로가 설정된다.
한편, 버퍼 메모리(1350b)에 대한 제 1 프로세서(1311)의 액세스를 자유롭게 허용하는 경우, 보안 이슈, 데이터 소실, 충돌 등 다양한 문제가 발생할 수 있다. 이하, 도 8 내지 10을 통하여 이를 해결하기 위한 실시 예들이 설명된다.
도 8은 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
제 1 프로세서(1311)는 메인 프로세서(도 1, 1100)로부터 할당 받은 작업에 대한 가속 연산 또는 메인 프로세서의 요청에 따른 가속 연산을 수행할 수 있다. 제 2 프로세서(1331)는 메인 프로세서로부터 할당 받은 작업에 대한 연산 또는 메인 프로세서의 요청에 따른 연산을 수행할 수 있다.
제 1 프로세서(1311)는 제 2 프로세서(1331)에 의해 처리된 연산의 중간 결과물 혹은 최종 결과물을 획득하기 위해 버퍼 메모리(1350b)에 대한 액세스 요청을 스토리지 컨트롤러(1330)에 전송할 수 있다. 예를 들어, 액세스 요청은 읽기 요청일 수 있다. 실시 예에 있어서, 액세스 요청은 버스(1320) 또는 제 1 프로세서(1311)와 제 2 프로세서(1331) 사이의 전용 버스(미도시)를 통하여 전송될 수 있다.
제 2 프로세서(1331)는, 외부의 프로세서에 의한 버퍼 메모리(1350b)로의 액세스 요청이 허용되는 경우, 버퍼 메모리(1350b)의 물리 주소들에 대응하는 가상 주소들을 제 1 프로세서(1311)에 할당한다. 제 1 프로세서(1311)는 할당된 가상 주소들을 참조하여 버퍼 메모리(1350b)를 액세스할 수 있다. 예를 들어, 버퍼 메모리(1350b)에 저장된 데이터 중 보안 유지를 필요로 하는 데이터가 없는 경우, 제 2 프로세서(1331)는 제 1 프로세서(1311)의 액세스 요청을 허용할 수 있다.
제 2 프로세서(1331)는, 외부의 프로세서(예컨대, 제 1 프로세서(1311), 도 1의 메인 프로세서(1100) 등)에 의한 버퍼 메모리(1350b)로의 액세스 요청이 허용되지 않는 경우, 외부의 프로세서로부터의 액세스 요청을 거부할 수 있다. 예를 들어 액세스 요청된 영역에 보안 유지가 필요한 데이터가 저장되어 있는 경우, 외부의 프로세서로부터의 액세스 요청은 차단될 것이다.
실시 예에 있어서, 제 2 프로세서(1331)는 보안 유지를 필요로 하는 데이터에 대응하는 가상 주소(들)을 별도로 관리할 수 있다. 예를 들어, 제 2 프로세서(1331)는 제 2 프로세서(1331) 내부의 메모리(예컨대, 캐시 메모리), 스토리지 컨트롤러(1330)의 내부 메모리(미도시) 등을 이용하여 보안 유지를 필요로 하는 데이터에 대응하는 가상 주소(들)을 별도로 관리할 수 있다. 별도로 관리되는 가상 주소(들)이 저장된 공간에 대한 외부의 프로세서(예컨대, 제 1 프로세서(1311), 메인 프로세서(도 1의 1100) 등)로의 액세스는 허용되지 않을 수 있다.
실시 예에 있어서, 외부의 프로세서에 의한 버퍼 메모리(1350b)로의 액세스 요청이 전부 허용되지 않는 경우, 제 2 프로세서(1331)의 제어에 따라 메모리 관리 유닛(1333)은 버퍼 메모리(1350b)를 선택하기 위한 칩 선택 신호(예컨대, 도 7의 CS0)를 생성하지 않을 수 있다. 또는, 제 2 프로세서(1331)에 의한 연산 수행으로 인하여 버퍼 메모리(1350b)가 이미 선택된 경우라 하더라도, 제 2 프로세서(1331)의 제어 하에 메모리 관리 유닛(1333)은 버퍼 메모리(1350b)의 물리 주소를 맵핑시키지 않을 수 있다.
제 2 프로세서(1331)는, 외부의 프로세서(예컨대, 제 1 프로세서(1311), 도 1의 메인 프로세서(1100) 등)에 의한 버퍼 메모리(1350b)로의 액세스 요청이 일부 허용되는 경우, 외부의 프로세서로부터의 액세스 요청을 제한적으로 허용할 수 있다. 예를 들어, 제 2 프로세서(1331)는 액세스가 허용되는 일부 영역(예컨대, AR1)의 가상 주소를 제 1 프로세서(1311)에 할당할 수 있으며, 그 외 액세스가 허용되지 않는 영역의 가상 주소를 별도로 관리할 수 있다. 별도로 관리되는 가상 주소에 대한 외부 프로세서의 액세스는 차단될 것이다.
전술된 바와 같이, 버퍼 메모리(1350b)에 대한 제 1 프로세서(1311)의 액세스 요청(즉, 읽기 액세스 요청)을 일부 혹은 전부 허용함으로써 버퍼 메모리(1350b)에 저장된 데이터를 버퍼 메모리(1350a)로 불필요하게 복사하는 것을 피할 수 있다. 결과적으로, 스토리지 컨트롤러(1310)에 의한 연산 속도가 향상될 수 있다.
도 9는 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 9의 실시 예는 도 8의 실시 예와 대체로 유사하다. 다만, 스토리지 컨트롤러(1330)는 외부 프로세서(예컨대, 제 1 프로세서(1311), 도 1의 메인 프로세서(1100) 등)로부터의 액세스 요청을 처리하는 아비터(1336)를 더 포함할 수 있다.
아비터(1336)는 제 2 프로세서(1331)의 제어 하에 버퍼 메모리(1350b)에 대한 외부 프로세서로부터의 액세스 요청을 처리할 수 있다. 실시 예에 있어서, 아비터(1336)는 제 2 프로세서(1331)로부터 액세스가 허용되는 가상 주소(들) 또는 액세스가 허용되지 않는 가상 주소(들)을 제공받을 수 있다. 아비터(1336)는 제 2 프로세서(1331)로부터 제공 받은 가상 주소들에 기반하여 외부 프로세서로부터의 액세스를 (제한적으로) 허용하거나 금지할 수 있다.
실시 예에 있어서, 아비터(1336)는 외부의 프로세서로부터의 액세스 요청을 처리하기 위한 별도의 전용 회로로 구현될 수 있다. 예시적으로, 버스(1337)와 메모리 관리 유닛(1333) 사이에서 아비터(1336)가 액세스 요청을 처리하는 것으로 도시되었지만, 이에 한정되지 않는다. 예를 들어, 아비터(1336)가 수행하는 액세스 요청을 처리하는 기능은 버스(1337) 내에 구현될 수도 있다. 실시 예에 있어서, 아비터(1336)의 기능은 제 2 프로세서(1331)에 의해 구동되는 소프트웨어/펌웨어로써 구현될 수도 있다.
도 10은 도 6의 스토리지 장치의 예시적인 구성을 도시한다.
도 10의 실시 예는 도 9의 실시 예와 대체로 유사하다. 다만, 스토리지 컨트롤러(1310)는 제 1 프로세서(1311)로부터의 액세스 요청을 처리하는 아비터(1336)를 더 포함할 수 있다.
아비터(1316)는 버퍼 메모리(1350b)에 대한 제 1 프로세서(1311)의 액세스 요청을 처리할 수 있다. 실시 예에 있어서, 아비터(1316)는 제 2 프로세서(1331)로부터 액세스가 허용되는 가상 주소(들) 또는 액세스가 허용되지 않는 가상 주소(들)을 제공받을 수 있다. 아비터(1316)는 제 2 프로세서(1331)로부터 제공 받은 가상 주소들에 기반하여 제 1 프로세서(1311)로부터의 액세스를 (제한적으로) 허용하거나 금지할 수 있다. 도 9의 실시 예와 유사하게, 아비터(1316)는 제 1 프로세서(1311)로부터의 액세스 요청을 처리하기 위한 별도의 전용 회로로 구현되거나, 버스(1317) 내에 구현될 수 있다.
도 11은 도 3의 스토리지 장치의 예시적인 구성을 도시한다. 다만, 앞선 실시 예들과는 달리, 스토리지 장치(1300)는 제 1 프로세서(1311) 전용의 버퍼 메모리(1350a)와 버퍼 메모리(1350a)를 제어하는 메모리 관리 유닛(1313)을 포함하지 않을 수 있다.
실시 예에 있어서, 제 2 프로세서(1331)는 버퍼 메모리(1350b)의 제 1 영역(AR1)을 제 1 프로세서(1311)의 전용 영역으로 할당할 수 있다. 제 2 프로세서(1331)는 제 1 영역(AR1)에 대응하는 가상 주소들을 제 1 프로세서(1311)에게 제공할 수 있다. 또는, 제 2 프로세서(1331)는 제 1 영역(AR1)에 대응하는 가상 주소들을 내부 메모리(예컨대, 제 2 프로세서(1331) 내부의 캐시 메모리, 스토리지 컨트롤러(1330)의 내부 메모리 등)를 이용하여 별도로 관리할 수 있으며, 내부 메모리에 대한 제 1 프로세서(1311)의 액세스를 허용할 수 있다. 제 1 프로세서(1311)는 제 2 프로세서(1331)로부터 제공 받은 가상 주소들을 참조하여 제 1 영역(AR1)을 액세스할 수 있다.
실시 예에 있어서, 제 1 영역(AR1)에 대한 제 1 프로세서(1311)의 액세스는 쓰기 및 읽기와 관련될 수 있다. 즉, 제 1 영역(AR1)에 대한 제 1 프로세서(1311)의 액세스 제한은 없을 수 있다. 그리고, 제 1 영역(AR1)에 대한 제 2 프로세서(1331)의 액세스는, 읽기만 허용되는 등, 일부 제한될 수 있다.
실시 예에 있어서, 제 2 프로세서(1331)는 버퍼 메모리(1350b)의 제 2 영역(AR2)에 대한 제 1 프로세서(1311)의 액세스를 추가로 허용할 수 있다. 실시 예에 있어서, 제 1 프로세서(1311)가 가속 연산을 수행하기에 제 1 영역(AR1)만으로는 부족한 경우, 제 2 프로세서(1331)는 제 2 영역(AR2)을 제 1 프로세서(1311)에 추가로 할당할 수 있다. 이는 도 6의 실시 예에서 설명된, 제 1 프로세서(1311)에 의한 액세스 허용과 대체로 유사하다. 그러므로, 상세한 설명은 생략한다.
실시 예에 있어서, 제 2 프로세서(1331)에 의해 수행된 연산의 중간 결과물 혹은 최종 결과물을 획득하기 위해 제 1 프로세서(1311)가 버퍼 메모리(1350b)를 액세스하고자 하는 경우, 제 2 프로세서(1331)는 버퍼 메모리(1350b)에 대한 제 1 프로세서(1311)의 액세스를 허용할 수 있다. 다만, 보안 상의 이유 등으로, 버퍼 메모리(1350b)의 모든 영역에 대한 액세스가 허용되는 것은 아니며, 일부 영역(예컨대, 제 2 영역(AR2))에 대한 액세스만 허용될 수 있다. 이는 도 8의 실시 예에서 설명된, 제 1 프로세서(1311)에 의한 액세스 허용과 대체로 유사하다. 그러므로, 상세한 설명은 생략한다.
나아가, 도 9 및 10의 실시 예들과 유사하게, 가속기(1310) 혹은 스토리지 컨트롤러(1330)는 제 1 프로세서(1311)에 의한 버퍼 메모리(1350b)로의 액세스 요청을 처리하는 아비터(미도시)를 포함할 수 있다. 아비터는 버퍼 메모리(1350b)에 대한 외부 프로세서(예컨대, 제 1 프로세서(1311), 도 1의 메인 프로세서(1100) 등)의 액세스 요청을 처리할 수 있다. 아비터의 구성 및 동작은 도 9, 10에서 설명된 것과 대체로 유사하므로, 상세한 설명은 생략한다.
도 12는 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다. 설명의 이해를 돕기 위해 도 3을 함께 참조한다.
S310 단계에서, 제 2 프로세서(1331)는 메인 프로세서(1100)로부터 분배 받은 작업에 대한 연산 또는 메인 프로세서로부터의 요청에 따른 연산을 수행할 수 있다.
S320 단계에서, 제 2 프로세서(1331) 전용의 버퍼 메모리(1350b)의 용량이 연산을 수행하는데 충분한지 판단된다. 버퍼 메모리(1350b)의 잔여 용량이 충분하다면(Yes), 제 2 프로세서(1331)에 의해 연산이 계속 수행될 것이며, 버퍼 메모리(1350b)의 잔여 용량이 불충분하다면(No), S330 단계가 실행될 것이다.
S330 단계에서, 제 2 프로세서(1331)는 제 2 프로세서(1331)에 할당된 버퍼 메모리(1350a)의 공간을 액세스 하여 연산을 수행하기 위한 공간으로 활용할 수 있다. 실시 예에 있어서, 제 1 프로세서(1311)는 할당된 버퍼 메모리(1350b)의 공간에 대한 읽기 및 쓰기 동작들을 수행할 수 있다.
도 13은 도 3의 스토리지 장치의 예시적인 구성을 도시한다. 예시적으로, 본 실시 예에서, 스토리지 컨트롤러(1330)에 의해 사용되는 버퍼 메모리(1350b)의 용량이 부족한 경우 추가 메모리를 확보하는 방안이 설명될 것이다.
제 2 프로세서(1331)는 메인 프로세서(예컨대, 도 3의 1100)로부터 할당 받은 작업 또는 메인 프로세서의 요청에 따른 작업에 대한 연산을 수행할 수 있다. 연산을 수행하는 도중 버퍼 메모리(1350b)의 용량이 부족한 경우, 제 2 프로세서(1331)는 버퍼 메모리(1350a)의 액세스를 제 1 프로세서(1311)에 요청할 수 있다. 제 1 프로세서(1311)는 버퍼 메모리(1350a)의 미사용 영역(AR1)을 제 2 프로세서(1331)에게 할당할 수 있다. 제 1 프로세서(1311)는 할당된 가상 주소를 참조하여 영역(AR1)을 액세스할 수 있다. 예를 들어, 제 2 프로세서(1331)는 영역(AR1)에 대한 읽기 및 쓰기 동작을 수행할 수 있으며, 영역(AR1)에 대한 제 1 프로세서(1311)의 액세스는 제한될 수 있다.
도 14는 도 3의 스토리지 장치의 예시적인 구성을 도시한다. 본 실시 예에서, 작업에 부가된 ID에 기반하여, 제 1 프로세서(1311)가 버퍼 메모리(1350b)를 액세스하는 방안이 설명될 것이다.
메인 프로세서(도1, 1100)는 특정 작업에 ID를 부가하고 ID가 부가된 작업을 스토리지 컨트롤러(1330)에 분배할 수 있다. ID는 특정 작업에 대한 외부 프로세서의 액세스가 허용되지 않거나 또는 허용됨을 나타낼 수 있다.
실시 예에 있어서, ID는, ID가 부착된 작업과 관련되는 중간 결과물 또는 최종 결과물에 대한 외부 프로세서의 액세스가 허용되지 않음을 나타낼 수 있다. 예를 들어, ID가 부착된 작업과 관련되는 중간 결과물 또는 최종 결과물이 버퍼 메모리(1350b)의 특정 영역(AR1)에 저장되는 경우, 영역(AR1)에 대한 외부 프로세서(예를 들어, 제 1 프로세서(1311), 메인 프로세서(도 1, 1100) 등)의 액세스는 허용되지 않을 수 있다.
반대로, 다른 실시 예에 있어서, ID는, ID가 부착된 작업과 관련되는 중간 결과물 또는 최종 결과물에 대한 외부 프로세서의 액세스가 허용됨을 나타낼 수 있다. 예를 들어, ID가 부착된 작업과 관련되는 중간 결과물 또는 최종 결과물이 버퍼 메모리(1350b)의 특정 영역(AR1)에 저장되는 경우, 영역(AR1)에 대한 외부 프로세서(예를 들어, 제 1 프로세서(1311), 메인 프로세서(도 1, 1100) 등)의 액세스는 허용될 수 있다.
스토리지 컨트롤러(1330)에 분배되는 작업에 ID를 부가하여 외부 프로세서에 의한 버퍼 메모리(1350b)로의 액세스를 제한적으로 허용함으로써, 버퍼 메모리(1350b)로부터 버퍼 메모리(1350a)로의 불필요한 복사를 방지할 수 있을 뿐 아니라, 보안이 필요한 데이터의 유출을 방지할 수 있다.
한편, 메인 프로세서(도1, 1100)가 특정 작업에 ID를 부가하고 ID가 부가된 작업을 가속기(1310)에 분배하는 경우에도 본 실시 예는 동일하게 적용된다. 이 경우, 가속기(1310)에 의한 가속 연산의 중간 결과물 또는 최종 결과물은 버퍼 메모리(1350a)에 저장될 것이며, ID의 유무에 따라 제 2 프로세서(1331)의 버퍼 메모리(1350a)로의 액세스는 제한적으로 허용될 것이다.
도 15는 도 3의 스토리지 장치의 예시적인 구성을 도시한다. 다만, 앞선 실시 예들과는 달리, 스토리지 장치(1300)는 제 2 프로세서(1331) 전용의 버퍼 메모리(1350b)와 버퍼 메모리(1350b)를 제어하는 메모리 관리 유닛(1333)을 포함하지 않을 수 있다.
실시 예에 있어서, 제 1 프로세서(1311)는 버퍼 메모리(1350a)의 제 1 영역(AR1)을 제 2 프로세서(1331)의 전용 영역으로 할당할 수 있다. 제 1 프로세서(1311)는 제 1 영역(AR1)에 대응하는 가상 주소들을 제 2 프로세서(1331)에게 제공할 수 있다. 또는, 제 1 프로세서(1311)는 제 1 영역(AR1)에 대응하는 가상 주소들을 내부 메모리(예컨대, 제 1 프로세서(1311) 내부의 캐시 메모리, 스토리지 컨트롤러(1330)의 내부 메모리 등)를 이용하여 별도로 관리할 수 있으며, 내부 메모리에 대한 제 2 프로세서(1331)의 액세스를 허용할 수 있다. 제 2 프로세서(1331)는 제 1 프로세서(1311)로부터 제공 받은 가상 주소들을 참조하여 제 1 영역(AR1)을 액세스할 수 있다.
실시 예에 있어서, 제 1 영역(AR1)에 대한 제 2 프로세서(1331)의 액세스는 쓰기 및 읽기와 관련될 수 있다. 그러므로, 제 1 영역(AR1)에 대한 제 1 프로세서(1311)의 액세스는, 읽기만 허용되는 등, 제한될 수 있다.
실시 예에 있어서, 제 1 프로세서(1311)는 버퍼 메모리(1350a)의 제 2 영역(AR2)에 대한 제 2 프로세서(1331)의 액세스를 추가로 허용할 수 있다. 실시 예에 있어서, 제 2 프로세서(1331)가 연산을 수행하기에 제 1 영역(AR1)만으로는 부족한 경우, 제 1 프로세서(1311)는 제 2 영역(AR2)을 제 2 프로세서(1331)에 추가로 할당할 수 있다. 이는 도 6의 실시 예에서 설명된, 제 1 프로세서(1311)에 의한 액세스 허용과 대체로 유사하다.
실시 예에 있어서, 제 1 프로세서(1311)에 의해 수행된 가속 연산의 중간 결과물 혹은 최종 결과물을 획득하기 위해 제 2 프로세서(1331)가 버퍼 메모리(1350a)를 액세스하고자 하는 경우, 제 1 프로세서(1311)는 버퍼 메모리(1350a)에 대한 제 2 프로세서(1331)의 액세스를 허용할 수 있다. 다만, 보안 상의 이유 등으로, 버퍼 메모리(1350a)의 모든 영역에 대한 액세스가 허용되는 것은 아니며, 일부 영역(예컨대, 제 2 영역(AR2))에 대한 액세스만 허용될 수 있다. 이는 도 8의 실시 예에서 설명된, 제 1 프로세서(1311)에 의한 액세스 허용과 대체로 유사하다.
나아가, 도 9 및 10의 실시 예들과 유사하게, 가속기(1310) 혹은 스토리지 컨트롤러(1330)는 제 2 프로세서(1331)에 의한 버퍼 메모리(1350a)로의 액세스 요청을 처리하는 아비터(미도시)를 포함할 수 있다. 아비터는 버퍼 메모리(1350a)에 대한 외부 프로세서(예컨대, 제 2 프로세서(1331), 도 1의 메인 프로세서(1100) 등)의 액세스 요청을 처리할 수 있다.
도 16은 도 3의 스토리지 장치의 동작 방법을 도시하는 순서도이다. 본 실시 예에서, 버퍼 메모리들(1350a, 1350b)의 여유 공간을 프로세서들(1311, 1331)에 할당하는 기법이 설명될 것이다. 설명의 이해를 돕기 위해 도 3을 함께 참조한다.
S410 단계에서, 제 1 프로세서(1311)에 의한 가속 연산 및 제 2 프로세서(1331)에 의한 연산 중 적어도 하나가 수행된다. 예를 들어, 제 1 프로세서(1311)는 메인 프로세서(예컨대, 도 1의 1100)의 요청에 따라 작업에 대한 가속 연산을 수행하거나 메인 프로세서로부터 할당 받은 작업에 대한 가속 연산을 수행할 수 있다. 제 2 프로세서(1331)는 메인 프로세서(1100)의 요청에 따라 작업에 대한 연산을 수행하거나 메인 프로세서(1100)로부터 할당 받은 작업에 대한 연산을 수행할 수 있다.
S420 단계에서, 제 1 프로세서(1311) 전용의 버퍼 메모리(1350a)의 용량이 가속 연산을 수행하는데 충분한지 여부가 판단된다. 만일 버퍼 메모리(1350a)의 잔여 용량이 충분하다면(Yes), S430 단계가 실행될 것이다. 반면, 버퍼 메모리(1350a)의 잔여 용량이 불충분하다면(No), S460 단계가 실행될 것이다.
S430 단계에서, 제 2 프로세서(1331) 전용의 버퍼 메모리(1350b)의 용량이 연산을 수행하는데 충분한지 여부가 판단된다. 만일 버퍼 메모리(1350b)의 잔여 용량이 충분하다면(Yes), 이는 제 1 프로세서(1311)와 제 2 프로세서(1331) 모두 가속 연산과 연산을 각각 수행하기에 충분한 메모리가 확보되었음을 의미한다. 그러므로, 절차는 종료한다.
반면, S430 단계에서, 버퍼 메모리(1350b)의 잔여 용량이 불충분하다면(No), S440 단계가 실행된다. 이 경우, 제 1 프로세서(1311)는 버퍼 메모리(1350a)의 여유 공간을 제 2 프로세서(1331)에 할당할 수 있고(S440), 제 2 프로세서(1331)는 전술된 액세스 기법들을 통하여 버퍼 메모리(1330a)를 액세스할 수 있다.
S460 단계에서, 제 2 프로세서(1331) 전용의 버퍼 메모리(1350b)의 용량이 연산을 수행하는데 충분한지 여부가 판단된다. 버퍼 메모리(1350b)의 잔여 용량이 불충분하다면(No), 이는 제 1 프로세서(1311)와 제 2 프로세서(1331) 모두 가속 연산과 연산을 각각 수행하기에 불충분한 메모리를 가지고 있음을 의미한다. 그러므로, 제 1 프로세서(1311)는 부족한 용량의 버퍼 메모리(1350a)를 이용하여 가속 연산을 수행하며, 제 2 프로세서(1331)는 부족한 용량의 버퍼 메모리(1350b)를 이용하여 연산을 수행한다.
반면, S460 단계에서, 버퍼 메모리(1350b)의 잔여 용량이 충분하다면(Yes), S470 단계가 실행된다. 이 경우, 제 2 프로세서(1331)는 버퍼 메모리(1350b)의 여유 공간을 제 1 프로세서(1311)에 할당할 수 있고(S470), 제 1 프로세서(1311)는 전술된 액세스 기법들을 통하여 버퍼 메모리(1350b)를 액세스할 수 있다.
한편, 본 실시 예에서, 버퍼 메모리(1350a)의 용량이 버퍼 메모리(1350b)의 용량보다 먼저 판단되는 것으로 설명되었으나, 이는 예시적인 것이다. 즉, 다른 실시 예에서, 버퍼 메모리(1350a)의 용량보다 버퍼 메모리(1350b)의 용량이 먼저 판단될 수도 있다.
도 17은 도 1의 스토리지 장치(1300)의 예시적인 구성을 도시한다.
스토리지 장치(2300)는 스토리지 컨트롤러(2310), 버퍼 메모리들(2350a, 2350b), 및 불휘발성 메모리 장치들(2370)을 포함한다. 버퍼 메모리들(2350a, 2350b) 및 불휘발성 메모리 장치들(2370)의 구성 및 동작은 도 3의 버퍼 메모리들(1350a, 1350b) 및 불휘발성 메모리 장치들(1370)과 실질적으로 동일하므로 상세한 설명은 생략한다.
스토리지 컨트롤러(2310)는 시스템 버스(2600)를 통하여 메인 프로세서(2100)와 서로 통신할 수 있다. 스토리지 컨트롤러(2310)는 메인 프로세서(2100)로부터 작업(task)들을 할당 받고, 할당 받은 작업에 관한 연산 및/또는 가속 연산을 수행할 수 있다. 또는, 스토리지 컨트롤러(2310)는 메인 프로세서(2100)로부터의 요청에 따라 작업에 대한 연산 및/또는 가속 연산을 수행할 수 있다.
스토리지 컨트롤러(2310)는 가속 연산을 수행하기 위한 제 1 프로세서(2311) 및 연산을 수행하기 위한 제 2 프로세서(2312)를 포함할 수 있다. 제 1 프로세서(2311)와 제 2 프로세서(2331)는 이종의 프로세서들일 수 있다. 예를 들어, 제 1 프로세서(2311)는 GPU, NNPU, FPGA, ASIC, DSP 등으로 구현될 수 있으며, 제 2 프로세서(2331)는 CPU로 구현될 수 있다. 예를 들어, 스토리지 컨트롤러(2310)는 제 1 프로세서(2311)와 제 2 프로세서(2331)가 하나의 칩에서 구현되는 시스템 온 칩(system on chip; SoC)일 수 있다. 예를 들어, 제 1 프로세서(2311)가 FPGA로 구현되는 경우, 제 1 프로세서(2311)는 임베디드 FPGA (eFPGA)일 수 있다.
제 1 프로세서(2311)와 제 2 프로세서(2312)는 버스(2315)를 통하여 서로 통신할 수 있다. 즉, 제 1 프로세서(2311)와 제 2 프로세서(2312)는 버스(2315)를 통하여 통신적으로 연결(communicatively connected) 연결된다. 예를 들어, 버스(2317)는 PCIe, NVMe, UFS, SATA, SAS, Gen-Z, CCIX, OpenCAPI 등의 다양한 인터페이스 규약 중 하나 이상을 지원할 수 있다.
도 18은 도 17의 스토리지 장치(2300)의 예시적인 구성을 도시한다.
스토리지 장치(2300)는 제 1 프로세서(2311)와 제 2 프로세서(2312) 외에도 메모리 관리 유닛들(2313a, 2313b)를 더 포함한다. 메모리 관리 유닛들(2313a, 2313b)은 버퍼 메모리들(2350a, 2350b)에 대한 데이터 입출력들을 각각 제어할 수 있다. 메모리 관리 유닛들(2313, 2333)은 제 1 및 제 2 프로세서들(2311, 2312)에 의해 각각 관리되는 가상 주소들을 물리 주소들로 변환할 수 있다. 변환된 물리 주소들은 버퍼 메모리들(2350a, 2350b)의 물리 주소를 나타낼 수 있다. 버퍼 메모리들(2350a, 2350b)은 각각 제 1 프로세서(2311)와 제 2 프로세서(2312)의 전용 메모리들일 수 있다.
제 1 프로세서(2311)는 메인 프로세서(도 17, 2100)로부터 분배 받은 작업 또는 메인 프로세서의 요청에 따른 작업에 대한 가속 연산을 수행하거나, 할 수 있다. 제 2 프로세서(2312)는 메인 프로세서의 요청에 다른 작업에 대한 연산을 수행하거나, 제 2 프로세서(2312)의 연산을 가속할 수 있다.
제 1 프로세서(2311)가 가속 연산을 수행하는 도중 버퍼 메모리(2350a)의 공간이 부족한 경우, 제 1 프로세서(2311)는 전술된 방법들에 기반하여 버퍼 메모리(2350b)의 제 1 영역(AR1)을 액세스할 수 있다. 예를 들어, 제 1 영역(AR1)에 대한 제 1 프로세서(2311)의 액세스는 쓰기 및 읽기를 위한 액세스를 포함할 수 있으며, 제 1 영역(AR1)에 대한 제 2 프로세서(2312)의 액세스는, 쓰기가 허용되지 않는 등, 일부 제한될 수 있다.
제 1 프로세서(2311)는 제 2 프로세서(2312)에 의해 처리된 중간 결과물 또는 최종 결과물을 획득하기 위해 버퍼 메모리(2350b)를 액세스할 수 있다. 이때, 제 2 프로세서(2312)는 전술된 방법들에 기반하여 버퍼 메모리(2350b)에 대한 제 1 프로세서(2311)의 액세스를 허용할 수 있다. 다만, 보안 상의 이유 등으로 인하여 버퍼 메모리(2350b)에 대한 제 1 프로세서(2311)의 액세스는 제한적일 수 있으며, 허용된 영역(AR1)에 대해서만 액세스가 허용될 수 있다.
한편, 제 2 프로세서(2312)가 연산을 수행하는 도중 버퍼 메모리(2350b)의 공간이 부족한 경우, 제 2 프로세서(2312)는 전술된 방법들에 기반하여 버퍼 메모리(2350a)의 제 2 영역(AR2)을 액세스할 수 있다. 예를 들어, 제 2 영역(AR2)에 대한 제 2 프로세서(2312)의 액세스는 쓰기 및 읽기를 위한 액세스를 포함할 수 있으며, 제 2 영역(AR2)에 대한 제 1 프로세서(2311)의 액세스는, 쓰기가 허용되지 않는 등, 일부 제한될 수 있다.
유사하게, 제 2 프로세서(2312)는 제 1 프로세서(2311)에 의해 처리된 중간 결과물 또는 최종 결과물을 획득하기 위해 버퍼 메모리(2350a)를 액세스할 수 있다. 이때, 제 1 프로세서(2311)는 전술된 방법들에 기반하여 버퍼 메모리(2350a)에 대한 제 2 프로세서(2312)의 액세스를 허용할 수 있다. 다만, 보안 상의 이유 등으로 인하여 버퍼 메모리(2350a)에 대한 제 2 프로세서(2312)의 액세스는 제한적일 수 있으며, 허용된 영역(AR2)에 대해서만 액세스가 허용될 수 있다.
이상 개시된 실시 예들에 의하면, 서로 다른 이종의 프로세서들이 피어-투-피어 방식으로 통신을 함으로써, 호스트 프로세서 또는 호스트 메모리의 개입 없이 스토리지 컨트롤러와 가속기 간의 데이터 교환이 이루어질 수 있다. 나아가, 프로세서는 다른 프로세서 전용의 버퍼 메모리를 직접 액세스할 수 있기 때문에 버퍼 메모리에 저장된 데이터의 불필요한 복사를 방지할 수 있다. 결국, 가속기 기반의 스토리지 장치의 성능을 향상시킬 수 있다.
도 19는 본 개시의 예시적인 실시 예에 따른 컴퓨팅 시스템의 구성을 도시한다.
컴퓨팅 시스템(3000)은 시스템 버스(3600)에 연결되는 메인 프로세서(3100), 워킹 메모리(3200), 스토리지 장치들(3301, 3302), 및 통신 모듈(3400)을 포함한다. 실시 예에 있어서, 컴퓨팅 시스템(3000)은 사용자에게 서비스를 제공하기 위한 서버일 수 있다.
메인 프로세서(3100)는 워킹 메모리(3200)에 상주하는 운영 체제(Operating System), 응용 프로그램(Application Program) 등을 구동하기 위한 제반 연산처리를 수행한다. 스토리지 장치들(3301, 3302)은 컴퓨팅 시스템(3000)에서 필요한 제반 데이터를 저장한다. 예를 들어, 스토리지 장치들(3301, 3302)은 컴퓨팅 시스템(3000)을 구동하기 위한 운영 체제(Operating System), 응용 프로그램(Application Program), 다양한 프로그램 모듈(Program Module), 프로그램 데이터(Program data) 그리고 유저 데이터(User data) 등을 저장한다.
컴퓨팅 시스템(3000)의 부팅 혹은 동작 시, 워킹 메모리(3200)에는 스토리지 장치들(3301, 3302)로부터 읽혀진 운영 체제(Operating System), 응용 프로그램(Application Program), 다양한 프로그램 모듈(Program Module)과 프로그램들의 구동에 소요되는 프로그램 데이터(Program data)가 로딩 된다. 통신 모듈(3400)은 컴퓨팅 시스템(3000)과 외부의 네트워크 간의 인터페이싱을 제공한다.
컴퓨팅 시스템(3000)은 사용자의 요청에 따른 서비스를 제공할 수 있다. 예를 들어, 컴퓨팅 시스템(3000)은 IaaS (Infra as a Service), PaaS (Platform as a Service), SaaS (Software as a Service)와 같은 클라우드 서비스, AI (Artificial Intelligence) 기반의 음성 인식 등과 같은 다양한 서비스를 제공할 수 있다. 특히, 스토리지 장치(3301, 3302)에 저장된 데이터를 이용하여 AI 기반의 서비스를 제공하는 것과 같이 복잡한 연산을 필요로 하는 서비스에 있어서, 서비스의 제공 속도를 향상시키기 위해 스토리지 장치들(3301, 3302)의 가속기들은 가속 연산을 수행할 수 있다. 이 경우, 본 개시의 실시 예들에 따라 가속기들은 스토리지 장치들(3301, 3302)의 CPU들의 전용 메모리들을 액세스 할 수 있다.
상술된 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술된 실시 예들뿐만 아니라, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들 또한 포함할 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술된 실시 예들에 국한되어 정해져서는 안되며 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.
1000: 전자 시스템
1100: 메인 프로세서:
1200: 워킹 메모리
1300: 스토리지 장치
1400: 통신 모듈
1500: 유저 인터페이스
1100: 메인 프로세서:
1200: 워킹 메모리
1300: 스토리지 장치
1400: 통신 모듈
1500: 유저 인터페이스
Claims (20)
- 제 1 프로세서를 포함하는 가속기; 그리고
버퍼 메모리를 워킹 메모리로써 사용하되 상기 제 1 프로세서와 다른 이종의 제 2 프로세서를 포함하는 스토리지 컨트롤러를 포함하되,
상기 제 2 프로세서는, 상기 제 1 프로세서의 요청에 따라, 상기 제 1 프로세서와 상기 버퍼 메모리 사이의 제 1 통신 경로를 설정하고,
상기 제 1 프로세서는 상기 제 1 통신 경로를 통하여 상기 버퍼 메모리를 액세스하는 스토리지 장치. - 제 1 항에 있어서,
상기 요청이 상기 버퍼 메모리의 미사용 영역에 대한 제 1 유형의 액세스 요청인 경우, 상기 제 2 프로세서는 상기 미사용 영역의 적어도 일부에 대응하는 가상 주소를 상기 제 1 프로세서에 할당하고,
상기 제 1 프로세서는 상기 할당된 가상 주소를 참조하여 상기 버퍼 메모리의 상기 미사용 영역을 액세스하고,
상기 미사용 영역에 대한 상기 제 2 프로세서의 액세스는 적어도 일부 제한되는 스토리지 장치. - 제 1 항에 있어서,
상기 요청이 상기 버퍼 메모리의 사용 영역에 대한 제 2 유형의 액세스 요청인 경우, 상기 제 2 프로세서는 상기 사용 영역의 적어도 일부에 대응하는 가상 주소를 상기 제 1 프로세서에 할당하고,
상기 제 1 프로세서는 상기 할당된 가상 주소를 참조하여 상기 버퍼 메모리의 상기 사용 영역을 액세스하고,
상기 사용 영역에 대한 상기 제 1 프로세서의 액세스는 적어도 일부 제한되는 스토리지 장치. - 제 3 항에 있어서,
상기 제 2 프로세서는 상기 버퍼 메모리의 가상 주소들 중 외부 프로세서에 의한 액세스가 금지되는 가상 주소들을 별도로 관리하는 스토리지 장치. - 제 3 항에 있어서,
상기 스토리지 컨트롤러는:
상기 버퍼 메모리의 가상 주소들에 기반하여, 상기 버퍼 메모리에 대한 상기 제 1 프로세서의 액세스를 관리하는 아비터를 더 포함하는 스토리지 장치. - 제 3 항에 있어서,
상기 가속기는:
상기 버퍼 메모리의 가상 주소들에 기반하여, 상기 버퍼 메모리에 대한 상기 제 1 프로세서의 액세스를 관리하는 아비터를 더 포함하는 스토리지 장치. - 제 1 항에 있어서,
상기 제 1 프로세서는 제 1 버퍼 메모리를 워킹 메모리로써 사용하고,
상기 버퍼 메모리는 제 2 버퍼 메모리이고,
상기 제 1 프로세서는, 상기 제 2 프로세서의 요청에 따라, 상기 제 2 프로세서와 상기 제 1 버퍼 메모리 사이의 제 2 통신 경로를 설정하는 스토리지 장치. - 제 1 항에 있어서,
상기 스토리지 컨트롤러는 상기 버퍼 메모리의 가상 주소들과 물리 주소들을 맵핑시키는 메모리 관리 유닛을 더 포함하고,
상기 메모리 관리 유닛은, 상기 제 2 프로세서에 의해 관리되는 상기 버퍼 메모리의 가상 주소들에 기반하여, 상기 버퍼 메모리에 대한 상기 제 1 프로세서의 액세스를 관리하는 스토리지 장치. - 제 8 항에 있어서,
상기 가속기는 상기 스토리지 컨트롤러와 통신을 수행하기 위한 제 1 인터페이스 회로를 포함하고,
상기 스토리지 컨트롤러는 상기 가속기와 통신을 수행하기 위한 제 2 인터페이스 회로를 포함하고,
상기 가속기와 상기 스토리지 컨트롤러는 버스를 통하여 연결되는 스토리지 장치. - 제 1 항에 있어서,
상기 제 1 프로세서는 GPU (Graphics Processing Unit), NNPU (Neural Network Processing Unit), 재구성 가능한 로직 회로(Reconfigurable Logic Circuit) 중 적어도 하나로 구현되고,
상기 2 프로세서는 CPU (Central Processing Unit)로 구현되는 스토리지 장치. - 제 1 프로세서;
버퍼 메모리를 워킹 메모리로써 사용하되 상기 제 1 프로세서와 다른 이종의 제 2 프로세서; 그리고
상기 제 1 프로세서와 상기 제 2 프로세서를 통신적으로 연결하는 버스를 포함하되,
상기 제 2 프로세서는, 상기 제 1 프로세서의 요청에 따라, 상기 제 1 프로세서와 상기 버퍼 메모리 사이의 제 1 통신 경로를 설정하는 컨트롤러. - 제 11 항에 있어서,
상기 요청이 상기 버퍼 메모리의 미사용 영역에 대한 제 1 유형의 액세스 요청인 경우, 상기 제 2 프로세서는 상기 미사용 영역의 적어도 일부에 대응하는 가상 주소를 상기 제 1 프로세서에 할당하고,
상기 제 1 프로세서는 상기 할당된 가상 주소를 참조하여 상기 버퍼 메모리의 상기 미사용 영역을 액세스하고,
상기 미사용 영역에 대한 상기 제 2 프로세서의 액세스는 적어도 일부 제한되는 컨트롤러. - 제 11 항에 있어서,
상기 요청이 상기 버퍼 메모리의 사용 영역에 대한 제 2 유형의 액세스 요청인 경우, 상기 제 2 프로세서는 상기 사용 영역의 적어도 일부에 대응하는 가상 주소를 상기 제 1 프로세서에 할당하고,
상기 제 1 프로세서는 상기 할당된 가상 주소를 참조하여 상기 버퍼 메모리의 상기 사용 영역을 액세스하고,
상기 사용 영역에 대한 상기 제 1 프로세서의 액세스는 적어도 일부 제한되는 컨트롤러. - 제 11 항에 있어서,
상기 버퍼 메모리의 가상 주소들과 물리 주소들을 맵핑시키는 메모리 관리 유닛을 더 포함하되,
상기 메모리 관리 유닛은, 상기 제 2 프로세서에 의해 관리되는 상기 버퍼 메모리의 가상 주소들에 기반하여, 상기 버퍼 메모리에 대한 상기 제 1 프로세서의 액세스를 관리하는 컨트롤러. - 제 11 항에 있어서,
상기 제 1 프로세서는 GPU (Graphics Processing Unit), NNPU (Neural Network Processing Unit), 임베디드 FPGA (embedded FPAG) 중 적어도 하나로 구현되고,
상기 2 프로세서는 CPU (Central Processing Unit)로 구현되는 컨트롤러. - 제 1 프로세서 및 상기 제 1 프로세서와는 다른 이종의 제 2 프로세서를 포함하는 스토리지 장치의 동작 방법에 있어서:
상기 제 1 프로세서에 의해, 상기 제 2 프로세서의 버퍼 메모리 에 대한 액세스를 요청하는 단계;
상기 제 2 프로세서에 의해, 상기 버퍼 메모리의 물리 주소들에 대응하는 가상 주소들 중 적어도 일부를 상기 제 1 프로세서에 할당하는 단계; 그리고
상기 제 1 프로세서에 의해, 상기 할당된 논리 주소를 참조하여 상기 버퍼 메모리를 액세스하는 단계를 포함하는 방법. - 제 16 항에 있어서,
상기 할당하는 단계는:
상기 버퍼 메모리를 관리하는 메모리 관리 유닛에 의해, 상기 할당된 논리 주소를 수신하는 단계;
상기 메모리 관리 유닛에 의해, 상기 제 1 프로세서로부터 상기 액세스 요청을 수신하는 단계; 그리고
상기 메모리 관리 유닛에 의해, 상기 수신된 액세스 요청에 기반하여 상기 버퍼 메모리를 액세스 하기 위한 제어 신호들을 생성하는 단계를 포함하는 방법. - 제 17 항에 있어서,
상기 제어 신호는 상기 버퍼 메모리를 선택하기 위한 칩 선택 신호, 컬럼 어드레스, 로우 어드레스, 랭크 어드레스, 및 뱅크 어드레스를 포함하는 방법. - 제 17 항에 있어서,
상기 메모리 관리 유닛에 의해, 상기 제 2 프로세서 이외의 외부 프로세서의 버퍼 메모리에 대한 액세스를 차단하는 단계를 더 포함하는 방법. - 제 16 항에 있어서,
상기 스토리지 장치는 서로 통신적으로 연결되는 컨트롤러 및 가속기를 포함하되,
상기 제 1 프로세서는 가속 연산을 수행하도록 구성되는 가속기에 구현되고,
상기 제 2 프로세서는 연산을 수행하도록 구성되는 컨트롤러에 구현되는 방법.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180141742A KR102655094B1 (ko) | 2018-11-16 | 2018-11-16 | 메모리를 공유하는 이종의 프로세서들을 포함하는 스토리지 장치 및 그것의 동작 방법 |
DE102019117794.4A DE102019117794A1 (de) | 2018-11-16 | 2019-07-02 | Speichervorrichtungen, die heterogene Prozessoren umfassen, welche sich Speicher teilen, und Verfahren zu deren Betrieb |
CN201910728678.4A CN111198839A (zh) | 2018-11-16 | 2019-08-08 | 存储装置及操作其的方法、控制器 |
US16/562,623 US11681553B2 (en) | 2018-11-16 | 2019-09-06 | Storage devices including heterogeneous processors which share memory and methods of operating the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180141742A KR102655094B1 (ko) | 2018-11-16 | 2018-11-16 | 메모리를 공유하는 이종의 프로세서들을 포함하는 스토리지 장치 및 그것의 동작 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200057397A true KR20200057397A (ko) | 2020-05-26 |
KR102655094B1 KR102655094B1 (ko) | 2024-04-08 |
Family
ID=70727666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180141742A KR102655094B1 (ko) | 2018-11-16 | 2018-11-16 | 메모리를 공유하는 이종의 프로세서들을 포함하는 스토리지 장치 및 그것의 동작 방법 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11681553B2 (ko) |
KR (1) | KR102655094B1 (ko) |
CN (1) | CN111198839A (ko) |
DE (1) | DE102019117794A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102572143B1 (ko) * | 2022-05-04 | 2023-08-29 | 코싸인온 주식회사 | 메모리 클라우드를 위한 메모리 자원 공유 방법 및 이를 이용한 메모리 자원 공유 시스템 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113535611A (zh) * | 2020-04-22 | 2021-10-22 | 华为技术有限公司 | 数据处理方法及装置、异构系统 |
US20210406170A1 (en) * | 2020-06-24 | 2021-12-30 | MemRay Corporation | Flash-Based Coprocessor |
KR20220056986A (ko) | 2020-10-29 | 2022-05-09 | 삼성전자주식회사 | 메모리 확장기, 이종 컴퓨팅 장치, 및 이종 컴퓨팅 장치의 동작 방법 |
CN115374031A (zh) * | 2021-05-17 | 2022-11-22 | 三星电子株式会社 | 近存储器处理双列直插式存储器模块及其操作方法 |
CN113867963A (zh) * | 2021-09-30 | 2021-12-31 | 联想(北京)有限公司 | 一种电子设备及处理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6525739B1 (en) * | 1999-12-02 | 2003-02-25 | Intel Corporation | Method and apparatus to reuse physical memory overlapping a graphics aperture range |
US20100149199A1 (en) * | 2008-12-11 | 2010-06-17 | Nvidia Corporation | System and method for video memory usage for general system application |
US20180074727A1 (en) * | 2016-09-15 | 2018-03-15 | Qualcomm Incorporated | Managing Data Flow in Heterogeneous Computing |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BE791843A (fr) * | 1971-11-24 | 1973-05-24 | Gte Automatic Electric Lab Inc | Montage pour la detection de l'abonne et du prepayement dans unsysteme de commutation telephonique |
US3944974A (en) * | 1974-12-26 | 1976-03-16 | Lear Siegler, Inc. | Digital signal selector device |
US4141067A (en) * | 1977-06-13 | 1979-02-20 | General Automation | Multiprocessor system with cache memory |
US4385206A (en) * | 1980-12-16 | 1983-05-24 | Stromberg-Carlson Corporation | Programmable port sense and control signal preprocessor for a central office switching system |
JPH02226419A (ja) * | 1989-02-28 | 1990-09-10 | Sharp Corp | データ配列変換制御方式 |
US6839808B2 (en) * | 2001-07-06 | 2005-01-04 | Juniper Networks, Inc. | Processing cluster having multiple compute engines and shared tier one caches |
US20040123123A1 (en) * | 2002-12-18 | 2004-06-24 | Buer Mark L. | Methods and apparatus for accessing security association information in a cryptography accelerator |
US8108564B2 (en) * | 2003-10-30 | 2012-01-31 | International Business Machines Corporation | System and method for a configurable interface controller |
US7127549B2 (en) * | 2004-02-04 | 2006-10-24 | Sandisk Corporation | Disk acceleration using first and second storage devices |
US20060064546A1 (en) * | 2004-07-28 | 2006-03-23 | Hiroshi Arita | Microprocessor |
EP1807767A1 (en) * | 2004-09-07 | 2007-07-18 | Freescale Semiconductors, Inc. | A virtual address cache and method for sharing data stored in a virtual address cache |
US7461180B2 (en) * | 2006-05-08 | 2008-12-02 | Cisco Technology, Inc. | Method and apparatus for synchronizing use of buffer descriptor entries for shared data packets in memory |
US7536669B1 (en) * | 2006-08-30 | 2009-05-19 | Xilinx, Inc. | Generic DMA IP core interface for FPGA platform design |
US7831801B1 (en) * | 2006-08-30 | 2010-11-09 | Xilinx, Inc. | Direct memory access-based multi-processor array |
US8860741B1 (en) * | 2006-12-08 | 2014-10-14 | Nvidia Corporation | Graphics processor with memory management unit and cache coherent link |
US8285670B2 (en) * | 2008-07-22 | 2012-10-09 | International Business Machines Corporation | Dynamically maintaining coherency within live ranges of direct buffers |
US8595448B2 (en) * | 2008-07-22 | 2013-11-26 | International Business Machines Corporation | Asymmetric double buffering of bitstream data in a multi-core processor |
US8612383B2 (en) * | 2008-11-05 | 2013-12-17 | Mastercard International Incorporated | Method and systems for caching objects in a computer system |
US8397241B2 (en) * | 2008-11-13 | 2013-03-12 | Intel Corporation | Language level support for shared virtual memory |
US8675001B2 (en) * | 2009-06-04 | 2014-03-18 | International Business Machines Corporation | Efficient memory management for path determination in memory space limited parallel processing systems |
US8719547B2 (en) * | 2009-09-18 | 2014-05-06 | Intel Corporation | Providing hardware support for shared virtual memory between local and remote physical memory |
US8719543B2 (en) * | 2009-12-29 | 2014-05-06 | Advanced Micro Devices, Inc. | Systems and methods implementing non-shared page tables for sharing memory resources managed by a main operating system with accelerator devices |
TW201227598A (en) * | 2010-12-22 | 2012-07-01 | Inst Information Industry | Tag-based data processing apparatus and data processing method thereof |
US8775731B2 (en) * | 2011-03-25 | 2014-07-08 | Dell Products, L.P. | Write spike performance enhancement in hybrid storage systems |
AU2011202182B1 (en) * | 2011-05-11 | 2011-10-13 | Frequency Ip Holdings, Llc | Creation and presentation of selective digital content feeds |
US9916257B2 (en) * | 2011-07-26 | 2018-03-13 | Intel Corporation | Method and apparatus for TLB shoot-down in a heterogeneous computing system supporting shared virtual memory |
SE537423C2 (sv) * | 2011-12-20 | 2015-04-21 | Mediatek Sweden Ab | Digital signalprocessor och förfarande för adressering av ett minne i en digital signalprocessor |
US20130329491A1 (en) * | 2012-06-12 | 2013-12-12 | Jichuan Chang | Hybrid Memory Module |
US9294508B2 (en) * | 2012-08-02 | 2016-03-22 | Cellsec Inc. | Automated multi-level federation and enforcement of information management policies in a device network |
US8996781B2 (en) * | 2012-11-06 | 2015-03-31 | OCZ Storage Solutions Inc. | Integrated storage/processing devices, systems and methods for performing big data analytics |
US9286225B2 (en) | 2013-03-15 | 2016-03-15 | Saratoga Speed, Inc. | Flash-based storage system including reconfigurable circuitry |
US9921768B2 (en) * | 2014-12-18 | 2018-03-20 | Intel Corporation | Low power entry in a shared memory link |
KR102106541B1 (ko) * | 2015-03-18 | 2020-05-04 | 삼성전자주식회사 | 공유 리소스 액세스 중재 방법 및 이를 수행하기 위한 공유 리소스 액세스 중재 장치 및 공유 리소스 액세스 중재 시스템 |
KR101813251B1 (ko) | 2016-04-04 | 2017-12-29 | 윤성현 | 가속기-디지털 신호 프로세서 간 메모리 공유 기반의 연산장치 및 연산방법 |
KR101923661B1 (ko) * | 2016-04-04 | 2018-11-29 | 주식회사 맴레이 | 플래시 기반 가속기 및 이를 포함하는 컴퓨팅 디바이스 |
US10034407B2 (en) | 2016-07-22 | 2018-07-24 | Intel Corporation | Storage sled for a data center |
US20180024944A1 (en) * | 2016-07-22 | 2018-01-25 | Qualcomm Incorporated | Methods and apparatus for access control in shared virtual memory configurations |
US10185386B2 (en) * | 2016-07-25 | 2019-01-22 | Ati Technologies Ulc | Methods and apparatus for controlling power consumption of a computing unit that employs a discrete graphics processing unit |
US20180052776A1 (en) * | 2016-08-18 | 2018-02-22 | Qualcomm Incorporated | Shared Virtual Index for Memory Object Fusion in Heterogeneous Cooperative Computing |
EP3798835A1 (en) | 2016-08-26 | 2021-03-31 | Huawei Technologies Co., Ltd. | Method, device, and system for implementing hardware acceleration processing |
WO2018219480A1 (en) * | 2017-05-29 | 2018-12-06 | Barcelona Supercomputing Center - Centro Nacional De Supercomputación | Managing task dependency |
US10565134B2 (en) * | 2017-12-30 | 2020-02-18 | Intel Corporation | Apparatus, methods, and systems for multicast in a configurable spatial accelerator |
KR102533241B1 (ko) * | 2018-01-25 | 2023-05-16 | 삼성전자주식회사 | 적응적으로 캐시 일관성을 제어하도록 구성된 이종 컴퓨팅 시스템 |
US11893419B2 (en) * | 2020-08-28 | 2024-02-06 | Apple Inc. | Hardware accelerators using shared interface registers |
-
2018
- 2018-11-16 KR KR1020180141742A patent/KR102655094B1/ko active IP Right Grant
-
2019
- 2019-07-02 DE DE102019117794.4A patent/DE102019117794A1/de active Pending
- 2019-08-08 CN CN201910728678.4A patent/CN111198839A/zh active Pending
- 2019-09-06 US US16/562,623 patent/US11681553B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6525739B1 (en) * | 1999-12-02 | 2003-02-25 | Intel Corporation | Method and apparatus to reuse physical memory overlapping a graphics aperture range |
US20100149199A1 (en) * | 2008-12-11 | 2010-06-17 | Nvidia Corporation | System and method for video memory usage for general system application |
US20180074727A1 (en) * | 2016-09-15 | 2018-03-15 | Qualcomm Incorporated | Managing Data Flow in Heterogeneous Computing |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102572143B1 (ko) * | 2022-05-04 | 2023-08-29 | 코싸인온 주식회사 | 메모리 클라우드를 위한 메모리 자원 공유 방법 및 이를 이용한 메모리 자원 공유 시스템 |
KR20230155996A (ko) * | 2022-05-04 | 2023-11-13 | 코싸인온 주식회사 | 대용량 메모리 자원 공유 방법 및 메모리 브리지 ic를 이용한 효율적인 메모리 자원 공유 시스템 |
Also Published As
Publication number | Publication date |
---|---|
CN111198839A (zh) | 2020-05-26 |
DE102019117794A1 (de) | 2020-06-10 |
US11681553B2 (en) | 2023-06-20 |
KR102655094B1 (ko) | 2024-04-08 |
US20200159584A1 (en) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102655094B1 (ko) | 메모리를 공유하는 이종의 프로세서들을 포함하는 스토리지 장치 및 그것의 동작 방법 | |
US11947837B2 (en) | Memory system and method for controlling nonvolatile memory | |
EP3140743B1 (en) | Hybrid memory cube system interconnect directory-based cache coherence methodology | |
EP3140749B1 (en) | In-memory lightweight coherency | |
US8850158B2 (en) | Apparatus for processing remote page fault and method thereof | |
US20200364145A1 (en) | Information processing apparatus and method for controlling storage device | |
US11726701B2 (en) | Memory expander, heterogeneous computing device using memory expander, and operation method of heterogenous computing | |
KR20180007374A (ko) | 메모리 채널의 소프트웨어 트레이닝을 수행하는 전자 장치 및 그것의 메모리 채널 트레이닝 방법 | |
US11645011B2 (en) | Storage controller, computational storage device, and operational method of computational storage device | |
CN114442916A (zh) | 存储器设备、主机系统及操作存储器设备的方法 | |
EP4123649A1 (en) | Memory module, system including the same, and operation method of memory module | |
US20220137864A1 (en) | Memory expander, host device using memory expander, and operation method of sever system including memory expander | |
CN114428663A (zh) | 存储系统、包括主机和存储系统的计算系统及其操作方法 | |
US20230229357A1 (en) | Storage controller, computational storage device, and operational method of computational storage device | |
JP7330694B2 (ja) | コンピュータシステム及びその動作方法 | |
CN115481066A (zh) | 计算设备、总线矩阵及计算设备的操作方法 | |
Ha et al. | Dynamic Capacity Service for Improving CXL Pooled Memory Efficiency | |
KR20220067992A (ko) | 선택적 및 병렬적 에러 정정을 수행하는 메모리 컨트롤러, 이를 포함하는 시스템 및 메모리 장치의 동작 방법 | |
US20220137998A1 (en) | Storage virtualization device supporting virtual machine, operation method thereof, and operation method of system having the same | |
TWI811269B (zh) | 計算系統和包括計算系統的資料處理系統 | |
US20240126469A1 (en) | Apparatus and method for controlling a pooled memory device or a memory expander | |
KR20230092227A (ko) | 멀티코어 프로세서 및 스토리지 장치 | |
KR20170012934A (ko) | 객체-지향 데이터 저장 장치의 작동 방법과 상기 데이터 저장 장치를 포함하는 시스템의 작동 방법 | |
KR20230162440A (ko) | 스토리지 장치, 스토리지 장치의 동작 방법 및 스토리지 장치를 포함하는 전자 시스템 | |
CN117032553A (zh) | 包括存储器装置和存储装置的计算系统及其操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |