KR102144132B1 - Storage Target Framework Structure with High-speed Caching - Google Patents

Storage Target Framework Structure with High-speed Caching Download PDF

Info

Publication number
KR102144132B1
KR102144132B1 KR1020130126543A KR20130126543A KR102144132B1 KR 102144132 B1 KR102144132 B1 KR 102144132B1 KR 1020130126543 A KR1020130126543 A KR 1020130126543A KR 20130126543 A KR20130126543 A KR 20130126543A KR 102144132 B1 KR102144132 B1 KR 102144132B1
Authority
KR
South Korea
Prior art keywords
data
manager
cache
storage
client
Prior art date
Application number
KR1020130126543A
Other languages
Korean (ko)
Other versions
KR20150047662A (en
Inventor
김영환
손재기
정혜동
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020130126543A priority Critical patent/KR102144132B1/en
Publication of KR20150047662A publication Critical patent/KR20150047662A/en
Application granted granted Critical
Publication of KR102144132B1 publication Critical patent/KR102144132B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

캐싱 기법을 접목시킨 스토리지 타겟 프레임워크 구조가 개시된다. 본 발명의 실시예에 따른 서버 시스템은, 클라이언트와 통신 연결하는 제1 매니저, 데이터가 저장되는 스토리지를 관리하는 제2 매니저 및 데이터가 저장되는 캐시를 관리하는 캐시 매니저를 포함하고, 제2 매니저는 제1 매니저를 통해 연결된 클라이언트가 요청한 데이터를 캐시 매니저에 검색 요청하고, 캐시 매니저는 캐시에 데이터가 존재하면 데이터를 제1 매니저를 통해 클라이언트에 전달한다. 이에 의해, 대용량의 데이터를 사용자에게 고속으로 제공할 수 있게 된다.A storage target framework structure incorporating a caching technique is disclosed. A server system according to an embodiment of the present invention includes a first manager for communicating with a client, a second manager for managing a storage in which data is stored, and a cache manager for managing a cache in which data is stored, and the second manager The data requested by the client connected through the first manager is requested to be searched from the cache manager, and the cache manager transmits the data to the client through the first manager if there is data in the cache. Accordingly, it is possible to provide a large amount of data to the user at high speed.

Description

캐싱 기법을 접목시킨 스토리지 타겟 프레임워크 구조{Storage Target Framework Structure with High-speed Caching}Storage Target Framework Structure with High-speed Caching}

본 발명은 서버 시스템에 관한 것으로, 더욱 상세하게는 클라우드 컴퓨팅 환경에서 빅데이터를 효율적으로 처리할 수 있는 캐싱 기법을 접목시킨 서버 시스템에 관한 것이다.
The present invention relates to a server system, and more particularly, to a server system incorporating a caching technique capable of efficiently processing big data in a cloud computing environment.

최근 클라우드 컴퓨팅 환경 내에서 많은 IT 기업들이 클라우드 컴퓨팅과 빅데이터를 위한 IT 인프라 구축에 힘쓰고 있다. In recent cloud computing environments, many IT companies are striving to build IT infrastructure for cloud computing and big data.

클라우드 컴퓨팅이란 인터넷 기반의 컴퓨팅 기술로서, 인터넷 상의 데이터 서버에 프로그램을 두고 개인 프로그램에서 불러와서 사용하는 웹에 기반한 소프트웨어 서비스이다. 개인이 가진 단말기를 통해서는 주로 입/출력 작업만 이루어지고, 정보분석 및 처리, 저장, 관리, 유통 등의 작업은 클라우드라고 불리는 제3의 공간에서 이루어지는 컴퓨팅 시스템 형태라고 할 수 있다.Cloud computing is an Internet-based computing technology, which is a web-based software service that is used by placing a program on a data server on the Internet and fetching it from personal programs. It can be said that only input/output work is performed through a personal terminal, and work such as information analysis and processing, storage, management, and distribution is a form of a computing system performed in a third space called the cloud.

클라우드 컴퓨팅 환경은 다음과 같이 4가지의 특징을 갖는다. 첫째는 데이터양이 거대하다는 것이고, 둘째는 데이터의 입출력과 처리 성능이 사용자에게 만족해야한다는 점이다. 셋째는 확실하고 안전한 보안 체계를 요구한다는 것이고 마지막으로는 저장 공간을 최적으로 사용하기 위한 방법을 요구한다는 점이다.The cloud computing environment has four characteristics as follows. The first is that the amount of data is huge, and the second is that the input/output and processing performance of data must be satisfied with the user. Thirdly, it requires a secure and secure security system, and finally, it requires a method for optimal use of storage space.

클라우드 컴퓨팅 시장에 뛰어든 기업에 있어서 인프라를 구축하고, 데이터를 관리, 운용하는 데 있어 저비용, 고성능의 인프라를 구축하는 것이 경쟁력에서 살아남기 위한 방법이다. 그래서, 이를 위해 저렴한 비용으로 고성능의 효과를 낼 수 있는 기술들을 개발하고 적용해야 한다.
For companies that have entered the cloud computing market, building infrastructure and building a low-cost, high-performance infrastructure for managing and operating data is a way to survive in competitiveness. So, for this, it is necessary to develop and apply technologies that can produce high-performance effects at low cost.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 대용량의 데이터를 사용자에게 고속으로 제공할 수 있도록 하기 위한 방안으로, 캐싱 기법을 접목시킨 서버 시스템 및 그의 데이터 제공방법을 제공함에 있다.
The present invention was conceived to solve the above problems, and an object of the present invention is to provide a large amount of data to a user at high speed, a server system incorporating a caching technique and a data providing method thereof In providing.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 서버 시스템은, 클라이언트와 통신 연결하는 제1 매니저; 데이터가 저장되는 스토리지를 관리하는 제2 매니저; 및 데이터가 저장되는 캐시를 관리하는 캐시 매니저;를 포함하고, 상기 제2 매니저는, 상기 제1 매니저를 통해 연결된 클라이언트가 요청한 데이터를 상기 캐시 매니저에 검색 요청하고, 상기 캐시 매니저는, 상기 캐시에 상기 데이터가 존재하면, 상기 데이터를 상기 제1 매니저를 통해 상기 클라이언트에 전달한다.According to an embodiment of the present invention for achieving the above object, a server system includes: a first manager for communication with a client; A second manager managing storage in which data is stored; And a cache manager that manages a cache in which data is stored, wherein the second manager requests the cache manager to search for data requested by a client connected through the first manager, and the cache manager If the data exists, the data is transmitted to the client through the first manager.

그리고, 상기 캐시 매니저는, 상기 캐시에 상기 데이터가 존재하지 않으면, 상기 제2 매니저에 상기 데이터를 요청하고, 상기 제2 매니저는, 상기 데이터를 상기 스토리지에서 검색하여, 상기 제1 매니저를 통해 상기 클라이언트에 전달And, if the data does not exist in the cache, the cache manager requests the data from the second manager, and the second manager retrieves the data from the storage, and the first manager Forward to client

또한, 상기 제2 매니저는, 상기 캐시에 저장되는 데이터를 관리하는 데이터 매니저;를 더 포함In addition, the second manager further includes a data manager that manages data stored in the cache.

그리고, 상기 데이터 매니저는, 데이터 읽기 빈도를 고려하여, 상기 캐시에 저장되는 데이터를 관리In addition, the data manager manages the data stored in the cache in consideration of the data read frequency.

또한, 상기 데이터 매니저는, 상기 제2 매니저와 상기 캐시 매니저의 로드가 기준 이하인 경우에, 상기 캐시에 저장되는 데이터를 관리In addition, the data manager manages data stored in the cache when the loads of the second manager and the cache manager are less than a standard.

그리고, 상기 스토리지는, 제1 스토리지 및 제2 스토리지를 포함하며, 상기 데이터 매니저는, 상기 데이터 읽기 빈도를 고려하여, 상기 제1 스토리지와 제2 스토리지에 선택적으로 데이터를 저장In addition, the storage includes a first storage and a second storage, and the data manager selectively stores data in the first storage and the second storage in consideration of the data read frequency.

또한, 상기 제1 스토리지는, SSD(Solid State Disk or Drive)이고, 상기 제2 스토리지는, HDD(Hard Disk Drive)이며, 상기 SSD에 저장되는 데이터의 읽기 빈도는 상기 HDD에 저장되는 데이터의 읽기 빈도 보다 높을 수 있다.Further, the first storage is a solid state disk or drive (SSD), the second storage is a hard disk drive (HDD), and the reading frequency of data stored in the SSD is reading of data stored in the HDD May be higher than the frequency.

한편, 본 발명의 다른 실시예에 따른, 데이터 제공방법은, 클라이언트와 통신 연결하는 단계; 연결된 클라이언트가 요청한 데이터를 캐시에서 검색 요청하는 단계; 및 상기 캐시에 상기 데이터가 존재하면, 상기 데이터를 상기 캐시에서 읽어들여 상기 클라이언트에 전달하는 단계;를 포함한다.
On the other hand, according to another embodiment of the present invention, a method for providing data includes the steps of communicating with a client; Requesting a cache for data requested by a connected client; And if the data exists in the cache, reading the data from the cache and transmitting the data to the client.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 캐싱 기법을 접목시킨 서버 시스템의 데이터 제공에 의해, 대용량의 데이터를 사용자에게 고속으로 제공할 수 있게 된다. 특히, 오픈 클라우드 컴퓨팅 환경에서 빅데이터를 효율적으로 처리 할 수 있어, 고성능의 서버를 구현할 수 있는 발판이 되며, 이는 클라이언트에게 고속/고품질의 데이터를 제공할 수 있게 될 것이다.
As described above, according to embodiments of the present invention, by providing data from a server system incorporating a caching technique, it is possible to provide a large amount of data to a user at high speed. In particular, it is possible to efficiently process big data in an open cloud computing environment, thereby providing a foothold to implement a high-performance server, which will provide high-speed/high-quality data to clients.

도 1은 본 발명의 일 실시예에 따른, HSS(Hybrid Storage System) 기반에 캐시 기법을 접목시킨 클라우드 서버 시스템의 프레임워크를 도시한 도면, 그리고,
도 2는 본 발명의 다른 실시예에 따른, HSS 기반에 캐시 기법을 접목시킨 클라우드 서버 시스템에서의 데이터 제공방법의 설명에 제공되는 흐름도이다.
1 is a diagram showing a framework of a cloud server system in which a cache technique is combined with a hybrid storage system (HSS) according to an embodiment of the present invention, and,
2 is a flowchart provided to explain a method of providing data in a cloud server system in which a cache technique is combined with an HSS based on an HSS according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른, HSS(Hybrid Storage System) 기반에 캐시 기법을 접목시킨 클라우드 서버 시스템의 프레임워크를 도시한 도면이다.FIG. 1 is a diagram illustrating a framework of a cloud server system in which a cache technique is applied to a hybrid storage system (HSS) according to an embodiment of the present invention.

HS(Hybrid Storage)는 SSD(Solid State Disk or Drive)와 HDD(Hard Disk Drive)가 혼합된 상태의 고성능 스토리지이고, HSS는 HS 기반에 소프트웨어를 탑재한 시스템이다.HS (Hybrid Storage) is a high-performance storage in which SSD (Solid State Disk or Drive) and HDD (Hard Disk Drive) are mixed, and HSS is a system equipped with software based on HS.

도 1에 도시된 바와 같이, 본 실시예에 따른 클라우드 서버 시스템은, HSSTM(Hybrid Storage System Target Manager)(110), DCM(Data Cache Manager)(120), HSSVM(Hybrid Storage System Volume Manager)(130), HCDM(Hot/Cold Data Managemer)(135), SSD(140) 및 HDD(150)를 포함한다.As shown in Figure 1, the cloud server system according to the present embodiment, HSSTM (Hybrid Storage System Target Manager) 110, DCM (Data Cache Manager) 120, HSSVM (Hybrid Storage System Volume Manager) 130 ), HCDM (Hot/Cold Data Manager) 135, SSD 140 and HDD 150.

도시된 HSSTM(110), DCM(120), HSSVM(130), HCDM(135)는 소프트웨어와 이를 구동하는 하드웨어를 포함하는 개념이다.The illustrated HSSTM 110, DCM 120, HSSVM 130, and HCDM 135 are concepts including software and hardware that drives them.

HSSTM(110)는 클라이언트와 통신 연결하여 데이터 통신을 위한 구성으로, 이에 의해 클라이언트와 서버 간의 정보 전달이 이루어진다. 대용량 데이터를 고속으로 처리하기 위해 FC(Fibre Channel), Infiniband, Ethernet 등의 네트워크 카드를 사용할 수 있다.The HSSTM 110 is a component for data communication by communicating with a client, thereby transferring information between the client and the server. Network cards such as FC (Fibre Channel), Infiniband, and Ethernet can be used to process large amounts of data at high speed.

SSD(140)와 HDD(150)는 데이터가 저장되는 스토리지 시스템의 구성이다. HSSVM(130)는 스토리지 시스템을 관리하기 위한 구성으로, 스토리지 시스템을 구성하는 SSD(140)와 HDD(150)의 논리적 볼륨 운용관리를 담당한다.The SSD 140 and the HDD 150 are components of a storage system in which data is stored. The HSSVM 130 is a configuration for managing a storage system, and is responsible for operating and managing logical volumes of the SSD 140 and HDD 150 constituting the storage system.

HCDM(135)은 HSSVM(130) 내부에 마련되는 모듈로, 데이터들을 사용빈도에 따라 관리하기 위한 모듈이다. HCDM(135)은, 사용빈도가 높은 데이터는 Hot 데이터로, 사용빈도가 낮은 데이터는 Cold 데이터로, 각각 구분하여 관리한다.The HCDM 135 is a module provided inside the HSSVM 130 and is a module for managing data according to the frequency of use. The HCDM 135 separates and manages data with a high frequency of use as hot data and data with a low frequency of use as cold data.

DCM(120)은 서버 시스템 내에서의 데이터 캐싱을 관리하기 위한 구성으로, 도 1에 도시된 바와 같이, DCM(120)은 HSSTM(110)와 HSSVM(130) 사이에 위치한다. DCM(120)은 데이터 캐시를 생성하고, 생성된 캐시에서 HSSVM(130)이 요청한 데이터를 검색하여 HSSTM(110)에 전달하는 기능을 수행한다.The DCM 120 is a configuration for managing data caching in the server system, and as shown in FIG. 1, the DCM 120 is located between the HSSTM 110 and the HSSVM 130. The DCM 120 performs a function of creating a data cache, searching for data requested by the HSSVM 130 from the generated cache, and transmitting it to the HSSTM 110.

DCM(120)에 의해, 데이터 캐시에 저장되어 있는 데이터를 클라이언트가 읽기 요청한 경우, HSSVM(130)이 SSD(140)나 HDD(150)에 액세스하는 절차 없이도 클라이언트에 데이터 제공이 가능해진다.When a client requests to read data stored in the data cache by the DCM 120, data can be provided to the client without the HSSVM 130 accessing the SSD 140 or the HDD 150.

데이터 캐시에 저장되는 데이터는, HCDM(135)에 의해 관리된다. 즉, HCDM(135)에 의해 Hot 데이터로 분류된 데이터들은 데이터 캐시에 저장되며, Cold 데이터로 분류된 데이터들은 데이터 캐시에서 배제된다.Data stored in the data cache is managed by the HCDM 135. That is, data classified as hot data by the HCDM 135 are stored in the data cache, and data classified as cold data are excluded from the data cache.

따라서, Hot 데이터에 대해서는, HSSVM(130)에 의한 SSD(140)나 HDD(150)에 액세스 절차 없이, 데이터 캐시로부터 클라이언트에 바로 제공할 수 있으므로, 빅데이터 처리에 따른 서버 시스템 내부의 병목현상과 오버헤드를 줄일 수 있게 된다.Therefore, hot data can be directly provided to the client from the data cache without an access procedure to the SSD 140 or the HDD 150 by the HSSVM 130, and thus, the bottleneck inside the server system due to big data processing and It is possible to reduce the overhead.

이하에서, 도 1에 도시된 클라우드 서버 시스템에 의한 데이터 캐싱 과정에 대해 도 2를 참조하여 상세히 설명한다. 도 2는, 본 발명의 다른 실시예에 따른, HSS 기반에 캐시 기법을 접목시킨 클라우드 서버 시스템에서의 데이터 제공방법의 설명에 제공되는 흐름도이다.Hereinafter, a data caching process by the cloud server system shown in FIG. 1 will be described in detail with reference to FIG. 2. 2 is a flow chart provided to explain a method of providing data in a cloud server system in which a cache technique is combined with an HSS based on another embodiment of the present invention.

도 2에서, 좌측에 도시된 절차들은 HSSVM(130)에 의해 수행되는 절차들이고, 우측에 도시된 절차들은 DCM(120)에 의해 수행되는 절차들이다.In FIG. 2, procedures shown on the left are procedures performed by the HSSVM 130, and procedures shown on the right are procedures performed by the DCM 120.

도 2에 도시된 바와 같이, HSSVM(130)이 기동 되면, DCM(120)은 데이터 캐시를 구성한다. 이후에, HSSTM(110)에 연결된 클라이언트로부터의 데이터 요청이 있으면, HSSVM(130)은 DCM(120)에 데이터 읽기를 요청한다.As shown in FIG. 2, when the HSSVM 130 is activated, the DCM 120 configures a data cache. Thereafter, when there is a data request from a client connected to the HSSTM 110, the HSSVM 130 requests the DCM 120 to read data.

이에, DCM(120)은 읽기 요청된 데이터를 데이터 캐시에서 검색한다. 데이터 캐시에 읽기 요청된 데이터가 존재하는 경우, DCM(120)은 이를 읽어들여 HSSTM(110)에 전달한다. 이에, 데이터는 HSSTM(110)를 통해 클라이언트에 제공된다.Accordingly, the DCM 120 searches for the read-requested data from the data cache. When there is data requested to be read in the data cache, the DCM 120 reads it and transmits it to the HSSTM 110. Accordingly, data is provided to the client through the HSSTM 110.

한편, 데이터 캐시에 읽기 요청된 데이터가 존재하지 않는 경우, DCM(120)은 HSSVM(130)에 롤-백(Roll Back)한다. 이에, HSSVM(130)은 SSD(140)와 HDD(150)에서 클라이언트가 읽기 요청한 데이터를 검색하여, HSSTM(110)에 전달한다. 이에, 데이터는 HSSTM(110)를 통해 클라이언트에 제공된다.On the other hand, when there is no read-requested data in the data cache, the DCM 120 rolls back to the HSSVM 130. Accordingly, the HSSVM 130 retrieves data requested by the client to read from the SSD 140 and the HDD 150 and transmits the data to the HSSTM 110. Accordingly, data is provided to the client through the HSSTM 110.

지금까지, HSS 기반에 캐시 기법을 접목시킨 클라우드 서버 시스템 및 클라우드 서버 시스템이 데이터 캐싱을 통해 고속으로 데이터를 제공하는 과정에 대해, 바람직한 실시예들을 들어 상세히 설명하였다.Until now, a cloud server system in which a cache technique is applied to an HSS basis and a process of providing data at a high speed through data caching have been described in detail with reference to preferred embodiments.

위 실시예에서, HCDM(135)은 데이터 캐시에 저장되는 데이터를 관리하였는데, 데이터 관리가 이루어지는 시점(즉 데이터 캐시에 데이터가 변경되는 시점)은, DCM(120)과 HSSVM(130)이 유휴 상태인 시점 또는 이들의 로드가 기준 이하로 적게 걸려 있는 시점으로 제한함이 바람직하다.In the above embodiment, the HCDM 135 managed the data stored in the data cache, and the time at which data management is performed (that is, the time at which data is changed in the data cache) is the DCM 120 and the HSSVM 130 in an idle state. It is preferable to limit it to a point in time when the load is less than the standard.

또한, 캐시에 저장된 데이터 외에, 스토리지에 저장된 데이터에 대해서도 HCDM(135)이 추가적으로 관리를 수행하는 것이 가능하다. 이 경우도, 데이터 캐시와 마찬가지로, 데이터 읽기 빈도를 고려할 수 있다.In addition, in addition to the data stored in the cache, it is possible for the HCDM 135 to additionally manage data stored in the storage. In this case as well as the data cache, the data read frequency can be considered.

예를 들어, 읽기 빈도가 높은 Hot 데이터에 대해서는 액세스 속도가 빠른 SSD(140)에 저장하되, 읽기 빈도가 낮은 Cold 데이터에 대해서는 액세스 속도가 느린 HDD(140)에 저장하도록, HCDM(135)이 관리하는 것이 가능하다.For example, the HCDM 135 manages to store hot data with a high read frequency on the SSD 140 with a fast access speed, but store cold data with a low read frequency on the HDD 140 with a slow access speed. It is possible to do.

아울러, HCDM(135)가 사용빈도에 따라 데이터를 Hot 데이터와 Cold 데이터로 구분함에 있어, 기준이 되는 사용빈도는 시간 범위에 따라 각기 다른 가중치를 둘 수 있다. 예를 들어, 최근 6시간 동안의 사용빈도에 가중치를 가장 높게 부여하고, 6시간~12시간 전의 사용빈도에 가중치를 다음으로 높게 부여하고, 12시간~24시간 전의 사용빈도에 가중치를 낮게 부여하는 것이 가능하다.In addition, when the HCDM 135 divides data into hot data and cold data according to the frequency of use, the frequency of use as a reference may have different weights according to the time range. For example, the highest weight is given to the frequency of use for the last 6 hours, the next higher weight is given to the frequency of use before 6 to 12 hours, and the lower weight is given to the frequency of use from 12 to 24 hours ago. It is possible.

한편, 위 실시예에서 스토리지는 SSD(140)와 HDD(150)로 구성되는 하이브리드 타입을 상정하였는데, 이는 설명의 편의를 위한 일 예에 불과하다. 스토리지를 구성하는 저장매체의 종류는 언급한 SSD와 HDD 이외의 다른 것으로 대체될 수 있다.Meanwhile, in the above embodiment, the storage is assumed to be a hybrid type composed of the SSD 140 and the HDD 150, which is only an example for convenience of description. The type of storage medium constituting the storage can be replaced with something other than the mentioned SSD and HDD.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

110 : HSSTM(Hybrid Storage System Target Manager)
120 : DCM(Data Cache Manager)
130 : HSSVM(Hybrid Storage System Volume Manager)
135 : HCDM(Hot/Cold Data Managemer)
140 : SSD(Solid State Disk or Drive)
150 : HDD(Hard Disk Drive)
110: HSSTM (Hybrid Storage System Target Manager)
120: DCM (Data Cache Manager)
130: HSSVM (Hybrid Storage System Volume Manager)
135: HCDM (Hot/Cold Data Manager)
140: SSD (Solid State Disk or Drive)
150: HDD (Hard Disk Drive)

Claims (8)

클라이언트와 통신 연결하는 제1 매니저;
데이터가 저장되는 스토리지를 관리하는 제2 매니저; 및
데이터가 저장되는 캐시를 관리하는 캐시 매니저;를 포함하고,
상기 제2 매니저는,
상기 제1 매니저를 통해 연결된 클라이언트가 요청한 데이터를 상기 캐시 매니저에 검색 요청하고,
상기 캐시 매니저는,
상기 캐시에 상기 데이터가 존재하면, 상기 데이터를 상기 제1 매니저를 통해 상기 클라이언트에 전달하며,
상기 제2 매니저는,
상기 캐시에 저장되는 데이터를 관리하는 데이터 매니저;를 포함하고,
상기 데이터 매니저는,
상기 제2 매니저와 상기 캐시 매니저의 로드가 기준 이하인 경우에, 데이터 읽기 빈도를 고려하여 상기 캐시에 저장되는 데이터를 관리하되,
최근에 가까운 시구간일수록 데이터 읽기 빈도에 대한 높은 가중치를 적용하며,
상기 캐시 매니저는,
상기 제1 매니저와 상기 제2 매니저 사이에 위치하여,
상기 제2 매니저가 요청한 데이터를 상기 캐시에서 검색하면 상기 데이터를 상기 제1 매니저에 직접 전달하는 것을 특징으로 하는 서버 시스템.
A first manager communicating with a client;
A second manager managing storage in which data is stored; And
Includes; a cache manager that manages a cache in which data is stored,
The second manager,
Requests to search the cache manager for data requested by a client connected through the first manager,
The cache manager,
If the data exists in the cache, the data is delivered to the client through the first manager,
The second manager,
Includes; a data manager for managing data stored in the cache,
The data manager,
When the load of the second manager and the cache manager is less than or equal to the standard, data stored in the cache is managed in consideration of a data read frequency,
The closer the time period is to the latest, the higher the weight for the data reading frequency is applied.
The cache manager,
Located between the first manager and the second manager,
And when the data requested by the second manager is retrieved from the cache, the data is directly transferred to the first manager.
제 1항에 있어서,
상기 캐시 매니저는,
상기 캐시에 상기 데이터가 존재하지 않으면, 상기 제2 매니저에 상기 데이터를 요청하고,
상기 제2 매니저는,
상기 데이터를 상기 스토리지에서 검색하여, 상기 제1 매니저를 통해 상기 클라이언트에 전달하는 것을 특징으로 하는 서버 시스템.
The method of claim 1,
The cache manager,
If the data does not exist in the cache, request the data from the second manager,
The second manager,
The server system, characterized in that the data is retrieved from the storage and transmitted to the client through the first manager.
삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 스토리지는,
제1 스토리지 및 제2 스토리지를 포함하며,
상기 데이터 매니저는,
데이터 읽기 빈도를 고려하여, 상기 제1 스토리지와 제2 스토리지에 선택적으로 데이터를 저장하는 것을 특징으로 하는 서버 시스템.
The method of claim 1,
The storage,
Including a first storage and a second storage,
The data manager,
A server system comprising selectively storing data in the first storage and the second storage in consideration of a data read frequency.
제 6항에 있어서,
상기 제1 스토리지는, SSD(Solid State Disk or Drive)이고,
상기 제2 스토리지는, HDD(Hard Disk Drive)이며,
상기 SSD에 저장되는 데이터의 읽기 빈도는 상기 HDD에 저장되는 데이터의 읽기 빈도 보다 높은 것을 특징으로 하는 서버 시스템.
The method of claim 6,
The first storage is an SSD (Solid State Disk or Drive),
The second storage is an HDD (Hard Disk Drive),
Server system, characterized in that the reading frequency of the data stored in the SSD is higher than the reading frequency of the data stored in the HDD.
제1 매니저가, 클라이언트와 통신 연결하는 단계;
제2 매니저가, 연결된 클라이언트가 요청한 데이터를 캐시에서 검색 요청하는 단계;
상기 캐시에 상기 데이터가 존재하면, 캐시 매니저가 상기 데이터를 상기 캐시에서 읽어들여 상기 클라이언트에 전달하는 단계;
데이터 매니저가, 상기 캐시에 저장되는 데이터를 관리하는 단계;를 포함하고,
관리 단계는,
상기 제2 매니저와 상기 캐시 매니저의 로드가 기준 이하인 경우에, 데이터 읽기 빈도를 고려하여 상기 캐시에 저장되는 데이터를 관리하되,
최근에 가까운 시구간일수록 데이터 읽기 빈도에 대한 높은 가중치를 적용하며,
상기 캐시 매니저는,
상기 제1 매니저와 상기 제2 매니저 사이에 위치하여,
상기 제2 매니저가 요청한 데이터를 상기 캐시에서 검색하면 상기 데이터를 상기 제1 매니저에 직접 전달하는 것을 특징으로 하는 데이터 제공방법.
Communicating, by the first manager, with the client;
Requesting, by the second manager, to search the cache for data requested by the connected client;
If the data exists in the cache, a cache manager reading the data from the cache and transmitting the data to the client;
Including, by a data manager, managing data stored in the cache,
The management steps are:
When the load of the second manager and the cache manager is less than or equal to the standard, data stored in the cache is managed in consideration of a data read frequency,
The closer the time period is to the latest, the higher the weight for the data reading frequency is applied.
The cache manager,
Located between the first manager and the second manager,
And when the data requested by the second manager is retrieved from the cache, the data is directly transferred to the first manager.
KR1020130126543A 2013-10-23 2013-10-23 Storage Target Framework Structure with High-speed Caching KR102144132B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130126543A KR102144132B1 (en) 2013-10-23 2013-10-23 Storage Target Framework Structure with High-speed Caching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130126543A KR102144132B1 (en) 2013-10-23 2013-10-23 Storage Target Framework Structure with High-speed Caching

Publications (2)

Publication Number Publication Date
KR20150047662A KR20150047662A (en) 2015-05-06
KR102144132B1 true KR102144132B1 (en) 2020-08-13

Family

ID=53386482

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130126543A KR102144132B1 (en) 2013-10-23 2013-10-23 Storage Target Framework Structure with High-speed Caching

Country Status (1)

Country Link
KR (1) KR102144132B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147218A (en) * 1994-11-24 1996-06-07 Fujitsu Ltd Cache controller
US8990334B2 (en) * 2001-04-26 2015-03-24 Nokia Corporation Rule-based caching for packet-based data transfer
KR101587631B1 (en) * 2011-09-06 2016-01-25 한국전자통신연구원 Local apparatus based on cloud and method for reading and storing file
KR101694299B1 (en) * 2011-12-15 2017-01-11 한국전자통신연구원 Method and metadata server for managing storage device of cloud storage

Also Published As

Publication number Publication date
KR20150047662A (en) 2015-05-06

Similar Documents

Publication Publication Date Title
US11775569B2 (en) Object-backed block-based distributed storage
US9386117B2 (en) Server side data cache system
US20160132541A1 (en) Efficient implementations for mapreduce systems
US20120271903A1 (en) Shared resource and virtual resource management in a networked environment
CN105635196B (en) A kind of method, system and application server obtaining file data
US9571417B2 (en) Processing resource access request in network
CN104145468B (en) File access authority control method and device thereof
US9898477B1 (en) Writing to a site cache in a distributed file system
CN105025053A (en) Distributed file upload method based on cloud storage technology and system
US20170054720A1 (en) Managing Data Storage in Distributed Virtual Environment
US20150095448A1 (en) Cloud system, control method thereof, management server and control method thereof
CN103595799A (en) Method for achieving distributed shared data bank
US9959245B2 (en) Access frequency approximation for remote direct memory access
US10445296B1 (en) Reading from a site cache in a distributed file system
CN112749145A (en) Method, apparatus and computer program product for storing and accessing data
US20180060178A1 (en) Accelerated deduplication block replication
US20090327303A1 (en) Intelligent allocation of file server resources
US10423785B2 (en) Data scanning within distributed computing components
KR102144132B1 (en) Storage Target Framework Structure with High-speed Caching
US12008041B2 (en) Shared cache for multiple index services in nonrelational databases
US20150106884A1 (en) Memcached multi-tenancy offload
KR101694301B1 (en) Method for processing files in storage system and data server thereof
Andriani et al. An architecture for synchronising cloud file storage and organisation repositories
US10747734B2 (en) Data deduplication within distributed computing components
US8874696B1 (en) Common cache service

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant