KR102252199B1 - 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법 - Google Patents

토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법 Download PDF

Info

Publication number
KR102252199B1
KR102252199B1 KR1020180163202A KR20180163202A KR102252199B1 KR 102252199 B1 KR102252199 B1 KR 102252199B1 KR 1020180163202 A KR1020180163202 A KR 1020180163202A KR 20180163202 A KR20180163202 A KR 20180163202A KR 102252199 B1 KR102252199 B1 KR 102252199B1
Authority
KR
South Korea
Prior art keywords
volume
data
performance
distributed file
torus network
Prior art date
Application number
KR1020180163202A
Other languages
English (en)
Other versions
KR20200074610A (ko
Inventor
김영창
김홍연
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180163202A priority Critical patent/KR102252199B1/ko
Publication of KR20200074610A publication Critical patent/KR20200074610A/ko
Application granted granted Critical
Publication of KR102252199B1 publication Critical patent/KR102252199B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • G06F16/1824Distributed file systems implemented using Network-attached Storage [NAS] architecture
    • G06F16/1827Management specifically adapted to NAS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3006Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is distributed, e.g. networked systems, clusters, multiprocessor systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3034Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a storage system, e.g. DASD based or network based
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1002
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치는 토러스 네트워크 기반 분산 파일 시스템에 생성된 볼륨의 성능 정보를 모니터링 하는 볼륨 상태 모니터링부; 상기 모니터링된 성능 정보에 기반하여 볼륨 상태를 판단하는 볼륨 상태 판단부 및 상기 볼륨 상태를 판단한 결과에 기반하여 토러스 네트워크 기반 분산 파일 시스템의 데이터 서버 구성을 변경하여 볼륨의 성능을 최적화하는 볼륨 성능 최적화 수행부를 포함한다.

Description

토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법 {APPARATUS AND METHOD FOR OPTIMIZING VOLUME PERFORMANCE OF DISTRIBUTED FILE SYSTEM BASED ON TORUS NETWORK}
본 발명은 분산 파일 시스템 기술에 관한 것으로, 보다 상세하게는 토러스 네트워크 기반 분산 파일 시스템의 볼륨 성능을 최적화하기 위한 기술에 관한 것이다.
엑사바이트 규모의 스토리지를 제공하기 위해 토러스 네트워크 기반 분산 파일 시스템이 제안되었다. 해당 분산 파일시스템에서는 엑사바이트 저장공간 지원을 위해 대규모의 데이터 서버들을 3차원 토러스 네트워크를 통해 연결하고 제 1평면의 데이터 서버와 클라이언트 사이의 연결에만 스위치를 사용하였다. 상기 시스템과 같은 대규모 시스템에서는 스토리지 노드의 수가 수 백대 이상으로 증가하면서 관리자의 관리 비용이 증가하게 된다. 따라서 대규모의 시스템을 효율적으로 운영하기 위해 관리자의 개입을 최소화하면서 시스템 운영을 자동화하기 위한 방법이 필요하다. 아울러 이러한 시스템에서는 사용자의 볼륨 개수도 대규모로 증가할 수 있기 때문에, 관리자의 개입을 최소화하면서 사용자 볼륨을 효율적으로 관리하기 위해, 사용자의 QoS 를 기반으로 볼륨을 자동으로 구성하고, 이를 모니터링하여 사용자의 볼륨을 지속적으로 최적화하기 위한 방법이 필요하다.
한편, 한국공개특허 제 10-2018-0035023 호"스토리지 오케스트레이션의 학습형 최적화 대상 볼륨 선정 방법"는 사용자에게 할당된 볼륨 정보와 사용자의 요구사항을 수집하고, 수집된 정보를 기반으로 볼륨 상태를 모니터링하여 지속적 최적화 대상이 되는 볼륨을 선정하는 방법을 제시하였으나, 선정된 볼륨에 대한 최적화 방법을 제시하지 않고 있다.
따라서 관리자의 개입을 최소화하기 위해, 최적화 대상 볼륨을 선정하고, 해당 볼륨이 사용자 QoS를 만족하도록 지속적으로 볼륨을 최적화하기 위한 방법에 대한 연구가 필요하다.
본 발명은 토러스 네트워크 상에서 생성된 볼륨의 성능을 모니터링하고 볼륨의 성능을 최적화하는 것을 목적으로 한다.
또한, 본 발명은 엑사바이트급 스토리지에서 관리자의 개입을 최소화하면서 사용자의 QoS를 만족하도록 볼륨의 성능을 지속적으로 최적화하는 것을 목적으로 한다.
상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치는 토러스 네트워크 기반 분산 파일 시스템에 생성된 볼륨의 성능 정보를 모니터링 하는 볼륨 상태 모니터링부; 상기 모니터링된 성능 정보에 기반하여 볼륨 상태를 판단하는 볼륨 상태 판단부 및 상기 볼륨 상태를 판단한 결과에 기반하여 토러스 네트워크 기반 분산 파일 시스템의 데이터 서버 구성을 변경하여 볼륨의 성능을 최적화하는 볼륨 성능 최적화 수행부를 포함한다.
본 발명은 토러스 네트워크 상에서 생성된 볼륨의 성능을 모니터링하고 볼륨의 성능을 최적화할 수 있다.
또한, 본 발명은 엑사바이트급 스토리지에서 관리자의 개입을 최소화하면서 사용자의 QoS를 만족하도록 볼륨의 성능을 지속적으로 최적화할 수 있다.
도 1은 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템을 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치를 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 4x4x2 로 구성된 3D 토러스 네트워크에서 사용자 볼륨 구성 및 볼륨 중첩으로 인해 사용자의 볼륨 성능 QoS 위배가 나타난 상황을 나타낸 도면이다.
도 4는 도 3에 도시된 볼륨 중첩으로 인한 성능 저하 해결 과정을 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 볼륨의 정보를 나타낸 도면이다.
도 6은 본 발명의 일실시예에 따른 모니터링되는 데이터 서버의 정보를 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 파일을 구분하기 위한 정보를 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법을 나타낸 동작흐름도이다.
도 9는 도 8에 도시된 볼륨 상태 판단 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 10은 도 8에 도시된 볼륨 상태 최적화 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 11은 도 10에 도시된 데이터 서버 구성 갱신 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 12는 도 10에 도시된 데이터 이동 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 13은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템을 나타낸 도면이다.
도 1을 참조하면, 분산 파일 시스템은 볼륨 성능 최적화 수행부(10), 메타데이터를 저장하는 메타데이터 서버(MDS, 104), 실제 데이터를 저장하는 데이터 서버(DS, 105), 서버들을 관리하는 관리 서버(MGS, 103), 분산 파일 시스템에 접근하여 파일 연산을 수행하는 클라이언트(101)를 포함할 수 있다. 관리 서버(103)는 고가용성을 제공하기 위해 다수의 관리 서버가 active-standby 로 구성될 수 있다. 메타데이터 서버(104)는 복수개의 서버를 구성하여 메타데이터를 분산 저장 관리 할 수 있다. 데이터 서버(105)는 다수의 서버들이 스위치 없이 직접 연결을 통해 토러스 네트워크로 연결될 수 있다. 또한, 상기 데이터 서버(105)들 중 제1 평면의 데이터 서버(105)들은 스위치(102)에 직접 연결될 수 있다. 클라이언트(101)는 스위치(102)를 통해 제1 평면의 데이터 서버(105)들과 연결될 수 있다. 관리 서버(103)는 클라이언트와의 빠른 접근을 위해 토러스 네트워크가 아닌 스위치(102)에 직접 연결되어 독립적으로 존재할 수 있으며, 구성에 따라 토러스 네트워크의 제 1 평면에 존재할 수도 있다. 메타데이터 서버(104) 역시 스위치(102)에 직접 연결되어 독립적으로 존재할 수 있으며, 구성에 따라 토러스 네트워크의 어느 평면에도 존재할 수 있다. 분산 파일 시스템의 모든 구성 요소들은 스위치에 연결되지 않은 제 2평면 이상의 데이터 서버들과의 네트워크 연결을 위해 라우팅 기능을 수행하여 서로간에 접근할 수 있는 경로들이 설정된 것을 알 수 있다.
도 2는 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치를 나타낸 블록도이다.
도 2를 참조하면, 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치(10)는 볼륨 상태 모니터링부(11), 볼륨 상태 판단부(12) 및 볼륨 성능 최적화 수행부(13)를 포함한다.
볼륨 상태 모니터링부(11)는 토러스 네트워크 기반 분산 파일 시스템에 생성된 볼륨의 성능 정보를 모니터링 할 수 있다.
볼륨 상태 판단부(12)는 상기 모니터링된 성능 정보에 기반하여 볼륨 상태를 판단할 수 있다.
볼륨 성능 최적화 수행부(13)는 상기 볼륨 상태를 판단한 결과에 기반하여 토러스 네트워크 기반 분산 파일 시스템의 데이터 서버 구성을 변경하여 볼륨의 성능을 최적화할 수 있다.
도 3은 본 발명의 일실시예에 따른 4x4x2 로 구성된 3D 토러스 네트워크에서 사용자 볼륨 구성 및 볼륨 중첩으로 인해 사용자의 볼륨 성능 QoS 위배가 나타난 상황을 나타낸 도면이다.
도 3을 참조하면, 본 발명이 적용되는 시스템에서 4x4x2 로 구성된 3D 토러스 네트워크에서 사용자 볼륨 구성 및 볼륨 중첩으로 인해 사용자의 볼륨 성능 QoS 위배가 나타난 상황을 나타낸 예이다. 예에서 4x4x2 토러스 네트워크로 구성된 데이터 서버들이 각각 2개의 플레인(202)으로 구성되고, 각 플레인 별로 스토리지 티어를 구성하여 두 개의 티어(201)가 구성되었음을 나타낸다. 이때 볼륨 vol1(203)은 사용자의 성능 QoS를 만족하기 위해, 9대의 데이터 서버를 포함하여 tier1에 볼륨이 구성된 것을 알 수 있고, 볼륨 vol2(204)는 4대의 데이터 서버로 구성이 되었음을 나타낸다. 각 볼륨에 저장된 데이터 접근 시간이 상이할 경우에는 사용자의 성능 QoS를 만족할 수 있으나. 초기 구성과 달리 볼륨 접근 패턴이 변하여 동시에 두 볼륨에 속한 데이터 접근이 발생할 경우에는 중첩된 데이터 서버(205)로 인하여 해당 데이터 서버에 저장된 데이터를 동시에 접근하면서 발생하는 입출력 간섭으로 성능 저하 현상이 발생할 수 있다. 이는 설정된 사용자의 QoS를 만족시키지 못하는 원인이 될 수도 있다.
도 4는 도 3에 도시된 볼륨 중첩으로 인한 성능 저하 해결 과정을 나타낸 도면이다.
도 4를 참조하면, 볼륨 중첩으로 인한 성능 저하를 해결하여 사용자의 QoS 를 만족시키기 위한 최적화 방안의 예를 나타낸 것을 알 수 있다. 도 3과 같은 상황에서는 중첩된 데이터 서버로 인해 성능 저하가 발생한 것을 알 수 있다. 이를 해결하기 위해 볼륨 vo2(304)의 구성에서 중첩된 데이터 서버를 제거하고, 이를 대체할 새로운 데이터 서버(305)를 할당할 수 있다. 그리고, 중첩된 데이터 서버에 저장된 데이터들을 새로 구성된 볼륨 vol2의 데이터 서버(304)로 데이터를 이동(306)할 수 있다. 이때 데이터의 이동은 단순히 기존 중첩된 데이터 서버에서 새로이 추가된 데이터 서버(305)로 이동뿐 만 아니라, 기존 데이터들이 차지하고 있는 저장공간 균등화를 함께 수행하여 추후에 발생할 수 있는 데이터 저장공간 쏠림 현상을 방지할 수 있다
도 5는 본 발명의 일실시예에 따른 볼륨의 정보를 나타낸 도면이다.
도 5를 참조하면, 볼륨은 사용 목적에 따라 단일 티어 또는 다수의 티어를 포함하도록 구성될 수 있다. 예를 들어 아카이빙 목적으로 사용될 볼륨은 아카이브 티어만을 포함하도록 구성될 수 있다. 또한 VOD 서비스와 같은 목적의 경우, 성능이 가장 높은 티어에서는 사용자가 빈번히 접근하는 데이터를 배치하고 상대적으로 적게 접근되는 데이터는 두번째 티어에, 마지막으로 오랫동안 접근되지 않는 오래된 데이터들은 아카이브 티어에 저장할 수 있도록 다수의 티어로 구성할 수 있다. 볼륨정보는 각 볼륨의 식별자나 볼륨명을 키(401)로 구성할 수 있다. 각 볼륨 정보는 Volume Info(402)와 다수의 티어 정보(403)로 구성된다. Volume Info(402)는 볼륨명, 전체 볼륨 크기, 저장된 파일 수, 사용량, 남은 공간 등의 정보로 구성될 수 있다. 티어 정보는 볼륨을 구성하는 티어들에 대한 정보를 나타내며, Tier Number, Tier Info, 티어별 사용자 QoS, DS ID List등으로 구성될 수 있다. Tier Number는 티어 번호를 나타내며, Tier Info는 해당 티어에서 해당 볼륨에 할당된 용량, 사용량, 남은 용량등의 정보를 포함할 수 있다. QoS는 사용자의 성능 요구사항을 나타낸다. DS ID List는 해당 티어에서 해당 볼륨에 할당되어 사용되는 데이터 서버들의 ID 리스트를 나타낸 것을 알 수 있다.
도 6은 본 발명의 일실시예에 따른 모니터링되는 데이터 서버의 정보를 나타낸 도면이다.
도 6을 참조하면, 데이터 서버의 정보는 데어터 서버의 식별자를 키(501)로 구성할 수 있다. 각 데이터 서버 정보는 하드웨어 구성 및 네트워크 주소, 토러스 네트워크 상에서의 토폴로지 정보를 포함한 DSInfo, 데이터 서버의 시스템 성능을 나타내는 SysBandwidth, 현재 입출력 부하에 따라 변화되는 현재의 입출력 성능을 나타내는 CurBandwidth, 현재 데이터 서버의 성능이 저조할 때, 시스템 이상으로 인한 것인지 입출력 부하가 없어서인지를 판별하는 척도가 되는 IOQueueLen 로 구성된다. 데이터 서버의 시스템 성능을 나타내는 SysBandwidth 는 사용자 QoS 를 만족시키기위해 필요한 데이터 서버의 수를 계산할 때 사용될 수 있다. 예를 들어, 사용자의 성능 QoS 가 4GB/s 로 주어진다면 SysBandwidth가 1GB/s 인 데이터 서버 4대로 볼륨을 구성할 수 있다.
도 7은 본 발명의 일실시예에 따른 파일을 구분하기 위한 정보를 나타낸 도면이다.
도 7을 참조하면, 파일을 구분하기 위한 정보인 inode 정보를 나타낸 것을 알 수있다. Inode(601)은 Inode Info와 VolID, Chunk Info List로 구성된다(602). Inode Info 에는 시스템에서 요구하는 inode 정보들을 저장하고 있으며, VolID 는 해당 Inode 가 속한 볼륨의 식별자를 나타내면, Chunk Info List 는 파일의 데이터를 고정된 크기로 분할하여 저장하는 단위인 청크에 대한 정보를 나타낼 수 있다. 청크 정보에는 볼륨의 각 티어에 설정된 가용성 정책에 따라 다수의 원본 데이터와 다수의 복제본 또는 패리티 데이터로 구성될 수 있다. 또한 각 데이터 블록을 저장하고 있는 데이터 서버를 식별하기 위한 정보를 포함할 수 있다. 이를 통해 사용자가 요구하는 데이터를 저장하고 있는 청크를 식별하고, 해당 청크를 저장하고 있는 데이터 서버와 해당 데이터 서버에 장착된 저장 장치를 식별할 수 있다.
도 8은 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법을 나타낸 동작흐름도이다.
도 8을 참조하면, 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법은 먼저 볼륨 상태를 모니터링 할 수 있다(S1100).
즉, 단계(S1100)는 토러스 네트워크 기반 분산 파일 시스템에 생성된 볼륨의 성능 정보를 모니터링 할 수 있다.
이 때, 단계(S1100)는 토러스 네트워크 기반 분산 파일 시스템에 생성된 각 볼륨의 성능 정보를 획득할 수 있다.
또한, 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법은 볼륨 상태를 판단할 수 있다(S1200).
즉, 단계(S1200)는 상기 모니터링된 성능 정보에 기반하여 볼륨 상태를 판단할 수 있다.
이 때, 단계(S1200)는 볼륨 정보에 포함된 티어별 성능 정보와 설정된 QoS 비교를 통해 QoS 만족여부를 판별할 수 있다(S1210).
이 때, 단계(S1210)는 QoS 를 만족하는 경우 단계(S1100)으로 되돌아가, 볼륨의 성능 정보를 다시 모니터링 할 수 있고(S1100), QoS 를 만족하지 않을 경우, 볼륨에 속한 데이터 서버 목록을 획득할 수 있고(S1220), 해당 데이터 서버들의 성능 정보를 획득할 수 있다(S1230).
즉, 단계(S1230)는 도 6에서 예를 들어 설명한 바와 같이 데이터 서버의 성능 정보를 이용하여 성능 QoS 위배 원인을 판별할 수 있다.
이 때, 단계(S1230)는 성능 QoS 위배가 발생할 수 있는 경우, 사용자 볼륨에 대한 입출력 부하가 낮아서, 즉, 입출력 부하가 낮은 경우와, 도 3에서 설명한 바와 같이 다른 볼륨과 중첩이 발생할 경우가 있을 수 있고, 마지막으로 사용자 볼륨에 대한 부하가 증가할 경우 등으로 나누어 볼 수 있다.
이 때, 단계(S1230)는 볼륨 중첩 상황의 경우에는 중첩된 데이터 서버에 저장된 데이터들을 이동하기 위해, 이를 청크 이동 소스로 등록하고, 이를 대체할 신규 데이터 서버 목록을 검색할 수 있다.
이 때, 단계(S1230)는 입출력 부하 증가로 인한 QoS 위배의 경우에는, 볼륨에 속한 데이터 서버 목록을 청크 이동 소스로 등록하고, 성능 QoS 만족을 위해 추가로 할당해야 할 수만큼의 신규 데이터 서버를 검색할 수 있다.
또한, 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법은 볼륨 상태를 최적화할 수 있다(S1300).
즉, 단계(S1300)는 상기 볼륨 상태를 판단한 결과에 기반하여 토러스 네트워크 기반 분산 파일 시스템의 데이터 서버 구성을 변경하여 볼륨의 성능을 최적화할 수 있다
이 때, 단계(S1300)는 먼저 데이터 서버 구성을 갱신할 수 있다(S2100).
이 때, 단계(S2100)는 위배된 데이터에 대한 데이터 서버 목록을 청크 이동 소스로 등록할 수 있다(S2110).
이 때, 단계(S2100)는 신규로 추가할 데이터 서버와 중첩된 데이터 서버 목록을 검색하고(S2120), 신규 데이터 서버 목록을 이용하여 볼륨의 데이터 서버 구성을 갱신할 수 있다(S2130).
이 때, 단계(S2100)는 갱신된 데이터 서버 목록을 청크 이동 대상 데이터 서버로 등록할 수 있다(S2140).
이 때, 단계(S2100)는 이동 대상 데이터 서버들의 저장 공간 크기를 이용하여 평균 저장 공간 크기를 계산하고, 이를 바탕으로 대상 데이터 서버들의 저장 공간 크기 비교를 통해 데이터 서버 목록을 over, normal, under 리스트로 구성할 수 있다(S2150).
Over 는 (평균 저장 공간+threshold) 이상으로 데이터가 저장된 공간을 나타내고, normal 은 (평균 저장 공간±threshold) 이내의 데이터가 저당된 공간을 나타내고, under 는 (평균 저장 공간-threshold) 이하의 데이터가 저장된 공간을 나타낼 수 있다.
이 때, 단계(S2150)는 볼륨 중첩 상황의 경우를 위해, 중첩된 데이터 서버 목록을 over 리스트에 할당할 수 있다. 이는 중첩된 데이터 서버에 저장된 해당 볼륨의 데이터는 모두 새로 구성된 데이터 서버들로 이동되어야 하기 때문이다.
또한, 단계(S1300)는 데이터 이동을 수행할 수 있다(S2200).
즉, 단계(S2200)는 먼저 볼륨에 저장된 Inode 를 스캔할 수 있다(S2210).
이 때, 단계(S2210)는 볼륨에 저장된 데이터 이동을 위해 먼저 Inode 를 스캔하여 이동할 데이터를 판별할 수 있다.
또한, 단계(S2200)는 Inode 가 존재하는 지 확인할 수 있다. Inode가 더 이상 없을 경우에는 최적화가 종료된 것으로 간주하고 단계(S2210)으로 되돌아 갈수 있고, Inode가 존재하는 경우 Inode 정보에서 청크 정보인 Inode 별 청크 목록을 획득할 수 있고(S2230), 청크가 존재하는 지 확인할 수 있다(S2240).
이 때, 단계(S2240)는 청크가 존재하지 않는 경우 해당 Inode 의 데이터 이동이 완료 된 것으로 간주하고 청크 존재 여부를 재확인할 수 있고, 청크가 존재하는 경우 획득한 청크 정보에서 청크가 저장된 데이터 서버의 식별자를 획득하고, over 리스트에 데이터 이동이 필요한 데이터 서버 정보가 존재하는지 확인할 수 있다(S2250).
이 때, 단계(S2250)는 Over 리스트가 비어있다면 데이터 서버간 저장 공간 균등화가 완료되었음을 의미하며, 최적화를 종료할 수 있고, Over 리스트에 데이터 서버 정보가 존재하면, 검색된 청크가 over 리스트에 속한 데이터 서버에 저장된 청크인지를 검사하고(S2260), 이를 이동할 대상 데이터 서버 정보를 under 리스트에서 획득할 수 있다(S2270).
이 때, 단계(S2200)는 해당 청크를 대상 데이터 서버로 이동시킬 수 있다(S2280).
이 때, 단계(S2200)는 이동 후 저장 공간 사용량을 갱신할 수 있다(S2290).
이 때, 단계(S2200)는 청크 이동에 따른 평균 데이터 저장 공간을 다시 계산하고, 청크가 존재했던 데이터 서버와 이동된 데이터 서버 정보를 해당되는 over, normal, under 리스트에 삽입할 수 있다(S2300).
즉, 단계(S2300)는 중첩된 데이터 서버에 저장된 해당 볼륨의 데이터는 모두 이동이 되어야 하기 때문에, 여전히 over 리스트에 남겨둘 수 있다. 상기 과정을 over 리스트에 포함된 데이터 서버 정보가 없을 때까지 또는 중첩된 데이터 서버에 저장된 모든 청크 데이터가 이동될 때까지 반복할 수 있다.
도 9는 도 8에 도시된 볼륨 상태 판단 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 9를 참조하면, 이 때, 단계(S1200)는 볼륨 정보에 포함된 티어별 성능 정보와 설정된 QoS 비교를 통해 QoS 만족여부를 판별할 수 있다(S1210).
이 때, 단계(S1210)는 QoS 를 만족하는 경우 단계(S1100)으로 되돌아가, 볼륨의 성능 정보를 다시 모니터링 할 수 있고(S1100), QoS 를 만족하지 않을 경우, 볼륨에 속한 데이터 서버 목록을 획득할 수 있고(S1220), 해당 데이터 서버들의 성능 정보를 획득할 수 있다(S1230).
즉, 단계(S1230)는 도 6에서 예를 들어 설명한 바와 같이 데이터 서버의 성능 정보를 이용하여 성능 QoS 위배 원인을 판별할 수 있다.
이 때, 단계(S1230)는 성능 QoS 위배가 발생할 수 있는 경우, 사용자 볼륨에 대한 입출력 부하가 낮아서, 즉, 입출력 부하가 낮은 경우와, 도 3에서 설명한 바와 같이 다른 볼륨과 중첩이 발생할 경우가 있을 수 있고, 마지막으로 사용자 볼륨에 대한 부하가 증가할 경우 등으로 나누어 볼 수 있다.
이 때, 단계(S1230)는 볼륨 중첩 상황의 경우에는 중첩된 데이터 서버에 저장된 데이터들을 이동하기 위해, 이를 청크 이동 소스로 등록하고, 이를 대체할 신규 데이터 서버 목록을 검색할 수 있다.
이 때, 단계(S1230)는 입출력 부하 증가로 인한 QoS 위배의 경우에는, 볼륨에 속한 데이터 서버 목록을 청크 이동 소스로 등록하고, 성능 QoS 만족을 위해 추가로 할당해야 할 수만큼의 신규 데이터 서버를 검색할 수 있다.
도 10은 도 8에 도시된 볼륨 상태 최적화 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 10을 참조하면, 이 때, 단계(S1300)는 먼저 데이터 서버 구성을 갱신할 수 있다(S2100).
이 때, 단계(S2100)는 위배된 데이터에 대한 데이터 서버 목록을 청크 이동 소스로 등록할 수 있다(S2110).
이 때, 단계(S2100)는 신규로 추가할 데이터 서버와 중첩된 데이터 서버 목록을 검색하고(S2120), 신규 데이터 서버 목록을 이용하여 볼륨의 데이터 서버 구성을 갱신할 수 있다(S2130).
이 때, 단계(S2100)는 갱신된 데이터 서버 목록을 청크 이동 대상 데이터 서버로 등록할 수 있다(S2140).
이 때, 단계(S2100)는 이동 대상 데이터 서버들의 저장 공간 크기를 이용하여 평균 저장 공간 크기를 계산하고, 이를 바탕으로 대상 데이터 서버들의 저장 공간 크기 비교를 통해 데이터 서버 목록을 over, normal, under 리스트로 구성할 수 있다(S2150).
Over 는 (평균 저장 공간+threshold) 이상으로 데이터가 저장된 공간을 나타내고, normal 은 (평균 저장 공간±threshold) 이내의 데이터가 저당된 공간을 나타내고, under 는 (평균 저장 공간-threshold) 이하의 데이터가 저장된 공간을 나타낼 수 있다.
이 때, 단계(S2150)는 볼륨 중첩 상황의 경우를 위해, 중첩된 데이터 서버 목록을 over 리스트에 할당할 수 있다. 이는 중첩된 데이터 서버에 저장된 해당 볼륨의 데이터는 모두 새로 구성된 데이터 서버들로 이동되어야 하기 때문이다.
또한, 단계(S1300)는 데이터 이동을 수행할 수 있다(S2200).
즉, 단계(S2200)는 먼저 볼륨에 저장된 Inode 를 스캔할 수 있다(S2210).
이 때, 단계(S2210)는 볼륨에 저장된 데이터 이동을 위해 먼저 Inode 를 스캔하여 이동할 데이터를 판별할 수 있다.
또한, 단계(S2200)는 Inode 가 존재하는 지 확인할 수 있다. Inode가 더 이상 없을 경우에는 최적화가 종료된 것으로 간주하고 단계(S2210)으로 되돌아 갈수 있고, Inode가 존재하는 경우 Inode 정보에서 청크 정보인 Inode 별 청크 목록을 획득할 수 있고(S2230), 청크가 존재하는 지 확인할 수 있다(S2240).
이 때, 단계(S2240)는 청크가 존재하지 않는 경우 해당 Inode 의 데이터 이동이 완료 된 것으로 간주하고 청크 존재 여부를 재확인할 수 있고, 청크가 존재하는 경우 획득한 청크 정보에서 청크가 저장된 데이터 서버의 식별자를 획득하고, over 리스트에 데이터 이동이 필요한 데이터 서버 정보가 존재하는지 확인할 수 있다(S2250).
이 때, 단계(S2250)는 Over 리스트가 비어있다면 데이터 서버간 저장 공간 균등화가 완료되었음을 의미하며, 최적화를 종료할 수 있고, Over 리스트에 데이터 서버 정보가 존재하면, 검색된 청크가 over 리스트에 속한 데이터 서버에 저장된 청크인지를 검사하고(S2260), 이를 이동할 대상 데이터 서버 정보를 under 리스트에서 획득할 수 있다(S2270).
이 때, 단계(S2200)는 해당 청크를 대상 데이터 서버로 이동시킬 수 있다(S2280).
이 때, 단계(S2200)는 이동 후 저장 공간 사용량을 갱신할 수 있다(S2290).
이 때, 단계(S2200)는 청크 이동에 따른 평균 데이터 저장 공간을 다시 계산하고, 청크가 존재했던 데이터 서버와 이동된 데이터 서버 정보를 해당되는 over, normal, under 리스트에 삽입할 수 있다(S2300).
즉, 단계(S2300)는 중첩된 데이터 서버에 저장된 해당 볼륨의 데이터는 모두 이동이 되어야 하기 때문에, 여전히 over 리스트에 남겨둘 수 있다. 상기 과정을 over 리스트에 포함된 데이터 서버 정보가 없을 때까지 또는 중첩된 데이터 서버에 저장된 모든 청크 데이터가 이동될 때까지 반복할 수 있다.
도 11은 도 10에 도시된 데이터 서버 구성 갱신 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 11을 참조하면, 이 때, 단계(S2100)는 위배된 데이터에 대한 데이터 서버 목록을 청크 이동 소스로 등록할 수 있다(S2110).
이 때, 단계(S2100)는 신규로 추가할 데이터 서버와 중첩된 데이터 서버 목록을 검색하고(S2120), 신규 데이터 서버 목록을 이용하여 볼륨의 데이터 서버 구성을 갱신할 수 있다(S2130).
이 때, 단계(S2100)는 갱신된 데이터 서버 목록을 청크 이동 대상 데이터 서버로 등록할 수 있다(S2140).
이 때, 단계(S2100)는 이동 대상 데이터 서버들의 저장 공간 크기를 이용하여 평균 저장 공간 크기를 계산하고, 이를 바탕으로 대상 데이터 서버들의 저장 공간 크기 비교를 통해 데이터 서버 목록을 over, normal, under 리스트로 구성할 수 있다(S2150).
Over 는 (평균 저장 공간+threshold) 이상으로 데이터가 저장된 공간을 나타내고, normal 은 (평균 저장 공간±threshold) 이내의 데이터가 저당된 공간을 나타내고, under 는 (평균 저장 공간-threshold) 이하의 데이터가 저장된 공간을 나타낼 수 있다.
이 때, 단계(S2150)는 볼륨 중첩 상황의 경우를 위해, 중첩된 데이터 서버 목록을 over 리스트에 할당할 수 있다. 이는 중첩된 데이터 서버에 저장된 해당 볼륨의 데이터는 모두 새로 구성된 데이터 서버들로 이동되어야 하기 때문이다.
도 12는 도 10에 도시된 데이터 이동 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 12를 참조하면, 단계(S2200)는 먼저 볼륨에 저장된 Inode 를 스캔할 수 있다(S2210).
이 때, 단계(S2210)는 볼륨에 저장된 데이터 이동을 위해 먼저 Inode 를 스캔하여 이동할 데이터를 판별할 수 있다.
또한, 단계(S2200)는 Inode 가 존재하는 지 확인할 수 있다. Inode가 더 이상 없을 경우에는 최적화가 종료된 것으로 간주하고 단계(S2210)으로 되돌아 갈수 있고, Inode가 존재하는 경우 Inode 정보에서 청크 정보인 Inode 별 청크 목록을 획득할 수 있고(S2230), 청크가 존재하는 지 확인할 수 있다(S2240).
이 때, 단계(S2240)는 청크가 존재하지 않는 경우 해당 Inode 의 데이터 이동이 완료 된 것으로 간주하고 청크 존재 여부를 재확인할 수 있고, 청크가 존재하는 경우 획득한 청크 정보에서 청크가 저장된 데이터 서버의 식별자를 획득하고, over 리스트에 데이터 이동이 필요한 데이터 서버 정보가 존재하는지 확인할 수 있다(S2250).
이 때, 단계(S2250)는 Over 리스트가 비어있다면 데이터 서버간 저장 공간 균등화가 완료되었음을 의미하며, 최적화를 종료할 수 있고, Over 리스트에 데이터 서버 정보가 존재하면, 검색된 청크가 over 리스트에 속한 데이터 서버에 저장된 청크인지를 검사하고(S2260), 이를 이동할 대상 데이터 서버 정보를 under 리스트에서 획득할 수 있다(S2270).
이 때, 단계(S2200)는 해당 청크를 대상 데이터 서버로 이동시킬 수 있다(S2280).
이 때, 단계(S2200)는 이동 후 저장 공간 사용량을 갱신할 수 있다(S2290).
이 때, 단계(S2200)는 청크 이동에 따른 평균 데이터 저장 공간을 다시 계산하고, 청크가 존재했던 데이터 서버와 이동된 데이터 서버 정보를 해당되는 over, normal, under 리스트에 삽입할 수 있다(S2300).
즉, 단계(S2300)는 중첩된 데이터 서버에 저장된 해당 볼륨의 데이터는 모두 이동이 되어야 하기 때문에, 여전히 over 리스트에 남겨둘 수 있다. 상기 과정을 over 리스트에 포함된 데이터 서버 정보가 없을 때까지 또는 중첩된 데이터 서버에 저장된 모든 청크 데이터가 이동될 때까지 반복할 수 있다
도 13은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.
도 13을 참조하면, 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 13에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 인터페이스 입력 장치(1140), 사용자 인터페이스 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(1100)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.
이상에서와 같이 본 발명의 일실시예에 따른 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
10: 볼륨 성능 최적화 장치 11: 볼륨 상태 모니터링부
12: 볼륨 상태 판단부 13: 볼륨 성능 최적화 수행부
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 인터페이스 입력 장치
1150: 사용자 인터페이스 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크

Claims (10)

  1. 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치의 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법에 있어서,
    토러스 네트워크 기반 분산 파일 시스템에 생성된 볼륨의 성능 정보를 모니터링 하는 단계;
    상기 모니터링된 성능 정보에 기반하여 볼륨 상태를 판단하는 단계;
    상기 볼륨 상태를 판단한 결과에 기반하여 토러스 네트워크 기반 분산 파일 시스템의 데이터 서버 구성을 변경하여 볼륨의 성능을 최적화하는 단계;
    를 포함하고,
    상기 최적화하는 단계는
    상기 볼륨 상태를 판단한 결과에 기반하여 상기 데이터가 이동되는 이동 대상 데이터 서버들의 저장 공간 크기들의 평균 값을 계산하고, 상기 평균 값에 기반하여 상기 이동 대상 데이터 서버들의 리스트들을 생성하여 분류하고,
    상기 볼륨과 볼륨 중첩이 발생한 다른 볼륨을 상기 이동 대상 데이터 서버들 중 상기 평균 값 보다 기설정된 크기 이상의 저장 공간을 갖는 제1 서버 목록으로 할당하고,
    상기 이동 대상 데이터 서버들 중 상기 평균 값 보다 기설정된 크기 이하의 저장 공간을 갖는 제2 서버 목록의 서버로, 상기 볼륨 중첩이 발생한 다른 볼륨에 저장된 데이터를 이동시키는 것을 특징으로 하는 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법.
  2. 청구항 1에 있어서,
    상기 판단하는 단계는
    상기 볼륨의 성능 정보와 기설정된 QoS와의 비교를 통해 QoS의 만족여부를 판별하는 것을 특징으로 하는 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법.
  3. 청구항 2에 있어서,
    상기 판단하는 단계는
    상기 QoS 를 만족하지 않는 경우, 상기 볼륨에 속한 데이터 서버들의 성능 정보를 획득하고, 상기 데이터 서버들의 성능 정보를 이용하여 성능 QoS 위배 원인을 판별하는 것을 특징으로 하는 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법.
  4. 청구항 3에 있어서,
    상기 판단하는 단계는
    상기 성능 QoS 위배 원인이 사용자 볼륨에 대한 입출력 부하가 낮은 경우, 다른 볼륨과의 중첩이 발생한 경우 및 사용자 볼륨에 대한 부하가 증가한 경우 중 어느 하나에 해당하는지 판별하는 것을 특징으로 하는 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 청구항 4에 있어서,
    상기 최적화하는 단계는
    상기 볼륨으로부터 청크의 존재 여부를 확인하고, 상기 청크가 존재하는 경우, 상기 청크로부터 상기 청크가 저장된 데이터 서버의 식별자를 획득하고, 상기 데이터의 이동이 필요한 데이터 서버가 존재하는지 확인하는 것을 특징으로 하는 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법.
  9. 청구항 8에 있어서,
    상기 최적화하는 단계는
    상기 이동 대상 데이터 서버들의 리스트에서 상기 데이터의 이동이 필요한 데이터 서버가 존재하는 경우, 상기 청크를 상기 데이터의 이동이 필요한 데이터 서버로 이동시키고, 상기 청크의 이동후 상기 이동 대상 데이터 서버들의 저장 공간 크기를 갱신하는 것을 특징으로 하는 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 방법.
  10. 토러스 네트워크 기반 분산 파일 시스템에 생성된 볼륨의 성능 정보를 모니터링 하는 볼륨 상태 모니터링부;
    상기 모니터링된 성능 정보에 기반하여 볼륨 상태를 판단하는 볼륨 상태 판단부;
    상기 볼륨 상태를 판단한 결과에 기반하여 토러스 네트워크 기반 분산 파일 시스템의 데이터 서버 구성을 변경하여 볼륨의 성능을 최적화하는 볼륨 상태 최적화 수행부;
    를 포함하고,
    상기 볼륨 상태 최적화 수행부는
    상기 볼륨 상태를 판단한 결과에 기반하여 상기 데이터가 이동되는 이동 대상 데이터 서버들의 저장 공간 크기들의 평균 값을 계산하고, 상기 평균 값에 기반하여 상기 이동 대상 데이터 서버들의 리스트들을 생성하여 분류하고,
    상기 볼륨과 볼륨 중첩이 발생한 다른 볼륨을 상기 이동 대상 데이터 서버들 중 상기 평균 값 보다 기설정된 크기 이상의 저장 공간을 갖는 제1 서버 목록으로 할당하고,
    상기 이동 대상 데이터 서버들 중 상기 평균 값 보다 기설정된 크기 이하의 저장 공간을 갖는 제2 서버 목록의 서버로, 상기 볼륨 중첩이 발생한 다른 볼륨에 저장된 데이터를 이동시키는 것을 특징으로 하는 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치.
KR1020180163202A 2018-12-17 2018-12-17 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법 KR102252199B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180163202A KR102252199B1 (ko) 2018-12-17 2018-12-17 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180163202A KR102252199B1 (ko) 2018-12-17 2018-12-17 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200074610A KR20200074610A (ko) 2020-06-25
KR102252199B1 true KR102252199B1 (ko) 2021-05-14

Family

ID=71400610

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180163202A KR102252199B1 (ko) 2018-12-17 2018-12-17 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102252199B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102227189B1 (ko) * 2020-04-03 2021-03-15 주식회사엔클라우드 서버에 장착되어 블록레벨 스토리지 및 리소스를 공유하는 모듈

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282800A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd ストレージ装置及びその制御方法
US20160259742A1 (en) 2014-01-14 2016-09-08 Netapp, Inc. Methods and systems for filtering collected qos data for predicting an expected range for future qos data

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102028428B1 (ko) * 2015-04-09 2019-10-04 한국전자통신연구원 토러스 네트워크를 이용하는 분산 파일 시스템 및 토러스 네트워크를 이용하는 분산 파일 시스템의 구성 및 운영 방법
KR102024934B1 (ko) * 2015-12-30 2019-11-04 한국전자통신연구원 분산 파일 시스템 및 이의 파일 연산 처리 방법
KR101995056B1 (ko) * 2015-12-30 2019-07-02 한국전자통신연구원 분산 파일 시스템 및 이의 운영방법
KR102025801B1 (ko) * 2016-01-26 2019-09-26 한국전자통신연구원 분산 파일 시스템 및 이의 데이터 내결함성 지원 방법
KR102001572B1 (ko) * 2016-01-26 2019-07-18 한국전자통신연구원 분산 파일 시스템 및 이의 데이터 관리 방법
KR102212108B1 (ko) * 2016-09-28 2021-02-04 한국전자기술연구원 스토리지 오케스트레이션의 학습형 최적화 대상 볼륨 선정 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282800A (ja) * 2008-05-23 2009-12-03 Hitachi Ltd ストレージ装置及びその制御方法
US20160259742A1 (en) 2014-01-14 2016-09-08 Netapp, Inc. Methods and systems for filtering collected qos data for predicting an expected range for future qos data

Also Published As

Publication number Publication date
KR20200074610A (ko) 2020-06-25

Similar Documents

Publication Publication Date Title
US10331370B2 (en) Tuning a storage system in dependence upon workload access patterns
US20240134569A1 (en) Pattern Forming For Heterogeneous Erase Blocks
US8239621B2 (en) Distributed data storage system, data distribution method, and apparatus and program to be used for the same
US10579272B2 (en) Workload aware storage platform
US20170013046A1 (en) Data-centric data storage
US10515701B1 (en) Overlapping raid groups
US11579790B1 (en) Servicing input/output (‘I/O’) operations during data migration
KR102178740B1 (ko) 토러스 네트워크 기반의 분산 파일 시스템을 위한 서버 및 이를 이용한 방법
US9383936B1 (en) Percent quotas for deduplication storage appliance
US10169021B2 (en) System and method for deploying a data-path-related plug-in for a logical storage entity of a storage system
US20210264987A1 (en) Overlapping raid groups
US20230138462A1 (en) Migrating Similar Data To A Single Data Reduction Pool
US20230205751A1 (en) Multiple Volume Placement Based on Resource Usage and Scoring Functions
US11477280B1 (en) Integrating cloud storage services
US10671439B1 (en) Workload planning with quality-of-service (‘QOS’) integration
JP5758449B2 (ja) データ再配置装置、方法およびプログラム
US10884919B2 (en) Memory management in a storage system
KR102252199B1 (ko) 토러스 네트워크 기반 분산 파일 시스템 볼륨 성능 최적화 장치 및 방법
WO2018075790A1 (en) Performance tuning in a storage system that includes one or more storage devices
US20230088163A1 (en) Similarity data for reduced data usage
WO2016151584A2 (en) Distributed large scale storage system
US11467907B2 (en) Storage system with multiple storage devices to store data
US9606938B1 (en) Managing caches in storage systems
WO2014189403A1 (en) Distributed storage system
US11388235B1 (en) Decoupling volume deployment requirements and code implementation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant