KR20150039524A - 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법 - Google Patents

클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법 Download PDF

Info

Publication number
KR20150039524A
KR20150039524A KR20130118188A KR20130118188A KR20150039524A KR 20150039524 A KR20150039524 A KR 20150039524A KR 20130118188 A KR20130118188 A KR 20130118188A KR 20130118188 A KR20130118188 A KR 20130118188A KR 20150039524 A KR20150039524 A KR 20150039524A
Authority
KR
South Korea
Prior art keywords
server
cache
data
user
application server
Prior art date
Application number
KR20130118188A
Other languages
English (en)
Inventor
황기영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20130118188A priority Critical patent/KR20150039524A/ko
Priority to EP14183249.3A priority patent/EP2860632B1/en
Priority to US14/479,647 priority patent/US10091126B2/en
Publication of KR20150039524A publication Critical patent/KR20150039524A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/125Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

클라우드 시스템이 개시된다. 클라우드 시스템은, 사용자가 요청한 작업을 수행하는 제1 애플리케이션 서버; 제1 애플리케이션 서버에 추가적인 리소스를 제공하는 제2 애플리케이션 서버; 제1 애플래케이션 서버에 캐싱 서비스를 제공하는 제1 캐시 서버; 제2 애플리케이션 서버에 캐싱 서비스를 제공하는 제2 캐시 서버; 및 제2 애플리케이션 서버가 제1 애플리케이션 서버에 추가적인 리소스를 제공하면, 제1 캐시 서버에 저장된 데이터를 제2 캐시 서버에 복사하는 관리 서버;를 포함한다.

Description

클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법{CLOUD SYSTEM, METHOD FOR CONTROLLING THEREOF, MANAGEMENT SERVER AND METHOD FOR CONTROLLING THEREOF}
본 발명은 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법에 관한 것으로 더욱 상세하게는 클라우드 시스템에 포함된 복수의 캐시 서버 중 하나의 캐시 서버에 저장된 데이터를 다른 캐시 서버에 복사하는 본 발명은 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법에 관한 것이다.
클라우드 시스템이란 인터넷상의 서버를 통하여 데이터 저장, 네트워크, 컨텐츠 사용 등 IT 관련 서비스를 한번에 사용할 수 있는 컴퓨팅 시스템을 의미한다.
정보가 인터넷 상의 서버에 영구적으로 저장되고, 데크스탑, 테블릿 PC, 노트북, 넷북, 스마트폰 등의 IT 기기 등과 같은 클라이언트에는 일시적으로 보관되는 컴퓨팅 환경을 의미한다. 즉, 이용자의 모든 정보를 인터넷 상의 서버에 저장하고, 이 정보를 각종 IT 기기를 통하여 언제 어디서든 이용할 수 있다는 개념이다.
다시 말하면 구름(cloud)과 같이 무형의 형태로 존재하는 하드웨어, 소프트웨어 등의 컴퓨팅 자원을 자신이 필요한 만큼 빌려 쓰고 이에 대한 사용요금을 지급하는 방식의 컴퓨팅 서비스로, 서로 다른 물리적인 위치에 존재하는 컴퓨팅 자원을 가상화 기술로 통합해 제공하는 기술을 말한다. 클라우드로 표현되는 인터넷상의 서버에서 데이터 저장, 처리, 네트워크, 컨텐츠 사용 등 IT 관련 서비스를 한번에 제공하는 혁신적인 컴퓨팅 기술인 클라우드 컴퓨팅은 "인터넷을 이용한 IT 자원의 주문형 아웃소싱 서비스"라고 정의되기도 한다.
최근에 클라우드 시스템에 대한 사용이 확대되고 늘어남에 따라 클라우드 시스템의 고유 기능인 Load Balancing을 이용한 Auto Scaling의 사용이 필수적으로 사용되고 있다.
여기서 Load Balancing이란, 클라우드 시스템에서 사용자에 의한 데이터 처리 요구가, 현재 사용자의 요청에 의해 작업을 수행하고 있는 애플리케이션 서버의 리소스(CPU, 메모리 등 데이터 처리 요청을 수행하기 위한 자원)를 초과하는 경우 이를 분산 처리 해주기 위한 기술을 의미한다.
또한, Auto Scaling이란 부족한 리소스를 다른 애플리케이션 서버가 지원하도록 함으로써, 초과된 사용자 요구를 처리하는 기술을 의미한다.
예를들어, 제1 애플리케이션 서버가 가지는 리소스가 단위 시간동안 100명의 클라인트로부터 입력되는 데이터 처리 요청을 수행할 수 있는데 반해, 150명의 클라이언트로부터 데이터 처리 요청이 입력되면, 초과되는 50명의 클라이언트로부터 입력되는 데이터 처리 요청을 수행하기 위해 클라이언트 시스템 내의 다른 제2 애플리케이션의 서버의 리소스(CPU, 메모리 등 데이터 처리 요청을 수행하기 위한 자원)를 제공받는 기술을 의미한다.
한편, 종래의 캐싱 서비스는 클라우드 시스템에서도 적용되는데, 캐싱 서비스란 사용자가 자주 찾는 데이터를 클라우드 데이터 베이스가 아닌 별도의 캐시 서버에 저장함으로써 사용자 요청에 의한 응답시간을 단축시키는 기술을 의미한다.
즉, 처음 사용자의 요청에 의한 작업을 수행하였던 제1 애플리케이션 서버를 지원하는 제1 캐시 서버는 사용자가 자주 찾는 컨텐츠를 미리 저장하였다가, 이에 대한 사용자 요청이 입력되면 클라우스 시스템 내의 데이터 베이스가 아닌 제1 캐시 서버에 접속하여 사용자 요청에 응답하게 된다.
이후, 사용자의 데이터 처리 요구가 제1 애플리케이션 서버의 리소스를 초과하면 상술한 Load Balancing 및 Auto Scaling에 의해 클라우드 시스템 내에 있는 또 다른 제2 애플리케이션 서버의 리소스를 제공받게 되는데, 이 제2 애플리케이션 서버를 지원하는 제2 캐시 서버에는 사용자가 자주 찾는 컨텐츠에 관한 정보가 저장되어 있지 않으므로 사용자 요청에 대한 응답시간이 길어진다는 문제점이 있었다.
즉, 제2 애플리케이션에 캐싱 서비스를 제공하는 제2 캐시 서버에, 사용자의 특정 데이터에 대한 히트율(Hit Rate)에 관한 정보 및 높은 히트율을 갖는 데이터를 저장하기까지 시간이 소요되므로, 데이터 베이스에 직접 접속하여 데이터를 수신해야됨에 따라 사용자 요청에 대한 응답시간이 길어진다는 문제점이 있었다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 최초 사용자의 데이터 처리 요청을 수행하던 애플리케이션 서버의 캐시 서버에 저장된 캐시 데이터를, Load Balancing 및 Auto Scaling 기술에 의해 추가적인 리소스를 제공하는 또 다른 애플리케이션 서버의 캐시 서버에 복사함으로써, 곧바로 캐시 데이터를 사용하게 할 수 있는 클라우드 시스템 및 클라우스 시스템 제어 방법을 제공하는데 있다.
상술한 목적을 해결하기 위한 본 발명의 일 실시 예에 따른 클라우드 시스템은, 사용자가 요청한 작업을 수행하는 제1 애플리케이션 서버; 상기 제1 애플리케이션 서버에 추가적인 리소스를 제공하는 제2 애플리케이션 서버; 상기 제1 애플래케이션 서버에 캐싱 서비스를 제공하는 제1 캐시 서버; 상기 제2 애플리케이션 서버에 캐싱 서비스를 제공하는 제2 캐시 서버; 및 상기 제2 애플리케이션 서버가 상기 제1 애플리케이션 서버에 추가적인 리소스를 제공하면, 상기 제1 캐시 서버에 저장된 데이터를 상기 제2 캐시 서버에 복사하는 관리 서버;를 포함한다.
그리고, 클라우드 시스템의 상기 제1 캐시 서버는, 상기 캐싱 서비스를 제공하기 위한 데이터의 히트율(Hit Rate)에 따라 상기 데이터를 복수의 그룹으로 구분하여 저장할 수 있다.
또한, 클라우드 시스템의 상기 관리 서버는, 기설정된 옵션에 따라 상기 복수의 그룹 중 적어도 하나의 그룹에 속하는 데이터를 상기 제1 캐시 서버에서 상기 제2 캐시 서버로 복사할 수 있다.
또한, 클라우드 시스템의 상기 제1 애플리케이션 서버는, 상기 사용자가 요청한 작업에 대응되는 데이터가 상기 제1 캐시 서버에 저장되어 있는지 확인하고, 데이터가 저장되어 있지 않은 경우 클라우드 데이터 베이스에 접속할 수도 있다.
한편, 클라우드 시스템의 상기 관리 서버는, 상기 제1 애플리케이션 서버의 리소스를 초과하는 데이터 처리 요청이 입력되면, Load Balancing 및 Auto Scaling 기능을 실행할 수도 있다.
본 발명의 또 다른 실시 예에 따른 클라우드 시스템 제어 방법은, 제1 애플리케이션 서버가 사용자 요청한 작업을 수행하는 단계; 상기 제1 애플리케이션 서버의 리소스를 초과하는 사용자 요청이 입력되면 제2 애플리케이션 서버가 추가적인 리소스를 제공하는 단계; 및 상기 제1 애플리케이션 서버에 캐싱 서비스를 제공하는 제1 캐시 서버에 저장된 데이터가 상기 제2 애플리케이션 서버에 캐싱 서비스를 제공하는 제2 캐시 서버에 복사되는 단계;를 포함한다.
그리고, 클라우드 시스템 제어 방법은, 캐싱 서비스를 제공하기 위한 데이터가 상기 데이터의 히트율(Hit Rate)에 따라 복수의 그룹으로 나뉘어 저장되는 단계;를 더 포함할 수 있다.
또한, 클라우드 시스템 제어 방법은, 기설정된 옵션에 따라 상기 복수의 그룹 중 적어도 하나의 그룹에 속하는 데이터를 상기 제1 캐시 서버에서 상기 제2 캐시 서버로 복사하는 단계;를 더 포함할 수도 있다.
그리고, 클라우드 시스템 제어 방법은, 상기 제1 애플리케이션 서버가 상기 사용자 요청에 대응되는 데이터를 상기 제1 캐시 서버에서 검색하는 단계;를 더 포함하고, 상기 사용자 요청에 대응되는 데이터가 상기 제1 캐시 서버에 저장되어 있지 않으면, 상기 제1 애플리케이션 서버가 클라우드 데이터베이스에 접속할 수도 있다.
그리고, 클라우드 시스템 제어 방법은, 상기 제1 애플리케이션 서버의 리소스롤 초과하는 데이터 처리 요청이 입력되면, 관리 서버가 Load Balancing 및 Auto Scaling 기능을 실행하는 단계;를 더 포함할 수도 있다.
본 발명의 또 다른 실시예에 따른 사용자의 데이터 처리 요청을 수행하는 복수의 애플리케이션 서버 및 상기 복수의 애플리케이션 서버 각각에 캐싱 서비스를 제공하는 복수의 캐시 서버를 포함하는 클라우드 시스템의 관리 서버는, 상기 사용자의 데이터 처리 요청을 수신하는 통신부; 및 상기 복수의 캐시 서버 중 하나의 캐시 서버에 저장된 데이터를 다른 캐시 서버에 복사하는 제어부;를 포함한다.
그리고 관리 서버의 상기 제어부는, 상기 복수의 캐시 서버 중 하나의 캐시 서버에서 다른 캐시 서버로 복사되는 데이터의 양을 설정할 수 있는 UI를 제공할 수도 있다.
또한, 관리 서버는, 상기 사용자의 데이터 처리 요청을 분산하는 Load Balancing부; 및 상기 복수의 애플리케이션 서버 중 적어도 하나의 애플리케이션 서버의 리소스를 추가적으로 제공하는 Auto Scaling부;를 더 포함할 수도 있다.
본 발명의 또 다른 실시예에 따른 사용자의 데이터 처리 요청을 수행하는 복수의 애플리케이션 서버 및 상기 복수의 애플리케이션 서버 각각에 캐싱 서비스를 제공하는 복수의 캐시 서버를 포함하는 클라우드 시스템의 관리 서버 제어 방법은, 상기 사용자의 데이터 처리 요청을 수신하는 단계; 및 상기 복수의 캐시 서버 중 하나의 캐시 서버에 저장된 데이터를 다른 캐시 서버에 복사하는 단계;를 포함한다.
그리고, 관리 서버 제어 방법은, 상기 복수의 캐시 서버 중 하나의 캐시 서버에서 다른 캐시 서버로 복사되는 데이터의 양을 설정할 수 있는 UI를 제공하는 단계;를 더 포함할 수 있다.
그리고 관리 서버 제어 방법은, 상기 사용자의 데이터 처리 요청을 분산하는 단계; 및 상기 복수의 애플리케이션 서버 중 적어도 하나의 애플리케이션 서버의 리소스를 추가적으로 제공하는 단계;를 더 포함할 수도 있다.
상술한 클라우드 시스템 및 클라우드 시스템의 제어 방법에 따르면, 클라우드 시스템에서 Load Balancing 및 Auto scaling으로 인해 애플리케이션 서버의 리소스가 확장된 경우, 추가적인 리소스를 제공하는 애플리케이션 서버가 곧바로 캐시 데이터를 사용할 수 있어 사용자의 데이터 처리 요청에 대한 응답시간을 단축시킬 수 있고, 복사되는 캐시 데이터의 양할 사용자로 하여금 설정할 수 있도록 함으로써 사용자의 자율성을 보장할 수 있으며, 차후 캐시 데이터가 삭제됨에 따라 발생될 문제를 미연에 방지할 수 있다는 효과를 달성할 수 있다.
도 1은 클라우드 시스템의 일반적인 동작 방식을 설명하기 위한 도면,
도 2는 Load balancing을 통한 Auto Scaling 동작 방식을 설명하기 위한 도면,
도 3은 본 발명의 일 실시 예에 따른 클라우드 시스템을 설명하기 위한 도면,
도 4는 본 발명의 일 실시예에 따라 캐시 서버에 캐시 데이터가 저장되는 방법을 설명하기 위한 도면,
도 5 내지 도 7은 본 발명의 일 실시 예에 따라 캐시 데이터가 복사되는 동작을 설명하기 위한 도면,
도 8은 본 발명의 일 실시예에 따라 클라우드 시스템의 각종 옵션을 설정하기 위한 UI를 설명하기 위한 도면,
도 9는 본 발명의 일 실시예에 따른 클라우드 시스템 제어 방법을 설명하기 위한 흐름도,
도 10은 본 발명의 일 실시예에 따른 관리 서버를 설명하기 위한 도면 및
도 11은 본 발명의 일 실시예에 따른 관리 서버 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명의 실시예들과 관련된 사항을 상세히 설명한다.
도 1은 클라우드 시스템의 일반적인 동작 방식을 설명하기 위한 도면이다.
클라우드 시스템(100) 밖에 있는 사용자(110)가 데이터 처리 요청을 입력하면, 관리 서버(130)가 이를 분석한 후, 사용자 요청에 대응되는 서비스를 제공하기 위한 애플리케이션 서버(150)에 사용자 요청을 전송한다.
애플리케이션 서버(150)는 먼저 캐시 서버(190)에 접속하여 사용자 요청에 대응되는 데이터가 존재하는지 여부를 확인한다. 이후, 캐시 서버(190)에 사용자 요청에 데이터가 저장되어 있지 않은 경우, 클라우드 데이터베이스(170)에 접속하여 이를 수신한 후 사용자가 요청한 서비스를 제공한다.
애플리케이션 서버(150)가 클라우드 데이터베이스(170)가 아닌 캐시 서버(190)에 먼저 접속하여 사용자 요청에 대응되는 데이터가 저장되어 있는지 확인하는 이유는, 캐시 서버(190)의 응답시간이 클라우드 데이터베이스(170)에 비해 현저히 짧으므로, 보다 신속하게 사용자 요청에 대응되는 서비스를 제공할 수 있기 때문이다.
한편, 캐시 서버(190)에 사용자 요청에 대응되는 데이터가 저장되어 있지 않아 클라우드 데이터베이스로부터 해당 데이터를 가져온 경우, 해당 데이터에 대한 히트율(Hit Rate)이 높으면 그 데이터를 캐시 서버(190)에 저장한다.
따라서, 차후에 동일한 데이터에 대한 사용자 요청이 들어오면 클라우드 데이터베이스(170)에 접속하여 데이터를 가져오지 않고 캐시 서버(190)로부터 데이터를 가져와 응답시간을 줄일 수 있게 된다.
이러한 클라우스 시스템(100)의 동작 방식은 다수의 사용자들에 의한 데이터 처리 요구량이 애플리케이션 서버(150)의 리소스를 초과하지 않는 경우 동일하게 수행된다.
여기서 애플리케이션 서버(150)의 리소스란, 애플리케이션 서버(150)가 사용자의 데이터 처리 요청을 수행하는데 필요한 능력, 예를 들면 서버의 데이터 처리 능력, 메모리 크기 등을 의미한다.
그러나, 애플리케이션 서버(150)의 리소스를 초과하는 데이터 처리 요청이 입력되면 관리 서버(130)가 Load Balancing을 통해 데이터를 분산 처리하고, Auto Scaling에 의해 클라우스 시스템(110)내의 다른 애플리케이션 서버 리소스를 지원한다.
도 2는 Load balancing을 통한 Auto Scaling 동작 방식을 설명하기 위한 도면이다.
복수의 사용자(110, 111, 113)로부터 동시에 대량의 데이터 처리 요청이 입력되는 경우 관리 서버(130)는 Auto Scaling을 통해 새로운 애플리케이션 서버(151)을 생성하고, 기존의 애플리케이션 서버(150) 리소스 초과하는 데이터 요청을 새로운 애플리케이션 서버(151)에 할당한다.
이처럼 Auto Scaling을 통해서 새로운 애플리케이션 서버(151)가 생성되면 이를 지원하는 독립된 캐시 서버(191) 또한 생성된다. 새로 생성된 캐시 서버(191)에는 히트율(Hit Rate)에 따른 데이터가 저장되어 있지 않으므로, 새로운 애플리케이션 서버(151)는 사용자 요청에 대응되는 데이터를 클라우드 데이터베이스(170)에 접속하여 가져오게 된다.
즉, 새로 생성된 캐시 서버(191)에는 데이터 히트율(Hit Rate)에 따른 캐시 데이터가 저장되어 있지 않으므로, 초기 새로운 애플리케이션 서버(151)가 클라우드 데이터베이스(170)에 접속하여야 함에 따라, 사용자 요청에 따른 응답시간이 길어지게 된다.
도 3은 본 발명의 일 실시 예에 따른 클라우드 시스템을 설명하기 위한 도면이다.
도 3을 참조하면, 클라우드 시스템(200)은 클라우드 관리서버(210), 제1 애플리케이션 서버(220), 제2 애플리케이션 서버(230), 제1 캐시 서버(240) 및 제2 캐시 서버(250)를 포함한다.
제1 애플리케이션 서버(220)는 사용자가 요청한 작업을 수행한다. 구체적으로, 사용자의 데이터 처리 요청에 따라 클라우드 시스템(200) 내의 클라우드 데이터베이스 또는 제1 애플리케이션 서버(220)를 지원하는 캐시 서버에 접속하여 필요한 데이터를 수신한다. 그리고, 수신된 데이터를 기초로 사용자 데이터 처리 요청에 대응되는 서비스를 제공한다.
제2 애플리케이션 서버(230)는 제1 애플리케이션 서버(220)에 추가적인 리소스를 제공한다. 구체적으로 관리 서버(210)의 Load Balancing 및 Auto Scaling 기능에 의해 제1 애플리케이션 서버(220)에 추가적인 리소스를 제공한다.
그리고, 제2 애플리케이션 서버(230)는 제1 애플리케이션 서버(220)의 리소스를 초과하는 데이터 처리 요청을 처리한다.
제1 캐시 서버(240) 제1 애플리케이션 서버(220)에 캐싱 서비스를 제공한다.
캐싱 서비스란 사용자가 자주 찾는 데이터를 클라우드 데이터 베이스가 아닌 별도의 캐시 서버에 저장함으로써 사용자 요청에 의한 응답시간을 단축시키는 기술을 의미한다. 마찬가지로 제2 캐시 서버(250)도 제2 애플리케이션 서버(220)에 캐싱 서비스를 제공한다.
관리 서버(210)는 클라우드 시스템(200) 영역 밖의 사용자가 데이터 처리 요청을 입력하면, 사용자 요청을 분석한 후 그에 대응되는 서비스를 제공하기 위한 애플리케이션 서버에 사용자 요청을 보낸다.
또한, 애플리케이션 서버를 초과하는 사용자 요청이 입력되면 Load Balancing 및 Auto Scaling 기능을 통해 사용자 요청을 분할하고, 새로운 애플리케이션 서버를 생성하여 기존 애플리케이션 서버의 리소스를 확장한다.
관리 서버(210)는 Auto Scaling에 의해 제2 애플리케이션 서버(230)가 제1 애플리케이션 서버(210)에 추가적인 리소스를 제공하면, 제1 캐시 서버(240)에 저장된 캐시 데이터를 새로 생성된 제2 캐시 서버(250)에 복사한다.
따라서, 제2 캐시 서버(250)에 특정 데이터에 대한 히트율(Hit Rate)에 따른 캐시 데이터가 생성되기 전까지 클라우드 데이터베이스에 접속하여 데이터롤 수신하지 않아도 되므로, 사용자 요청에 따른 응답시간을 단축시킬 수 있다는 효과를 달성할 수 있게 된다.
도 4는 본 발명의 일 실시예에 따라 캐시 서버에 캐시 데이터가 저장되는 방법을 설명하기 위한 도면이다.
제1 캐시 서버(240) 또는 제2 캐시 서버(250)는 캐싱 서비스를 제공하기 위한 데이터의 히트율(Hit Rate)에 따라 데이터를 복수의 그룹으로 저장할 수 있다.
히트율(Hit Rate)이란 캐시 서버상에 사용자가 원하는 데이터가 존재하는 비율을 말하며, 히트율(Hit Rate)이 높은 데이터라고 하는 것은 그만큼 사용자가 자주 접근하는 데이터라는 것을 의미한다.
본 발명의 일 실시예에 따르면 제1 캐시 서버(240) 또는 제2 캐시 서버(250)에 저장되는 캐시 데이터는 "High Hit Cache Data(410)", "Middle Hit Cache Data(420)" 및 "Low Hit Cache Data(430)"의 세 가지 그룹으로 나누어 저장될 수 있다.
예를 들어, 히트율이 90% 이상인 데이터는 "High Hit Cache Data(410)"그룹에, 70%이상 90% 미만인 데이터는 "Middle Hit Cache Data(420)"그룹에 그리고 70% 미만인 데이터는 "Low Hit Cache Data(430)"에 속하도록 나누어 저장될 수 있다.
한편, 본 실시예에서는 히트율에 따라 제1 캐시 서버(240) 또는 제2 캐시 서버(250)에 저장되는 데이터가 세가지 그룹으로 나뉘어 저장되는 것을 예로 들었으나, 실제 발명을 구현하는 과정에서 더 많은 그룹으로 나누어 저장하거나, 더 적은 그룹으로 나누어 저장할 수 있음은 물론이다. 또한, 각 그룹에 속하는 기준이 다른 히트율로 정해질 수도 있다.
도 4에 도시한 바와 같이 제1 캐시 서버(240)에 저장되는 데이터가 복수의 그룹으로 구분되어 저장되는 이유는, 기설정된 옵션에 따라 각 그룹에 속하는 데이터 별로 나누어 제2 캐시 서버(250)에 복사하기 위함이다.
도 5 내지 도 7은 본 발명의 일 실시 예에 따라 캐시 데이터가 복사되는 동작을 설명하기 위한 도면이다.
클라우드 시스템(200)을 사용하고자 하는 사용자는 관리 서버(210)에 접속하여 캐시 데이터가 제1 캐시 서버(240)에서 제2 캐시 서버(250)에 복사되는 캐시 데이터 양에 대한 옵션을 설정할 수 있다.
관리 서버(210)는 기설정된 옵션에 따라 복수의 그룹으로 나누어 저장된 데이터 중 적어도 하나의 그룹에 속하는 데이터를 제1 캐시 서버(240)에서 제2 캐시 서버(250)로 복사할 수 있다.
도 5는 사용자가 제1 캐시 서버(240)에 저장된 모든 데이터가 제2 캐시 서버로 복사되도록 설정한 경우를 설명하기 위한 도면이다. 도 5와 같이 사용자가 "Copy Data Fully"로 설정한 경우 제1 캐시 서버(240)에 기 저장된 모든 캐시 데이터가 제2 캐시 서버로(250) 복사된다.
또는, 새로 생성된 제2 캐시 서버(250)의 용량을 고려하여 제1 캐시 서버(240)에 저장된 캐시 데이터 중 일부만이 제2 캐시 서버로 복사되도록 설정할 수도 있다.
도 6은 사용자가 "Copy Data Partly" 옵션을 설정함에 따라, 제1 캐시 서버(240)에 저장된 데이터 중 "High Hit Cache Data" 그룹 및 "Middle Hit Cache Data" 그룹에 속하는 데이터만 제2 캐시 서버(250)로 복사되는 것을 나타낸다.
또는 도 7에 도시한 바와 같이 "High Hit Cache Data" 그룹에 속하는 데이터만 제2 캐시 서버(250)로 복사되도록 할 수도 있다.
도 8은 본 발명의 일 실시예에 따라 클라우드 시스템의 각종 옵션을 설정하기 위한 UI를 설명하기 위한 도면이다.
사용자는 클라우드 시스템(200)의 관리 서버(210)에 접속하여 각종 옵션을 설정할 수 있다. 이 옵션을 설정하기 위해 사용자에게 제공되는 UI에는 Load Balancing 설정창(810), Auto Scaling 설정창(820), Multi Cloud Cache 설정창(830) 및 캐시 데이터 설정창(840, 850)이 표시될 수 있다.
Load Balancing 설정창(810) 및 Auto Scaling 설정창(820)은 관리 서버(210)의 Load Balancing 기능 및 Auto Scaling 기능을 설정하기 위한 창이다.
사용자가 해당 부분을 "YES"로 적용한 경우, 애플리케이션 서버를 초과하는 사용자 요청이 입력됨에 따라 Load Balancing 기능 및 Auto Scaling 기능이 실행된다.
Multi Cloud Cache 설정창(830)은 Auto Scaling 기능에 따라 제2 애플리케이션 서버(230)가 추가적인 리소스를 제공하는 경우, 제2 애플리케이션 서버(230)에 캐싱 서비스를 제공하는 제2 캐시 서버(250)도 생성할지 여부를 설정하는 창이다. 마찬가지로 사용자가 해당 부분을 "YES"로 적용한 경우, 제2 애플리케이션 서버(230)가 생성되어 제1 애플리케이션 서버(220)에 추가적인 리소스를 제공함에 따라, 제2 애플리케이션 서버(230)에 캐싱 서비스를 제공하기 위한 제2 캐시 서버(250)도 생성된다.
또한, 사용자는 제1 캐시 서버(240)에서 제2 캐시 서버(250)로 복사되는 캐시 데이터 양을 조절할 수 있는 창이 표시된다.
사용자가 "Copy Initial Cache Data"창(840)을 "YES"로 적용하면 복사되는 데이터 양을 조정할 수 있는 창(850)도 활성화된다.
이에 따라, 사용자는 "High Hit Cache Data" 그룹, "Middle Hit Cache Data" 그룹, "Low Hit Cache Data"에 속하는 데이터 중 어느 그룹에 속하는 데이터를 제2 캐시 서버(250)로 복사할 것이지를 설정할 수 있게 된다.
한편, 본 실시 예에서는 세 가지 그룹 중 어떤 그룹에 속해있는 데이터를 복사할 것인지 설정할 수 있는 것을 예로 들었으나 더 많은 그룹에 속하는 데이터 또는 더 적은 그룹에 속하는 데이터에 대해 복사되는 정도를 설정할 수 있도록 구현할 수도 있다.
도 9는 본 발명의 일 실시예에 따른 클라우드 시스템 제어 방법을 설명하기 위한 흐름도이다.
클라우드 시스템(200)의 외부 사용자가 데이터 처리를 요청하면, 제1 애플리케이션 서버가 사용자가 요청한 작업을 수행한다(S910). 이후, 제1 애플리케이션 서버의 리소스를 초과하는 사용자 요청이 입력되면 Load Balancing 및 Auto Scailing에 의해 제2 애플리케이션 서버가 추가적인 리소스를 제공한다(S920).
그리고, 제2 애플리케이션에 캐싱 서비스를 제공하는 제2 캐시 서버도 함께 생성되면, 제1 애플리케이션 서버에 캐싱 서비스를 제공하는 제1 캐시 서버에 저장된 데이터가 제2 애플리케이션 서버에 캐싱 서비스를 제공하기 위한 제2 캐시 서버에 복사된다(S930).
도 10은 본 발명의 일 실시예에 따른 관리 서버를 설명하기 위한 도면이다.
도 10에 도시된 관리 서버(1000)는 통신부(1010) 및 제어부(1020)를 포함한다. 도 10에 도시된 관리 서버(1000)에는 본 실시예와 관련된 구성요소들만이 도시되어 있는바, 본 실시예와 관련된 기술분야에서 통상의 지식을 가진자라면 도 10에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.
도 10에 도시된 관리 서버(1000)는 복수의 애플리케이션 서버 및 복수의 애플리케이션 서버 각각에 캐싱 서비스를 제공하는 복수의 캐시 서버를 포함하는 클라우드 시스템(200)의 관리 서버(1000)이다.
통신부(1010) 클라우드 시스템(200) 외부의 사용자로부터 데이터 처리 요청을 수신한다. 이때, 사용자 데이터 처리 요청을 수행하는 애플리케이션 서버의 리소스를 추가하는 데이터 처리 요청이 입력되면, Load Balancing부(미도시)가 이 데이터 처리 요청을 분산하고, Auto Scaling부(미도시)가 클라우드 시스템(200)내의 복수의 애플리케이션 서버 중 적어도 하나의 애플리케이션 서버의 리소스를 추가적으로 제공한다.
제어부(1020)는 복수의 캐시 서버 중 하나의 캐시 서버에 저장된 데이터를 다른 캐시 서버에 복사한다.
구체적으로, 기존에 사용자 데이터 처리 요청을 수행하던 애플리케이션 서버에 캐싱 서비스를 제공하던 캐시 서버에 저장된 데이터를 Auto Scaling부(미도시)에 의해 새롭게 생성된 애플리케이션 서버에 캐싱 서비스를 지원하는 캐시 서버에 복사한다.
또한, 제어부(1020) 클라우드 시스템(200) 내의 복수의 캐시 서버 중 하나의 캐시 서버에서 다른 캐시 서버로 복사되는 데이터 양을 설정할 수 있는 UI를 제공할 수 있다.
예를 들어, 캐시 서버에 데이터가 "High Hit Cache Data" 그룹, "Middle Hit Cache Data" 그룹, "Low Hit Cache Data"으로 나누어 저장된 경우, 어떤 그룹에 속하는 데이터를 복사할지에 대한 옵션을 설정할 수 있는 UI를 제공할 수 있다.
도 11은 본 발명의 일 실시예에 따른 관리 서버 제어 방법을 설명하기 위한 흐름도이다.
클라우스 시스템(200) 외부의 사용자가 데이터 처리 요청을 입력하면, 이 사용자 데이터 처리 요청을 수신한다(S1110).
이때, 사용자 데이터 처리 요청을 수행하는 애플리케이션 서버의 리소스를 추가하는 데이터 처리 요청이 입력되면, Load Balancing부가 이 데이터 처리 요청을 분산하고, Auto Scaling부가 클라우드 시스템(200)내의 복수의 애플리케이션 서버 중 적어도 하나의 애플리케이션 서버의 리소스를 추가적으로 제공한다.
그리고, 복수의 캐시 서버 중 하나의 캐시 서버에 저장된 데이터를 다른 캐시 서버에 복사한다(S1120).
구체적으로, 기존에 사용자 데이터 처리 요청을 수행하던 애플리케이션 서버에 캐싱 서비스를 제공하던 캐시 서버에 저장된 데이터를 Auto Scaling부(미도시)에 의해 새롭게 생성된 애플리케이션 서버에 캐싱 서비스를 지원하는 캐시 서버에 복사한다.
상술한 클라우드 시스템, 클라우드 시스템의 제어 방법, 관리 서버 및 그 제어 방법에 따르면, 클라우드 시스템에서 Load Balancing 및 Auto scaling으로 인해 애플리케이션 서버의 리소스가 확장된 경우, 추가적인 리소스를 제공하는 애플리케이션 서버가 곧바로 캐시 데이터를 사용할 수 있어 사용자의 데이터 처리 요청에 대한 응답시간을 단축시킬 수 있고, 복사되는 캐시 데이터의 양할 사용자로 하여금 설정할 수 있도록 함으로써 사용자의 자율성을 보장할 수 있으며, 차후 캐시 데이터가 삭제됨에 따라 발생될 문제를 미연에 방지할 수 있다는 효과를 달성할 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
200 : 클라우드 시스템 210 : 관리 서버
220 : 제1 애플리케이션 서버 230 : 제2 애플리케이션 서버
240 : 제1 캐시 서버 250 : 제2 캐시 서버

Claims (16)

  1. 사용자가 요청한 작업을 수행하는 제1 애플리케이션 서버;
    상기 제1 애플리케이션 서버에 추가적인 리소스를 제공하는 제2 애플리케이션 서버;
    상기 제1 애플래케이션 서버에 캐싱 서비스를 제공하는 제1 캐시 서버;
    상기 제2 애플리케이션 서버에 캐싱 서비스를 제공하는 제2 캐시 서버; 및
    상기 제2 애플리케이션 서버가 상기 제1 애플리케이션 서버에 추가적인 리소스를 제공하면, 상기 제1 캐시 서버에 저장된 데이터를 상기 제2 캐시 서버에 복사하는 관리 서버;를 포함하는 클라우드 시스템.
  2. 제1항에 있어서
    상기 제1 캐시 서버는,
    상기 캐싱 서비스를 제공하기 위한 데이터의 히트율(Hit Rate)에 따라 상기 데이터를 복수의 그룹으로 구분하여 저장하는 것을 특징으로 하는 클라우드 시스템.
  3. 제2항에 있어서,
    상기 관리 서버는,
    기설정된 옵션에 따라 상기 복수의 그룹 중 적어도 하나의 그룹에 속하는 데이터를 상기 제1 캐시 서버에서 상기 제2 캐시 서버로 복사하는 것을 특징으로 하는 클라우드 시스템.
  4. 제1항에 있어서,
    상기 제1 애플리케이션 서버는,
    상기 사용자가 요청한 작업에 대응되는 데이터가 상기 제1 캐시 서버에 저장되어 있는지 확인하고, 데이터가 저장되어 있지 않은 경우 클라우드 데이터 베이스에 접속하는 것을 특징으로 하는 클라우드 시스템.
  5. 제1항에 있어서,
    상기 관리 서버는,
    상기 제1 애플리케이션 서버의 리소스를 초과하는 데이터 처리 요청이 입력되면, Load Balancing 및 Auto Scaling 기능을 실행하는 것을 특징으로 하는 클라우드 시스템.
  6. 제1 애플리케이션 서버가 사용자 요청한 작업을 수행하는 단계;
    상기 제1 애플리케이션 서버의 리소스를 초과하는 사용자 요청이 입력되면 제2 애플리케이션 서버가 추가적인 리소스를 제공하는 단계; 및
    상기 제1 애플리케이션 서버에 캐싱 서비스를 제공하는 제1 캐시 서버에 저장된 데이터가 상기 제2 애플리케이션 서버에 캐싱 서비스를 제공하는 제2 캐시 서버에 복사되는 단계;를 포함하는 클라우드 시스템 제어 방법.
  7. 제6항에 있어서,
    캐싱 서비스를 제공하기 위한 데이터가 상기 데이터의 히트율(Hit Rate)에 따라 복수의 그룹으로 나뉘어 저장되는 단계;를 더 포함하는 것을 특징으로 하는 클라우드 시스템 제어 방법.
  8. 제7항에 있어서,
    기설정된 옵션에 따라 상기 복수의 그룹 중 적어도 하나의 그룹에 속하는 데이터를 상기 제1 캐시 서버에서 상기 제2 캐시 서버로 복사하는 단계;를 더 포함하는 것을 특징으로 하는 클라우드 시스템 제어 방법.
  9. 제6항에 있어서,
    상기 제1 애플리케이션 서버가 상기 사용자 요청에 대응되는 데이터를 상기 제1 캐시 서버에서 검색하는 단계;를 더 포함하고,
    상기 사용자 요청에 대응되는 데이터가 상기 제1 캐시 서버에 저장되어 있지 않으면, 상기 제1 애플리케이션 서버가 클라우드 데이터베이스에 접속하는 것을 특징으로 하는 클라우드 시스템 제어 방법.
  10. 제6항에 있어서,
    상기 제1 애플리케이션 서버의 리소스롤 초과하는 데이터 처리 요청이 입력되면, 관리 서버가 Load Balancing 및 Auto Scaling 기능을 실행하는 단계;를 더 포함하는 것을 특징으로 하는 클라우드 시스템 제어 방법.
  11. 사용자의 데이터 처리 요청을 수행하는 복수의 애플리케이션 서버 및 상기 복수의 애플리케이션 서버 각각에 캐싱 서비스를 제공하는 복수의 캐시 서버를 포함하는 클라우드 시스템의 관리 서버에 있어서,
    상기 사용자의 데이터 처리 요청을 수신하는 통신부; 및
    상기 복수의 캐시 서버 중 하나의 캐시 서버에 저장된 데이터를 다른 캐시 서버에 복사하는 제어부;를 포함하는 관리 서버.
  12. 제11항에 있어서,
    상기 제어부는,
    상기 복수의 캐시 서버 중 하나의 캐시 서버에서 다른 캐시 서버로 복사되는 데이터의 양을 설정할 수 있는 UI를 제공하는 것을 특징으로 하는 관리 서버.
  13. 제11항에 있어서,
    상기 사용자의 데이터 처리 요청을 분산하는 Load Balancing부; 및
    상기 복수의 애플리케이션 서버 중 적어도 하나의 애플리케이션 서버의 리소스를 추가적으로 제공하는 Auto Scaling부;를 더 포함하는 것을 특징으로 하는 관리 서버.
  14. 사용자의 데이터 처리 요청을 수행하는 복수의 애플리케이션 서버 및 상기 복수의 애플리케이션 서버 각각에 캐싱 서비스를 제공하는 복수의 캐시 서버를 포함하는 클라우드 시스템의 관리 서버 제어 방법에 있어서,
    상기 사용자의 데이터 처리 요청을 수신하는 단계; 및
    상기 복수의 캐시 서버 중 하나의 캐시 서버에 저장된 데이터를 다른 캐시 서버에 복사하는 단계;를 포함하는 관리 서버 제어 방법.
  15. 제14항에 있어서,
    상기 복수의 캐시 서버 중 하나의 캐시 서버에서 다른 캐시 서버로 복사되는 데이터의 양을 설정할 수 있는 UI를 제공하는 단계;를 더 포함하는 것을 특징으로 하는 관리 서버 제어 방법.
  16. 제14항에 있어서,
    상기 사용자의 데이터 처리 요청을 분산하는 단계; 및
    상기 복수의 애플리케이션 서버 중 적어도 하나의 애플리케이션 서버의 리소스를 추가적으로 제공하는 단계;를 더 포함하는 것을 특징으로 하는 관리 서버 제어 방법.
KR20130118188A 2013-10-02 2013-10-02 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법 KR20150039524A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR20130118188A KR20150039524A (ko) 2013-10-02 2013-10-02 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법
EP14183249.3A EP2860632B1 (en) 2013-10-02 2014-09-02 Cloud system, control method thereof, management server and control method thereof
US14/479,647 US10091126B2 (en) 2013-10-02 2014-09-08 Cloud system, control method thereof, management server and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130118188A KR20150039524A (ko) 2013-10-02 2013-10-02 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20150039524A true KR20150039524A (ko) 2015-04-10

Family

ID=51535320

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130118188A KR20150039524A (ko) 2013-10-02 2013-10-02 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법

Country Status (3)

Country Link
US (1) US10091126B2 (ko)
EP (1) EP2860632B1 (ko)
KR (1) KR20150039524A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101665008B1 (ko) * 2016-01-28 2016-10-24 한국과학기술정보연구원 데이터 분석 장치 및 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9848041B2 (en) 2015-05-01 2017-12-19 Amazon Technologies, Inc. Automatic scaling of resource instance groups within compute clusters
US10693732B2 (en) 2016-08-03 2020-06-23 Oracle International Corporation Transforming data based on a virtual topology
US10089135B2 (en) * 2016-08-09 2018-10-02 International Business Machines Corporation Expediting the provisioning of virtual machines based on cached repeated portions of a template
US10389628B2 (en) 2016-09-02 2019-08-20 Oracle International Corporation Exposing a subset of hosts on an overlay network to components external to the overlay network without exposing another subset of hosts on the overlay network
US10291507B2 (en) 2017-02-13 2019-05-14 Oracle International Corporation Implementing a virtual tap in a virtual topology
US10462013B2 (en) * 2017-02-13 2019-10-29 Oracle International Corporation Implementing a single-addressable virtual topology element in a virtual topology
US10721719B2 (en) * 2017-06-20 2020-07-21 Citrix Systems, Inc. Optimizing caching of data in a network of nodes using a data mapping table by storing data requested at a cache location internal to a server node and updating the mapping table at a shared cache external to the server node
CN107241448A (zh) * 2017-08-01 2017-10-10 成都鼎智汇科技有限公司 一种云存储节点负载均衡方法
US10761886B2 (en) 2018-09-04 2020-09-01 International Business Machines Corporation Dynamically optimizing load in cloud computing platform using real-time analytics
US11677678B2 (en) * 2021-06-28 2023-06-13 Dell Products L.P. System for managing data center asset resource load balance

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5960035A (en) * 1995-09-29 1999-09-28 Motorola Inc. Method and apparatus for load balancing for a processor operated data communications device
JP4320247B2 (ja) * 2003-12-24 2009-08-26 株式会社日立製作所 構成情報設定方法および装置
JP2005339198A (ja) * 2004-05-27 2005-12-08 Internatl Business Mach Corp <Ibm> キャッシュヒット率推定装置、キャッシュヒット率推定方法、プログラム及び記録媒体
US8825789B2 (en) * 2008-12-16 2014-09-02 Netapp, Inc. Method and apparatus to implement a hierarchical cache system with pNFS
US8799409B2 (en) * 2009-01-15 2014-08-05 Ebay Inc. Server side data cache system
US9154331B2 (en) * 2009-07-21 2015-10-06 At&T Intellectual Property I, L.P. Managing linear multimedia content delivery
CN101668046B (zh) * 2009-10-13 2012-12-19 成都市华为赛门铁克科技有限公司 资源缓存方法及其装置、系统
US11178244B2 (en) * 2011-08-09 2021-11-16 Comcast Cable Communications, Llc Content delivery network routing using border gateway protocol
US9135269B2 (en) * 2011-12-07 2015-09-15 Egnyte, Inc. System and method of implementing an object storage infrastructure for cloud-based services
CN107622108B (zh) * 2012-02-24 2021-04-16 英派尔科技开发有限公司 基于地理定位的负载平衡
CN104871130B (zh) * 2012-12-17 2019-03-22 英派尔科技开发有限公司 负载均衡方案
US9621399B1 (en) * 2012-12-19 2017-04-11 Amazon Technologies, Inc. Distributed caching system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101665008B1 (ko) * 2016-01-28 2016-10-24 한국과학기술정보연구원 데이터 분석 장치 및 방법

Also Published As

Publication number Publication date
US20150095448A1 (en) 2015-04-02
EP2860632A3 (en) 2016-05-11
US10091126B2 (en) 2018-10-02
EP2860632A2 (en) 2015-04-15
EP2860632B1 (en) 2017-04-12

Similar Documents

Publication Publication Date Title
KR20150039524A (ko) 클라우드 시스템, 클라우드 시스템 제어 방법, 관리 서버 및 그 제어 방법
US10606881B2 (en) Sharing container images between mulitple hosts through container orchestration
US9952753B2 (en) Predictive caching and fetch priority
US10742713B2 (en) On-demand subscribed content library
US10893120B2 (en) Data caching and data-aware placement to accelerate machine learning applications
US10129357B2 (en) Managing data storage in distributed virtual environment
US10656972B2 (en) Managing idempotent operations while interacting with a system of record
CN106817388B (zh) 虚拟机、宿主机获取数据的方法、装置及访问数据的系统
US10635604B2 (en) Extending a cache of a storage system
US20170017380A1 (en) Mobile enabling a web application developed without mobile rendering capabilities
US11036683B2 (en) Hot-pluggable file system interface
US20180060178A1 (en) Accelerated deduplication block replication
US20090327303A1 (en) Intelligent allocation of file server resources
US20190215363A1 (en) Dynamic pool-based tiering for synchronization storage
US11570229B2 (en) Method and system for enforcing governance across multiple content repositories using a content broker
US10237364B2 (en) Resource usage anonymization
US10289686B1 (en) Method and system for using dynamic content types
US9104481B2 (en) Resource allocation based on revalidation and invalidation rates
US11176097B2 (en) Accelerated deduplication block replication
US10884621B2 (en) Block volume mount synchronization to prevent data corruption
US8407266B1 (en) Method and system for automatically saving a document to multiple file formats
US11102211B2 (en) Computer network for a secured access to online applications
US20240028515A1 (en) Prefetching management in database system
US11630735B2 (en) Advanced object replication using reduced metadata in object storage environments
CN116467270A (zh) 数据管理系统、数据更新方法及装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid