KR20220042535A - 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템 - Google Patents

가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템 Download PDF

Info

Publication number
KR20220042535A
KR20220042535A KR1020200125451A KR20200125451A KR20220042535A KR 20220042535 A KR20220042535 A KR 20220042535A KR 1020200125451 A KR1020200125451 A KR 1020200125451A KR 20200125451 A KR20200125451 A KR 20200125451A KR 20220042535 A KR20220042535 A KR 20220042535A
Authority
KR
South Korea
Prior art keywords
event
traffic
cloud system
virtual computing
virtual
Prior art date
Application number
KR1020200125451A
Other languages
English (en)
Other versions
KR102438733B1 (ko
Inventor
강진우
송주영
홍현덕
이권수
이승우
Original Assignee
주식회사 하이브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이브 filed Critical 주식회사 하이브
Priority to KR1020200125451A priority Critical patent/KR102438733B1/ko
Publication of KR20220042535A publication Critical patent/KR20220042535A/ko
Application granted granted Critical
Publication of KR102438733B1 publication Critical patent/KR102438733B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Complex Calculations (AREA)

Abstract

본 발명은 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템을 제공한다. 상기 클라우드 시스템의 VPC(Virtual Private Cloud)의 가상 컴퓨팅 리소스 스케일링 방법은, 이벤트를 감지하는 단계, 상기 이벤트를 감지한 후에, 가상 컴퓨터 리소스를 추가하는 단계, 상기 VPC에 유입되는 현재 트래픽이 충분히 낮은지를 판단하는 단계 및 상기 현재 트래픽이 충분히 낮은 경우, 추가된 상기 가상 컴퓨터 리소스를 해제하는 단계를 포함한다.

Description

가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템{Virtual computing resource scaling method and cloud system to which the method is applied}
본 발명은 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템에 관한 것이다. 구체적으로, 본 발명은 클라우드 시스템에서 가상 컴퓨팅 리소스를 자동으로 스케일링하는 방법과 그 방법이 적용되는 클라우드 시스템에 관한 것이다.
클라우드 시스템에서 VPC(Virtual Private Cloud)란 사용자에게 제공되는 논리적으로 격리된 가상의 네트워크를 의미한다. 클라우드 시스템은 이를 상용화하여 사용자에게 제공하고, 사용자는 별도의 하드웨어를 갖출 필요없이 가상 컴퓨팅 리소스를 제공받아서 사용할 수 있다.
이러한 클라우드 시스템에서는 일반적으로 오토 스케일링 기능을 제공한다. 오토 스케일링 기능이란 서비스의 제공에 필요한 하드웨어의 성능이나 양이 동적으로(dynamically) 변화하는 경우에 자동으로 가상 컴퓨팅 리소스를 조절하여 서비스의 제공을 원활하게 하는 기능이다. 이러한 기능을 통해서, 많은 트래픽이 몰리는 이벤트가 있을 때 VPC의 가상 컴퓨팅 리소스의 구성이 달라질 수 있다.
그러나, 현재 일반적인 오토 스케일링 기능은 CPU 사용률, 네트워크 사용량 및 초당 리퀘스트 양과 같은 직접적인 변화를 감지하여 동작할 뿐, 이러한 변화에 대한 예측은 어려운 상황이다.
따라서, 많은 트래픽이 발생할 수 있는 이벤트에 대한 대비를 미리 할 수 있는 오토 스케일링 기능의 활용 방법이 필요한 실정이다.
본 발명의 과제는, 미리 이벤트를 감지하여 클라우드 시스템의 가상 컴퓨팅 리소스를 확보하는 가상 컴퓨팅 리소스 스케일링 방법을 제공하는 것이다.
또한, 본 발명의 다른 과제는, 미리 이벤트를 감지하여 클라우드 시스템의 가상 컴퓨팅 리소스를 확보하는 가상 컴퓨팅 리소스 스케일링 방법이 적용된 클라우드 시스템을 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 클라우드 시스템의 VPC(Virtual Private Cloud)의 가상 컴퓨팅 리소스 스케일링 방법은, 이벤트를 감지하는 단계, 상기 이벤트를 감지한 후에, 가상 컴퓨터 리소스를 추가하는 단계, 상기 VPC에 유입되는 현재 트래픽이 충분히 낮은지를 판단하는 단계 및 상기 현재 트래픽이 충분히 낮은 경우, 추가된 상기 가상 컴퓨터 리소스를 해제하는 단계를 포함한다.
또한, 상기 현재 트래픽이 충분히 낮은지를 판단하는 단계는, 이벤트 전의 제1 트래픽을 기록하는 단계와, 상기 제1 트래픽을 기반으로 제2 트래픽을 산정하는 단계와, 상기 현재 트래픽이 상기 제2 트래픽보다 작거나 같은지를 판단하는 단계를 포함할 수 있다.
또한, 상기 제2 트래픽은 상기 제1 트래픽보다 클 수 있다.
또한, 상기 이벤트는 발생 시점이 미리 설정된 이벤트이고, 상기 이벤트를 감지하는 단계는, 캘린더 시스템에 등록된 이벤트를 감지하는 단계를 포함할 수 있다.
또한, 상기 이벤트는 발생 시점이 미리 정해지지 않은 이벤트이고, 상기 이벤트를 감지하는 단계는, 상기 이벤트에 대응하는 푸시를 발송하는 단계와, 상기 푸시 발송을 감지하는 단계를 포함할 수 있다.
상기 다른 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 클라우드 시스템은 적어도 하나의 가상 컴퓨팅 리소스를 포함하는 VPC, 이벤트를 감지하고, 변경 신호를 생성하는 이벤트 컴퓨팅 플랫폼 모듈 및 상기 변경 신호에 따라 상기 가상 컴퓨팅 리소스의 수를 늘리는 오토 스케일링 모듈을 포함한다.
또한, 상기 이벤트 컴퓨팅 플랫폼 모듈은 서버리스 컴퓨팅 플랫폼을 포함할 수 있다.
또한, 상기 가상 컴퓨팅 리소스는 EC2(Elastic Compute Cloud) 인스턴스 및 포드(Pod) 중 적어도 하나를 포함할 수 있다.
또한, 상기 클라우드 시스템은 상기 이벤트 전의 제1 트래픽을 저장하고, 상기 오토 스케일링 모듈에 상기 제1 트래픽을 제공하는 데이터베이스를 더 포함할 수 있다.
또한, 상기 오토 스케일링 모듈은, 상기 제1 트래픽을 기반으로 제2 트래픽을 산정하고, 현재 트래픽과 상기 제2 트래픽을 비교하여 상기 가상 컴퓨팅 리소스의 수를 줄일 수 있다.
또한, 상기 이벤트는 미리 결정된 이벤트이고, 상기 이벤트 컴퓨팅 플랫폼 모듈은 캘린더 시스템에서 상기 이벤트를 조회하여 감지할 수 있다.
또한, 상기 이벤트는 미리 결정되지 않은 이벤트이고, 상기 클라우드 시스템은 상기 이벤트가 발생하는 경우 푸시를 발송하는 푸시 서버를 더 포함할 수 있다.
또한, 상기 이벤트 컴퓨팅 플랫폼 모듈은 상기 푸시의 발송을 감지하여 상기 이벤트를 감지할 수 있다.
본 발명의 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템은, 이벤트에 의해서 트래픽이 높아지기 전에 먼저 가상 컴퓨팅 리소스를 확보하여 안정적인 서비스를 제공할 수 있다.
또한, 자동으로 가상 컴퓨팅 리소스의 제거도 수행하여 필요한 정도의 리소스의 확보를 효율적으로 수행할 수 있다.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 몇몇 실시예들에 따른 클라우드 시스템을 설명하기 위한 블록도이다.
도 2는 본 발명의 몇몇 실시예들에 따른 클라우드 시스템의 동작을 설명하기 위한 블록도이다.
도 3은 도 2의 가상 컴퓨팅 리소스를 세부적으로 설명하기 위한 블록도이다.
도 4는 본 발명의 몇몇 실시예들에 따른 클라우드 시스템의 가상 컴퓨팅 리소스를 세부적으로 설명하기 위한 블록도이다.
도 5는 도 2의 오토 스케일링 모듈의 동작을 설명하기 위한 트래픽 그래프이다.
도 6은 본 발명의 몇몇 실시예들에 따른 클라우드 시스템의 동작을 설명하기 위한 블록도이다.
도 7은 본 발명의 몇몇 실시예들에 따른 가상 컴퓨팅 리소스 스케일링 방법을 설명하기 위한 순서도이다.
도 8은 도 7의 이벤트 감지 단계를 세부적으로 설명하기 위한 순서도이다.
도 9는 본 발명의 몇몇 실시예들에 따른 가상 컴퓨팅 리소스 스케일링 방법을 설명하기 위한 순서도이다.
도 10은 도 7의 트래픽의 판단 단계를 세부적으로 설명하기 위한 순서도이다.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.
이하, 도 1 내지 도 5를 참조하여 본 발명의 몇몇 실시예들에 따른 클라우드 시스템을 설명한다.
도 1은 본 발명의 몇몇 실시예들에 따른 클라우드 시스템을 설명하기 위한 블록도이다.
도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 클라우드 시스템(10)은 이벤트 컴퓨팅 플랫폼 모듈(100), 오토 스케일링 모듈(200), VPC(Virtual Private Cloud)(300) 및 데이터베이스(400)를 포함할 수 있다.
클라우드 시스템(10)은 대용량의 글로벌 클라우드 인프라를 즉각적으로 제공할 수 있는 웹 서비스 시스템일 수 있다. 클라우드 시스템(10)은 IT 서비스를 제공하려는 서비스 제공자가 필요한 인프라를 다양한 하드웨어의 성능 조합으로 제공할 수 있다. 이에 따라서, 서비스 제공자는 원하는 성능 조합의 하드웨어 인프라를 원하는 과금 플랜에 따라 선택하여 사용할 수 있다.
이러한 클라우드 시스템(10)은 실제 피지컬 머신들의 그룹을 가상 머신으로 로지컬(logical)하게 재정의할 수 있다. 이에 따라서, 클라우드 시스템은 실제 피지컬 머신들의 성능 조합과 무관하게 서비스 제공자에게 필요에 따른 성능 조합의 인프라를 제공할 수 있다. 이러한 인프라는 가상 머신 즉, 가상 컴퓨트 리소스로 정의되어 서비스 제공자에게 제공될 수 있다. 서비스 제공자는 이를 이용하여 필요한 IT 서비스를 서비스 수요자들에게 적절하게 제공할 수 있다.
또한, 클라우드 시스템(10)은 가상 컴퓨트 리소스의 성능과 양을 동적으로 조절할 수 있는 서비스를 제공할 수 있다. 이에 따라서, 서비스 제공자는 필요에 따라 동적으로 가상 컴퓨트 리소스의 규모를 조절할 수 있고, 이는 서비스 제공자의 요청에 의해서 수행될 수도 있고, 자동적으로 수행될 수도 있다.
이러한 클라우드 시스템(10)은 예를 들어, 아마존 웹 서비스(Amazon Web Services; AWS), 구글 클라우드 플랫폼(Google Cloud Platform) 및 마이크로소프트 애저(Microsoft Azure) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
이벤트 컴퓨팅 플랫폼 모듈(100)은 외부에서 이벤트를 감지할 수 있다. 이벤트 컴퓨팅 플랫폼 모듈(100)은 이벤트가 감지되면 오토 스케일링 모듈(200)로 변경 신호(mod)를 전송할 수 있다.
이벤트 컴퓨팅 플랫폼 모듈(100)은 클라우드 시스템(10)에 존재하는 서버리스 컴퓨팅 플랫폼일 수 있다. 이벤트 컴퓨팅 플랫폼 모듈(100)은 이벤트를 감지하고 그에 대한 응답으로 코드를 실행할 수 있다. 예를 들어, 이벤트 컴퓨팅 플랫폼 모듈(100)은 아마존 웹 서비스의 AWS 람다일 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
오토 스케일링 모듈(200)은 이벤트 컴퓨팅 플랫폼 모듈(100)로부터 변경 신호(mod)를 수신할 수 있다. 오토 스케일링 모듈(200)은 변경 신호(mod)에 따라서 자동으로 VPC(300)의 가상 컴퓨팅 리소스 그룹(310)의 규모를 변화시킬 수 있다. 이때, 오토 스케일링 모듈(200)은 스케일링 신호(Sc)를 통해서 가상 컴퓨팅 리소스 그룹(310)의 규모를 변경할 수 있다.
오토 스케일링 모듈(200)은 클라우드 시스템(10)에서 제공하는 API(Application Programming Interface) 형태로 존재할 수 있다. 일반적으로 오토 스케일링 모듈(200)은 직접적인 변화의 감지를 통해서 자동으로 가상 컴퓨팅 리소스 그룹(310)의 규모를 자동으로 변화시킬 수 있다. 이때, 상기 직접적인 변화는 CPU 사용률, 네트워크 사용량, 초당 리퀘스트 양 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
변경 신호(mod)는 오토 스케일링 모듈(200)의 오토 스케일링 트리거가 되는 값들을 변경할 수 있다. 이를 통해서, 변경 신호(mod)는 현재 조건을 오토 스케일링 모듈(200)이 바로 오토 스케일링을 수행하는 조건이 되도록 할 수 있다. 이에 따라, 오토 스케일링 모듈(200)은 변경 신호(mod)에 의해서 바로 오토 스케일링을 수행할 수 있다.
VPC(300)는 클라우드 시스템(10)의 사용자의 계정 전용의 가상 네트워크일 수 있다. VPC(300)는 클라우드 시스템(10)의 다른 VPC와 논리적으로 분리될 수 있다. VPC(300)는 내부에 가상 컴퓨팅 리소스 그룹(310)을 포함하고, 실행시킬 수 있다.
가상 컴퓨팅 리소스 그룹(310)은 제1 내지 제n 가상 컴퓨팅 리소스(310_1~310_n)를 포함할 수 있다. 여기서, n은 1 이상의 자연수로서, n=1인 경우 가상 컴퓨팅 리소스 그룹(310)은 1개의 가상 컴퓨팅 리소스만을 포함할 수 있다.
제1 내지 제n 가상 컴퓨팅 리소스(310_1~310_n)는 각각 독립된 가상 머신으로 동작할 수 있다. 즉, 제1 내지 제n 가상 컴퓨팅 리소스(310_1~310_n)는 논리적으로 재정의되어 별도의 컴퓨팅을 수행하는 단위 리소스일 수 있다. 오토 스케일링 모듈(200)은 동적으로 제1 내지 제n 가상 컴퓨팅 리소스(310_1~310_n)의 개수를 조절할 수 있다.
데이터베이스(400)는 제1 트래픽(Tr1)을 저장할 수 있다. 제1 트래픽(Tr1)은 이벤트가 발생하기 전의 트래픽일 수 있다. 데이터베이스(400)는 제1 트래픽(Tr1)을 오토 스케일링 모듈(200)에게 전송할 수 있다. 데이터베이스(400)는 관계형 데이터베이스일 수도 있고, NoSQL 기반의 데이터베이스일 수도 있다. 예를 들어, 데이터베이스(400)는 아마존 웹 서비스의 DynamoDB일 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
오토 스케일링 모듈(200)은 제1 트래픽(Tr1)을 수신하고, 제2 트래픽을 산정할 수 있다. 제2 트래픽은 기준 트래픽으로서, 제1 트래픽(Tr1)을 기반으로 산정될 수 있다. 오토 스케일링 모듈(200)은 현재 트래픽을 모니터링하다가 제2 트래픽보다 낮거나 같아지는 경우에 다시 가상 컴퓨팅 리소스 그룹(310)의 규모를 원래대로 되돌릴 수 있다.
즉, 이벤트 컴퓨팅 플랫폼 모듈(100)과 오토 스케일링 모듈(200)은 이벤트의 발생에 의해서 트래픽이 높아지는 것을 대비하여 미리 가상 컴퓨팅 리소스 그룹(310)의 규모를 늘린 다음, 이벤트 이후에 트래픽이 줄어드는 것을 모니터링하여 현재 트래픽이 기준 트래픽인 제2 트래픽 이하가 되는 경우 가상 컴퓨팅 리소스 그룹(310)의 규모를 원래 규모로 다시 축소시킬 수 있다.
도 2는 본 발명의 몇몇 실시예들에 따른 클라우드 시스템의 동작을 설명하기 위한 블록도이다.
도 2를 참조하여, 미리 설정된 이벤트(Predefined Event)에 대해서 본 발명의 몇몇 실시예들에 따른 클라우드 시스템(10)의 동작을 설명한다.
이벤트 컴퓨팅 플랫폼 모듈(100)은 캘린더 시스템(30)을 조회하여 이벤트를 감지할 수 있다. 캘린더 시스템(30)은 서비스 제공자(20)에 의해서 등록된 이벤트를 기록하고 있을 수 있다.
캘린더 시스템(30)은 API를 제공하는 시스템일 수 있다. 캘린더 시스템(30)은 예를 들어, 구글 캘린더를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
서비스 제공자(20)는 클라우드 시스템(10)의 VPC(300)를 통해서 서비스 수요자에게 서비스를 제공할 수 있다. 서비스 제공자(20)는 캘린더 시스템(30)에 예정된 이벤트의 일정을 등록할 수 있다. 이때, 서비스 제공자(20)는 아티스트의 컨텐츠를 제공하거나 아티스트 관련 상품을 판매하는 서비스를 제공할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
상기 미리 설정된 이벤트는 예를 들어, 아티스트 관련 상품의 판매 이벤트와 같이 시작 시점이 정해진 이벤트일 수 있다. 이에 따라서, 많은 서비스 수요자가 판매 시작 시점에서부터 서버에 접속할 수 있어 VPC(300)에 접속하는 트래픽이 급등할 수 있다.
본 발명의 몇몇 실시예들에 따른 클라우드 시스템(10)은 캘린더 시스템(30)에 미리 등록된 이벤트를 감지하여 이벤트 컴퓨팅 플랫폼 모듈(100)과 오토 스케일링 모듈(200)이 자동으로 가상 컴퓨팅 리소스 그룹(310)의 규모를 확대할 수 있다.
일반적으로, CPU 사용률, 네트워크 사용량, 초당 리퀘스트 양 등 직접적인 변화를 통해서 가상 컴퓨팅 리소스 그룹(310)의 오토 스케일링을 수행하는 경우에는 이미 이벤트가 시작된 후 CPU 사용률 등이 높아진 상태에서 오토 스케일링이 동작함에 따라 서비스 수요자들의 서비스 초기 접속이 불안정해질 수 있다.
이에 반해서, 본 발명의 몇몇 실시예들에 따른 클라우드 시스템(10)은 미리 설정된 이벤트를 이벤트 컴퓨팅 플랫폼 모듈(100)이 감지하여 오토 스케일링 모듈(200)이 오토 스케일링을 수행하므로 수요자들의 서비스 접속 트래픽이 높아지기 전에 가상 컴퓨팅 리소스들을 충분히 확보할 수 있다.
또한, 이벤트 컴퓨팅 플랫폼 모듈(100)은 챗 시스템(40)으로 제1 결과(R1)를 전송할 수 있다. 이때, 제1 결과(R1)는 오토 스케일링에 대한 작업 결과일 수 있다. 챗 시스템(40)은 API를 제공하여 다른 시스템과 쉽게 연결될 수 있다. 제1 결과(R1)는 API를 통해서 챗 시스템(40)으로 전송될 수 있다.
챗 시스템(40)은 제1 결과(R1)를 통해서 제2 결과(R2)를 생성할 수 있다. 제2 결과(R2)는 서비스 제공자(20)가 챗 시스템(40)을 통해서 확인할 수 있는 형태의 작업 결과 정보일 수 있다. 도 2에서는 서비스 제공자(20)가 캘린더 시스템(30)에 이벤트를 등록하고, 챗 시스템(40)을 통해서 제2 결과(R2)를 수신하는 것으로 도시하였지만, 본 실시예가 이에 제한되는 것은 아니다. 즉, 캘린더 시스템(30)에 이벤트 등록하는 주체와 챗 시스템(40)을 통해서 제2 결과(R2)를 수신하는 주체는 서로 다를 수도 있다.
도 3은 도 2의 가상 컴퓨팅 리소스를 세부적으로 설명하기 위한 블록도이다.
도 3을 참조하면, VPC(300)의 제1 가상 컴퓨팅 리소스 그룹(310a)은 제1 내지 제n EC2(Elastic Compute Cloud) 인스턴스(310a_1~310a_n)를 포함할 수 있다. 제1 내지 제n EC2 인스턴스(310a_1~310a_n)는 클라우드 시스템(10)에서 크기 조정이 가능한 컴퓨팅 파워를 제공하는 서비스에 의한 가상 컴퓨팅 리소스일 수 있다. 제1 내지 제n EC2 인스턴스(310a_1~310a_n)는 오토 스케일링 모듈(200)을 통해서 개수가 자동으로 스케일링될 수 있다.
예를 들어, EC2 인스턴스는 아마존 웹 서비스에서 제공되는 서비스의 형태일 수 있다. 다만, 본 실시예가 이에 제한되는 것은 아니고, 컴퓨팅 파워가 조절되어 제공될 수 있는 가상 컴퓨팅 리소스의 경우 본 실시예의 제1 내지 제n EC2 인스턴스(310a_1~310a_n)에 해당될 수 있다.
도 4는 본 발명의 몇몇 실시예들에 따른 클라우드 시스템의 가상 컴퓨팅 리소스를 세부적으로 설명하기 위한 블록도이다.
도 4를 참조하면, VPC(300)의 제2 가상 컴퓨팅 리소스 그룹(310b)은 제1 내지 제m 포드(310b_1~310b_m)를 포함할 수 있다. 제2 가상 컴퓨팅 리소스 그룹(310b)은 클라우드 시스템(10)에서 쿠버네티스(Kubernetes) 서비스를 사용하는 경우에 사용될 수 있다. 쿠버네티스는 Linux 컨테이너 작업을 자동화하는 오픈소스 플랫폼을 의미할 수 있다. 예를 들어, 서비스 제공자(20)가 아마존 웹 서비스의 EKS(Elastic Kubernetes Service)와 같은 쿠버네티스 서비스를 이용하는 경우에는 도 3의 제1 가상 컴퓨팅 리소스 그룹(310a) 대신에 도 4의 제2 가상 컴퓨팅 리소스 그룹(310b)이 사용될 수 있다.
쿠버네티스는 컨테이너를 포드(Pod)로 분류하여 컨테이너가 급증할 경우의 문제를 해결할 수 있다. 쿠버네티스는 그룹화된 컨테이너에 추상화 계층을 추가하므로 사용자가 워크로드를 예약하고, 네트워킹 및 저장소와 같은 필수 서비스를 컨테이너에 제공할 수 있다. 또한, 쿠버네티스는 포드 전체에서 부하를 분산하고 적합한 수의 컨테이너를 실행하여 워크로드를 지원할 수 있다.
이에 따라서, 제2 가상 컴퓨팅 리소스 그룹(310b)은 제1 내지 제m 포드(310b_1~310b_m)를 포함하고, 이벤트 컴퓨팅 플랫폼 모듈(100) 및 오토 스케일링 모듈(200)은 VPC(300) 내의 포드의 개수를 자동으로 조절할 수 있다.
도 5는 도 2의 오토 스케일링 모듈의 동작을 설명하기 위한 트래픽 그래프이다. 도 5의 가로축 t는 시간을 의미하고, 세로축 traffic은 VPC(300)에 유입되는 트래픽을 의미한다.
도 2 및 도 5를 참조하면, 데이터베이스(400)는 이벤트가 시작되기 전의 제1 트래픽(Tr1)을 미리 저장할 수 있다. 이어서, 이벤트가 시작된 후에 트래픽이 상승하면, VPC(300)는 이벤트 컴퓨팅 플랫폼 모듈(100) 및 오토 스케일링 모듈(200)에 의해서 미리 늘려 두었던 제1 내지 제n 가상 컴퓨팅 리소스(310_1~310_n)를 활용하여 서비스를 안정적으로 제공할 수 있다.
오토 스케일링 모듈(200)은 제1 트래픽(Tr1)을 기반으로 제2 트래픽(Tr2)을 산정할 수 있다. 제2 트래픽(Tr2)은 예를 들어, 제1 트래픽(Tr1)의 2배로 산정될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 제2 트래픽(Tr2)은 제1 트래픽(Tr1)보다 큰 값을 가질 수 있다.
오토 스케일링 모듈(200)은 현재 트래픽이 제2 트래픽(Tr2)보다 작거나 같은 경우에 추가했던 가상 컴퓨팅 리소스를 회수시켜 가상 컴퓨팅 리소스 그룹(310)의 규모를 원래 상태로 회복할 수 있다.
제2 트래픽(Tr2)이 제1 트래픽(Tr1)보다 크므로, 가상 컴퓨팅 리소스 그룹(310)의 규모는 트래픽이 원상복귀되기 전에 먼저 축소될 수 있다. 가상 컴퓨팅 리소스 그룹(310)의 규모가 크면 서비스 제공자(20)의 사용 비용이 클 수 있으므로, 가상 컴퓨팅 리소스 그룹(310)의 규모를 빠르게 축소시키는 경우 비용적 효율이 높아질 수 있다. 이는 트래픽의 등락이 이벤트 발생 이후 상승하고, 최고치을 기록한 이후에 연속적으로 하락하는 형태로 발생한다는 점을 고려할 때 효율성을 극대화시킬 수 있다. 이를 위해서 제2 트래픽(Tr2)은 상기 최고치보다 낮은 값으로 설정될 수 있다.
본 실시예는 캘린더 시스템(30)에 미리 설정된 이벤트를 자동으로 감지하여 트래픽이 상승하기 전에 미리 가상 컴퓨팅 리소스를 확보하여 서비스를 안정적으로 제공할 수 있다. 나아가, 적절한 기준 트래픽 즉, 제2 트래픽(Tr2)을 산정하여 트래픽이 낮아질 때 빠르게 확보한 가상 컴퓨팅 리소스를 다시 회수시켜 비용 효율을 극대화할 수 있다.
이하, 도 6을 참조하여 본 발명의 몇몇 실시예들에 따른 클라우드 시스템을 설명한다. 상술한 실시예와 중복되는 부분은 간략히 하거나 생략한다.
도 6은 본 발명의 몇몇 실시예들에 따른 클라우드 시스템의 동작을 설명하기 위한 블록도이다.
도 6을 참조하면, 본 발명의 몇몇 실시예들에 따른 클라우드 시스템(10)은 푸시 서버(500)를 더 포함할 수 있다.
푸시 서버(500)는 이벤트가 발생하는 경우 인터넷(50)으로 푸시(Push)를 발송할 수 있다. 푸시 서버(500)가 푸시(Push)를 발송하는 이벤트는 미리 설정되지 않은 이벤트(Undefined Event)일 수 있다.
만일, 서비스 제공자(20)가 아티스트의 컨텐츠를 제공하거나 아티스트 관련 상품을 판매하는 서비스를 제공하는 경우, 상기 미리 설정되지 않은 이벤트는 예를 들어, 아티스트의 글쓰기와 같이 예측할 수 없는 이벤트를 포함할 수 있다. 이러한 경우 서비스 수요자들이 아티스트의 글쓰기에 대응하여 접속량이 늘어날 수 있어 대규모의 트래픽이 발생할 수 있고, 이를 위해서 더 많은 가상 컴퓨팅 리소스가 필요할 수 있다.
푸시 서버(500)는 이러한 이벤트가 발생시에 서비스 수요자들에게 푸시(Push)를 발송할 수 있다. 이벤트 컴퓨팅 플랫폼 모듈(100)은 푸시 서버(500)의 푸시(Push)의 발송을 감지할 수 있다. 푸시(Push)의 발송을 감지하는 것은, 푸시 서버(500)가 푸시(Push)의 발송과 함께 이벤트 컴퓨팅 플랫폼 모듈(100) 또는 오토 스케일링 모듈(200)로 신호를 전송하는 방식일 수도 있다. 또는, 이벤트 컴퓨팅 플랫폼 모듈(100) 또는 오토 스케일링 모듈(200)이 직접 푸시(Push)의 발송을 감지하는 방식도 가능할 수 있다.
본 실시예는 미리 지정되어 있는 이벤트가 아니라 갑자기 발생한 이벤트에도 대응하여 안정적인 서비스의 제공이 가능할 수 있다. 특히, 대규모의 트래픽의 경우 얼마나 빠르게 대응할 수 있는지가 중요한 서비스의 특성상 CPU 사용률, 네트워크 사용량, 초당 리퀘스트 양 등의 직접적인 변화를 감지하기 전에 오토 스케일링을 수행하여 안정적인 서비스의 운영을 지속할 수 있고, 서비스의 신뢰도를 향상시킬 수 있다.
이하, 도 1 내지 도 10을 참조하여 본 발명의 몇몇 실시예들에 따른 클라우드 시스템을 설명한다. 상술한 실시예와 중복되는 부분은 간략히 하거나 생략한다.
도 7은 본 발명의 몇몇 실시예들에 따른 가상 컴퓨팅 리소스 스케일링 방법을 설명하기 위한 순서도이고, 도 8은 도 7의 이벤트 감지 단계를 세부적으로 설명하기 위한 순서도이다. 도 9는 본 발명의 몇몇 실시예들에 따른 가상 컴퓨팅 리소스 스케일링 방법을 설명하기 위한 순서도이고, 도 10은 도 7의 트래픽의 판단 단계를 세부적으로 설명하기 위한 순서도이다. 도 9는 도 7의 이벤트 감지 단계의 세부적인 단계를 설명한다.
도 7을 참조하면, 이벤트를 감지한다(S100).
세부적으로, 도 8을 참조하면, 캘린더 시스템에 이벤트의 등록이 수행된다(S110a).
구체적으로, 도 2를 참조하면, 캘린더 시스템(30)은 서비스 제공자(20)에 의해서 등록된 이벤트를 기록하고 있을 수 있다. 캘린더 시스템(30)은 예를 들어, 구글 캘린더를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
다시, 도 8을 참조하면, 등록된 이벤트를 감지한다(S120a).
구체적으로, 도 2를 참조하면, 이벤트 컴퓨팅 플랫폼 모듈(100)은 캘린더 시스템(30)을 조회하여 이벤트를 감지할 수 있다. 캘린더 시스템(30)은 API를 제공하는 시스템일 수 있다. 이벤트 컴퓨팅 플랫폼 모듈(100)은 캘린더 시스템(30)의 API를 통해서 이벤트를 조회하고 감지할 수 있다.
또는 본 발명의 몇몇 실시예들에 따른 가상 컴퓨팅 리소스 스케일링 방법은 이벤트 감지 단계(S100)가 도 9의 세부 단계를 포함할 수 있다.
도 9를 참조하면, 미리 설정되지 않은 이벤트가 발생한다(S110b).
구체적으로, 도 6을 참조하면, 만일, 서비스 제공자(20)가 아티스트의 컨텐츠를 제공하거나 아티스트 관련 상품을 판매하는 서비스를 제공하는 경우, 상기 미리 설정되지 않은 이벤트는 예를 들어, 아티스트의 글쓰기와 같이 예측할 수 없는 이벤트를 포함할 수 있다.
다시, 도 9를 참조하면, 이벤트에 대응하는 푸시를 발송한다(S120b).
구체적으로, 도 6을 참조하면, 푸시 서버(500)는 이러한 이벤트가 발생시에 서비스 수요자들에게 푸시(Push)를 발송할 수 있다.
다시, 도 9를 참조하면, 푸시 발송을 감지한다(S130b).
구체적으로, 도 6을 참조하면, 이벤트 컴퓨팅 플랫폼 모듈(100)은 푸시 서버(500)의 푸시(Push)의 발송을 감지할 수 있다. 푸시(Push)의 발송을 감지하는 것은, 푸시 서버(500)가 푸시(Push)의 발송과 함께 이벤트 컴퓨팅 플랫폼 모듈(100) 또는 오토 스케일링 모듈(200)로 노티스 신호(Sn)를 전송하는 방식일 수도 있다. 또는, 이벤트 컴퓨팅 플랫폼 모듈(100) 또는 오토 스케일링 모듈(200)이 직접 푸시(Push)의 발송을 감지하는 방식도 가능할 수 있다.
다시, 도 7을 참조하면, 가상 컴퓨팅 리소스를 추가한다(S200).
구체적으로, 도 2를 참조하면, 이벤트 컴퓨팅 플랫폼 모듈(100)은 이벤트가 감지되면 오토 스케일링 모듈(200)로 변경 신호(mod)를 전송할 수 있다. 오토 스케일링 모듈(200)은 변경 신호(mod)에 따라서 자동으로 VPC(300)의 가상 컴퓨팅 리소스 그룹(310)의 규모를 변화시킬 수 있다. 오토 스케일링 모듈(200)은 이벤트에 대응하여 대규모로 인입될 트래픽에 대비하여 가상 컴퓨팅 리소스 그룹(310)의 규모를 늘릴 수 있다.
다시, 도 7을 참조하면, 트래픽이 충분히 낮은지를 판단한다(S300).
세부적으로, 도 10을 참조하면, 이벤트 전의 제1 트래픽을 기록한다(S310).
구체적으로, 도 2를 참조하면, 데이터베이스(400)는 제1 트래픽(Tr1)을 저장할 수 있다. 제1 트래픽(Tr1)은 이벤트가 발생하기 전의 트래픽일 수 있다. 데이터베이스(400)는 제1 트래픽(Tr1)을 오토 스케일링 모듈(200)에게 전송할 수 있다.
다시, 도 10을 참조하면, 제1 트래픽을 기반으로 제2 트래픽을 산정한다(S320).
구체적으로, 도 2 및 도 5를 참조하면, 오토 스케일링 모듈(200)은 제1 트래픽(Tr1)을 기반으로 제2 트래픽(Tr2)을 산정할 수 있다. 제2 트래픽(Tr2)은 예를 들어, 제1 트래픽(Tr1)의 2배로 산정될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 제2 트래픽(Tr2)은 제1 트래픽(Tr1)보다 큰 값을 가질 수 있다.
다시, 도 10을 참조하면, 현재 트래픽이 제2 트래픽보다 작거나 같은지를 판단한다(S320).
다시, 도 7을 참조하면, 만일 현재 트래픽이 제2 트래픽보다 작거나 같다면 추가했던 가상 컴퓨팅 리소스를 해제한다(S400).
구체적으로, 도 2 및 도 5를 참조하면, 오토 스케일링 모듈(200)은 만일 현재 트래픽이 제2 트래픽(Tr2)보다 작거나 같은 경우에 추가했던 가상 컴퓨팅 리소스를 회수시켜 가상 컴퓨팅 리소스 그룹(310)의 규모를 원래 상태로 회복할 수 있다. 제2 트래픽(Tr2)이 제1 트래픽(Tr1)보다 크므로, 가상 컴퓨팅 리소스 그룹(310)의 규모는 트래픽이 원상복귀되기 전에 먼저 축소될 수 있다. 이를 통해서 가상 컴퓨팅 리소스 그룹(310)의 규모가 빠르게 축소되므로 비용 효율성을 극대화할 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (13)

  1. 클라우드 시스템의 VPC(Virtual Private Cloud)의 가상 컴퓨팅 리소스 스케일링 방법에 있어서,
    이벤트를 감지하는 단계;
    상기 이벤트를 감지한 후에, 가상 컴퓨터 리소스를 추가하는 단계;
    상기 VPC에 유입되는 현재 트래픽이 충분히 낮은지를 판단하는 단계; 및
    상기 현재 트래픽이 충분히 낮은 경우, 추가된 상기 가상 컴퓨터 리소스를 해제하는 단계를 포함하는 가상 컴퓨팅 리소스 스케일링 방법.
  2. 제1 항에 있어서,
    상기 현재 트래픽이 충분히 낮은지를 판단하는 단계는,
    이벤트 전의 제1 트래픽을 기록하는 단계와,
    상기 제1 트래픽을 기반으로 제2 트래픽을 산정하는 단계와,
    상기 현재 트래픽이 상기 제2 트래픽보다 작거나 같은지를 판단하는 단계를 포함하는 가상 컴퓨팅 리소스 스케일링 방법.
  3. 제2 항에 있어서,
    상기 제2 트래픽은 상기 제1 트래픽보다 큰 가상 컴퓨팅 리소스 스케일링 방법.
  4. 제1 항에 있어서,
    상기 이벤트는 발생 시점이 미리 설정된 이벤트이고,
    상기 이벤트를 감지하는 단계는,
    캘린더 시스템에 등록된 이벤트를 감지하는 단계를 포함하는 가상 컴퓨팅 리소스 스케일링 방법.
  5. 제1 항에 있어서,
    상기 이벤트는 발생 시점이 미리 정해지지 않은 이벤트이고,
    상기 이벤트를 감지하는 단계는,
    상기 이벤트에 대응하는 푸시를 발송하는 단계와,
    상기 푸시 발송을 감지하는 단계를 포함하는 가상 컴퓨팅 리소스 스케일링 방법.
  6. 적어도 하나의 가상 컴퓨팅 리소스를 포함하는 VPC;
    이벤트를 감지하고, 변경 신호를 생성하는 이벤트 컴퓨팅 플랫폼 모듈; 및
    상기 변경 신호에 따라 상기 가상 컴퓨팅 리소스의 수를 늘리는 오토 스케일링 모듈을 포함하는 클라우드 시스템.
  7. 제6 항에 있어서,
    상기 이벤트 컴퓨팅 플랫폼 모듈은 서버리스 컴퓨팅 플랫폼을 포함하는 클라우드 시스템.
  8. 제6 항에 있어서,
    상기 가상 컴퓨팅 리소스는 EC2(Elastic Compute Cloud) 인스턴스 및 포드(Pod) 중 적어도 하나를 포함하는 클라우드 시스템.
  9. 제6 항에 있어서,
    상기 이벤트 전의 제1 트래픽을 저장하고, 상기 오토 스케일링 모듈에 상기 제1 트래픽을 제공하는 데이터베이스를 더 포함하는 클라우드 시스템.
  10. 제9 항에 있어서,
    상기 오토 스케일링 모듈은, 상기 제1 트래픽을 기반으로 제2 트래픽을 산정하고, 현재 트래픽과 상기 제2 트래픽을 비교하여 상기 가상 컴퓨팅 리소스의 수를 줄이는 클라우드 시스템.
  11. 제6 항에 있어서,
    상기 이벤트는 미리 결정된 이벤트이고,
    상기 이벤트 컴퓨팅 플랫폼 모듈은 캘린더 시스템에서 상기 이벤트를 조회하여 감지하는 클라우드 시스템.
  12. 제6 항에 있어서,
    상기 이벤트는 미리 결정되지 않은 이벤트이고,
    상기 이벤트가 발생하는 경우 푸시를 발송하는 푸시 서버를 더 포함하는 클라우드 시스템.
  13. 제12 항에 있어서,
    상기 이벤트 컴퓨팅 플랫폼 모듈은 상기 푸시의 발송을 감지하여 상기 이벤트를 감지하는 클라우드 시스템.
KR1020200125451A 2020-09-28 2020-09-28 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템 KR102438733B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200125451A KR102438733B1 (ko) 2020-09-28 2020-09-28 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200125451A KR102438733B1 (ko) 2020-09-28 2020-09-28 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템

Publications (2)

Publication Number Publication Date
KR20220042535A true KR20220042535A (ko) 2022-04-05
KR102438733B1 KR102438733B1 (ko) 2022-09-01

Family

ID=81181757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200125451A KR102438733B1 (ko) 2020-09-28 2020-09-28 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템

Country Status (1)

Country Link
KR (1) KR102438733B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102525069B1 (ko) * 2022-12-30 2023-04-24 주식회사 에스티씨랩 클라우드 서버의 리소스 최적화를 위한 트랜잭션 관리 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010105546A (ko) * 2000-05-15 2001-11-29 이영수 대규모 인터넷 접속을 지원하는 실시간 이벤트 게시 및공유 방법
JP2017173894A (ja) * 2016-03-18 2017-09-28 株式会社日立製作所 オーケストレーションサーバ、オーケストレーション方法、およびオーケストレーションプログラム
JP2018097708A (ja) * 2016-12-15 2018-06-21 富士通株式会社 情報処理装置、情報処理システム、情報処理プログラム及び情報処理方法
US20180255137A1 (en) * 2017-03-02 2018-09-06 Futurewei Technologies, Inc. Unified resource management in a data center cloud architecture
WO2019078331A1 (ja) * 2017-10-20 2019-04-25 日本電気株式会社 ノード制御装置、計算処理システム、ノード制御方法、および、記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010105546A (ko) * 2000-05-15 2001-11-29 이영수 대규모 인터넷 접속을 지원하는 실시간 이벤트 게시 및공유 방법
JP2017173894A (ja) * 2016-03-18 2017-09-28 株式会社日立製作所 オーケストレーションサーバ、オーケストレーション方法、およびオーケストレーションプログラム
JP2018097708A (ja) * 2016-12-15 2018-06-21 富士通株式会社 情報処理装置、情報処理システム、情報処理プログラム及び情報処理方法
US20180255137A1 (en) * 2017-03-02 2018-09-06 Futurewei Technologies, Inc. Unified resource management in a data center cloud architecture
WO2019078331A1 (ja) * 2017-10-20 2019-04-25 日本電気株式会社 ノード制御装置、計算処理システム、ノード制御方法、および、記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102525069B1 (ko) * 2022-12-30 2023-04-24 주식회사 에스티씨랩 클라우드 서버의 리소스 최적화를 위한 트랜잭션 관리 장치 및 방법

Also Published As

Publication number Publication date
KR102438733B1 (ko) 2022-09-01

Similar Documents

Publication Publication Date Title
US10455009B2 (en) Optimizing a load balancer configuration
US10885033B2 (en) Query plan management associated with a shared pool of configurable computing resources
Yao et al. Fog resource provisioning in reliability-aware IoT networks
CN101535978B (zh) 分布式服务器系统中的消息转发备份管理器
KR101916847B1 (ko) 크로스-클라우드식 관리 및 고장수리 기법
US8402086B2 (en) Brokered cloud computing architecture
US20200218579A1 (en) Selecting a cloud service provider
US8843621B2 (en) Event prediction and preemptive action identification in a networked computing environment
US20140372609A1 (en) Dynamically expanding computing resources in a networked computing environment
CN101627377B (zh) 从操作系统中抽象出操作环境
CN102542367B (zh) 基于领域模型的云计算网络工作流处理方法、装置和系统
CN105308553B (zh) 动态提供存储
US8949415B2 (en) Activity-based virtual machine availability in a networked computing environment
CN110399212A (zh) 任务请求处理方法、装置、电子设备及计算机可读介质
CN105302907A (zh) 一种请求的处理方法及装置
KR102438733B1 (ko) 가상 컴퓨팅 리소스 스케일링 방법 및 상기 방법이 적용되는 클라우드 시스템
RU2720442C1 (ru) Улучшение доли успешных попыток интерактивной транзакции
CN115757611A (zh) 大数据集群切换方法、装置、电子设备及存储介质
CN103634167A (zh) 云环境中对目标主机进行安全配置检查的方法和系统
CN109345249A (zh) 一种支付失败处理方法及装置
US20230164042A1 (en) Component-based risk evaluation techniques using processing flow signatures
US9934113B2 (en) Enhanced console assisted recovery for a coordinated timing network
JP6943318B1 (ja) プログラム、情報処理方法、及び情報処理装置
US20240086297A1 (en) Systems and methods for optimizing resources for applications deployed in primary and backup geographically dispersed cloud environments
US11159429B2 (en) Real-time cloud container communications routing

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right