KR20190076693A - 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법 - Google Patents

이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법 Download PDF

Info

Publication number
KR20190076693A
KR20190076693A KR1020170178708A KR20170178708A KR20190076693A KR 20190076693 A KR20190076693 A KR 20190076693A KR 1020170178708 A KR1020170178708 A KR 1020170178708A KR 20170178708 A KR20170178708 A KR 20170178708A KR 20190076693 A KR20190076693 A KR 20190076693A
Authority
KR
South Korea
Prior art keywords
workload
cloud
agent
cloud environment
virtual machine
Prior art date
Application number
KR1020170178708A
Other languages
English (en)
Inventor
염근혁
정호용
이한결
구종회
김형주
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020170178708A priority Critical patent/KR20190076693A/ko
Publication of KR20190076693A publication Critical patent/KR20190076693A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

본 발명은 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법에 관한 것이다.

Description

이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법{AUTOMATIC DISTRIBUTING AND PREDICTING USAGE FOR WORKLOAD IN HETEROGENEOUS CLOUD ENVIRONMENT}
본 발명은 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법에 관한 것이다.
1) 특허명: 멀티 에이전트 시스템에서의 동적 로드 밸런싱 방법
- 출원 : 2010.10.29. / 등록 : 2012.10.25.
- 각각의 노드가 로드 밸런싱 관리 에이전트(LBMA)를 가지는 멀티 에이전트 시스템에서의 동적 로드 밸런싱 방법에 관한 것이다. 본 발명에 따른 동적 로드 밸런싱 방법은 LBMA가 수집 시작 시간과 수집 주기에 따라서 LBMA가 속한 노드에 대한 부하 정보를 수집하는 제1 단계; 상기 부하 정보를 이용하여 각각의 에이전트에 대해서 에이전트 현재 작업량을 산출하는 제2 단계; 에이전트 현재 작업량이 부하 임계점 이상인 경우에, 에이전트 현재 작업량을 이용해서 에이전트의 예측된 미래 작업량을 산출하여, 에이전트 현재 작업량이 에이전트의 예측된 미래 작업량을 초과하면 에이전트의 작업부하가 감소하는 추세라고 판단하고, 에이전트 현재 작업량이 에이전트의 예측된 미래 작업량 이하이면 에이전트의 작업부하가 증가하는 추세라고 판단하는 제3 단계; 및 에이전트의 작업부하가 증가하는 추세라고 판단되고 에이전트 현재 작업량이 부하 임계점 이상인 경우에, 에이전트의 로컬 노드 부하, 에이전트의 내부 통신 부하, 및 에이전트의 외부 통신 부하를 이용하여 각각의 에이전트에 대해서 에이전트 크래딧 값을 산출하고 가장 작은 에이전트 크래딧 값을 가지는 에이전트를 이주대상 에이전트로 선택해서 이주시키는 제4 단계;를 포함한다.
2) 특허명: 엔터프라이즈 네트워크에서 할당된 클라우드 자원의 동적 로드 밸런싱 및 스케일링
- 출원 : 2010.09.15. / 등록 : 2014.07.15.
- 엔터프라이즈 네트워크는 사설 엔터프라이즈 네트워크 내의 일련의 서버 및 클라우드 네트워크 내의 확장 가능한 일련의 서버를 포함할 수 있다. 엔터프라이즈 네트워크는 전체 시스템 성능 및 비용과 같은 기준에 기초하여 양 네트워크 내의 서버 사이에서 작업을 분배하기 위해 일련의 서버 각각에 접속되는 사설 엔터프라이즈 네트워크 및 클라우드 네트워크 둘 다에서 1개 이상의 로드 밸런서를 이용할 수 있다. 또한, 엔터프라이즈 네트워크는 시스템 작업 로드 및 다른 사용자 정의 기준, 예를 들어 작업 요청 당 발생되는 수입에 기초하여 엔터프라이즈 네트워크에 할당된 클라우드 서버의 수를 스케일하기 위해 1개 이상의 제어기를 이용할 수 있다.
3) 특허명: 하이브리드 클라우드 환경에서 데이터를 분산하는 방법 및 장치
- 출원 : 2013.08.08 / 등록 : 2015.08.20.
- 클라이언트로부터 소정의 서비스의 실행 요청을 수신하고, 수신된 서비스의 실행 요청에 기초하여 클라이언트의서비스 사용 패턴 정보를 분석하며, 분석된 정보를 이용하여 서비스의 워크 로드를 추정하고, 추정된 워크 로드에 기초하여 서비스와 관련된 데이터를 분산함으로써, 하이브리드 클라우드 환경에서 데이터를 분산하는 방법이 개시 된다.
도 1는 통합 로드 밸런서 시스템 구조도이다.
도 2는 통합 로드 밸런서의 작업 프로세스이다.
도 3은 워크로드 자원 사용량 예측 예시이다.
도 4는 통합 로드 밸런서 마이그레이션 분산 처리 예시이다.
도 5는 통합 로드 밸런서 퍼블릭 클라우드 가상머신 생성 예시이다.
종래발명에서는 이종 클라우드가 아닌 단일 클라우드 환경의 데이터를 동적 분산하는 방법에 대한 내용들이다. 또한, "하이브리드 클라우드 환경에서 데이터를 분산하는 방법 및 장치"의 경우 클라이언트의 데이터 패턴을 분석하여 프라이빗 또는 퍼블릭 클라우드로 데이터를 처리하는 방법에 관한 내용이다.
본 발명은 하이브리드 클라우드 환경에서 입력받은 워크로드의 자원(CPU, 메모리 등) 사용량을 기계학습을 이용해 예측한다. 워크로드의 목적지에 해당하는 클라우드 가상머신이 입력 워크로드를 처리할 수 없을 경우, 현재 가상머신의 워크로드 현황을 통해 워크로드를 마이그레이션 하거나, 가상머신을 확장하는 방법을 제시한다.
이 방법을 통해 사용자는 하이브리드 클라우드 환경에서 워크로드를 효율적으로 분산 처리하여 클라우드의 활용 비용을 절감할 수 있다.
도 1는 통합 로드 밸런서 시스템 구조도이다.
도 1은 본 발명에서 제안하는 시스템 구조이다. 제안하는 시스템은 프라이빗 또는 퍼블릭 클라우드 벤더 내의 각 로드 밸런서 (LB) 와, 각 로드 밸런서의 담당 작업량을 조율하는 상위 계층의 통합 로드 밸런서 (ILB) 로 구성되어 있다.
도 2는 통합 로드 밸런서의 작업 프로세스이다.
도 2는 본 발명에서 제안하는 시스템에서 통합 로드 밸런서의 작업 프로세스를 보여준다. 통합 로드 밸런서는 입력 데이터가 들어왔을 때 동작을 시작한다. 우선 기계학습을 이용하여 입력 데이터를 분석하여 워크로드의 자원 사용량을 예측한다. 입력 워크로드의 목적지에 해당하는 가상머신의 가용량과 예측된 자원 사용량을 비교하여 할당 여부를 판단한다. 만약 가상머신에 워크로드의 할당이 가능하면 목적 가상머신에 워크로드를 할당하여 워크로드를 처리한다. 목적 가상머신에 워크로드의 할당이 불가능하다면, 워크로드의 목적지 클라우드 유형에 따라 다른 분산 처리 프로세스를 진행한다. 워크로드의 목적지 클라우드 유형이 퍼블릭 클라우드라면 클라우드에서 새로운 가상머신을 생성하고 워크로드를 할당하여 처리한다. 목적지 클라우드 유형이 프라이빗 클라우드라면 해당 가상머신의 워크로드 현황을 확인한 후 우선순위(보안, 실행시간, 비용 등)가 낮은 워크로드를 퍼블릭 클라우드로 마이그레이션한다. 만약 기존에 가상머신에 할당되었던 워크로드보다 입력 워크로드의 우선순위가 더 낮을 경우, 입력 워크로드를 퍼블릭 클라우드로 할당한다. 이 때, 기존에 프라이빗 클라우드에 할당되었던 워크로드를 마이그레이션 시키는 경우, 마이그레이션 해야 할 워크로드의 수가 가장 적은 가상 머신을 선택하여 해당 가상 머신에 새로운 워크로드를 할당한다.
도 3은 워크로드 자원 사용량 예측 예시이다.
도 3은 통합 로드 밸런서가 회귀 알고리즘(Regression Algorithm)을 이용하여 워크로드의 자원 사용량을 예측하는 과정의 예시를 보여준다. 회귀 알고리즘은 입력 데이터의 분포를 기반으로 새로운 데이터의 값을 예측하는 것으로, 본 발명에서는 새로운 워크로드의 CPU, RAM 등의 자원 사용량을 예측하기 위해 사용한다. 먼저 회귀 모델(Regression Model)을 생성하기 위해 클라우드 환경에서 동작한 워크로드의 이력 데이터를 Training Data로 이용하여 학습을 진행한다. Training Data의 Feature로는 워크로드에서 이용하는 데이터의 크기, 포트 번호, 목적지 클라우드 유형, 작업의 우선 순위 등을 추출하였다. 학습을 통해 회귀 모델이 생성되면 새로운 워크로드의 정보를 회귀 모델에 입력하며, 입력된 워크로드의 각 Feature 값에 따라 CPU 사용량과 RAM 사용량 등의 자원 사용량 예측 결과가 도출된다. 예시에서는 CPU 사용량은 25%, RAM 사용량은 3GB로 예측되었다.
그 후 통합 로드 밸런서는 새 워크로드에 대한 CPU 및 RAM 사용량 예측 결과와 현재 목적지 클라우드에 있는 가상머신들의 자원 가용량을 비교하여 목적지 클라우드에서 실행 가능할지를 판별한다. 실행 가능하다면 목적지 클라우드에 워크로드를 배치하고 그렇지 않다면 퍼블릭 클라우드로 이동시키거나(원래 목적지가 프라이빗 클라우드였을 경우), 오토 스케일링을 통해 자원 가용량을 확장시킨다(원래 목적지가 퍼블릭 클라우드였을 경우).
도 4는 통합 로드 밸런서 마이그레이션 분산 처리 예시이다.
도 4는 프라이빗 클라우드 Openstack, 퍼블릭 클라우드 AWS를 사용하는 하이브리드 클라우드 환경에서 통합 로드 밸런서를 이용하여 워크로드를 분산 처리하는 과정을 보여주는 예시이다. 통합 로드 밸런서에 데이터 크기가 100MB이고 포트번호는 2500, 목적지 클라우드는 Private, 우선순위 3인 워크로드가 입력되면, 기계학습을 통해 해당 워크로드 자원 사용량을 예측한다. 현재 Private 클라우드에 입력 워크로드를 처리할 수 있는 가상머신이 없기 때문에 워크로드를 퍼블릭 클라우드에 할당 및 마이그레이션한다. 도 4에서 입력 워크로드의 우선순위가 가장 낮다고 가정하면, 입력 워크로드가 퍼블릭 클라우드인 PU-3로 할당되어 처리된다.
도 5는 통합 로드 밸런서 퍼블릭 클라우드 가상머신 생성 예시이다.
도 5는 퍼블릭 클라우드에서 가용량이 초과되었을 때 가상머신을 생성하는 과정을 보여주는 예시이다. 통합 로드 밸런서에 데이터 크기는 50MB이고 포트번호는 1900, 목적지 클라우드 유형은 Public, 우선순위 4인 워크로드가 입력되었고, 통합 로드 밸런서는 기계학습을 통해 해당 워크로드의 자원 사용량을 예측한다. 예시에서는 예측된 자원 사용량과 퍼블릭 클라우드 가상머신들의 자원 가용량을 비교한 결과 현재 워크로드를 처리할 수 있는 가상머신이 없음이 확인되었다. 따라서 퍼블릭 클라우드의 오토 스케일링 기능을 이용하여 새로운 가상머신 PU-5를 생성하여 입력 워크로드를 할당, 처리한다.

Claims (1)

  1. 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법.
KR1020170178708A 2017-12-22 2017-12-22 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법 KR20190076693A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170178708A KR20190076693A (ko) 2017-12-22 2017-12-22 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170178708A KR20190076693A (ko) 2017-12-22 2017-12-22 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법

Publications (1)

Publication Number Publication Date
KR20190076693A true KR20190076693A (ko) 2019-07-02

Family

ID=67258623

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170178708A KR20190076693A (ko) 2017-12-22 2017-12-22 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법

Country Status (1)

Country Link
KR (1) KR20190076693A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668912A (zh) * 2020-12-31 2021-04-16 广东中科能睿信息科技有限公司 人工神经网络的训练方法、动态计算切分调度方法、存储介质及系统
KR102245341B1 (ko) * 2020-09-11 2021-04-28 한국전자기술연구원 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법
US11625272B2 (en) 2020-08-15 2023-04-11 International Business Machines Corporation Scalable operators for automatic management of workloads in hybrid cloud environments
WO2023058782A1 (ko) * 2021-10-05 2023-04-13 한국전자기술연구원 워크로드 단위 배치 및 우선순위 스케줄링을 제공하는 하이브리드 클라우드 운용 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11625272B2 (en) 2020-08-15 2023-04-11 International Business Machines Corporation Scalable operators for automatic management of workloads in hybrid cloud environments
KR102245341B1 (ko) * 2020-09-11 2021-04-28 한국전자기술연구원 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법
CN112668912A (zh) * 2020-12-31 2021-04-16 广东中科能睿信息科技有限公司 人工神经网络的训练方法、动态计算切分调度方法、存储介质及系统
WO2023058782A1 (ko) * 2021-10-05 2023-04-13 한국전자기술연구원 워크로드 단위 배치 및 우선순위 스케줄링을 제공하는 하이브리드 클라우드 운용 방법

Similar Documents

Publication Publication Date Title
Krishnamurthy et al. Pratyaastha: an efficient elastic distributed sdn control plane
US10402733B1 (en) Adaptive ensemble workload prediction model based on machine learning algorithms
CN107222531B (zh) 一种容器云资源调度方法
KR101941282B1 (ko) 가상 데스크톱 서비스 제공 방법 및 장치
KR20190076693A (ko) 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법
Huang et al. Prediction-based dynamic resource scheduling for virtualized cloud systems
CN106133693A (zh) 虚拟机的迁移方法、装置及设备
Janakiraman et al. Improved artificial bee colony using monarchy butterfly optimization algorithm for load balancing (IABC-MBOA-LB) in cloud environments
US11093288B2 (en) Systems and methods for cluster resource balancing in a hyper-converged infrastructure
CN115134371A (zh) 包含边缘网络算力资源的调度方法、系统、设备及介质
Kaur et al. Efficient and enhanced load balancing algorithms in cloud computing
CN103488538B (zh) 云计算系统中的应用扩展装置和应用扩展方法
Gutierrez-Garcia et al. Policy-based agents for virtual machine migration in cloud data centers
Kanniga Devi et al. Load monitoring and system-traffic-aware live VM migration-based load balancing in cloud data center using graph theoretic solutions
CN111953732A (zh) 一种云计算系统中的资源调度方法及装置
Martini et al. Design and evaluation of SDN-based orchestration system for cloud data centers
Vijayalakshmi et al. Investigations on job scheduling algorithms in cloud computing
Jena et al. Performance evaluation of load balancing algorithms on cloud data centers
Meftah et al. Effect of service broker policies and load balancing algorithms on the performance of large scale internet applications in cloud datacenters
Theja et al. An evolutionary computing based energy efficient VM consolidation scheme for optimal resource utilization and QoS assurance
Xu et al. Scheme of resource optimization using vm migration for federated cloud
Chang et al. Scheduling algorithm of load balancing based on dynamic policies
EP3096227A1 (en) Resource allocation method in distributed clouds
Li et al. A simulated annealing combined genetic algorithm for virtual machine migration in cloud datacenters
Lukashin et al. Resource scheduler based on multi-agent model and intelligent control system for OpenStack