KR102612841B1 - 마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법 - Google Patents

마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법 Download PDF

Info

Publication number
KR102612841B1
KR102612841B1 KR1020210155568A KR20210155568A KR102612841B1 KR 102612841 B1 KR102612841 B1 KR 102612841B1 KR 1020210155568 A KR1020210155568 A KR 1020210155568A KR 20210155568 A KR20210155568 A KR 20210155568A KR 102612841 B1 KR102612841 B1 KR 102612841B1
Authority
KR
South Korea
Prior art keywords
server
workload
resource
usage
prediction model
Prior art date
Application number
KR1020210155568A
Other languages
English (en)
Other versions
KR20230069490A (ko
Inventor
안재훈
김영환
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020210155568A priority Critical patent/KR102612841B1/ko
Publication of KR20230069490A publication Critical patent/KR20230069490A/ko
Application granted granted Critical
Publication of KR102612841B1 publication Critical patent/KR102612841B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • G06Q10/06375Prediction of business process outcome or impact based on a proposed change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

마이크로 데이터센터 환경에서 구동 중인 응용 서비스별로 작업 부하를 예측하는 예측 모델을 적용하는 적용 방법 및 장치가 제공된다. 본 발명의 실시예에 따른 작업 부하 예측 모델 적용 방법은, 작업 부하 예측 장치가, 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 단계; 작업 부하 예측 장치가, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키는 단계; 및 작업 부하 예측 장치가, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 단계;를 포함한다. 이에 의해, 마이크로 데이터센터 내 구축된 서버 수량과 운용 서비스의 타입에 따라 자원의 사용률의 패턴을 사전에 적용하여, 작업 부하 예측 모델의 결과에 대한 정확도를 향상시킬 수 있다. 더불어, 시계열 데이터 분석을 통해 미래 시점의 작업 부하(워크로드 상승률)를 예측하고, 자원 재배치를 결정하여, 동적 임계치(서비스 지정) 자원 사용률을 갖는 대상에 대한 타겟팅 작업 부하(워크로드)를 예측함에 따라 모든 서비스를 예측하기 위한 작업에서 발생 되는 부하를 낮추고, 예측 시간을 단축시킬 수 있다.

Description

마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법{Method for applying workload prediction model by operation service in micro data center}
본 발명은 마이크로 데이터센터 환경에서 작업 부하를 예측하는 예측 모델의 적용 방법 및 장치에 관한 것으로, 더욱 상세하게는 마이크로 데이터센터 환경에서 구동 중인 응용 서비스별로 작업 부하를 예측하는 예측 모델을 적용하는 적용 방법 및 장치에 관한 것이다.
마이크로 데이터센터는 엣지 컴퓨팅 환경에서 스토리지, 프로세싱, 네트워킹 등 안전한 컴퓨팅 인프라 환경을 제공하는 통합 랙 솔루션을 말한다.
구체적으로, 마이크로 데이터센터는 데이터센터 인프라에 필수적인 전력, 쿨링, 보안, 원격감시, 인프라 관리 등의 사전 조립 및 테스트가 완료되어, 안전하면 서도 소형화된 데이터센터다.
마이크로 데이터센터는 기존의 데이터센터와 비교했을 때 환경에 대한 제약이 적어 효율적인 비용으로 설치가 가능하며, 현장 작업과 시운전의 복잡성을 최소화할 수 있다. 뿐만 아니라 설치 및 이동이 용이해 어느 곳에 설치하더라도 잠재위험요소 발생 시 빠르게 안전한 곳으로 할 수 있어 데이터의 안전성을 향상시킬 수 있다.
이러한 마이크로 데이터센서는, 소규모(1~10 Racks) 단위인 마이크로데이터 센터 환경에 대해 낮은 가용성과 부족한 리스크 관리 문제점을 내포하고 있다.
이러한 리스크를 관리하기 위해 기존에는 자원 부족 알림 발생 후 후처리로 처리되어 즉시 대응이 어렵다는 단점이 존재한다.
더불어, 가상화 환경에서 마이크로 데이터센터의 자원이 관리되고 있어 가상 자원에 대한 지속적 관리가 필요하다는 단점이 존재한다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 마이크로 데이터센터 내 구축된 서버 수량과 운용 서비스의 타입에 따라 자원의 사용률의 패턴을 사전에 적용하여, 작업 부하 예측 모델의 결과에 대한 정확도를 향상시킬 수 있는 작업 부하 예측 모델 적용 방법 및 장치를 제공함에 있다.
더불어, 본 발명의 다른 목적은, 시계열 데이터 분석을 통해 미래 시점의 작업 부하(워크로드 상승률)를 예측하고, 자원 재배치를 결정하여, 동적 임계치(서비스 지정) 자원 사용률을 갖는 대상에 대한 타겟팅 작업 부하(워크로드)를 예측함에 따라 모든 서비스를 예측하기 위한 작업에서 발생 되는 부하를 낮추고, 예측 시간을 단축시킬 수 있는 작업 부하 예측 모델 적용 방법 및 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 작업 부하 예측 모델 적용 방법은, 작업 부하 예측 장치가, 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 단계; 작업 부하 예측 장치가, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키는 단계; 및 작업 부하 예측 장치가, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 단계;를 포함한다.
그리고 작업 부하 예측 장치는, 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 종류(타입)에 따라 자원 사용률 패턴을 생성하여 작업 부하 예측 모델의 정확도 향상을 위한 하나의 요소로 활용할 수 있다.
또한, 운용 서버는, 메일 서버(Mail Server), 웹 서버(Web Server), 자바 서버(Java Server), 데이터베이스 서버(Database Server) 및 예비 서버(Standby Server) 중 어느 한 종류의 서버이고, 이때, 자원 사용률 패턴은, CPU, 메모리, 디스크 I/O 및 네트워크 중 어느 한 자원을 대상으로 하는 자원 사용률 패턴일 수 있다.
그리고 자원 사용률 패턴은, 자원 사용률의 누적 평균 값에 따라 동적 임계치가 설정될 수 있다.
또한, 동적 임계치는, N이 서버의 CPU 사용률에 따른 상수인 경우, 누적 평균 값*N의 값으로 설정될 수 있다.
그리고 서버의 CPU 사용률에 따른 상수(N) 값은, 운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 큰 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 크게 설정되고, 운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 작은 예비 서버(Standby Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 작게 설정될 수 있다.
또한, 동적 임계치는, 운용 서버가, 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우, 누적 평균 값의 1.3배로 설정되고, 운용 서버가 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 누적 평균 값의 1.4배로 설정되며, 운용 서버가 예비 서버(Standby Server)인 경우, 누적 평균 값의 1.2배로 설정될 수 있다.
그리고 본 발명의 일 실시예에 따른, 작업 부하 예측 모델 적용 방법은, 작업 부하 예측 장치가, 운용 서버별 작업 부하의 예측 결과를 기반으로 작업 부하의 재배치를 결정하는 단계;를 더 포함할 수 있다.
또한, 결정하는 단계는, 작업 부하의 상승 여부에 따라 노드가 지원하는 서비스를 여유 자원이 있는 다른 노드로 이관할 것인지 여부를 결정할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 작업 부하 예측 모델 적용 방법이 수행되는 컴퓨터 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록매체는, 작업 부하 예측 장치가, 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 단계; 작업 부하 예측 장치가, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키는 단계; 및 작업 부하 예측 장치가, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 단계;를 포함하는 작업 부하 예측 모델 적용 방법이 수록된다.
그리고 본 발명의 다른 실시예에 따른, 작업 부하 예측 장치는, 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 통신부; 및 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키며, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 프로세서;를 포함한다.
또한, 본 발명의 다른 실시예에 따른, 작업 부하 예측 모델 적용 방법은, 작업 부하 예측 장치가, 마이크로 데이터센터 내 운용 중인 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 단계; 작업 부하 예측 장치가, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키는 단계; 작업 부하 예측 장치가, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 단계; 및 작업 부하 예측 장치가, 운용 서버별 작업 부하의 예측 결과를 기반으로 작업 부하의 재배치를 결정하는 단계;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 마이크로 데이터센터 내 구축된 서버 수량과 운용 서비스의 타입에 따라 자원의 사용률의 패턴을 사전에 적용하여, 작업 부하 예측 모델의 결과에 대한 정확도를 향상시킬 수 있다.
더불어, 시계열 데이터 분석을 통해 미래 시점의 작업 부하(워크로드 상승률)를 예측하고, 자원 재배치를 결정하여, 동적 임계치(서비스 지정) 자원 사용률을 갖는 대상에 대한 타겟팅 작업 부하(워크로드)를 예측함에 따라 모든 서비스를 예측하기 위한 작업에서 발생 되는 부하를 낮추고, 예측 시간을 단축시킬 수 있다.
도 1은, 본 발명의 일 실시예에 따른 작업 부하 예측 장치의 설명에 제공된 도면,
도 2는, 마이크로 데이터센터의 설명에 제공된 도면,
도 3은, 본 발명의 일 실시예에 따른 작업 부하 예측 장치의 구성 설명에 제공된 도면,
도 4는, 본 발명의 일 실시예에 따른 작업 부하 예측 장치의 동작 특성 설명에 제공된 도면,
도 5 내지 도 7은, 마이크로 데이터센터의 서버 사용 환경에 따라 사용자가 facility와 environment type 선택하는 모습이 예시된 도면,
도 8은, 동적 임계치를 적용하여 작업 부하의 재배치를 결정하는 과정의 설명에 제공된 도면, 그리고
도 9는, 본 발명의 일 실시예에 따른 작업 부하 예측 모델 적용 방법의 설명에 제공된 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은, 본 발명의 일 실시예에 따른 작업 부하 예측 장치(100)의 설명에 제공된 도면이고, 도 2는, 마이크로 데이터센터(10)의 설명에 제공된 도면이다.
본 실시예에 따른 작업 부하 예측 장치(100)는, 클러스터를 구성하는 각 노드(Node)에 대한 가용 자원 현황을 모니터링하여, 워크로드 상승 예측으로 나타나는 노드가 지원하는 서비스를 여유 자원이 있는 다른 노드로 이관할 것인지 결정하고, 이관 결정 시, 작업 부하를 재배치하는 방식으로 마이크로 데이터센터 환경이 갖는 서버 자원을 효율적으로 운용할 수 있다.
나아가 작업 부하 예측 장치(100)는, 마이크로 데이터센터(10) 내 구축된 서버 수량과 운용 서비스의 타입에 따라 자원의 사용률의 패턴을 사전에 적용하고, 시계열 데이터 분석을 통해 미래 시점의 작업 부하(워크로드 상승률)를 예측하고, 자원 재배치를 결정하여, 동적 임계치(서비스 지정) 자원 사용률을 갖는 대상에 대한 타겟팅 작업 부하(워크로드)를 예측할 수 있다. 여기서, 실제 서비스(또는 컨테이너)가 실행되는 서버 단위를 나타내며, 서비스를 생성하고 서비스 상태를 관리하는 역할을 수행하게 된다.
그리고 각 노드 내에는 적어도 하나의 포드(Pod)가 포함된다. 포드는 가장 작은 배포 단위이며, 실제 컨테이너들이 생성되는 곳이다. 포드는 각각에 라벨을 붙여 사용목적(GPU 특화, SSD 서버 등)을 정의할 수도 있다. 포드는 쿠버네티스에서 배포할 수 있는 가장 작은 단위로 한 개 이상의 컨테이너와 스토리지와 네트워크 속성을 가진다. 포드에 속한 적어도 하나의 컨테이너는 스토리지와 네트워크를 공유하고 서로 로컬 호스트(local host)로 접근할 수 있다.
도 3은, 본 발명의 일 실시예에 따른 작업 부하 예측 장치(100)의 구성 설명에 제공된 도면이다.
도 3을 참조하면, 본 실시예에 따른 작업 부하 예측 장치(100)는, 서버 수량과 운용 서비스의 타입에 따라 자원의 사용률의 패턴을 사전에 적용하여, 서버 자원을 효율적으로 운영하기 위해, 수집부(110), 프로세서(120) 및 저장부(130)를 포함할 수 있다.
수집부(110)는, 마이크로 데이터센터(10) 내 복수의 노드 또는 포드들과 연결되어, 마이크로 데이터센터(10) 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집할 수 있다. 이때, 자원 사용량은, 각 자원(CPU, Memory, Disk I/O, Network)의 사용량을 의미한다.
저장부(130)는, 프로세서(120)가 동작함에 있어 필요한 프로그램 및 데이터를 저장하는 저장매체이다. 예를 들면, 저장부(130)는, 수집부(110)를 통해 수집된 데이터를 학습 데이터로 활용하여 학습된 작업 부하 예측 모델이 저장될 수 있다.
프로세서(120)는, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키며, 학습된 작업 부하 예측 모델을 이용하는 시계열 데이터 분석을 통해, 미래 시점에서의 운용 서버별 작업 부하를 예측할 수 있다. 이때, 프로세서(120)는 작업 부하 예측을 위한 딥러닝 알고리즘의 자유로운 모델 변경 구조를 지원할 수 있다.
또한, 프로세서(120)는, 미래 시점에서의 운용 서버별 작업 부하에 대한 예측 결과를 기반으로, 자원 재배치를 결정하여, 동적 임계치(서비스 지정) 자원 사용률을 갖는 대상에 대한 타겟팅 작업 부하(워크로드)를 예측할 수 있다.
도 4는, 본 발명의 일 실시예에 따른 작업 부하 예측 장치(100)의 동작 특성 설명에 제공된 도면이고, 도 5 내지 도 7은, 마이크로 데이터센터(10)의 서버 사용 환경에 따라 사용자가 facility와 environment type 선택하는 모습이 예시된 도면이다.
도 4를 참조하면, 프로세서(120)는, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키며, 학습된 작업 부하 예측 모델을 이용하는 시계열 데이터 분석을 통해, 미래 시점에서의 운용 서버별 작업 부하를 예측하고, 미래 시점에서의 운용 서버별 작업 부하에 대한 예측 결과를 기반으로, 자원 재배치를 결정하여, 동적 임계치 자원 사용률을 갖는 대상에 대한 타겟팅 작업 부하를 예측하기 위해, Collecting Data and Calculating Layer(121)와 Predicating Workload Resource Layer(122)를 포함할 수 있다.
즉, 프로세서(120)는, Collecting Data and Calculating Layer(121)를 이용하여, 각 자원(CPU, Memory, Disk I/O, Network)별 사용량에 따라 전력 사용량을 계산할 수 있다.
이때, 프로세서(120)는, CPU 사용량, Memory 사용량, Network 사용량 및 Disk I/O 사용량을 기반으로, 전력 사용량 계산에 이용되는 리소스별 상수 값을 계산하고, 계산된 리소스별 상수 값을 선형 회귀(linear regression) 기법에 적용하여, 전력 사용량 및 자원별 평균 사용률을 계산할 수 있다.
예를 들면, 프로세서(120)는, Pod(작업 부하)의 전력 사용량을 계산하기 위해, 수집한 노드의 Power와 리소스(CPU, Memory, Network, Disk I/O) 사용량을 기반으로 리소스의 상수 값(α, β, γ, δ, intercept)들을 계산하게 되는 것이다.
프로세서(120)는, Predicating Workload Resource Layer(122)를 이용하여, 작업 부하 예측 모델을 학습시키고, 미래 시점에서의 운용 서버별 작업 부하를 예측할 수 있다.
즉, 프로세서(120)는, 수집부(110)를 통해 수집된 운용 서버의 수량에 대한 데이터와 Collecting Data and Calculating Layer(121)를 통해 계산된 자원별 평균 사용률의 계산 결과를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키고, 학습된 부하 예측 모델을 이용하여 미래의 단일 시점에서의 운용 서버별 작업 부하를 예측할 수 있어, 서비스 군별로 작업 부하 예측 모델을 적용할 수 있으며, 이로 인하여, 사용 자원 재배치 구조를 지원할 수 있다.
또한, 작업 부하 예측 장치(100)는, 마이크로 데이터센터(10) 내 운용 중인 운용 서버의 수량 및 운용 서버의 종류(타입)에 따라 자원 사용률 패턴을 생성하여 작업 부하 예측 모델의 정확도 향상을 위한 하나의 요소로 활용할 수 있다.
여기서, 운용 서버는, 메일 서버(Mail Server), 웹 서버(Web Server), 자바 서버(Java Server), 데이터베이스 서버(Database Server) 및 예비 서버(Standby Server) 중 어느 한 종류의 서버이고, 자원 사용률 패턴은, CPU, 메모리, 디스크 I/O 및 네트워크 중 어느 한 자원을 대상으로 하는 자원 사용률 패턴으로서, 자원 사용률의 누적 평균 값에 따라 동적 임계치가 설정될 수 있다.
즉, 프로세서(120)는, 운용 서버별 작업 부하의 예측 결과를 기반으로 작업 부하의 상승 여부에 따라 노드가 지원하는 서비스를 여유 자원이 있는 다른 노드로 이관할 것인지 여부를 결정하는 방식으로, 작업 부하의 재배치를 결정하되, 자원 사용률의 누적 평균 값에 따라 설정되는 동적 임계치를 적용함으로써, 작업 부하 예측 모델에 대한 타겟 관리가 가능해질 수 있다.
그리고 프로세서(120)는, 사용자의 요청에 따라 마이크로 데이터센터(10)의 서버 사용 환경에서의 마이크로 데이터센터(10) 시설(facility)과 서버 환경(environment type)을 선택할 수 있다.
도 7은, 마이크로 데이터센터(10)의 서버 사용 환경에서 마이크로 데이터센터(10) 시설(facility)과 서버 환경(environment type)이 선택된 모습이 예시된 도면이다.
마이크로 데이터센터(10) 시설(facility)과 서버 환경(environment type)에 대한 데이터는 도 5 내지 도 6에 예시된 바와 같이 개방형 표준 포맷 중 하나인 JSON(JavaScript Object Notation) 형식으로 데이터 펙토리(Data-factory)에 적용될 수 있다.
도 8은, 동적 임계치를 적용하여 작업 부하의 재배치를 결정하는 과정의 설명에 제공하기 위해, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우, 미래 시점들에서의 CPU 사용량이 예시된 도면이다.
프로세서(120)는, N이 서버의 CPU 사용률에 따른 상수인 경우, 동계 임계치가 누적 평균 값N의 값으로 설정되도록 할 수 있다.
이때, 서버의 CPU 사용률에 따른 상수(N) 값은, 운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 큰 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 크게 설정되고, 운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 작은 예비 서버(Standby Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 작게 설정될 수 있다.
예를 들면, 프로세서(120)는, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우, 동계 임계치가 누적 평균 값의 1.3배로 설정되도록 할 수 있다.
또한, 프로세서(120)는, 운용 서버가 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 동계 임계치가 누적 평균 값의 1.4배로 설정되도록 할 수 있으며, 운용 서버가 예비 서버(Standby Server)인 경우, 동계 임계치가 누적 평균 값의 1.2배로 설정되도록 할 수 있다.
도 8을 참조하면, 미래의 시점 중 가장 최근의 미래인 제1 시점에서의 CPU 사용량이 8인 경우, 누적 평균 값이 8(=8/1)이기 때문에, 동적 CPU 임계치는 10.4(=8*1.3)로 계산될 수 있다.
그리고 제1 시점의 다음 시점인 제2 시점에서의 CPU 사용량이 9인 경우, 제1 시점 및 제2 시점에서의 누적 평균 값은 8.5(=(8+9)/2)으로 계산되고, 동계 CPU 임계치는 11.05(8.5*1.3)로 계산될 수 있다.
이때, 제2 지점까지의 누적 평균 값을 이용하여 계산된 동적 CPU 임계치는 11.05이고, 이는 제3 지점에 도달하기 이전에 CPU 사용량이 12에 도달할 것으로 예측되기 때문에, 프로세서(120)는, 제2 지점에서 제3 지점에 도달하기 이전에 작업 부하를 재배치하기로 결정할 수 있다.
즉, 프로세서(120)는, 작업 부하 상승 예측 대상 중 동적 CPU 임계치보다 CPU 사용량 값이 더 높을 경우, 이관(Migration) 요청 대상으로 선정하여 작업 부하를 재배치하기로 결정할 수 있다.
도 9는, 본 발명의 일 실시예에 따른 작업 부하 예측 모델 적용 방법의 설명에 제공된 도면이다.
본 실시예에 따른 작업 부하 예측 모델 적용 방법은, 도 1 내지 도 8을 참조하여 전술한 작업 부하 예측 장치(100)에 의해 실행될 수 있다.
도 9를 참조하면, 본 작업 부하 예측 모델 적용 방법은, 마이크로 데이터센터(10) 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하고(S910), 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키고(S920), 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측할 수 있다(S930).
그리고 작업 부하 예측 모델 적용 방법은, 운용 서버별 작업 부하의 예측 결과를 기반으로 작업 부하의 재배치를 결정함으로써(S940), 마이크로 데이터센터 환경 내 자원 사용 효율성을 향상시킬 수 있다.
또한, 작업 부하 예측 모델 적용 방법은, 서비스별 패턴 데이터 적용을 통해 작업 부하 예측 모델에 패턴 가중치가 반영되고 이에 따라 예측 결과의 정확도를 향상시킬 수 있다.
더불어, 부하가 감지된 대상을 가용 자원을 갖고 있는 서버로 이관할 수 있어, 마이크로 데이터센터(10) 내 가용 자원 후보가 다양해지게 되며 서비스별 지연 속도를 낮출 수 있다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
10 : 마이크로 데이터센터
100 : 작업 부하 예측 장치
110 : 수집부
120 : 프로세서
121 : Collecting Data and Calculating Layer
122 : Predicating Workload Resource Layer
130 : 저장부

Claims (12)

  1. 작업 부하 예측 장치가, 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 단계;
    작업 부하 예측 장치가, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키는 단계; 및
    작업 부하 예측 장치가, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 단계;를 포함하며,
    작업 부하 예측 장치는,
    마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 종류(타입)에 따라 자원 사용률 패턴을 생성하여 작업 부하 예측 모델의 정확도 향상을 위한 하나의 요소로 활용하고,
    운용 서버는,
    메일 서버(Mail Server), 웹 서버(Web Server), 자바 서버(Java Server), 데이터베이스 서버(Database Server) 및 예비 서버(Standby Server) 중 어느 한 종류의 서버이고,
    자원 사용률 패턴은,
    CPU, 메모리, 디스크 I/O 및 네트워크 중 어느 한 자원을 대상으로 하는 자원 사용률 패턴이며,
    자원 사용률 패턴은,
    자원 사용률의 누적 평균 값에 따라 동적 임계치가 설정되고,
    동적 임계치는,
    N이 서버의 CPU 사용률에 따른 상수인 경우, 누적 평균 값N의 값으로 설정되며,
    서버의 CPU 사용률에 따른 상수(N) 값은,
    운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 큰 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 크게 설정되고,
    운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 작은 예비 서버(Standby Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 작게 설정되며,
    동적 임계치는,
    운용 서버가, 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우, 누적 평균 값의 1.3배로 설정되고,
    운용 서버가 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 누적 평균 값의 1.4배로 설정되며,
    운용 서버가 예비 서버(Standby Server)인 경우, 누적 평균 값의 1.2배로 설정되고,
    작업 부하 예측 모델 적용 방법은,
    작업 부하 예측 장치가, 운용 서버별 작업 부하의 예측 결과를 기반으로 작업 부하의 재배치를 결정하는 단계;를 더 포함하고,
    작업 부하 예측 장치는,
    작업 부하의 상승 여부에 따라 노드가 지원하는 서비스를 여유 자원이 있는 다른 노드로 이관할 것인지 여부를 결정하는 방식으로, 작업 부하의 재배치를 결정하되, 자원 사용률의 누적 평균 값에 따라 설정되는 동적 임계치를 적용하고,
    작업 부하 예측 장치는,
    각 자원(CPU, Memory, Disk I/O, Network)별 사용량에 따라 전력 사용량을 계산하며,
    작업 부하 예측 장치는,
    CPU 사용량, Memory 사용량, Network 사용량 및 Disk I/O 사용량을 기반으로, 전력 사용량 계산에 이용되는 리소스별 상수 값을 계산하고, 계산된 리소스별 상수 값을 선형 회귀(linear regression) 기법에 적용하여, 전력 사용량 및 자원별 평균 사용률을 계산하며,
    작업 부하 예측 장치는,
    자원 재배치 구조를 지원하기 위해, 운용 서버의 수량에 대한 데이터와 자원별 평균 사용률의 계산 결과를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키고, 학습된 부하 예측 모델을 이용하여 미래의 단일 시점에서의 운용 서버별 작업 부하를 예측하고, 서비스 군별로 작업 부하 예측 모델을 적용하는 것을 특징으로 하는 작업 부하 예측 모델 적용 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 작업 부하 예측 장치가, 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 단계;
    작업 부하 예측 장치가, 수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키는 단계; 및
    작업 부하 예측 장치가, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 단계;를 포함하며,
    작업 부하 예측 장치는,
    마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 종류(타입)에 따라 자원 사용률 패턴을 생성하여 작업 부하 예측 모델의 정확도 향상을 위한 하나의 요소로 활용하고,
    운용 서버는,
    메일 서버(Mail Server), 웹 서버(Web Server), 자바 서버(Java Server), 데이터베이스 서버(Database Server) 및 예비 서버(Standby Server) 중 어느 한 종류의 서버이고,
    자원 사용률 패턴은,
    CPU, 메모리, 디스크 I/O 및 네트워크 중 어느 한 자원을 대상으로 하는 자원 사용률 패턴이며,
    자원 사용률 패턴은,
    자원 사용률의 누적 평균 값에 따라 동적 임계치가 설정되고,
    동적 임계치는,
    N이 서버의 CPU 사용률에 따른 상수인 경우, 누적 평균 값N의 값으로 설정되며,
    서버의 CPU 사용률에 따른 상수(N) 값은,
    운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 큰 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 크게 설정되고,
    운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 작은 예비 서버(Standby Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 작게 설정되며,
    동적 임계치는,
    운용 서버가, 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우, 누적 평균 값의 1.3배로 설정되고,
    운용 서버가 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 누적 평균 값의 1.4배로 설정되며,
    운용 서버가 예비 서버(Standby Server)인 경우, 누적 평균 값의 1.2배로 설정되고,
    작업 부하 예측 모델 적용 방법은,
    작업 부하 예측 장치가, 운용 서버별 작업 부하의 예측 결과를 기반으로 작업 부하의 재배치를 결정하는 단계;를 더 포함하고,
    작업 부하 예측 장치는,
    작업 부하의 상승 여부에 따라 노드가 지원하는 서비스를 여유 자원이 있는 다른 노드로 이관할 것인지 여부를 결정하는 방식으로, 작업 부하의 재배치를 결정하되, 자원 사용률의 누적 평균 값에 따라 설정되는 동적 임계치를 적용하고,
    작업 부하 예측 장치는,
    각 자원(CPU, Memory, Disk I/O, Network)별 사용량에 따라 전력 사용량을 계산하며,
    작업 부하 예측 장치는,
    CPU 사용량, Memory 사용량, Network 사용량 및 Disk I/O 사용량을 기반으로, 전력 사용량 계산에 이용되는 리소스별 상수 값을 계산하고, 계산된 리소스별 상수 값을 선형 회귀(linear regression) 기법에 적용하여, 전력 사용량 및 자원별 평균 사용률을 계산하며,
    작업 부하 예측 장치는,
    자원 재배치 구조를 지원하기 위해, 운용 서버의 수량에 대한 데이터와 자원별 평균 사용률의 계산 결과를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키고, 학습된 부하 예측 모델을 이용하여 미래의 단일 시점에서의 운용 서버별 작업 부하를 예측하고, 서비스 군별로 작업 부하 예측 모델을 적용하는 것을 특징으로 하는 작업 부하 예측 모델 적용 방법이 수행되는 컴퓨터 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록매체.
  11. 마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 자원 사용량에 대한 데이터를 수집하는 통신부; 및
    수집된 데이터를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키며, 학습된 작업 부하 예측 모델을 이용하여, 미래 시점에서의 운용 서버별 작업 부하를 예측하는 프로세서;를 포함하며,
    프로세서는,
    마이크로 데이터센터 내 운용 중인 운용 서버의 수량 및 운용 서버의 종류(타입)에 따라 자원 사용률 패턴을 생성하여 작업 부하 예측 모델의 정확도 향상을 위한 하나의 요소로 활용하고,
    운용 서버는,
    메일 서버(Mail Server), 웹 서버(Web Server), 자바 서버(Java Server), 데이터베이스 서버(Database Server) 및 예비 서버(Standby Server) 중 어느 한 종류의 서버이고,
    자원 사용률 패턴은,
    CPU, 메모리, 디스크 I/O 및 네트워크 중 어느 한 자원을 대상으로 하는 자원 사용률 패턴이며,
    자원 사용률 패턴은,
    자원 사용률의 누적 평균 값에 따라 동적 임계치가 설정되고,
    동적 임계치는,
    N이 서버의 CPU 사용률에 따른 상수인 경우, 누적 평균 값N의 값으로 설정되며,
    서버의 CPU 사용률에 따른 상수(N) 값은,
    운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 큰 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 크게 설정되고,
    운용 서버가 CPU 사용률의 상승 또는 하강 폭이 다른 종류의 운용 서버보다 상대적으로 작은 예비 서버(Standby Server)인 경우, 운용 서버가 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우의 상수 값보다 상대적으로 작게 설정되며,
    동적 임계치는,
    운용 서버가, 데이터베이스 서버(Database Server) 또는 웹 서버(Web Server)인 경우, 누적 평균 값의 1.3배로 설정되고,
    운용 서버가 메일 서버(Mail Server) 또는 자바 서버(Java Server)인 경우, 누적 평균 값의 1.4배로 설정되며,
    운용 서버가 예비 서버(Standby Server)인 경우, 누적 평균 값의 1.2배로 설정되고,
    프로세서는,
    운용 서버별 작업 부하의 예측 결과를 기반으로 작업 부하의 재배치를 결정하며,
    프로세서는,
    작업 부하의 상승 여부에 따라 노드가 지원하는 서비스를 여유 자원이 있는 다른 노드로 이관할 것인지 여부를 결정하는 방식으로, 작업 부하의 재배치를 결정하되, 자원 사용률의 누적 평균 값에 따라 설정되는 동적 임계치를 적용하고,
    프로세서는,
    각 자원(CPU, Memory, Disk I/O, Network)별 사용량에 따라 전력 사용량을 계산하며,
    프로세서는,
    CPU 사용량, Memory 사용량, Network 사용량 및 Disk I/O 사용량을 기반으로, 전력 사용량 계산에 이용되는 리소스별 상수 값을 계산하고, 계산된 리소스별 상수 값을 선형 회귀(linear regression) 기법에 적용하여, 전력 사용량 및 자원별 평균 사용률을 계산하며,
    프로세서는,
    자원 재배치 구조를 지원하기 위해, 운용 서버의 수량에 대한 데이터와 자원별 평균 사용률의 계산 결과를 학습 데이터로 활용하여 작업 부하 예측 모델을 학습시키고, 학습된 부하 예측 모델을 이용하여 미래의 단일 시점에서의 운용 서버별 작업 부하를 예측하고, 서비스 군별로 작업 부하 예측 모델을 적용하는 것을 특징으로 하는 작업 부하 예측 장치.
  12. 삭제
KR1020210155568A 2021-11-12 2021-11-12 마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법 KR102612841B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210155568A KR102612841B1 (ko) 2021-11-12 2021-11-12 마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210155568A KR102612841B1 (ko) 2021-11-12 2021-11-12 마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법

Publications (2)

Publication Number Publication Date
KR20230069490A KR20230069490A (ko) 2023-05-19
KR102612841B1 true KR102612841B1 (ko) 2023-12-12

Family

ID=86546761

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210155568A KR102612841B1 (ko) 2021-11-12 2021-11-12 마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법

Country Status (1)

Country Link
KR (1) KR102612841B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117421131B (zh) * 2023-12-18 2024-03-26 武汉泽塔云科技股份有限公司 一种监控服务器功耗负载的智能调度方法及系统
CN117573376B (zh) * 2024-01-16 2024-04-05 杭州天舰信息技术股份有限公司 一种数据中心资源调度监控管理方法与系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180024860A1 (en) * 2016-07-22 2018-01-25 Susanne M. Balle Technologies for Assigning Workloads Based on Resource Utilization Phases
JP2019028538A (ja) * 2017-07-26 2019-02-21 日本電信電話株式会社 オートスケール処理装置、オートスケール方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101113943B1 (ko) * 2008-12-22 2012-03-05 한국전자통신연구원 워크로드 관리 방법과 장치 및 이를 이용한 분산 컴퓨팅 시스템
KR20210049551A (ko) * 2019-10-25 2021-05-06 삼성에스디에스 주식회사 컴퓨팅 자원을 유동적으로 할당하는 엣지 컴퓨팅 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180024860A1 (en) * 2016-07-22 2018-01-25 Susanne M. Balle Technologies for Assigning Workloads Based on Resource Utilization Phases
JP2019028538A (ja) * 2017-07-26 2019-02-21 日本電信電話株式会社 オートスケール処理装置、オートスケール方法及びプログラム

Also Published As

Publication number Publication date
KR20230069490A (ko) 2023-05-19

Similar Documents

Publication Publication Date Title
JP5218390B2 (ja) 自律制御サーバ、仮想サーバの制御方法及びプログラム
CN108632330B (zh) 云端资源的管理系统及其管理方法
KR102612841B1 (ko) 마이크로 데이터센터 내 운용 서비스별 작업 부하 예측 모델 적용 방법
US11715025B2 (en) Method for forecasting distributed resource utilization in a virtualization environment
US10248319B2 (en) Storage pool capacity management
US11086683B2 (en) Redistributing workloads across worker nodes based on policy
US9921861B2 (en) Virtual machine management method and information processing apparatus
JP5880575B2 (ja) リソース検索装置及び該プログラム
US9807159B2 (en) Allocation of virtual machines in datacenters
JP5853821B2 (ja) 管理装置、資源管理方法、資源管理プログラム及び情報処理システム
KR101941282B1 (ko) 가상 데스크톱 서비스 제공 방법 및 장치
Shukla et al. A multiphase pre-copy strategy for the virtual machine migration in cloud
JP2020003929A (ja) 運用管理装置、移動先推奨方法及び移動先推奨プログラム
CN108874502B (zh) 云计算集群的资源管理方法、装置及设备
Qazi et al. Workload prediction of virtual machines for harnessing data center resources
JP2020144669A (ja) 情報処理装置、コンテナ配置方法及びコンテナ配置プログラム
CN105022823B (zh) 一种基于数据挖掘的云服务性能预警事件生成方法
Li et al. Research on energy‐saving virtual machine migration algorithm for green data center
Thanh Bui et al. Virtual machines migration game approach for multi‐tier application in infrastructure as a service cloud computing
Surya et al. Prediction of resource contention in cloud using second order Markov model
Zhou et al. Cushion: A proactive resource provisioning method to mitigate SLO violations for containerized microservices
Ismaeel et al. Real-time energy-conserving vm-provisioning framework for cloud-data centers
KR102427473B1 (ko) 마이크로 데이터센터내 가용 자원상태 기반 워크로드 예측 정확도 증가 방법
CN114741160A (zh) 一种基于平衡能耗与服务质量的动态虚拟机整合方法和系统
US20220147380A1 (en) Optimizing Hybrid Cloud Usage

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant