KR20160032881A - 클라우드 기반의 지능형 전력제어 시스템 - Google Patents

클라우드 기반의 지능형 전력제어 시스템 Download PDF

Info

Publication number
KR20160032881A
KR20160032881A KR1020140123565A KR20140123565A KR20160032881A KR 20160032881 A KR20160032881 A KR 20160032881A KR 1020140123565 A KR1020140123565 A KR 1020140123565A KR 20140123565 A KR20140123565 A KR 20140123565A KR 20160032881 A KR20160032881 A KR 20160032881A
Authority
KR
South Korea
Prior art keywords
server
physical
utilization rate
cluster
physical servers
Prior art date
Application number
KR1020140123565A
Other languages
English (en)
Other versions
KR101608859B1 (ko
Inventor
장덕원
남상훈
이대준
조나영
최형석
Original Assignee
(주)엔키아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔키아 filed Critical (주)엔키아
Priority to KR1020140123565A priority Critical patent/KR101608859B1/ko
Publication of KR20160032881A publication Critical patent/KR20160032881A/ko
Application granted granted Critical
Publication of KR101608859B1 publication Critical patent/KR101608859B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/28Supervision thereof, e.g. detecting power-supply failure by out of limits supervision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45591Monitoring or debugging support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5022Workload threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Sources (AREA)

Abstract

본 발명에 따른 클라우드 기반의 지능형 전력제어 시스템은, 다수의 물리서버(PM)와, 상기 각 물리서버 상에 소프트웨어적으로 구현되는 다수의 가상서버(VM)와, 소정 시간 주기로, 상기 각 물리서버의 자원사용률을 체크하고 저장하는 클러스터 수집 관리부와, 상기 클러스터 수집 관리부의 저장 정보를 참조하여, 클러스터를 구성하는 물리서버(PM)들간 자원사용률의 평균치를 검출하는 클러스터 통계 관리부와, 상기 자원사용률의 평균치가 하한 임계치 이하인 경우 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하여, 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 클러스터 제어 관리부를 포함하여 구성된다.
본 발명은 자원 풀(pool)내 물리서버들의 리소스(자원) 사용률을 주기적으로 체크하여 실제 검출되는 평균 자원사용률이 현저히 낮은 경우 잉여 물리서버를 전원 오프(power-off)시키고, 자원 풀(pool)내 평균 자원사용률이 상한 임계치를 넘어 증가하는 경우 전원 오프(power-off)된 물리서버를 온(power-on)시킴으로 풀(pool)내의 자원을 보다 효율적으로 사용하며 물리서버 운용에 소비되는 전력비용이 감소되도록 하였다. 본 발명에 따른 클라우드 기반의 지능형 전력제어 시스템은 전력제어를 위한 시스템 구조와 구현 알고리즘을 단순화하여, 다양한 사양의 하이퍼바이저를 통합/관리하는 시스템에 용이하게 적용(탑재)될 수 있다.

Description

클라우드 기반의 지능형 전력제어 시스템{CLOUD BASED INTELLIGENT POWER CONTROL SYSTEM}
본 발명은 전력제어 시스템에 관한 것으로 보다 상세하게는 클라우드 기반의 지능형 전력제어 시스템에 관한 것이다.
컴퓨터 네트워크의 기술 발전에 따라, 각 단말의 독립적인 하드웨어 성능에 의존하던 기존의 컴퓨팅 환경은, 네트워크 상의 모든 컴퓨팅 자원을 활용하여 단말의 요청에 따라 해당 서비스를 제공하는 클라우드 컴퓨팅(Cloud Computing) 형태로 진화하고 있다.
클라우드 서비스란, 인터넷과 같은 정보통신망을 통한 '컴퓨팅 자원의 온 디맨드 아웃소싱 서비스'라고 정의할 수 있다. 클라우드 환경에서, 서비스 제공자는 여러 곳에 분산되어 있는 데이터 센터(클라우드 센터)들을 가상화 기술로 통합하여 사용자들이 필요로 하는 서비스를 제공하게 된다. 사용자(클라이언트)는 어플리케이션(Application), 스토리지(Storage), 가상의 컴퓨터 서버(이하, '가상 머신(VM, Virtual Machine)'이라 함), 보안(Security)등의 필요한 IT자원을 각각의 사용자 단말에 설치하여 사용하는 것이 아니라, 가상공간 상의 서비스를 원하는 시점에 원하는 만큼 골라서 사용하게 된다.
이러한, 클라우드 서비스 시스템은 서비스를 제공하는 복수의 클라우드 센터들로 구성된 클라우드 센터 망을 구축하고, 각 클라우드 센터에서 컴퓨팅 자원을 가상화하여 사용자에게 제공해야 하므로, 재난이 발생하거나 일시적으로 수요(자원 사용량)가 급증/급감하는 경우에 각 클라우드 센터의 컴퓨팅 자원 즉 가상머신(Virtual Machine)을 실시간으로 생성/이동/삭제하는 기술이 중요하다.
클라우드 센터를 비롯한, 오늘날의 데이터센터 관리자들은 제한된 예산을 가지고 더욱 경쟁적인 마켓의 사업 수요에 맞추기 위해 안간힘을 쓰고 있다. 운용비용(OPEX)을 줄이는 방법들 중에도 데이터센터의 운용비용을 가장 많이 차지하면서도 가장 큰 비중을 차지하는 부분들 중 하나는 서버와 냉각기에 의해 소비되는 전력비용이다.
클라우드와 가상화 서비스를 제공하는 기업들은 수 많은 가상화 서버 사용자들에게 원할한 서비스를 제공하는데 중점을 두어 서비스 이용이 가장 많은 시간대(예: 업무시간 등)의 자원 사용량을 측정하여 이에 부합하는 량의 자원을 제공하고 있다. 그러나 업무시간이 지나면 이러한 시간대에 맞춰 제공된 자원들은 과잉할당으로 불필요한 전력을 소모하여 데이터 센터의 운용비용을 가중시키는 문제점을 가지고 있었다.
본 발명의 목적은, 자원 풀(pool)별 물리서버의 평균 자원사용량을 검출하여 잉여 물리서버의 전원을 내리고(power-off), 자원사용의 요구량이 늘어나면 전원 오프(power-off)된 물리서버를 다시 전원 온(power-on)시켜 자원 풀(pool) 내 물리서버의 전원을 자동으로 제어하는 클라우드 기반의 지능형 전력제어 시스템을 제공하는데 있다.
본 발명의 부가적인 특성 및 이점들은 아래의 설명에 기재될 것이며, 부분적으로는 상기 설명에 의해 명백해지거나 본 발명의 실행을 통해 숙지될 것이다. 본 발명의 목표 및 다른 이점들은 특히 아래 기재된 설명 및 부가된 도면뿐만 아니라 청구항에서 지적한 구조에 의해 구현될 것이다.
본 발명은 자원 풀(pool)내 물리서버들의 리소스(자원) 사용률을 주기적으로 체크하여 실제 검출되는 평균 자원사용률이 현저히 낮은 경우 잉여 물리서버를 전원 오프(power-off)시키고, 자원 풀(pool)내 평균 자원사용률이 상한 임계치를 넘어 증가하는 경우 전원 오프(power-off)된 물리서버를 온(power-on)시킴으로 풀(pool)내의 자원을 보다 효율적으로 사용하며 물리서버 운용에 소비되는 전력비용이 감소되도록 하였다.
도1은 본 발명에 따른 클라우드 기반의 지능형 전력제어 시스템에 관한 구성을 예시한 도면.
도2a 내지 도2c는 본 발명에 따른 클라우드 기반의 지능형 전력제어 방법에 관한 흐름도.
상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 클라우드 기반의 지능형 전력제어 시스템은,
다수의 물리서버(PM)와, 상기 각 물리서버 상에 소프트웨어적으로 구현되는 다수의 가상서버(VM)와, 소정 시간 주기로, 상기 각 물리서버의 자원사용률을 체크하고 저장하는 클러스터 수집 관리부와, 상기 클러스터 수집 관리부의 저장 정보를 참조하여, 클러스터를 구성하는 물리서버(PM)들간 자원사용률의 평균치를 검출하는 클러스터 통계 관리부와, 상기 자원사용률의 평균치가 하한 임계치 이하인 경우 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하여, 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 클러스터 제어 관리부를 포함하여 구성되며, 상기 클러스터 제어 관리부(120)는 상기 자원사용률의 평균치가 하한 임계치 이하인 경우 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하고, 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택한다.
상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 클라우드 기반의 지능형 전력제어 방법은,
클러스터 수집 관리부가 소정 시간 주기로, 각 물리서버의 자원 사용률을 체크하고 저장하는 과정과, 클러스터 통계 관리부가 상기 클러스터 수집 관리부의 저장 정보를 참조하여, 클러스터를 구성하는 물리서버(PM)들의 평균적인 자원 사용률을 검출하는 과정과, 상기 평균적인 자원 사용률이 CPU사용률이고, CPU사용률이 상한 임계치 이상인 경우 클러스터 제어 관리부가 파워오프(power-off)상태의 물리서버들 중 보유자원이 최대인 서버를 선택하는 과정과, 클러스터 제어 관리부가 상기 선택된 서버의 전원을 켜고 나머지 다른 물리서버에서 실행 중인 가상서버들 중 일부를 선택적으로 상기 선택된 서버로 이동시키는 과정과, 상기 평균 CPU사용률이 상한 임계치 미만인 경우 클러스터 제어 관리부가 물리서버의 전원오프(power-off)를 위한 자원사용률 체크시간이 도래했는지 여부를 확인하는 과정과, 상기 자원사용률 체크시간이 도래한 경우, 클러스터 제어 관리부가 상기 CPU 사용률이 하한 임계치 이하인지 여부를 확인하는 과정과, 상기 CPU 사용률이 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하는 과정과, 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되고 상기 평균적인 자원 사용률이 메모리 사용률을 추가로 포함하는 경우, 클러스터 제어 관리부는 상기 메모리 사용률이 하한 임계치 이하인지 여부를 확인하는 과정과, 상기 메모리 사용률이 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하는 과정과, 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하는 과정과, 상기 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 과정을 포함하여 이루어진다.
바람직하게, 상기 클라우드 기반의 지능형 전력제어 방법은,
상기 평균적인 자원 사용률이 메모리 사용률이고, 메모리 사용률이 상한 임계치 미만인 경우, 클러스터 제어 관리부가 물리서버의 전원오프(power-off)를 위한 자원사용률 체크시간이 도래했는지 여부를 확인하는 과정과, 상기 자원사용률 체크시간이 도래한 경우, 클러스터 제어 관리부(120)가 상기 메모리 사용률이 하한 임계치 이하인지 여부를 확인하는 과정과, 상기 메모리 사용률이 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하는 과정과, 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하는 과정과, 상기 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 과정을 포함하여 이루어지는 것을 특징으로 한다.
본 발명의 착안점은, 자원 풀(pool)별 물리서버의 자원사용량에 따라 잉여 물리서버로 판단되면 해당 물리서버의 전원을 내리고(power-off) 자원사용의 요구량이 늘어나면 전원 오프(power-off)된 물리서버를 다시 전원 온(power-on)시켜 클라우드 서비스를 정상적으로 원활하게 이용할 수 있는 범위 내에서 물리서버의 전원을 자동으로 제어하는 클라우드 기반의 지능형 전력제어 시스템을 구현하는데 있다.
이하, 본 발명의 바람직한 실시 예를 도면을 참조하여 설명하면 다음과 같다.
도1은 본 발명에 따른 클라우드 기반의 지능형 전력제어 시스템에 관한 구성을 예시한 도면으로서, 물리서버(PM)들 중 자원 사용률이 최소인 서버(PM)를 전원오프(power-off)시키는 실시예를 나타내고 있다.
도1에 도시된 바와 같이, 본 발명에 따른 클라우드 서비스의 전력제어 시스템(100)은 다수의 물리서버(PM), 다수의 가상서버(VM), 클라우드 제어센터(110), 클러스터 제어 관리부(120), 클러스터 통계 관리부(130), 클러스터 수집 관리부(140)를 포함하여 구성된다.
상기 다수의 물리서버(PM)는 CPU(Central Process Unit), 메모리, 스토리지(Storage) 등과 같은 컴퓨팅 구성요소들로 이루어진 하드웨어 자원의 서버이다.
상기 다수의 가상서버(VM)는 상기 각 물리서버(PM) 상에 소프트웨어 적으로 구현되어 독립적으로 혹은 상호작용하며 동작하는 서버이다.
상기 클러스터 수집 관리부(140)는 자원여유율 또는 자원사용률을 체크하고 모니터링하는 구성요소로서, 소정 시간(예: 10분, 40분) 주기로 체크하고 저장한다.
상기 자원여유율은 각 물리서버(PM)의 CPU(Central Process Unit) 여유율, 자원(CPU)풀 여유율, 물리서버 MEM 여유율, 자원(MEM)풀 여유율 등을 의미하고, 상기 자원사용률은 자원(CPU)풀 사용률과 자원(MEM)풀 사용률 등을 의미한다. 상기 CPU 사용률 체크는 동작 중인의 물리서버들만을 대상으로 이루어진다.
상기 자원여유율과 자원사용률은 다음과 같은 수식으로 구할 수 있다.
[수학식 1]
물리서버 CPU 여유율=(100 X Core수) - (사용률 X Core수)
[수학식 2]
자원(CPU)풀 여유율=(자원(CPU)풀 내 모든 물리서버 CPU 여유율 총합) /
(자원(CPU)풀 내 모든 물리서버 총 Core 수)
[수학식 3]
자원(CPU)풀 사용률=100 - 자원(CPU)풀 여유율
[수학식 4]
물리서버 MEM 여유율=(100 X MB량) - (사용률 X MB량)
[수학식 5]
자원(MEM)풀 여유율=(자원(MEM)풀 내 모든 물리서버 MEM 여유율 총합) /
(자원(MEM)풀 내 모든 물리서버 총 MB량)
[수학식 6]
자원(MEM)풀 사용률=100 - 자원(MEM)풀 여유율
상기 클러스터 통계 관리부(130)는 소정 시간(예: 10분, 40분) 주기로 체크&저장된 상기 클러스터 수집 관리부(140)의 저장 정보를 참조하여, 해당 클러스터를 구성하는 전체 물리서버(PM)의 평균 CPU(Central Process Unit) 사용률과 평균 메모리 사용률을 검출한다. 이렇게 검출된 정보들은 10분 통계, 전일 통계, 동일 요일통계 등의 자료로서 관리된다.
클러스터 제어 관리부(120)는 상기 클러스터 통계 관리부(130)의 저장 정보를 참조하여, 최근 1시간내의 10분통계와 전일 동시간대의 10분통계를 상관분석한다. 그리고, 상기 상관분석한 계수값이 기준 계수값(예: 0.7)이상인 경우, 전일 동시간에서 1시간 경과된 시점의 10분통계에 따른 자원 사용률이 하한 임계치 이하인지 여부를 확인한다. 만일, 상기 자원 사용률이 하한 임계치 이하인 경우, 클러스터 제어 관리부(120)는 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명한다.
상기 클러스터 제어 관리부(120)는 클라우드 시스템을 구성하는 상기 각 물리서버(PM)의 전력을 관리하고 제어하는 구성요소로서, 상기 자원사용률(예: CPU(Central Process Unit) 사용률 or 메모리 사용률)의 평균치가 하한 임계치 이하인 경우 자원 사용률이 최소인 물리서버(PM)를 전원 오프(power-off)시키고, 만일 상기 자원사용률의 평균치가 상한 임계치 이상인 경우 꺼져있는 물리서버(PM)들 중 보유자원이 최대인 물리서버를 전원 온(power-on)시켜 해당 클러스터 내의 전력을 관리한다.
상기 클러스터 수집 관리부(140)는 사실상, 일정한 주기(예: 10분 간격)로 각 물리서버(PM)의 자원사용률(예: CPU(Central Process Unit) 사용률, 메모리 사용률 등)을 체크하고 저장한다.
클러스터 제어 관리부(120)는 관리의 목적에 따라 각기 다른 시간 간격으로 상기 저장된 정보를 모니터한다. 예를 들어, 자원사용률의 오버로드는 시스템에 치명적일 수 있는 문제이므로, 클러스터 제어 관리부(120)는 상대적으로 빈번한 시간 간격(예: 10분 간격)으로 물리서버(PM)의 평균 자원사용률이 상한 임계치(예: 80%)에 근접하거나 넘기는지 여부를 모니터한다. 반면, 클러스터 내 물리서버(PM)들의 자원 사용률이 낮은 경우(예: 하한 임계치 30%이하) 혹은 물리서버의 불필요한 전력낭비를 막고자 하는 경우, 비교적 시간 텀을 길게(예: 40분 간격)하여 물리서버(PM)의 평균 자원사용률을 모니터한다.
상기 클라우드 제어센터(110)는 클라우드 시스템을 구성하는 다수의 클러스터(자원 풀(pool))와, 각 클러스터를 관리하는 상기 클러스터 제어 관리부(120), 클러스터 통계 관리부(130), 클러스터 수집 관리부(140)를 제어한다.
도2a 내지 도2c는 본 발명에 따른 클라우드 서비스의 전력제어 방법에 관한 흐름도이다.
도2a 내지 도2c를 참조하여, 본 발명에 따른 클라우드 서비스의 전력제어 방법을 보다 상세히 설명하면 다음과 같다.
본 발명에 따른 클러스터 수집 관리부(140)는 일정 시간주기(예: 10분)로, 클러스터 내 물리서버(PM)들의 CPU(Central Process Unit)사용률과 메모리 사용률을 체크하고 메모리에 저장한다.
그리고, 상기 클러스터 통계 관리부(130)는 상기 클러스터 수집 관리부(140)의 저장정보를 참조하여, 해당 클러스터를 구성하는 전체 물리서버 (PM)의 평균 CPU(Central Process Unit) 사용률과 평균 메모리 사용률을 검출하고, 10분 통계, 전일 통계, 동일 요일통계 등의 통계정보를 구성하여 관리한다.
한편, 본 발명에 따른 클러스터 제어 관리부(120)는 관리의 목적에 따라 각기 다른 시간 간격(예: 10분, 40분 등)으로 상기 검출 정보를 모니터한다. 상기 검출 정보는 CPU 사용률과 메모리 사용률 중 적어도 어느 하나를 포함한다.
클러스터 제어 관리부(120)는 일단, 매 단위주기(예: 10분)로, 상기 검출 정보(예: CPU 사용률 or 메모리 사용률)를 모니터링(S110a, S110b)하고, 상기 검출 정보(예: CPU 사용률 or 메모리 사용률)를 상한 임계치와 비교한다. (S120a, S120b)
그리고, 만일 상기 검출정보(예: CPU 사용률 or 메모리 사용률)가 상한 임계치 이상인 경우 클러스터 내 파워오프(power-off)상태의 물리서버(예: PM1)들 중 보유자원이 최대인 서버를 하나 선택한다. (S210)
그리고, 상기 선택된 서버(PM1)의 전원을 켜고 나머지 다른 물리서버(예: PM2, PM3)에서 실행 중인 가상 서버들 중 일부(예: VM1, VM2)를 선택적으로 상기 선택된 서버(PM1)로 이동시킨다. (S220 ~ S230) 상기 가상 서버들(예: VM1, VM2)은 'VM이동관리(Live Migration)'방식을 이용하여, 상기 서버(PM1)로 이동될 수 있다.
만일, 상기 비교과정(S120a, S120b)에서, 상기 검출정보(예: CPU 사용률 or 메모리 사용률)가 상한 임계치 미만인 경우 클러스터 제어 관리부(120)는 "물리서버의 전원오프(power-off)를 위한 자원사용률 체크시간(예: 매 1시간 주기)"이 도래했는지 여부를 확인한다. (S130a, S130b)
그리고, 상기 자원사용률 체크시간이 도래한 경우, 상기 클러스터 제어 관리부(120)는 상기 검출정보(예: CPU 사용률 or 메모리 사용률)가 하한 임계치 이하인지 여부를 확인한다. (S140a, S140b) 상기 검출정보(예: CPU 사용률 or 메모리 사용률)가 만일, 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크한다. (S150a, S150b)
클러스터 제어 관리부(120)는 상기 클러스터 통계 관리부(130)의 저장 정보를 참조하여, 최근 1시간 내의 10분통계와 전일 동시간대의 10분통계를 상관분석하고, 상관분석한 계수를 기준 계수값(예: 0.7)과 비교한다. (S152a, S152b)
그리고, 상기 상관분석한 계수가 기준 계수값(예: 0.7)이상인 경우, 전일 동시간에서 1시간 경과된 시점의 10분통계에 따른 자원 사용률(예: CPU 사용률 or 메모리 사용률)이 하한 임계치 이하인지 여부를 확인한다. (S156a, S156b) 만일, 상기 자원 사용률이 하한 임계치 이하인 경우, 클러스터 제어 관리부(120)는 상기 자원 사용률이 하한 임계치와 같거나 그 보다 낮은 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판단하여, 도2c에 도시된 바와 같이, 상기 물리서버의 전원 오프(power-off) 절차(S170~S190)를 수행한다.
상기 자원 사용률이 하한 임계치와 같거나 그 보다 낮은 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 클러스터 제어 관리부(120)는 우선, 상기 동작중인 물리서버들(예: PM1, PM2, PM3) 중 자원(예: CPU) 사용률이 최소인 서버(예: PM1)를 선택한다. (S170)
그리고, 상기 선택된 서버(예: PM1)에서 실행 중인 가상 서버들(예: VM1, VM2)을 나머지 다른 물리서버(예: PM2, PM3)로 이동시키고(S180) 선택된 서버(예: PM1)의 전원을 오프(power-off)시킨다. (S190)
상기 절차(S180)에서, 클러스터 제어 관리부(120)는 자원(예: CPU) 사용률이 높은 가상서버부터 차례로 다른 물리서버로 이동시킨다.
또한, 상기 절차(S190)에서, 클러스터 제어 관리부(120)는 가상화 솔루션(vCenter, RHEV-M, 등)을 통해 정상적으로 전원오프(power-off)명령 실행이 가능한 경우, 우선 유지보수 모드로 전환한 후, 다운(Down) 명령(예: 전원오프 명령)을 실행한다. 만일, 정상적 전원오프 명령 실행이 어려워 지능형 플랫폼관리 인터페이스(Intelligent Platform Management Interface, IPMI) 제어로 전원을 오프(power-off)시켜야 하는 경우, 클러스터 제어 관리부(120)는 상기 선택된 서버(예: PM1)에 시큐어 셀(Secure Shell, SSH)접속 후 다운(Down) 명령(예: 전원오프 명령)을 실행한다. 이때, 만일 SSH접속이 되지 않을 경우 지능형 플랫폼관리 인터페이스(IPMI)를 통한 강제 종료는 수행하지 않는 것이 바람직하다.
CPU사용률을 대상으로 전력관리를 수행하는 절차(S110a~ S150a)의 경우, 클러스터 제어 관리부(120)는 도2a에 도시된 바와 같이 상기 절차(S150a)에서, 상기 자원 사용률이 하한 임계치와 같거나 그 보다 낮은 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 상기 모니터링 절차(S110a)의 검출 정보에 CPU 사용률 외에 메모리 사용률에 관한 정보를 추가로 포함하는지 여부를 체크하고(S160), 만일 메모리 사용률에 관한 정보를 추가로 포함하는 경우, 상기 메모리 사용률이 하한 임계치 이하인지 여부를 확인하는 절차를 추가로 진행한다. (S140b)
그리고, 상기 메모리 사용률이 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크한다. (S150b) 상기 상관분석을 이용하여 체크하는 과정은 위에서 이미 상술한 바와 같다.
클러스터 제어 관리부(120)는 상기 메모리 사용률이 하한 임계치와 같거나 그 보다 낮은 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판정되면, 도2c에 도시된 바와 같이, 상기 물리서버의 전원 오프(power-off) 절차(S170 ~ S190)를 수행한다.
클러스터 제어 관리부(120)는 이상의 물리서버(PM)의 전원 온(on)/오프 (off) 절차(예: S210~S230 or S170~S190)가 수행되면, 그 수행이력을 메모리에 저장하고, 관리자(운영자)측에 제공한다.
또한, 클러스터 제어 관리부(120)는 일단, 상기 물리서버 전원 온(on)/오프 (off) 절차(예: S210~S230 or S170~S190가 수행되면, 소정 시간(예: 1시간 등)의 쿨다운(Coll-down) 타임이 경과된 후, 본 발명에 따른 전력관리 절차(S110~ S230)를 재개한다.
본 발명은 도면에 도시된 실시 예(들)를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형이 이루어질 수 있으며, 상기 설명된 실시예(들)의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
이상, 기술된 바와 같이, 본 발명은 자원 풀(pool)내 물리서버들의 리소스(자원) 사용률을 주기적으로 체크하여 실제 검출되는 평균 자원사용률이 현저히 낮은 경우 잉여 물리서버를 전원 오프(power-off)시키고, 자원 풀(pool)내 평균 자원사용률이 상한 임계치를 넘어 증가하는 경우 전원 오프(power-off)된 물리서버를 온(power-on)시킴으로 풀(pool)내의 자원을 보다 효율적으로 사용하며 물리서버 운용에 소비되는 전력비용이 감소되도록 하였다.
또한, 자원 풀(pool)내의 잉여 물리서버 및 물리서버 필요시점을 정확히 판단하고 그에 따른 전력관리를 실행하며, 서버 작동시간의 최소화를 통한 그린(Green) IT 실행 및 비용 절감에 큰 성과를 거둘 수 있는 클라우드 기반 전력관리 시스템을 제시하였다.
본 발명에 따른 클라우드 기반의 지능형 전력제어 시스템은 전력제어를 위한 시스템 구조와 구현 알고리즘을 단순화하여, 다양한 사양의 하이퍼바이저를 통합/관리하는 시스템에 용이하게 적용(탑재)될 수 있다.
100 : 클라우드 기반의 지능형 전력제어 시스템
110 : 클라우드 제어센터
120 : 클러스터 제어 관리부 130 : 클러스터 통계 관리부
140 : 클러스터 수집 관리부 200 : 클러스터

Claims (12)

  1. 다수의 물리서버(PM)와,
    상기 각 물리서버 상에 소프트웨어적으로 구현되는 다수의 가상서버 (VM)와,
    소정 시간 주기로, 상기 각 물리서버의 자원사용률을 체크하고 저장하는 클러스터 수집 관리부(140)와,
    상기 클러스터 수집 관리부(140)의 저장 정보를 참조하여, 클러스터를 구성하는 물리서버(PM)들간 자원사용률의 평균치를 검출하는 클러스터 통계 관리부(130)와,
    상기 자원사용률의 평균치가 하한 임계치 이하인 경우 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하여, 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 클러스터 제어 관리부(120)를 포함하여 구성되며,
    상기 클러스터 제어 관리부(120)는 상기 자원사용률의 평균치가 하한 임계치 이하인 경우 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하고, 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  2. 제1항에 있어서, 상기 클러스터 제어 관리부(120)는
    상기 자원사용률의 평균치가 상한 임계치 이상인 경우 상기 파워오프 (power-off)상태의 물리서버들 중 보유자원이 최대인 서버를 선택하여, 선택된 서버의 전원을 켜고 나머지 다른 물리서버에서 실행 중인 가상 서버들 중 일부를 선택적으로 상기 선택된 서버로 이동시키는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  3. 제1항에 있어서, 상기 클러스터 제어 관리부(120)는
    최근 1시간내의 10분통계와 전일 동시간대의 10분통계를 상관분석하고,
    상기 상관분석한 계수가 기준 계수값 이상인 경우, 전일 동시간에서 1시간 경과된 시점의 10분통계에 따른 자원 사용률이 하한 임계치 이하인지 여부를 확인하고,
    상기 자원 사용률이 하한 임계치 이하인 경우, 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명하는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  4. 제1항에 있어서, 상기 자원사용률은
    CPU(Central Process Unit)사용률과 메모리 사용률 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  5. 제4항에 있어서, 상기 클러스터 제어 관리부(120)는
    상기 CPU 사용률과 메모리 사용률 중 어느 하나가 상기 상한 임계치 이상일 때, 상기 파워오프 (power-off)상태의 물리서버들 중 보유자원이 최대인 서버를 선택하여, 선택된 서버의 전원을 켜고 나머지 다른 물리서버에서 실행 중인 가상 서버들 중 일부를 선택적으로 상기 선택된 서버로 이동시키는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  6. 제4항에 있어서, 상기 클러스터 제어 관리부(120)는
    상기 CPU 사용률과 메모리 사용률이 모두 상기 하한 임계치 이하일 때, 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하여, 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  7. 제1항에 있어서, 상기 클러스터 제어 관리부(120)는
    상기 선택된 물리서버의 전원 오프(power-off) 시, 가상화 솔루션(vCenter, RHEV-M, 등)을 통해 정상적으로 전원오프(power-off)명령 실행이 가능한 경우, 우선 유지보수 모드로 전환한 후, 전원 오프를 수행하는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  8. 제7항에 있어서, 상기 클러스터 제어 관리부(120)는
    만일, 정상적 전원오프 명령 실행이 어려워 지능형 플랫폼관리 인터페이스(Intelligent Platform Management Interface, IPMI) 제어로 전원을 오프(power-off)시켜야 하는 경우, 상기 선택된 물리서버에 시큐어 셀(Secure Shell, SSH)접속 후 전원 오프를 수행하는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 시스템.
  9. 클러스터 수집 관리부(140)가 소정 시간 주기로, 각 물리서버의 자원 사용률을 체크하고 저장하는 과정과,
    클러스터 통계 관리부(130)가 상기 클러스터 수집 관리부(140)의 저장 정보를 참조하여, 클러스터를 구성하는 물리서버(PM)들의 평균적인 자원 사용률을 검출하는 과정과,
    상기 평균적인 자원 사용률이 CPU사용률이고, CPU사용률이 상한 임계치 이상인 경우 클러스터 제어 관리부(120)가 파워오프(power-off)상태의 물리서버들 중 보유자원이 최대인 서버를 선택하는 과정과,
    클러스터 제어 관리부(120)가 상기 선택된 서버의 전원을 켜고 나머지 다른 물리서버에서 실행 중인 가상서버들 중 일부를 선택적으로 상기 선택된 서버로 이동시키는 과정과,
    상기 평균 CPU사용률이 상한 임계치 미만인 경우 클러스터 제어 관리부(120)가 물리서버의 전원오프(power-off)를 위한 자원사용률 체크시간이 도래했는지 여부를 확인하는 과정과,
    상기 자원사용률 체크시간이 도래한 경우, 클러스터 제어 관리부(120)가 상기 CPU 사용률이 하한 임계치 이하인지 여부를 확인하는 과정과,
    상기 CPU 사용률이 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하는 과정과,
    상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되고 상기 평균적인 자원 사용률이 메모리 사용률을 추가로 포함하는 경우, 클러스터 제어 관리부(120)는 상기 메모리 사용률이 하한 임계치 이하인지 여부를 확인하는 과정과,
    상기 메모리 사용률이 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하는 과정과,
    상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하는 과정과,
    상기 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 과정을 포함하여 이루어지는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 방법.
  10. 제9항에 있어서, 상기 상관분석을 이용한 체크과정은
    최근 1시간내의 10분통계와 전일 동시간대의 10분통계를 상관분석하는 과정과,
    상기 상관분석한 계수가 기준 계수값 이상인 경우, 전일 동시간에서 1시간 경과된 시점의 10분통계에 따른 자원(CPU 또는 메모리)풀 사용률이 하한 임계치 이하인지 여부를 확인하는 과정과,
    상기 자원(CPU 또는 메모리)풀 사용률이 하한 임계치 이하인 경우, 클러스터 제어 관리부(120)는 상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명하는 과정으로 이루어지는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 방법.
  11. 제9항에 있어서,
    상기 평균적인 자원 사용률이 메모리 사용률이고, 메모리 사용률이 상한 임계치 미만인 경우, 클러스터 제어 관리부(120)가 물리서버의 전원오프(power-off)를 위한 자원사용률 체크시간이 도래했는지 여부를 확인하는 과정과,
    상기 자원사용률 체크시간이 도래한 경우, 클러스터 제어 관리부(120)가 상기 메모리 사용률이 하한 임계치 이하인지 여부를 확인하는 과정과,
    상기 메모리 사용률이 하한 임계치 이하인 경우, 그 원인이 물리서버의 일시적인 성능에 의한 것인지 여부를 상관분석을 이용하여 체크하는 과정과,
    상기 원인이 물리서버의 일시적 성능에 의한 것이 아닌 것으로 판명되면, 상기 물리서버들 중 자원 사용률이 최소인 서버를 선택하는 과정과,
    상기 선택된 서버에서 실행 중인 가상 서버들을 나머지 다른 물리서버로 이동시키고 선택된 서버의 전원을 오프(power-off)시키는 과정을 포함하여 이루어지는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 방법.
  12. 제11항에 있어서,
    상기 메모리 사용률이 상한 임계치 이상인 경우 클러스터 제어 관리부(120)가 파워오프(power-off)상태의 물리서버들 중 보유자원이 최대인 서버를 선택하는 과정과,
    상기 선택된 서버의 전원을 켜고 나머지 다른 물리서버에서 실행 중인 가상서버들 중 일부를 선택적으로 상기 선택된 서버로 이동시키는 과정을 더 포함하여 이루어지는 것을 특징으로 하는 클라우드 기반의 지능형 전력제어 방법.
KR1020140123565A 2014-09-17 2014-09-17 클라우드 기반의 지능형 전력제어 시스템 KR101608859B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140123565A KR101608859B1 (ko) 2014-09-17 2014-09-17 클라우드 기반의 지능형 전력제어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140123565A KR101608859B1 (ko) 2014-09-17 2014-09-17 클라우드 기반의 지능형 전력제어 시스템

Publications (2)

Publication Number Publication Date
KR20160032881A true KR20160032881A (ko) 2016-03-25
KR101608859B1 KR101608859B1 (ko) 2016-04-04

Family

ID=55645530

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140123565A KR101608859B1 (ko) 2014-09-17 2014-09-17 클라우드 기반의 지능형 전력제어 시스템

Country Status (1)

Country Link
KR (1) KR101608859B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106940586A (zh) * 2017-01-23 2017-07-11 宇龙计算机通信科技(深圳)有限公司 一种电源控制方法、装置和系统
CN111104289A (zh) * 2019-12-25 2020-05-05 创新奇智(上海)科技有限公司 一种gpu集群的效率检查系统及方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210121683A (ko) 2020-03-31 2021-10-08 (주)유에너지 클라우드 기반의 수배전반 통합 감시제어 시스템
KR20210123042A (ko) 2020-04-02 2021-10-13 (주)유에너지 사물인터넷과 클라우드 기반의 에너지 공유형 수배전반 통합 감시제어 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8156490B2 (en) * 2004-05-08 2012-04-10 International Business Machines Corporation Dynamic migration of virtual machine computer programs upon satisfaction of conditions
EP2343649B1 (en) * 2008-10-30 2017-10-25 Hitachi, Ltd. Operation management apparatus of information processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106940586A (zh) * 2017-01-23 2017-07-11 宇龙计算机通信科技(深圳)有限公司 一种电源控制方法、装置和系统
CN111104289A (zh) * 2019-12-25 2020-05-05 创新奇智(上海)科技有限公司 一种gpu集群的效率检查系统及方法

Also Published As

Publication number Publication date
KR101608859B1 (ko) 2016-04-04

Similar Documents

Publication Publication Date Title
Shirvani et al. A survey study on virtual machine migration and server consolidation techniques in DVFS-enabled cloud datacenter: taxonomy and challenges
EP3606008B1 (en) Method and device for realizing resource scheduling
Paya et al. Energy-aware load balancing and application scaling for the cloud ecosystem
Wood et al. Sandpiper: Black-box and gray-box resource management for virtual machines
Dargie Estimation of the cost of VM migration
US20150058844A1 (en) Virtual computing resource orchestration
Sarji et al. Cloudese: Energy efficiency model for cloud computing environments
US20200159559A1 (en) Integrated configuration engine for interference mitigation in cloud computing
KR101608859B1 (ko) 클라우드 기반의 지능형 전력제어 시스템
US9330424B2 (en) Power management analysis and modeling for distributed computer systems
Liao et al. Energy optimization schemes in cluster with virtual machines
Hasan et al. Heuristic based energy-aware resource allocation by dynamic consolidation of virtual machines in cloud data center
Farahnakian et al. Hierarchical vm management architecture for cloud data centers
US20230418661A1 (en) Decentralized resource scheduling
Zhou et al. An experience-based scheme for energy-SLA balance in cloud data centers
CN103488538A (zh) 云计算系统中的应用扩展装置和应用扩展方法
Wolski et al. QPRED: Using quantile predictions to improve power usage for private clouds
Oikonomou et al. Energy-aware management of virtual machines in cloud data centers
Escheikh et al. Workload-dependent software aging impact on performance and energy consumption in server virtualized systems
US11182189B2 (en) Resource optimization for virtualization environments
Leite et al. Power‐aware server consolidation for federated clouds
Cardoso et al. An efficient energy-aware mechanism for virtual machine migration
Okonor et al. Intelligent agent-based technique for virtual machine resource allocation for energy-efficient cloud data centre
Xu et al. Virtual machine migration strategy in federated cloud
Naeen Cost reduction using SLA-aware genetic algorithm for consolidation of virtual machines in cloud data centers

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 4