KR102245341B1 - 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법 - Google Patents

클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법 Download PDF

Info

Publication number
KR102245341B1
KR102245341B1 KR1020200116922A KR20200116922A KR102245341B1 KR 102245341 B1 KR102245341 B1 KR 102245341B1 KR 1020200116922 A KR1020200116922 A KR 1020200116922A KR 20200116922 A KR20200116922 A KR 20200116922A KR 102245341 B1 KR102245341 B1 KR 102245341B1
Authority
KR
South Korea
Prior art keywords
node
migration
cloud edge
utilization rate
resource utilization
Prior art date
Application number
KR1020200116922A
Other languages
English (en)
Inventor
안재훈
김영환
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020200116922A priority Critical patent/KR102245341B1/ko
Application granted granted Critical
Publication of KR102245341B1 publication Critical patent/KR102245341B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45545Guest-host, i.e. hypervisor is an application program itself, e.g. VirtualBox
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Debugging And Monitoring (AREA)

Abstract

클라우드 엣지 환경에서 워크로드 분산을 위한 예측 모델을 적용하기 위한 클라우드 엣지 관리방법 및 장치가 제공된다. 본 발명의 실시예에 따른 클라우드 엣지 관리방법은, 클라우드 엣지 관리장치가, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하는 단계; 클라우드 엣지 관리장치가, 학습 데이터 셋을 생성하는 단계; 클라우드 엣지 관리장치가, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하는 단계; 및 클라우드 엣지 관리장치가, 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 단계;를 포함한다. 이에 의해, 엣지 서비스 기반 다차원 메트릭 데이터를 기반으로 학습 및 예측 모델을 생성하며, 서비스 마이그레이션 대상에 대한 관리를 수행하여, 가용 자원의 부족 상황에 따른 서비스 지연을 사전에 처리할 수 있다.

Description

클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법{Method for apply predictive model for workload distribution within the cloud edge}
본 발명은 클라우드 엣지 관리방법 및 장치에 관한 것으로, 더욱 상세하게는 클라우드 엣지 환경에서 워크로드 분산을 위한 예측 모델을 적용하기 위한 클라우드 엣지 관리방법 및 장치에 관한 것이다.
최근 앱 개발 및 서비스시 클라우드 엣지 환경을 이용하는 경우가 증가하고 있다.
그러나 기존에는 대규모 클라우드 환경에 자원 분석 방법은 진행되었으나, 엣지 환경에 따른 자원 분석 및 자원에 대한 가용성 지원 방법은 결여되어 있다.
또한, 기존에는 클라우드 엣지 환경에서 과부하 제어는 메시지 로그 분석을 통한 후처리 방식으로 처리되며, 클라우드 엣지 환경에서 서비스 부하 발생 시 마이그레이션과 같은 이관 로직을 통한 서비스 지연 해결 방법이 없어, 가용 자원의 부족 상황에 따른 서비스 지연을 즉각적으로 해결하지 못한다는 문제점이 존재한다.
따라서, 클라우드 엣지 플랫폼 환경에서 서비스 부하 발생 시, 가용 자원의 부족 상황에 따른 서비스 지연을 즉각적으로 해결하기 위한 방안의 모색이 요구된다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 가용 자원의 부족 상황에 따른 서비스 지연을 사전에 처리하기 위해, 클라우드 엣지 환경에서 부하를 예측하기 위한 학습을 수행함에 있어, 수 없이 생성과 삭제가 지속되는 Pod 단위의 서비스에 대해 예측 모델을 적용하여 마이그레이션을 수행하기 위한 클라우드 엣지 관리방법 및 장치를 제공함에 있다.
또한, 본 발명의 다른 목적은, 다차원 메트릭을 수집하여 시계열 데이터 분석을 통해 상태 유지가 필요한 Stateful 서비스와 상태유지가 필요 없는 Stateless 서비스 특성에 따라 라이브 마이그레이션 적용이 필요한 대상을 선정할 수 있는 클라우드 엣지 관리방법 및 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 클라우드 엣지 관리방법은, 클라우드 엣지 관리장치가, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하는 단계; 클라우드 엣지 관리장치가, 학습 데이터 셋을 생성하는 단계; 클라우드 엣지 관리장치가, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하는 단계; 및 클라우드 엣지 관리장치가, 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 단계;를 포함한다.
그리고 예측 모델을 배포하는 단계는, Prediction Administrator를 통해 생성되는 모든 노드 및 포드에 대해 예측 모델을 배포할 수 있다.
또한, 예측 모델을 배포하는 단계는, Edge 노드에 존재하는 각 포드에 배포된 예측 모델을 짝(Pair)으로 생성하여, 부하를 개별적으로 예측할 수 있다.
그리고 예측 모델을 배포하는 단계는, Edge 노드에 존재하는 각 포드를 서비스별 그룹으로 묶어, 부하를 그룹별로 예측할 수 있다.
또한, 예측 모델을 배포하는 단계는, Migration Administrator에서 초기화 시, 예측 모델의 배포를 동시에 수행하는 것을 특징으로 하는 클라우드 엣지 관리방법.
그리고 학습 데이터 셋을 생성하는 단계는, 예측 모델 배포 후, 각 포드의 학습용 메트릭(Metric) 데이터를 수집하며 데이터 셋을 확장할 수 있다.
또한, 학습 데이터 셋을 생성하는 단계는, 예측 모델 배포 후, Autoscaling을 수행하며 데이터 셋을 수집할 수 있다.
그리고 마이그레이션 대상을 선택하는 단계는, 저장된 예측 모델을 이용하여 각 노드에 대한 자원 사용률을 예측하고, 예측 결과를 통해, 자원 사용률이 기설정된 임계치 이상 증가하는 노드를 필터링한 이후, 자원 사용률이 가장 낮은 노드를 마이그레이션 대상 노드로 선택할 수 있다.
또한, 마이그레이션 대상을 선택하는 단계는, 예측 결과를 통한 필터링 과정에서, 제1 클러스터에 포함된 모든 노드의 자원 사용률이 기설정된 임계치 이상 증가하여 필터링되면, 클러스터간 마이그레이션을 수행하기 위해, 자원 사용률이 기설정된 임계치 이상 증가하지 않는 노드를 하나 이상 포함하는 제2 클러스터를 마이그레이션 대상 클러스터로 선택할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 클라우드 엣지 관리방법이 수행되는 컴퓨터 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록매체는, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하는 단계; 학습 데이터 셋을 생성하는 단계; 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하는 단계; 및 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 단계;를 포함하는 방법을 수행하는 컴퓨터 프로그램이 수록된다.
또한, 본 발명의 다른 실시예에 따른, 클라우드 엣지 관리 장치는, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하는 통신부; 및 학습 데이터 셋을 생성하고, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델이 저장되도록 하며, 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 프로세서;를 포함한다.
그리고 본 발명의 다른 실시예에 따른, 클라우드 엣지 관리 시스템은, 복수의 클러스터로 구성되는 클라우드 엣지; 및 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하고, 학습 데이터 셋을 생성하며, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하고, 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 클라우드 엣지 관리장치;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 엣지 서비스 기반 다차원 메트릭 데이터를 기반으로 학습 및 예측 모델을 생성하며, 서비스 마이그레이션 대상에 대한 관리를 수행하여, 가용 자원의 부족 상황에 따른 서비스 지연을 사전에 처리할 수 있다.
또한, 본 발명의 실시예들에 따르면, 운용 환경 특성에 따른 예측 모델을 적용하고, 마이그레이션 대상 선정 시 부하 평준화를 목표로 수행 레벨을 조정하여, 클라우드 엣지 환경에서 처리 되는 서비스의 즉시성 및 안정성을 지속적으로 제공할 수 있다.
도 1은, 본 발명의 일 실시예에 따른 클라우드 엣지 시스템의 구성의 설명에 제공된 도면,
도 2는 본 발명의 일 실시예에 따른, 클라우드 엣지의 세부 구성의 설명에 제공된 도면,
도 3은, 본 발명의 일 실시예에 따른, 클라우드 관리장치의 세부 구성의 설명에 제공된 도면,
도 4는, 본 발명의 일 실시예에 따른, 클라우드 엣지 환경에서 워크로드 분산을 위한 예측 모델을 적용하는 과정의 설명에 제공된 도면,
도 5는, 본 발명의 일 실시예에 따른, 클라우드 관리장치를 이용하는 워크로드 분산을 위한 예측 모델 적용 방법의 설명에 제공된 흐름도,
도 6은, 수집되는 메트릭 데이터들이 예시된 도면, 그리고
도 7은, 본 발명의 일 실시예에 따른, 클라우드 관리장치를 이용하는 워크로드 분산을 위한 예측 모델 적용 방법의 더욱 상세한 설명에 제공된 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은, 본 발명의 일 실시예에 따른 클라우드 엣지 시스템의 구성의 설명에 제공된 도면이다.
본 실시예에 따른 클라우드 엣지 시스템은, 가용 자원의 부족 상황에 따른 서비스 지연을 사전에 처리하기 위해, 클라우드 엣지 플랫폼 환경에서 예측 모델을 적용하여 마이그레이션을 수행할 수 있다.
이를 위해, 도 1에 도시된 바와 같이, 클라우드 엣지 시스템에서, 클라우드 엣지(20)는 클라우드 엣지 관리장치(100)에 의해 관리된다.
클라우드 엣지 관리장치(100)는 가용 자원의 부족 상황에 따른 서비스 지연을 사전에 처리하기 위해, 클라우드 엣지 환경에서 부하를 예측하기 위한 학습을 수행함에 있어, 수 없이 생성과 삭제가 지속되는 포드 단위의 서비스에 대해 운용 환경 특성에 따라 예측 모델을 적용하여 마이그레이션을 수행할 수 있다.
구체적으로, 클라우드 엣지 관리장치(100)는 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하고, 학습 데이터 셋을 생성하며, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하고, 저장된 예측 모델을 기반으로 마이그레이션 대상을 선택하여, 마이그레이션을 수행할 수 있다.
여기서, 클라우드 엣지 관리장치(100)는 그 자체로 물리적으로 독립된 장치로 구현될 수 있을 뿐만 아니라, 어떤 장치나 시스템 또는 클라우드의 일부로 포함되어 있는 형태로 구현될 수도 있으며, 스마트폰이나 컴퓨터나 서버나 클라우드 등에 설치된 프로그램 또는 플랫폼 또는 프레임워크 또는 애플리케이션 등의 소프트웨어 형태로 구현될 수도 있음은 물론이다. 또한, 클라우드 엣지 관리장치(100)의 각 구성요소는 물리적 구성요소로 구현될 수도 있고 소프트웨어의 기능 형태의 구성요소로 구현될 수도 있다.
클라우드 엣지(20)는 복수의 클러스터를 포함할 수 있으며, 각각의 클러스터는 리전(region) 및 영역(zone)이 다르게 위치할 수 있다. 여기서, 리전은 대륙, 영역은 국가를 의미할 수 있다. 또한, 하나의 클러스터에는 복수개의 노드가 포함된다. 그리고, 노드 내에는 적어도 하나의 포드(Pod)가 포함된다.
즉, 하나의 클러스터에는 복수개의 노드(Node)가 포함된다. 노드(Node)는 실제 서비스(또는 컨테이너)가 실행되는 서버 단위를 나타낸다. 노드는 서비스를 생성하고 서비스 상태를 관리하는 역할을 수행하며, 복수개의 포드(Pod)로 구성된다.
여기에서, 클러스터(클러스터)는 여러개의 서버를 하나의 서버인 것처럼 보이도록 가상화한 것을 나타내며, 지역별로 위치되어 있을 수 있다,
이와 같은 구조의 클라우드 엣지(20)는 클라우드 엣지 관리장치(100)에 의해 결정된 노드에 특정 서비스를 실행하기 위한 자원을 할당하는 기능을 수행하게 된다.
또한, 클라우드 엣지 관리장치(100)는 전체 클러스터를 관리하는 마스터와 같은 기능을 수행하게 된다. 모든 명령은 마스터인 클라우드 엣지 관리장치(100)의 API 서버를 호출하고 노드는 클라우드 엣지 관리장치(100)와 통신하면서 필요한 작업을 수행한다. 특정 노드의 컨테이너에 명령하거나 로그를 조회할 때도 노드에 직접 명령하는 게 아니라 클라우드 엣지 관리장치(100)에 명령을 내리고 클라우드 엣지 관리장치(100)가 노드에 접속하여 대신 결과를 응답하게 된다.
노드 내에는 적어도 하나의 포드(Pod)를 포함하며 이와 같은 노드의 구조에 대해 도 2를 참고하여 더욱 상세히 설명한다. 도 2는 본 발명의 일 실시예에 따른, 클라우드 엣지(20)의 세부 구성을 도시한 도면이다.
도 2에 도시된 바와 같이, 클라우드 엣지(20)는 복수개의 노드(200)들을 포함하고, 노드 내에는 적어도 하나의 포드(210)를 포함하고 있다.
노드(200)는 클라우드 엣지 관리장치(100)와 통신하면서 필요한 포드(210)를 생성하고 네트워크(215)와 스토리지(213)를 설정한다.
포드(210)는 가장 작은 배포 단위이며, 실제 컨테이너들이 생성되는 곳이다. 포드(210)는 컨트롤러 또는 리플리카셋(ReplicaSet)에 의해 생성 및 관리되며 수백, 수천 개로 확장할 수도 있다. 포드(210)는 각각에 라벨을 붙여 사용목적(GPU 특화, SSD 서버 등)을 정의할 수도 있다. 포드(210)는 쿠버네티스에서 배포할 수 있는 가장 작은 단위로 한 개 이상의 컨테이너(211)와 스토리지(213)와 네트워크(215) 속성을 가진다. 포드(210)에 속한 적어도 하나의 컨테이너(211)는 스토리지(213)와 네트워크(215)를 공유하고 서로 로컬호스트(localhost)로 접근할 수 있다.
클라우드 엣지(20)는 이와 같은 구조의 복수개의 클러스터, 노드 및 포드를 포함하게 된다.
이하에서는, 도 3을 참고하여, 클라우드 엣지 관리장치(100)의 구성에 대해 더욱 상세히 설명한다. 도 3은 본 발명의 일 실시예에 따른, 클라우드 엣지 관리장치(100)를 도시한 도면이다.
도 3에 도시된 바와 같이, 클라우드 엣지 관리장치(100)는 통신부(110)와 프로세서(120)를 포함한다.
통신부(110)는 프로세서가 동작함에 있어 필요한 데이터들을 송수신하기 위한 통신 수단으로서, 블루투스, 와이파이(WIFI), 근거리무선통신(NFC), 셀룰러, LTE(Long-Term Evolution) 등 다양한 무선 통신 방식으로 통신을 수행할 수 있으며, 유선 랜 등의 유선 통신으로 통신을 할 수도 있음은 물론이다.
예를 들면, 통신부(110)는 클라우드 엣지(20)와 통신 가능하도록 연결되며, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포할 수 있다.
프로세서(120)는 클라우드 엣지 관리장치(100)의 전반적인 동작을 제어한다.
구체적으로, 프로세서(120)는 학습 데이터 셋을 생성하고, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델이 저장되도록 하며, 저장된 예측 모델을 이용하여, 마이그레이션 대상을 선택하여, 메모리 마이그레이션 지원을 통해 마이그레이션 대상에 대한 지속적 관리를 수행할 수 있다.
이를 위해, 프로세서(120)는 소프트웨어 형태로 구현되는 Prediction Administrator(121) 및 마이그레이션 Administrator(122)를 포함할 수 있다.
Prediction Administrator(121)는 예측 모델을 배포 및 관리하기 위한 소프트웨어 모듈이고, 마이그레이션 Administrator(122)는, 마이그레이션을 수행하며, 마이그레이션 대상에 대한 지속적 관리를 수행하기 위한 소프트웨어 모듈이다.
도 4는, 본 발명의 일 실시예에 따른, 클라우드 엣지 환경에서 워크로드 분산을 위한 예측 모델을 적용하는 과정의 설명에 제공된 도면이고, 도 5는, 본 발명의 일 실시예에 따른, 클라우드 엣지 관리장치를 이용하는 워크로드 분산을 위한 예측 모델 적용 방법의 설명에 제공된 흐름도이고, 도 6은, 수집되는 메트릭 데이터들이 예시된 도면이다.
도 4 내지 도 6을 참조하면, 본 발명의 일 실시예 따라 마이그레이션 지원 대상이 되는 서비스는, 사용자가 직접 포드 단위로 서비스를 생성하거나, 컨트롤러에 의해 간접적으로 생성될 수 있으며, 클라우드 엣지 관리장치(100)는, 마이그레이션 지원 대상이 되는 서비스의 부하를 예측하고, 예측 결과를 기반으로 노드간 또는 클러스터간 마이그레이션을 수행하여, 부하를 평준화시킬 수 있다.
즉, 클라우드 엣지 관리장치(100)는, Admin 클러스터 역할을 수행하며, 메모리 마이그레이션 지원을 통해 마이그레이션 대상에 대한 지속적 관리를 수행하기 위해, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하고(S510), 학습 데이터 셋을 생성하고(S520), 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델이 저장되도록 하며(S530), 저장된 예측 모델을 이용하여, 마이그레이션 대상을 선택할 수 있다(S540).
구체적으로, 클라우드 엣지 관리장치(100)는, 예측 모델 배포 시, Prediction Administrator(121)를 통해, 생성되는 모든 노드 및 포드를 대상으로 예측 모델을 배포할 수 있다.
또한, 클라우드 엣지 관리장치(100)는, 마이그레이션 Administrator(122)에서 마이그레이션의 초기화 시, 예측 모델의 배포를 동시에 수행할 수 있다.
그리고 클라우드 엣지 관리장치(100)는, 최초 예측 모델 설치 이후, 추가되는 모든 노드에 초기 학습 모델을 포드 형식으로 배포할 수 있다.
이때, 부하를 예측하는 예측 모델은 평균 모델, 개별 모델 및 그룹 모델 중 어느 하나이며, 클라우드 엣지 관리장치(100)가, 양방향(bidirectional) LSTM(Long short-term memory)을 이용하여, 운용 환경 특성에 따라 배포할 학습 모델을 선정할 수 있다.
구체적으로, 클라우드 엣지 관리장치(100)는, 초기에 평균 모델을 이용하여 분석을 진행하다가, 운용 환경 특성에 따라, 개별 모델 또는 그룹 모델로 학습 모델을 교체하여, 부하를 예측할 수 있다.
여기서, 평균 모델은, Edge 노드가 배포된 학습 모델로 노드에 속해있는 포드들의 평균적 부하를 예측하도록 하는 학습 모델로서, 개별 모델보다 예측 정확도가 낮다는 단점이 존재하나, 개별 모델보다 각 노드가 부담하는 부하가 적다.
개별 모델은, Edge 노드에 존재하는 각 포드에 배포된 학습 모델을 Pair로 생성하고, 포드 UID(User interface design)로 매핑시켜, 개별적 부하를 예측하는 모델로서, 개별 모델은, 각 노드가 부담하는 부하가 평균 모델보다 크지만, 예측 정확도 면에서는 평균 모델보다 성능이 뛰어나다.
그룹 모델은, Edge 노드에 존재하는 각 포드를 서비스별 그룹으로 묶어 그룹별로 선별적 부하를 예측하는 모델이다.
구체적으로, 클라우드 엣지 관리장치(100)는, 병원의 차트 DB 서비스, 홈페이지 서비스 또는 인트라넷 서비스나 은행의 전산 DB 서비스, 창구 업무 인트라넷 서비스 또는 인터넷 뱅킹 서비스와 같이 포드의 이용 자원이용이 급변하는 Ondemand 타입의 서비스 그룹에 대하여, 그룹 모델을 적용하면, 예측 결과에 따라 즉시 마이그레이션 진행하게 된다.
그리고 클라우드 엣지 관리장치(100)는, 공장의 생산 라인 센서값을 받아오는 서비스와 같이 포드의 가용 자원이 안정적인 Conservative 타입의 서비스 그룹에 대하여, 그룹 모델을 적용하면, 예측 결과에 따라 최소한의 마이그레이션을 진행하게 된다.
한편, 클라우드 엣지 관리장치(100)는, 예측 모델 배포 후, 학습 데이터 셋을 생성할 수 있다.
예를 들면, 클라우드 엣지 관리장치(100)는, 예측 모델 배포 후, Autoscaling을 수행하며 데이터 셋을 수집하거나 또는 각 포드의 학습용 메트릭(Metric) 데이터를 수집하며 데이터 셋을 확장할 수 있다.
이때, 수집되는 메트릭 데이터들은, 도 6에 예시된 바와 같이 CPU 사용률 수집을 위한 usageNanoCores(사용코어수), usageCoreNanoSeconds(코어 이용시간), 메모리 점유율 수집을 위한 usageBytes(메모리 사용 크기), 사용 저장공간 크기 수집을 위한 capacityBytes(스토리지 사용 크기) 또는 트래픽 수집을 위한 rxBytes(수신 트래픽 크기), txBytes(송신 트래픽 크기) 등이 포함될 수 있다.
클라우드 엣지 관리장치(100)는, 각 노드(Pod)에 배포된 학습 모델을 통해, 각 노드의 Metric Collector가 수집한 각 포드에 대한 자원 사용 정보를 획득할 수 있다. 이때, 각 노드의 Influx DB에 저장된 자원 사용 정보는 CSV 파일로 변환하여 예측 모델에서 읽을 수 있다.
한편, 클라우드 엣지 관리장치(100)는, 부하 평준화를 이루기 위해, 각 포드에 대한 자원 사용 정보가 획득되면, 자원 사용률이 가장 여유로운 노드로 마이그레이션 수행하게 된다.
이때, 클라우드 엣지 관리장치(100)는, 각 클러스터의 Master를 통해, 노드로부터 예측된 데이터를 기반으로 분석 및 노드간 마이그레이션 수행하도록 하되, 노드간 마이그레이션이 불가능하다고 판단될 경우, 관리 클러스터에서 모든 클러스터로 부터 분석된 데이터를 기반으로 클러스터간 마이그레이션 수행하도록 한다.
구체적으로, 클라우드 엣지 관리장치(100)는, 해당 노드의 Current 사용률이 가장 높다면 마이그레이션 중 오류 또는 과부하가 발생 가능성이 존재하기 때문에, 예측 모델로 일정 수준 이상 증가하는 노드를 제외하고(Filtering), 이후 Current 값에 따라 해당 노드로 마이그레이션을 수행할 수 있다.
즉, 클라우드 엣지 관리장치(100)는, 마이그레이션 대상 선택 시, 저장된 예측 모델을 이용하여 각 노드에 대한 자원 사용률을 예측하고, 예측 결과를 통해, 자원 사용률이 기설정된 임계치 이상 증가하는 노드를 필터링한 이후, 자원 사용률이 가장 낮은 노드를 마이그레이션 대상 노드로 선택할 수 있다.
또한, 클라우드 엣지 관리장치(100)는, 노드간 마이그레이션 수행 시 Filtering으로 인해 클러스터 내의 모든 노드가 제외될 경우 클러스터간 마이그레이션 수행할 수 있다.
구체적으로 예를 들면, 클라우드 엣지 관리장치(100)는, 예측 결과를 통한 필터링 과정에서, 제1 클러스터에 포함된 모든 노드의 자원 사용률이 기설정된 임계치 이상 증가하여 필터링되면, 클러스터간 마이그레이션을 수행하기 위해, 자원 사용률이 기설정된 임계치 이상 증가하지 않는 노드를 하나 이상 포함하는 제2 클러스터를 마이그레이션 대상 클러스터로 선택할 수 있다.
첨언하면, 마이그레이션 지원 대상이 되는 서비스는 포드 단위로 생성되어, 포드의 수 임계치 초과시 컨트롤러에 의해, 포드의 프로세스가 종료되거나, 사용자 혹은 컨트롤러에 의해 포드 오브젝트가 삭제되거나, 포드가 리소스 부족으로 리소스 컨트롤러에 의해 삭제되거나 또는 노드에 장애가 발생하여, 컨트롤러에 의한 교체 포드를 정상 노드에 생성 후 삭제될 수 있다.
도 7은, 본 발명의 일 실시예에 따른, 클라우드 엣지 관리장치를 이용하는 워크로드 분산을 위한 예측 모델 적용 방법의 더욱 상세한 설명에 제공된 흐름도이다.
여기서, 클라우드 엣지 관리장치(100)는, Master 및 Admin 클러스터의 역할을 수행하게 된다.
도 7을 참조하면, 클라우드 엣지 관리장치(100)가, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하면(1), 특정 포드가 배포된 예측 모델(포드 모델)을 로드하고(2), Metric 데이터를 획득하여(3), 포드 부하 예측을 수행하고(4), 포드 예측 모델을 저장할 수 있다(5).
그리고 특정 포드를 포함하는 노드는 특정 포드로부터 포드 예측 결과를 수신하면(6), 노드 부하 예측을 수행하고(7), 노드 예측 모델을 저장하게 된다(8).
이때, 노드의 부하 예측 값(Prediction)이 기설정된 임계값(THRESHOLD) 이상이면, 해당 노드가 클라우드 엣지 관리장치(100)에게 노드 마이그레이션을 요청하게 된다(9).
노드 마이그레이션이 요청되면, 클라우드 엣지 관리장치(100)는, 분석 모델을 호출하여(10), 같은 서비스를 지원하는 멤버 노드 부하를 분석하고(11), 마이그레이션 명령 전달하여(12), 노드간 마이그레이션이 수행되도록 한다.
더불어, 클라우드 엣지 관리장치(100)는, 분석 결과에 따라, 노드간 마이그레이션이 불가능하다고 판단되면, 클러스터 마이그레이션을 요청하여(13), 분석 모델을 호출하고(14), 하위 클러스터의 모든 노드 예측 결과를 로드하여(15), 모든 노드 부하를 분석하게 된다(16). 이를 통해, 클라우드 엣지 관리장치(100)는, 마이그레이션 명령 전달하여(17), 클러스터간 마이그레이션이 수행되도록 한다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
10 : 클라우드 플랫폼
20 : 클라우드 엣지
100 : 클라우드 엣지 관리장치
110 : 통신부
120 : 프로세서
121 : Prediction Administrator
122 : Migration Administrator
200 ; 노드

Claims (12)

  1. 클라우드 엣지 관리장치가, 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하는 단계;
    클라우드 엣지 관리장치가, 학습 데이터 셋을 생성하는 단계;
    클라우드 엣지 관리장치가, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하는 단계; 및
    클라우드 엣지 관리장치가, 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 단계;를 포함하고,
    예측 모델을 배포하는 단계는,
    Prediction Administrator를 통해 생성되는 모든 노드 및 포드에 대해 예측 모델을 배포하며,
    예측 모델을 배포하는 단계는,
    Edge 노드에 존재하는 각 포드에 배포된 예측 모델을 짝(Pair)으로 생성하여 부하를 개별적으로 예측하거나 또는 Edge 노드에 존재하는 각 포드를 서비스별 그룹으로 묶어, 부하를 그룹별로 예측하고,
    예측 모델을 배포하는 단계는,
    Migration Administrator에서 초기화 시, 예측 모델의 배포를 동시에 수행하고,
    학습 데이터 셋을 생성하는 단계는,
    예측 모델 배포 후, 각 포드의 학습용 메트릭(Metric) 데이터를 수집하며 데이터 셋을 확장하고,
    메트릭 데이터는,
    CPU 사용률 수집을 위한 usageNanoCores(사용코어수), usageCoreNanoSeconds(코어 이용시간), 메모리 점유율 수집을 위한 usageBytes(메모리 사용 크기), 사용 저장공간 크기 수집을 위한 capacityBytes(스토리지 사용 크기) 또는 트래픽 수집을 위한 rxBytes(수신 트래픽 크기), txBytes(송신 트래픽 크기)가 포함되며,
    마이그레이션 대상을 선택하는 단계는,
    저장된 예측 모델을 이용하여 각 노드에 대한 자원 사용률을 예측하고, 예측 결과를 통해, 자원 사용률이 기설정된 임계치 이상 증가하는 노드를 필터링한 이후, 자원 사용률이 가장 낮은 노드를 마이그레이션 대상 노드로 선택하며,
    마이그레이션 대상을 선택하는 단계는,
    예측 결과를 통한 필터링 과정에서, 제1 클러스터에 포함된 모든 노드의 자원 사용률이 기설정된 임계치 이상 증가하여 필터링되면, 클러스터간 마이그레이션을 수행하기 위해, 자원 사용률이 기설정된 임계치 이상 증가하지 않는 노드를 하나 이상 포함하는 제2 클러스터를 마이그레이션 대상 클러스터로 선택하는 것을 특징으로 하는 클라우드 엣지 관리방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 청구항 1에 있어서,
    학습 데이터 셋을 생성하는 단계는,
    예측 모델 배포 후, Autoscaling을 수행하며 데이터 셋을 수집하는 것을 특징으로 하는 클라우드 엣지 관리방법.
  8. 삭제
  9. 삭제
  10. 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하는 단계;
    학습 데이터 셋을 생성하는 단계;
    생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하는 단계; 및
    저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 단계;를 포함하고,
    예측 모델을 배포하는 단계는,
    Prediction Administrator를 통해 생성되는 모든 노드 및 포드에 대해 예측 모델을 배포하며,
    예측 모델을 배포하는 단계는,
    Edge 노드에 존재하는 각 포드에 배포된 예측 모델을 짝(Pair)으로 생성하여 부하를 개별적으로 예측하거나 또는 Edge 노드에 존재하는 각 포드를 서비스별 그룹으로 묶어, 부하를 그룹별로 예측하고,
    예측 모델을 배포하는 단계는,
    Migration Administrator에서 초기화 시, 예측 모델의 배포를 동시에 수행하고,
    학습 데이터 셋을 생성하는 단계는,
    예측 모델 배포 후, 각 포드의 학습용 메트릭(Metric) 데이터를 수집하며 데이터 셋을 확장하고,
    메트릭 데이터는,
    CPU 사용률 수집을 위한 usageNanoCores(사용코어수), usageCoreNanoSeconds(코어 이용시간), 메모리 점유율 수집을 위한 usageBytes(메모리 사용 크기), 사용 저장공간 크기 수집을 위한 capacityBytes(스토리지 사용 크기) 또는 트래픽 수집을 위한 rxBytes(수신 트래픽 크기), txBytes(송신 트래픽 크기)가 포함되며,
    마이그레이션 대상을 선택하는 단계는,
    저장된 예측 모델을 이용하여 각 노드에 대한 자원 사용률을 예측하고, 예측 결과를 통해, 자원 사용률이 기설정된 임계치 이상 증가하는 노드를 필터링한 이후, 자원 사용률이 가장 낮은 노드를 마이그레이션 대상 노드로 선택하며,
    마이그레이션 대상을 선택하는 단계는,
    예측 결과를 통한 필터링 과정에서, 제1 클러스터에 포함된 모든 노드의 자원 사용률이 기설정된 임계치 이상 증가하여 필터링되면, 클러스터간 마이그레이션을 수행하기 위해, 자원 사용률이 기설정된 임계치 이상 증가하지 않는 노드를 하나 이상 포함하는 제2 클러스터를 마이그레이션 대상 클러스터로 선택하는 것을 특징으로 하는 클라우드 엣지 관리방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록매체.
  11. 클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하는 통신부; 및
    학습 데이터 셋을 생성하고, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델이 저장되도록 하며, 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 프로세서;를 포함하고,
    통신부는,
    Prediction Administrator를 통해 생성되는 모든 노드 및 포드에 대해 예측 모델을 배포하며,
    프로세서는,
    Edge 노드에 존재하는 각 포드에 배포된 예측 모델을 짝(Pair)으로 생성하여 부하를 개별적으로 예측하거나 또는 Edge 노드에 존재하는 각 포드를 서비스별 그룹으로 묶어, 부하를 그룹별로 예측하고,
    프로세서는,
    Migration Administrator에서 초기화 시, 통신부를 통해 예측 모델의 배포를 동시에 수행하고,
    프로세서는,
    예측 모델 배포 후, 각 포드의 학습용 메트릭(Metric) 데이터를 수집하며 데이터 셋을 확장하고,
    메트릭 데이터는,
    CPU 사용률 수집을 위한 usageNanoCores(사용코어수), usageCoreNanoSeconds(코어 이용시간), 메모리 점유율 수집을 위한 usageBytes(메모리 사용 크기), 사용 저장공간 크기 수집을 위한 capacityBytes(스토리지 사용 크기) 또는 트래픽 수집을 위한 rxBytes(수신 트래픽 크기), txBytes(송신 트래픽 크기)가 포함되며,
    프로세서는,
    마이그레이션 대상 선택 시, 저장된 예측 모델을 이용하여 각 노드에 대한 자원 사용률을 예측하고, 예측 결과를 통해, 자원 사용률이 기설정된 임계치 이상 증가하는 노드를 필터링한 이후, 자원 사용률이 가장 낮은 노드를 마이그레이션 대상 노드로 선택하며,
    프로세서는,
    예측 결과를 통한 필터링 과정에서, 제1 클러스터에 포함된 모든 노드의 자원 사용률이 기설정된 임계치 이상 증가하여 필터링되면, 클러스터간 마이그레이션을 수행하기 위해, 자원 사용률이 기설정된 임계치 이상 증가하지 않는 노드를 하나 이상 포함하는 제2 클러스터를 마이그레이션 대상 클러스터로 선택하는 것을 특징으로 하는 클라우드 엣지 관리장치.
  12. 복수의 클러스터로 구성되는 클라우드 엣지; 및
    클라우드 엣지 내 복수의 클러스터에 포함된 복수의 노드 및 복수의 포드에 예측 모델을 배포하고, 학습 데이터 셋을 생성하며, 생성된 학습 데이터 셋을 기반으로 예측 모델을 학습시키고, 학습된 예측 모델을 저장하고, 저장된 예측 모델을 이용하여, 마이그레이션(Migration) 대상을 선택하는 클라우드 엣지 관리장치;를 포함하고,
    클라우드 엣지 관리장치는,
    Prediction Administrator를 통해 생성되는 모든 노드 및 포드에 대해 예측 모델을 배포하며,
    클라우드 엣지 관리장치는,
    Edge 노드에 존재하는 각 포드에 배포된 예측 모델을 짝(Pair)으로 생성하여 부하를 개별적으로 예측하거나 또는 Edge 노드에 존재하는 각 포드를 서비스별 그룹으로 묶어, 부하를 그룹별로 예측하고,
    클라우드 엣지 관리장치는,
    Migration Administrator에서 초기화 시, 예측 모델의 배포를 동시에 수행하고,
    클라우드 엣지 관리장치는,
    예측 모델 배포 후, 각 포드의 학습용 메트릭(Metric) 데이터를 수집하며 데이터 셋을 확장하고,
    메트릭 데이터는,
    CPU 사용률 수집을 위한 usageNanoCores(사용코어수), usageCoreNanoSeconds(코어 이용시간), 메모리 점유율 수집을 위한 usageBytes(메모리 사용 크기), 사용 저장공간 크기 수집을 위한 capacityBytes(스토리지 사용 크기) 또는 트래픽 수집을 위한 rxBytes(수신 트래픽 크기), txBytes(송신 트래픽 크기)가 포함되며,
    클라우드 엣지 관리장치는,
    마이그레이션 대상 선택 시, 저장된 예측 모델을 이용하여 각 노드에 대한 자원 사용률을 예측하고, 예측 결과를 통해, 자원 사용률이 기설정된 임계치 이상 증가하는 노드를 필터링한 이후, 자원 사용률이 가장 낮은 노드를 마이그레이션 대상 노드로 선택하며,
    클라우드 엣지 관리장치는,
    예측 결과를 통한 필터링 과정에서, 제1 클러스터에 포함된 모든 노드의 자원 사용률이 기설정된 임계치 이상 증가하여 필터링되면, 클러스터간 마이그레이션을 수행하기 위해, 자원 사용률이 기설정된 임계치 이상 증가하지 않는 노드를 하나 이상 포함하는 제2 클러스터를 마이그레이션 대상 클러스터로 선택하는 것을 특징으로 하는 클라우드 엣지 관리 시스템.
KR1020200116922A 2020-09-11 2020-09-11 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법 KR102245341B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200116922A KR102245341B1 (ko) 2020-09-11 2020-09-11 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200116922A KR102245341B1 (ko) 2020-09-11 2020-09-11 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법

Publications (1)

Publication Number Publication Date
KR102245341B1 true KR102245341B1 (ko) 2021-04-28

Family

ID=75721248

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200116922A KR102245341B1 (ko) 2020-09-11 2020-09-11 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법

Country Status (1)

Country Link
KR (1) KR102245341B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220081833A (ko) * 2020-12-09 2022-06-16 대구대학교 산학협력단 오케스트레이터 환경에서의 프로세스 마이그레이션을 위한 컨테이너 관리 장치 및 관리 방법
CN114826908A (zh) * 2022-05-09 2022-07-29 新华智云科技有限公司 kubernetes集群服务保障方法、组件、系统
CN114826932A (zh) * 2022-05-09 2022-07-29 南京数睿数据科技有限公司 数据迁移方法、装置、电子设备和计算机可读介质
WO2023096109A1 (ko) * 2021-11-23 2023-06-01 (주)글루시스 쿠버네티스 포드를 위한 자원 프로비저닝 방법
WO2023163361A1 (ko) * 2022-02-24 2023-08-31 숭실대학교 산학협력단 엣지 컴퓨팅 환경에서의 서비스 마이그레이션 시스템
CN117421131A (zh) * 2023-12-18 2024-01-19 武汉泽塔云科技股份有限公司 一种监控服务器功耗负载的智能调度方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180098798A (ko) * 2017-02-27 2018-09-05 주식회사 케이티 엣지 클라우드에서 모바일 단말에 자원을 할당하는 방법 및 그 장치
KR20190024913A (ko) * 2019-01-02 2019-03-08 에스케이텔레콤 주식회사 분산형 컴퓨팅 가속화 플랫폼 장치
KR20190076693A (ko) * 2017-12-22 2019-07-02 부산대학교 산학협력단 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법
KR102071176B1 (ko) * 2019-05-14 2020-01-29 아콘소프트 주식회사 분산 연합형 컨테이너 플랫폼 시스템
KR20200054372A (ko) * 2018-11-06 2020-05-20 전자부품연구원 클라우드-엣지 시스템 및 이의 데이터 처리 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180098798A (ko) * 2017-02-27 2018-09-05 주식회사 케이티 엣지 클라우드에서 모바일 단말에 자원을 할당하는 방법 및 그 장치
KR20190076693A (ko) * 2017-12-22 2019-07-02 부산대학교 산학협력단 이종 클라우드 환경에서 워크로드의 자원 사용량 예측 및 자동 분산 처리 방법
KR20200054372A (ko) * 2018-11-06 2020-05-20 전자부품연구원 클라우드-엣지 시스템 및 이의 데이터 처리 방법
KR20190024913A (ko) * 2019-01-02 2019-03-08 에스케이텔레콤 주식회사 분산형 컴퓨팅 가속화 플랫폼 장치
KR102071176B1 (ko) * 2019-05-14 2020-01-29 아콘소프트 주식회사 분산 연합형 컨테이너 플랫폼 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Chen Zhang 외 1명. ‘Task migration for mobile edge computing using deep reinforcement learning’. Future Generation Computer Systems, Vol.96, 2019., pp.111-118.* *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220081833A (ko) * 2020-12-09 2022-06-16 대구대학교 산학협력단 오케스트레이터 환경에서의 프로세스 마이그레이션을 위한 컨테이너 관리 장치 및 관리 방법
KR102466231B1 (ko) 2020-12-09 2022-11-10 대구대학교 산학협력단 오케스트레이터 환경에서의 프로세스 마이그레이션을 위한 컨테이너 관리 장치 및 관리 방법
WO2023096109A1 (ko) * 2021-11-23 2023-06-01 (주)글루시스 쿠버네티스 포드를 위한 자원 프로비저닝 방법
WO2023163361A1 (ko) * 2022-02-24 2023-08-31 숭실대학교 산학협력단 엣지 컴퓨팅 환경에서의 서비스 마이그레이션 시스템
CN114826908A (zh) * 2022-05-09 2022-07-29 新华智云科技有限公司 kubernetes集群服务保障方法、组件、系统
CN114826932A (zh) * 2022-05-09 2022-07-29 南京数睿数据科技有限公司 数据迁移方法、装置、电子设备和计算机可读介质
CN114826932B (zh) * 2022-05-09 2023-11-24 南京数睿数据科技有限公司 数据迁移方法、装置、电子设备和计算机可读介质
CN114826908B (zh) * 2022-05-09 2024-03-26 新华智云科技有限公司 kubernetes集群服务保障方法、组件、系统
CN117421131A (zh) * 2023-12-18 2024-01-19 武汉泽塔云科技股份有限公司 一种监控服务器功耗负载的智能调度方法及系统
CN117421131B (zh) * 2023-12-18 2024-03-26 武汉泽塔云科技股份有限公司 一种监控服务器功耗负载的智能调度方法及系统

Similar Documents

Publication Publication Date Title
KR102245341B1 (ko) 클라우드 엣지 내 워크로드 분산을 위한 예측 모델 적용 방법
KR102154446B1 (ko) 분산·협업형 컨테이너 플랫폼 환경에서의 자원 균등 배분을 위한 고속 스케줄링 방법
US11106560B2 (en) Adaptive thresholds for containers
US10171300B2 (en) Automatic redistribution of virtual machines as a growing neural gas
JP2018198068A (ja) 分散型クラウドにおける作業負荷移動に基づくプロファイルベースのsla保証
CN116450358A (zh) 云计算系统中的用于虚拟机的资源管理
Deng et al. Reliability‐aware server consolidation for balancing energy‐lifetime tradeoff in virtualized cloud datacenters
US11463554B2 (en) Systems and methods for dynamic multi-access edge allocation using artificial intelligence
KR102101120B1 (ko) 사용자 특성을 반영한 클러스터 기반 가상 네트워크 기능의 자원 할당 방법
KR102260547B1 (ko) 분산 협업형 클러스터내 최적합 클러스터 선정 스케줄링 방법
US10944645B2 (en) Node of a network and a method of operating the same for resource distribution
US20220078231A1 (en) Load balancing method based on resource utilization and geographic location in associative container environment
US11392315B1 (en) Automatically tuning a quality of service setting for a distributed storage system with a deep reinforcement learning agent
CN102480502B (zh) 一种i/o负载均衡方法及i/o服务器
Dieye et al. On achieving high data availability in heterogeneous cloud storage systems
KR102320317B1 (ko) 클라우드 엣지 환경에서 예측 기반 마이그레이션 후보 및 대상 선정 방법
Globa et al. Architecture and operation algorithms of mobile core network with virtualization
CN111177160A (zh) 服务更新方法、装置、服务器及介质
Li et al. Research on energy‐saving virtual machine migration algorithm for green data center
KR102172607B1 (ko) 분산·협업형 컨테이너 플랫폼 환경에서의 자원간 균형적 스케일아웃 방법
CN109815204A (zh) 一种基于拥塞感知的元数据请求分发方法及设备
Kumar et al. Quality of service‐aware adaptive radio resource management based on deep federated Q‐learning for multi‐access edge computing in beyond 5G cloud‐radio access network
US20230155958A1 (en) Method for optimal resource selection based on available gpu resource analysis in large-scale container platform
CN113596146B (zh) 一种基于大数据的资源调度的方法及装置
US11379140B2 (en) System and method for model training orchestration

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant