KR20230053424A - 분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법 - Google Patents

분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법 Download PDF

Info

Publication number
KR20230053424A
KR20230053424A KR1020210136911A KR20210136911A KR20230053424A KR 20230053424 A KR20230053424 A KR 20230053424A KR 1020210136911 A KR1020210136911 A KR 1020210136911A KR 20210136911 A KR20210136911 A KR 20210136911A KR 20230053424 A KR20230053424 A KR 20230053424A
Authority
KR
South Korea
Prior art keywords
container
node server
data
present
generating
Prior art date
Application number
KR1020210136911A
Other languages
English (en)
Inventor
이현화
신승철
이광혁
Original Assignee
주식회사 꾸미다
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 꾸미다 filed Critical 주식회사 꾸미다
Priority to KR1020210136911A priority Critical patent/KR20230053424A/ko
Publication of KR20230053424A publication Critical patent/KR20230053424A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법이 개시된다. 본 발명은 노드 서버의 자원 사용량 데이터를 학습하여 예측 데이터를 생성하는 단계 및 상기 노드 서버의 자원 임계치 정보 및 상기 예측 데이터를 기초로, 상기 노드 서버의 컨테이너를 타 노드 서버로 재배치하는 단계를 포함할 수 있다.

Description

분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법{Distributed and Collaborative Container Platform}
본 발명은 분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법에 관한 것이다. 보다 상세하게는, 노드 서버에 걸리는 자원 사용량 데이터를 학습하고 이를 기초로 예측 모델을 생성하며, 생성된 예측 모델을 이용하여 컨테이너를 재배치하는 방법에 관한 것이다.
컴퓨팅 시스템 및 네트워크 내의 컴퓨팅 자원의 배치를 관리하는 것에 있어서, 특정 애플리케이션을 지원하는 배치의 크기를 조정하기 위한 하나의 접근 방식은 기대되는 워크로드 트래픽 패턴을 추정하고 수용량 계획 접근 방식을 사용해서 최대 기대 로드(peak anticipated load)를 수용하기에 충분한 자원을 사용하는 것이다. 이러한 정적인 배열은 중요한 자원이 사용되지 않는 결과를 초래할 수 있는데, 이는, 대부분 워크로드 트래픽이(예컨대, 현저히 날마다, 주마다 등의 패턴으로) 상당히 동적이기 때문이다.
상기 접근 방식을 개선하여 다듬은 방식이 있는데, 이는 예상 트래픽의 장기간(예컨대, 하루에서 여러 날까지) 예상에 기반해서 자원 재배치를 스케줄하거나 또는 계획하는 것이다. 이 접근방식도 (예컨대, 판매 프로모션의 성공을 과소평가하기도 하는) 장기간 예상의 정확성에 기반하고 예상하지 못한 사건(예컨대, 9.11 테러시 CNN 웹사이트에서 경험한 것과 같은 뉴스 웹사이트의 트래픽 서지)에 영향을 받을 수도 있으므로 가끔 부적절한 경우가 있다.
기존 컴퓨팅 배치 접근 방식들의 다른 중요한 단점은 자원 불균형을 조절하기 위해 일반적으로 (예컨대, 전문 오퍼레이터에 의해) 소정 형태의 인간의 관여를 필요로 한다는 것이다.
따라서, 기존 접근방식보다 더 효율적이고 효과적으로 가변 워크로드를 다루기 위한 컴퓨팅 시스템 또는 네트워크에 연관된, 컴퓨팅 배치를 관리하기 위한 자동적 또는 자치적인 기술을 가지는 것이 바람직할 것이다.
KR100826833B1 (발명의 명칭: 가변 워크로드의 존재시 컴퓨팅 배치 관리 방법 및 장치)
본 발명의 목적은 노드 서버에 걸리는 자원 사용량 데이터를 학습하고 이를 기초로 예측 모델을 생성하며, 생성된 예측 모델을 이용하여 컨테이너를 재배치하는 방법을 제공하기 위한 것이다.
상술한 문제점을 해결하기 위하여, 본 발명은 노드 서버의 자원 사용량 데이터를 학습하여 예측 데이터를 생성하는 단계 및 상기 노드 서버의 자원 임계치 정보 및 상기 예측 데이터를 기초로, 상기 노드 서버의 컨테이너를 타 노드 서버로 재배치하는 단계를 포함할 수 있다.
또한, 상기 예측 데이터를 생성하는 단계는 상기 자원 사용량 데이터를 수집하는 단계, 상기 자원 사용량 데이터에 대한 군집화를 수행하는 단계, 상기 군집화에 따른 예측 모델을 생성하는 단계 및 상기 예측 모델을 기초로 상기 예측 데이터를 생성하는 단계를 포함할 수 있다.
또한, 상기 군집화를 수행하는 단계는 자가조직화지도(SOM) 알고리즘을 이용하여 상기 자원 사용량 데이터에 대한 군집화를 수행할 수 있다.
또한, 상기 예측 모델을 생성하는 단계는 Bi-LSTM 알고리즘을 이용하여 상기 군집화에 따라 생성된 군집에 대한 예측 모델을 생성할 수 있다.
또한, 상기 재배치하는 단계는 상기 타 노드 서버의 자원 임계치 정보에 기초하여, 신규 노드 서버를 추가하는 단계 및 상기 노드 서버의 컨테이너를 상기 신규 노드 서버로 재배치하는 단계를 포함할 수 있다.
본 발명은 예측 모델을 통하여 노드 서버의 부하를 사전에 예방할 수 있는 효과를 가진다.
본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 보호부의 외부면으로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1 내지 도 3은 본 발명에 따른 워크로드 예측 모델을 이용한 컨테이너 재배치 방법을 나타낸 것이다.
도 4은 본 발명에 따른 워크로드 예측 모델을 이용한 컨테이너 재배치 방법의 일 예시를 나타낸 것이다.
도 5 내지 도 7은 본 발명에 따른 예측 데이터를 생성하는 단계의 일 예시를 나타낸 것이다.
도 8 내지 도 10은 본 발명에 따른 재배치 단계의 일 예시를 나타낸 것이다.
도 11 및 도 12는 본 발명에 따른 예측 모델에 따른 예측 데이터의 정확도를 나타낸 것이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 보호부의 외부면된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 워크로드 예측 모델을 이용한 컨테이너 재배치 방법에 관하여 상세히 설명하면 다음과 같다.
도 1 내지 도 3은 본 발명에 따른 워크로드 예측 모델을 이용한 컨테이너 재배치 방법을 나타낸 것이다.
도 1에 따르면, 본 발명에 따른 재배치 방법은 노드 서버의 자원 사용량 데이터를 학습하여 예측 데이터를 생성하는 단계(S1100), 및 노드 서버의 자원 임계치 정보 및 상기 예측 데이터를 기초로, 상기 노드 서버의 컨테이너를 타 노드 서버로 재배치하는 단계(S1200)를 포함할 수 있다.
또한, 예측 데이터를 생성하는 단계(S1100)는 자원 사용량 데이터를 수집하는 단계(S1110), 자원 사용량 데이터에 대한 군집화를 수행하는 단계(S1120), 군집화에 따른 예측 모델을 생성하는 단계(S1130) 및 예측 모델을 기초로 예측 데이터를 생성하는 단계(S1140)를 포함할 수 있다.
또한, 재배치하는 단계(S1200)는 타 노드 서버의 자원 임계치 정보에 기초하여, 신규 노드 서버를 추가하는 단계(S1210), 및 노드 서버의 컨테이너를 신규 노드 서버로 재배치하는 단계(S1220)일 수 있다.
도 4은 본 발명에 따른 워크로드 예측 모델을 이용한 컨테이너 재배치 방법의 일 예시를 나타낸 것이다.
도 4에 따르면, 본 발명에 따른 컨테이너 재배치 방법은 분산 협업형 컨테이너 플랫폼에서 수집된 모니터링 데이터를 기반으로 향후 발생할 수 있는 워크로드를 예측할 수 있다.
예측된 데이터는 분산 협업형 컨테이너 플랫폼 내의 멀티 클러스터의 워크로드 밸런스를 고려하여 최적화된 컨테이너 재배치될 수 있다. 또한, 본 발명에 따른 예측에 사용되는 방법은 머신 러닝/딥 러닝 기반으로 한 멀티 워크로드 예측 기술을 포함할 수 있다.
본 발명에 따른 컨테이너 재배치 방법은 수집된 모니터링 데이터 기반하여 예측 데이터를 생성하고 분석하며, 딥러닝 분석을 이용하여 LSTM 알고리즘 기반의 예측 데이터 분석을 수행할 수 있다.
또한, LSTM 알고리즘을 사용함으로써, 본 발명에 따른 컨테이너 재배치 방법은 대규모 컨테이너 및 노드의 워크로드의 예측 분석을 처리하는데 필요한 컴퓨팅 파워를 계산하여 딥러닝 분석 전용 서버 구축할 수 있는 효과를 가진다.
또한, 본 발명은 가상화 된 컨테이너 호스트 노드 사용시 호스트 노드 자원 사용기반의 워크로드 밸런스를 고려한 최적화 및 호스트 노드 Auto scaling 관리가 가능하다.
도 5 내지 도 7은 본 발명에 따른 예측 데이터를 생성하는 단계의 일 예시를 나타낸 것이다.
도 5 및 도 6에 따르면, 본 발명에 따른 LSTM 알고리즘은 양방향 알고리즘으로서 Bi-LSTM 알고리즘일 수 있다. Bi-LSTM 알고리즘은 기존 LSTM 계층에 역방향으로 처리하는 LSTM 계층을 추가한 예측 모델로서, 기존의 RNN 알고리즘 또는 LSTM 알고리즘의 직선 패턴 기반의 일방향의 결과물 도출이라는 단점을 해결할 수 있다. 즉, 본 발명에 따른 Bi-LSTM 알고리즘은 각 방향의 학습 결과를 따로 결합하기 때문에 데이터가 길어도 성능이 저하되지 않을 수 있다.
도 7에 따르면, 본 발명에 따른 예측 데이터 생성 단계(S1100)는 노드 서버의 자원 사용량 패턴 데이터를 기반으로 학습된 예측 모델을 사용할 수 있다. 이때, 복수의 노드 서버의 경우, 모든 서버의 사용 패턴이 서로 다르므로, 본 발명에 따른 예측 데이터 생성 단계는 자원 사용량 패턴 데이터에 대하여 군집화를 수행할 수 있다. 군집화 수행 결과 크게 4개의 패턴으로 구분할 수 있다. 본 발명에 따른 예측 모델은 생성된 군집 각각에 대하여 생성될 수 있다.
본 발명에 따른 예측 데이터 생성 단계(S1100)는 예측을 위하여 수집된 데이터의 패턴을 도출하고, 미리 생성한 복수의 예측 모델 중 하나의 예측 모델에 도출된 패턴을 입력하여 워크로드를 예측한 예측 데이터를 생성할 수 있다.
즉, 예측 모델을 생성하기 위한 프로세스는 노드 서버의 성능 데이터를 수집하고, 성능 데이터에 대하여 SOM 군집화 알고리즘을 적용하여 군집화를 수행하며, 군집 별로 LSTM 알고리즘을 적용하여 예측 모델을 생성할 수 있다.
또한, 성능 예측을 위한 프로세서는 성능 데이터를 수집하고, 성능 데이터가 어떤 군집에 해당하는지 분류하며, 분류된 모델을 이용하여 예측을 수행할 수 있다. 결과값은 예측 데이터로서 DB에 저장될 수 있다.
도 8 내지 도 10은 본 발명에 따른 재배치 단계의 일 예시를 나타낸 것이다.
도 8에 따르면, 본 발명에 따른 재배치 단계(S1200)는 노드 서버의 CPU, Memory 임계치를 설정하고, 예측 결과가 임계치를 넘으면 자원 사용율이 높은 컨테이너를 다른 클러스터의 노드로 재배치할 수 있다. 다만, 본 발명에 따른 재배치 단계는 플랫폼 전체의 자원이 부족할 것으로 예상되면 노드를 추가하고 컨테이너 재배치할 수 있다.
임계치 설정 및 모니터링을 위하여, 본 발명에 따른 재배치 단계(S1200)는 Workload Optimizer로 하여금 플랫폼 운영자가 등록한 노드 서버의 자원 임계치와 워크로드 예측 결과를 모니터링하도록 할 수 있다.
또한, 자원 재배치 수행을 위하여, 본 발명에 따른 재배치 단계(S1200)는 컨테이너(파드) 워크로드 예측 결과가 임계치에 도달하면 컨테이너를 다른 클러스터로 재배치(migration)할 수 있다. 또한, 본 발명에 따른 재배치 단계(S1200)는 클러스터 내 모든 노드 서버의 예측 결과가 자원 임계치에 도달한 경우 신규 노드서버를 추가(scaling)하고 컨테이너 재배치 수행할 수 있다.
도 9에 따르면, 본 발명에 따른 재배치 단계(S1200)는 예측된 워크로드 정보를 기반으로 컨테이너를 다른 클러스터 노드로 재배치할 수 있다. 즉, 본 발명에 따른 재배치 단계(S1200)는 워커노드의 CPU 사용량 예측을 통해 파드를 재배치할 수 있다. 이때, 워커 노드들의 향후 1분 뒤 예측되는 노드 CPU 사용율을 기반으로, 본 발명에 따른 재배치 단계(S1200)는 파드의 위치를 재배치할 수 있다. 이때 사용될 수 있는 재배치 기준은 아래와 같다.
(1)노드 : 향후 1분 뒤 CPU 사용율이 가장 적은 노드
(2)파드 : 1분 뒤 사용율 증가로 인해 노드의 CPU 임계치를 넘기게 할 것으로 예상되는 파드
단, 본 발명에 따른 재배치 단계(S1200)는 서비스 품질 유지를 위한 (SLA) 노드 CPU의 임계치를 설정하는 것이 전제되며, 파드와 노드의 CPU 예측을 위해 멀티-인풋(파드CPU,노드CPU) 모델이 사용될 수도 있다. 또한, 파드 재배치를 위한 마이그레이션 시간을 고려하여 예측 시간은 "1분+마이그레이션 시간"이 될 수 있다. 또한, 파드의 이동으로 인해 발생하는 대상 노드들 부하 증감을 예측할 필요가 있다.
도 10에 따르면, 본 발명에 따른 재배치 단계(S1200)는 호스트 노드 Auto scaling 관리를 수행할 수 있다. 이는 예측된 워크로드 정보를 기반으로 노드를 자동으로 확장하는 프로세스일 수 있다.
스케일 아웃의 경우, 본 발명에 따른 재배치 단계(S1200)는 프로비저닝 시간을 고려하여 향후 10분 이상 뒤의 노드 CPU 사용율을 예측할 수 있다. 예측 결과, 클러스터 내 모든 워커 노드가 임계치 이상인 경우 스케일 아웃될 수 있다.
스케일 인의 경우, 본 발명에 따른 재배치 단계(S1200)는 노드의 사용율이 임계치 이하인 경우에 해당 노드의 파드를 다른 노드로 이동시키고 10분뒤 종료할 수 있다. 단, 제거 대상 노드의 파드를 다른 노드로 이동시켜도 노드 CPU 임계치가 유지되어야 하며, 빈번한 생성/삭제로 인한 리소스 낭비를 막기 위해 한번의 생성 혹은 삭제 액션 뒤에 10분의 쿨링다운타임을 가질 수 있다. 또한, 삭제를 바로 진행하면 삭제하는 동안 새로운 파드가 스케줄링되면 또 스케일 아웃이 필요할 수도 있기 때문에 10분정도 삭제하지 않는 시간이 필요할 수 있다.
도 11 및 도 12는 본 발명에 따른 예측 모델에 따른 예측 데이터의 정확도를 나타낸 것이다.
도 11에 따르면, 머신러닝 학습 따른 학습 데이터셋과 테스트 데이터셋의 손실율이 나타나며, 도 12에 따르면, 테스트 셋과 예측 모델 예측 결과를 비교한 정확도가 나타난다.
도 12에 따르면, MAE 및 MSE 검증 결과 오차율은 5% 이내인 것으로 나타난다. 따라서, 본 발명에 따른 예측 데이터는 검증 오차율이 준수한 것으로서 현저한 효과를 가지는 것이 확인된다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.
앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (5)

  1. 노드 서버의 자원 사용량 데이터를 학습하여 예측 데이터를 생성하는 단계; 및
    상기 노드 서버의 자원 임계치 정보 및 상기 예측 데이터를 기초로, 상기 노드 서버의 컨테이너를 타 노드 서버로 재배치하는 단계;를 포함하는,
    분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법.
  2. 제1항에 있어서,
    상기 예측 데이터를 생성하는 단계는,
    상기 자원 사용량 데이터를 수집하는 단계;
    상기 자원 사용량 데이터에 대한 군집화를 수행하는 단계;
    상기 군집화에 따른 예측 모델을 생성하는 단계; 및
    상기 예측 모델을 기초로 상기 예측 데이터를 생성하는 단계;를 포함하는 것인,
    분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법.
  3. 제2항에 있어서,
    상기 군집화를 수행하는 단계는,
    자가조직화지도(SOM) 알고리즘을 이용하여 상기 자원 사용량 데이터에 대한 군집화를 수행하는 것인,
    분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법.
  4. 제2항에 있어서,
    상기 예측 모델을 생성하는 단계는,
    Bi-LSTM 알고리즘을 이용하여 상기 군집화에 따라 생성된 군집에 대한 예측 모델을 생성하는 것인,
    분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법.
  5. 제1항에 있어서,
    상기 재배치하는 단계는,
    상기 타 노드 서버의 자원 임계치 정보에 기초하여, 신규 노드 서버를 추가하는 단계; 및
    상기 노드 서버의 컨테이너를 상기 신규 노드 서버로 재배치하는 단계;를 포함하는 것인,
    분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법.
KR1020210136911A 2021-10-14 2021-10-14 분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법 KR20230053424A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210136911A KR20230053424A (ko) 2021-10-14 2021-10-14 분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210136911A KR20230053424A (ko) 2021-10-14 2021-10-14 분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법

Publications (1)

Publication Number Publication Date
KR20230053424A true KR20230053424A (ko) 2023-04-21

Family

ID=86098649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210136911A KR20230053424A (ko) 2021-10-14 2021-10-14 분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법

Country Status (1)

Country Link
KR (1) KR20230053424A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100826833B1 (ko) 2003-03-10 2008-05-06 인터내셔널 비지네스 머신즈 코포레이션 가변 워크로드의 존재시 컴퓨팅 배치 관리 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100826833B1 (ko) 2003-03-10 2008-05-06 인터내셔널 비지네스 머신즈 코포레이션 가변 워크로드의 존재시 컴퓨팅 배치 관리 방법 및 장치

Similar Documents

Publication Publication Date Title
US10956230B2 (en) Workload placement with forecast
Nardelli et al. Efficient operator placement for distributed data stream processing applications
US10705873B2 (en) Predictive virtual server scheduling and optimization of dynamic consumable resources to achieve priority-based workload performance objectives
Hussein et al. A light-weight data replication for cloud data centers environment
US20240037395A1 (en) Asymmetric parallel processing appliance for generation of superior strategies for deployment to real time actual conditions
CN110362388B (zh) 一种资源调度方法及装置
US9772871B2 (en) Apparatus and method for leveraging semi-supervised machine learning for self-adjusting policies in management of a computer infrastructure
Shukla et al. A multiphase pre-copy strategy for the virtual machine migration in cloud
JP6031462B2 (ja) 仮想マシン配置装置及び方法及びプログラム
US20220317744A1 (en) Data analytics for mitigation of data center thermal issues
Raouf et al. A predictive multi-tenant database migration and replication in the cloud environment
CN113157383A (zh) 一种OpenStack环境下动态调整超配比的方法
JP2021197010A (ja) 分散型ストレージシステム及びリバランス処理方法
KR20230053424A (ko) 분산 협업형 컨테이너 플랫폼에서 워크로드 예측 모델을 이용한 컨테이너 재배치 방법
Chellouf et al. Popularity and correlation aware data replication strategy based on half‐life concept and clustering in cloud system
US20170364581A1 (en) Methods and systems to evaluate importance of performance metrics in data center
KR102054068B1 (ko) 그래프 스트림에 대한 실시간 분산 저장을 위한 분할 방법 및 분할 장치
JP5500301B2 (ja) 監視制御システム、監視制御方法、監視制御サーバ及び監視制御プログラム
Velinov et al. Optimization of Cloud Costs
US20240281340A1 (en) Method, electronic device, and computer program product for adjusting performance of block storage system
Qin et al. Exploring a forecasting structure for the capacity usage in backup storage systems
US20240303127A1 (en) Systems and methods for edge system resource capacity performance prediction
US20240303134A1 (en) Systems and methods for edge resource demand load estimation
US20240303130A1 (en) Systems and methods for edge resource demand load scheduling
US20240305535A1 (en) Systems and methods for edge system resource capacity dynamic policy planning framework