KR20200133484A - 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법 - Google Patents

분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법 Download PDF

Info

Publication number
KR20200133484A
KR20200133484A KR1020190058744A KR20190058744A KR20200133484A KR 20200133484 A KR20200133484 A KR 20200133484A KR 1020190058744 A KR1020190058744 A KR 1020190058744A KR 20190058744 A KR20190058744 A KR 20190058744A KR 20200133484 A KR20200133484 A KR 20200133484A
Authority
KR
South Korea
Prior art keywords
learning
task
server
artificial intelligence
prediction model
Prior art date
Application number
KR1020190058744A
Other languages
English (en)
Other versions
KR102308105B9 (ko
KR102308105B1 (ko
Inventor
강정석
권찬영
강순환
Original Assignee
주식회사 에이젠글로벌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이젠글로벌 filed Critical 주식회사 에이젠글로벌
Priority to KR1020190058744A priority Critical patent/KR102308105B1/ko
Publication of KR20200133484A publication Critical patent/KR20200133484A/ko
Priority to KR1020210067955A priority patent/KR102421254B1/ko
Application granted granted Critical
Publication of KR102308105B1 publication Critical patent/KR102308105B1/ko
Publication of KR102308105B9 publication Critical patent/KR102308105B9/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

본 발명의 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법은, 인공지능 플랫폼에 적용되고, 학습 서버 클러스터와 통신하는 분산 병렬 기반 인공지능 예측 모델 관제 장치에 있어서, 학습 작업을 수신하고, 상기 학습 작업으로부터 학습 속성 정보를 추출하여, 상기 추출된 학습 속성 정보를 기반으로 상기 학습 작업의 처리 작업량을 예측하는 학습 실행 스케줄링부; 상기 학습 실행 스케줄링부가 다수의 학습 작업을 수신하면, 상기 다수의 학습 작업에 대한 병렬화 처리를 수행하는 병렬 실행 관리부; 상기 예측된 학습 작업의 처리 작업량을 고려하여, 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 분산 실행 관리부; 상기 학습 서버로 할당된 학습 작업의 실제 처리 작업량을 계산하고, 상기 실제 처리 작업량을 기초로 과금 정보를 생성하는 학습 작업 자원 관리부; 및 상기 학습 서버 클러스터로부터 다수의 학습 서버의 최적화 타입 및 유휴 용량을 수집하여, 서버 상태 정보를 생성하는 클러스터 관리부를 포함한다.

Description

분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법{APPARATUS AND METHOD OF ARITICIAL INTELLIGENCE PREDICTIVE MODEL BASED ON DIPERSION PARALLEL}
본 발명은 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법에 관한 것이다.
기계 학습 또는 머신 러닝(Machine Learning)은 인공 지능의 한 분야로, 컴퓨터가 학습할 수 있도록 하는 알고리즘과 기술을 개발하는 분야를 통칭한다.
기본적으로 기계 학습을 통해 컴퓨터가 특정 문제에 대한 올바른 답을 도출할 수 있도록 학습 데이터를 통해 문제와 답 사이의 연관 관계를 스스로 학습할 수 있으며, 학습 데이터와 같은 다양한 정보들을 조합해 자신의 관점으로 새로운 명제를 추론하거나 미래를 예측할 수 있다.
그런데, 상기와 같은 기술은 다음과 같은 문제가 있다.
최근 정보 처리 기술이 발달함에 따라, 컴퓨터는 기계 학습에 있어서 대용량의 학습 데이터를 처리해야 하며, 이 과정은 순차적으로 진행되어 복잡하고 오랜 시간이 소요는 단점이 있다.
이에 따라, 많은 작업량을 짧은 시간에 처리하기 위하여, 컴퓨터의 하드웨어 성능을 향상시키는 방법 또는 컴퓨터를 효율적으로 구동시키기 위한 소프트웨어를 개발하는 방법 등이 연구가 필요하다.
본 발명의 실시예들은 상기와 같은 문제를 해결하기 위해 제안된 것으로서, 다수의 독립적인 데이터를 분산하여 병렬 처리할 수 있는 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법을 제공하고자 한다.
또한, 본 발명의 실시예들은 순차적으로 데이터를 처리하는 방법보다 데이터를 짧은 시간 내에 처리할 수 있는 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법을 제공하고자 한다.
본 발명의 일 실시예에 따른 분산 병렬 기반 인공지능 예측 모델 관제 장치는 인공지능 플랫폼에 적용되고, 학습 서버 클러스터와 통신하는 분산 병렬 기반 인공지능 예측 모델 관제 장치에 있어서, 학습 작업을 수신하고, 상기 학습 작업으로부터 학습 속성 정보를 추출하여, 상기 추출된 학습 속성 정보를 기반으로 상기 학습 작업의 처리 작업량을 예측하는 학습 실행 스케줄링부; 상기 학습 실행 스케줄링부가 다수의 학습 작업을 수신하면, 상기 다수의 학습 작업에 대한 병렬화 처리를 수행하는 병렬 실행 관리부; 상기 예측된 학습 작업의 처리 작업량을 고려하여, 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 분산 실행 관리부; 상기 학습 서버로 할당된 학습 작업의 실제 처리 작업량을 계산하고, 상기 실제 처리 작업량을 기초로 과금 정보를 생성하는 학습 작업 자원 관리부; 및 상기 학습 서버 클러스터로부터 다수의 학습 서버의 최적화 타입 및 유휴 용량을 수집하여, 서버 상태 정보를 생성하는 클러스터 관리부를 포함할 수 있다.
또한, 상기 학습 실행 스케줄링부는 병렬화 처리된 각각의 학습 작업에 대한 처리 작업량을 예측한다.
또한, 상기 학습 실행 스케줄링부는 상기 추출된 학습 속성 정보에 포함되는, 상기 학습 작업의 타입 정보 및 처리 용량을 기반으로 상기 학습 작업의 처리 작업량을 예측할 수 있다.
또한, 상기 학습 실행 스케줄링부는 상기 학습 작업의 타입 정보를 이용하여 상기 학습 작업의 작업 타입을 예측하고, 상기 학습 작업의 처리 용량을 이용하여 상기 학습 작업이 수행될 상기 학습 서버에 포함된 워커의 개수를 예측한다.
또한, 상기 분산 실행 관리부는 상기 클러스터 관리부로부터 상기 서버 상태 정보를 수신하여, 상기 서버 상태 정보에 포함되는, 상기 학습 서버의 최적화 타입 및 유휴 용량을 모니터링할 수 있다.
또한, 상기 분산 실행 관리부는 예측된 작업 타입을 기초로, 상기 학습 작업의 작업 타입에 최적화된 상기 학습 서버를 선별하고, 상기 선별된 학습 서버의 포함된 유휴 워커의 개수를 계산한다.
또한, 상기 분산 실행 관리부는 예측된 워커의 개수와 상기 계산된 유휴 워커의 개수를 비교하여 상기 학습 작업을 할당할 상기 학습 서버를 결정할 수 있다.
또한, 상기 분산 실행 관리부는 상기 계산된 유휴 워커의 개수가 상기 예측된 워커의 개수보다 적으면, 상기 학습 작업을 할당할 상기 학습 서버의 결정을 대기하고, 상기 학습 작업의 할당을 상기 선별된 학습 서버에 예약한다.
또한, 본 발명의 일 실시예에 따른 분산 병렬 기반 인공지능 예측 모델 관제 방법은 인공지능 플랫폼에 적용되고, 학습 서버 클러스터와 통신하는 분산 병렬 기반 인공지능 예측 모델 관제 방법에 있어서, 학습 작업을 수신하고, 상기 학습 작업으로부터 학습 속성 정보를 추출하여, 상기 추출된 학습 속성 정보를 기반으로 상기 학습 작업의 처리 작업량을 예측하는 단계; 상기 예측된 학습 작업의 처리 작업량을 고려하여, 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 단계; 및 상기 학습 서버로 할당된 학습 작업의 실제 처리 작업량을 계산하고, 상기 실제 처리 작업량을 기초로 과금 정보를 생성하는 단계를 포함할 수 있다.
또한, 상기 예측하는 단계는 다수의 학습 작업을 수신하면, 상기 다수의 학습 작업에 대한 병렬화 처리를 수행하는 단계 및 상기 병렬화 처리된 각각의 학습 작업에 대한 처리 작업량을 예측하는 단계를 더 포함한다.
또한, 상기 예측하는 단계는 상기 추출된 학습 속성 정보에 포함되는, 학습 작업의 타입 정보를 이용하여 상기 학습 작업의 작업 타입을 예측하는 단계 및 상기 추출된 학습 속성 정보에 포함되는, 학습 작업의 처리 용량을 이용하여 상기 학습 작업이 수행될 상기 학습 서버에 포함된 워커의 개수를 예측하는 단계를 더 포함할 수 있다.
또한, 상기 결정하는 단계는 서버 상태 정보를 수신하여, 상기 서버 상태 정보에 포함되는, 상기 학습 서버의 최적화 타입 및 유휴 용량을 모니터링하는 단계; 예측된 작업 타입을 기초로, 상기 학습 작업의 작업 타입에 최적화된 상기 학습 서버를 선별하는 단계; 상기 학습 서버의 유휴 용량을 이용하여 선별된 학습 서버의 포함된 유휴 워커의 개수를 계산하는 단계; 및 예측된 워커의 개수와 상기 계산된 유휴 워커의 개수를 비교하여 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 단계를 더 포함한다.
또한, 상기 결정하는 단계는 상기 계산된 유휴 워커의 개수가 상기 결정된 워커의 개수보다 적으면, 상기 학습 작업을 할당할 상기 학습 서버의 결정을 대기하고, 상기 학습 작업의 할당을 선별된 학습 서버에 예약하는 단계를 더 포함할 수 있다.
본 발명의 실시예들에 따른 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법은 다수의 독립적인 데이터를 분산하여 병렬 처리할 수 있다.
또한, 본 발명의 실시예들은 순차적으로 데이터를 처리하는 방법보다 데이터를 짧은 시간 내에 처리할 수 있다.
도 1은 본 발명의 실시예들에 따른 분산 병렬 기반 인공지능 예측 모델 관제 장치를 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 학습 작업을 처리하는 분산 병렬 기반 인공지능 예측 모델 관제 장치를 설명하기 위한 개념도이다.
도 3은 본 발명의 다른 실시예에 따른 다수의 학습 작업을 병렬 분산 처리하는 분산 병렬 기반 인공지능 예측 모델 관제 장치를 설명하기 위한 개념도이다.
도 4는 본 발명의 다수의 학습 서버를 포함하는 클러스터에서 각각의 학습 서버가 특정 작업 타입으로 그룹화되는 것을 설명하기 위한 개념도이다.
도 5는 본 발명의 학습 작업의 작업 타입에 따라 학습 서버를 선별하는 방법을 설명하기 위한 개념도이다.
도 6은 본 발명의 학습 작업을 할당할 학습 서버를 결정하는 방법을 설명하기 위한 개념도이다.
도 7은 본 발명의 일 실시예에 따른 학습 작업을 처리하는 분산 병렬 기반 인공지능 예측 모델 관제 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 다수의 학습 작업에 대한 처리 작업량을 예측하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 다수의 학습 작업을 할당할 학습 서버를 결정하는 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 유휴 워커의 개수가 부족할 경우에, 학습 작업의 할당을 예약하는 방법을 설명하기 위한 흐름도이다.
본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.
한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.
도 1은 본 발명의 실시예들에 따른 분산 병렬 기반 인공지능 예측 모델 관제 장치를 설명하기 위한 개념도이다.
도 1을 참조하면, 인공지능 플랫폼(1)은 분산 병렬 기반 인공지능 예측 모델 관제 장치(10) 및 학습 서버 클러스터(20)를 포함한다.
분산 병렬 기반 인공지능 예측 모델 관제 장치(10)는 인공지능 플랫폼(1)을 효율적으로 운영하기 위한 장치로, 학습 서버 클러스터(20)와 연동하여 다수의 예측 모델을 병렬적으로 생성하고 관리할 수 있다.
또한, 분산 병렬 기반 인공지능 예측 모델 관제 장치(10)는 사용자로부터 기계 학습 실행요청을 수신하여 처리하며, 동시에 다수의 실행요청을 수신하여도 하나의 인공지능 플랫폼(1)에서 요청된 다수의 실행요청을 효율적으로 분산하여 처리할 수 있다.
학습 서버 클러스터(20)는 학습 데이터를 기초로 기계 학습 알고리즘을 통해 소정의 목적 변수를 예측하는 예측 모델을 생성할 수 있다.
도 1에 도시된 바와 같이, 분산 병렬 기반 인공지능 예측 모델 관제 장치(10)는 학습 실행 스케줄링부(100), 병렬 실행 관리부(200), 분산 실행 관리부(300), 학습 작업 자원 관리부(400) 및 클러스터 관리부(500)를 포함한다.
학습 실행 스케줄링부(100)는 인공지능 플랫폼(1)으로부터 기계 학습 실행요청 시에 학습 서버가 학습 작업을 수행함에 있어 필요한 작업량을 예측할 수 있다.
병렬 실행 관리부(200)는 인공지능 플랫폼으로부터 다수의 기계 학습 실행요청 시에 다수의 학습 작업을 병렬적으로 나열하여 관리할 수 있다.
분산 실행 관리부(300)는 예측된 작업량을 기반으로 학습 작업을 학습 서버에 할당할 수 있다.
학습 작업 자원 관리부(400)는 학습 서버가 학습 작업을 수행함에 있어 실제 작업량을 계산한다.
클러스터 관리부(500)는 학습 서버 클러스터(20)에 포함된 다수의 학습 서버를 관리할 수 있다.
학습 서버 클러스터(20)는 다수의 기계 학습 알고리즘 각각의 특성이 상이하기 때문에, 각 기계 학습 알고리즘에 사용될 특징을 서로 다르게 사용할 수 있다.
즉, 다수의 기계 학습 알고리즘의 특성을 기초로, 각각의 예측 모델의 학습에 사용될 각각의 학습 서버(제 1 학습 서버, 제 2 학습 서버, ..., 제 n 학습서버)를 포함하고, 각각의 학습 서버를 기초로 각각의 예측 모델을 생성할 수 있다.
도 2는 본 발명의 일 실시예에 따른 학습 작업을 처리하는 분산 병렬 기반 인공지능 예측 모델 관제 장치를 설명하기 위한 개념도이다.
도 2를 참조하면, 학습 실행 스케줄링부(100)는 인공지능 플랫폼(1)으로부터 학습 작업을 수신하고, 학습 작업으로부터 학습 속성 정보를 추출하여, 추출된 학습 속성 정보를 기반으로 학습 작업의 처리 작업량을 예측한다.
분산 실행 관리부(300)는 예측된 학습 작업의 처리 작업량을 고려하여, 학습 작업을 할당할 학습 서버를 결정한다.
학습 작업 자원 관리부(400)는 학습 서버로 할당된 학습 작업의 실제 처리 작업량을 계산하고, 상기 실제 처리 작업량을 기초로 과금 정보를 생성한다.
예를 들어, 인공지능 플랫폼으로부터 학습 실행 스케줄링부(100)가 기계 학습 실행 요청과 함께 제 1 학습 작업을 수신하면, 학습 실행 스케줄링부(100)는 제 1 학습 작업의 제 1 처리 작업량을 예측하고, 분산 실행 관리부(300)는 예측된 제 1 학습 작업의 제 1 처리 작업량을 기반으로 제 1 학습 작업을 제 1 학습 서버(21)에 할당하며, 학습 작업 자원 관리부(400)는 할당된 학습 작업의 제 1 실제 처리 작업량을 계산하여, 제 1 실제 처리 작업량을 기초로 과금 정보를 생성한다.
또한, 상기 학습 속성 정보는 학습 작업의 타입 정보 및 학습 작업의 처리 용량을 포함하며, 상기 학습 작업의 타입 정보는 롱 타입, 숏 타입, 비교분석 타입 및 GPU 타입을 포함할 수 있다.
구체적으로, 롱 타입은 해당 학습 작업을 처리하는데 걸리는 시간이 기 설정된 시간보다 크거나 같은 타입이며, 숏 타입은 해당 학습 작업을 처리하는 데 걸리는 시간이 기 설정된 시간보다 작은 타입일 수 있다.
또한, 비교분석 타입은 해당 학습 작업을 처리하는데 걸리는 시간과 관계없이, 다양한 데이터들을 기 설정된 데이터와 비교 분석하여 대용량 데이터의 알려지지 않은 속성을 발견하거나 규칙적으로 발현되는 패턴을 찾아내는 목적을 가진 타입이며, GPU 타입은 해당 학습 작업을 처리하는데 걸리는 시간과 관계없이, 이미지 프로세싱, 렌더링 및 과학 연산 등 고성능 연산 처리를 필요로 하는 타입이다.
도 3은 본 발명의 다른 실시예에 따른 다수의 학습 작업을 병렬 분산 처리하는 분산 병렬 기반 인공지능 예측 모델 관제 장치를 설명하기 위한 개념도이고, 도 4는 본 발명의 다수의 학습 서버를 포함하는 클러스터에서 각각의 학습 서버가 특정 작업 타입으로 그룹화되는 것을 설명하기 위한 개념도이고, 도 5는 본 발명의 학습 작업의 작업 타입에 따라 학습 서버를 선별하는 방법을 설명하기 위한 개념도이고, 도 6은 본 발명의 학습 작업을 할당할 학습 서버를 결정하는 방법을 설명하기 위한 개념도이다.
도 3에 도시된 바와 같이, 병렬 실행 관리부(200)는 학습 실행 스케줄링부(100)가 인공지능 플랫폼(1)으로부터 다수의 학습 작업을 수신하면, 상기 다수의 학습 작업에 대한 병렬화 처리를 수행한다.
이때, 학습 실행 스케줄링부(100)는 병렬 실행 관리부(200)로부터 병렬화 처리된 각각의 학습 작업에 대한 처리 작업량을 예측할 수 있다.
예를 들어, 학습 작업이 4개(제 1 학습 작업, 제 2 학습 작업, 제 3 학습 작업, 제 4 학습 작업)가 있다고 가정한다(실제로는 n 개의 학습 작업을 수행할 수 있지만 설명의 편의상 4개의 학습 작업을 기준으로 설명한다). 이때, 학습 실행 스케줄링부(100)가 4개(제 1 처리 작업량, 제 2 처리 작업량, 제 3 처리 작업량, 제 4 처리 작업량)의 처리 작업량을 예측하였다면, 분산 실행 관리부(300)는 예측된 4개의 학습 작업의 처리 작업량을 고려하여, 4개의 학습 작업을 할당할 학습 서버를 결정한다.
또한, 학습 실행 스케줄링부(100)는 4개의 학습 작업으로부터 각각 학습 속성 정보를 추출하고, 추출된 학습 속성 정보에 포함되는, 해당 학습 작업의 타입 정보 및 처리 용량을 기반으로 해당 학습 작업의 처리 작업량을 예측한다.
이때, 분산 실행 관리부(300)는 학습 서버 클러스터(20)에 포함된 제 1 학습 서버(21), 제 2 학습 서버(22), 제 3 학습 서버(23) 및 제 4 학습 서버(24)의 최적화 타입 및 유휴 용량을 모니터링하고, 4개의 학습 작업의 작업 타입을 각각 고려하여, 해당 학습 작업의 작업 타입에 최적화된 학습 서버에 4개의 학습 작업을 할당할 수 있다.
또한, 학습 작업 자원 관리부(400)는 할당된 4개의 학습 작업의 실제 처리 작업량을 계산하되, 제 1 학습 작업에 의해 생성된 제 1 실제 처리 작업량, 제 2 학습 작업에 의해 생성된 제 2 실제 처리 작업량, 제 3 학습 작업에 의해 생성된 제 3 실체 처리 작업량, 제 4 학습 작업에 의해 생성된 제 4 실체 처리 작업량을 생성할 수 있다.
더하여, 학습 작업 자원 관리부(400)는 생성된 4개의 실제 처리 작업량을 기초로 과금 정보를 생성할 수 있다.
또한, 과금 정보는 생성된 실제 처리 작업량을 기초로 생성하는 것이 바람직하나, 학습 작업의 처리 시간, 이용한 학습 서버의 개수, 학습 작업의 작업 타입을 더 고려할 수 있다.
도 4를 참조하면, 클러스터 관리부(500)는 학습 서버 클러스터(20)에 포함된 n개의 학습 서버를 롱 타입에 최적화된 제 1 학습 서버(21a), 숏 타입에 최적화된 제 2 학습 서버(22a), GPU 타입에 최적화된 제 3 학습 서버(23a) 및 비교분석 타입에 최적화된 제 4 학습 서버(24a)로 그룹화 할 수 있다.
또한, 클러스터 관리부(500)는 학습 서버 클러스터(20)로부터 다수의 학습 서버의 최적화 타입 및 유휴 용량을 수집하여, 서버 상태 정보를 생성할 수 있다.
본 발명에서 하나의 학습 서버가 하나의 최적화 타입을 가지도록 그룹화하는 것이 바람직하나, n개의 학습 서버 중 적어도 2개 이상의 학습 서버가 하나의 최적화 타입을 가지도록 그룹화할 수 있다.
예를 들어, 학습 서버가 4개(제 1 학습 서버, 제 2 학습 서버, 제 3 학습 서버, 제 4 학습 서버)가 있다고 가정하였을 때, 클러스터 관리부(500)는 제 1 학습 서버(21a)를 작업 타입이 롱 타입인 학습 작업에 최적화된 서버로 설정하고, 제 2 학습 서버(22a)를 작업 타입이 숏 타입인 학습 작업에 최적화된 서버로 설정하고, 제 3 학습 서버(23a)를 작업 타입이 GPU 타입인 학습 작업에 최적화된 서버로 설정하고, 제 4 학습 서버(24a)를 작업 타입이 비교분석 타입인 학습 작업에 최적화된 서버로 설정할 수 있다.
도 5에 도시된 바와 같이, 학습 실행 스케줄링부(100)는 학습 작업의 타입 정보를 이용하여 학습 작업의 작업 타입을 예측할 수 있다.
또한, 분산 실행 관리부(300)는 예측된 학습 타입을 기초로, 학습 작업의 작업 타입에 최적화된 학습 서버를 선별한다.
예를 들어, 학습 작업이 3개(제 1 학습 작업, 제 2 학습 작업, 제 3 학습작업)가 있고, 학습 서버가 3개(제 1 학습 서버, 제 2 학습 서버, 제 3 학습 서버)가 있다고 가정하였을 때, 분산 실행 관리부(300)는 롱 타입의 학습 작업에 최적화된 서버인 제 1 학습 서버(21a)를 제 1 학습 작업이 수행될 학습 서버로 선별하고, 숏 타입의 학습 작업에 최적화된 서버인 제 2 학습 서버(22a)를 제 2 학습 작업이 수행될 학습 서버로 선별하고, GPU 타입의 학습 작업에 최적화된 서버인 제 3 학습 서버(24a)를 제 3 학습 작업이 수행될 학습 서버로 선별할 수 있다.
도 6에 도시된 바와 같이, 학습 서버 클러스터(20)에 포함된 n 개의 학습 서버는 학습 작업이 수행될 적어도 하나의 워커를 더 포함할 수 있다.
또한, 학습 실행 스케줄링부(100)는 학습 작업의 처리 용량을 이용하여 학습 작업이 수행될 학습 서버에 포함된 워커의 개수를 예측할 수 있다.
또한, 도 4에 도시된 바와 같이, 분산 실행 관리부(300)는 클러스터 관리부(500)로부터 서버 상태 정보를 수신하여, 상기 서버 상태 정보에 포함되는, 학습 서버의 최적화 타입 및 유휴 용량을 모니터링한다.
더하여, 분산 실행 관리부(300)는 학습 서버의 유휴 용량을 이용하여 선별된 학습 서버의 포함된 유휴 워커(20b)의 개수를 계산할 수 있다.
또한, 분산 실행 관리부(300)는 예측된 워커의 개수와 계산된 유휴 워커(20b)의 개수를 비교하고 학습 작업을 할당할 학습 서버를 결정할 수 있다.
예를 들어, 도 5 내지 도 6을 참조하여 설명하면, 학습 작업이 3개(제 1 학습 작업, 제 2 학습 작업, 제 3 학습작업)가 있고, 학습 서버가 3개(제 1 학습 서버, 제 2 학습 서버, 제 3 학습 서버)가 있다고 가정한다. 학습 실행 스케줄링부(100)는 제 1 학습 작업으로부터 학습 속성 정보를 추출하여, 제 1 학습 작업의 작업 타입이 롱 타입이고 제 1 학습 작업이 수행될 워커의 개수가 2개임을 예측한다(제 1 처리 작업량 예측). 이후, 분산 실행 관리부(300)는 클러스터 관리부(500)로부터 서버 상태 정보를 수신하여, 상기 서버 상태 정보로부터 롱 타입의 학습 작업에 최적화된 서버인 제 1 학습 서버(21a)를 선별하고, 제 1 학습 서버(21a)에 작업을 수행 중인 1개의 수행 워커(20a)와 작업을 수행하고 있지 않은 2개의 유휴 워커(20b)를 모니터링할 수 있다. 다음으로, 분산 실행 관리부(300)는 롱 타입의 작업 타입에 최적화된 제 1 학습 서버(21a)의 포함된 유휴 워커(20b)가 2개 있음을 계산하고, 예측된 2개의 워커의 개수와 계산된 2개의 유휴 워커(20b)의 개수를 비교하여, 계산된 유휴 워커(20b)의 개수가 예측된 워커의 개수보다 같거나 크면, 제 1 학습 작업을 선별된 제 1 학습 서버(21a)에 할당하도록 결정한다.
다른 예로, 학습 실행 스케줄링부(100)는 제 3 학습 작업으로부터 학습 속성 정보를 추출하여, 제 2 학습 작업의 작업 타입이 숏 타입이고 제 2 학습 작업이 수행될 워커의 개수가 1개임을 예측한다(제 2 처리 작업량 예측). 이후, 분산 실행 관리부(300)는 클러스터 관리부(500)로부터 서버 상태 정보를 수신하여, 상기 서버 상태 정보로부터 숏 타입의 학습 작업에 최적화된 서버인 제 2 학습 서버(22a)를 선별하고, 제 2 학습 서버(22a)에 작업을 수행 중인 3개의 수행 워커(20a)를 모니터링할 수 있다. 다음으로, 분산 실행 관리부(300)는 숏 타입의 작업 타입에 최적화된 제 2 학습 서버(22a)의 포함된 유휴 워커(20b)가 0개 있음을 계산하고, 예측된 2개의 워커의 개수와 계산된 0개의 유휴 워커(20b)의 개수를 비교하여, 계산된 유휴 워커(20b)의 개수가 예측된 워커의 개수보다 적으면, 제 2 학습 작업을 할당할 학습 서버의 결정을 대기하고, 제 2 학습 작업의 할당을 선별된 제 2 학습 서버(22a)에 예약한다.
도 7은 본 발명의 일 실시예에 따른 학습 작업을 처리하는 분산 병렬 기반 인공지능 예측 인공지능 모델 관제 방법을 설명하기 위한 흐름도이고, 도 8은 본 발명의 다수의 학습 작업에 대한 처리 작업량을 예측하는 방법을 설명하기 위한 흐름도이고, 도 9는 본 발명의 다수의 학습 작업을 할당할 학습 서버를 결정하는 방법을 설명하기 위한 흐름도이고, 도 10은 본 발명의 유휴 워커의 개수가 부족할 경우에, 학습 작업의 할당을 예약하는 방법을 설명하기 위한 흐름도이다.
도 7 내지 도 10에 따른 분산 병렬 기반 인공지능 예측 모델 관제 방법의 각 단계는 도 1 내지 도 6을 통해 설명된 분산 병렬 기반 인공지능 예측 모델 관제 장치(10)에 의해 수행될 수 있으며, 각 단계를 설명하면 다음과 같다.
우선, 도 7을 참조하면, 학습 실행 스케줄링부(100)는 학습 작업을 수신하고, 학습 작업으로부터 학습 속성 정보를 추출하여, 추출된 학습 속성 정보를 기반으로 학습 작업의 처리 작업량을 예측한다(S100). 이후, 분산 실행 관리부(300)는 예측된 학습 작업의 처리 작업량을 고려하여, 학습 작업을 할당할 학습 서버를 결정한다(S110). 다음으로, 학습 서버로 할당된 학습 작업의 실제 처리 작업량을 계산하고, 실제 처리 작업량을 기초로 과금 정보를 생성한다(S120).
도 8에 도시된 바와 같이, 예측하는 단계(S100)에서 학습 실행 스케줄링부(100)가 다수의 학습 작업을 수신하면, 병렬 실행 관리부(200)는 다수의 학습 작업에 대한 병렬화 처리를 수행하고(S110), 병렬화 처리된 각각의 학습 작업에 대한 처리 작업량을 예측한다(S120).
또한, 학습 실행 스케줄링부(100)는 각각의 학습 작업으로부터 학습 속성 정보를 추출한다(S130). 이때, 학습 실행 스케줄링부(100)는 추출된 학습 속성 정보에 포함되는, 학습 작업의 타입 정보를 이용하여 각각의 학습 작업의 작업 타입을 예측한다(S140).
다음으로, 추출된 학습 속성 정보에 포함되는, 학습 작업의 처리 용량을 이용하여 학습 작업이 수행될 학습 서버에 포함된 워커의 개수를 예측한다(S150).
도 9 내지 도 10을 참조하면, 결정하는 단계(S200)에서 분산 실행 관리부(300)는 클러스터 관리부(500)로부터 서버 상태 정보를 수신하여, 서버 상태 정보에 포함되는, 학습 서버의 최적화 타입 및 유휴 용량을 모니터링한다(S210). 이후, 예측된 학습 작업의 작업 타입을 기초로, 학습 작업의 작업 타입에 최적화된 학습 서버를 선별한다(S220).
이후, 분산 실행 관리부(300)는 학습 서버의 유휴 용량을 이용하여 선별된 학습 서버의 포함된 유휴 워커(22b)의 개수를 계산한다(S230). 다음으로, 분산 실행 관리부(300)는 예측된 워커의 개수와 계산된 유휴 워커(22b)의 개수를 비교하여 학습 작업을 할당할 학습 서버를 결정한다(S240).
또한, 계산된 유휴 워커(22b)의 개수가 예측된 워커의 개수보다 적으면, 분산 실행 관리부(300)는 학습 작업을 할당할 학습 서버의 결정을 대기하고, 학습 작업의 할당을 선별된 학습 서버에 예약한다(S250).
이에 따라, 본 발명은 분산 병렬 기반 인공지능 예측 모델 관제 장치(10)를 이용하여 다수의 학습 작업을 병렬적으로 처리할 수 있어 다수의 예측 모델을 동시에 생성하고, 관리할 수 있는 효과가 있다.
이상의 상세한 설명은 본 발명을 예시하는 것이다.
또한, 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내어 설명하는 것이며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당 업계의 기술 또는 지식의 범위 내에서 변경 또는 수정이 가능하다. 저술한 실시 예는 본 발명의 기술적 사상을 구현하기 위한 최선의 상태를 설명하는 것이며, 본 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.
100: 학습 실행 스케줄링부
200: 병렬 실행 관리부
300: 분산 실행 관리부
400: 학습 작업 자원 관리부
500: 클러스터 관리부
10: 분산 병렬 기반 인공지능 예측 모델 관제 장치
20: 학습 서버 클러스터

Claims (13)

  1. 인공지능 플랫폼에 적용되고, 학습 서버 클러스터와 통신하는 분산 병렬 기반 인공지능 예측 모델 관제 장치에 있어서,
    학습 작업을 수신하고, 상기 학습 작업으로부터 학습 속성 정보를 추출하여, 상기 추출된 학습 속성 정보를 기반으로 상기 학습 작업의 처리 작업량을 예측하는 학습 실행 스케줄링부;
    상기 학습 실행 스케줄링부가 다수의 학습 작업을 수신하면, 상기 다수의 학습 작업에 대한 병렬화 처리를 수행하는 병렬 실행 관리부;
    상기 예측된 학습 작업의 처리 작업량을 고려하여, 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 분산 실행 관리부;
    상기 학습 서버로 할당된 학습 작업의 실제 처리 작업량을 계산하고, 상기 실제 처리 작업량을 기초로 과금 정보를 생성하는 학습 작업 자원 관리부; 및
    상기 학습 서버 클러스터로부터 다수의 학습 서버의 최적화 타입 및 유휴 용량을 수집하여, 서버 상태 정보를 생성하는 클러스터 관리부를 포함하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  2. 제 1항에 있어서,
    상기 학습 실행 스케줄링부는,
    병렬화 처리된 각각의 학습 작업에 대한 처리 작업량을 예측하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  3. 제 1항에 있어서,
    상기 학습 실행 스케줄링부는,
    상기 추출된 학습 속성 정보에 포함되는, 상기 학습 작업의 타입 정보 및 처리 용량을 기반으로 상기 학습 작업의 처리 작업량을 예측하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  4. 제 3항에 있어서,
    상기 학습 실행 스케줄링부는,
    상기 학습 작업의 타입 정보를 이용하여 상기 학습 작업의 작업 타입을 예측하고,
    상기 학습 작업의 처리 용량을 이용하여 상기 학습 작업이 수행될 상기 학습 서버에 포함된 워커의 개수를 예측하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  5. 제 1항에 있어서,
    상기 분산 실행 관리부는,
    상기 클러스터 관리부로부터 상기 서버 상태 정보를 수신하여, 상기 서버 상태 정보에 포함되는, 상기 학습 서버의 최적화 타입 및 유휴 용량을 모니터링하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  6. 제 4항에 있어서,
    상기 분산 실행 관리부는,
    예측된 작업 타입을 기초로, 상기 학습 작업의 작업 타입에 최적화된 상기 학습 서버를 선별하고,
    상기 선별된 학습 서버의 포함된 유휴 워커의 개수를 계산하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  7. 제 6항에 있어서,
    상기 분산 실행 관리부는,
    예측된 워커의 개수와 상기 계산된 유휴 워커의 개수를 비교하여 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  8. 제 7항에 있어서,
    상기 분산 실행 관리부는,
    상기 계산된 유휴 워커의 개수가 상기 예측된 워커의 개수보다 적으면, 상기 학습 작업을 할당할 상기 학습 서버의 결정을 대기하고,
    상기 학습 작업의 할당을 상기 선별된 학습 서버에 예약하는 분산 병렬 기반 인공지능 예측 모델 관제 장치.
  9. 인공지능 플랫폼에 적용되고, 학습 서버 클러스터와 통신하는 분산 병렬 기반 인공지능 예측 모델 관제 방법에 있어서,
    학습 작업을 수신하고, 상기 학습 작업으로부터 학습 속성 정보를 추출하여, 상기 추출된 학습 속성 정보를 기반으로 상기 학습 작업의 처리 작업량을 예측하는 단계;
    상기 예측된 학습 작업의 처리 작업량을 고려하여, 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 단계; 및
    상기 학습 서버로 할당된 학습 작업의 실제 처리 작업량을 계산하고, 상기 실제 처리 작업량을 기초로 과금 정보를 생성하는 단계를 포함하는 분산 병렬 기반 인공지능 예측 모델 관제 방법.
  10. 제 9항에 있어서,
    상기 예측하는 단계는,
    다수의 학습 작업을 수신하면, 상기 다수의 학습 작업에 대한 병렬화 처리를 수행하는 단계 및
    상기 병렬화 처리된 각각의 학습 작업에 대한 처리 작업량을 예측하는 단계를 더 포함하는 분산 병렬 기반 인공지능 예측 모델 관제 방법.
  11. 제 9항에 있어서,
    상기 예측하는 단계는,
    상기 추출된 학습 속성 정보에 포함되는, 학습 작업의 타입 정보를 이용하여 상기 학습 작업의 작업 타입을 예측하는 단계; 및
    상기 추출된 학습 속성 정보에 포함되는, 학습 작업의 처리 용량을 이용하여 상기 학습 작업이 수행될 상기 학습 서버에 포함된 워커의 개수를 예측하는 단계를 더 포함하는 분산 병렬 기반 인공지능 예측 모델 관제 방법.
  12. 제 11항에 있어서,
    상기 결정하는 단계는,
    서버 상태 정보를 수신하여, 상기 서버 상태 정보에 포함되는, 상기 학습 서버의 최적화 타입 및 유휴 용량을 모니터링하는 단계;
    예측된 작업 타입을 기초로, 상기 학습 작업의 작업 타입에 최적화된 상기 학습 서버를 선별하는 단계;
    상기 학습 서버의 유휴 용량을 이용하여 선별된 학습 서버의 포함된 유휴 워커의 개수를 계산하는 단계; 및
    예측된 워커의 개수와 상기 계산된 유휴 워커의 개수를 비교하여 상기 학습 작업을 할당할 상기 학습 서버를 결정하는 단계를 더 포함하는 분산 병렬 기반 인공지능 예측 모델 관제 방법.
  13. 제 12항에 있어서,
    상기 결정하는 단계는,
    상기 계산된 유휴 워커의 개수가 상기 결정된 워커의 개수보다 적으면, 상기 학습 작업을 할당할 상기 학습 서버의 결정을 대기하고, 상기 학습 작업의 할당을 선별된 학습 서버에 예약하는 단계를 더 포함하는 분산 병렬 기반 인공지능 예측 모델 관제 방법.
KR1020190058744A 2019-05-20 2019-05-20 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법 KR102308105B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190058744A KR102308105B1 (ko) 2019-05-20 2019-05-20 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법
KR1020210067955A KR102421254B1 (ko) 2019-05-20 2021-05-26 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190058744A KR102308105B1 (ko) 2019-05-20 2019-05-20 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210067955A Division KR102421254B1 (ko) 2019-05-20 2021-05-26 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법

Publications (3)

Publication Number Publication Date
KR20200133484A true KR20200133484A (ko) 2020-11-30
KR102308105B1 KR102308105B1 (ko) 2021-10-01
KR102308105B9 KR102308105B9 (ko) 2022-11-23

Family

ID=73641848

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190058744A KR102308105B1 (ko) 2019-05-20 2019-05-20 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법
KR1020210067955A KR102421254B1 (ko) 2019-05-20 2021-05-26 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210067955A KR102421254B1 (ko) 2019-05-20 2021-05-26 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법

Country Status (1)

Country Link
KR (2) KR102308105B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022169136A1 (en) * 2021-02-02 2022-08-11 Samsung Electronics Co., Ltd. Method, system and apparatus for federated learning

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113886036B (zh) * 2021-09-13 2024-04-19 天翼数字生活科技有限公司 用于优化分布式系统集群配置的方法和系统
WO2023177019A1 (ko) * 2022-03-18 2023-09-21 엘지전자 주식회사 에지 및 클라우드 간 협업 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130088512A (ko) * 2012-01-31 2013-08-08 한국전자통신연구원 클러스터 컴퓨팅 환경에서의 자원 관리 장치 및 방법
KR20160087706A (ko) * 2015-01-14 2016-07-22 한국전자통신연구원 가상화 플랫폼을 고려한 분산 데이터 처리 시스템의 자원 할당 장치 및 할당 방법
JP2018026050A (ja) * 2016-08-12 2018-02-15 富士通株式会社 並列処理装置、ジョブ管理プログラムおよびジョブ管理方法
KR20180028004A (ko) * 2016-09-07 2018-03-15 한국전자통신연구원 복수의 워커 노드가 분산된 환경에서 데이터 스트림을 분석하고 처리하는 방법 및 장치, 그리고 태스크를 관리하는 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130088512A (ko) * 2012-01-31 2013-08-08 한국전자통신연구원 클러스터 컴퓨팅 환경에서의 자원 관리 장치 및 방법
KR20160087706A (ko) * 2015-01-14 2016-07-22 한국전자통신연구원 가상화 플랫폼을 고려한 분산 데이터 처리 시스템의 자원 할당 장치 및 할당 방법
JP2018026050A (ja) * 2016-08-12 2018-02-15 富士通株式会社 並列処理装置、ジョブ管理プログラムおよびジョブ管理方法
KR20180028004A (ko) * 2016-09-07 2018-03-15 한국전자통신연구원 복수의 워커 노드가 분산된 환경에서 데이터 스트림을 분석하고 처리하는 방법 및 장치, 그리고 태스크를 관리하는 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022169136A1 (en) * 2021-02-02 2022-08-11 Samsung Electronics Co., Ltd. Method, system and apparatus for federated learning

Also Published As

Publication number Publication date
KR102421254B1 (ko) 2022-07-15
KR20210070253A (ko) 2021-06-14
KR102308105B9 (ko) 2022-11-23
KR102421254B9 (ko) 2022-11-23
KR102308105B1 (ko) 2021-10-01

Similar Documents

Publication Publication Date Title
KR102421254B1 (ko) 분산 병렬 기반 인공지능 예측 모델 관제 장치 및 방법
KR101867487B1 (ko) 클라우드 환경에서 퍼지기반의 마이그레이션 시스템 및 방법
US20200257968A1 (en) Self-learning scheduler for application orchestration on shared compute cluster
US9934071B2 (en) Job scheduler for distributed systems using pervasive state estimation with modeling of capabilities of compute nodes
KR20220006490A (ko) 워크로드 동적 자원 배치 및 최적화 수행관리를 위한 하이브리드 클라우드 자원 배분 방법
KR101471749B1 (ko) 클라우드 서비스의 가상자원 할당을 위한 퍼지 로직 기반의 자원평가 장치 및 방법
Asghari et al. A cloud resource management framework for multiple online scientific workflows using cooperative reinforcement learning agents
US20210357269A1 (en) Quality of service scheduling with workload profiles
Mohammadi Bahram Abadi et al. Self-adaptive architecture for virtual machines consolidation based on probabilistic model evaluation of data centers in Cloud computing
JP2008108261A (ja) 予備計算容量の追加を選択的に制御するシステム及び方法
Thamsen et al. Ellis: Dynamically scaling distributed dataflows to meet runtime targets
Mollamotalebi et al. Multi-objective dynamic management of virtual machines in cloud environments
Chiu-We et al. A performance model of MVS
US10754547B2 (en) Apparatus for managing disaggregated memory and method thereof
Caglar et al. Towards a performance interference-aware virtual machine placement strategy for supporting soft real-time applications in the cloud
Kwon et al. Dynamic scheduling method for cooperative resource sharing in mobile cloud computing environments
Zhang et al. Autrascale: an automated and transfer learning solution for streaming system auto-scaling
Azab et al. An adaptive decentralized scheduling mechanism for peer-to-peer desktop grids
WO2016084327A1 (ja) 資源予測装置、資源予測方法、資源予測プログラムおよび分散処理システム
Liu et al. Using ant colony optimization for superscheduling in computational grid
Fourati et al. A review of container level autoscaling for microservices-based applications
GB2504812A (en) Load balancing in a SAP (RTM) system for processors allocated to data intervals based on system load
Limna et al. Workload scheduling for Nokkhum video surveillance as a service
JP2012074056A5 (ko)
Janardhanan et al. Analysis and modeling of resource management overhead in Hadoop YARN Clusters

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
J202 Request for trial for correction [limitation]
J301 Trial decision

Free format text: TRIAL NUMBER: 2022105000073; TRIAL DECISION FOR CORRECTION REQUESTED 20220825

Effective date: 20221004