WO2022108002A1 - Cross model data integrated processing platform for automating task-specific platform selection - Google Patents

Cross model data integrated processing platform for automating task-specific platform selection Download PDF

Info

Publication number
WO2022108002A1
WO2022108002A1 PCT/KR2021/002674 KR2021002674W WO2022108002A1 WO 2022108002 A1 WO2022108002 A1 WO 2022108002A1 KR 2021002674 W KR2021002674 W KR 2021002674W WO 2022108002 A1 WO2022108002 A1 WO 2022108002A1
Authority
WO
WIPO (PCT)
Prior art keywords
platform
task
individual
operator
data
Prior art date
Application number
PCT/KR2021/002674
Other languages
French (fr)
Korean (ko)
Inventor
황다영
강준성
이석원
Original Assignee
주식회사 와이즈넛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와이즈넛 filed Critical 주식회사 와이즈넛
Publication of WO2022108002A1 publication Critical patent/WO2022108002A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to a method for automating a task-specific platform selection by a big data integrated processing platform server when a user terminal accesses a big data integrated processing platform connected to multiple individual platforms and requests big data analysis. While a workflow according to a user request is performed, operators included in each task are executed in an individual platform, and a performance time of each of the operators is predicted by using data obtained by monitoring a consumed CPU and memory, etc. Data obtained by monitoring a resource situation of an individual platform for each task and a type/field of data to be analyzed are used as learning data, so that a cost learner module for predicting a performance time of each of operators according to the individual platform is made in advance, wherein the cost learner module is executed to assist in a selection of an individual platform for each task. A special effect of the present invention is to save a time required for a platform selection and an analysis time.

Description

태스크별 플랫폼 선정을 자동화하는 크로스 모델 데이터 통합처리 플랫폼Cross-model data integration processing platform that automates platform selection for each task
본 발명은 플랫폼을 통한 빅데이터 수집 및 분석 기술에 관한다.The present invention relates to big data collection and analysis technology through a platform.
임박한 4차 산업혁명 시대에서 디지털 기술과 네트워크 기술을 기반으로 한 빅데이터 수집과 분석, 그리도 빅데이터 처리의 중요성이 크게 부각되고 있다. 이 시대를 맞이하여 데이터 가치는 괄목할 만하게 상승했다. 그러자 시장에서는 빅데이터를 운영하고 관리할 수 있는 빅데이터 플랫폼을 도입하여 자사 만의 시스템을 구축하는 시도가 곳곳에서 나타났다.In the era of the impending 4th industrial revolution, the importance of big data collection and analysis based on digital technology and network technology, and also big data processing is being highlighted. In this era, the value of data has risen remarkably. Then, in the market, attempts to build their own system by introducing a big data platform that can operate and manage big data appeared in various places.
IoT 기술 기반으로 다양한 센서를 통해 빅데이터를 수집한다. 또한 크롤링 기술을 통해 웹에서 빅데이터가 수집된다. 이렇게 수집된 빅데이터를 분석하면서 한편으로는 생산성 향상을 일으키고 다른 한편으로는 비용절감과 효율적인 관리뿐 아니라 새로운 서비스를 제공하는 일이 가능해졌다. Big data is collected through various sensors based on IoT technology. In addition, big data is collected from the web through crawling technology. By analyzing the big data collected in this way, it became possible to increase productivity on the one hand and provide new services as well as cost reduction and efficient management on the other hand.
그러나 세상에는 다양한 업종이 존재하고, 빅데이터를 수집하기 위해 저마다 만들어진 플랫폼도 다양하다. 또한 데이터에는 여러 유형과 분야가 있어서 그런 데이터를 분석하기 위한 최적의 분석 플랫폼이 서로 달라질 수밖에 없다. 빅데이터를 분석할 때 Hadoop, Spark, Python, R 등 다양한 도구와 플랫폼을 활용하여 분석할 수 있으나 각 기술분야를 습득하려면 많은 시간이 소모된다. 또한 분석 목적에 맞는 플랫폼을 선정하는 데 어려움이 있다. 결국 시간과 비용의 문제이기도 하다.However, there are various industries in the world, and there are various platforms created for collecting big data. Also, since there are many types and fields of data, the optimal analysis platform for analyzing such data is inevitably different. When analyzing big data, various tools and platforms such as Hadoop, Spark, Python, and R can be used for analysis, but it takes a lot of time to learn each technical field. In addition, it is difficult to select a platform suitable for the purpose of analysis. Ultimately, it is also a matter of time and cost.
본 발명의 발명자들은 위와 같은 문제점을 해결하기 위하여 오랫동안 연구하고 노력한 끝에 본 발명을 완성하기에 이르렀다. The inventors of the present invention have completed the present invention after long research and efforts to solve the above problems.
본 발명의 발명자들은 분석 목적에 맞는 플랫폼 선정의 어려운 문제를 해결하기 위해서 우선 다양한 플랫폼에 대한 이해, 그리고 그런 이해를 바탕으로 한 플랫폼의 선정, 그에 따른 데이터 분석 속도 보장 등을 문제 해결을 위한 솔루션으로 생각했다.In order to solve the difficult problem of selecting a platform suitable for analysis purposes, the inventors of the present invention first understand various platforms, select a platform based on such an understanding, and ensure data analysis speed accordingly as a solution for solving the problem. Thought.
따라서 본 발명의 목적은 하나의 통합된 데이터 분석 처리 시스템을 개발하여 분석할 플랫폼 선정을 자동화하는 데 있다. 이를 위해서는 분석 과정에서 소요되는 자원과 비용들을 절약하기 위한 수단이 필요하다. 이는 플랫폼 선정에 걸리는 시간과 데이터 분석 시간을 절약해주는 것이다. 즉, 빅데이터 사용자가 빅데이터 분석을 위해서 개별 플랫폼에 대한 기술 습득이 없어도 데이터를 분석할 수 있는 시스템을 제공하겠다는 것이며, 또한 개별 플랫폼 선정을 자동화하여 분석 결과를 도출하기 위한 시간을 단축시킴으로써 분석에 소요되는 리소스와 시간을 절약하겠다는 것이다.Therefore, an object of the present invention is to develop a single integrated data analysis processing system to automate the selection of a platform to be analyzed. For this, a means to save resources and costs required in the analysis process is needed. This saves time for platform selection and time for data analysis. In other words, it is intended to provide a system that enables big data users to analyze data without acquiring technology for individual platforms for big data analysis. This is to save time and resources.
한편, 본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론 할 수 있는 범위 내에서 추가적으로 고려될 것이다.On the other hand, other objects not specified in the present invention will be additionally considered within the range that can be easily inferred from the following detailed description and effects thereof.
위와 같은 과제를 달성하기 위한 본 발명은 사용자 단말이 복수의 개별 플랫폼들과 연결되는 빅데이터 통합처리 플랫폼에 접속하여 빅데이터 분석을 요청하는 경우, 상기 빅데이터 통합처리 플랫폼 서버가 태스크별 플랫폼 선정을 자동화하는 방법으로서:In the present invention for achieving the above object, when a user terminal accesses a big data integrated processing platform connected to a plurality of individual platforms and requests big data analysis, the big data integrated processing platform server selects a platform for each task As a method to automate:
사용자 단말의 워크플로우의 태스크들에 포함된 오퍼레이터들을 개별 플랫폼들에 각각 실행시키는 단계;executing operators included in tasks of a workflow of a user terminal on separate platforms, respectively;
상기 오퍼레이터별 개별 플랫폼의 CPU 사용량 및 메모리 사용량을 포함한 자원 상황 데이터를 모니터링하는 단계;monitoring resource status data including CPU usage and memory usage of individual platforms for each operator;
코스트 러너 모듈이 분석할 데이터 유형 및 상기 자원 상황 데이터를 이용하여 각 오퍼레이터들의 수행 시간을 예측하는 단계; 및estimating the execution time of each operator using the data type to be analyzed by the cost runner module and the resource status data; and
예측된 상기 오퍼레이들의 수행 시간을 통해 자동으로 태스크별 개별 플랫폼을 선정하는 단계를 포함하는 것을 특징으로 한다.and automatically selecting an individual platform for each task based on the predicted execution times of the operations.
본 발명의 바람직한 어느 실시예에 따른 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법에 있어서, 상기 빅데이터 통합처리 플랫폼 서버가 개별 플랫폼 작업의 수행 순서를 결정하는 단계를 더 포함하는 것이 좋다.In the method for automating platform selection for each task in a system connected to a plurality of individual platforms according to a preferred embodiment of the present invention, the method further comprising the step of determining, by the big data integrated processing platform server, an execution order of individual platform tasks it's good
또한, 본 발명의 바람직한 어느 실시예에 따른 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법에 있어서, 상기 코스트 러너 모듈이 오퍼레이터 종류, 분석 데이터 유형, 오퍼레이터별 CPU 사용량, 오퍼레이터별 메모리 사용량, 오퍼레이터 진행 상태, 오퍼레이터 완료 시간을 파라미터로 사용하여 각 오퍼레이터에 대한 코스트를 계산하는 단계를 더 포함할 수 있다.In addition, in the method for automating platform selection for each task in a system connected to a plurality of individual platforms according to a preferred embodiment of the present invention, the cost runner module includes the operator type, analysis data type, CPU usage by operator, and memory by operator The method may further include calculating a cost for each operator using the usage amount, the operator progress status, and the operator completion time as parameters.
본 발명의 바람직한 어느 실시예에 따른 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법에 있어서, 상기 코스트 러너 모듈은 머신 러닝 모델을 포함하는 것이 좋다.In the method for automating platform selection for each task in a system connected to a plurality of individual platforms according to a preferred embodiment of the present invention, the cost runner module may include a machine learning model.
또한, 본 발명의 바람직한 어느 실시예에 따른 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법에 있어서, 상기 워크플로우의 태스크들에 포함된 오퍼레이터들을 개별 플랫폼들에 각각 실행시키는 단계는 개별 플랫폼들의 컨테이너에 실행하는 것이다.In addition, in the method for automating platform selection for each task in a system connected to a plurality of individual platforms according to a preferred embodiment of the present invention, the step of executing the operators included in the tasks of the workflow on the individual platforms, respectively It runs in containers on individual platforms.
본 발명은 다수의 데이터 분석 플랫폼을 연동해서 관리하는 빅데이터 통합처리 플랫폼을 제안하고 있다. 무작정 다수의 플랫폼과 연동하여 빅데이터를 분석하려고 들면 시간과 자원을 많이 소모할 수밖에 없다. 분석하려는 데이터의 유형이 저마다 다르고, 그 데이터 분석을 실행하려는 개별 플랫폼의 자원 상황이 상이하기 때문이다. 여러 플랫폼을 연동하여 이기종 시스템의 상호운용성을 향상시키기 위해서는 분석에 소모되는 자원을 줄여줄 필요가 있다. The present invention proposes a big data integrated processing platform that interworks and manages multiple data analysis platforms. If you try to analyze big data by linking with multiple platforms, you will inevitably consume a lot of time and resources. This is because the type of data to be analyzed is different for each, and the resource situation of each platform to perform the data analysis is different. In order to improve interoperability of heterogeneous systems by linking multiple platforms, it is necessary to reduce the resources consumed for analysis.
본 발명은 분석 데이터의 유형과 개별 플랫폼의 각 태스크에 대한 CPU, 메모리 등의 자원 상황을 이용하여 각 태스크에 포함되어 있는 오퍼레이터별 수행시간을 예측한다. 이렇게 예측된 오퍼레이터들의 수행 시간을 통해 태스크별 플랫폼 선정을 자동으로 할 수 있기 때문에 빅데이터 분석에 드는 리소스와 시간을 절약할 수 있다. The present invention predicts the execution time for each operator included in each task by using the type of analysis data and resource conditions such as CPU and memory for each task of the individual platform. Since the platform selection for each task can be automatically performed through the operator's predicted execution time, it is possible to save resources and time for big data analysis.
한편, 여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급됨을 첨언한다.On the other hand, even if it is an effect not explicitly mentioned herein, it is added that the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as described in the specification of the present invention.
도 1은 본 발명의 바람직한 어느 실시예에 따른 시스템 구성을 개략적으로 나타내는 도면이다.1 is a diagram schematically showing a system configuration according to a preferred embodiment of the present invention.
도 2는 본 발명의 바람직한 어느 실시예에 따라 개별 플랫폼을 자동으로 선정하기 위해 개별 플랫폼에 오퍼레이터들을 각각 실행하는 개념을 개략적으로 나타내었다.Figure 2 schematically shows the concept of executing each operator on an individual platform to automatically select an individual platform according to a preferred embodiment of the present invention.
도 3은 본 발명의 바람직한 어느 실시예에 따라 태스크별 플랫폼 선정의 개념을 개략적으로 나타내었다.3 schematically shows the concept of platform selection for each task according to a preferred embodiment of the present invention.
도 4는 본 발명의 바람직한 어느 실시예에 따라 코스트 러너(120) 모듈 내에서 각 오퍼레이터의 코스트를 계산하는 과정을 개념적으로 나타내었다.4 conceptually illustrates a process of calculating the cost of each operator in the cost runner 120 module according to a preferred embodiment of the present invention.
도 5는 본 발명의 방법의 전체 프로세스를 개략적으로 예시하고 있다.5 schematically illustrates the overall process of the method of the present invention.
※ 첨부된 도면은 본 발명의 기술사상에 대한 이해를 위하여 참조로서 예시된 것임을 밝히며, 그것에 의해 본 발명의 권리범위가 제한되지는 아니한다.※ It is revealed that the accompanying drawings are exemplified as a reference for understanding the technical idea of the present invention, and the scope of the present invention is not limited thereby.
이하, 도면을 참조하여 본 발명의 다양한 실시예가 안내하는 본 발명의 구성과 그 구성으로부터 비롯되는 효과에 대해 살펴본다. 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, the configuration of the present invention guided by various embodiments of the present invention and effects resulting from the configuration will be described with reference to the drawings. In the description of the present invention, if it is determined that related known functions are obvious to those skilled in the art and may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
도 1은 본 발명의 바람직한 어느 실시예에 따른 시스템 구성을 개략적으로 나타내었다.1 schematically shows a system configuration according to a preferred embodiment of the present invention.
사용자 단말(10)이 빅데이터 통합처리 플랫폼에 접속한다. 이 빅데이터 통합처리 플랫폼은 하나 이상의 서버(100)로 구성된다. 그리고 서버는 하나 이상의 소프트웨어/하드웨어 장비로 이루어져 있다. 빅데이터 통합처리 플랫폼 서버(100)는 통신망을 통해 N(N은 1보다 큰 정수이다) 개의 이종 빅데이터 개별 플랫폼(200, 200…)과 연결된다. 그리고 빅데이터 통합처리 플랫폼 서버(100)는 이들 개별 플랫폼(200, 200…)의 데이터베이스(210, 210…)에 액세스하여 빅데이터를 수집한다. 개별 플랫폼(200, 200…)은 사용자 워크플로우에 따른 태스크들에 포함된 오퍼레이터를 실행할 때 프로세서가 동작하고 메모리를 사용한다. 본 발명의 빅데이터 통합처리 플랫폼 서버(100)는 이러한 개별 플랫폼(200, 200…)의 자원 상황을 모니터링한다. 이처럼 이종의 개별 플랫폼은 서로 연동되어 있다. The user terminal 10 accesses the big data integrated processing platform. This big data integrated processing platform consists of one or more servers 100 . And the server consists of one or more software/hardware devices. The big data integrated processing platform server 100 is connected to N (N is an integer greater than 1) heterogeneous big data individual platforms 200, 200... through a communication network. And the big data integrated processing platform server 100 accesses the databases 210, 210... of these individual platforms 200, 200... to collect big data. Individual platforms 200 , 200 ... use a processor and memory when executing an operator included in tasks according to a user workflow. The big data integrated processing platform server 100 of the present invention monitors the resource status of these individual platforms 200, 200... As such, heterogeneous individual platforms are interlocked with each other.
사용자들은 다양하며, 빅데이터를 수집해서 분석하려는 서로 다른 여러 가지 니즈가 있다. 본 발명은 그런 다양한 사람들이 자기 니즈에 맞게 여러 개별 플랫폼에 흩어져 있는 빅데이터를 통합하여 처리할 수 있는 수단을 제공한다.Users are diverse and have different needs for collecting and analyzing big data. The present invention provides a means for such diverse people to integrate and process big data scattered on several individual platforms to suit their needs.
사용자 단말(10)이 빅데이터 통합처리 플랫폼 서버(100)에 접속한 후에 빅데이터 분석을 요청하는 경우, 빅데이터 통합처리 플랫폼 서버(100)는 사용자 단말(10)에 빅데이터 분석에 가장 적합한 개별 플랫폼을 선정해 준다. 특히 코스트 러너(Cost Learner) 모듈(120)이 분석할 데이터의 유형/분야에 맞게 최적의 분석 플랫품을 태스크별로 선정해주는 작업을 수행한다. 도시되어 있지는 않지만, 빅데이터를 수집하고 처리하는 등의 일련의 프로세스를 실행하는 복수의 모듈이 빅데이터 통합처리 플랫폼 서버에 설치되어 있음은 당업자에게 자명하다.When the user terminal 10 requests big data analysis after accessing the big data integrated processing platform server 100 , the big data integrated processing platform server 100 provides the user terminal 10 with an individual most suitable for big data analysis. select the platform. In particular, the cost learner module 120 selects an optimal analysis platform for each task according to the type/field of data to be analyzed. Although not shown, it is apparent to those skilled in the art that a plurality of modules for executing a series of processes such as collecting and processing big data are installed in the big data integrated processing platform server.
빅데이터 통합처리 플랫폼 서버(100)는 사용자 단말(10)로부터 사용자가 요청하는 워크플로우(workflow)를 실행한다. 워크플로우는 사용자가 원하는 결과를 도출하기 위해 데이터를 변환하는 과정을 말한다. 본 발명의 시스템은 사용자 요청 워크플로우에 대한 태스크(Task)와 개별 플랫폼의 자원 상황에 관한 정보를 통해 상기 코스트 러너 모듈(120)을 이용하여 가 오퍼레이터(operator)들의 수행시간을 예측하고, 태스크별 적절한 플랫폼을 선정하도록 도와준다.The big data integrated processing platform server 100 executes a workflow requested by the user from the user terminal 10 . Workflow refers to the process of transforming data to produce a desired result by a user. The system of the present invention predicts the execution time of temporary operators using the cost runner module 120 through the task for the user request workflow and information on the resource status of each platform, and for each task Helping you choose the right platform.
데이터 분석 과정에서는 여러 태스크(Task)를 거친다. 그런 태스크로는 데이터 정제, 데이터 시각화, 예측 모델링 생성 등이 있다. 데이터 정제는 데이터를 분석하기 좋게 만드는 태스크이다. 결측치 처리, 이상치 처리, 범주형 데이터를 수치화하는 정규화 작업 등의 과정이 포함될 수 있다. 데이터 시각화 태스크는 데이터 분석 결과를 쉽게 이해할 수 있도록 시각적으로 표현하여 전달하는 과정이다. 예측 모델링 태스크는 머신러닝 및 딥러닝 알고리즘을 통한 다양한 모델링 기법을 선택하고, 모델링 과정에서 사용되는 세부 데이터들을 선정하여 최적화하는 과정이다. 또한 각 태스크에는 다양한 오퍼레이터(operator)들이 포함된다. 오퍼레이터는 데이터를 가공하고 처리하기 위한 목적으로 사용되는 연산자이다.In the process of data analysis, several tasks are passed. Such tasks include data cleansing, data visualization, and predictive modeling creation. Data cleansing is the task of making data good for analysis. Processes such as processing of missing values, processing of outliers, and normalization to quantify categorical data may be included. The data visualization task is a process of visually expressing and delivering data analysis results so that they can be easily understood. The predictive modeling task is a process of selecting various modeling techniques through machine learning and deep learning algorithms, and selecting and optimizing detailed data used in the modeling process. In addition, each task includes various operators. An operator is an operator used for the purpose of processing and processing data.
도 2는 본 발명의 바람직한 어느 실시예에 따른 태스크별 개별 플랫폼을 자동으로 선정해주는 방법의 요체를 개략적으로 나타낸다. 2 schematically shows the essence of a method for automatically selecting an individual platform for each task according to a preferred embodiment of the present invention.
빅데이터 통합처리 플랫폼 서버(100)는 전술한 바와 같이 사용자 워크플로우에 따른 태스크들에 포함된 오퍼레이터(15)들을 각각의 개별 플랫폼에서 실행시킨다. 도시되어 있는 것처럼, 오퍼레이터들을 개별 플랫폼 컨테이너(250)에 각각 실행시킨다. 그와 같은 개별 플랫폼 컨테이너(250)로는 Spark, JavaStreams, Flink, Graph 등이 있다. 그런 다음 빅데이터 통합처리 플랫폼 서버(100)는 개별 플랫폼이 오퍼레이터들을 실행할 때 소모되는 해당 개별 플랫폼의 자원을 모니터링한다. 개별 플랫폼들은 CPU를 실행하고 메모리를 사용할 것이다. 바람직하게는, 각 오퍼레이터(15)에 대한 CPU 사용량 및 메모리 사용량을 빅데이터 통합처리 플랫폼 서버(100)가 모니터링할 수 있다.The big data integrated processing platform server 100 executes the operators 15 included in the tasks according to the user workflow on each individual platform as described above. As shown, operators each run on separate platform containers 250 . Such individual platform containers 250 include Spark, JavaStreams, Flink, Graph, and the like. Then, the big data integrated processing platform server 100 monitors the resources of the individual platform consumed when the individual platform executes operators. Individual platforms will run the CPU and use memory. Preferably, the big data integrated processing platform server 100 may monitor CPU usage and memory usage for each operator 15 .
코스트 러너(120)는 분석할 데이터의 유형 정보와 위에서 모니터링한 개별 플랫폼들에 관한 자원 상황 데이터(즉, 각 오퍼레이터별 CPU 사용량 및 메모리 사용량 데이터를 포함한다)를 이용하여 오퍼레이터(15)들의 수행 시간을 예측하는 학습 모델을 생성해서 오퍼레이터(15)별 수행 시간을 예측한다. 분석할 데이터의 유형 정보의 종류에는 파일 데이터(csv, excel, xml), 관계형 데이터(키와 값들의 간단한 관계를 테이블화 시킨 데이터), 웹 서비스 데이터(REST 서비스, SOAP 서비스를 통한 데이터 등)을 의미한다. The cost runner 120 uses the type information of the data to be analyzed and the resource status data (ie, includes CPU usage and memory usage data for each operator) on the individual platforms monitored above, the execution time of the operators 15 . By generating a learning model that predicts the execution time for each operator 15 is predicted. The types of data to be analyzed include file data (csv, excel, xml), relational data (data that tabulates simple relationships between keys and values), and web service data (data through REST service, SOAP service, etc.) it means.
그러면 플랫폼 선정 자동화 모듈(170)이 코스트 러너(120)가 예측한 오퍼레이터(15)별 수행 시간을 이용하여 태스크별 플랫폼을 자동으로 선정한다. 도 3을 보라. 그런 다음 개별 플랫폼 작업의 수행 순서와 방법을 결정한다. 수행 순서는 태스크별 수행 순서이다. 예를 들어 태스크1은 Flink에서 수행하고, 태스크2는 JavaStreams, 태스크3은 Spark에서 수행하는 경우, 플랫폼 선정 자동화 모듈(170)은 Flink → JavaStreams → Spark로 수행 순서를 지정한다. 방법이란 플랫폼 선정 방법을 의미한다. 예를 들어 특정 오퍼레이터의 초기 추정된 수행 시간이 실제 수행 시간을 넘어선 경우, 해당 결과를 코스트 러너에 송신하고, 다시 플랫폼 작업 순서를 재조정할 수 있다. 이러한 진행 과정에 대한 방법을 결정한다는 의미이다. Then, the platform selection automation module 170 automatically selects a platform for each task using the execution time for each operator 15 predicted by the cost runner 120 . See FIG. 3 . It then determines the order and method of performing individual platform tasks. The execution order is the execution order for each task. For example, when task 1 is performed in Flink, task 2 is JavaStreams, and task 3 is performed in Spark, the platform selection automation module 170 specifies the execution order as Flink → JavaStreams → Spark. Method refers to the platform selection method. For example, if the initial estimated execution time of a specific operator exceeds the actual execution time, the result is transmitted to the coast runner, and the platform operation sequence can be re-arranged again. It means deciding how to proceed with this process.
도 4는 본 발명의 바람직한 어느 실시예에 따른 코스트 러너(120) 내에서 각 오퍼레이터의 코스트를 계산하는 과정을 개념적으로 나타내었다. 4 conceptually illustrates a process of calculating the cost of each operator in the cost runner 120 according to a preferred embodiment of the present invention.
각 오퍼레이터들을 개별 플랫폼에서 실행했을 때, 코스트 러너(120)의 입력 정보로서, 오퍼레이터 종류(121), 분석 데이터 유형(122), 오퍼레이터별 CPU 사용량(123), 오퍼레이터별 메모리 사용량(124), 각 오퍼레이터 진행 상태(125) 및 오퍼레이터의 완료 시간(126)이 포함될 수 있다. 이들 입력값으로 각 오퍼레이터에 대한 파라미터들을 학습한다. 그리고 각 오퍼레이터의 코스트를 계산하여 출력 결과로 도출한다.When each operator is executed on an individual platform, as input information of the coast runner 120, the operator type 121, analysis data type 122, CPU usage by operator 123, memory usage by operator 124, each Operator progress status 125 and operator completion time 126 may be included. With these inputs, parameters for each operator are learned. Then, the cost of each operator is calculated and derived as an output result.
바람직하게는 머신러닝 및 딥러닝 알고리즘을 사용하여 코스트를 계산할 수 있다. 더욱 바람직하게는 알고리즘 종류에서 부스팅 계열의 알고리즘을 사용하는 것이 좋다. 부스팅은 데이터 예측 시 오분류 개체들에 가중치를 적용하여 오류를 개선하고, 반복하는 기법으로 알려져 있다. 그 대강의 구성은 이러하다. 전체 데이터를 랜덤 값으로 변경한다. 모든 랜덤 데이터에 대해 가중치를 임시로 부여한다. 랜덤 값에 대한 결과(맞음 or 틀림)에 따라 각 데이터에 대한 가중치를 조정한다. 조정한 가중치를 이용하여 랜덤 데이터를 변경한다. 이러한 과정을 3~4번 반복한다. 이 횟수는 사용자가 미리 정의할 수 있다. 반복 후, 각 모델에 가중치를 줘서 최종 모델을 만든다. 이러한 부스팅 계열의 알고리즘에는 GBM(Grandient Boost), LightGBM, XGBoost 등 다양한 종류가 알려져 있다. 그러나 본 발명의 기술사상은 이러한 기법의 종류에 의해 제한되는 것은 아니다.Preferably, the cost can be calculated using machine learning and deep learning algorithms. More preferably, it is good to use a boosting-type algorithm in the algorithm type. Boosting is known as a technique to improve errors and iterate by applying weights to misclassified entities during data prediction. The outline structure is as follows. Change all data to random values. Temporarily assign weights to all random data. Adjust the weights for each data according to the results (correct or incorrect) for random values. Random data is changed using the adjusted weight. Repeat this process 3 or 4 times. This number can be predefined by the user. After iteration, each model is weighted to make the final model. Various types of algorithms such as GBM (Grandient Boost), LightGBM, and XGBoost are known for boosting-type algorithms. However, the technical idea of the present invention is not limited by the type of this technique.
한편, 데이터를 예측하기 위해서는 훈련 데이터가 필요하다. 훈련 데이터는 오퍼레이트들을 개별 플랫폼에 실행시켰을 때의 CPU, Memory 등 실제 소모된 자원 사용량, 실제 수행 시간을 가진 데이터이다. 훈련 데이터를 상기 머신러닝 및 딥러닝 알고리즘을 이용하여 학습 모델을 만든다. 학습시킨 모델을 기반으로 현재 개별 플랫폼의 CPU 사용량과 Memory 사용량을 입력시켜 오퍼레이트들의 수행 시간을 예측하는 것이다. 여기서 코스트는 수행 시간과 동일한 개념이다. 즉, 코스트를 계산한다는 것은 수행 시간을 예측한다는 의미이다. 참고로 수행 시간(코스트) 예측 이유는 개별 플랫폼의 CPU, Memory 상태가 항상 동일하지 않기 때문이다. 본 발명의 위와 같은 프로세스는 개별 플랫폼이 특정 상태일 때 오퍼레이트의 수행 시간을 예측하기 위한 작업으로 이해될 수 있다. On the other hand, in order to predict data, training data is required. Training data is data with actual consumption of resources such as CPU and memory and actual execution time when the operators are executed on individual platforms. Training data is used to create a learning model using the machine learning and deep learning algorithms. Based on the trained model, the current CPU usage and memory usage of individual platforms are input to predict the execution time of the operations. Here, the cost is the same concept as the execution time. In other words, calculating the cost means predicting the execution time. For reference, the reason for the prediction of execution time (cost) is that the CPU and memory states of individual platforms are not always the same. The above process of the present invention may be understood as a task for predicting the execution time of an operation when an individual platform is in a specific state.
다시 도 4로 돌아가자. 코스트 계산을 통해 오퍼레이터들에 대한 수행시간을 계산할 수 있으므로 태스크별 적절한 플랫폼을 선정할 수 있게 된다.Let's go back to Figure 4. Since the execution time for operators can be calculated through cost calculation, it is possible to select an appropriate platform for each task.
코스트 러너(120) 모듈에서 각 오퍼레이터들의 수행 시간을 예측하기 위해서 머신러닝 및 딥러닝 알고리즘을 이용한다. 본 발명은 분석할 데이터와 오퍼레이터에 따라 적절한 플랫폼을 자동으로 선정해주기 때문에 빅데이터 분석을 위해서 개별 플랫폼을 선정하는 데 걸리는 시간과 분석 시간을 절약해주는 장점이 있다.In order to predict the execution time of each operator in the coast runner 120 module, machine learning and deep learning algorithms are used. Since the present invention automatically selects an appropriate platform according to the data to be analyzed and the operator, it has the advantage of saving the time it takes to select an individual platform for big data analysis and the analysis time.
도 5는 본 발명의 바람직한 방법의 전체 프로세스를 다시 한번 개략적으로 나타내어 본 발명의 구성을 정리하였다.Fig. 5 schematically shows once again the overall process of the preferred method of the present invention to summarize the configuration of the present invention.
먼저 본 발명의 빅데이터 통합처리 플랫폼에 접속하여 빅데이터 분석에 관련하여 사용자 단말이 요청하는 워크플로우를 분석한다(S100). 이때 빅데이터 통합처리 플랫폼 서버는 사용자가 분석하고자 하는 데이터의 유형에 관련한 정보를 입수한다.First, by accessing the big data integrated processing platform of the present invention, a workflow requested by the user terminal in relation to big data analysis is analyzed (S100). At this time, the big data integrated processing platform server obtains information related to the type of data that the user wants to analyze.
다음으로 통합처리 플랫폼 서버는 각 태스크에 포함된 오퍼레이터들을 개별 플랫들에 각각 실행한다(S110).Next, the integrated processing platform server executes the operators included in each task on individual platforms (S110).
빅데이터 통합처리 플랫폼 서버는 각각의 개별 플랫폼이 태스크별로 오퍼레이터들을 실행할 때 어느 정도의 자원을 사용하는지 모니터링한다(S120). 바람직하게는 CPU 사용량 및 모니터 사용량에 관련한 정보를 모니터링한다. 이렇게 모니터링을 함으로써 빅데이터 통합처리 플랫폼 서버는 개별 플랫폼으로부터 태스크별 자원 상황 데이터를 얻을 수 있다.The big data integrated processing platform server monitors how many resources each individual platform uses when executing operators for each task (S120). Preferably, information related to CPU usage and monitor usage is monitored. By monitoring in this way, the big data integrated processing platform server can obtain resource status data for each task from individual platforms.
다음으로 코스트 러너 모듈이 상기 S100 단계에서 얻은 분석데이터의 유형과 S120 단계에서 얻은 태스크별 개별 플랫폼의 자원 상황 데이터를 입력 값으로 사용하여 각 오퍼레이터들의 수행 시간을 예측한다(S130).Next, the cost runner module predicts the execution time of each operator using the type of analysis data obtained in step S100 and the resource situation data of individual platforms for each task obtained in step S120 as input values (S130).
다음으로 플랫폼 선정 자동화 모듈이 자동으로 태스크별 개별 플랫폼을 선정한다(S140). 이로써 개별 플랫폼 선정에 소요되는 시간을 절약한다.Next, the platform selection automation module automatically selects an individual platform for each task (S140). This saves time for individual platform selection.
마지막으로 개별 플랫폼에서의 작업의 수행 순서 및 방법을 결정한다(S150). 이로써 데이터 분석에 투여되는 시간과 자원을 절약할 수 있는 장점이 있다. 이는 곧 비용 절감의 효과에도 맞닿아 있다. 이러한 본 발명은 마케팅, 커머스 등 빅데이터 생산 및 분석을 활용할 수 있는 여건이나 계획이 있는 모든 산업 분야에 두루 적용이 가능하다.Finally, the order and method of performing tasks on individual platforms are determined (S150). This has the advantage of saving time and resources devoted to data analysis. This is directly related to the effect of cost reduction. The present invention is applicable to all industrial fields such as marketing and commerce where there are conditions or plans to utilize big data production and analysis.
참고로, 본 발명의 일 실시예에 따른 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독가능매체에 기록될 수 있다. 상기 컴퓨터 판독가능매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계 되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. For reference, the method for automating platform selection for each task in a system connected to a plurality of individual platforms according to an embodiment of the present invention is implemented in the form of a program command that can be executed through various computer means and recorded on a computer-readable medium. can The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.
컴퓨터 판독가능매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크 (floptical disk)와 같은 자기-광 매체, 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어코드뿐 만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급언어코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.Examples of computer-readable media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floppy disks, and ROM, RAM, A hardware device specifically configured to store and execute program instructions, such as flash memory, may be included. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter as well as machine codes such as those generated by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
본 발명의 보호범위가 이상에서 명시적으로 설명한 실시예의 기재와 표현에 제한되는 것은 아니다. 또한, 본 발명이 속하는 기술분야에서 자명한 변경이나 치환으로 말미암아 본 발명이 보호범위가 제한될 수도 없음을 다시 한번 첨언한다.The protection scope of the present invention is not limited to the description and expression of the embodiments explicitly described above. In addition, it is added once again that the protection scope of the present invention cannot be limited due to obvious changes or substitutions in the technical field to which the present invention pertains.

Claims (5)

  1. 사용자 단말이 복수의 개별 플랫폼들과 연결되는 빅데이터 통합처리 플랫폼에 접속하여 빅데이터 분석을 요청하는 경우, 상기 빅데이터 통합처리 플랫폼 서버가 태스크별 플랫폼 선정을 자동화하는 방법으로서:When a user terminal accesses a big data integrated processing platform connected to a plurality of individual platforms and requests big data analysis, the big data integrated processing platform server automates the selection of a platform for each task, the method comprising:
    사용자 단말의 워크플로우의 태스크들에 포함된 오퍼레이터들을 개별 플랫폼들에 각각 실행시키는 단계;executing operators included in tasks of a workflow of a user terminal on separate platforms, respectively;
    상기 오퍼레이터별 개별 플랫폼의 CPU 사용량 및 메모리 사용량을 포함한 자원 상황 데이터를 모니터링하는 단계;monitoring resource status data including CPU usage and memory usage of individual platforms for each operator;
    코스트 러너 모듈이 분석할 데이터 유형 및 상기 자원 상황 데이터를 이용하여 각 오퍼레이터들의 수행 시간을 예측하는 단계; 및estimating the execution time of each operator using the data type to be analyzed by the cost runner module and the resource status data; and
    예측된 상기 오퍼레이들의 수행 시간을 통해 자동으로 태스크별 개별 플랫폼을 선정하는 단계를 포함하는 것을 특징으로 하는, 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법.A method for automating platform selection for each task in a system connected to a plurality of individual platforms, comprising the step of automatically selecting an individual platform for each task through the predicted execution times of the operations.
  2. 제1항에 있어서,According to claim 1,
    상기 빅데이터 통합처리 플랫폼 서버가 개별 플랫폼 작업의 수행 순서를 결정하는 단계를 더 포함하는, 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법.The method for automating platform selection for each task in a system connected to a plurality of individual platforms, further comprising the step of the big data integrated processing platform server determining the execution order of individual platform tasks.
  3. 제1항에 있어서,According to claim 1,
    상기 코스트 러너 모듈이 오퍼레이터 종류, 분석 데이터 유형, 오퍼레이터별 CPU 사용량, 오퍼레이터별 메모리 사용량, 오퍼레이터 진행 상태, 오퍼레이터 완료 시간을 파라미터로 사용하여 각 오퍼레이터에 대한 코스트를 계산하는 단계를 더 포함하는 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법.The cost runner module calculates the cost for each operator by using the operator type, analysis data type, CPU usage per operator, memory usage per operator, operator progress status, and operator completion time as parameters. A method of automating platform selection by task in the system connected to the platform.
  4. 제1항에 있어서,According to claim 1,
    상기 코스트 러너 모듈은 머신 러닝 모델을 포함하는 것인, 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법.The cost runner module includes a machine learning model, a method for automating platform selection for each task in a system connected to a plurality of individual platforms.
  5. 제1항에 있어서,According to claim 1,
    상기 워크플로우의 태스크들에 포함된 오퍼레이터들을 개별 플랫폼들에 각각 실행시키는 단계는 개별 플랫폼들의 컨테이너에 실행하는 것인, 다수의 개별 플랫폼과 연결되어 있는 시스템에서 태스크별 플랫폼 선정 자동화 방법.The step of executing each of the operators included in the tasks of the workflow on individual platforms is executing in containers of individual platforms, a method for automating platform selection for each task in a system connected to a plurality of individual platforms.
PCT/KR2021/002674 2020-11-19 2021-03-04 Cross model data integrated processing platform for automating task-specific platform selection WO2022108002A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0155114 2020-11-19
KR1020200155114A KR102465932B1 (en) 2020-11-19 2020-11-19 The cross-model data intergared-processing platform automating patform selection for each task

Publications (1)

Publication Number Publication Date
WO2022108002A1 true WO2022108002A1 (en) 2022-05-27

Family

ID=81709271

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/002674 WO2022108002A1 (en) 2020-11-19 2021-03-04 Cross model data integrated processing platform for automating task-specific platform selection

Country Status (2)

Country Link
KR (1) KR102465932B1 (en)
WO (1) WO2022108002A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203943B2 (en) * 2001-10-31 2007-04-10 Avaya Technology Corp. Dynamic allocation of processing tasks using variable performance hardware platforms
US8504400B2 (en) * 2010-03-24 2013-08-06 International Business Machines Corporation Dynamically optimized distributed cloud computing-based business process management (BPM) system
US20150363741A1 (en) * 2013-01-18 2015-12-17 Praphul Chandra Task assignment in crowdsourcing
US20160098662A1 (en) * 2014-10-03 2016-04-07 Datameer, Inc. Apparatus and Method for Scheduling Distributed Workflow Tasks
KR101879419B1 (en) * 2017-03-15 2018-08-17 주식회사 클래스액트 A task distribution method using parallel processing algorithm

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102075384B1 (en) * 2015-11-27 2020-02-11 한국전자통신연구원 System and method for combining workflow
KR101765296B1 (en) 2016-06-21 2017-08-04 어니컴 주식회사 Apparatus and method for providing data analysis tool with user created analysis module

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203943B2 (en) * 2001-10-31 2007-04-10 Avaya Technology Corp. Dynamic allocation of processing tasks using variable performance hardware platforms
US8504400B2 (en) * 2010-03-24 2013-08-06 International Business Machines Corporation Dynamically optimized distributed cloud computing-based business process management (BPM) system
US20150363741A1 (en) * 2013-01-18 2015-12-17 Praphul Chandra Task assignment in crowdsourcing
US20160098662A1 (en) * 2014-10-03 2016-04-07 Datameer, Inc. Apparatus and Method for Scheduling Distributed Workflow Tasks
KR101879419B1 (en) * 2017-03-15 2018-08-17 주식회사 클래스액트 A task distribution method using parallel processing algorithm

Also Published As

Publication number Publication date
KR102465932B1 (en) 2022-11-11
KR20220068381A (en) 2022-05-26

Similar Documents

Publication Publication Date Title
Abd Elaziz et al. Advanced optimization technique for scheduling IoT tasks in cloud-fog computing environments
Yi et al. Task optimization and scheduling of distributed cyber–physical system based on improved ant colony algorithm
CN102799512B (en) Virtual machine monitoring method in vector-autoregression-based cloud computing
Alarifi et al. Energy-efficient hybrid framework for green cloud computing
CN104636187A (en) Virtual machine scheduling method in NUMA (non uniform memory access) architecture and based on load prediction
Li et al. An effective scheduling strategy based on hypergraph partition in geographically distributed datacenters
Li et al. Cost-aware automatic scaling and workload-aware replica management for edge-cloud environment
CN115292046A (en) Calculation force distribution method and device, storage medium and electronic equipment
Ismaeel et al. Multivariate time series ELM for cloud data centre workload prediction
Chen et al. AndroidOff: Offloading android application based on cost estimation
CN108132840A (en) Resource regulating method and device in a kind of distributed system
CN114490049A (en) Method and system for automatically allocating resources in containerized edge computing
Cunha et al. Context-aware execution migration tool for data science Jupyter Notebooks on hybrid clouds
Aslam et al. Using artificial neural network for VM consolidation approach to enhance energy efficiency in green cloud
Fan et al. Dras: Deep reinforcement learning for cluster scheduling in high performance computing
CN113014649B (en) Cloud Internet of things load balancing method, device and equipment based on deep learning
CN112948353B (en) Data analysis method, system and storage medium applied to DAstudio
CN117349026A (en) Distributed computing power scheduling system for AIGC model training
WO2022108002A1 (en) Cross model data integrated processing platform for automating task-specific platform selection
CN109101395A (en) A kind of High Performance Computing Cluster application monitoring method and system based on LSTM
Kavitha et al. Ai Integration in Data Driven Decision Making for Resource Management in Internet of Things (Iot): A Survey
Wang et al. An Efficient Load Prediction-Driven Scheduling Strategy Model in Container Cloud
Jawaddi et al. Integrating OpenAI Gym and CloudSim Plus: A simulation environment for DRL Agent training in energy-driven cloud scaling
CN115827232A (en) Method, device, system and equipment for determining configuration for service model
Benoit et al. Scheduling skeleton-based grid applications using PEPA and NWS

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21894781

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21894781

Country of ref document: EP

Kind code of ref document: A1