WO2023090807A1 - 모델 서버 스케일링을 제어하는 ai 모델 운영 장치 및 방법 - Google Patents

모델 서버 스케일링을 제어하는 ai 모델 운영 장치 및 방법 Download PDF

Info

Publication number
WO2023090807A1
WO2023090807A1 PCT/KR2022/017962 KR2022017962W WO2023090807A1 WO 2023090807 A1 WO2023090807 A1 WO 2023090807A1 KR 2022017962 W KR2022017962 W KR 2022017962W WO 2023090807 A1 WO2023090807 A1 WO 2023090807A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
api
server
pod
requests
Prior art date
Application number
PCT/KR2022/017962
Other languages
English (en)
French (fr)
Inventor
서창수
김현진
김영주
배경숙
Original Assignee
에스케이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 주식회사 filed Critical 에스케이 주식회사
Publication of WO2023090807A1 publication Critical patent/WO2023090807A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/66Arrangements for connecting between networks having differing types of switching systems, e.g. gateways
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances

Definitions

  • the present invention relates to an AI model operating device and method for controlling model server scaling, and in particular, it is possible to provide services by flexibly duplicating and collecting model servers according to the number of requests for use of AI model services or resource usage. It relates to an AI model operating device and method.
  • AI Artificial Intelligence
  • Deployment of AI models can be done in a cloud or on-premises environment, and in an AI platform, one model resource can have multiple versions of a model.
  • the present invention was created in view of the above circumstances, and an object of the present invention is to control the replication and recovery of model servers that drive AI models by setting thresholds for the number of requests for use of AI model services or resource usage in advance. It is to provide an AI model operating device and method that can be.
  • An AI model operating device is an AI model operating device that controls scaling of a model server, and includes an API management unit that manages a model build API, a model deployment API, and a model prediction API, and input through the model prediction API.
  • An ingress gateway that controls replication and collection of pods according to the number of usage requests or resource usage for multiple usage requests for AI models to be used, and is created according to the specifications of the model server specified by the model deployment API. It includes a pod that calls and runs a specific AI model according to the request of the model prediction API transmitted through the Grace Gateway.
  • the ingress gateway sets a ratio value for the threshold based on the threshold of the number of requests for use of the AI model service or resource usage set by the model deployment API, and the usage exceeding the ratio
  • a scaling setting unit that generates a signal for replication of the model server when the number of requests or resource usage occurs
  • a pod control unit that controls replication and collection of the pods according to the signal generated by the scaling setting unit, and information about the AI model.
  • a prediction request allocator for distributing the plurality of use requests to each pod according to resource usage per pod may be included.
  • the ingress gateway may include a server monitoring unit that monitors the usage of resources occupied by the model server running the AI model and the running state of the model server, and the pod control unit is configured in the server monitoring unit. Replication and collection of pods can be controlled according to the resource usage of the model server and the running state of the model server monitored.
  • the ingress gateway may include a scaling history management unit that time-sequentially records and stores a history of executing pod replication and collection in the pod control unit according to the ratio value setting of the scaling setting unit.
  • the ingress gateway may include a scaling adjustment unit that resets a ratio value for a threshold value of resource usage according to the type of resource used in a specific AI model.
  • the model distribution API may set replicas indicating the range of distribution resources allocated to the AI model and the number of copies of model servers that drive the AI model.
  • the ingress gateway retrieves the pod when there is no request for use of the AI model, and the pod when a request for use of the AI model occurs. can be created to operate the model server.
  • An AI model operating method is an AI model operating method for controlling model server scaling, comprising the steps of (a) an API management unit managing a model build API, a model deployment API, and a model prediction API, (b) ) Ingress gateway controlling replication and collection of pods according to the number of usage requests or resource usage for a plurality of usage requests for the AI model input through the model prediction API, and (c) the model deployment API Invoking and running a specific AI model according to a request of the model prediction API transmitted through the ingress gateway by a pod created according to the specifications of a designated model server.
  • the scaling setting unit sets a ratio value for the threshold value based on the threshold value of the number of requests for use of the AI model service or resource usage set by the model deployment API, and the ratio value Generating a signal for replication of the model server when the number of use requests or resource usage exceeding
  • the prediction request allocator may include distributing the plurality of use requests to each pod according to resource usage for each pod.
  • the step (b) may include monitoring, by a server monitoring unit, resource usage occupied by a model server driving the AI model and an execution state of the model server, and the model server monitored by the server monitoring unit. Controlling, by the pod control unit, the replication and collection of pods according to the resource usage of the model server and the running state of the model server.
  • the step (b) may include a scaling history management unit time-sequentially recording and storing a history of executing pod duplication and collection by the pod control unit according to the ratio value setting of the scaling setting unit.
  • the step (b) may include resetting, by the scaling adjuster, a ratio value for a threshold value of the corresponding resource usage according to the type of resource used by the specific AI model.
  • the AI model operating apparatus and method according to the present invention flexibly controls the replication and collection of model servers in accordance with the number of requests for use of AI model services or resource usage, so that the service is provided smoothly even if service use requests are temporarily concentrated. There are effects that can be done.
  • the AI model operating apparatus and method according to the present invention when the request for use of the AI model service decreases, some model servers can be retrieved and resources allocated to the model server can be reallocated to other pods or servers, so system resources has the effect of using it efficiently.
  • the AI model operating apparatus and method according to the present invention even if an error occurs in some of the plurality of model servers that drive the AI model, the AI model can be stably operated by providing services through other model servers that operate normally. There is an effect.
  • FIG. 1 is a diagram illustrating creation and distribution of an AI model in an AI model driving environment to which an AI model operating apparatus according to an embodiment of the present invention is applied.
  • FIG. 2 is a diagram illustrating an AI model use request in an AI model driving environment to which an AI model operating device according to an embodiment of the present invention is applied.
  • FIG. 3 is a block diagram showing the configuration of the ingress gateway of Figure 2;
  • FIG. 4 is a flowchart illustrating an AI model operating method according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating creation and distribution of an AI model in an AI model driving environment to which an AI model operating apparatus according to an embodiment of the present invention is applied.
  • the AI model operating device 10 of the present invention includes an API (Application Programming Interface) management unit 100, a control plane (Control Plane, 200), an ingress gateway (Ingress Gateway, 300), and a pod (POD) , 400).
  • the AI model operating device 10 of the present invention may be driven, for example, in a Kubernetes cluster environment, but is not limited thereto.
  • the API management unit 100 may manage a model build API 120, a model deployment API 140, and a model prediction API 160 for requesting build, distribution, and prediction of AI models, respectively.
  • the model build API 120 has a language or message format used when communicating with the DB management system 30, and is used when a user who wants to create an AI model wants to access the DB management system 30.
  • the DB management system 30 may include a data storage unit 32, a model storage unit 34 and a history management unit 36, and the user 20 may use the DB management system 30 through the model build API 120. ), you can check the history where information such as the registration of the learned AI model, the data used to create the existing AI model, the prediction result of the AI model, and the driving monitoring result of the AI model are stored.
  • the user 20 may execute registration of the AI model through a user interface implemented on the web.
  • AI models can be pre-trained models by applying AI algorithms, and users can set commercialized machine learning engines such as Tensorflow, PyTorch, Scikit-Learn, XGBoost, and Triton 5 to apply to AI models.
  • model storage unit 34 of the DB management system 30 information for each version of a plurality of AI models may be stored and managed.
  • the user 20 provides the weight file generated as a result of training the AI model, user code for executing inference on the registered AI model, and data used for training for analysis of the AI model through the model build API 120. It can be transmitted to the DB management system 30 through.
  • the AI model completes learning through operation execution, weight application, and output for each of the various layers that make up the AI algorithm, and a weight file with learning completed is created.
  • User code is a file used to verify the combination of input data and AI models. That is, the user code verifies whether the registered AI model is an appropriately generated model based on the input data.
  • Data used for learning for analysis of the AI model may be transmitted to the DB management system 30 through the model build API 120 and stored in the data storage unit 32.
  • the learning data is stored in the data storage unit 32 in order to monitor the inference result of the AI model and later check whether or not there is an abnormality in the data used for learning.
  • the model deployment API 140 applies the AI model registered in the model storage unit 34 of the DB management system 30 to a use environment in which machine learning is to be executed.
  • the use environment may be a cloud or an on-premises environment.
  • the model deployment API 140 sets information for operating the model server 440 that drives the AI model, and concurrency, which represents a value that can respond to the serving request of the AI model at once, You can set the range of distribution resources to be allocated, replicas indicating the number of copies of the model server 440 that drive the AI model, or the resource allocation amount of the GPU used by the AI model.
  • Replicas can be set up in a Kubernetes cluster environment serving AI models, and are used when there are many requests for external use or AI model performance is required.
  • the replica is a means to stably operate the AI model, and even if some of the Pods (PODs) of the Kubernetes cluster that are running the AI model are terminated abnormally, other pods do not affect the entire system, so that the AI model's service It is a system tool that keeps running the pod and attempts to recover the abnormally terminated pod. More distribution resources are occupied and used as much as the set number of replicas.
  • the model deployment API 140 may designate the minimum or maximum number of model servers 440 that drive AI models, including replica information.
  • the maximum number of replicas can be executed within the allocated model distribution resources. If the minimum number of replicas is set, the model server 440 is immediately replicated and operated as much as the minimum number of replicas when serving the model, and the model server 440 is replicated as much as the maximum number of replicas according to the model serving status (request increase). When the request for the use of is in a lull, the model server 440 is operated by applying the minimum number of replicas again.
  • the replica is set to a maximum of 3
  • the number of pods 400 can be created up to 3
  • up to 3 model servers 440 which are containers included in the pod 400, can also be operated. there is.
  • only one pod 400 is operated when there are few requests for use of the AI model, and up to three pods 400 can be created and operated flexibly when requests for use of the AI model increase.
  • the control plane 200 verifies whether a deployment request input through the model deployment API 140 is valid, creates a pod 400 according to information contained in the model deployment API 140, and allocates resources thereto.
  • the control plane 200 may include an API server, scheduler, controller manager, and etcd.
  • the API server is required for all components in the cluster to communicate with other components, and the API server provides various REST APIs related to the cluster.
  • the scheduler determines a resource allocation schedule for the created pod 400 and transmits it to the API server when the specification of the pod 400 is changed.
  • the controller detects and changes resource changes through the API server, and the controller manager executes various controllers.
  • etcd is a distributed object store that acts as a record database for the configuration and state of the entire cluster.
  • the pod 400 is created according to the specifications of the model server 440 designated by the model deployment API 140, and calls and runs a specific AI model according to a request of the model prediction API 160.
  • the pod 400 may include an Envoy server 420 and a model server 440.
  • the Envoy server 420 routes so that the AI model service according to the request of the model prediction API 160 is provided.
  • Envoy server 420 may include Listener, Filter and Cluster.
  • a listener is a part where a protocol is input from a user, and can be a TCP listener or an HTTP listener.
  • Filter is a part that intermediately processes messages transmitted from listeners. After performing compression or limiting of incoming traffic, messages are routed to appropriate clusters through routers.
  • Cluster can designate a model server 440 that is actually routed.
  • the number of operations is set according to the replica information set in the model distribution API 140, and a specific AI model is called and driven.
  • Resources such as CPU, memory, and GPU used by the model server 440 may be allocated according to the model distribution API 140.
  • FIG. 2 is a diagram illustrating an AI model service request in an AI model driving environment to which an AI model operating device according to an embodiment of the present invention is applied.
  • the model prediction API 160 has information for driving a specific AI model.
  • the ingress gateway 300 controls replication and recovery of the pod 400 according to the number of usage requests or resource usage for multiple usage requests for the AI model input through the model prediction API 160, and the pod 400 ) distributes usage requests for each pod according to the usage of resources running on it. Accordingly, even if a plurality of requests for use of the AI model are input, the AI model service can be smoothly provided without overloading the specific pod 400 .
  • FIG. 3 is a block diagram showing the configuration of an ingress gateway according to an embodiment of the present invention.
  • the ingress gateway 300 includes a scaling setting unit 310, a pod control unit 320 and a prediction request allocation unit 330, and optionally, a server monitoring unit 340 and a scaling history management unit. 350 or a scaling adjustment unit 360.
  • the scaling setting unit 310 sets a ratio value for the threshold based on the threshold of the number of requests for use of the AI model service or the threshold of resource usage set by the model deployment API 140, and the number of requests for use exceeding the ratio Alternatively, when resource usage occurs, a signal for replication of the model server 440 is generated.
  • the number of 'simultaneous' use requests may mean the sum of the number of use requests input during a predetermined time interval, for example, an interval of 1 second, as well as at the same temporal time.
  • the model deployment API 140 may set a threshold for the usage of resources such as CPU, memory, and GPU used by the model server 440, and the scaling setting unit 310 may set a ratio value for the threshold. , and when resource usage exceeding the ratio occurs, a signal for replication of the model server 440 may be generated.
  • the pod control unit 320 controls replication and collection of pods according to the signal generated by the scaling setting unit 310 . For example, as described above, when the threshold for the number of concurrent use requests of the AI model service is 10 and the ratio value set by the scaling setting unit 310 is 80%, if a use request exceeding 80% occurs, When the model server 440 is duplicated and the usage request decreases to less than 80%, the duplicated model server 440 may be retrieved.
  • the prediction request allocator 330 distributes the plurality of use requests to each pod 400 according to the resource usage for each pod in response to the plurality of use requests for the AI model.
  • the prediction request allocator 330 routes the AI model use request to the corresponding pod 400 until all of the resource usage set in one pod 400 is used, for example, and resources are allocated from the corresponding pod 400. When all are used, AI model usage requests can be sequentially assigned to the next pod 400. In another example, the prediction request allocator 330 detects resource usage occupied by each of the plurality of pods 400, so that more AI model use requests are distributed to the pods 400 using fewer resources. can be adjusted
  • the Envoy server 420 When an AI model use request is input to the Envoy server 420 according to the distribution of the prediction request allocator 330, the Envoy server 420 routes it to the model server 440, and the model server 440 selects a specific AI model. It is called from the model storage unit 34 and driven.
  • the ingress gateway 300 includes a server monitoring unit 340 that monitors the usage of resources occupied by the model server 440 that drives the AI model and the running state of the model server 440. do.
  • the pod control unit 320 may control replication and collection of pods according to the resource usage of the model server 440 and the running state of the model server 440 monitored by the server monitoring unit 340 .
  • Replication of the pod 400 may be determined according to resource usage within the minimum or maximum number of model servers 440 set in the model deployment API 140 .
  • a set number of model servers 440 may be operated through the model distribution API 140, and some of the model servers 440 may malfunction or not operate due to system overload or temporary error.
  • the pod control unit 320 may control the pod 400 including the model server 440 to be retrieved.
  • the scaling history management unit 350 time-sequentially records and stores a history of replicating and collecting the pod 400 in the pod control unit 320 according to the ratio value setting of the scaling setting unit 310 . Based on the history of duplication and collection of the pod 400 stored in the scaling history management unit 350, the pod control unit 320 statistically identifies requests for use of the AI model service, and in a specific time period when requests for use are concentrated. The pod 400 can be controlled to replicate in advance.
  • the scaling adjustment unit 360 resets the ratio value for the threshold value of the corresponding resource usage according to the type of resource used in the specific AI model.
  • the model distribution API 140 setting thresholds for the CPU, Memory, GPU, etc. used by the AI model, and the scaling setting unit 310 setting each ratio value, for example, a specific AI model uses If the GPU acts as an important factor compared to other resources, the scaling adjustment unit 360 may lower the ratio value set by the scaling setting unit 310 with respect to the GPU. Accordingly, the pod control unit 320 can control replication of the model server 440 by responding more sensitively to the GPU usage of the model server 440 .
  • the model distribution API 140 may set replicas indicating the range of distribution resources allocated to the AI model and the number of copies of the model server 440 that drives the AI model.
  • the ingress gateway 300 retrieves the pod 400 when there is no request to use the AI model, and the pod 400 when a request to use the AI model occurs. ) to execute the zero-scale function of operating the model server 440. Accordingly, the expansion and contraction of resources used by the pod 400 can be controlled in response to the user's request for use of the AI model service, and when there is no request for use of the AI model service, the resource is put into providing other services. Therefore, the resources of the entire system can be managed and operated more efficiently.
  • FIG. 4 is a flowchart of an AI model operating method according to an embodiment of the present invention.
  • the AI model operating method of the present invention is an AI model operating method in which the AI model operating device 10 controls model server scaling, and the API management unit 100 uses the model build API 120 and model distribution.
  • the ingress gateway 300 uses the number of requests or The step of controlling replication and recovery of the pod 400 according to resource usage (S200), and the pod 400 created according to the specifications of the model server 440 designated by the model deployment API 140 is an ingress gateway ( 300), a step of calling and driving a specific AI model according to the request of the model prediction API 160 (S300) is performed.
  • the AI model operating device 10 in step S200, the scaling setting unit 310 based on the threshold value of the number of requests for use of the AI model service or resource usage set by the model deployment API 140 ) sets a ratio value for the threshold value, and generates a signal for replication of the model server 440 when the number of use requests or resource usage exceeding the ratio value occurs, generated by the scaling setting unit 310
  • the step of the pod control unit 320 controlling the replication and collection of the pod 400 according to one signal, and the prediction request allocator 330 responding to the plurality of use requests for the AI model, respectively, according to the resource usage for each pod. It can be performed including distributing a plurality of use requests to the pods 400 of the.
  • the scaling setting unit 310 may set the same or different ratio values for each type of resource such as CPU, Memory, GPU, etc., and monitor AI model service delay, change in resource size occupied by the model server 440, etc. in real time. Thus, the previously set ratio value may be modified.
  • the AI model operating device 10 in the step S200, the resource usage occupied by the model server 440 for driving the AI model and the running state of the model server 440 by the server monitoring unit ( 340) and the resource usage of the model server 440 monitored by the server monitoring unit 340 and the running state of the model server 440, the pod control unit 320 replicates and retrieves the pod 400. It can be performed including the step of controlling.
  • model servers 440 that drive AI models may malfunction or not operate due to system overload, temporary errors, and the like.
  • the pod control unit 320 monitors the pod 400 that operates the model server 440. It can be retrieved and controlled to replicate a new pod (400).
  • the AI model operating device 10 executes duplication and recovery of the pod 400 in the pod control unit 320 according to the ratio value setting of the scaling setting unit 310 in step S200.
  • the scaling history management unit 350 may include a step of recording and storing the history in time series.
  • the pod control unit 320 may statistically analyze the history information and replicate the pod 400 in advance at a specific time period.
  • the scaling history management unit 350 grasps the AI model service provision status and resource occupation status according to various ratio values set in the scaling setting unit 310, so that the scaling setting unit 310 can set an appropriate ratio value. can assist
  • the scaling adjustment unit 360 resets the ratio value to the threshold of the corresponding resource usage according to the type of resource used in the specific AI model It can be done including steps.
  • the type and importance of resources used for each AI model may be different, and the scaling adjustment unit 360 lowers the ratio value for resources with high importance and increases the ratio value for resources with low importance, so that the pod control unit 320 It is possible to control replication of the model server 440 by applying different ratio values for each resource.
  • the model distribution API 140 may set replicas indicating the range of distribution resources allocated to the AI model and the number of copies of the model server 440 that drives the AI model.
  • the model deployment API 140 sets the replica to 0, one model server 440 is operated, and the ingress gateway 300 operates the corresponding model server 440 when there is no request for use of the AI model.
  • the pod 400 may be closed, and the model server 440 may be operated by creating the pod 400 when a request for use of the AI model occurs.
  • the embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components.
  • the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions.
  • a processing device may run an operating system (OS) and one or more software applications running on the operating system.
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of software.
  • OS operating system
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include.
  • a processing device may include a plurality of processors or a processor and a controller. Also, other processing configurations are possible, such as parallel processors.
  • Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device.
  • Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave.
  • Software may be distributed on networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program commands recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)

Abstract

본 발명은 모델 서버 스케일링을 제어하는 AI 모델 운영 장치 및 방법에 관한 것으로, 특히, AI 모델 서비스의 사용 요청 수 또는 리소스(resource) 사용량에 따라 유연하게 모델 서버를 복제 및 회수하여 서비스를 제공할 수 있는 AI 모델 운영 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 AI 모델 운영 장치는, 모델 서버 스케일링을 제어하는 AI 모델 운영 장치로서, 모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 API 관리부, 상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 사용 요청 수 또는 리소스 사용량에 따라 포드의 복제 및 회수를 제어하는 인그레스 게이트웨이, 및 상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성되며, 상기 인그레스 게이트웨이를 통해 전달되는 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 포드를 포함한다.

Description

모델 서버 스케일링을 제어하는 AI 모델 운영 장치 및 방법
본 발명은 모델 서버 스케일링을 제어하는 AI 모델 운영 장치 및 방법에 관한 것으로, 특히, AI 모델 서비스의 사용 요청 수 또는 리소스(resource) 사용량에 따라 유연하게 모델 서버를 복제 및 회수하여 서비스를 제공할 수 있는 AI 모델 운영 장치 및 방법에 관한 것이다.
AI(Artificial Intelligence) 모델은 다양한 언어, 데이터, 라이브러리를 이용하여 개발되며, 개발된 AI 모델을 여러 사용 환경에 적합하게 배포하고, 구동시키는데 많은 제약이 따른다.
AI 모델 구축을 위해서는 AI 알고리즘을 해석하고, 방대한 데이터를 정밀하게 다루기 위해 고도의 수학적 지식 등이 요구되므로, 숙련된 AI 전문가 확보가 필요하다.
이에 최적의 모델링 기법을 선정하기 위한 반복 실험 단계를 제거해 데이터 전처리만 거치면, 모델을 즉시 최적화 및 배포할 수 있도록 지원하는 자동화된 머신러닝 모델 개발 프로세스가 연구되고 있다.
AI 모델의 배포는 클라우드(cloud) 또는 온-프레미스(On-premises) 환경에서 이루어질 수 있으며, AI 플랫폼에서 하나의 모델 리소스에는 여러 버전의 모델이 있을 수 있다.
배포된 AI 모델에 예측 요청 시, 동시에 많은 사용 요청이 입력되면, 해당 AI 모델을 구동시키는 모델 서버에 할당된 리소스 양에 따라 서비스 운영에 차질이 발생할 수 있다.
따라서, 배포된 AI 모델에 대한 AI 모델 서비스 사용 요청 수 또는 리소스(resource) 사용량에 상응하여 운용되는 모델 서버의 개수를 제어함으로써, AI 모델 서비스가 원활하게 제공될 수 있는 방안에 대한 개발이 필요하다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명의 목적은 AI 모델 서비스의 사용 요청 수 또는 리소스 사용량에 대한 임계치를 미리 설정하여, AI 모델을 구동시키는 모델 서버의 복제 및 회수를 제어할 수 있는 AI 모델 운영 장치 및 방법을 제공하는데 있다.
본 발명의 일 실시예에 따른 AI 모델 운영 장치는, 모델 서버 스케일링을 제어하는 AI 모델 운영 장치로서, 모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 API 관리부, 상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 사용 요청 수 또는 리소스 사용량에 따라 포드의 복제 및 회수를 제어하는 인그레스 게이트웨이, 및 상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성되며, 상기 인그레스 게이트웨이를 통해 전달되는 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 포드를 포함한다.
일 실시예에서, 상기 인그레스 게이트웨이는, 상기 모델 배포 API가 설정한 AI 모델 서비스의 사용 요청 수 또는 리소스 사용량의 임계치에 기반하여 상기 임계치에 대한 비율값을 설정하고, 상기 비율값을 초과하는 사용 요청 수 또는 리소스 사용량이 발생하면 모델 서버의 복제를 위한 신호를 생성하는 스케일링 설정부, 상기 스케일링 설정부에서 생성한 신호에 따라 상기 포드의 복제 및 회수를 제어하는 포드 제어부, 및 상기 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 각각의 포드로 복수의 사용 요청을 분배시키는 예측 요청 할당부를 포함할 수 있다.
일 실시예에서, 상기 인그레스 게이트웨이는, 상기 AI 모델을 구동시키는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 모니터링 하는 서버 모니터링부를 포함할 수 있으며, 상기 포드 제어부는 상기 서버 모니터링부에서 모니터링한 상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 포드의 복제 및 회수를 제어할 수 있다.
일 실시예에서, 상기 인그레스 게이트웨이는, 상기 스케일링 설정부의 비율값 설정에 따라 상기 포드 제어부에서 포드의 복제 및 회수를 실행한 이력을 시계열적으로 기록 및 저장하는 스케일링 이력 관리부를 포함할 수 있다.
일 실시예에서, 상기 인그레스 게이트웨이는, 특정 AI 모델에서 사용하는 리소스의 종류에 따라 해당 리소스 사용량의 임계치에 대한 비율값을 재설정 하는 스케일링 조정부를 포함할 수 있다.
일 실시예에서, 상기 모델 배포 API는, 상기 AI 모델에 할당되는 배포 리소스의 범위 및 상기 AI 모델을 구동시키는 모델 서버의 복제 개수를 나타내는 레플리카를 설정할 수 있다.
일 실시예예서, 상기 모델 배포 API가 레플리카를 0으로 설정하면, 상기 인그레스 게이트웨이는 상기 AI 모델에 대한 사용 요청이 없을 때 상기 포드를 회수하고, 상기 AI 모델에 대한 사용 요청이 발생할 때 상기 포드를 생성하여 모델 서버를 운용할 수 있다.
본 발명의 일 실시예에 따른 AI 모델 운영 방법은, 모델 서버 스케일링을 제어하는 AI 모델 운영 방법으로서, (a) API 관리부가 모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 단계, (b) 상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 인그레스 게이트웨이가 사용 요청 수 또는 리소스 사용량에 따라 포드의 복제 및 회수를 제어하는 단계, 및 (c) 상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성된 포드가 상기 인그레스 게이트웨이를 통해 전달되는 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 단계를 포함한다.
일 실시예에서, 상기 (b) 단계는, 상기 모델 배포 API가 설정한 AI 모델 서비스의 사용 요청 수 또는 리소스 사용량의 임계치에 기반하여 스케일링 설정부가 상기 임계치에 대한 비율값을 설정하고, 상기 비율값을 초과하는 사용 요청 수 또는 리소스 사용량이 발생하면 모델 서버의 복제를 위한 신호를 생성하는 단계, 상기 스케일링 설정부에서 생성한 신호에 따라 포드 제어부가 상기 포드의 복제 및 회수를 제어하는 단계, 및 상기 AI 모델에 대한 복수의 사용 요청에 대응하여 예측 요청 할당부가 포드별 리소스 사용량에 따라 각각의 포드로 복수의 사용 요청을 분배시키는 단계를 포함할 수 있다.
일 실시예에서, 상기 (b) 단계는, 상기 AI 모델을 구동시키는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 서버 모니터링부가 모니터링 하는 단계, 및 상기 서버 모니터링부에서 모니터링한 상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 상기 포드 제어부가 포드의 복제 및 회수를 제어하는 단계를 포함할 수 있다.
일 실시예에서, 상기 (b) 단계는, 상기 스케일링 설정부의 비율값 설정에 따라 상기 포드 제어부에서 포드의 복제 및 회수를 실행한 이력을 스케일링 이력 관리부가 시계열적으로 기록 및 저장하는 단계를 포함할 수 있다.
일 실시예에서, 상기 (b) 단계는, 특정 AI 모델에서 사용하는 리소스의 종류에 따라 해당 리소스 사용량의 임계치에 대한 비율값을 스케일링 조정부가 재설정 하는 단계를 포함할 수 있다.
본 발명에 따른 AI 모델 운영 장치 및 방법은, AI 모델 서비스의 사용 요청수 또는 리소스 사용량에 상응하여 모델 서버의 복제 및 회수를 유연하게 제어하므로, 일시적으로 서비스 사용 요청이 집중하더라도 원활하게 서비스를 제공할 수 있는 효과가 있다.
또한, 본 발명에 따른 AI 모델 운영 장치 및 방법은, AI 모델 서비스의 사용 요청이 감소하면 일부 모델 서버를 회수하여 해당 모델 서버에 할당된 리소스를 다른 포드 또는 서버 등에 재할당할 수 있으므로, 시스템 리소스를 효율적으로 활용할 수 있는 효과가 있다.
또한, 본 발명에 따른 AI 모델 운영 장치 및 방법은, AI 모델을 구동 시키는 복수의 모델 서버 중 일부에 에러가 발생하더라도 정상 작동하는 다른 모델 서버를 통해 서비스를 제공함으로써 AI 모델을 안정적으로 운영할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델의 생성 및 배포를 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델 사용 요청을 도시하는 도면이다.
도 3은 도 2의 인그레스 게이트웨이의 구성을 도시하는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 AI 모델 운영 방법을 도시하는 순서도이다.
이하에서는, 본 발명의 일 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델의 생성 및 배포를 도시하는 도면이다.
도 1을 참조하면, 본 발명의 AI 모델 운영 장치(10)는 API(Application Programming Interface) 관리부(100), 컨트롤 플레인(Control Plane, 200), 인그레스 게이트웨이(Ingress Gateway, 300) 및 포드(POD, 400)를 포함할 수 있다. 본 발명의 AI 모델 운영 장치(10)는, 예를 들어, 쿠버네티스 클러스터 환경에서 구동될 수 있으며, 이에 제한되지 않는다.
API 관리부(100)는 각각 AI 모델에 대한 빌드, 배포 및 예측 요청을 위한 모델 빌드 API(120), 모델 배포 API(140) 및 모델 예측 API(160)를 관리할 수 있다.
모델 빌드 API(120)는 DB 관리 시스템(30)과 통신할 때 사용되는 언어나 메시지 형식을 가지며, AI 모델을 생성하고자 하는 사용자가 DB 관리 시스템(30)에 접속하고자 하는 경우 사용된다.
DB 관리 시스템(30)은 Data 저장부(32), Model 저장부(34) 및 History 관리부(36)를 포함할 수 있으며, 사용자(20)는 모델 빌드 API(120)를 통해 DB 관리 시스템(30)에 접속하여, 학습된 AI 모델의 등록 뿐만 아니라 기존의 AI 모델의 생성에 사용된 데이터, AI 모델의 예측 결과, AI 모델의 구동 모니터링 결과 등의 정보가 저장된 History를 확인할 수 있다.
사용자(20)는 웹 상에 구현된 유저 인터페이스를 통해 AI 모델의 등록을 실행할 수 있다. AI 모델은 AI 알고리즘을 적용하여 미리 학습이 실행된 모델이 될 수 있으며, 사용자는 Tensorflow, PyTorch, Scikit-Learn, XGBoost, Triton 5 등의 상용화 된 머신 러닝 엔진을 AI 모델에 적용하도록 설정할 수 있다.
DB 관리 시스템(30)의 Model 저장부(34)에는 복수의 AI 모델의 버전별 정보가 저장되어 관리될 수 있다.
사용자(20)는 AI 모델을 학습시킨 결과로 생성된 weight 파일, 등록된 AI 모델에 추론을 실행하기 위한 사용자 코드, 및 AI 모델의 분석을 위해 학습에 사용된 데이터를 모델 빌드 API(120)를 통해 DB 관리 시스템(30)으로 전송할 수 있다.
AI 모델은 AI 알고리즘을 구성하는 여러 레이어(layer)별로 연산 실행, 가중치 적용 및 출력을 통해 학습을 완료하며, 학습이 완성된 Weight 파일이 생성된다.
사용자 코드는 입력 데이터와 AI 모델의 결합을 검증하는 용도로 사용되는 파일이다. 즉, 사용자 코드는 등록된 AI 모델이 입력 데이터에 기반하여 적합하게 생성된 모델인지 검증한다.
AI 모델의 분석을 위해 학습에 사용된 데이터는 모델 빌드 API(120)를 통해 DB 관리 시스템(30)으로 전송되어 Data 저장부(32)에 저장될 수 있다. AI 모델의 추론 결과를 모니터링 하고, 학습에 사용된 데이터의 이상 유무를 추후 확인하기 위해 학습 데이터는 Data 저장부(32)에 저장된다.
모델 배포 API(140)는 DB 관리 시스템(30)의 Model 저장부(34)에 등록된 AI 모델을 머신 러닝을 실행하고자 하는 사용 환경에 적용시킨다. 사용 환경은 클라우드(cloud) 또는 온-프레미스(On-premises) 환경이 될 수 있다.
모델 배포 API(140)는 AI 모델을 구동시키는 모델 서버(440)를 운용하기 위한 정보를 설정하며, AI 모델의 서빙(serving) 요청에 일시에 응답 가능한 수치를 나타내는 Concurrency(동시성), AI 모델에 할당되는 배포 리소스의 범위, AI 모델을 구동시키는 모델 서버(440)의 복제 개수를 나타내는 레플리카(replica), 또는 AI 모델이 사용하는 GPU의 리소스 할당량을 설정할 수 있다.
레플리카는 AI 모델을 서빙하는 쿠버네티스(Kubernetes) 클러스터 환경에서 설정될 수 있으며, 외부 사용 요청이 많거나 AI 모델의 성능이 많이 필요할 때 사용된다. 레플리카는 AI 모델을 안정적으로 운영하기 위한 수단이며, AI 모델을 운영 중인 쿠버네티스 클러스터의 여러 포드(POD) 중 일부의 포드가 비정상 종료가 되더라도 다른 포드가 전체 시스템에 영향이 없도록 AI 모델의 서비스를 계속해서 운영하면서 비정상 종료된 포드의 복구를 시도하도록 하는 시스템 도구이다. 설정된 레플리카의 개수 만큼 배포 리소스가 더 많이 점유되어 사용된다.
모델 배포 API(140)는 레플리카 정보를 포함하여, AI 모델을 구동시키는 모델 서버(440)의 최소 또는 최대 개수를 지정할 수 있다.
모델 서빙 시 할당된 모델 배포 자원 내에서 최대 개수의 레플리카가 실행될 수 있다. 레플리카의 최소 개수가 설정되면, 모델 서빙 시 레플리카의 최소 개수만큼 모델 서버(440)가 바로 복제되어 운용되며, 모델 서빙 상태(요청 증가)에 따라 레플리카의 최대 개수만큼 모델 서버(440)가 복제되었다가 사용 요청이 소강 상태가 되면, 다시 최소 개수의 레플리카가 적용되어 모델 서버(440)가 운용된다.
예를 들어, 레플리카가 최대 3으로 설정되면, 포드(400)의 개수가 최대 3개까지 생성될 수 있으며, 포드(400) 내에 포함된 컨테이너인 모델 서버(440)도 최대 3개까지 운용될 수 있다. 이 경우, AI 모델의 사용 요청이 적은 상태에서는 1개의 포드(400)만 운용되다가 AI 모델의 사용 요청이 많아지면 최대 3개의 포드(400)까지 생성되어 탄력적으로 운용될 수 있다.
컨트롤 플레인(200)은 모델 배포 API(140)를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API(140)에 담긴 정보에 따라 포드(400)를 생성하고 리소스를 할당 시킨다.
컨트롤 플레인(200)은 API 서버, 스케줄러, 컨트롤러 매니저 및 etcd를 포함할 수 있다. API 서버는 클러스터 내 모든 구성요소가 다른 구성요소와 통신하기 위해 필요하며, API 서버는 클러스터와 관련된 다양한 REST API를 제공한다.
스케줄러는 생성된 포드(400)에 리소스 할당 스케줄을 결정하고 포드(400)의 사양(specification)이 변경되면 API 서버에 전송한다.
컨트롤러는 API 서버를 통해 리소스의 변경을 감지하고 변경하며, 컨트롤러 매니저는 다양한 컨트롤러들을 실행시킨다.
etcd는 분산 객체 저장소로서, 전체 클러스터의 구성과 상태에 대한 레코드 데이터베이스 역할을 한다.
포드(400)는 모델 배포 API(140)가 지정하는 모델 서버(440)의 사양에 따라 생성되며, 모델 예측 API(160)의 요청에 따라 특정 AI 모델을 호출하여 구동시킨다.
본 발명의 일 실시예에서 포드(400)는 Envoy 서버(420)와 모델 서버(440)를 포함할 수 있다.
Envoy 서버(420)는 모델 예측 API(160)의 요청에 따른 AI 모델 서비스가 제공되도록 라우팅 한다. Envoy 서버(420)는 Listener, Filter 및 Cluster를 포함할 수 있다.
Listener는 사용자로부터 프로토콜이 입력되는 부분으로, TCP Listener, HTTP Listener 등이 될 수 있다.
Filter는 Listener로부터 전송된 메시지를 중간 처리하는 부분으로, 압축이나 입력되는 트래픽에 대한 제한 작업 등을 실행한 후, 라우터를 통해서 적절한 Cluster로 메시지를 라우팅 한다.
Cluster는 실제 라우팅이 되는 모델 서버(440)를 지정할 수 있다.
모델 서버(440)는 모델 배포 API(140)에 설정된 레플리카 정보에 따라 운용되는 개수가 설정되며, 특정 AI 모델을 호출하여 구동시킨다. 모델 서버(440)가 사용하는 CPU, Memory, GPU 등과 같은 리소스는 모델 배포 API(140)에 따라 할당될 수 있다.
도 2는 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델 서비스 요청을 도시하는 도면이다.
도 2를 참조하면, 모델 예측 API(160)는 특정 AI 모델을 구동시키기 위한 정보를 갖는다.
인그레스 게이트웨이(300)는 모델 예측 API(160)를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 사용 요청 수 또는 리소스 사용량에 따라 포드(400)의 복제 및 회수를 제어하며, 포드(400)에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시킨다. 이에 따라 AI 모델에 대한 복수의 사용 요청이 입력되더라도 특정 포드(400)에 과부하가 걸리지 않으면서, AI 모델 서비스를 원활하게 제공할 수 있다.
도 3은 본 발명의 일 실시예에 따른 인그레스 게이트웨이의 구성을 도시한 블록도이다.
도 3을 참조하면, 인그레스 게이트웨이(300)는 스케일링 설정부(310), 포드 제어부(320) 및 예측 요청 할당부(330)를 포함하며, 선택적으로, 서버 모니터링부(340), 스케일링 이력 관리부(350) 또는 스케일링 조정부(360)를 포함한다.
스케일링 설정부(310)는 모델 배포 API(140)가 설정한 AI 모델 서비스의 사용 요청 수 또는 리소스 사용량의 임계치에 기반하여 상기 임계치에 대한 비율값을 설정하고, 상기 비율값을 초과하는 사용 요청 수 또는 리소스 사용량이 발생하면 모델 서버(440)의 복제를 위한 신호를 생성한다.
예를 들어, 모델 배포 API(140)가 설정한 AI 모델 서비스의 동시 사용 요청 수의 임계치가 10이고, 스케일링 설정부(310)가 설정한 비율값이 80% 일때, 10 x 80% = 8, 즉, 8을 초과하는 사용 요청이 발생하면, 추가로 모델 서버(440)를 복제하기 위한 신호를 발생시킨다. 여기서, '동시' 사용 요청 수는 시간적으로 동일한 시각 뿐만 아니라, 소정 시간 간격, 예를 들어, 1초의 간격동안 입력되는 사용 요청 수의 합계를 의미할 수 있다.
다른 예에서, 모델 배포 API(140)는 모델 서버(440)가 사용하는 CPU, Memory, GPU 등과 같은 리소스의 사용량에 대한 임계치를 설정할 수 있으며, 스케일링 설정부(310)가 상기 임계치에 대한 비율값을 설정하고, 상기 비율값을 초과하는 리소스 사용량이 발생하면 모델 서버(440)의 복제를 위한 신호를 생성할 수 있다.
포드 제어부(320)는 스케일링 설정부(310)에서 생성한 신호에 따라 포드의 복제 및 회수를 제어한다. 예를 들어, 전술한 바와 같이, AI 모델 서비스의 동시 사용 요청 수의 임계치가 10이고, 스케일링 설정부(310)가 설정한 비율값이 80% 일때, 80% 를 초과하는 사용 요청이 발생하면, 모델 서버(440)를 복제하고, 다시 사용 요청이 80% 미만으로 감소하면, 복제했던 모델 서버(440)를 회수할 수 있다.
예측 요청 할당부(330)는 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 각각의 포드(400)로 복수의 사용 요청을 분배시킨다.
예측 요청 할당부(330)는, 예를 들어, 하나의 포드(400)에 설정된 리소스 사용량을 모두 사용할 때까지 AI 모델 사용 요청을 해당 포드(400)로 라우팅 시키고, 해당 포드(400)에서 리소스를 다 사용하면, 다음 포드(400)로 순차적으로 AI 모델 사용 요청을 할당할 수 있다. 다른 예에서, 예측 요청 할당부(330)는, 복수의 포드(400)에서 각각 점유하고 있는 리소스 사용량을 감지하여, 적은 리소스를 사용하고 있는 포드(400)에 보다 많은 AI 모델 사용 요청이 분배되도록 조정할 수 있다.
예측 요청 할당부(330)의 분배에 따라 AI 모델 사용 요청이 Envoy 서버(420)로 입력되면, Envoy 서버(420)는 모델 서버(440)로 라우팅 하며, 모델 서버(440)는 특정 AI 모델을 Model 저장부(34)에서 호출하여 구동시킨다.
본 발명의 일 실시예에서, 인그레스 게이트웨이(300)는 AI 모델을 구동시키는 모델 서버(440)에서 점유한 리소스 사용량과 모델 서버(440)의 실행 상태를 모니터링 하는 서버 모니터링부(340)를 포함한다.
이 경우, 포드 제어부(320)는 서버 모니터링부(340)에서 모니터링한 모델 서버(440)의 리소스 사용량 및 모델 서버(440)의 실행 상태에 따라 포드의 복제 및 회수를 제어할 수 있다.
포드(400)의 복제는 모델 배포 API(140)에서 설정된 모델 서버(440)의 최소 또는 최대 개수 내에서 리소스 사용량에 따라 결정될 수 있다.
모델 배포 API(140)를 통해 설정된 개수의 모델 서버(440)가 운용될 수 있으며, 시스템 상 과부하, 일시적 오류 등으로 일부의 모델 서버(440)가 오작동 하거나 작동하지 않을 수 있다.
포드 제어부(320)는 서버 모니터링부(340)가 모델 서버(440)의 오작동 또는 미작동을 감지하면, 해당 모델 서버(440)를 포함하는 포드(400)가 회수되도록 제어할 수 있다.
스케일링 이력 관리부(350)는 스케일링 설정부(310)의 비율값 설정에 따라 포드 제어부(320)에서 포드(400)의 복제 및 회수를 실행한 이력을 시계열적으로 기록 및 저장한다. 스케일링 이력 관리부(350)에 저장된 포드(400)의 복제 및 회수를 실행한 이력을 기반으로, 포드 제어부(320)는 AI 모델 서비스의 사용 요청을 통계적으로 파악하여, 사용 요청이 집중되는 특정 시간대에 미리 포드(400)가 복제되도록 제어할 수 있다.
스케일링 조정부(360)는 특정 AI 모델에서 사용하는 리소스의 종류에 따라 해당 리소스 사용량의 임계치에 대한 비율값을 재설정 한다. AI 모델이 사용하는 CPU, Memory, GPU 등에 대해 모델 배포 API(140)가 임계치를 설정하고, 스케일링 설정부(310)가 각각의 비율값을 설정한 상태에서, 예를 들어, 특정 AI 모델이 사용하는 리소스 중 GPU가 다른 리소스에 비해 중요한 요소로 작용한다면, 스케일링 조정부(360)는 GPU에 대해 스케일링 설정부(310)가 설정한 비율값을 낮추는 조정을 할 수 있다. 이에 따라, 포드 제어부(320)는 모델 서버(440)의 GPU 사용량에 보다 민감하게 반응하여, 모델 서버(440)의 복제가 이뤄지도록 제어할 수 있다.
모델 배포 API(140)는 AI 모델에 할당되는 배포 리소스의 범위 및 AI 모델을 구동시키는 모델 서버(440)의 복제 개수를 나타내는 레플리카를 설정할 수 있다.
모델 배포 API(140)가 레플리카를 0으로 설정하면, 인그레스 게이트웨이(300)는 AI 모델에 대한 사용 요청이 없을 때 포드(400)를 회수하고, AI 모델에 대한 사용 요청이 발생할 때 포드(400)를 생성하여 모델 서버(440)를 운용하는 Zero-Scale 기능을 실행할 수 있다. 이에 따라, 포드(400)에서 사용하는 리소스의 확장 및 축소가 사용자의 AI 모델 서비스의 사용 요청에 상응하여 제어될 수 있으며, AI 모델 서비스의 사용 요청이 없을 때, 해당 리소스를 다른 서비스 제공에 투입할 수 있으므로, 전체 시스템의 리소스를 보다 효율적으로 관리, 운영할 수 있다.
도 4는 본 발명의 일 실시예에 따른 AI 모델 운영 방법의 순서도이다.
도 4를 참조하면, 본 발명의 AI 모델 운영 방법은, AI 모델 운영 장치(10)가 모델 서버 스케일링을 제어하는 AI 모델 운영 방법으로서, API 관리부(100)가 모델 빌드 API(120), 모델 배포 API(140) 및 모델 예측 API(160)를 관리하는 단계(S100), 모델 예측 API(160)를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 인그레스 게이트웨이(300)가 사용 요청 수 또는 리소스 사용량에 따라 포드(400)의 복제 및 회수를 제어하는 단계(S200), 및 모델 배포 API(140)가 지정하는 모델 서버(440)의 사양에 따라 생성된 포드(400)가 인그레스 게이트웨이(300)를 통해 전달되는 모델 예측 API(160)의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 단계(S300)를 수행한다.
본 발명의 일 실시예에서, AI 모델 운영 장치(10)는 상기 S200 단계에서, 모델 배포 API(140)가 설정한 AI 모델 서비스의 사용 요청 수 또는 리소스 사용량의 임계치에 기반하여 스케일링 설정부(310)가 상기 임계치에 대한 비율값을 설정하고, 상기 비율값을 초과하는 사용 요청 수 또는 리소스 사용량이 발생하면 모델 서버(440)의 복제를 위한 신호를 생성하는 단계, 스케일링 설정부(310)에서 생성한 신호에 따라 포드 제어부(320)가 포드(400)의 복제 및 회수를 제어하는 단계, 및 AI 모델에 대한 복수의 사용 요청에 대응하여 예측 요청 할당부(330)가 포드별 리소스 사용량에 따라 각각의 포드(400)로 복수의 사용 요청을 분배시키는 단계를 포함하여 수행할 수 있다.
스케일링 설정부(310)는 CPU, Memory, GPU 등 리소스의 종류별로 동일하거나 상이한 비율값을 설정할 수 있으며, AI 모델 서비스 제공 지연, 모델 서버(440)에서 점유하는 리소스 크기의 변화 등을 실시간으로 모니터링 하여, 기존에 설정한 비율값을 수정할 수도 있다.
본 발명의 다른 실시예에서, AI 모델 운영 장치(10)는 상기 S200 단계에서, AI 모델을 구동시키는 모델 서버(440)에서 점유한 리소스 사용량과 모델 서버(440)의 실행 상태를 서버 모니터링부(340)가 모니터링 하는 단계, 및 서버 모니터링부(340)에서 모니터링한 모델 서버(440)의 리소스 사용량 및 모델 서버(440)의 실행 상태에 따라 포드 제어부(320)가 포드(400)의 복제 및 회수를 제어하는 단계를 포함하여 수행할 수 있다.
AI 모델을 구동시키는 모델 서버(440)는, 시스템 상 과부하, 일시적 오류 등으로 일부의 모델 서버(440)가 오작동 하거나 작동하지 않을 수 있다.
서버 모니터링부(340)가 모델 서버(440)의 오작동 또는 미작동을 모니터링 하여, 포드 제어부(320)로 전달하면, 포드 제어부(320)는 해당 모델 서버(440)를 운영하는 포드(400)를 회수하고, 새로운 포드(400)를 복제하도록 제어할 수 있다.
본 발명의 다른 실시예에서, AI 모델 운영 장치(10)는 상기 S200 단계에서, 스케일링 설정부(310)의 비율값 설정에 따라 포드 제어부(320)에서 포드(400)의 복제 및 회수를 실행한 이력을 스케일링 이력 관리부(350)가 시계열적으로 기록 및 저장하는 단계를 포함하여 수행할 수 있다.
스케일링 이력 관리부(350)에 저장된 포드(400)의 복제 및 회수 이력을 기반으로, 포드 제어부(320)는 이력 정보를 통계적으로 분석하여, 특정 시간대에 포드(400)를 미리 복제할 수 있다. 또한, 스케일링 이력 관리부(350)는 스케일링 설정부(310)에서 설정된 여러 비율값에 따른 AI 모델 서비스 제공 상태, 리소스 점유 상황 등을 파악하여, 스케일링 설정부(310)가 적정한 비율값을 설정할 수 있도록 보조할 수 있다.
본 발명의 다른 실시예에서, AI 모델 운영 장치(10)는 상기 S200 단계에서, 특정 AI 모델에서 사용하는 리소스의 종류에 따라 해당 리소스 사용량의 임계치에 대한 비율값을 스케일링 조정부(360)가 재설정 하는 단계를 포함하여 수행할 수 있다.
AI 모델별로 사용하는 리소스의 종류 및 중요도가 상이할 수 있으며, 스케일링 조정부(360)가 중요도가 높은 리소스에 대한 비율값을 낮추고, 중요도가 낮은 리소스에 대한 비율값은 높임으로써, 포드 제어부(320)가 리소스별로 다른 비율값을 적용하여 모델 서버(440)의 복제를 제어할 수 있게 된다.
모델 배포 API(140)는 AI 모델에 할당되는 배포 리소스의 범위 및 AI 모델을 구동시키는 모델 서버(440)의 복제 개수를 나타내는 레플리카를 설정할 수 있다.
모델 배포 API(140)가 레플리카를 0으로 설정하면, 하나의 모델 서버(440)가 운용되며, 인그레스 게이트웨이(300)는 AI 모델에 대한 사용 요청이 없을 때 해당 모델 서버(440)가 운용되는 포드(400)를 폐쇄하고, AI 모델에 대한 사용 요청이 발생할 때 포드(400)를 생성하여 해당 모델 서버(440)를 운용할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로 컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플 리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서 (parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody) 될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나, 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.

Claims (14)

  1. 모델 서버 스케일링을 제어하는 AI 모델 운영 장치로서,
    모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 API 관리부;
    상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 사용 요청 수 또는 리소스 사용량에 따라 포드의 복제 및 회수를 제어하는 인그레스 게이트웨이; 및
    상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성되며, 상기 인그레스 게이트웨이를 통해 전달되는 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 포드;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  2. 제1항에 있어서,
    상기 인그레스 게이트웨이는,
    상기 모델 배포 API가 설정한 AI 모델 서비스의 사용 요청 수 또는 리소스 사용량의 임계치에 기반하여 상기 임계치에 대한 비율값을 설정하고, 상기 비율값을 초과하는 사용 요청 수 또는 리소스 사용량이 발생하면 모델 서버의 복제를 위한 신호를 생성하는 스케일링 설정부;
    상기 스케일링 설정부에서 생성한 신호에 따라 상기 포드의 복제 및 회수를 제어하는 포드 제어부; 및
    상기 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 각각의 포드로 복수의 사용 요청을 분배시키는 예측 요청 할당부;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  3. 제2항에 있어서,
    상기 인그레스 게이트웨이는,
    상기 AI 모델을 구동시키는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 모니터링 하는 서버 모니터링부;를 포함하며,
    상기 포드 제어부는 상기 서버 모니터링부에서 모니터링한 상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 포드의 복제 및 회수를 제어하는 것을 특징으로 하는 AI 모델 운영 장치.
  4. 제2항에 있어서,
    상기 인그레스 게이트웨이는,
    상기 스케일링 설정부의 비율값 설정에 따라 상기 포드 제어부에서 포드의 복제 및 회수를 실행한 이력을 시계열적으로 기록 및 저장하는 스케일링 이력 관리부;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  5. 제2항에 있어서,
    상기 인그레스 게이트웨이는,
    특정 AI 모델에서 사용하는 리소스의 종류에 따라 해당 리소스 사용량의 임계치에 대한 비율값을 재설정 하는 스케일링 조정부;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  6. 제1항에 있어서,
    상기 모델 배포 API는,
    상기 AI 모델에 할당되는 배포 리소스의 범위 및 상기 AI 모델을 구동시키는 모델 서버의 복제 개수를 나타내는 레플리카를 설정하는 것을 특징으로 하는 AI 모델 운영 장치.
  7. 제6항에 있어서,
    상기 모델 배포 API가 레플리카를 0으로 설정하면, 상기 인그레스 게이트웨이는 상기 AI 모델에 대한 사용 요청이 없을 때 상기 포드를 회수하고, 상기 AI 모델에 대한 사용 요청이 발생할 때 상기 포드를 생성하여 모델 서버를 운용하는 것을 특징으로 하는 AI 모델 운영 장치.
  8. 모델 서버 스케일링을 제어하는 AI 모델 운영 방법으로서,
    (a) API 관리부가 모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 단계;
    (b) 상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 인그레스 게이트웨이가 사용 요청 수 또는 리소스 사용량에 따라 포드의 복제 및 회수를 제어하는 단계; 및
    (c) 상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성된 포드가 상기 인그레스 게이트웨이를 통해 전달되는 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  9. 제8항에 있어서,
    상기 (b) 단계는,
    상기 모델 배포 API가 설정한 AI 모델 서비스의 사용 요청 수 또는 리소스 사용량의 임계치에 기반하여 상기 임계치에 대한 비율값을 설정하고, 상기 비율값을 초과하는 사용 요청 수 또는 리소스 사용량이 발생하면 모델 서버의 복제를 위한 신호를 생성하는 단계;
    상기 스케일링 설정부에서 생성한 신호에 따라 포드 제어부가 상기 포드의 복제 및 회수를 제어하는 단계; 및
    상기 AI 모델에 대한 복수의 사용 요청에 대응하여 예측 요청 할당부가 포드별 리소스 사용량에 따라 각각의 포드로 복수의 사용 요청을 분배시키는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  10. 제9항에 있어서,
    상기 (b) 단계는,
    상기 AI 모델을 구동시키는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 서버 모니터링부가 모니터링 하는 단계; 및
    상기 서버 모니터링부에서 모니터링한 상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 상기 포드 제어부가 포드의 복제 및 회수를 제어하는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  11. 제9항에 있어서,
    상기 (b) 단계는,
    상기 스케일링 설정부의 비율값 설정에 따라 상기 포드 제어부에서 포드의 복제 및 회수를 실행한 이력을 스케일링 이력 관리부가 시계열적으로 기록 및 저장하는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  12. 제9항에 있어서,
    상기 (b) 단계는,
    특정 AI 모델에서 사용하는 리소스의 종류에 따라 해당 리소스 사용량의 임계치에 대한 비율값을 스케일링 조정부가 재설정 하는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  13. 제8항에 있어서,
    상기 모델 배포 API는,
    상기 AI 모델에 할당되는 배포 리소스의 범위 및 상기 AI 모델을 구동시키는 모델 서버의 복제 개수를 나타내는 레플리카를 설정하는 것을 특징으로 하는 AI 모델 운영 방법.
  14. 제13항에 있어서,
    상기 모델 배포 API가 레플리카를 0으로 설정하면, 상기 인그레스 게이트웨이는 상기 AI 모델에 대한 사용 요청이 없을 때 상기 포드를 폐쇄하고, 상기 AI 모델에 대한 사용 요청이 발생할 때 상기 포드를 생성하여 모델 서버를 운용하는 것을 특징으로 하는 AI 모델 운영 방법.
PCT/KR2022/017962 2021-11-19 2022-11-15 모델 서버 스케일링을 제어하는 ai 모델 운영 장치 및 방법 WO2023090807A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0160244 2021-11-19
KR1020210160244A KR20230073647A (ko) 2021-11-19 2021-11-19 모델 서버 스케일링을 제어하는 ai 모델 운영 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2023090807A1 true WO2023090807A1 (ko) 2023-05-25

Family

ID=86397324

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/017962 WO2023090807A1 (ko) 2021-11-19 2022-11-15 모델 서버 스케일링을 제어하는 ai 모델 운영 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20230073647A (ko)
WO (1) WO2023090807A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200027783A (ko) * 2018-09-05 2020-03-13 주식회사 나눔기술 분산 지능모듈의 통합관리 시스템
KR20200086393A (ko) * 2019-01-08 2020-07-17 주식회사 코레토 클라우드 서버의 자동 스케일링 방법, 장치 및 컴퓨터-판독가능기록매체
KR102171436B1 (ko) * 2019-12-16 2020-10-29 주식회사 레몬헬스케어 Api 통합관리를 위한 클라우드 기반의 api 메타데이터 관리방법 및 시스템
KR102179459B1 (ko) * 2019-06-18 2020-11-16 주식회사 홍익과학기술 멀티 클라우드 통합 관리 시스템 및 그 방법
KR102260549B1 (ko) * 2020-09-10 2021-06-04 한국전자기술연구원 연합 컨테이너 환경에서 자원 사용률 및 지리적 위치 기반 로드밸런싱 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200027783A (ko) * 2018-09-05 2020-03-13 주식회사 나눔기술 분산 지능모듈의 통합관리 시스템
KR20200086393A (ko) * 2019-01-08 2020-07-17 주식회사 코레토 클라우드 서버의 자동 스케일링 방법, 장치 및 컴퓨터-판독가능기록매체
KR102179459B1 (ko) * 2019-06-18 2020-11-16 주식회사 홍익과학기술 멀티 클라우드 통합 관리 시스템 및 그 방법
KR102171436B1 (ko) * 2019-12-16 2020-10-29 주식회사 레몬헬스케어 Api 통합관리를 위한 클라우드 기반의 api 메타데이터 관리방법 및 시스템
KR102260549B1 (ko) * 2020-09-10 2021-06-04 한국전자기술연구원 연합 컨테이너 환경에서 자원 사용률 및 지리적 위치 기반 로드밸런싱 방법

Also Published As

Publication number Publication date
KR20230073647A (ko) 2023-05-26

Similar Documents

Publication Publication Date Title
CN110737442B (zh) 一种边缘应用管理方法及系统
US10664368B2 (en) Modifying aspects of a storage system associated with data mirroring
WO2012141404A1 (ko) 분산 저장 시스템의 복제 서버 장치 및 복제본 생성 방법
CN108664496B (zh) 数据迁移方法及装置
US7493387B2 (en) Validating software in a grid environment using ghost agents
US7987467B2 (en) Scale across in a grid computing environment
US20050060608A1 (en) Maximizing processor utilization and minimizing network bandwidth requirements in throughput compute clusters
US20090089790A1 (en) Method and system for coordinating hypervisor scheduling
CN101398770A (zh) 迁移一个或多个虚拟机的系统和方法
JP2008108258A (ja) 分散スナップショットプロセス
WO2020138605A1 (ko) 사용자 특성을 반영한 클러스터 기반 가상 네트워크 기능의 자원 할당 방법
CN110308984A (zh) 一种用于处理地理分布式数据的跨集群计算系统
CN110750592A (zh) 数据同步的方法、装置和终端设备
Potier New users' introduction to QNAP 2
US10592362B2 (en) Modifying journaling associated with data mirroring within a storage system
Alyas et al. Resource Based Automatic Calibration System (RBACS) Using Kubernetes Framework.
WO2023090807A1 (ko) 모델 서버 스케일링을 제어하는 ai 모델 운영 장치 및 방법
CN105827744A (zh) 云存储平台的数据处理方法
WO2020222407A1 (ko) 머신 러닝 플랫폼 관리 시스템 및 방법
WO2019074155A1 (ko) 데이터베이스 간의 실시간 통합 복제 시스템
WO2023090784A1 (ko) 단일 엔드포인트를 이용한 ai 모델 운영 장치 및 방법
WO2010093084A1 (ko) 분산 스페이스를 이용하여 분산 프로그래밍 환경을 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US7516443B2 (en) Performing tests with ghost agents
WO2022102982A1 (ko) 사용자 참여 기반의 인공 지능 서비스 방법 및 이러한 방법을 수행하는 장치
WO2021220616A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに分散学習システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22896013

Country of ref document: EP

Kind code of ref document: A1