WO2023090784A1 - 단일 엔드포인트를 이용한 ai 모델 운영 장치 및 방법 - Google Patents

단일 엔드포인트를 이용한 ai 모델 운영 장치 및 방법 Download PDF

Info

Publication number
WO2023090784A1
WO2023090784A1 PCT/KR2022/017879 KR2022017879W WO2023090784A1 WO 2023090784 A1 WO2023090784 A1 WO 2023090784A1 KR 2022017879 W KR2022017879 W KR 2022017879W WO 2023090784 A1 WO2023090784 A1 WO 2023090784A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
api
pod
server
prediction
Prior art date
Application number
PCT/KR2022/017879
Other languages
English (en)
French (fr)
Inventor
서창수
정희석
송환혁
정주영
Original Assignee
에스케이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 주식회사 filed Critical 에스케이 주식회사
Publication of WO2023090784A1 publication Critical patent/WO2023090784A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/547Remote procedure calls [RPC]; Web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/66Arrangements for connecting between networks having differing types of switching systems, e.g. gateways
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances

Definitions

  • the present invention relates to an AI model operating device and method using a single endpoint, and in particular, even if a resource used by a distributed AI model is expanded, the AI model can be accessed through a single URL without additional measures on the system. It relates to an AI model operating device and method.
  • AI Artificial Intelligence
  • Deployment of AI models can be done in a cloud or on-premises environment, and in an AI platform, one model resource can have multiple versions of a model.
  • the present invention was created in view of the above circumstances, and an object of the present invention is to set the specification of a model server that drives an AI model as a model distribution API, and to provide a model server operating according to resource usage of the model server. It is to provide an AI model operation device and method capable of driving the AI model through a single model prediction API even if the resource used by the deployed AI model is changed or expanded by adjusting the number.
  • An AI model operating device is an AI model operating device using a single endpoint, an API management unit that manages a model build API, a model deployment API, and a model prediction API, and input through the model deployment API.
  • a control plane that verifies whether a deployment request is valid, creates a pod and allocates resources according to the information contained in the model deployment API, and resources that are executed in pods for multiple use requests for AI models input through the model prediction API.
  • the number of the pods operated is adjusted according to the envoy server that routes the AI model service according to the request of the model prediction API to be provided, and the replica information set in the model deployment API, and the specific AI model It may include a model server that is called and driven.
  • the ingress gateway a server monitoring unit for monitoring the resource usage occupied by the model server driving the AI model and the running state of the model server, the resource usage of the model server and the running state of the model server a pod control unit that controls creation and closure of pods according to the AI model; and a prediction request allocator that distributes a plurality of use requests to each pod according to resource usage for each pod in response to a plurality of use requests for the AI model.
  • the API management unit matches the distribution URL of the model distribution API with the prediction request URL information of the model prediction API, so that the distribution URL and the prediction request URL can be accessed as the same specific AI model.
  • a matching unit may be included.
  • the model distribution API may set replicas indicating the range of distribution resources allocated to the AI model and the number of copies of model servers that drive the AI model.
  • the model deployment API may set the minimum or maximum number of model servers operated in units of replicas.
  • An AI model operating method is an AI model operating method using a single endpoint, comprising the steps of (a) requesting deployment of an AI model generated through a model build API through a model deployment API, (b) ) Verifying whether the deployment request entered through the model deployment API is valid, creating a pod and allocating resources according to the information contained in the model deployment API, (c) Multiple AI models input through the model prediction API Distributing use requests for each pod according to the resource usage executed in the pod, and (d) calling and running a specific AI model in the pod according to the request of the model prediction API.
  • the step (d) is the step of routing by the Envoy server so that the AI model service is provided according to the request of the model prediction API, and the number of operations is adjusted according to the replica information set in the model deployment API
  • the model server may include calling and driving a specific AI model.
  • the step (c) includes monitoring, by a server monitoring unit, the resource usage occupied by the model server driving the AI model and the running state of the model server, the resource usage of the model server and the execution of the model server. Controlling the creation and closure of pods by the pod control unit according to the state, and distributing the plurality of use requests to each pod by the prediction request allocator according to the resource usage per pod in response to the plurality of use requests for the AI model. steps may be included.
  • the distribution URL of the model distribution API and the prediction request URL information of the model prediction API are matched so that the distribution URL and the prediction request URL are identical to the specific AI. It may include steps to make the model accessible.
  • the AI model operating apparatus and method according to the present invention can access the AI model through a single URL even if the size of the resource used by the AI model is changed according to an external request and a plurality of model servers are running, so the AI model There is an effect that can be used conveniently without causing any delay in driving.
  • the AI model operating apparatus and method according to the present invention has an effect of immediately reflecting setting changes related to AI model driving by interworking the AI model distribution URL and prediction request URL.
  • the AI model operating apparatus and method according to the present invention even if an error occurs in some of the plurality of model servers that drive the AI model, the AI model can be stably operated by providing services through other model servers that operate normally. There is an effect.
  • FIG. 1 is a diagram illustrating creation and distribution of an AI model in an AI model driving environment to which an AI model operating apparatus according to an embodiment of the present invention is applied.
  • FIG. 2 is a diagram illustrating an AI model use request in an AI model driving environment to which an AI model operating device according to an embodiment of the present invention is applied.
  • FIG. 3 is a block diagram showing the configuration of the ingress gateway of Figure 2;
  • FIG. 4 is a flowchart illustrating an AI model operating method according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating creation and distribution of an AI model in an AI model driving environment to which an AI model operating apparatus according to an embodiment of the present invention is applied.
  • the AI model operating device 10 of the present invention includes an API (Application, Programming, Interface) management unit 100, a control plane (Control Plane, 200), an ingress gateway (300), and a pod (POD). , 400).
  • the AI model operating device 10 of the present invention may be driven, for example, in a Kubernetes cluster environment, but is not limited thereto.
  • the API management unit 100 may manage a model build API 120, a model deployment API 140, and a model prediction API 160 for requesting build, distribution, and prediction of AI models, respectively.
  • the model build API 120 has a language or message format used when communicating with the DB management system 30, and is used when a user who wants to create an AI model wants to access the DB management system 30.
  • the DB management system 30 may include a data storage unit 32, a model storage unit 34 and a history management unit 36, and the user 20 may use the DB management system 30 through the model build API 120. ), you can check the history where information such as the registration of the learned AI model, the data used to create the existing AI model, the prediction result of the AI model, and the driving monitoring result of the AI model are stored.
  • the user 20 may execute registration of the AI model through a user interface implemented on the web.
  • AI models can be pre-trained models by applying AI algorithms, and users can set commercialized machine learning engines such as Tensorflow, PyTorch, Scikit-Learn, XGBoost, and Triton 5 to apply to AI models.
  • Version-specific information of a plurality of AI models may be stored and managed in the MODEL storage unit 34 of the DB management system 30 .
  • the user 20 provides the weight file generated as a result of training the AI model, user code for executing inference on the registered AI model, and data used for training for analysis of the AI model through the model build API 120. It can be transmitted to the DB management system 30 through.
  • the AI model completes learning through operation execution, weight application, and output for each of the various layers that make up the AI algorithm, and a weight file with learning completed is created.
  • User code is a file used to verify the combination of input data and AI models. That is, the user code verifies whether the registered AI model is an appropriately generated model based on the training data.
  • Data used for learning for analysis of the AI model may be transmitted to the DB management system 30 through the model build API 120 and stored in the data storage unit 32.
  • the learning data is stored in the data storage unit 32 in order to monitor the inference result of the AI model and later check whether or not there is an abnormality in the data used for learning.
  • the model deployment API 140 applies the AI model registered in the model storage unit 34 of the DB management system 30 to a use environment in which machine learning is to be executed.
  • the use environment may be a cloud or an on-premises environment.
  • the model distribution API 140 includes a distribution Uniform Resource Locator (URL) indicating the location of a resource on a network.
  • the model deployment API 140 sets information for operating the model server 440 that drives the AI model, and concurrency, which represents a value that can respond to the serving request of the AI model at once, You can set the range of distribution resources to be allocated, replicas indicating the number of copies of the model server 440 that drive the AI model, or the resource allocation amount of the GPU used by the AI model.
  • URL Uniform Resource Locator
  • Replicas can be set up in a Kubernetes cluster environment serving AI models, and are used when there are many requests for external use or AI model performance is required.
  • the replica is a means to stably operate the AI model, and even if some of the Pods (PODs) of the Kubernetes cluster that are running the AI model are terminated abnormally, other pods do not affect the entire system, so that the AI model's service It is a system tool that keeps running the pod and attempts to recover the abnormally terminated pod. More distribution resources are occupied and used as much as the set number of replicas.
  • the model deployment API 140 may designate the minimum or maximum number of model servers 440 that drive AI models, including replica information. When serving a model, the maximum number of replicas can be executed within the allocated model distribution resources.
  • the model server 440 is immediately replicated and operated as much as the minimum number of replicas when serving the model, and the model server 440 is replicated as much as the maximum number of replicas according to the model serving status (request increase).
  • the model server 440 is operated by applying the minimum number of replicas again.
  • the replica is set to a maximum of 3
  • the number of pods 400 can be created up to 3
  • up to 3 model servers 440 which are containers included in the pod 400, can also be operated. there is.
  • only one pod 400 is operated when there are few requests for use of the AI model, and up to three pods 400 can be created and operated flexibly when requests for use of the AI model increase.
  • the control plane 200 verifies whether a deployment request input through the model deployment API 140 is valid, creates a pod 400 according to information contained in the model deployment API 140, and allocates resources thereto.
  • the control plane 200 may include an API server, scheduler, controller manager, and etcd.
  • the API server is required for all components in the cluster to communicate with other components, and the API server provides various REST APIs related to the cluster.
  • the scheduler determines a resource allocation schedule for the created pod 400 and transmits it to the API server when the specification of the pod 400 is changed.
  • the controller detects and changes resource changes through the API server, and the controller manager executes various controllers.
  • etcd is a distributed object store that acts as a record database for the configuration and state of the entire cluster.
  • the pod 400 is created according to the specifications of the model server 440 designated by the model deployment API 140, and calls and runs a specific AI model according to a request of the model prediction API 160.
  • the pod 400 may include an Envoy server 420 and a model server 440.
  • the Envoy server 420 routes so that the AI model service according to the request of the model prediction API 160 is provided.
  • Envoy server 420 may include Listener, Filter and Cluster.
  • a listener is a part where a protocol is input from a user, and can be a TCP listener or an HTTP listener.
  • Filter is a part that intermediately processes messages transmitted from listeners. After performing compression or limiting of incoming traffic, messages are routed to appropriate clusters through routers.
  • Cluster can designate a model server 440 that is actually routed.
  • the number of operations is set according to the replica information set in the model distribution API 140, and a specific AI model is called and driven.
  • Resources such as CPU, memory, and GPU used by the model server 440 may be allocated according to the model distribution API 140.
  • FIG. 2 is a diagram illustrating an AI model service request in an AI model driving environment to which an AI model operating device according to an embodiment of the present invention is applied.
  • the model prediction API 160 has information for driving a specific AI model.
  • the model prediction API 160 includes a prediction request URL (Uniform Resource Locator) that indicates the location of a resource on the network.
  • URL Uniform Resource Locator
  • the API management unit 100 matches the distribution URL of the model distribution API 140 with the prediction request URL information of the model prediction API 160, so that the distribution URL and the prediction request URL can be accessed as the same specific AI model.
  • a matching unit (not shown) may be included. Accordingly, even if the resources used by the distributed AI model are changed or expanded through the model deployment API 140, the user can access the same prediction request URL and request AI model service provision.
  • the ingress gateway 300 distributes the use requests for each pod according to the resource usage running in the pod 400 for the plurality of use requests for the AI model input through the model prediction API 160 . Accordingly, even if a plurality of requests for use of the AI model are input, the AI model service can be smoothly provided without overloading the specific pod 400 .
  • FIG. 3 is a block diagram showing the configuration of an ingress gateway according to an embodiment of the present invention.
  • the ingress gateway 300 includes a server monitoring unit 320, a pod control unit 340, and a prediction request allocation unit 360.
  • the server monitoring unit 320 monitors the usage of resources occupied by the model server 440 that drives the AI model and the running state of the model server 440 .
  • a set number of model servers 440 may be operated through the model distribution API 140, and some of the model servers 440 may malfunction or not operate due to system overload or temporary error.
  • the server monitoring unit 320 may monitor the running state of the model server 440 in real time and assist in taking immediate supplementary measures when a problem occurs in some of the model servers 440 .
  • the pod controller 340 controls the creation and closure of the pod 400 according to the resource usage of the model server 440 and the running state of the model server 440 . Creation of the pod 400 may be determined according to resource usage within the minimum or maximum number of model servers 400 set in the model deployment API 140 .
  • the pod control unit 340 may control the pod 400 including the model server 440 to be closed when the server monitoring unit 320 detects a malfunction or non-operation of the model server 440 .
  • the prediction request allocation unit 360 distributes the plurality of use requests to each pod 400 according to resource usage for each pod in response to the plurality of use requests for the AI model.
  • the prediction request allocator 360 routes the AI model use request to the corresponding pod 400 until all the resource usage set in one pod 400 is used, for example, and resources are allocated from the corresponding pod 400. When all are used, AI model usage requests can be sequentially assigned to the next pod 400. In another example, the prediction request allocator 360 detects resource usage occupied by each of the plurality of pods 400, so that more AI model use requests are distributed to the pods 400 using fewer resources. can be adjusted
  • the Envoy server 420 When an AI model use request is input to the Envoy server 420 according to the distribution of the prediction request allocation unit 360, the Envoy server 420 routes it to the model server 440, and the model server 440 selects a specific AI model. It is called from the model storage unit 34 and driven.
  • FIG. 4 is a flowchart of an AI model operating method according to an embodiment of the present invention.
  • the AI model operating method of the present invention is an AI model operating method using a single endpoint, and the AI model operating device 10 transfers the AI model generated through the model build API 120 to the model deployment API ( 140) through the deployment request (S100), verifying whether the deployment request entered through the model deployment API 140 is valid, creating a pod 400 according to the information contained in the model deployment API 140 and allocating resources (S200), and distributes the use requests for each pod according to the resource usage running in the pod 400 for the plurality of use requests for the AI model input through the model prediction API 160 (S300), and the model prediction API According to the request of (160), a specific AI model is called and driven in the pod (400) (S400).
  • the model distribution API 140 may set replicas indicating the range of distribution resources allocated to the AI model and the number of copies of the model server 440 that drives the AI model.
  • the minimum or maximum number of model servers 440 created by replica setting may be adjusted.
  • the API management unit 100 matches the distribution URL of the model distribution API 140 with the prediction request URL information of the model prediction API 160, and matches the distribution URL and It can be implemented so that the prediction request URL can be accessed with the same specific AI model. Accordingly, even if the resources used by the distributed AI model are changed or expanded through the model deployment API 140, the user 20 can access the same prediction request URL and request the AI model service provision.
  • the AI model operating device 10 in step S300, the resource usage occupied by the model server 440 that drives the AI model and the running state of the model server 440, the server monitoring unit 320 ) monitors, the pod controller 340 controls the creation and closure of the pod 400 according to the resource usage of the model server 440 and the running state of the model server 440, and the plurality of AI models.
  • the prediction request allocator 360 may distribute a plurality of use requests to each pod 400 according to the resource usage of each pod in response to the use request of .
  • the number of generated model servers 440 may be limited by the setting of the model deployment API 140, and the AI model operating device 10 includes a server monitoring unit 320, a pod control unit 340, and a prediction request allocation unit ( By the operation of 360), it is possible to control so that there is no disruption in the provision of AI model service due to malfunction or non-operation of the model server 440.
  • step S400 the AI model operating device 10 routes the AI model service according to the request of the model prediction API 160 by the Envoy server 420 to be provided, and the model deployment API. It can be performed by including the step of calling and driving a specific AI model by the model server 440 whose number of operations is adjusted according to the replica information set in (140).
  • the Envoy server 420 may route the use request to the corresponding model server 440 by searching for a model server 440 to provide a corresponding service according to the AI model use request.
  • the model server 440 can be replicated according to the amount of resources to be occupied in response to AI model use requests, and even if many AI model use requests occur, by providing AI model services without interruption, the user's experience is improved to a high level. can be maintained
  • the embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components.
  • the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions.
  • a processing device may run an operating system (OS) and one or more software applications running on the operating system.
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of software.
  • OS operating system
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include.
  • a processing device may include a plurality of processors or a processor and a controller. Also, other processing configurations are possible, such as parallel processors.
  • Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device.
  • Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave.
  • Software may be distributed on networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program commands recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Branch Pipes, Bends, And The Like (AREA)
  • Selective Calling Equipment (AREA)
  • Computer And Data Communications (AREA)

Abstract

본 발명은 단일 엔드포인트를 이용한 AI 모델 운영 장치 및 방법에 관한 것으로, 특히, 배포된 AI 모델이 사용하는 리소스(resource)가 확장되더라도 시스템 상 추가적인 조치없이 하나의 URL을 통해 AI 모델에 접근할 수 있는 AI 모델 운영 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 AI 모델 운영 장치는, 단일 엔드포인트를 이용한 AI 모델 운영 장치로서, 모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 API 관리부, 상기 모델 배포 API를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API에 담긴 정보에 따라 포드를 생성하고 리소스를 할당 시키는 컨트롤 플레인, 상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 포드에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시키는 인그레스 게이트웨이, 및 상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성되며, 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 포드를 포함한다.

Description

단일 엔드포인트를 이용한 AI 모델 운영 장치 및 방법
본 발명은 단일 엔드포인트를 이용한 AI 모델 운영 장치 및 방법에 관한 것으로, 특히, 배포된 AI 모델이 사용하는 리소스(resource)가 확장되더라도 시스템 상 추가적인 조치없이 하나의 URL을 통해 AI 모델에 접근할 수 있는 AI 모델 운영 장치 및 방법에 관한 것이다.
AI(Artificial Intelligence) 모델은 다양한 언어, 데이터, 라이브러리를 이용하여 개발되며, 개발된 AI 모델을 여러 사용 환경에 적합하게 배포하고, 구동시키는데 많은 제약이 따른다.
AI 모델 구축을 위해서는 AI 알고리즘을 해석하고, 방대한 데이터를 정밀하게 다루기 위해 고도의 수학적 지식 등이 요구되므로, 숙련된 AI 전문가 확보가 필요하다.
이에 최적의 모델링 기법을 선정하기 위한 반복 실험 단계를 제거해 데이터 전처리만 거치면, 모델을 즉시 최적화 및 배포할 수 있도록 지원하는 자동화된 머신러닝 모델 개발 프로세스가 연구되고 있다.
AI 모델의 배포는 클라우드(cloud) 또는 온-프레미스(On-premises) 환경에서 이루어질 수 있으며, AI 플랫폼에서 하나의 모델 리소스에는 여러 버전의 모델이 있을 수 있다.
배포된 AI 모델에 예측 요청 시, AI 모델이 사용하는 리소스가 변경되면 해당 AI 모델을 구동시키기 위해 별도의 코딩 및 명령어 입력이 요구된다.
따라서, 배포된 AI 모델이 사용하는 리소스가 변경되더라도, 시스템 상 별도의 추가적인 조치 없이 사용자가 해당 AI 모델에 용이하게 접근할 수 있는 방안에 대한 개발이 필요하다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명의 목적은 AI 모델을 구동시키는 모델 서버의 사양(specification)을 모델 배포 API로 설정하고, 모델 서버의 리소스 사용량에 따라 운용되는 모델 서버의 개수를 조정함으로써, 배포된 AI 모델이 사용하는 리소스의 변경, 확장이 발생하더라도 단일의 모델 예측 API를 통해 해당 AI 모델을 구동시킬 수 있는 AI 모델 운영 장치 및 방법을 제공하는데 있다.
본 발명의 일 실시예에 따른 AI 모델 운영 장치는, 단일 엔드포인트를 이용한 AI 모델 운영 장치로서, 모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 API 관리부, 상기 모델 배포 API를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API에 담긴 정보에 따라 포드를 생성하고 리소스를 할당 시키는 컨트롤 플레인, 상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 포드에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시키는 인그레스 게이트웨이, 및 상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성되며, 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 포드를 포함한다.
일 실시예에서, 상기 포드는, 상기 모델 예측 API의 요청에 따른 AI 모델 서비스가 제공되도록 라우팅 하는 Envoy 서버, 및 상기 모델 배포 API에 설정된 레플리카 정보에 따라 운용되는 개수가 조정되며, 특정 AI 모델을 호출하여 구동시키는 모델 서버를 포함할 수 있다.
일 실시예에서, 상기 인그레스 게이트웨이는, 상기 AI 모델을 구동시키는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 모니터링 하는 서버 모니터링부, 상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 포드의 생성 및 폐쇄를 제어하는 포드 제어부, 및 상기 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 각각의 포드로 복수의 사용 요청을 분배시키는 예측 요청 할당부를 포함할 수 있다.
일 실시예에서, 상기 API 관리부는, 상기 모델 배포 API의 배포 URL과 상기 모델 예측 API의 예측 요청 URL 정보를 매칭시켜서, 배포 URL과 예측 요청 URL이 특정의 동일한 AI 모델로 접근할 수 있도록 하는 URL 매칭부를 포함할 수 있다.
일 실시예에서, 상기 모델 배포 API는, 상기 AI 모델에 할당되는 배포 리소스의 범위 및 상기 AI 모델을 구동시키는 모델 서버의 복제 개수를 나타내는 레플리카를 설정할 수 있다.
일 실시예에서, 상기 모델 배포 API는, 상기 레플리카 단위로 운용되는 모델 서버의 최소 또는 최대 개수를 설정할 수 있다.
본 발명의 일 실시예에 따른 AI 모델 운영 방법은, 단일 엔드포인트를 이용한 AI 모델 운영 방법으로서, (a) 모델 빌드 API를 통해 생성된 AI 모델을 모델 배포 API를 통해 배포 요청하는 단계, (b) 상기 모델 배포 API를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API에 담긴 정보에 따라 포드를 생성하고 리소스를 할당 시키는 단계, (c) 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 상기 포드에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시키는 단계, 및 (d) 상기 모델 예측 API의 요청에 따라 상기 포드에서 특정 AI 모델을 호출하여 구동시키는 단계를 포함한다.
일 실시예에서, 상기 (d) 단계는, 상기 모델 예측 API의 요청에 따라 AI 모델 서비스가 제공되도록 Envoy 서버가 라우팅 하는 단계, 및 상기 모델 배포 API에 설정된 레플리카 정보에 따라 운용되는 개수가 조정되는 모델 서버가 특정 AI 모델을 호출하여 구동시키는 단계를 포함할 수 있다.
일 실시예에서, 상기 (c) 단계는, 상기 AI 모델을 구동하는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 서버 모니터링부가 모니터링 하는 단계, 상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 포드 제어부가 포드의 생성 및 폐쇄를 제어하는 단계, 및 상기 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 예측 요청 할당부가 각각의 포드로 복수의 사용 요청을 분배시키는 단계를 포함할 수 있다.
일 실시예에서, 상기 (b) 단계와 (c) 단계 사이에, 상기 모델 배포 API의 배포 URL과 상기 모델 예측 API의 예측 요청 URL 정보를 매칭시켜서, 배포 URL과 예측 요청 URL이 특정의 동일한 AI 모델로 접근할 수 있도록 하는 단계를 포함할 수 있다.
본 발명에 따른 AI 모델 운영 장치 및 방법은, 외부 요청에 따라 AI 모델이 사용하는 리소스의 크기가 변경되어 복수의 모델 서버가 구동되더라도 단일의 URL을 통해 AI 모델에 접근할 수 있으므로, AI 모델의 구동에 딜레이가 발생하지 않으면서 편리하게 사용할 수 있는 효과가 있다.
또한, 본 발명에 따른 AI 모델 운영 장치 및 방법은, AI 모델의 배포 URL과 예측 요청 URL을 상호 연동시켜서, AI 모델 구동에 관한 설정 변경 사항을 즉각적으로 반영할 수 있는 효과가 있다.
또한, 본 발명에 따른 AI 모델 운영 장치 및 방법은, AI 모델을 구동 시키는 복수의 모델 서버 중 일부에 에러가 발생하더라도 정상 작동하는 다른 모델 서버를 통해 서비스를 제공함으로써 AI 모델을 안정적으로 운영할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델의 생성 및 배포를 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델 사용 요청을 도시하는 도면이다.
도 3은 도 2의 인그레스 게이트웨이의 구성을 도시하는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 AI 모델 운영 방법을 도시하는 순서도이다.
이하에서는, 본 발명의 일 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델의 생성 및 배포를 도시하는 도면이다.
도 1을 참조하면, 본 발명의 AI 모델 운영 장치(10)는 API(Application Programming Interface) 관리부(100), 컨트롤 플레인(Control Plane, 200), 인그레스 게이트웨이(Ingress Gateway, 300) 및 포드(POD, 400)를 포함한다. 본 발명의 AI 모델 운영 장치(10)는, 예를 들어, 쿠버네티스 클러스터 환경에서 구동될 수 있으며, 이에 제한되지 않는다.
API 관리부(100)는 각각 AI 모델에 대한 빌드, 배포 및 예측 요청을 위한 모델 빌드 API(120), 모델 배포 API(140) 및 모델 예측 API(160)를 관리할 수 있다.
모델 빌드 API(120)는 DB 관리 시스템(30)과 통신할 때 사용되는 언어나 메시지 형식을 가지며, AI 모델을 생성하고자 하는 사용자가 DB 관리 시스템(30)에 접속하고자 하는 경우 사용된다.
DB 관리 시스템(30)은 Data 저장부(32), Model 저장부(34) 및 History 관리부(36)를 포함할 수 있으며, 사용자(20)는 모델 빌드 API(120)를 통해 DB 관리 시스템(30)에 접속하여, 학습된 AI 모델의 등록 뿐만 아니라 기존의 AI 모델의 생성에 사용된 데이터, AI 모델의 예측 결과, AI 모델의 구동 모니터링 결과 등의 정보가 저장된 History를 확인할 수 있다.
사용자(20)는 웹 상에 구현된 유저 인터페이스를 통해 AI 모델의 등록을 실행할 수 있다. AI 모델은 AI 알고리즘을 적용하여 미리 학습이 실행된 모델이 될 수 있으며, 사용자는 Tensorflow, PyTorch, Scikit-Learn, XGBoost, Triton 5 등의 상용화 된 머신 러닝 엔진을 AI 모델에 적용하도록 설정할 수 있다.
DB 관리 시스템(30)의 MODEL 저장부(34)에는 복수의 AI 모델의 버전별 정보가 저장되어 관리될 수 있다.
사용자(20)는 AI 모델을 학습시킨 결과로 생성된 weight 파일, 등록된 AI 모델에 추론을 실행하기 위한 사용자 코드, 및 AI 모델의 분석을 위해 학습에 사용된 데이터를 모델 빌드 API(120)를 통해 DB 관리 시스템(30)으로 전송할 수 있다.
AI 모델은 AI 알고리즘을 구성하는 여러 레이어(layer)별로 연산 실행, 가중치 적용 및 출력을 통해 학습을 완료하며, 학습이 완성된 Weight 파일이 생성된다.
사용자 코드는 입력 데이터와 AI 모델의 결합을 검증하는 용도로 사용되는 파일이다. 즉, 사용자 코드는 등록된 AI 모델이 학습 데이터에 기반하여 적합하게 생성된 모델인지 검증한다.
AI 모델의 분석을 위해 학습에 사용된 데이터는 모델 빌드 API(120)를 통해 DB 관리 시스템(30)으로 전송되어 Data 저장부(32)에 저장될 수 있다. AI 모델의 추론 결과를 모니터링 하고, 학습에 사용된 데이터의 이상 유무를 추후 확인하기 위해 학습 데이터는 Data 저장부(32)에 저장된다.
모델 배포 API(140)는 DB 관리 시스템(30)의 Model 저장부(34)에 등록된 AI 모델을 머신 러닝을 실행하고자 하는 사용 환경에 적용시킨다. 사용 환경은 클라우드(cloud) 또는 온-프레미스(On-premises) 환경이 될 수 있다.
모델 배포 API(140)는 네트워크 상에서 리소스의 위치를 나타내는 배포 URL(Uniform Resource Locator)을 포함한다. 모델 배포 API(140)는 AI 모델을 구동시키는 모델 서버(440)를 운용하기 위한 정보를 설정하며, AI 모델의 서빙(serving) 요청에 일시에 응답 가능한 수치를 나타내는 Concurrency(동시성), AI 모델에 할당되는 배포 리소스의 범위, AI 모델을 구동시키는 모델 서버(440)의 복제 개수를 나타내는 레플리카(replica), 또는 AI 모델이 사용하는 GPU의 리소스 할당량을 설정할 수 있다.
레플리카는 AI 모델을 서빙하는 쿠버네티스(Kubernetes) 클러스터 환경에서 설정될 수 있으며, 외부 사용 요청이 많거나 AI 모델의 성능이 많이 필요할 때 사용된다. 레플리카는 AI 모델을 안정적으로 운영하기 위한 수단이며, AI 모델을 운영 중인 쿠버네티스 클러스터의 여러 포드(POD) 중 일부의 포드가 비정상 종료가 되더라도 다른 포드가 전체 시스템에 영향이 없도록 AI 모델의 서비스를 계속해서 운영하면서 비정상 종료된 포드의 복구를 시도하도록 하는 시스템 도구이다. 설정된 레플리카의 개수 만큼 배포 리소스가 더 많이 점유되어 사용된다.
모델 배포 API(140)는 레플리카 정보를 포함하여, AI 모델을 구동시키는 모델 서버(440)의 최소 또는 최대 개수를 지정할 수 있다. 모델 서빙 시 할당된 모델 배포 자원 내에서 최대 개수의 레플리카가 실행될 수 있다.
레플리카의 최소 개수가 설정되면, 모델 서빙 시 레플리카의 최소 개수만큼 모델 서버(440)가 바로 복제되어 운용되며, 모델 서빙 상태(요청 증가)에 따라 레플리카의 최대 개수만큼 모델 서버(440)가 복제되었다가 사용 요청이 소강 상태가 되면, 다시 최소 개수의 레플리카가 적용되어 모델 서버(440)가 운용된다.
예를 들어, 레플리카가 최대 3으로 설정되면, 포드(400)의 개수가 최대 3개까지 생성될 수 있으며, 포드(400) 내에 포함된 컨테이너인 모델 서버(440)도 최대 3개까지 운용될 수 있다. 이 경우, AI 모델의 사용 요청이 적은 상태에서는 1개의 포드(400)만 운용되다가 AI 모델의 사용 요청이 많아지면 최대 3개의 포드(400)까지 생성되어 탄력적으로 운용될 수 있다.
컨트롤 플레인(200)은 모델 배포 API(140)를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API(140)에 담긴 정보에 따라 포드(400)를 생성하고 리소스를 할당 시킨다.
컨트롤 플레인(200)은 API 서버, 스케줄러, 컨트롤러 매니저 및 etcd를 포함할 수 있다. API 서버는 클러스터 내 모든 구성요소가 다른 구성요소와 통신하기 위해 필요하며, API 서버는 클러스터와 관련된 다양한 REST API를 제공한다.
스케줄러는 생성된 포드(400)에 리소스 할당 스케줄을 결정하고 포드(400)의 사양(specification)이 변경되면 API 서버에 전송한다.
컨트롤러는 API 서버를 통해 리소스의 변경을 감지하고 변경하며, 컨트롤러 매니저는 다양한 컨트롤러들을 실행시킨다.
etcd는 분산 객체 저장소로서, 전체 클러스터의 구성과 상태에 대한 레코드 데이터베이스 역할을 한다.
포드(400)는 모델 배포 API(140)가 지정하는 모델 서버(440)의 사양에 따라 생성되며, 모델 예측 API(160)의 요청에 따라 특정 AI 모델을 호출하여 구동시킨다.
본 발명의 일 실시예에서 포드(400)는 Envoy 서버(420)와 모델 서버(440)를 포함할 수 있다.
Envoy 서버(420)는 모델 예측 API(160)의 요청에 따른 AI 모델 서비스가 제공되도록 라우팅 한다. Envoy 서버(420)는 Listener, Filter 및 Cluster를 포함할 수 있다.
Listener는 사용자로부터 프로토콜이 입력되는 부분으로, TCP Listener, HTTP Listener 등이 될 수 있다.
Filter는 Listener로부터 전송된 메시지를 중간 처리하는 부분으로, 압축이나 입력되는 트래픽에 대한 제한 작업 등을 실행한 후, 라우터를 통해서 적절한 Cluster로 메시지를 라우팅 한다.
Cluster는 실제 라우팅이 되는 모델 서버(440)를 지정할 수 있다.
모델 서버(440)는 모델 배포 API(140)에 설정된 레플리카 정보에 따라 운용되는 개수가 설정되며, 특정 AI 모델을 호출하여 구동시킨다. 모델 서버(440)가 사용하는 CPU, Memory, GPU 등과 같은 리소스는 모델 배포 API(140)에 따라 할당될 수 있다.
도 2는 본 발명의 일 실시예에 따른 AI 모델 운영 장치가 적용된 AI 모델 구동 환경에서 AI 모델 서비스 요청을 도시하는 도면이다.
도 2를 참조하면, 모델 예측 API(160)는 특정 AI 모델을 구동시키기 위한 정보를 갖는다. 모델 예측 API(160)는 네트워크 상에서 리소스의 위치를 나타내는 예측 요청 URL(Uniform Resource Locator)을 포함한다.
API 관리부(100)는 모델 배포 API(140)의 배포 URL과 모델 예측 API(160)의 예측 요청 URL 정보를 매칭시켜서, 배포 URL과 예측 요청 URL이 특정의 동일한 AI 모델로 접근할 수 있도록 하는 URL 매칭부(미도시)를 포함할 수 있다. 이에 따라, 배포된 AI 모델이 사용하는 리소스가 모델 배포 API(140)를 통해 변경, 확장되더라도 사용자는 동일한 예측 요청 URL로 접속하여 AI 모델 서비스 제공을 요청할 수 있다.
인그레스 게이트웨이(300)는 모델 예측 API(160)를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 포드(400)에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시킨다. 이에 따라 AI 모델에 대한 복수의 사용 요청이 입력되더라도 특정 포드(400)에 과부하가 걸리지 않으면서, AI 모델 서비스를 원활하게 제공할 수 있다.
도 3은 본 발명의 일 실시예에 따른 인그레스 게이트웨이의 구성을 도시한 블록도이다.
도 3을 참조하면, 인그레스 게이트웨이(300)는 서버 모니터링부(320), 포드 제어부(340) 및 예측 요청 할당부(360)를 포함한다.
서버 모니터링부(320)는 AI 모델을 구동하는 모델 서버(440)에서 점유한 리소스 사용량과 모델 서버(440)의 실행 상태를 모니터링 한다.
모델 배포 API(140)를 통해 설정된 개수의 모델 서버(440)가 운용될 수 있으며, 시스템 상 과부하, 일시적 오류 등으로 일부의 모델 서버(440)가 오작동 하거나 작동하지 않을 수 있다.
서버 모니터링부(320)는 모델 서버(440)의 실행 상태에 대해 실시간으로 모니터링 하여 일부 모델 서버(440)에 문제가 발생하면 즉각적인 보완 조치가 이뤄질 수 있도록 보조할 수 있다.
포드 제어부(340)는 모델 서버(440)의 리소스 사용량 및 모델 서버(440)의 실행 상태에 따라 포드(400)의 생성 및 폐쇄를 제어한다. 포드(400)의 생성은 모델 배포 API(140)에서 설정된 모델 서버(400)의 최소 또는 최대 개수 내에서 리소스 사용량에 따라 결정될 수 있다.
포드 제어부(340)는 서버 모니터링부(320)가 모델 서버(440)의 오작동 또는 미작동을 감지하면, 해당 모델 서버(440)를 포함하는 포드(400)가 폐쇄되도록 제어할 수 있다.
예측 요청 할당부(360)는 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 각각의 포드(400)로 복수의 사용 요청을 분배시킨다.
예측 요청 할당부(360)는, 예를 들어, 하나의 포드(400)에 설정된 리소스 사용량을 모두 사용할 때까지 AI 모델 사용 요청을 해당 포드(400)로 라우팅 시키고, 해당 포드(400)에서 리소스를 다 사용하면, 다음 포드(400)로 순차적으로 AI 모델 사용 요청을 할당할 수 있다. 다른 예에서, 예측 요청 할당부(360)는, 복수의 포드(400)에서 각각 점유하고 있는 리소스 사용량을 감지하여, 적은 리소스를 사용하고 있는 포드(400)에 보다 많은 AI 모델 사용 요청이 분배되도록 조정할 수 있다.
예측 요청 할당부(360)의 분배에 따라 AI 모델 사용 요청이 Envoy 서버(420)로 입력되면, Envoy 서버(420)는 모델 서버(440)로 라우팅 하며, 모델 서버(440)는 특정 AI 모델을 Model 저장부(34)에서 호출하여 구동시킨다.
도 4는 본 발명의 일 실시예에 따른 AI 모델 운영 방법의 순서도이다.
도 4를 참조하면, 본 발명의 AI 모델 운영 방법은 단일 엔드포인트를 이용한 AI 모델 운영 방법으로서, AI 모델 운영 장치(10)는 모델 빌드 API(120)를 통해 생성된 AI 모델을 모델 배포 API(140)를 통해 배포 요청하며(S100), 모델 배포 API(140)를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API(140)에 담긴 정보에 따라 포드(400)를 생성하고 리소스를 할당 시키며(S200), 모델 예측 API(160)를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 포드(400)에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시키고(S300), 모델 예측 API(160)의 요청에 따라 포드(400)에서 특정 AI 모델을 호출하여 구동시킨다(S400).
모델 배포 API(140)는 AI 모델에 할당되는 배포 리소스의 범위 및 AI 모델을 구동시키는 모델 서버(440)의 복제 개수를 나타내는 레플리카를 설정할 수 있다. 레플리카 설정에 의해 생성되는 모델 서버(440)의 최소 또는 최대 개수가 조정될 수 있다.
본 발명의 일 실시예에서, S200 단계와 S300 단계 사이에, API 관리부(100)는 모델 배포 API(140)의 배포 URL과 모델 예측 API(160)의 예측 요청 URL 정보를 매칭시켜서, 배포 URL과 예측 요청 URL이 특정의 동일한 AI 모델로 접근할 수 있도록 실행할 수 있다. 이에 따라, 배포된 AI 모델이 사용하는 리소스가 모델 배포 API(140)를 통해 변경, 확장되더라도 사용자(20)는 동일한 예측 요청 URL로 접속하여 AI 모델 서비스 제공을 요청할 수 있다.
본 발명의 일 실시예에서, AI 모델 운영 장치(10)는 S300 단계에서, AI 모델을 구동하는 모델 서버(440)에서 점유한 리소스 사용량과 모델 서버(440)의 실행 상태를 서버 모니터링부(320)가 모니터링 하는 단계, 모델 서버(440)의 리소스 사용량 및 모델 서버(440)의 실행 상태에 따라 포드 제어부(340)가 포드(400)의 생성 및 폐쇄를 제어하는 단계, 및 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 예측 요청 할당부(360)가 각각의 포드(400)로 복수의 사용 요청을 분배시키는 단계를 포함하여 수행할 수 있다.
모델 서버(440)의 생성 개수는 모델 배포 API(140)의 설정에 의해 제한될 수 있으며, AI 모델 운영 장치(10)는 서버 모니터링부(320), 포드 제어부(340) 및 예측 요청 할당부(360)의 동작에 의해 모델 서버(440)의 오작동 또는 미작동으로 인한 AI 모델 서비스 제공에 차질이 발생하지 않도록 제어할 수 있다.
본 발명의 일 실시예에서, AI 모델 운영 장치(10)는 S400 단계에서, Envoy 서버(420)가 모델 예측 API(160)의 요청에 따른 AI 모델 서비스가 제공되도록 라우팅 하는 단계, 및 모델 배포 API(140)에 설정된 레플리카 정보에 따라 운용되는 개수가 조정되는 모델 서버(440)가 특정 AI 모델을 호출하여 구동시키는 단계를 포함하여 수행할 수 있다.
Envoy 서버(420)는 AI 모델 사용 요청에 따라 해당 서비스를 제공할 모델 서버(440)를 탐색하여 해당 모델 서버(440)로 사용 요청을 라우팅 할 수 있다.
모델 서버(440)는 AI 모델 사용 요청에 상응하여 점유해야 할 리소스 사용량에 따라 복제될 수 있으며, AI 모델 사용 요청이 많이 발생하더라도 끊김없이 AI 모델 서비스를 제공함으로써, 사용자의 사용 경험을 높은 수준으로 유지시킬 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로 컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플 리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서 (parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody) 될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나, 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.

Claims (12)

  1. 단일 엔드포인트를 이용한 AI 모델 운영 장치로서,
    모델 빌드 API, 모델 배포 API 및 모델 예측 API를 관리하는 API 관리부;
    상기 모델 배포 API를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API에 담긴 정보에 따라 포드를 생성하고 리소스를 할당 시키는 컨트롤 플레인;
    상기 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 포드에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시키는 인그레스 게이트웨이; 및
    상기 모델 배포 API가 지정하는 모델 서버의 사양에 따라 생성되며, 상기 모델 예측 API의 요청에 따라 특정 AI 모델을 호출하여 구동시키는 포드;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  2. 제1항에 있어서,
    상기 포드는,
    상기 모델 예측 API의 요청에 따른 AI 모델 서비스가 제공되도록 라우팅 하는 Envoy 서버; 및
    상기 모델 배포 API에 설정된 레플리카 정보에 따라 운용되는 개수가 조정되며, 특정 AI 모델을 호출하여 구동시키는 모델 서버;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  3. 제1항에 있어서,
    상기 인그레스 게이트웨이는,
    상기 AI 모델을 구동시키는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 모니터링 하는 서버 모니터링부;
    상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 포드의 생성 및 폐쇄를 제어하는 포드 제어부; 및
    상기 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 각각의 포드로 복수의 사용 요청을 분배시키는 예측 요청 할당부;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  4. 제1항에 있어서,
    상기 API 관리부는,
    상기 모델 배포 API의 배포 URL과 상기 모델 예측 API의 예측 요청 URL 정보를 매칭시켜서, 배포 URL과 예측 요청 URL이 특정의 동일한 AI 모델로 접근할 수 있도록 하는 URL 매칭부;를 포함하는 것을 특징으로 하는 AI 모델 운영 장치.
  5. 제1항에 있어서,
    상기 모델 배포 API는,
    상기 AI 모델에 할당되는 배포 리소스의 범위 및 상기 AI 모델을 구동시키는 모델 서버의 복제 개수를 나타내는 레플리카를 설정하는 것을 특징으로 하는 AI 모델 운영 장치.
  6. 제5항에 있어서,
    상기 모델 배포 API는,
    상기 레플리카 단위로 운용되는 모델 서버의 최소 또는 최대 개수를 설정하는 것을 특징으로 하는 AI 모델 운영 장치.
  7. 단일 엔드포인트를 이용한 AI 모델 운영 방법으로서,
    (a) 모델 빌드 API를 통해 생성된 AI 모델을 모델 배포 API를 통해 배포 요청하는 단계;
    (b) 상기 모델 배포 API를 통해 입력된 배포 요청이 유효한지 검증하여, 모델 배포 API에 담긴 정보에 따라 포드를 생성하고 리소스를 할당 시키는 단계;
    (c) 모델 예측 API를 통해 입력되는 AI 모델에 대한 복수의 사용 요청에 대해 상기 포드에서 실행되는 리소스 사용량에 따라 포드별로 사용 요청을 분배시키는 단계; 및
    (d) 상기 모델 예측 API의 요청에 따라 상기 포드에서 특정 AI 모델을 호출하여 구동시키는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  8. 제7항에 있어서,
    상기 (d) 단계는,
    상기 모델 예측 API의 요청에 따라 AI 모델 서비스가 제공되도록 Envoy 서버가 라우팅 하는 단계; 및
    상기 모델 배포 API에 설정된 레플리카 정보에 따라 운용되는 개수가 조정되는 모델 서버가 특정 AI 모델을 호출하여 구동시키는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  9. 제7항에 있어서,
    상기 (c) 단계는,
    상기 AI 모델을 구동하는 모델 서버에서 점유한 리소스 사용량과 모델 서버의 실행 상태를 서버 모니터링부가 모니터링 하는 단계;
    상기 모델 서버의 리소스 사용량 및 모델 서버의 실행 상태에 따라 포드 제어부가 포드의 생성 및 폐쇄를 제어하는 단계; 및
    상기 AI 모델에 대한 복수의 사용 요청에 대응하여 포드별 리소스 사용량에 따라 예측 요청 할당부가 각각의 포드로 복수의 사용 요청을 분배시키는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  10. 제7항에 있어서,
    상기 (b) 단계와 (c) 단계 사이에,
    상기 모델 배포 API의 배포 URL과 상기 모델 예측 API의 예측 요청 URL 정보를 매칭시켜서, 배포 URL과 예측 요청 URL이 특정의 동일한 AI 모델로 접근할 수 있도록 하는 단계;를 포함하는 것을 특징으로 하는 AI 모델 운영 방법.
  11. 제7항에 있어서,
    상기 모델 배포 API는,
    상기 AI 모델에 할당되는 배포 리소스의 범위 및 상기 AI 모델을 구동시키는 모델 서버의 복제 개수를 나타내는 레플리카를 설정하는 것을 특징으로 하는 AI 모델 운영 방법.
  12. 제11항에 있어서,
    상기 모델 배포 API는,
    상기 레플리카 단위로 운용되는 모델 서버의 최소 또는 최대 개수를 설정하는 것을 특징으로 하는 AI 모델 운영 방법.
PCT/KR2022/017879 2021-11-19 2022-11-14 단일 엔드포인트를 이용한 ai 모델 운영 장치 및 방법 WO2023090784A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0160178 2021-11-19
KR1020210160178A KR102663094B1 (ko) 2021-11-19 2021-11-19 단일 엔드포인트를 이용한 ai 모델 운영 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2023090784A1 true WO2023090784A1 (ko) 2023-05-25

Family

ID=86397491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/017879 WO2023090784A1 (ko) 2021-11-19 2022-11-14 단일 엔드포인트를 이용한 ai 모델 운영 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102663094B1 (ko)
WO (1) WO2023090784A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101826498B1 (ko) * 2017-05-02 2018-02-07 나무기술 주식회사 클라우드 플랫폼 시스템
KR20200086393A (ko) * 2019-01-08 2020-07-17 주식회사 코레토 클라우드 서버의 자동 스케일링 방법, 장치 및 컴퓨터-판독가능기록매체
KR102171436B1 (ko) * 2019-12-16 2020-10-29 주식회사 레몬헬스케어 Api 통합관리를 위한 클라우드 기반의 api 메타데이터 관리방법 및 시스템
KR102179459B1 (ko) * 2019-06-18 2020-11-16 주식회사 홍익과학기술 멀티 클라우드 통합 관리 시스템 및 그 방법
KR102260549B1 (ko) * 2020-09-10 2021-06-04 한국전자기술연구원 연합 컨테이너 환경에서 자원 사용률 및 지리적 위치 기반 로드밸런싱 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101826498B1 (ko) * 2017-05-02 2018-02-07 나무기술 주식회사 클라우드 플랫폼 시스템
KR20200086393A (ko) * 2019-01-08 2020-07-17 주식회사 코레토 클라우드 서버의 자동 스케일링 방법, 장치 및 컴퓨터-판독가능기록매체
KR102179459B1 (ko) * 2019-06-18 2020-11-16 주식회사 홍익과학기술 멀티 클라우드 통합 관리 시스템 및 그 방법
KR102171436B1 (ko) * 2019-12-16 2020-10-29 주식회사 레몬헬스케어 Api 통합관리를 위한 클라우드 기반의 api 메타데이터 관리방법 및 시스템
KR102260549B1 (ko) * 2020-09-10 2021-06-04 한국전자기술연구원 연합 컨테이너 환경에서 자원 사용률 및 지리적 위치 기반 로드밸런싱 방법

Also Published As

Publication number Publication date
KR102663094B1 (ko) 2024-05-03
KR20230073611A (ko) 2023-05-26

Similar Documents

Publication Publication Date Title
US10613788B2 (en) Data migration between cloud storage systems
EP3270289B1 (en) Container-based multi-tenant computing infrastructure
WO2012141404A1 (ko) 분산 저장 시스템의 복제 서버 장치 및 복제본 생성 방법
US7987467B2 (en) Scale across in a grid computing environment
WO2017030252A1 (ko) 컨테이너 이미지 보안 검사 방법 및 그 장치
WO2012086918A2 (ko) 오브젝트를 복수 개의 데이터 노드들의 위치에 기반하여 분산 저장하는 분산 저장 시스템 및 그 위치 기반 분산 저장 방법 및 컴퓨터에 의하여 독출 가능한 저장 매체
CN105684357A (zh) 虚拟机中地址的管理
WO2020138605A1 (ko) 사용자 특성을 반영한 클러스터 기반 가상 네트워크 기능의 자원 할당 방법
WO2022050541A1 (ko) 복수의 vnf(virtualized network function)에 대한 컴퓨팅 자원의 할당을 조정하는 방법 및 그 서버
WO2021201370A1 (ko) 연합학습 자원 관리장치, 시스템 및 이의 자원 효율화 방법
WO2019132299A1 (ko) 클라우드 시스템에서의 우선 순위 기반 자원 스케일링 시스템, 장치 및 방법
KR20200080458A (ko) 클라우드 멀티-클러스터 장치
KR20190007635A (ko) 네트워크 시스템에서의 리소스 할당 방법 및 이를 구현하는 네트워크 시스템
Douglis et al. Fleet—fast lanes for expedited execution at 10 terabits: Program overview
Di Lena et al. Mininet on steroids: exploiting the cloud for mininet performance
Alyas et al. Resource Based Automatic Calibration System (RBACS) Using Kubernetes Framework.
WO2019240400A1 (ko) 가상화 환경에서의 자원 할당 방법 및 장치
WO2023090784A1 (ko) 단일 엔드포인트를 이용한 ai 모델 운영 장치 및 방법
WO2013027922A1 (ko) 클라우드 컴퓨팅 시스템의 압축 이미지 파일 관리 장치 및 방법
WO2020222407A1 (ko) 머신 러닝 플랫폼 관리 시스템 및 방법
WO2023090807A1 (ko) 모델 서버 스케일링을 제어하는 ai 모델 운영 장치 및 방법
WO2016003127A1 (ko) 서버/스토리지 관리 시스템
WO2013085089A1 (ko) M2m 클라우드 환경에서 통신망 자원 활용 방법 및 그 시스템
CN107589995A (zh) 一种数据业务播前预览任务调度方法
WO2024117485A1 (ko) 스케줄러를 이용한 카메라 제어 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22895990

Country of ref document: EP

Kind code of ref document: A1