KR102592569B1 - ML model deply management method using AIoT platform - Google Patents

ML model deply management method using AIoT platform Download PDF

Info

Publication number
KR102592569B1
KR102592569B1 KR1020220163858A KR20220163858A KR102592569B1 KR 102592569 B1 KR102592569 B1 KR 102592569B1 KR 1020220163858 A KR1020220163858 A KR 1020220163858A KR 20220163858 A KR20220163858 A KR 20220163858A KR 102592569 B1 KR102592569 B1 KR 102592569B1
Authority
KR
South Korea
Prior art keywords
resource
model
data
registered
stored
Prior art date
Application number
KR1020220163858A
Other languages
Korean (ko)
Inventor
정승명
이지호
최성찬
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020220163858A priority Critical patent/KR102592569B1/en
Application granted granted Critical
Publication of KR102592569B1 publication Critical patent/KR102592569B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/75Information technology; Communication
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/40Maintenance of things
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

AIoT 플랫폼을 활용한 ML 모델 배포관리 방법이 제공된다. 본 발명의 실시예에 따른 ML 모델 관리 방법은, AI 디바이스가 데이터들을 데이터 플랫폼의 <데이터> 리소스에 저장하고, <데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 데이터 플랫폼의 <모델 저장> 리소스에 등록하며, <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포한다. 이에 의해, IoT 국제 표준인 oneM2M 플랫폼을 활용하여 AIoT 서비스에 필요한 ML 모델 등록과 배포 관리를 일원화 함으로써, AI 디바이스 사용자와 ML 모델 개발자가 분리되어 있는 AIoT 환경에서 ML 모델에 대한 효율적인 관리가 가능해진다.An ML model distribution management method using the AIoT platform is provided. In the ML model management method according to an embodiment of the present invention, the AI device stores data in the <data> resource of the data platform, and the ML model learned using the data stored in the <data> resource is stored in the <model storage of the data platform. > Register in the resource, and <Save Model> Distribute the ML model registered in the resource to the AI device. As a result, efficient management of ML models is possible in an AIoT environment where AI device users and ML model developers are separated by using the oneM2M platform, an IoT international standard, to unify ML model registration and distribution management required for AIoT services.

Description

AIoT 플랫폼을 활용한 ML 모델 배포관리 방법{ML model deply management method using AIoT platform}ML model deployment management method using AIoT platform {ML model deply management method using AIoT platform}

본 발명은 AIoT(Artificial Intelligence of Things)에 관한 것으로, 더욱 상세하게는 AIoT를 구성하는 AI(Artificial Intelligence) 디바이스에 ML(Machine Learning) 모델들을 배포하는 기술에 관한 것이다.The present invention relates to AIoT (Artificial Intelligence of Things), and more specifically, to technology for distributing ML (Machine Learning) models to AI (Artificial Intelligence) devices that constitute AIoT.

oneM2M(Machine To Machine) 표준에 따라 구현한 oneM2M 플랫폼은 서로 다른 소스들로부터 데이터를 수집하여 저장하는데, 저장된 데이터들은 AI 디바이스에서 구동하는 ML 모델의 학습 데이터셋과 추론 데이터셋으로 활용될 수 있다.The oneM2M platform, implemented in accordance with the oneM2M (Machine To Machine) standard, collects and stores data from different sources, and the stored data can be used as a training dataset and inference dataset for ML models running on AI devices.

다음 AI 디바이스에 탑재할 ML 모델을 학습시켜 배포하여야 한다. AI 디바이스는 ML 모델을 학습시킬 수 있을 정도의 컴퓨팅 파워/자원을 보유하고 있지 않기 때문이다.The ML model to be mounted on the next AI device must be trained and distributed. This is because AI devices do not have enough computing power/resources to learn ML models.

하지만 AIoT의 생태계 특성상 AI 디바이스 사용자와 ML 모델 개발자가 분리되어 있는 경우가 대다수인데, 이 경우 학습된 ML 모델 자체의 관리와 배포 관리가 어려울 수 밖에 없다.However, due to the nature of the AIoT ecosystem, in most cases, AI device users and ML model developers are separated, and in this case, management and distribution of the learned ML model itself is inevitably difficult.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, IoT 국제 표준인 oneM2M 플랫폼을 활용하여 AIoT 서비스에 필요한 ML 모델 등록과 배포를 효율적으로 관리하는 방법을 제공함에 있다.The present invention was created to solve the above problems, and the purpose of the present invention is to provide a method of efficiently managing the registration and distribution of ML models required for AIoT services by utilizing the oneM2M platform, an IoT international standard.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 ML 모델 관리 방법은, AI 디바이스가 데이터들을 데이터 플랫폼의 <데이터> 리소스에 저장하는 단계; <데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 데이터 플랫폼의 <모델 저장> 리소스에 등록하는 단계; <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 단계;를 포함한다.The ML model management method according to an embodiment of the present invention to achieve the above object includes the steps of an AI device storing data in a <data> resource of a data platform; Registering the ML model trained using data stored in the <data> resource in the <model storage> resource of the data platform; <Model storage> includes distributing the ML model registered in the resource to the AI device.

<데이터> 리소스는, 데이터 플랫폼에서 AI 디바이스에 할당된 <AI 디바이스> 리소스의 하위 리소스이고, <모델 저장> 리소스는, <AI 디바이스> 리소스의 하위 리소스가 아닐 수 있다.The <data> resource is a sub-resource of the <AI device> resource allocated to the AI device in the data platform, and the <model storage> resource may not be a sub-resource of the <AI device> resource.

등록 단계는, ML 모델의 이름, 버전, 라이브러리, 모델 및 추론 데이터 샘플 중 적어도 하나를 등록할 수 있다.The registration step may register at least one of the ML model name, version, library, model, and inference data sample.

<모델 저장> 리소스에는, 서로 다른 ML 모델들이 서로 다른 하위 리소스에 구분되어 등록될 수 있다.In the <Model Storage> resource, different ML models can be registered separately in different sub-resources.

배포 단계는, <모델 저장> 리소스에 등록된 ML 모델들 중 AI 디바이스에 배포할 ML 모델의 정보를 <AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스에 저장할 수 있다.In the deployment step, information on the ML model to be distributed to the AI device among the ML models registered in the <Model storage> resource can be stored in the <Deployment model> resource created under the <AI device> resource.

<배포 모델> 리소스에는 배포된 ML 모델이 등록된 리소스의 ID가 저장될 수 있다.The ID of the resource where the deployed ML model is registered may be stored in the <Deployment model> resource.

AI 디바이스는, <배포 모델> 리소스를 구독하여, ML 모델 배포 이벤트를 통지 받을 수 있다.The AI device can receive notification of ML model deployment events by subscribing to the <deployment model> resource.

AI 디바이스는, <배포 모델> 리소스에 저장된 ML 모델이 등록된 리소스의 ID를 이용하여, ML 모델이 등록된 리소스에 접근하여 ML 모델을 획득할 수 있다.The AI device can obtain the ML model by accessing the resource where the ML model is registered, using the ID of the resource where the ML model is registered, stored in the <Deployment Model> resource.

AI 디바이스는, 획득한 ML 모델을 이용하여 획득한 추론 결과를 <AI 디바이스> 리소스의 하위에 생성된 <추론 결과> 리소스에 저장할 수 있다.The AI device can store the inference results obtained using the acquired ML model in the <Inference Result> resource created under the <AI Device> resource.

본 발명의 다른 실시예에 따른 AIoT 시스템은, 데이터들을 데이터 플랫폼의 <데이터> 리소스에 저장하는 AI 디바이스; <데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 데이터 플랫폼의 <모델 저장> 리소스에 등록하고, <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 데이터 플랫폼;을 포함한다.An AIoT system according to another embodiment of the present invention includes an AI device that stores data in the <data> resource of a data platform; It includes a data platform that registers the ML model learned using data stored in the <data> resource in the <model storage> resource of the data platform and distributes the ML model registered in the <model storage> resource to the AI device.

본 발명의 다른 실시예에 따른 ML 모델 관리 방법은, 데이터 플랫폼의 <데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 데이터 플랫폼의 <모델 저장> 리소스에 등록하는 단계; 및 <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 단계;를 포함한다.An ML model management method according to another embodiment of the present invention includes registering an ML model trained using data stored in a <data> resource of a data platform to a <model storage> resource of a data platform; and distributing the ML model registered in the <model storage> resource to the AI device.

본 발명의 다른 실시예에 따른 데이터 플랫폼 시스템은, AI 디바이스와 통신 연결하는 통신부; <데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 <모델 저장> 리소스에 등록하고, <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 프로세서; 및 <데이터> 리소스, <모델 저장> 리소스 및 <모델 저장> 리소스가 저장되는 저장부;를 포함한다.A data platform system according to another embodiment of the present invention includes a communication unit for communicating with an AI device; A processor that registers an ML model trained using data stored in a <data> resource in a <model storage> resource and distributes the ML model registered in the <model storage> resource to an AI device; and a storage unit in which <data> resources, <model storage> resources, and <model storage> resources are stored.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, IoT 국제 표준인 oneM2M 플랫폼을 활용하여 AIoT 서비스에 필요한 ML 모델 등록과 배포 관리를 일원화 함으로써, AI 디바이스 사용자와 ML 모델 개발자가 분리되어 있는 AIoT 환경에서 ML 모델에 대한 효율적인 관리가 가능해진다.As described above, according to embodiments of the present invention, the oneM2M platform, an IoT international standard, is utilized to unify ML model registration and distribution management required for AIoT services, thereby creating an AIoT environment in which AI device users and ML model developers are separated. Efficient management of ML models becomes possible.

도 1은 본 발명의 일 실시예에 따른 AIoT 시스템의 구성을 도시한 도면,
도 2는 본 발명의 다른 실시예에 따른 ML 모델 등록/배포 관리 방법의 설명에 제공되는 흐름도,
도 3은 oneM2M 플랫폼의 리소스 구조,
도 4는 도 1에 도시된 oneM2M 플랫폼의 구성을 도시한 도면이다.
1 is a diagram showing the configuration of an AIoT system according to an embodiment of the present invention;
Figure 2 is a flowchart provided to explain the ML model registration/distribution management method according to another embodiment of the present invention;
Figure 3 shows the resource structure of the oneM2M platform,
FIG. 4 is a diagram illustrating the configuration of the oneM2M platform shown in FIG. 1.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

본 발명의 실시예에서는 oneM2M(Machine To Machine) 플랫폼을 활용하여 AIoT 서비스에 필요한 ML 모델 등록과 배포를 관리하는 방법을 제시한다.An embodiment of the present invention presents a method for managing registration and distribution of ML models required for AIoT services using the oneM2M (Machine To Machine) platform.

도 1은 본 발명의 일 실시예에 따른 AIoT(Artificial Intelligence of Things) 시스템의 구성을 도시한 도면이다. 본 발명의 실시예에 따른 AIoT 시스템은, 도시된 바와 같이, AI(Artificial Intelligence) 디바이스(110), oneM2M 플랫폼(120) 및 ML(Machine Learning) 관리포털 서버(130)를 포함하여 구성된다.Figure 1 is a diagram showing the configuration of an AIoT (Artificial Intelligence of Things) system according to an embodiment of the present invention. As shown, the AIoT system according to an embodiment of the present invention includes an AI (Artificial Intelligence) device 110, oneM2M platform 120, and ML (Machine Learning) management portal server 130.

AI 디바이스(110)는 데이터를 생성 또는 수집하여 oneM2M 플랫폼(120)에 저장하고, 저장된 데이터를 이용하여 ML 모델을 통해 결과를 추론하고, 추론 결과를 oneM2M 플랫폼(120)에 다시 저장하는 디바이스이다.The AI device 110 is a device that generates or collects data and stores it in the oneM2M platform 120, uses the stored data to infer results through an ML model, and stores the inference results again in the oneM2M platform 120.

oneM2M 플랫폼(120)은 AI 디바이스(110)로 전달받은 데이터를 저장하여 수집/보유하는 oneM2M 표준 기반의 데이터 플랫폼으로, AI 디바이스(110)에 배포할 ML 모델들을 등록하고 등록된 ML 모델들을 AI 디바이스(110)에 배포한다.The oneM2M platform 120 is a data platform based on the oneM2M standard that stores and collects/retains data received from the AI device 110. It registers ML models to be distributed to the AI device 110 and sends the registered ML models to the AI device. Distributed at (110).

ML 관리포털 서버(130)는 oneM2M 플랫폼(120)에 ML 모델들을 등록 요청하고, 등록된 ML 모델들을 AI 디바이스(110)에 배포 요청하기 위해, oneM2M 플랫폼(120)과 연동하는 서버이다.The ML management portal server 130 is a server that links with the oneM2M platform 120 to request registration of ML models in the oneM2M platform 120 and to request distribution of the registered ML models to the AI device 110.

도 1에 도시된 AIoT 시스템의 의해 ML 모델 등록/배포 서비스가 제공되는 과정에 대해, 이하에서 도 2를 참조하여 상세히 설명한다. 도 2는 본 발명의 다른 실시예에 따른 ML 모델 등록/배포 관리 방법의 설명에 제공되는 흐름도이다.The process in which the ML model registration/distribution service is provided by the AIoT system shown in FIG. 1 will be described in detail below with reference to FIG. 2. Figure 2 is a flowchart provided to explain the ML model registration/distribution management method according to another embodiment of the present invention.

도시된 바와 같이, 먼저 AI 디바이스(110)는 자신이 생성 또는 수집한 생성한 데이터들을 oneM2M 플랫폼(120)에 저장한다(S210).As shown, first, the AI device 110 stores the data it generates or collects in the oneM2M platform 120 (S210).

S210단계에서 센서 데이터 저장은 oneM2M 플랫폼(120)에서 AI 디바이스(110)에 할당된 리소스인 <AI 디바이스> 리소스의 하위에 생성된 <데이터> 리소스에 저장된다.In step S210, the sensor data is stored in the <Data> resource created under the <AI Device> resource, which is a resource allocated to the AI device 110 in the oneM2M platform 120.

도 3에는 oneM2M 플랫폼(120)의 리소스 구조를 예시하였다. 도 3에서 <agv1> 리소스는 <AI 디바이스> 리소스, <trainingData> 리소스가 <데이터> 리소스에 해당한다.Figure 3 illustrates the resource structure of the oneM2M platform 120. In Figure 3, the <agv1> resource corresponds to the <AI device> resource, and the <trainingData> resource corresponds to the <data> resource.

데이터들은 <데이터> 리소스의 하위에 <contentInstance> 리소스로 저장된다. 도 3에서 <data1> 리소스가 이에 해당한다. <데이터> 리소스에 저장된 데이터들은 ML 모델의 학습 데이터로 활용될 수 있고, 학습된 ML 모델의 추론 데이터로 활용될 수도 있다.Data is stored as a <contentInstance> resource under the <data> resource. In Figure 3, the <data1> resource corresponds to this. Data stored in <data> resources can be used as training data for ML models, and can also be used as inference data for learned ML models.

다음 ML 모델 개발자는 ML 관리포털 서버(130)를 통해 oneM2M 플랫폼(120)에 접근하여, <데이터> 리소스의 하위에 저장된 데이터들을 이용하여 ML 모델을 학습시키고, 학습된 ML 모델을 oneM2M 플랫폼(120)의 <모델 저장> 리소스에 등록한다(S220).Next, the ML model developer accesses the oneM2M platform 120 through the ML management portal server 130, trains the ML model using data stored under the <data> resource, and transfers the learned ML model to the oneM2M platform (120). ) and register it in the <model storage> resource (S220).

<모델 저장> 리소스는 oneM2M 플랫폼(120)에서 <AI 디바이스> 리소스의 하위 리소스가 아닌 다른 곳에 생성된다. AI 디바이스(110) 외에 다른 AI 디바이스들도 <모델 저장> 리소스에 등록된 ML 모델들을 자유롭게 활용할 수 있도록 하기 위함이다.The <Save Model> resource is created in a location other than a sub-resource of the <AI Device> resource in the oneM2M platform 120. This is to allow other AI devices, in addition to the AI device 110, to freely utilize ML models registered in the <Model Storage> resource.

<모델 저장> 리소스에는 서로 다른 ML 모델들이 서로 다른 하위 리소스(<contentInstance> 리소스)인 <등록 모델> 리소스들에 구분되어 등록된다. 도 3에서 <modelRepo> 리소스는 <모델 저장> 리소스에 해당하고, <model1> 리소스, <model2> 리소스, <model3> 리소스는 학습된 ML 모델들이 등록된 <등록 모델> 리소스들이다.In the <model storage> resource, different ML models are registered separately in the <registered model> resources, which are different sub-resources (<contentInstance> resources). In Figure 3, the <modelRepo> resource corresponds to the <model storage> resource, and the <model1> resource, <model2> resource, and <model3> resource are <registered model> resources where learned ML models are registered.

<등록 모델> 리소스에는 학습된 ML 모델의 이름, 버전, 라이브러리(예: TensorFlow), 모델(바이너리 파일) 및 추론 데이터 샘플 등이 속성으로 등록된다.In the <Registered Model> resource, the name, version, library (e.g. TensorFlow), model (binary file), and inference data sample of the learned ML model are registered as properties.

이후 AIoT 서비스 관리자(혹은 ML 관리포털 관리자)는 <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스(110)에 배포한다(S230).Afterwards, the AIoT service manager (or ML management portal manager) distributes the ML model registered in the <model storage> resource to the AI device 110 (S230).

ML 모델 배포는 <모델 저장> 리소스에 등록된 ML 모델들 중 AI 디바이스(110)에 배포할 ML 모델이 등록된 <등록 모델> 리소스의 ID를 <AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스에 저장하는 것에 의해 수행된다.ML model distribution is performed by entering the ID of the <Registration Model> resource in which the ML model to be distributed to the AI device 110 is registered among the ML models registered in the <Model storage> resource to the <Deployment model created under the <AI device> resource. > This is done by storing it in a resource.

<AI 디바이스> 리소스의 <배포 모델> 리소스에는, AI 디바이스(110)에 배포된 ML 모델들이 등록된 <등록 모델> 리소스의 ID들이 저장된다. <등록 모델> 리소스의 ID들은 <배포 모델> 리소스의 서로 다른 하위 리소스(<contentInstance> 리소스)에 구분되어 저장된다.In the <Deployment Model> resource of the <AI Device> resource, the IDs of the <Registration Model> resource in which the ML models distributed to the AI device 110 are registered are stored. The IDs of the <registration model> resource are stored separately in different sub-resources (<contentInstance> resources) of the <distribution model> resource.

도 3에서 <mlModels> 리소스는 <배포 모델> 리소스에 해당하고, <mlModels> 리소스의 하위에 생성된 <model1> 리소스와 <model2> 리소스에는 각각 <모델 저장> 리소스의 하위에 생성된 <등록 모델> 리소스들인 <model1> 리소스와 <model2> 리소스의 ID가 속성으로 각각 저장된다.In Figure 3, the <mlModels> resource corresponds to the <Deployment Model> resource, and the <model1> resource and <model2> resource created under the <mlModels> resource each contain a <registered model created under the <Model Storage> resource. > The IDs of the resources <model1> and <model2> resources are stored as properties, respectively.

구체적으로 base/agv1/mlModels/model1 리소스에는 content 속성값으로 {"modelId" : "base/modelRepo/model1"}이 저장되어 있고, base/agv1/mlModels/model2 리소스에는 content 속성값으로 {"modelId": "base/modelRepo/model2"}이 저장되어 있다.Specifically, {"modelId" : "base/modelRepo/model1"} is stored as the content property value in the base/agv1/mlModels/model1 resource, and {"modelId" is stored as the content property value in the base/agv1/mlModels/model2 resource. : "base/modelRepo/model2"} is saved.

한편 AI 디바이스(110)는 자신에게 배포된 ML 모델을 이용하기 위해, <AI 디바이스> 리소스의 <배포 모델> 리소스를 구독할 수 있다. 이 경우 AI 디바이스(110)는 <배포 모델> 리소스에 ML 모델이 등록되면 배포 이벤트를 통지 받게 된다(S240).Meanwhile, the AI device 110 may subscribe to the <Deployment Model> resource of the <AI Device> resource in order to use the ML model distributed to it. In this case, the AI device 110 is notified of a deployment event when the ML model is registered in the <Deployment Model> resource (S240).

이를 테면, base/agv1/mlModels 리소스에 <model1> 리소스가 생성되면, AI 디바이스(110)는 <model1> 리소스 생성 이벤트를 통지 받게 된다.For example, when the <model1> resource is created in the base/agv1/mlModels resource, the AI device 110 is notified of the <model1> resource creation event.

그러면, AI 디바이스(110)는 base/agv1/mlModels/model1 리소스에 접근하여 저장된 {"modelId": "base/modelRepo/model1"}를 획득하고, 획득한 ID로 base/modelRepo/model1 리소스를 조회하여 등록되어 있는 ML 모델을 획득한다(S250).Then, the AI device 110 accesses the base/agv1/mlModels/model1 resource to obtain the stored {"modelId": "base/modelRepo/model1"}, and searches the base/modelRepo/model1 resource with the obtained ID. Obtain the registered ML model (S250).

이후 AI 디바이스(110)는 S250단계에서 획득한 ML 모델을 이용하여, 이후에 취득되어 <AI 디바이스> 리소스의 <데이터> 리소스에 저장되는 데이터를 추론 데이터로 활용하여 추론 결과를 획득할 수 있으며, 획득한 추론 결과는 <AI 디바이스> 리소스의 하위에 <추론 결과> 리소스를 생성하여 저장한다. 도 3에서 <detection> 리소스가 <추론 결과> 리소스에 해당한다.Thereafter, the AI device 110 may use the ML model acquired in step S250 to obtain an inference result by using the data acquired later and stored in the <data> resource of the <AI device> resource as inference data, The obtained inference results are saved by creating a <Inference Result> resource under the <AI Device> resource. In Figure 3, the <detection> resource corresponds to the <inference result> resource.

한편 도 3에서 <AI 디바이스> 리소스의 하위에 생성된 <modelGroup> 리소스는 AI 디바이스(110)에 배포된 ML 모델들이 등록된 리소스들의 ID 목록이 저장된다. 이는 AI 디바이스(110)에 대한 ML 모델 배포 현황을 관리하기 위해 활용된다.Meanwhile, in FIG. 3, the <modelGroup> resource created under the <AI device> resource stores the ID list of resources where ML models distributed to the AI device 110 are registered. This is used to manage the ML model distribution status to the AI device 110.

도 4는 도 1에 도시된 oneM2M 플랫폼(120)의 구성을 도시한 도면이다. 도시된 바와 같이, oneM2M 플랫폼(120)은 통신부(121), 프로세서(122) 및 저장부(123)을 포함하여 구성된다.FIG. 4 is a diagram illustrating the configuration of the oneM2M platform 120 shown in FIG. 1. As shown, the oneM2M platform 120 includes a communication unit 121, a processor 122, and a storage unit 123.

통신부(121)는 AI 디바이스(110)와 ML 관리포털 서버(130)와 상호 연동하기 위한 통신 수단이다. 프로세서(122)는 전술한 도 2에 도시된 절차들 중 oneM2M 플랫폼(120)에 의해 수행되는 절차들을 수행한다. 저장부(123)는 프로세서(122)가 동작하고 기능함에 있어 필요한 저장공간을 제공하며, 도 4에 제시된 리소스들을 저장하고 있다.The communication unit 121 is a communication means for interoperating with the AI device 110 and the ML management portal server 130. The processor 122 performs procedures performed by the oneM2M platform 120 among the procedures shown in FIG. 2 described above. The storage unit 123 provides storage space necessary for the processor 122 to operate and function, and stores the resources shown in FIG. 4.

한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.Meanwhile, of course, the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program that performs the functions of the device and method according to this embodiment. Additionally, the technical ideas according to various embodiments of the present invention may be implemented in the form of computer-readable code recorded on a computer-readable recording medium. A computer-readable recording medium can be any data storage device that can be read by a computer and store data. For example, of course, computer-readable recording media can be ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, hard disk drive, etc. Additionally, computer-readable codes or programs stored on a computer-readable recording medium may be transmitted through a network connected between computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those of ordinary skill in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

110 : AI(Artificial Intelligence) 디바이스
120 : oneM2M(Machine To Machine) 플랫폼
130 : ML(Machine Learning) 관리포털 서버
110: AI (Artificial Intelligence) device
120: oneM2M (Machine To Machine) platform
130: ML (Machine Learning) management portal server

Claims (12)

AI 디바이스가, 데이터들을 데이터 플랫폼의 <데이터> 리소스에 저장하는 단계;
데이터 플랫폼이, <데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 <모델 저장> 리소스에 등록하는 단계;
데이터 플랫폼이, <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 단계;를 포함하고,
<모델 저장> 리소스에는,
서로 다른 ML 모델들이 서로 다른 하위 리소스에 구분되어 등록되며,
배포 단계는,
<모델 저장> 리소스에 등록된 ML 모델들 중 AI 디바이스에 배포할 ML 모델이 등록된 리소스의 ID를 <AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스에 저장하고,
AI 디바이스는,
<AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스를 구독하여,
ML 모델 배포 이벤트를 통지 받으면, <배포 모델> 리소스에 저장된 ML 모델이 등록된 리소스의 ID를 이용하여, ML 모델이 등록된 리소스에 접근하여 ML 모델을 획득하며,
획득한 ML 모델을 이용하여 획득한 추론 결과를 <AI 디바이스> 리소스의 하위에 생성된 <추론 결과> 리소스에 저장하고,
<데이터> 리소스는,
데이터 플랫폼에서 AI 디바이스에 할당된 <AI 디바이스> 리소스의 하위 리소스이며,
<모델 저장> 리소스는,
<AI 디바이스> 리소스의 하위 리소스가 아니어서, AI 디바이스 이외의 다른 AI 디바이스들도 이용할 수 있는 것을 특징으로 하는 ML 모델 관리 방법.
The AI device stores data in the <data> resource of the data platform;
Registering, by the data platform, an ML model trained using data stored in the <data> resource in the <model storage>resource;
The data platform includes a step of distributing the ML model registered in the <model storage> resource to the AI device,
In the <Save Model> resource,
Different ML models are registered separately in different sub-resources,
The distribution stage is,
Among the ML models registered in the <Save Model> resource, the ID of the resource where the ML model to be distributed to the AI device is registered is saved in the <Deployment Model> resource created under the <AI Device> resource,
AI devices,
By subscribing to the <Deployment Model> resource created under the <AI Device> resource,
When notified of an ML model deployment event, the ML model is accessed by using the ID of the resource where the ML model is registered, stored in the <Deployment model> resource, to obtain the ML model.
The inference results obtained using the acquired ML model are stored in the <Inference Result> resource created under the <AI Device> resource,
The <data> resource is,
It is a sub-resource of the <AI device> resource assigned to the AI device in the data platform.
The <Save Model> resource is,
An ML model management method characterized in that it is not a sub-resource of the <AI device> resource and can be used by other AI devices other than the AI device.
삭제delete 청구항 1에 있어서,
등록 단계는,
ML 모델의 이름, 버전, 라이브러리, 모델 및 추론 데이터 샘플 중 적어도 하나를 등록하는 것을 특징으로 하는 ML 모델 관리 방법.
In claim 1,
The registration steps are:
An ML model management method characterized by registering at least one of the name, version, library, model, and inference data sample of the ML model.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 데이터들을 데이터 플랫폼의 <데이터> 리소스에 저장하는 AI 디바이스;
<데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 데이터 플랫폼의 <모델 저장> 리소스에 등록하고, <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 데이터 플랫폼;을 포함하고,
<모델 저장> 리소스에는,
서로 다른 ML 모델들이 서로 다른 하위 리소스에 구분되어 등록되며,
데이터 플랫폼은,
<모델 저장> 리소스에 등록된 ML 모델들 중 AI 디바이스에 배포할 ML 모델이 등록된 리소스의 ID를 <AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스에 저장하고,
AI 디바이스는,
<AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스를 구독하여,
ML 모델 배포 이벤트를 통지 받으면, <배포 모델> 리소스에 저장된 ML 모델이 등록된 리소스의 ID를 이용하여, ML 모델이 등록된 리소스에 접근하여 ML 모델을 획득하며,
획득한 ML 모델을 이용하여 획득한 추론 결과를 <AI 디바이스> 리소스의 하위에 생성된 <추론 결과> 리소스에 저장하고,
<데이터> 리소스는,
데이터 플랫폼에서 AI 디바이스에 할당된 <AI 디바이스> 리소스의 하위 리소스이며,
<모델 저장> 리소스는,
<AI 디바이스> 리소스의 하위 리소스가 아니어서, AI 디바이스 이외의 다른 AI 디바이스들도 이용할 수 있는 것을 특징으로 하는 AIoT 시스템.
AI device that stores data in the <data> resource of the data platform;
A data platform that registers the ML model learned using data stored in the <data> resource in the <model storage> resource of the data platform and distributes the ML model registered in the <model storage> resource to the AI device;
In the <Save Model> resource,
Different ML models are registered separately in different sub-resources,
The data platform is,
Among the ML models registered in the <Save Model> resource, the ID of the resource where the ML model to be distributed to the AI device is registered is stored in the <Deployment Model> resource created under the <AI Device> resource,
AI devices,
By subscribing to the <Deployment Model> resource created under the <AI Device> resource,
When notified of an ML model deployment event, the ML model is acquired by accessing the resource where the ML model is registered using the ID of the resource where the ML model stored in the <deployment model> resource is registered.
The inference results obtained using the acquired ML model are stored in the <Inference Result> resource created under the <AI Device> resource,
The <data> resource is,
It is a sub-resource of the <AI device> resource assigned to the AI device in the data platform.
The <Save Model> resource is,
An AIoT system characterized in that it is not a sub-resource of the <AI device> resource and can be used by other AI devices other than the AI device.
데이터 플랫폼이, <데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 데이터 플랫폼의 <모델 저장> 리소스에 등록하는 단계; 및
데이터 플랫폼이, <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 단계;를 포함하고,
<모델 저장> 리소스에는,
서로 다른 ML 모델들이 서로 다른 하위 리소스에 구분되어 등록되며,
배포 단계는,
<모델 저장> 리소스에 등록된 ML 모델들 중 AI 디바이스에 배포할 ML 모델이 등록된 리소스의 ID를 <AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스에 저장하고,
AI 디바이스는,
<AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스를 구독하여,
ML 모델 배포 이벤트를 통지 받으면, <배포 모델> 리소스에 저장된 ML 모델이 등록된 리소스의 ID를 이용하여, ML 모델이 등록된 리소스에 접근하여 ML 모델을 획득하며,
획득한 ML 모델을 이용하여 획득한 추론 결과를 <AI 디바이스> 리소스의 하위에 생성된 <추론 결과> 리소스에 저장하고,
<데이터> 리소스는,
데이터 플랫폼에서 AI 디바이스에 할당된 <AI 디바이스> 리소스의 하위 리소스이며,
<모델 저장> 리소스는,
<AI 디바이스> 리소스의 하위 리소스가 아니어서, AI 디바이스 이외의 다른 AI 디바이스들도 이용할 수 있는 것을 특징으로 하는 ML 모델 관리 방법.
Registering, by the data platform, an ML model trained using data stored in the <data> resource in the <model storage> resource of the data platform; and
The data platform includes a step of distributing the ML model registered in the <model storage> resource to the AI device,
In the <Save Model> resource,
Different ML models are registered separately in different sub-resources,
The distribution stage is,
Among the ML models registered in the <Save Model> resource, the ID of the resource where the ML model to be distributed to the AI device is registered is stored in the <Deployment Model> resource created under the <AI Device> resource,
AI devices,
By subscribing to the <Deployment Model> resource created under the <AI Device> resource,
When notified of an ML model deployment event, the ML model is acquired by accessing the resource where the ML model is registered using the ID of the resource where the ML model stored in the <deployment model> resource is registered.
The inference results obtained using the acquired ML model are stored in the <Inference Result> resource created under the <AI Device> resource,
The <data> resource is,
It is a sub-resource of the <AI device> resource assigned to the AI device in the data platform.
The <Save Model> resource is,
An ML model management method characterized in that it is not a sub-resource of the <AI device> resource and can be used by other AI devices other than the AI device.
AI 디바이스와 통신 연결하는 통신부;
<데이터> 리소스에 저장된 데이터들을 이용하여 학습시킨 ML 모델을 <모델 저장> 리소스에 등록하고, <모델 저장> 리소스에 등록된 ML 모델을 AI 디바이스에 배포하는 프로세서; 및
<데이터> 리소스, <모델 저장> 리소스 및 <모델 저장> 리소스가 저장되는 저장부;를 포함하고,
<모델 저장> 리소스에는,
서로 다른 ML 모델들이 서로 다른 하위 리소스에 구분되어 등록되며,
프로세서는,
<모델 저장> 리소스에 등록된 ML 모델들 중 AI 디바이스에 배포할 ML 모델이 등록된 리소스의 ID를 <AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스에 저장하고,
AI 디바이스는,
<AI 디바이스> 리소스의 하위에 생성된 <배포 모델> 리소스를 구독하여,
ML 모델 배포 이벤트를 통지 받으면, <배포 모델> 리소스에 저장된 ML 모델이 등록된 리소스의 ID를 이용하여, ML 모델이 등록된 리소스에 접근하여 ML 모델을 획득하며,
획득한 ML 모델을 이용하여 획득한 추론 결과를 <AI 디바이스> 리소스의 하위에 생성된 <추론 결과> 리소스에 저장하고,
<데이터> 리소스는,
데이터 플랫폼에서 AI 디바이스에 할당된 <AI 디바이스> 리소스의 하위 리소스이며,
<모델 저장> 리소스는,
<AI 디바이스> 리소스의 하위 리소스가 아니어서, AI 디바이스 이외의 다른 AI 디바이스들도 이용할 수 있는 것을 특징으로 하는 데이터 플랫폼 시스템.
A communication unit that communicates with AI devices;
A processor that registers an ML model trained using data stored in a <data> resource in a <model storage> resource and distributes the ML model registered in the <model storage> resource to an AI device; and
Includes a storage unit where <data> resources, <model storage> resources, and <model storage> resources are stored,
In the <Save Model> resource,
Different ML models are registered separately in different sub-resources,
The processor is
Among the ML models registered in the <Save Model> resource, the ID of the resource where the ML model to be distributed to the AI device is registered is stored in the <Deployment Model> resource created under the <AI Device> resource,
AI devices,
By subscribing to the <Deployment Model> resource created under the <AI Device> resource,
When notified of an ML model deployment event, the ML model is acquired by accessing the resource where the ML model is registered using the ID of the resource where the ML model stored in the <deployment model> resource is registered.
The inference results obtained using the acquired ML model are stored in the <Inference Result> resource created under the <AI Device> resource,
The <data> resource is,
It is a sub-resource of the <AI device> resource assigned to the AI device in the data platform.
The <Save Model> resource is,
A data platform system that is not a sub-resource of the <AI device> resource and can be used by other AI devices other than the AI device.
KR1020220163858A 2022-11-30 2022-11-30 ML model deply management method using AIoT platform KR102592569B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220163858A KR102592569B1 (en) 2022-11-30 2022-11-30 ML model deply management method using AIoT platform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220163858A KR102592569B1 (en) 2022-11-30 2022-11-30 ML model deply management method using AIoT platform

Publications (1)

Publication Number Publication Date
KR102592569B1 true KR102592569B1 (en) 2023-10-23

Family

ID=88508350

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220163858A KR102592569B1 (en) 2022-11-30 2022-11-30 ML model deply management method using AIoT platform

Country Status (1)

Country Link
KR (1) KR102592569B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200023706A (en) * 2018-08-22 2020-03-06 주식회사 머니브레인 Distributed computing resources sharing system and computing apparatus thereof based on block chain system supporting smart contract
KR20200034171A (en) * 2018-09-21 2020-03-31 주식회사 머니브레인 Distributed computing resources sharing system and computing apparatus thereof providing reward based on block chain
KR20200080296A (en) * 2017-11-21 2020-07-06 아마존 테크놀로지스, 인크. Create and distribute packages for machine learning on end devices
JP2020528589A (en) * 2017-08-11 2020-09-24 グーグル エルエルシー On-device machine learning platform
KR20200139339A (en) * 2019-06-04 2020-12-14 한화시스템 주식회사 Method for distributing machine learning model and apparatus thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020528589A (en) * 2017-08-11 2020-09-24 グーグル エルエルシー On-device machine learning platform
KR20200080296A (en) * 2017-11-21 2020-07-06 아마존 테크놀로지스, 인크. Create and distribute packages for machine learning on end devices
KR20200023706A (en) * 2018-08-22 2020-03-06 주식회사 머니브레인 Distributed computing resources sharing system and computing apparatus thereof based on block chain system supporting smart contract
KR20200034171A (en) * 2018-09-21 2020-03-31 주식회사 머니브레인 Distributed computing resources sharing system and computing apparatus thereof providing reward based on block chain
KR20200139339A (en) * 2019-06-04 2020-12-14 한화시스템 주식회사 Method for distributing machine learning model and apparatus thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Hugging Face". Wikipedia. The Wayback Machine. [2023.04.05. 검색] 2022.11.15.* *
"RSS feed #42". huggingface/blog. github.com. [2023.04.05. 검색] 2022.02.02.* *

Similar Documents

Publication Publication Date Title
CN104573115B (en) Support the realization method and system of the integrated interface of multi-type database operation
US7823146B2 (en) Method and system for software installation
CN102460382B (en) Annotating virtual application processes
US20210173665A1 (en) Bootstrapping Profile-Guided Compilation and Verification
Bellavista et al. Dynamic binding in mobile applications
CN111901294A (en) Method for constructing online machine learning project and machine learning system
US20230016909A1 (en) Coordinator for preloading time-based content selection graphs
CN102939579A (en) Method and apparatus for binding user interface elements and granular reflective processing
US11500830B2 (en) Learning-based workload resource optimization for database management systems
US7818752B2 (en) Interface for application components
CN112698921A (en) Logic code operation method and device, computer equipment and storage medium
US20220414012A1 (en) Preloaded content selection graph for rapid retrieval
CN115328569B (en) Method, system, electronic device and computer readable storage medium for processing data conflict
CN112866348A (en) Database access method and device, computer equipment and storage medium
KR102592569B1 (en) ML model deply management method using AIoT platform
CN117121453A (en) Apparatus, method and computer program for managing requests for cognitive network functions and/or machine learning models
US7441252B2 (en) Cache control device, and method and computer program for the same
US20200201930A1 (en) Preloaded content selection graph validation
US20080082473A1 (en) Peer based event conversion
US7685147B2 (en) Automatic management method and system with category-based correlations
KR102310515B1 (en) Container-based Management Method for Intelligent Components
US11748355B2 (en) Collection of timepoints and mapping preloaded graphs
US11392356B1 (en) Online machine learning based compilation
WO2024117302A1 (en) Method for managing ml model distribution by using aiot platform
CN111680069B (en) Database access method and device

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant