KR20220041031A - Distributed training method between terminal and edge cloud server - Google Patents

Distributed training method between terminal and edge cloud server Download PDF

Info

Publication number
KR20220041031A
KR20220041031A KR1020210126550A KR20210126550A KR20220041031A KR 20220041031 A KR20220041031 A KR 20220041031A KR 1020210126550 A KR1020210126550 A KR 1020210126550A KR 20210126550 A KR20210126550 A KR 20210126550A KR 20220041031 A KR20220041031 A KR 20220041031A
Authority
KR
South Korea
Prior art keywords
machine learning
training
learning model
cloud server
user terminal
Prior art date
Application number
KR1020210126550A
Other languages
Korean (ko)
Inventor
신명기
이수환
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US17/484,356 priority Critical patent/US20220092479A1/en
Publication of KR20220041031A publication Critical patent/KR20220041031A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Disclosed is a distributed training method between a terminal and an edge cloud server. The distributed training method may comprise: a step of identifying a plurality of user terminals located in a coverage of a local network of the edge cloud server; a step of providing a machine learning model for training to the plurality of user terminals; and a step of aggregating a training result for the machine learning model from the plurality of user terminals, when the training of the machine learning model is completed. Therefore, the present invention is capable of allowing the machine learning model to be trained efficiently.

Description

단말과 엣지 클라우드 서버 간의 분산 훈련 방법{DISTRIBUTED TRAINING METHOD BETWEEN TERMINAL AND EDGE CLOUD SERVER}Distributed training method between terminal and edge cloud server {DISTRIBUTED TRAINING METHOD BETWEEN TERMINAL AND EDGE CLOUD SERVER}

본 발명은 엣지 클라우드 서버의 커버리지에 속하는 복수의 사용자 단말들을 이용하여 머신러닝 모델을 분산 훈련하는 방법에 관한 것이다.The present invention relates to a method for distributed training of a machine learning model using a plurality of user terminals belonging to the coverage of an edge cloud server.

종래의 이동통신 시스템에서는 중앙 클라우드 서버에서 학습이 진행되었기 때문에, 많은 양의 데이터들이 중앙 클라우드 서버에 집중되었다. 그래서, 많은 데이터들이 중앙 클라우드 서버에 집중됨으로써, 네트워크 부하 및 분산된 데이터의 동기화나 에이징(aging), 비실시간성 처리나 이동통신 네트워크의 성능이 전체적으로 저하되는 문제가 발생할 수 있다. In the conventional mobile communication system, since learning was performed in the central cloud server, a large amount of data was concentrated in the central cloud server. Therefore, since a lot of data is concentrated in the central cloud server, there may be problems in that the network load and the synchronization or aging of the distributed data, non-real-time processing, or the performance of the mobile communication network are deteriorated as a whole.

본 발명은 복수의 사용자 단말들이 연합(federated)하여 머신러닝 모델을 훈련함으로써 훈련 데이터 셋트의 확보가 용이하며, 머신러닝 모델을 훈련하는 효율성을 증가키는 방법을 제공한다.The present invention provides a method for facilitating securing a training data set and increasing the efficiency of training a machine learning model by training a machine learning model by federated by a plurality of user terminals.

본 발명의 일실시예에 따른 엣지 클라우드 서버가 수행하는 분산 훈련 방법은 상기 엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치한 복수의 사용자 단말들을 식별하는 단계; 상기 복수의 사용자 단말들에게 훈련을 위한 머신러닝 모델을 제공하는 단계; 상기 머신러닝 모델의 훈련이 완료되면, 상기 복수의 사용자 단말로부터 머신러닝 모델에 대한 훈련 결과를 취합(aggregation)하는 단계를 포함할 수 있다.A distributed training method performed by an edge cloud server according to an embodiment of the present invention includes: identifying a plurality of user terminals located in coverage of a local network of the edge cloud server; providing a machine learning model for training to the plurality of user terminals; When training of the machine learning model is completed, the method may include aggregating training results for the machine learning model from the plurality of user terminals.

상기 사용자 단말들은, 엣지 클라우드 서버로부터 서로 동일한 속성의 머신러닝 모델을 수신하거나 또는 서로 다른 속성의 머신러닝 모델을 수신할 수 있다.The user terminals may receive machine learning models with the same properties or machine learning models with different properties from the edge cloud server.

상기 사용자 단말들은, 상기 사용자 단말의 현재 부하 상태 또는 현재 성능 상태를 고려하여 상기 머신러닝 모델의 훈련을 수행할 수 있다.The user terminals may perform training of the machine learning model in consideration of a current load state or a current performance state of the user terminal.

상기 훈련 결과는, 상기 복수의 사용자 단말들이 훈련한 머신러닝 모델에 대한 파라미터를 포함할 수 있다.The training result may include parameters for a machine learning model trained by the plurality of user terminals.

상기 사용자 단말은, 상기 엣지 클라우드 서버가 제공하는 훈련 데이터 셋트 또는 상기 사용자 단말이 각각 수집한 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련할 수 있다.The user terminal may train a machine learning model using a training data set provided by the edge cloud server or a training data set each collected by the user terminal.

상기 취합하는 단계는, 상기 복수의 사용자 단말들이 머신러닝 모델을 훈련한 결과를 평가하고, 일정 평가 기준을 만족하는 훈련 결과에 대해 머신러닝 모델을 업데이트할 수 있다.In the aggregating step, the plurality of user terminals may evaluate the training result of the machine learning model, and update the machine learning model with respect to the training result that satisfies a predetermined evaluation criterion.

본 발명의 일실시예에 따른 사용자 단말이 수행하는 분산 훈련 방법은 엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치하는 경우, 엣지 클라우드 서버로부터 훈련을 위한 머신러닝 모델을 수신하는 단계; 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련하는 단계; 및 상기 머신러닝 모델의 훈련이 완료되면, 머신러닝 모델에 대한 훈련 결과를 엣지 클라우드 서버에 전송하는 단계를 포함할 수 있다.A distributed training method performed by a user terminal according to an embodiment of the present invention includes: receiving a machine learning model for training from an edge cloud server when it is located in the coverage of a local network of an edge cloud server; training a machine learning model using the training data set; and when the training of the machine learning model is completed, transmitting the training result for the machine learning model to the edge cloud server.

상기 사용자 단말들은, 엣지 클라우드 서버로부터 서로 동일한 속성의 머신러닝 모델을 수신하거나 또는 서로 다른 속성의 머신러닝 모델을 수신할 수 있다.The user terminals may receive machine learning models with the same properties or machine learning models with different properties from the edge cloud server.

상기 사용자 단말들은, 상기 사용자 단말의 현재 부하 상태 또는 현재 성능 상태를 고려하여 상기 머신러닝 모델의 훈련을 수행할 수 있다.The user terminals may perform training of the machine learning model in consideration of a current load state or a current performance state of the user terminal.

상기 훈련 결과는, 상기 복수의 사용자 단말들이 훈련한 머신러닝 모델에 대한 파라미터를 포함할 수 있다.The training result may include parameters for a machine learning model trained by the plurality of user terminals.

상기 사용자 단말은, 상기 엣지 클라우드 서버가 제공하는 훈련 데이터 셋트 또는 상기 사용자 단말이 각각 수집한 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련할 수 있다.The user terminal may train a machine learning model using a training data set provided by the edge cloud server or a training data set each collected by the user terminal.

상기 엣지 클라우드 서버는, 상기 복수의 사용자 단말들이 머신러닝 모델을 훈련한 결과를 평가하고, 일정 평가 기준을 만족하는 훈련 결과에 대해 머신러닝 모델을 업데이트할 수 있다.The edge cloud server may evaluate a result of training the machine learning model by the plurality of user terminals, and update the machine learning model with respect to a training result that satisfies a predetermined evaluation criterion.

본 발명의 일실시예에 따른 엣지 클라우드 서버는 프로세서를 포함하고, 상기 프로세서는, 상기 엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치한 복수의 사용자 단말들을 식별하는 단계; 상기 복수의 사용자 단말들에게 훈련을 위한 머신러닝 모델을 제공하는 단계; 상기 머신러닝 모델의 훈련이 완료되면, 상기 복수의 사용자 단말로부터 머신러닝 모델에 대한 훈련 결과를 취합(aggregation)하는 단계를 수행할 수 있다.The edge cloud server according to an embodiment of the present invention includes a processor, the processor comprising: identifying a plurality of user terminals located in coverage of a local network of the edge cloud server; providing a machine learning model for training to the plurality of user terminals; When the training of the machine learning model is completed, the step of aggregating the training results for the machine learning model from the plurality of user terminals may be performed.

상기 사용자 단말들은, 엣지 클라우드 서버로부터 서로 동일한 속성의 머신러닝 모델을 수신하거나 또는 서로 다른 속성의 머신러닝 모델을 수신할 수 있다.The user terminals may receive machine learning models with the same properties or machine learning models with different properties from the edge cloud server.

상기 사용자 단말들은, 상기 사용자 단말의 현재 부하 상태 또는 현재 성능 상태를 고려하여 상기 머신러닝 모델의 훈련을 수행할 수 있다.The user terminals may perform training of the machine learning model in consideration of a current load state or a current performance state of the user terminal.

상기 훈련 결과는, 상기 복수의 사용자 단말들이 훈련한 머신러닝 모델에 대한 파라미터를 포함할 수 있다.The training result may include parameters for a machine learning model trained by the plurality of user terminals.

상기 사용자 단말은, 상기 엣지 클라우드 서버가 제공하는 훈련 데이터 셋트 또는 상기 사용자 단말이 각각 수집한 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련할 수 있다.The user terminal may train a machine learning model using a training data set provided by the edge cloud server or a training data set each collected by the user terminal.

상기 프로세서는, 상기 복수의 사용자 단말들이 머신러닝 모델을 훈련한 결과를 평가하고, 일정 평가 기준을 만족하는 훈련 결과에 대해 머신러닝 모델을 업데이트할 수 있다.The processor may evaluate a result of training the machine learning model by the plurality of user terminals, and update the machine learning model with respect to a training result that satisfies a predetermined evaluation criterion.

본 발명의 일실시예에 따르면, 머신러닝 모델을 여러 사용자 단말들이 연합하여 훈련함으로써 머신러닝 모델을 효율적으로 훈련할 수 있다.According to an embodiment of the present invention, the machine learning model can be efficiently trained by training the machine learning model in association with several user terminals.

본 발명의 일실시예에 따르면, 머신러닝 모델이 사용자 단말의 다양한 상황에 따른 훈련 데이터 셋트로 훈련될 수 있어서 머신러닝 모델의 정확도도 향상될 수 있다.According to an embodiment of the present invention, the machine learning model can be trained with a training data set according to various situations of the user terminal, so that the accuracy of the machine learning model can also be improved.

도 1은 본 발명의 일실시예에 따른 분산 훈련을 위한 전체 구조도를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 머신러닝 모델을 훈련하는 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 엣지 클라우드 서버가 관리하는 복수의 사용자 단말들을 이용하여 머신러닝 모델을 훈련하는 과정을 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 사용자 단말 각각의 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련하는 과정을 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 복수의 사용자 단말들을 이용하여 머신러닝 모델을 훈련하는 플로우차트이다.
1 is a diagram showing an overall structural diagram for distributed training according to an embodiment of the present invention.
2 is a diagram for explaining a process of training a machine learning model according to an embodiment of the present invention.
3 is a diagram illustrating a process of training a machine learning model using a plurality of user terminals managed by an edge cloud server according to an embodiment of the present invention.
4 is a diagram illustrating a process of training a machine learning model using a training data set of each user terminal according to an embodiment of the present invention.
5 is a flowchart for training a machine learning model using a plurality of user terminals according to an embodiment of the present invention.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference numerals in each figure indicate like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It should be understood that the embodiments described below are not intended to limit the embodiments, and include all modifications, equivalents, and substitutes thereto.

제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but these terms should be understood only for the purpose of distinguishing one element from another element. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only to describe specific examples, and are not intended to limit the examples. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 분산 훈련을 위한 전체 구조도를 도시한 도면이다.1 is a diagram showing an overall structural diagram for distributed training according to an embodiment of the present invention.

도 1을 참고하면, 중앙 클라우드 서버(101)에 지역적으로 분산된 복수의 엣지 클라우드 서버 1 (102-1) 내지 엣지 클라우드 서버 5 (102-5)가 연결된다. 그리고, 복수의 엣지 클라우드 서버들(102-1~102-5) 각각은 복수의 사용자 단말 1 내지 사용자 단말 N으로 구성된 로컬 네트워크에 연결될 수 있다.Referring to FIG. 1 , a plurality of locally distributed edge cloud servers 1 102-1 to 5 102-5 are connected to the central cloud server 101 . In addition, each of the plurality of edge cloud servers 102-1 to 102-5 may be connected to a local network composed of a plurality of user terminals 1 to N.

본 발명의 일실시예에 따르면, 지역적으로 분산된 복수의 엣지 클라우드 서버 1 (102-1) 내지 엣지 클라우드 서버 5 (102-5) 각각의 커버리지(로컬 네트워크)에 위치한 사용자 단말 1 내지 사용자 단말 N에게 머신러닝 모델을 협업하여 훈련하도록 할 수 있다.According to an embodiment of the present invention, user terminals 1 to N located in the coverage (local network) of a plurality of locally distributed edge cloud servers 1 ( 102-1 ) to edge cloud servers 5 ( 102-5 ), respectively. You can train machine learning models collaboratively.

일례로, 중앙 클라우드 서버(101)는 동일한 머신러닝 모델을 엣지 클라우드 서버 1(102-1) 내지 엣지 클라우드 서버(102-5)에 할당할 수 있다. 다른 일레로, 중앙 클라우드 서버(101)는 하나의 머신러닝 모델을 정량적으로 분할하고, 분할된 머신러닝 모델들을 엣지 클라우드 서버 1(102-1) 내지 엣지 클라우드 서버(102-5)에 각각 할당할 수 있다. 머신러닝 모델이 정량적으로 세그먼트되어 분할된 경우, 머신러닝 모델을 훈련하기 위해 사용되는 훈련 데이터 셋트도 세그먼트 형태도 설정될 수 있다.As an example, the central cloud server 101 may allocate the same machine learning model to the edge cloud server 1 102-1 to the edge cloud server 102-5. In another example, the central cloud server 101 quantitatively divides one machine learning model, and allocates the divided machine learning models to the edge cloud server 1 102-1 to the edge cloud server 102-5, respectively. can When the machine learning model is quantitatively segmented, the training data set used to train the machine learning model and the segment shape can also be set.

엣지 클라우드 서버 1(102-1)의 로컬 네트워크에 속하는 사용자 단말 1 내지 사용자 단말 N은 엣지 클라우드 서버 1(102-1)로부터 머신러닝 모델을 제공받을 수 있다. 엣지 클라우드 서버 1(102-1)은 중앙 클라우드 서버(101)로부터 머신러닝 모델을 다운로드할 수 있다.User terminals 1 to N belonging to the local network of the edge cloud server 1 ( 102-1 ) may receive a machine learning model from the edge cloud server 1 ( 102-1 ). The edge cloud server 1 102-1 may download the machine learning model from the central cloud server 101 .

이 때, 엣지 클라우드 서버 1(102-1)은 중앙 클라우드 서버(101)로부터 할당된 머신러닝 모델과 동일한 머신러닝 모델을 사용자 단말 1 내지 사용자 단말 N에 제공할 수 있다. 또는 엣지 클라우드 서버 1(102-1)은 중앙 클라우드 서버(101)로부터 할당된 머신러닝 모델을 로컬 네트워크에 속하는 사용자 단말의 개수(N개)만큼 분할한 후, 분할된 머신러닝 모델을 로컬 네트워크에 속하는 사용자 단말 1 내지 사용자 단말 N에 각각 제공할 수 있다.In this case, the edge cloud server 1 102-1 may provide the same machine learning model as the machine learning model allocated from the central cloud server 101 to the user terminals 1 to N. Alternatively, the edge cloud server 1 (102-1) divides the machine learning model allocated from the central cloud server 101 by the number (N) of user terminals belonging to the local network, and then divides the divided machine learning model into the local network. It can be provided to each of the user terminals 1 to N belonging to the user terminal.

그러면, 엣지 클라우드 서버 1(102-1)의 로컬 네트워크에 속하는 사용자 단말 1 내지 사용자 단말 N은 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련한 후, 훈련된 결과를 엣지 클라우드 서버 1(102-1)에 피드백할 수 있다. 이 때, 훈련된 결과는 머신러닝 모델의 파라미터를 의미할 수 있다. 파라미터는 최적의 머신러닝 모델을 구현하기 위해 머신러닝 모델에 설정하는 변수를 의미한다. 예를 들면, 파라미터는 학습률, 손실 함수, 일반화 파라미터, 미니배치 크기, 에포크 수, 가중치 초기화, 은닉층의 개수 및 k-NN의 k값 중 적어도 하나를 포함할 수 있다. Then, the user terminals 1 to N belonging to the local network of the edge cloud server 1 ( 102-1 ) train the machine learning model using the training data set, and then transmit the trained result to the edge cloud server 1 ( 102-1 ). ) can be fed back. In this case, the trained result may mean a parameter of the machine learning model. A parameter refers to a variable set in a machine learning model to implement an optimal machine learning model. For example, the parameter may include at least one of a learning rate, a loss function, a generalization parameter, a mini-batch size, the number of epochs, weight initialization, the number of hidden layers, and the k value of k-NN.

1차적으로, 엣지 클라우드 서버 1(102-1)은 머신러닝 모델을 훈련한 사용자 단말 1 내지 사용자 단말로부터 머신러닝 모델의 훈련 결과인 머신러닝 모델의 파라미터를 취합할 수 있다. 그리고, 2차적으로, 중앙 클라우드 서버(101)는 엣지 클라우드 서버 1 (102-1) 내지 엣지 클라우드 서버 5 (102-5)로부터 머신러닝 모델의 파라미터의 취합 결과를 다시 글로벌하게 조합할 수 있다.First, the edge cloud server 1 102-1 may collect parameters of a machine learning model that is a training result of the machine learning model from the user terminal 1 to the user terminal that has trained the machine learning model. And, secondarily, the central cloud server 101 may globally combine the result of gathering parameters of the machine learning model from the edge cloud server 1 102-1 to the edge cloud server 5 102-5 again.

도 2는 본 발명의 일실시예에 따른 머신러닝 모델을 훈련하는 과정을 설명하기 위한 도면이다.2 is a diagram for explaining a process of training a machine learning model according to an embodiment of the present invention.

도 2를 참고하면, 중앙 클라우드 서버(201), 엣지 클라우드 서버(202) 및 사용자 단말(203)이 도시된다. 사용자 단말(203)은 엣지 클라우드 서버(202)의 로컬 네트워크에 속한다.Referring to FIG. 2 , a central cloud server 201 , an edge cloud server 202 , and a user terminal 203 are shown. The user terminal 203 belongs to the local network of the edge cloud server 202 .

CASE 1은 중앙 클라우드 서버(201)가 보유하는 머신러닝 모델과 동일한 사이즈(N)의 머신러닝 모델을 엣지 클라우드 서버(202)을 통해 사용자 단말(203)에 배포하는 경우를 나타낸다.CASE 1 represents a case in which a machine learning model of the same size (N) as the machine learning model possessed by the central cloud server 201 is distributed to the user terminal 203 through the edge cloud server 202 .

그리고, CASE 2는 중앙 클라우드 서버(201)가 보유하는 머신러닝 모델을 중앙 클라우드 서버(201)에 연결된 엣지 클라우드 서버(202)의 개수에 따라 분할한 후, 분할된 머신러닝 모델(사이즈 M)을 엣지 클라우드 서버(202)를 통해 사용자 단말(203)에 배포하는 경우를 나타낸다.And, CASE 2 divides the machine learning model held by the central cloud server 201 according to the number of edge cloud servers 202 connected to the central cloud server 201, and then divides the divided machine learning model (size M). A case of distribution to the user terminal 203 through the edge cloud server 202 is shown.

CASE 1 또는 CASE 2의 경우, 사용자 단말(203)은 머신러닝 모델을 훈련한 후 머신러닝 모델의 훈련 결과인 머신러닝 모델의 파라미터를 엣지 클라우드 서버(202)를 통해 중앙 클라우드 서버(201)에 전달할 수 있다.In case of CASE 1 or CASE 2, the user terminal 203 trains the machine learning model and then transmits the parameters of the machine learning model, which is the training result of the machine learning model, to the central cloud server 201 through the edge cloud server 202. can

도 3은 본 발명의 일실시예에 따른 엣지 클라우드 서버가 관리하는 복수의 사용자 단말들을 이용하여 머신러닝 모델을 훈련하는 과정을 도시한 도면이다.3 is a diagram illustrating a process of training a machine learning model using a plurality of user terminals managed by an edge cloud server according to an embodiment of the present invention.

도 3을 참고하면, 중앙 클라우드 서버(301)은 버전 1의 머신러닝 모델을 엣지 클라우드 서버(302)에 배포할 수 있다. 그러면, 엣지 클라우드 서버(302)는 로컬 네트워크에 속하는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)에 머신러닝 모델을 배포할 수 있다. 이 후, 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)은 머신러닝 모델을 연합하여 훈련할 수 있다.Referring to FIG. 3 , the central cloud server 301 may distribute the machine learning model of version 1 to the edge cloud server 302 . Then, the edge cloud server 302 may distribute the machine learning model to the user terminal 1 (303-1), the user terminal 2 (303-2) to the user terminal N (303-N) belonging to the local network. Thereafter, user terminal 1 (303-1), user terminal 2 (303-2) to user terminal N (303-N) may train the machine learning model in association.

사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)은 훈련 플레인에서 머신러닝 모델을 훈련할 수 있다. 이 때, 사용자 단말 N(303-N)이 머신러닝 모델의 훈련으로 인해서 단말의 성능이 미리 설정된 기준치 이하로 감소하는 경우, 엣지 클라우드 서버 (302)는 사용자 단말 N(303-N)을 사용자 단말 M (303-M)로 대체하여 머신러닝 모델의 훈련을 계속 진행할 수 있다.User terminal 1 (303-1), user terminal 2 (303-2) to user terminal N (303-N) may train a machine learning model in a training plane. At this time, when the performance of the user terminal N (303-N) decreases below a preset reference value due to training of the machine learning model, the edge cloud server 302 sets the user terminal N (303-N) to the user terminal We can continue training the machine learning model by replacing it with M (303-M).

그리고, 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)의 머신러닝 모델의 훈련 결과인 머신러닝 모델의 파라미터는 엣지 클라우드 서버(302)에 취합될 수 있다. 이 경우, 엣지 클라우드 서버(302) 또는 중앙 클라우드 서버(301)가 버전 1의 머신러닝 모델을 버전 1보다 최적화된 버전 2의 머신러닝 모델로 업데이트할 수 있다. And, the parameters of the machine learning model that are the training results of the machine learning model of the user terminal 1 (303-1), the user terminal 2 (303-2) to the user terminal N (303-N) are collected in the edge cloud server 302 . can be In this case, the edge cloud server 302 or the central cloud server 301 may update the machine learning model of version 1 to the machine learning model of version 2 that is more optimized than version 1.

엣지 클라우드 서버(302) 또는 중앙 클라우드 서버(301)는 복수의 사용자 단말들 (사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N))이 훈련함으로써 도출된 머신러닝 모델의 훈련 결과(파라미터)를 평가한 후, 평가 결과가 기준치 이상인 경우에만 머신러닝 모델의 업데이트에 이용할 수도 있다.Edge cloud server 302 or central cloud server 301 is a plurality of user terminals (user terminal 1 (303-1), user terminal 2 (303-2) to user terminal N (303-N)) by training After evaluating the training result (parameter) of the derived machine learning model, it can be used to update the machine learning model only when the evaluation result is greater than or equal to the reference value.

그리고, 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)은 머신러닝 모델을 훈련하고, 머신러닝 모델의 훈련 결과를 피드백한 것에 대해 엣지 클라우드 서버(302) 또는 중앙 클라우드 서버(301)로부터 보상받을 수 있다.Then, the user terminal 1 (303-1), the user terminal 2 (303-2) to the user terminal N (303-N) train the machine learning model, and the edge cloud server for feeding back the training result of the machine learning model 302 or from a central cloud server 301 .

엣지 클라우드 서버(302)는 미리 설정된 시간 구간에 대해 일괄적으로 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)에 머신러닝 모델을 제공함으로써 시간 구간동안 머신러닝 모델의 훈련이 진행될 수 있다. 그리고, 미리 설정된 시간 구간이 종료되면, 엣지 클라우드 서버(302)는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)로부터 머신러닝 모델의 훈련 결과를 취합할 수 있다. The edge cloud server 302 provides a machine learning model to user terminal 1 303-1, user terminal 2 303-2 to user terminal N 303-N collectively for a preset time period by providing a time period. During the interval, training of the machine learning model may be performed. And, when the preset time period ends, the edge cloud server 302 performs training of the machine learning model from the user terminal 1 (303-1), the user terminal 2 (303-2) to the user terminal N (303-N). can be collected.

그리고, 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N) 각각의 부하(load)에 따라 머신러닝 모델을 훈련하는 성능은 서로 다를 수 있다. 그래서, 엣지 클라우드 서버(302)는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)의 부하 상태와 무관하게 동일한 머신러닝 모델을 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)에게 제공할 수 있다. 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)은 자신의 성능과 부하 상태를 고려하여 머신러닝 모델의 훈련 과정을 조절할 수 있다.In addition, the performance of training the machine learning model according to the loads of the user terminal 1 303 - 1 , the user terminal 2 303 - 2 to the user terminal N 303-N may be different from each other. Therefore, the edge cloud server 302 applies the same machine learning model to the user terminal 1 ( 303-1), user terminal 2 (303-2) to user terminal N (303-N) may be provided. User terminal 1 (303-1), user terminal 2 (303-2) to user terminal N (303-N) may adjust the training process of the machine learning model in consideration of their performance and load state.

다른 실시예로, 엣지 클라우드 서버(302)는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)로부터 성능과 부하 상태를 획득할 수 있다. 그러면, 엣지 클라우드 서버(302)는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)의 성능과 부하 상태를 고려하여 서로 다른 속성을 가지는 머신러닝 모델을 독립적으로 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N) 각각에 제공할 수 있다. In another embodiment, the edge cloud server 302 may obtain the performance and load status from the user terminal 1 303 - 1 , the user terminal 2 303 - 2 to the user terminal N 303 -N. Then, the edge cloud server 302 performs machine learning having different properties in consideration of the performance and load conditions of the user terminal 1 (303-1), the user terminal 2 (303-2) to the user terminal N (303-N). The model may be independently provided to each of the user terminal 1 303 - 1 , the user terminal 2 303 - 2 to the user terminal N 303 -N.

또는 엣지 클라우드 서버(302)는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)의 성능과 부하 상태를 고려하여 부하 상태가 미리 설정된 기준을 만족하는(성능 및 부하 상태가 좋은) 사용자 단말에게만 머신러닝 모델을 제공할 수 있다. Alternatively, the edge cloud server 302 satisfies a preset criterion for the load state in consideration of the performance and load state of the user terminal 1 (303-1), the user terminal 2 (303-2) to the user terminal N (303-N). A machine learning model can be provided only to user terminals that are

또는, 엣지 클라우드 서버(302)는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)의 성능과 부하 상태를 확인한 후, 사용자 단말의 성능과 부하 상태에 따라 다른 속성의 머신러닝 모델을 제공할 수 있다. 사용자 단말의 성능과 부하 상태가 좋을수록 사이즈가 크거나 히든 레이어 개수가 큰 머신러닝 모델을 제공할 수 있다.Alternatively, the edge cloud server 302 checks the performance and load status of the user terminal 1 (303-1), the user terminal 2 (303-2) to the user terminal N (303-N), and then the performance and load of the user terminal Depending on the state, it is possible to provide a machine learning model with different properties. A machine learning model with a larger size or a larger number of hidden layers can be provided as the performance and load state of the user terminal are better.

엣지 클라우드 서버(302)의 로컬 네트워크에 속하는 사용자 단말 1(303-1), 사용자 단말 2(303-2) 내지 사용자 단말 N (303-N)들은 이동성으로 인해서 로컬 네트워크의 커버리지를 벗어날 수 있다. 또는, 엣지 클라우드 서버(302)의 로컬 네트워크의 커버리지에 새로운 사용자 단말이 유입될 수 있다. User terminal 1 (303-1), user terminal 2 (303-2) to user terminal N (303-N) belonging to the local network of the edge cloud server 302 may go out of coverage of the local network due to mobility. Alternatively, a new user terminal may be introduced into the coverage of the local network of the edge cloud server 302 .

여기서, 엣지 클라우드 서버(302)에 대응하는 로컬 네트워크의 커버리지에 속하는 사용자 단말 1(303-1)은 이동하여 다른 엣지 클라우드 서버에 대응하는 로컬 네트워크의 커버리지에 위치할 수 있다. 또는, 다른 엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치했던 사용자 단말 M(303-M)은 엣지 클라우드 서버(302)의 로컬 네트워크의 커버리지에 새롭게 유입될 수도 있다. Here, the user terminal 1 303 - 1 belonging to the coverage of the local network corresponding to the edge cloud server 302 may move and be located in the coverage of the local network corresponding to the other edge cloud server. Alternatively, the user terminal M 303-M located in the coverage of the local network of another edge cloud server may be newly introduced into the coverage of the local network of the edge cloud server 302 .

예를 들어, 사용자 단말 N(303-N)이 엣지 클라우드 서버(302)에서 다운로드한 머신러닝 모델을 훈련하다가, 엣지 클라우드 서버(302)의 로컬 네트워크에서 이탈하는 경우, 사용자 단말 N(303-N)은 머신러닝 모델의 훈련을 유지하거나, 훈련을 종료하거나 또는 새롭게 수집한 훈련 데이터 셋트로 머신러닝 모델의 훈련을 수행할 수 있다.For example, when the user terminal N 303-N trains a machine learning model downloaded from the edge cloud server 302 and departs from the local network of the edge cloud server 302, the user terminal N 303-N ) can maintain training of the machine learning model, terminate training, or perform training of the machine learning model with a newly collected training data set.

엣지 클라우드 서버(302)에 대응하는 로컬 네트워크의 커버리지에 속하는 사용자 단말들은 그룹핑될 수 있다. 일례로, 사용자 단말의 속성이나 부하 상태, 지역에 따라 사용자 단말들이 그룹핑될 수 있다. 그리고, 사용자 단말의 그룹에 따라 서로 다른 머신러닝 모델이 제공될 수 있다.User terminals belonging to the coverage of the local network corresponding to the edge cloud server 302 may be grouped. For example, user terminals may be grouped according to the properties, load conditions, and regions of the user terminals. In addition, different machine learning models may be provided according to groups of user terminals.

도 4는 본 발명의 일실시예에 따른 사용자 단말 각각의 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of training a machine learning model using a training data set of each user terminal according to an embodiment of the present invention.

(i) 머신러닝 모델의 훈련을 자동 수행 또는 요청하는 경우(i) automatically perform or request training of a machine learning model;

본 발명의 일실시예에 따르면, 엣지 클라우드 서버(401)의 로컬 네트워크의 커버리지에 위치한 사용자 단말 1(402-1)은 엣지 클라우드 서버(401)로부터 머신러닝 모델을 다운로드받고 자동으로 머신러닝 모델을 훈련할 수 있다.According to an embodiment of the present invention, the user terminal 1 402-1 located in the coverage of the local network of the edge cloud server 401 downloads a machine learning model from the edge cloud server 401 and automatically creates the machine learning model. can train

본 발명의 일실시예에 따르면, 엣지 클라우드 서버(401)의 로컬 네트워크의 커버리지에 사용자 단말 1(402-1)이 위치하면, 엣지 클라우드 서버(401)는 사용자 단말 1(402-1)에 머신러닝 모델의 훈련 가능 여부를 문의할 수 있다. 만약에, 사용자 단말 1(402-1)이 머신러닝 모델의 훈련이 가능하다고 응답한 경우, 엣지 클라우드 서버(401)는 사용자 단말 1(402-1)에 머신러닝 모델을 제공할 수 있다. 이 후, 사용자 단말 1(402-1)은 훈련 데이터 셋트 1을 이용하여 머신러닝 모델을 훈련할 수 있다.According to an embodiment of the present invention, when the user terminal 1 402-1 is located in the coverage of the local network of the edge cloud server 401, the edge cloud server 401 is the machine in the user terminal 1 402-1. You can inquire whether the learning model can be trained. If the user terminal 1 402-1 responds that training of the machine learning model is possible, the edge cloud server 401 may provide the machine learning model to the user terminal 1 402-1. Thereafter, the user terminal 1 402-1 may train the machine learning model using the training data set 1.

본 발명의 일실시예에 따르면, 엣지 클라우드 서버(401)의 로컬 네트워크의 커버리지에 사용자 단말 1(402-1)이 위치하면, 사용자 단말 1(402-1)이 머신러닝 모델의 훈련 요청을 엣지 클라우드 서버(401)에 전달할 수 있다. 그러면, 엣지 클라우드 서버(401)는 머신러닝 모델을 사용자 단말 1(402-1)에 제공할 수 있고, 사용자 단말 1(402-1)은 훈련 데이터 셋트 1을 이용하여 머신러닝 모델을 훈련할 수 있다.According to an embodiment of the present invention, when the user terminal 1 402-1 is located in the coverage of the local network of the edge cloud server 401, the user terminal 1 402-1 sends the training request of the machine learning model to the edge. It may be transmitted to the cloud server 401 . Then, the edge cloud server 401 may provide the machine learning model to the user terminal 1 402-1, and the user terminal 1 402-1 may train the machine learning model using the training data set 1. there is.

(ii) 머신러닝 모델의 제공 방식(ii) how the machine learning model is provided;

본 발명의 일실시예에 따르면, 엣지 클라우드 서버(401)는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)에 머신러닝 모델을 제공할 수 있다. 이 때, 엣지 클라우드 서버(401)는 로컬 네트워크의 커버리지에 속하는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)에게 동일한 머신러닝 모델을 제공할 수 있다. 또는, 엣지 클라우드 서버(401)는 머신러닝 모델의 리스트를 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)에게 제공하고, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)이 선택한 머신러닝 모델을 제공할 수 있다. 즉, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)은 서로 동일한 머신러닝 모델로 학습하거나 또는 서로 다른 머신러닝 모델로 학습할 수 있다.According to an embodiment of the present invention, the edge cloud server 401 may provide a machine learning model to the user terminal 1 402-1 to the user terminal N 402-N. In this case, the edge cloud server 401 may provide the same machine learning model to the user terminal 1 402-1 to the user terminal N 402-N belonging to the coverage of the local network. Alternatively, the edge cloud server 401 provides a list of machine learning models to the user terminal 1 402-1 to the user terminal N 402-N, and the user terminal 1 402-1 to the user terminal N 402 -N) can provide the machine learning model of your choice. That is, the user terminal 1 402-1 to the user terminal N 402-N may learn from the same machine learning model or may learn from different machine learning models.

또한, 엣지 클라우드 서버(401)는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)을 특정 기준(단말의 속성(하드웨어 동일/유사성, 기종의 유사성), 접속 위치, 주로 사용하는 어플리케이션의 종류, 사용자 단말의 소유자의 인적 정보 등)에 따라 그룹핑하고, 사용자 단말의 그룹별로 독립적인 머신러닝 모델을 제공할 수 있다.In addition, the edge cloud server 401 uses the user terminal 1 ( 402-1 ) to the user terminal N ( 402-N) as a specific criterion (properties of the terminal (equivalent to hardware / similarity, similarity of model), connection location, and mainly used It is possible to group according to the type of application, personal information of the owner of the user terminal, etc.) and provide an independent machine learning model for each group of the user terminal.

(iii) 머신러닝 모델의 훈련 시점(iii) when the machine learning model is trained

엣지 클라우드 서버(401)는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각으로부터 사용자 단말의 현재 부하나 성능을 획득하고, 사용자 단말의 부하나 성능이 머신러닝 모델을 훈련하기에 적절한 것인 것 판단할 수 있다. 엣지 클라우드 서버(401)는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)이 머신러닝 모델을 훈련하기에 적절한 부하나 성능을 나타낸다고 판단된 경우, 사용자 단말 1(402-1)와 사용자 단말 2(402-2)에 머신러닝 모델을 제공할 수 있다.The edge cloud server 401 obtains the current load or performance of the user terminal from each of the user terminal 1 402-1 to the user terminal N 402-N, and the load or performance of the user terminal trains the machine learning model. can be judged as appropriate for When it is determined that the edge cloud server 401 indicates that the user terminal 1 402-1 to the user terminal N 402-N represents an appropriate load or performance for training the machine learning model, the user terminal 1 402-1 and a machine learning model may be provided to the user terminal 2 402 - 2 .

(iv) 머신러닝 모델의 분할 여부(iv) whether the machine learning model is partitioned

엣지 클라우드 서버(401)은 로컬 네트워크의 커버리지에 속하는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)에게 글로벌 형태의 머신러닝 모델을 제공할 수 있다. 즉, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)에 제공되는 머신러닝 모델은 서로 동일할 수 있다. The edge cloud server 401 may provide a global machine learning model to the user terminal 1 402-1 to the user terminal N 402-N belonging to the coverage of the local network. That is, the machine learning models provided to the user terminal 1 402-1 to the user terminal N 402-N may be identical to each other.

또는, 엣지 클라우드 서버(401)는 중앙 클라우드 서버에서 다운로드한 머신러닝 모델을 복수의 로컬 모델로 세그멘트(segment)하여 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각에 제공할 수 있다. 즉, 머신러닝 모델은 N개의 로컬 형태의 머신러닝 모델들로 분할되고, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)은 각각 분할된 머신러닝 모델을 훈련할 수 있다. 이 때, 머신러닝 모델의 분할은 레이어별로 처리될 수 있다.Alternatively, the edge cloud server 401 segments the machine learning model downloaded from the central cloud server into a plurality of local models to provide each of the user terminals 1 402-1 to N 402-N. can That is, the machine learning model is divided into N local type machine learning models, and user terminal 1 402-1 to user terminal N 402-N may train the divided machine learning model, respectively. In this case, the division of the machine learning model may be processed for each layer.

(v) 머신러닝 모델의 훈련 결과에 대한 조합(v) combinations of training results of machine learning models;

사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각에 제공된 머신러닝 모델이 세그먼트되어 로컬 형태로 분할된 경우, 엣지 클라우드 서버(401)는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)각각이 머신러닝 모델의 훈련 결과를 조합할 수 있다.When the machine learning model provided to each of the user terminals 1 402-1 to N 402-N is segmented and divided into a local form, the edge cloud server 401 is the user terminal 1 402-1 to the user Each of the terminals N 402-N may combine the training results of the machine learning model.

(vi) 머신러닝 모델의 변경(vi) changes to the machine learning model;

사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각이 훈련하는 머신러닝 모델은 엣지 클라우드 서버가 선택하여 제공되거나 또는 사용자 단말들이 각각 선택하여 제공될 수 있다. 그리고, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각에서 훈련하고 있는 머신러닝 모델은 훈련이 종료하기 전에 엣지 클라우드 서버가 변경 또는 업데이트하거나, 사용자 단말의 요청에 따라 변경될 수 있다. 일례로, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)은 자신의 부하 상태나 성능 상태를 고려하여 현재 훈련중인 머신러닝 모델의 교체를 엣지 클라우드 서버(401)에 요청할 수 있다.The machine learning model trained by each of the user terminals 1 402-1 to N 402-N may be selected and provided by the edge cloud server or may be selected and provided by the user terminals, respectively. And, the machine learning model being trained in each of the user terminal 1 (402-1) to the user terminal N (402-N) is changed or updated by the edge cloud server before the training ends, or is changed according to the request of the user terminal. can As an example, user terminal 1 402-1 to user terminal N 402-N may request the edge cloud server 401 to replace the machine learning model currently being trained in consideration of its load state or performance state. .

(vii) 머신러닝 모델의 훈련을 위한 훈련 데이터 셋트(vii) a training data set for training a machine learning model;

사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)들 각각이 머신러닝 모델을 훈련하기 위해 사용하는 훈련 데이터 셋트는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)들마다 서로 동일하거나(글로벌) 또는 서로 다르게 결정(로컬)될 수 있다. 훈련 데이터 셋트가 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각이 수집하거나 또는 다른 사용자 단말로부터 획득할 수 있다.The training data sets used by each of user terminal 1 402-1 to user terminal N 402-N to train a machine learning model are user terminal 1 402-1 to user terminal N 402-N. They may be identical to each other (global) or may be determined differently (locally). The training data set may be collected by each of user terminal 1 402-1 to user terminal N 402-N or may be obtained from other user terminals.

사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각이 머신러닝 모델을 훈련할 때 사용한 훈련 데이터 셋트는 데이터의 속성(데이터의 크기, 익명성 정도, 최신성(생성 시기), 모델 훈련에 사용된 정도 등)에 기초하여 다른 사용자 단말에게 공유될 수 있다. The training data set used when each user terminal 1 (402-1) to user terminal N (402-N) trains a machine learning model includes the properties of the data (size of data, degree of anonymity, freshness (time of creation), It may be shared with other user terminals based on the degree used for model training, etc.).

예를 들어, 데이터의 크기가 일정 크기 이하인 경우에만 훈련 데이터 셋트가 다른 사용자 단말에 공유될 수 있다. 또는, 데이터가 익명성 처리가 된 경우에 훈련 데이터 셋트가 다른 사용자 단말에 공유될 수 있다. 데이터가 훈련 시점으로부터 미리 설정된 기간 이내에 생성된 최신의 데이터인 경우에 훈련 데이터 셋트가 다른 사용자 단말에 공유될 수 있다. 데이터가 훈련에 사용된 정도가 미리 설정된 기준 이하인 경우, 훈련 데이터 셋트가 다른 사용자 단말에 공유될 수 있다.For example, the training data set may be shared with other user terminals only when the size of the data is less than or equal to a certain size. Alternatively, when the data is anonymized, the training data set may be shared with other user terminals. When the data is the latest data generated within a preset period from the training time, the training data set may be shared with other user terminals. When the degree of data used for training is less than or equal to a preset criterion, the training data set may be shared with other user terminals.

즉, 훈련 데이터 셋트에서 데이터의 크기가 미리 설정된 크기보다 작은 데이터가 공유되거나, 데이터가 사용자 단말의 소유자에게 제한된 데이터가 아닌 퍼블릭한 데이터만 공유되거나 데이터가 최근에 생성된 것만 공유되거나, 머신러닝 모델을 훈련할 때 사용된 데이터만 공유될 수 있다.That is, data whose size is smaller than a preset size in the training data set is shared, only public data is shared rather than data restricted to the owner of the user terminal, only recently generated data is shared, or a machine learning model Only data used when training can be shared.

(viii) 머신러닝 모델에 대한 훈련 종료(viii) termination of training on machine learning models;

미리 설정된 시간 구간이 경과하면, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)에서 수행되는 머신러닝 모델의 훈련도 종료된다. 또는 머신러닝 모델의 훈련 과정을 통해 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)은 머신러닝 모델의 훈련 결과를 평가하고, 머신러닝 모델의 훈련 결과를 평가한 결과 미리 설정된 기준을 만족하는 경우 반복적으로 진행되는 머신러닝 모델의 훈련 과정이 종료될 수 있다. 또는, 반복적으로 진행되는 머신러닝 모델의 훈련 과정이 미리 설정된 횟수가 수행되거나 또는 사용자 단말의 자원 가용성 또는 부하 상태가 미리 설정된 기준보다 미달인 경우 머신러닝 모델에 대한 훈련이 종료될 수 있다.When the preset time period elapses, the training of the machine learning model performed in the user terminal 1 402-1 to the user terminal N 402-N is also terminated. Alternatively, through the training process of the machine learning model, the user terminal 1 402-1 to the user terminal N 402-N evaluate the training result of the machine learning model, and a preset criterion as a result of evaluating the training result of the machine learning model is satisfied, the training process of the machine learning model, which is repeatedly performed, may be terminated. Alternatively, the training for the machine learning model may be terminated when the training process of the machine learning model that is repeatedly performed is performed a preset number of times or when the resource availability or load state of the user terminal is less than a preset criterion.

(ix) 머신러닝 모델의 훈련 결과에 대한 평가 및 필터링(ix) Evaluating and filtering the training results of the machine learning model

본 발명의 일실시예에 따르면, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)이 머신러닝 모델을 훈련하면, 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)은 머신러닝 모델의 훈련 결과인 머신러닝 모델의 파라미터를 엣지 클라우드 서버(401)에 피드백할 수 있다. 이 때, 머신러닝 모델의 훈련 결과는 머신러닝 모델을 훈련한 사용자 단말 또는 엣지 클라우드 서버(401)가 평가할 수 있다.According to an embodiment of the present invention, when the user terminal 1 (402-1) to the user terminal N (402-N) train the machine learning model, the user terminal 1 (402-1) to the user terminal N (402-N) ) may feed back the parameters of the machine learning model, which is the training result of the machine learning model, to the edge cloud server 401 . At this time, the training result of the machine learning model may be evaluated by the user terminal or the edge cloud server 401 training the machine learning model.

엣지 클라우드 서버(401)는 머신러닝 모델을 평가하여 일정 기준을 만족하지 못하는 경우 필터링할 수 있다. 머신러닝 모델은 훈련 퀄리티를 고려하여 평가된다. 이 때, 평가를 위한 기준은 머신러닝 모델의 성능이나 정확도 이외에 단말의 신뢰도 이외에 단말의 위치, 단말의 종류, 단말의 자원 용량, 단말이 사용한 데이터의 크기(사이즈), 단말이 사용한 데이터의 최신성, 단말에서 데이터를 생성한 어플리케이션의 종류/유효성 등을 고려하여 진행된다.The edge cloud server 401 may evaluate the machine learning model and filter it if it does not satisfy certain criteria. Machine learning models are evaluated considering the training quality. At this time, the criteria for evaluation are the location of the terminal, the type of the terminal, the resource capacity of the terminal, the size (size) of the data used by the terminal, and the freshness of the data used by the terminal, in addition to the performance and accuracy of the machine learning model and the reliability of the terminal. , taking into account the type/effectiveness of the application that generated the data in the terminal.

또는, 머신러닝 모델을 훈련한 모든 사용자 단말이 아닌 특정 기준을 만족하는 사용자 단말의 훈련 결과만 엣지 클라우드 서버(401)가 획득할 수도 있다. 일례로, 특정 기준은 사용자 단말의 신뢰도 이외에 사용자 단말의 위치, 사용자 단말의 종류, 사용자 단말의 자원 용량, 사용자 단말이 사용한 데이터의 크기(사이즈), 사용자 단말이 사용한 데이터의 최신성, 사용자 단말에서 데이터를 생성한 어플리케이션의 종류/유효성 중 적어도 하나를 포함할 수 있다.Alternatively, the edge cloud server 401 may acquire only training results of user terminals that satisfy specific criteria, rather than all user terminals that have trained the machine learning model. For example, the specific criteria, in addition to the reliability of the user terminal, include the location of the user terminal, the type of the user terminal, the resource capacity of the user terminal, the size (size) of the data used by the user terminal, the freshness of the data used by the user terminal, and the It may include at least one of the type/validity of the application that generated the data.

(x) 머신러닝 모델의 훈련 결과에 대한 보상(x) rewards for training results of machine learning models

사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)은 머신러닝 모델의 훈련 결과인 머신러닝 모델의 파라미터를 엣지 클라우드 서버(401)에 피드백할 수 있다. 이 경우, 엣지 클라우드 서버(401)는 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N)에 대해 머신러닝 모델의 훈련에 대해 보상할 수 있다. 이 때 보상은 엣지 클라우드 서버(401)가 사용자 단말 1(402-1) 내지 사용자 단말 N(402-N) 각각에 대해 금전 보상을 위한 보상액을 결정할 수 있다. 보상액은 이전에 사용자 단말이 머신러닝 모델을 자주 훈련했는지, 머신러닝 모델을 훈련할 때 사용한 훈련 데이터 셋트의 사이즈가 크거나 또는 최신성일수록 증가할 수 있다.User terminal 1 402-1 to user terminal N 402-N may feed back parameters of the machine learning model, which are training results of the machine learning model, to the edge cloud server 401 . In this case, the edge cloud server 401 may compensate for training of the machine learning model for the user terminal 1 402-1 to the user terminal N 402-N. In this case, the edge cloud server 401 may determine a compensation amount for monetary compensation for each of the user terminals 1 402-1 to N 402-N. The amount of compensation may increase as the user terminal frequently trains the machine learning model in the past, or the size of the training data set used to train the machine learning model is large or up-to-date.

도 5는 본 발명의 일실시예에 따른 복수의 사용자 단말들을 이용하여 머신러닝 모델을 훈련하는 플로우차트이다.5 is a flowchart for training a machine learning model using a plurality of user terminals according to an embodiment of the present invention.

단계(501)에서, 엣지 클라우드 서버는 머신러닝 모델을 사용자 단말에게 제공할 수 있다. 엣지 클라우드 서버는 로컬 네트워크의 커버리지에 속하는 복수의 사용자 단말들에게 머신러닝 모델을 배포할 수 있다.In step 501, the edge cloud server may provide the machine learning model to the user terminal. The edge cloud server may distribute the machine learning model to a plurality of user terminals belonging to the coverage of the local network.

단계(502)에서, 사용자 단말은 머신러닝 모델을 훈련하기 위한 훈련 데이터 셋트를 수집할 수 있다. 이 때, 사용자 단말은 훈련 데이터를 사용자 단말의 사용 과정에서 수집하거나, 엣지 클라우드 서버에서 다운로드받거나 또는 엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치한 다른 사용자 단말로부터 공유받을 수 있다.In step 502 , the user terminal may collect a training data set for training the machine learning model. In this case, the user terminal may collect training data in the course of using the user terminal, download it from the edge cloud server, or receive it shared from other user terminals located in the coverage of the local network of the edge cloud server.

단계(503)에서, 사용자 단말은 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련할 수 있다. In step 503, the user terminal may train the machine learning model using the training data set.

단계(504)에서, 사용자 단말은 머신러닝 모델을 훈련 결과를 엣지 클라우드 서버에 피드백할 수 있다.In step 504, the user terminal may feed back the training result of the machine learning model to the edge cloud server.

단계(505)에서, 엣지 클라우드 서버는 사용자 단말이 머신러닝 모델을 훈련한 것에 대해 보상할 수 있다.In step 505 , the edge cloud server may reward the user terminal for training the machine learning model.

단계(506)에서, 엣지 클라우드 서버는 로컬 네트워크의 커버리지에 속하는 복수의 사용자 단말들로부터 수신한 머신러닝 모델의 훈련 결과에 기초하여 머신러닝 모델을 업데이트할 수 있다.In step 506 , the edge cloud server may update the machine learning model based on the training result of the machine learning model received from a plurality of user terminals belonging to the coverage of the local network.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited to the above embodiments, and various modifications and variations from these descriptions can be made by those skilled in the art to which the present invention pertains. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the following claims as well as the claims and equivalents.

Claims (18)

엣지 클라우드 서버가 수행하는 분산 훈련 방법에 있어서,
상기 엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치한 복수의 사용자 단말들을 식별하는 단계;
상기 복수의 사용자 단말들에게 훈련을 위한 머신러닝 모델을 제공하는 단계;
상기 머신러닝 모델의 훈련이 완료되면, 상기 복수의 사용자 단말로부터 머신러닝 모델에 대한 훈련 결과를 취합(aggregation)하는 단계
를 포함하는 분산 훈련 방법.
In the distributed training method performed by the edge cloud server,
identifying a plurality of user terminals located in coverage of a local network of the edge cloud server;
providing a machine learning model for training to the plurality of user terminals;
When training of the machine learning model is completed, aggregating training results for the machine learning model from the plurality of user terminals
A distributed training method comprising
제1항에 있어서,
상기 사용자 단말들은,
엣지 클라우드 서버로부터 서로 동일한 속성의 머신러닝 모델을 수신하거나 또는 서로 다른 속성의 머신러닝 모델을 수신하는 분산 훈련 방법.
According to claim 1,
The user terminals are
A distributed training method that receives machine learning models with the same properties or machine learning models with different properties from an edge cloud server.
제1항에 있어서,
상기 사용자 단말들은,
상기 사용자 단말의 현재 부하 상태 또는 현재 성능 상태를 고려하여 상기 머신러닝 모델의 훈련을 수행하는 분산 훈련 방법.
According to claim 1,
The user terminals are
A distributed training method for performing training of the machine learning model in consideration of a current load state or a current performance state of the user terminal.
제1항에 있어서,
상기 훈련 결과는,
상기 복수의 사용자 단말들이 훈련한 머신러닝 모델에 대한 파라미터를 포함하는 분산 훈련 방법.
According to claim 1,
The training results are
A distributed training method comprising parameters for a machine learning model trained by the plurality of user terminals.
제1항에 있어서,
상기 사용자 단말은,
상기 엣지 클라우드 서버가 제공하는 훈련 데이터 셋트 또는 상기 사용자 단말이 각각 수집한 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련하는 분산 훈련 방법.
According to claim 1,
The user terminal is
A distributed training method for training a machine learning model using a training data set provided by the edge cloud server or a training data set each collected by the user terminal.
제1항에 있어서,
상기 취합하는 단계는,
상기 복수의 사용자 단말들이 머신러닝 모델을 훈련한 결과를 평가하고, 일정 평가 기준을 만족하는 훈련 결과에 대해 머신러닝 모델을 업데이트하는 분산 훈련 방법.
According to claim 1,
The assembling step is
A distributed training method for evaluating a result of training the machine learning model by the plurality of user terminals, and updating the machine learning model for a training result that satisfies a predetermined evaluation criterion.
사용자 단말이 수행하는 분산 훈련 방법에 있어서,
엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치하는 경우, 엣지 클라우드 서버로부터 훈련을 위한 머신러닝 모델을 수신하는 단계;
훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련하는 단계;
상기 머신러닝 모델의 훈련이 완료되면, 머신러닝 모델에 대한 훈련 결과를 엣지 클라우드 서버에 전송하는 단계
를 포함하는 분산 훈련 방법.
In the distributed training method performed by the user terminal,
Receiving a machine learning model for training from the edge cloud server when located in the coverage of the local network of the edge cloud server;
training a machine learning model using the training data set;
When the training of the machine learning model is completed, transmitting the training result for the machine learning model to the edge cloud server
A distributed training method comprising
제7항에 있어서,
상기 사용자 단말들은,
엣지 클라우드 서버로부터 서로 동일한 속성의 머신러닝 모델을 수신하거나 또는 서로 다른 속성의 머신러닝 모델을 수신하는 분산 훈련 방법.
8. The method of claim 7,
The user terminals are
A distributed training method that receives machine learning models with the same properties or machine learning models with different properties from an edge cloud server.
제7항에 있어서,
상기 사용자 단말들은,
상기 사용자 단말의 현재 부하 상태 또는 현재 성능 상태를 고려하여 상기 머신러닝 모델의 훈련을 수행하는 분산 훈련 방법.
8. The method of claim 7,
The user terminals are
A distributed training method for performing training of the machine learning model in consideration of a current load state or a current performance state of the user terminal.
제7항에 있어서,
상기 훈련 결과는,
상기 복수의 사용자 단말들이 훈련한 머신러닝 모델에 대한 파라미터를 포함하는 분산 훈련 방법.
8. The method of claim 7,
The training results are
A distributed training method comprising parameters for a machine learning model trained by the plurality of user terminals.
제7항에 있어서,
상기 사용자 단말은,
상기 엣지 클라우드 서버가 제공하는 훈련 데이터 셋트 또는 상기 사용자 단말이 각각 수집한 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련하는 분산 훈련 방법.
8. The method of claim 7,
The user terminal is
A distributed training method for training a machine learning model using a training data set provided by the edge cloud server or a training data set each collected by the user terminal.
제7항에 있어서,
상기 엣지 클라우드 서버는,
상기 복수의 사용자 단말들이 머신러닝 모델을 훈련한 결과를 평가하고, 일정 평가 기준을 만족하는 훈련 결과에 대해 머신러닝 모델을 업데이트하는 분산 훈련 방법.
8. The method of claim 7,
The edge cloud server,
A distributed training method for evaluating a result of training the machine learning model by the plurality of user terminals, and updating the machine learning model for a training result that satisfies a predetermined evaluation criterion.
엣지 클라우드 서버에 있어서,
프로세서를 포함하고,
상기 프로세서는,
상기 엣지 클라우드 서버의 로컬 네트워크의 커버리지에 위치한 복수의 사용자 단말들을 식별하는 단계;
상기 복수의 사용자 단말들에게 훈련을 위한 머신러닝 모델을 제공하는 단계;
상기 머신러닝 모델의 훈련이 완료되면, 상기 복수의 사용자 단말로부터 머신러닝 모델에 대한 훈련 결과를 취합(aggregation)하는 단계
를 수행하는 엣지 클라우드 서버.
In the edge cloud server,
including a processor;
The processor is
identifying a plurality of user terminals located in coverage of a local network of the edge cloud server;
providing a machine learning model for training to the plurality of user terminals;
When training of the machine learning model is completed, aggregating training results for the machine learning model from the plurality of user terminals
Edge cloud server that does
제13항에 있어서,
상기 사용자 단말들은,
엣지 클라우드 서버로부터 서로 동일한 속성의 머신러닝 모델을 수신하거나 또는 서로 다른 속성의 머신러닝 모델을 수신하는 엣지 클라우드 서버.
14. The method of claim 13,
The user terminals are
An edge cloud server that receives machine learning models with the same properties or receives machine learning models with different properties from the edge cloud server.
제13항에 있어서,
상기 사용자 단말들은,
상기 사용자 단말의 현재 부하 상태 또는 현재 성능 상태를 고려하여 상기 머신러닝 모델의 훈련을 수행하는 엣지 클라우드 서버.
14. The method of claim 13,
The user terminals are
An edge cloud server that performs training of the machine learning model in consideration of a current load state or a current performance state of the user terminal.
제13항에 있어서,
상기 훈련 결과는,
상기 복수의 사용자 단말들이 훈련한 머신러닝 모델에 대한 파라미터를 포함하는 엣지 클라우드 서버.
14. The method of claim 13,
The training results are
Edge cloud server including parameters for the machine learning model trained by the plurality of user terminals.
제13항에 있어서,
상기 사용자 단말은,
상기 엣지 클라우드 서버가 제공하는 훈련 데이터 셋트 또는 상기 사용자 단말이 각각 수집한 훈련 데이터 셋트를 이용하여 머신러닝 모델을 훈련하는 엣지 클라우드 서버.
14. The method of claim 13,
The user terminal is
An edge cloud server for training a machine learning model using a training data set provided by the edge cloud server or a training data set collected by the user terminal, respectively.
제13항에 있어서,
상기 프로세서는,
상기 복수의 사용자 단말들이 머신러닝 모델을 훈련한 결과를 평가하고, 일정 평가 기준을 만족하는 훈련 결과에 대해 머신러닝 모델을 업데이트하는 엣지 클라우드 서버.
14. The method of claim 13,
The processor is
Edge cloud server for evaluating the results of the plurality of user terminals training the machine learning model, and for updating the machine learning model for the training result that satisfies a predetermined evaluation criterion.
KR1020210126550A 2020-09-24 2021-09-24 Distributed training method between terminal and edge cloud server KR20220041031A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/484,356 US20220092479A1 (en) 2020-09-24 2021-09-24 Distributed training method between terminal and edge cloud server

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200124250 2020-09-24
KR1020200124250 2020-09-24

Publications (1)

Publication Number Publication Date
KR20220041031A true KR20220041031A (en) 2022-03-31

Family

ID=80935066

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210126550A KR20220041031A (en) 2020-09-24 2021-09-24 Distributed training method between terminal and edge cloud server

Country Status (1)

Country Link
KR (1) KR20220041031A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102569454B1 (en) 2022-12-06 2023-08-23 한국전자통신연구원 Client model tarining method in decentralized learning environment and client device performing the same
WO2024031701A1 (en) * 2022-08-12 2024-02-15 富士通株式会社 Data acquisition method and apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024031701A1 (en) * 2022-08-12 2024-02-15 富士通株式会社 Data acquisition method and apparatus
KR102569454B1 (en) 2022-12-06 2023-08-23 한국전자통신연구원 Client model tarining method in decentralized learning environment and client device performing the same

Similar Documents

Publication Publication Date Title
Polese et al. ColO-RAN: Developing machine learning-based xApps for open RAN closed-loop control on programmable experimental platforms
Yoshida et al. Hybrid-FL for wireless networks: Cooperative learning mechanism using non-IID data
Chen et al. Spatio–temporal edge service placement: A bandit learning approach
Tran et al. COSTA: Cost-aware service caching and task offloading assignment in mobile-edge computing
CN110443375B (en) Method and device for federated learning
KR102008242B1 (en) Cloud-edge topologies
EP2966807B1 (en) Network usage monitoring and analytics for differentiated data services
KR20220041031A (en) Distributed training method between terminal and edge cloud server
US11689961B2 (en) Systems and methods for distribution of application logic in digital networks
KR102413047B1 (en) Cloud service broker and method thereof
CN107613309B (en) Live broadcast resource custom distribution method, storage medium, electronic device and system
CN103023928A (en) P2P (peer-to-peer) node matching system and method
CN107592304B (en) Live broadcast resource calculation and distribution method, storage medium, electronic device and system
CN103401938A (en) Resource distribution system based on service features under distributed cloud architecture and method thereof
CN115293358A (en) Internet of things-oriented clustered federal multi-task learning method and device
CN114556381A (en) Developing machine learning models
WO2021008675A1 (en) Dynamic network configuration
Ni et al. MSCET: A multi-scenario offloading schedule for biomedical data processing and analysis in cloud-edge-terminal collaborative vehicular networks
CN109743751A (en) The resource allocation methods and device of wireless access network
Ouyang et al. Application behaviors driven self-organizing network (SON) for 4G LTE networks
CN109993562B (en) Satisfaction degree simulation method and device and terminal equipment
CN115866059B (en) Block chain link point scheduling method and device
US11683715B2 (en) Multi-tenant wireless network management based on traffic monitoring
WO2017137089A1 (en) User equipment profiling for network administration
Deng et al. Rl-based radio resource slicing strategy for software-defined satellite networks