KR102413116B1 - Federated learning method based on layer characteristic of artificial neural network - Google Patents

Federated learning method based on layer characteristic of artificial neural network Download PDF

Info

Publication number
KR102413116B1
KR102413116B1 KR1020210170498A KR20210170498A KR102413116B1 KR 102413116 B1 KR102413116 B1 KR 102413116B1 KR 1020210170498 A KR1020210170498 A KR 1020210170498A KR 20210170498 A KR20210170498 A KR 20210170498A KR 102413116 B1 KR102413116 B1 KR 102413116B1
Authority
KR
South Korea
Prior art keywords
learning
terminal
parameter
transmit
federated
Prior art date
Application number
KR1020210170498A
Other languages
Korean (ko)
Inventor
이현석
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020210170498A priority Critical patent/KR102413116B1/en
Application granted granted Critical
Publication of KR102413116B1 publication Critical patent/KR102413116B1/en

Links

Images

Classifications

    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

인공 신경망의 계층 특성을 고려한 연합 학습 방법이 개시된다. 개시된 연합 학습 방법은 미리 설정된 개수의 라운드별로, 채널 상태를 이용하여, 연합 학습에 참여하는 학습 단말을 결정하는 단계; 상기 라운드별로, 상기 학습 단말 중에서, 로컬 학습 모델의 제1학습 파라미터를 전송할 단말을 지정하는 단계; 및 상기 라운드 각각에서 상기 학습 단말로부터, 로컬 학습 모델의 제1학습 파라미터 및 상기 로컬 학습 모델 중 얕은 계층의 제2학습 파라미터를 수신하는 단계를 포함하며, 현재 라운드까지의 상기 학습 단말의 개수에 대한 상기 제1학습 파라미터의 제1평균 전송 횟수는, 상기 제2학습 파라미터의 제2평균 전송 횟수 이하이다.A federated learning method in consideration of the hierarchical characteristics of an artificial neural network is disclosed. The disclosed federated learning method includes: determining a learning terminal participating in federated learning by using a channel state for each preset number of rounds; designating a terminal to transmit a first learning parameter of a local learning model from among the learning terminals for each round; and receiving, from the learning terminal in each of the rounds, a first learning parameter of a local learning model and a second learning parameter of a shallow layer among the local learning model, for the number of learning terminals up to the current round The first average number of transmissions of the first learning parameter is equal to or less than the second average number of transmissions of the second learning parameter.

Description

인공 신경망의 계층 특성에 기반한 연합 학습 방법{FEDERATED LEARNING METHOD BASED ON LAYER CHARACTERISTIC OF ARTIFICIAL NEURAL NETWORK}A federated learning method based on the hierarchical characteristics of an artificial neural network.

본 발명은 연합 학습 방법에 관한 발명으로서, 더욱 상세하게는 인공 신경망의 계층 특성을 고려한 연합 학습 방법에 관한 것이다. The present invention relates to a federated learning method, and more particularly, to a federated learning method in consideration of the hierarchical characteristics of an artificial neural network.

연합 학습(federated learning) 기술은 중앙 서버와 분산적 기기들에 공통의 학습 모델을 마련해놓고, 분산적 기기들이 각자의 로컬 데이터를 활용하여 자신의 로컬 학습 모델을 각자 학습하는 기술이다. 이후 분산적 기기들이 중앙 서버로 데이터를 직접적으로 전송하는 대신에 로컬 학습 모델을 전송하면, 중앙 서버가 분산적 기기들로부터 전송 받은 로컬 학습 모델들을 취합하여 글로벌 학습 모델을 업데이트한다. 이 같은 과정을 통해, 훈련 데이터를 직접적으로 전송하지 않고, 학습 모델의 학습 파라미터 정보만을 전송하여 학습이 이루어짐으로써, 통신 비용 및 개인정보보호 문제를 해결하면서도, 각 분산적 기기에서 획득하는 데이터를 모두 활용하여 학습을 진행한 것과 유사한 효과를 기대할 수 있다.The federated learning technology is a technology in which a common learning model is prepared for the central server and distributed devices, and the distributed devices learn their own local learning model by using their own local data. Then, when the distributed devices transmit the local learning model instead of directly sending data to the central server, the central server updates the global learning model by collecting the local learning models received from the distributed devices. Through this process, learning is performed by transmitting only the learning parameter information of the learning model without transmitting the training data directly, thereby solving the communication cost and personal information protection problem, while all data acquired from each distributed device It can be expected that the effect similar to that in the learning process using

연합 학습은 미리 설정된 개수의 라운드 별로 진행되며, 라운드 별로 연합 학습에 참여할 단말이 선택된다. 연합 학습에 참여하는 단말은 서버부터 전송된 로컬 학습 모델을 학습하고, 라운드 별로 로컬 학습 모델의 학습 파라미터를 서버로 전송한다. 여기서, 학습 파라미터는, 가중치, 그래디언트 등 학습을 통해 획득된 파라미터를 포함한다. The federated learning is performed by a preset number of rounds, and a terminal to participate in the federated learning is selected for each round. The terminal participating in the federated learning learns the local learning model transmitted from the server, and transmits the learning parameters of the local learning model to the server for each round. Here, the learning parameters include parameters obtained through learning, such as weights and gradients.

이러한 연합 학습 기술을 구현하기 위해, 하나의 액세스 포인트(access point, AP)와 다수의 단말로 이루어진, 무선 네트워크가 일반적으로 많이 고려되고 있다. 구체적으로 각 단말에서 학습된 로컬 학습 모델을 액세스 포인트에서 취합하는 형태로 연합 학습이 구현될 수 있다. 하지만 무선 네트워크에서 연합 학습 기술을 구현하게 되면, 무선 자원의 부족으로 인해서 모든 단말이 동시에 자신의 학습 모델을 액세스 포인트로 전송하기 어려운 문제가 있다. 이 같은 문제를 해결하기 위해, 무선 네트워크에서 연합 학습에 참여할 단말을 선택하고, 선택된 단말에 대한 무선 자원할당이 이루어져야 한다. In order to implement such a joint learning technique, a wireless network consisting of one access point (AP) and a plurality of terminals is generally considered a lot. Specifically, federated learning may be implemented in the form of collecting local learning models learned from each terminal in an access point. However, when the federated learning technique is implemented in a wireless network, there is a problem in that it is difficult for all terminals to simultaneously transmit their learning models to the access point due to the lack of radio resources. In order to solve this problem, a terminal to participate in federated learning in a wireless network is selected, and radio resource allocation to the selected terminal must be performed.

관련 선행문헌으로 특허 문헌인 대한민국 공개특허 제2021-0132500호, 제2021-0121915호, 대한민국 등록특허 제10-2197247호가 있다.As related prior documents, there are Korean Patent Publication Nos. 2021-0132500, 2021-0121915, and Korean Patent Registration No. 10-2197247, which are patent documents.

본 발명은 한정된 무선 자원 환경에서, 연합 학습에 참여할 단말의 선정과 무선 자원 할당을 효과적으로 수행할 수 있는 연합 학습 방법을 제공하기 위한 것이다.An object of the present invention is to provide a federated learning method capable of effectively performing radio resource allocation and selection of a terminal to participate in federated learning in a limited radio resource environment.

또한 본 발명은 보다 높은 학습 효율을 제공하는 연합 학습 방법을 제공하기 위한 것이다. Another object of the present invention is to provide a federated learning method that provides higher learning efficiency.

상기한 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 미리 설정된 개수의 라운드별로, 채널 상태를 이용하여, 연합 학습에 참여하는 학습 단말을 결정하는 단계; 상기 라운드별로, 상기 학습 단말 중에서, 로컬 학습 모델의 제1학습 파라미터를 전송할 단말을 지정하는 단계; 및 상기 라운드 각각에서 상기 학습 단말로부터, 로컬 학습 모델의 제1학습 파라미터 및 상기 로컬 학습 모델 중 얕은 계층의 제2학습 파라미터를 수신하는 단계를 포함하며, 현재 라운드까지의 상기 학습 단말의 개수에 대한 상기 제1학습 파라미터의 제1평균 전송 횟수는, 상기 제2학습 파라미터의 제2평균 전송 횟수 이하인, 인공 신경망의 계층 특성에 기반한 연합 학습 방법이 제공된다. According to an embodiment of the present invention for achieving the above object, for each preset number of rounds, using a channel state, determining a learning terminal participating in the federated learning; designating a terminal to transmit a first learning parameter of a local learning model from among the learning terminals for each round; and receiving, from the learning terminal in each of the rounds, a first learning parameter of a local learning model and a second learning parameter of a shallow layer among the local learning model, for the number of learning terminals up to the current round The first average number of transmissions of the first learning parameter is less than or equal to the second average number of transmissions of the second learning parameter, and there is provided a federated learning method based on layer characteristics of an artificial neural network.

또한 상기한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 액세스 포인트로부터 로컬 학습 모델을 수신하는 단계; 상기 로컬 학습 모델에 대한 학습을 수행하는 단계; 및 상기 로컬 학습 모델의 제1학습 파라미터 및 상기 로컬 학습 모델 중 얕은 계층의 제2학습 파라미터 중 적어도 하나를 상기 액세스 포인트로 전송하는 단계를 포함하며, 상기 제1학습 파라미터의 전송 횟수는 상기 제2학습 파라미터의 전송 횟수 이하인 인공 신경망의 계층 특성에 기반한 연합 학습 방법이 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, the method comprising: receiving a local learning model from an access point; performing learning on the local learning model; and transmitting at least one of a first learning parameter of the local learning model and a second learning parameter of a shallow layer among the local learning model to the access point, wherein the number of times of transmission of the first learning parameter is the second A federated learning method based on the layer characteristic of an artificial neural network that is less than or equal to the number of transmissions of a learning parameter is provided.

본 발명의 일실시예에 따르면 한정된 무선 자원 환경에서 채널 상태에 따라 학습 단말과 전체 학습 파라미터를 전송할 단말을 선정함으로써, 무선 자원을 효율적으로 이용할 수 있을 뿐만 아니라, 학습 효율을 높일 수 있도록 학습 단말과 전체 학습 파라미터를 전송할 단말이 선정될 수 있다.According to an embodiment of the present invention, by selecting a learning terminal and a terminal to transmit all learning parameters according to a channel state in a limited radio resource environment, the learning terminal and the learning terminal can be efficiently used and the learning efficiency can be increased. A terminal to transmit all learning parameters may be selected.

도 1은 본 발명의 일실시예에 따른 연합 학습을 수행하는 무선 네트워크를 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 인공 신경망의 계층 특성에 기반한 연합 학습 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 다른 실시예에 따른 인공 신경망의 계층 특성에 기반한 연합 학습 방법을 설명하기 위한 도면이다.
도 4 및 도 5는 본 발명의 일실시예에 따른 연합 학습 방법의 성능을 설명하기 위한 도면이다.
1 is a diagram for explaining a wireless network for performing federated learning according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a joint learning method based on the hierarchical characteristics of an artificial neural network according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a method for federated learning based on layer characteristics of an artificial neural network according to another embodiment of the present invention.
4 and 5 are diagrams for explaining the performance of the federated learning method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 연합 학습을 수행하는 무선 네트워크를 설명하기 위한 도면으로서, 이러한 무선 네트워크는 이동통신 네트워크, 무선랜 네트워크, 사물 인터넷 네트워크 등 액세스 포인트와 단말을 포함하는 모든 무선 네트워크를 포함한다. 도 1에서는 일실시예로서, 액세스 포인트(110) 및 3개의 단말(121 내지 123)이 포함된 사물 인터넷 네트워크가 일실시예로서 설명된다. 1 is a diagram for explaining a wireless network for performing federated learning according to an embodiment of the present invention. Such a wireless network includes all wireless networks including access points and terminals, such as a mobile communication network, a wireless LAN network, and an Internet of Things network. includes networks. In FIG. 1 , as an embodiment, an Internet of Things network including an access point 110 and three terminals 121 to 123 is described as an embodiment.

본 발명의 일실시예에 따른 액세스 포인트(110)는 네트워크에 포함된 단말(121 내지 123) 중에서, 연합 학습에 참여하는 학습 단말을 결정한다. 학습 단말은 채널 상태에 따라 결정되며, 학습 단말에 할당되는 무선 자원이 부족할 경우 단말이 액세스 포인트(110)로 학습 파라미터를 전송하지 못하기 때문에, 액세스 포인트(110)는 무선 자원을 할당하는 스케줄링 과정에서 학습 단말을 결정할 수 있다.The access point 110 according to an embodiment of the present invention determines a learning terminal participating in the federated learning from among the terminals 121 to 123 included in the network. The learning terminal is determined according to the channel state, and since the terminal cannot transmit the learning parameters to the access point 110 when the radio resources allocated to the learning terminal are insufficient, the access point 110 is a scheduling process for allocating radio resources It is possible to determine the learning terminal in.

단말(121 내지 123)은 채널 추정을 통해 획득된 채널 정보를 액세스 포인트(110)로 전송하고, 액세스 포인트(110)는 라운드 별로 채널 상태가 양호한 단말을 학습 단말로 결정하고, 해당 학습 단말에 무선 자원을 채널 상태에 따라 할당할 수 있다.The terminals 121 to 123 transmit channel information obtained through channel estimation to the access point 110, and the access point 110 determines a terminal having a good channel state as a learning terminal for each round, and wirelessly sends the learning terminal to the learning terminal. Resources can be allocated according to the channel state.

본 발명의 일실시예에 따른 학습 단말은 로컬 데이터를 이용하여, 액세스 포인트로부터 전송된 로컬 학습 모델을 학습한다. 그리고 로컬 학습 모델의 학습 파라미터를 액세스 포인트로 전송하면, 액세스 포인트는 수신된 학습 파라미터를 이용하여 글로벌 학습 모델을 업데이트한다.A learning terminal according to an embodiment of the present invention learns a local learning model transmitted from an access point using local data. And when the learning parameters of the local learning model are transmitted to the access point, the access point updates the global learning model using the received learning parameters.

한편, 인공 신경망인 로컬 학습 모델은 깊은 계층(deep layer)과 얕은 계층(shallow layer)으로 이루어질 수 있다. 은닉층의 개수가 적은 계층을 얕은 계층이라하며, 은닉층의 개수가 많은 계층을 깊은 계층이라고 한다. 예컨대, 로컬 학습 모델이 CNN(Convolution Neural Network)인 경우, 컨벌루션 레이어는 얕은 계층에 해당하며, 완전 연결 신경망은 깊은 계층에 해당한다.Meanwhile, the local learning model, which is an artificial neural network, may include a deep layer and a shallow layer. A layer with a small number of hidden layers is called a shallow layer, and a layer with a large number of hidden layers is called a deep layer. For example, when the local learning model is a Convolution Neural Network (CNN), a convolutional layer corresponds to a shallow layer, and a fully connected neural network corresponds to a deep layer.

얕은 계층은 입력 데이터에 대한 일반적인 특징 정보를 추출하는 역할을 수행하며, 일반 계층은 주어진 작업의 중요한 특징 정보를 추출하는 역할을 수행한다. 그리고 입력 계층의 학습 파라미터는 깊은 계층의 학습 파라미터에 비해 그 수가 적다. 이러한 인공 신경망의 계층 특성에 따라, 깊은 계층에 대한 학습 파라미터를 액세스 포인트로 전송하는 횟수보다, 얕은 계층에 대한 학습 파라미터를 액세스 포인트로 전송하는 횟수를 증가시키면, 전체 전송 용량은 줄어들면서도 보다 좋은 학습 효율이 달성될 수 있다. The shallow layer plays a role of extracting general characteristic information about the input data, and the general layer plays a role of extracting important characteristic information of a given task. And the number of learning parameters of the input layer is smaller than that of the deep layer. According to the layer characteristics of the artificial neural network, if the number of transmissions of the training parameters for the shallow layer to the access point is increased rather than the number of transmissions of the training parameters for the deep layer to the access point, the overall transmission capacity is reduced while better learning Efficiency can be achieved.

이러한 점에 착안하여 본 발명의 일실시예는 한정된 무선 자원을 효율적으로 이용하면서, 학습 효과를 높일 수 있는 연합 학습 방법을 제안한다.In view of this, an embodiment of the present invention proposes a federated learning method capable of increasing the learning effect while efficiently using a limited radio resource.

본 발명의 일실시예에 따른 액세스 포인트(110)는, 라운드별로 연합 학습에 참여하는 학습 단말을 결정할 뿐만 아니라, 학습 단말 중에서 로컬 학습 모델의 제1학습 파라미터를 전송할 단말을 지정한다. 제1학습 파라미터는 로컬 학습 모델의 깊은 계층 및 얕은 계층의 학습 파라미터를 모두 포함하며, 제1학습 파라미터를 전송할 단말은 채널 상태에 따라 결정될 수 있다. 제1학습 파라미터를 전송할 단말은, 얕은 계층에 대한 학습 파라미터 대비 많은 양의 데이터를 전송해야 하므로, 양호한 채널 상태의 단말이 제1학습 파라미터를 전송할 단말로 지정될 수 있다. 즉, 양호한 채널 상태의 단말이 학습 단말로 선정되고, 학습 단말 중에서 상대적으로 양호한 채널 상태의 단말이 제1학습 파라미터를 전송할 단말로 지정될 수 있다.The access point 110 according to an embodiment of the present invention not only determines a learning terminal participating in the federated learning for each round, but also designates a terminal to transmit the first learning parameter of the local learning model from among the learning terminals. The first learning parameter includes both the learning parameters of the deep layer and the shallow layer of the local learning model, and a terminal to transmit the first learning parameter may be determined according to a channel state. Since the terminal to transmit the first learning parameter needs to transmit a large amount of data compared to the learning parameter for the shallow layer, a terminal in a good channel state may be designated as a terminal to transmit the first learning parameter. That is, a terminal in a good channel state may be selected as a learning terminal, and a terminal in a relatively good channel state among the learning terminals may be designated as a terminal to transmit the first learning parameter.

본 발명의 일실시예에 따른 학습 단말은 라운드 각각에서 로컬 학습 모델 중 얕은 계층의 제2학습 파라미터를 액세스 포인트로 전송하며, 학습 단말 중 일부는 전술된 바와 같이, 제1학습 파라미터도 액세스 포인트로 전송한다.The learning terminal according to an embodiment of the present invention transmits the second learning parameter of the shallow layer of the local learning model to the access point in each round, and some of the learning terminals, as described above, also use the first learning parameter to the access point. send.

예컨대, 도 1의 제1 내지 제3단말(121 내지 123) 중, 제1 내지 제2단말(121, 122)의 채널 상태가 상대적으로 양호하며, 제1 및 제2단말(121, 122) 중 제1단말(121)의 채널 상태가 상대적으로 양호하다면, 제1 및 제2단말(121, 122)이 학습 단말로 선정되고, 제1단말(121)이 제1학습 파라미터를 전송할 단말로 선정될 수 있다.For example, among the first to third terminals 121 to 123 of FIG. 1 , the channel state of the first to second terminals 121 and 122 is relatively good, and among the first and second terminals 121 and 122 , the channel state is relatively good. If the channel state of the first terminal 121 is relatively good, the first and second terminals 121 and 122 are selected as learning terminals, and the first terminal 121 is selected as the terminal to transmit the first learning parameter. can

액세스 포인트(110)는 학습 단말 및 제1학습 파라미터를 전송할 단말로 선정된 단말에 대해 무선 자원을 할당하고, 선정 내용을 선정된 단말로 통지한다. 그리고 선정된 단말부터 학습 파라미터를 수신한다. The access point 110 allocates radio resources to the learning terminal and the terminal selected as the terminal to transmit the first learning parameter, and notifies the selection content to the selected terminal. And the learning parameters are received from the selected terminal.

결국 본 발명의 일실시예에 따르면 한정된 무선 자원 환경에서 채널 상태에 따라 학습 단말과 전체 학습 파라미터를 전송할 단말을 선정함으로써, 무선 자원을 효율적으로 이용할 수 있을 뿐만 아니라, 학습 효율을 높일 수 있도록 학습 단말과 전체 학습 파라미터를 전송할 단말이 선정될 수 있다.After all, according to an embodiment of the present invention, by selecting a learning terminal and a terminal to transmit all learning parameters according to a channel state in a limited radio resource environment, a learning terminal can efficiently use radio resources and increase learning efficiency. and a terminal to transmit all learning parameters may be selected.

도 2는 본 발명의 일실시예에 따른 인공 신경망의 계층 특성에 기반한 연합 학습 방법을 설명하기 위한 도면으로서, 도 2에서는 액세스 포인트에서 수행되는 연합 학습 방법이 일실시예로서 설명된다.FIG. 2 is a diagram for explaining a method for federated learning based on layer characteristics of an artificial neural network according to an embodiment of the present invention. In FIG. 2, a method for federated learning performed in an access point is described as an embodiment.

본 발명의 일실시예에 따른 액세스 포인트는 미리 설정된 개수의 라운드별로, 채널 상태를 이용하여, 연합 학습에 참여하는 학습 단말을 결정(S210)한다. 그리고 라운드별로, 학습 단말 중에서, 로컬 학습 모델의 제1학습 파라미터를 전송할 단말을 지정(S220)하며, 라운드 각각에서 학습 단말로부터, 로컬 학습 모델의 제1학습 파라미터 및 제2학습 파라미터를 수신(S230)한다. 학습 단말은 제2학습 파라미터를 액세스 포인트로 전송하며, 학습 단말 중 단계 S220에서 지정된 단말은, 제2학습 파라미터뿐만 아니라 제1학습 파라미터도 액세스 포인트로 전송한다. The access point according to an embodiment of the present invention determines ( S210 ) a learning terminal participating in the federated learning by using the channel state for each preset number of rounds. And for each round, from among the learning terminals, a terminal to transmit the first learning parameter of the local learning model is designated (S220), and the first learning parameter and the second learning parameter of the local learning model are received from the learning terminal in each round (S230) )do. The learning terminal transmits the second learning parameter to the access point, and the terminal designated in step S220 among the learning terminals transmits the first learning parameter as well as the second learning parameter to the access point.

이 때, 현재 라운드까지의 학습 단말의 개수에 대한 제1학습 파라미터의 제1평균 전송 횟수는, 제2학습 파라미터의 제2평균 전송 횟수 이하가 될 수 있다. 제1평균 전송 횟수는, 최초 라운드부터 현재 라운드까지 제1학습 파라미터를 전송하도록 지정된 총 단말의 개수와, 총 단말이 제1학습 파라미터를 전송한 총 회수의 비율에 대응되며, 제2평균 전송 횟수는 최초 라운드부터 현재 라운드까지 연합 학습에 참여한 총 학습 단말의 개수와, 총 학습 단말이 제2학습 파라미터를 전송한 총 회수의 비율에 대응된다.In this case, the first average number of transmissions of the first learning parameter with respect to the number of learning terminals up to the current round may be less than or equal to the second average number of transmissions of the second learning parameter. The first average number of transmissions corresponds to a ratio of the total number of terminals designated to transmit the first learning parameter from the first round to the current round and the total number of times that the total terminals transmit the first learning parameter, and the second average number of transmissions corresponds to the ratio of the total number of learning terminals participating in joint learning from the first round to the current round and the total number of times the total learning terminals transmit the second learning parameter.

얕은 계층은 로컬 학습 모델의 계층 중, 은닉층의 개수가 미리 설정된 임계 개수 이하인 계층으로서, 임계 개수는 실시예에 따라 조절될 수 있다.A shallow layer is a layer in which the number of hidden layers is less than or equal to a preset threshold among layers of the local learning model, and the number of thresholds may be adjusted according to embodiments.

단계 S220에서, 액세스 포인트는 제1평균 전송 횟수에 대한 목표값과 현재 라운드까지의 제1평균 전송 횟수의 차이에 따라서, 다음 라운드에서 제1학습 파라미터를 전송할 단말을 지정할 수 있다. 채널 상태 등에 따라 제1학습 파라미터를 전송하지 못하는 상황이 발생할 수 있으며, 이 경우 기대하는 학습 효율을 달성할 수 없으므로, 액세스 포인트는 다음 라운드에서 제1학습 파라미터를 전송할 단말의 개수를 결정한다.In step S220, the access point may designate a terminal to transmit the first learning parameter in the next round according to a difference between the target value for the first average number of transmissions and the first average number of transmissions up to the current round. A situation may occur in which transmission of the first learning parameter cannot be performed depending on the channel state, etc. In this case, since the expected learning efficiency cannot be achieved, the access point determines the number of terminals to transmit the first learning parameter in the next round.

예컨대 목표값이 10인데, 현재 라운드까지의 제1평균 전송 횟수가 9라면, 다음 라운드에서 제1학습 파라미터를 전송할 단말을 증가시켜 지정할 수 있다. 또는 목표값이 10인데, 현재 라운드까지의 제1평균 수신 횟수가 11라면, 제1학습 파라미터를 전송할 단말을 감소시켜 지정할 수 있다. 이 때, 채널 상태를 고려하여 단말을 지정할 수 있다.For example, if the target value is 10 and the first average number of transmissions up to the current round is 9, the number of terminals that will transmit the first learning parameter in the next round may be increased and designated. Alternatively, if the target value is 10 and the first average number of receptions up to the current round is 11, the number of terminals to transmit the first learning parameter may be decreased and designated. In this case, the terminal may be designated in consideration of the channel state.

그리고 액세스 포인트는 일실시예로서, 가상 전송 큐를 이용하여, 다음 라운드에서 제1학습 파라미터를 전송할 단말을 지정할 수 있다. 가상 전송 큐는 목표값과, 제1평균 전송 횟수의 차이에 따라, 길이가 늘어나거나 감소하는 큐로서, 제1평균 전송 횟수가 목표값보다 작으면 초기 길이보다 늘어나고 제1평균 전송 횟수가 목표값보다 크면 초기 길이보다 감소할 수 있다. 액세스 포인트는 현재 라운드 종료 이후, 가상 전송 큐의 길이가 초기 길이보다 늘어난 경우, 다음 라운드에서 제1학습 파라미터를 전송할 단말의 개수를 증가시키고, 가상 전송 큐의 길이가 초기 길이보다 감소한 경우, 다음 라운드에서 제1학습 파라미터를 전송할 단말의 개수를 감소시킨다.And, as an embodiment, the access point may designate a terminal to transmit the first learning parameter in the next round by using the virtual transmission queue. The virtual transmission queue is a queue whose length increases or decreases according to the difference between the target value and the first average number of transmissions. If it is larger than the initial length, it may be reduced. After the end of the current round, when the length of the virtual transmission queue is longer than the initial length, the access point increases the number of terminals to transmit the first learning parameter in the next round, and when the length of the virtual transmission queue decreases than the initial length, the next round reduces the number of terminals to transmit the first learning parameter.

[표 1]과 같이, 학습 단말과 제1학습 파라미터를 전송할 단말(지정 단말)의 개수가 결정되고, 제1평균 전송 횟수에 대한 목표값이 2이며, 현재 라운드인 제2라운드에서 1개의 지정 단말만이 제1학습 파라미터를 전송한 경우, 현재 라운드까지의 제1평균 전송 횟수는 1.5이며, 제2평균 전송 횟수는 6이다. 따라서 액세스 포인트는 다음 라운드인 제3라운드에서, 제1학습 파라미터를 전송할 단말의 개수를 3개로 증가시킴으로써, 제1평균 전송 횟수를 목표값까지 증가시킬 수 있다.As shown in [Table 1], the number of terminals (designated terminals) to transmit the learning terminal and the first learning parameter is determined, the target value for the first average number of transmissions is 2, and one designation is made in the second round, which is the current round. When only the terminal transmits the first learning parameter, the first average number of transmissions up to the current round is 1.5, and the second average number of transmissions is 6. Accordingly, in the next round, the third round, the access point may increase the number of terminals to transmit the first learning parameter to three, thereby increasing the first average number of transmissions to the target value.

제1라운드(최초)1st round (first time) 제2라운드(현재)Round 2 (current) 제3라운드(다음)3rd round (next) 학습 단말learning terminal 55 77 66 지정 단말Designated terminal 22 22 33

한편, 전술된 목표값은 제2평균 전송 횟수에, 0에서 1사이의 가중치가 곱해진 값 이상으로 결정될 수 있다. 에컨대, 가중치가 0.3이라면, 목표값은 제2평균 전송 횟수의 30% 이상의 값으로 결정될 수 있다. [표 1]에서, 제2평균 전송 횟수는 6이며, 따라서 목표값은 1.8 이상인 2로 결정될 수 있다.그리고 이러한 가중치는 로컬 학습 모델에 따라 결정될 수 있다. 일실시예로서 로컬 학습 모델의 깊은 계층의 학습 파라미터의 개수나, 로컬 학습 모델이 이용되는 태스크에 따라 가중치가 결정될 수 있다. 로컬 학습 모델의 깊은 계층의 파라미터의 개수가 적다면 가중치는 커질 수 있으며, 얕은 계층의 학습 파라미터가 중요한 태스크인 경우, 가중치는 작아질 수 있다.Meanwhile, the above-described target value may be determined to be greater than or equal to a value obtained by multiplying the second average number of transmissions by a weight between 0 and 1. For example, if the weight is 0.3, the target value may be determined to be 30% or more of the second average number of transmissions. In [Table 1], the second average number of transmissions is 6, and therefore, the target value may be determined to be 2, which is greater than or equal to 1.8. And this weight may be determined according to the local learning model. As an embodiment, a weight may be determined according to the number of learning parameters of a deep layer of the local learning model or a task in which the local learning model is used. If the number of parameters in the deep layer of the local learning model is small, the weight may be increased, and if the training parameter in the shallow layer is an important task, the weight may be small.

도 3은 본 발명의 다른 실시예에 따른 인공 신경망의 계층 특성에 기반한 연합 학습 방법을 설명하기 위한 도면으로서, 도 3에서는 학습 단말의 연합 학습 방법이 일실시예로서 설명된다.FIG. 3 is a diagram for explaining a method for federated learning based on layer characteristics of an artificial neural network according to another embodiment of the present invention. In FIG. 3, a method for federated learning of a learning terminal is described as an embodiment.

도 3을 참조하면 본 발명의 일실시예에 따른 학습 단말은 액세스 포인트로부터 로컬 학습 모델을 수신(S310)하고, 로컬 학습 모델에 대한 학습을 수행(S320)한다. 그리고 로컬 학습 모델의 제1학습 파라미터 및 로컬 학습 모델 중 얕은 계층의 제2학습 파라미터 중 적어도 하나를 액세스 포인트로 전송(S330)한다. Referring to FIG. 3 , the learning terminal according to an embodiment of the present invention receives a local learning model from an access point (S310) and performs learning on the local learning model (S320). Then, at least one of the first learning parameter of the local learning model and the second learning parameter of the shallow layer among the local learning model is transmitted to the access point (S330).

단계 S310에서 학습 모델은 제2학습 파라미터를 디폴트로 전송하고, 액세스 포인트의 요청에 따라, 선택적으로 제1학습 파라미터를 액세스 포인트로 전송할 수 있다. 그리고 제1학습 파라미터의 전송 여부는 채널 상태에 따라서 결정될 수 있다.In step S310, the learning model transmits the second learning parameter as a default, and according to the request of the access point, may selectively transmit the first learning parameter to the access point. In addition, whether to transmit the first learning parameter may be determined according to the channel state.

도 4 및 도 5는 본 발명의 일실시예에 따른 연합 학습 방법의 성능을 설명하기 위한 도면이다.4 and 5 are diagrams for explaining the performance of the federated learning method according to an embodiment of the present invention.

도 4 및 도 5는 30개의 무선 단말이 존재하는 네트워크 환경에서 MNIST 손글씨 인식 데이터셋을 훈련 데이터로 이용하여, CNN을 학습시킨 실험에 대한 결과를 나타낸다. 그리고 도 4 및 도 5에서 RR은 라운드 로빈 방식으로 제1학습 파라미터와 제2학습 파라미터가 전송되는 방식에 따른 연합 학습 방법을 나타내며, Max-ch는 최대 채널 이득을 나타내는 단말을 학습 단말로 선택하여 제1학습 파라미터를 전송하는 방식에 따른 연합 학습 방법을 나타낸다. 그리고 Myopic은 목표값 설정없이 제1학습 파라미터와 제2학습 파라미터가 전송되는 방식에 따른 연합 학습 방법을 나타내며, LAFLAS는 본 발명의 일실시예에 따른 연합 학습 방법을 나타낸다.4 and 5 show the results of an experiment in which a CNN is trained using the MNIST handwriting recognition dataset as training data in a network environment in which 30 wireless terminals exist. And in FIGS. 4 and 5 , RR indicates a federated learning method according to a method in which the first learning parameter and the second learning parameter are transmitted in a round robin manner, and Max-ch is a terminal showing the maximum channel gain by selecting the terminal showing the maximum channel gain as the learning terminal. A federated learning method according to a method of transmitting the first learning parameter is shown. And Myopic represents a federated learning method according to a method in which the first learning parameter and the second learning parameter are transmitted without setting a target value, and LAFLAS represents a federated learning method according to an embodiment of the present invention.

도 4(a)는 학습 손실, 도 4(b)는 실제 학습된 신경망의 정확도를 나타낸다. 도 4에서 확인할 수 있듯이, 본 발명의 일실시예에 따르면 가장 적은 학습 손실로 가장 빠르게 학습이 이루어진다. Fig. 4 (a) shows the learning loss, and Fig. 4 (b) shows the accuracy of the actually learned neural network. As can be seen from FIG. 4 , according to an embodiment of the present invention, learning is performed the fastest with the smallest learning loss.

그리고 도 5(a)는 글로벌 학습 모델의 목표 정확도를 만족하는 비율, 도 5(b)는 목표 정확도를 달성화기 위해 요구되는 평균적인 라운드 수를 나타낸다. 도 5에서 확인할 수 있듯이, 본 발명의 일실시예에 따르면 상대적으로 높은 목표 정확도를 만족하며, 보다 적은 라운드 수로 빠르게 학습이 이루어진다.And Fig. 5 (a) shows the ratio that satisfies the target accuracy of the global learning model, and Fig. 5 (b) shows the average number of rounds required to achieve the target accuracy. As can be seen in FIG. 5 , according to an embodiment of the present invention, a relatively high target accuracy is satisfied, and learning is performed quickly with a smaller number of rounds.

앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The technical contents described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but these are only provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , various modifications and variations are possible from these descriptions by those of ordinary skill in the art to which the present invention pertains. Therefore, the spirit of the present invention should not be limited to the described embodiments, and not only the claims to be described later, but also all those with equivalent or equivalent modifications to the claims will be said to belong to the scope of the spirit of the present invention. .

Claims (10)

미리 설정된 개수의 라운드별로, 채널 상태를 이용하여, 연합 학습에 참여하는 학습 단말을 결정하는 단계;
상기 라운드별로, 상기 학습 단말 중에서, 로컬 학습 모델의 제1학습 파라미터를 전송할 단말을 지정하는 단계; 및
상기 라운드 각각에서 상기 지정된 학습 단말로부터, 로컬 학습 모델의 제1학습 파라미터를 수신하고, 상기 학습 단말 중에서, 미지정된 학습 단말로부터, 상기 로컬 학습 모델 중 얕은 계층의 제2학습 파라미터를 수신하는 단계를 포함하며,
현재 라운드까지의 상기 학습 단말의 개수에 대한 상기 제1학습 파라미터의 제1평균 전송 횟수는, 상기 제2학습 파라미터의 제2평균 전송 횟수 이하이며,
상기 제1학습 파라미터를 전송할 단말을 지정하는 단계는
상기 제1평균 전송 횟수에 대한 목표값과 상기 현재 라운드까지의 상기 제1평균 전송 횟수의 차이에 따라서, 다음 라운드에서 상기 제1학습 파라미터를 전송할 단말을 지정하는
인공 신경망의 계층 특성에 기반한 연합 학습 방법.
determining a learning terminal participating in federated learning by using a channel state for each preset number of rounds;
designating a terminal to transmit a first learning parameter of a local learning model from among the learning terminals for each round; and
Receiving a first learning parameter of a local learning model from the designated learning terminal in each of the rounds, and from an unspecified learning terminal among the learning terminals, receiving a second learning parameter of a shallow layer of the local learning model includes,
The first average number of transmissions of the first learning parameter with respect to the number of the learning terminals up to the current round is less than or equal to the second average number of transmissions of the second learning parameter,
The step of designating a terminal to transmit the first learning parameter is
Designating a terminal to transmit the first learning parameter in the next round according to the difference between the target value for the first average number of transmissions and the first average number of transmissions up to the current round
A federated learning method based on the hierarchical characteristics of artificial neural networks.
삭제delete 제 1항에 있어서,
상기 제1학습 파라미터를 전송할 단말을 지정하는 단계는
상기 목표값과, 상기 제1평균 전송 횟수의 차이에 따라, 길이가 늘어나거나 감소하는 가상 전송 큐를 이용하여, 상기 다음 라운드에서 상기 제1학습 파라미터를 전송할 단말을 지정하는
인공 신경망의 계층 특성에 기반한 연합 학습 방법.
The method of claim 1,
The step of designating a terminal to transmit the first learning parameter is
Designating a terminal to transmit the first learning parameter in the next round using a virtual transmission queue that increases or decreases in length according to a difference between the target value and the first average number of transmissions
A federated learning method based on the hierarchical characteristics of artificial neural networks.
제 1항에 있어서,
상기 목표값은
상기 제2평균 전송 횟수에, 0에서 1사이의 가중치가 곱해진 값 이상의 값인
인공 신경망의 계층 특성에 기반한 연합 학습 방법.
The method of claim 1,
The target value is
A value greater than or equal to the value obtained by multiplying the second average number of transmissions by a weight between 0 and 1.
A federated learning method based on the hierarchical characteristics of artificial neural networks.
제 4항에 있어서,
상기 가중치는
상기 로컬 학습 모델에 따라 결정되는
인공 신경망의 계층 특성에 기반한 연합 학습 방법.
5. The method of claim 4,
the weight is
determined according to the local learning model
A federated learning method based on the hierarchical characteristics of artificial neural networks.
제 1항에 있어서,
상기 제1학습 파라미터를 전송할 단말을 지정하는 단계는
상기 채널 상태에 따라서, 상기 제1학습 파라미터를 전송할 단말을 지정하는
인공 신경망의 계층 특성에 기반한 연합 학습 방법.
The method of claim 1,
The step of designating a terminal to transmit the first learning parameter is
Designating a terminal to transmit the first learning parameter according to the channel state
A federated learning method based on the hierarchical characteristics of artificial neural networks.
제 1항에 있어서,
상기 얕은 계층은
상기 로컬 학습 모델의 계층 중, 은닉층의 개수가 미리 설정된 임계 개수 이하인 계층인
인공 신경망의 계층 특성에 기반한 연합 학습 방법.
The method of claim 1,
The shallow layer is
Among the layers of the local learning model, a layer in which the number of hidden layers is less than or equal to a preset threshold number
A federated learning method based on the hierarchical characteristics of artificial neural networks.
삭제delete 삭제delete 삭제delete
KR1020210170498A 2021-12-02 2021-12-02 Federated learning method based on layer characteristic of artificial neural network KR102413116B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210170498A KR102413116B1 (en) 2021-12-02 2021-12-02 Federated learning method based on layer characteristic of artificial neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210170498A KR102413116B1 (en) 2021-12-02 2021-12-02 Federated learning method based on layer characteristic of artificial neural network

Publications (1)

Publication Number Publication Date
KR102413116B1 true KR102413116B1 (en) 2022-06-23

Family

ID=82222037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210170498A KR102413116B1 (en) 2021-12-02 2021-12-02 Federated learning method based on layer characteristic of artificial neural network

Country Status (1)

Country Link
KR (1) KR102413116B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102644669B1 (en) 2023-08-14 2024-03-06 재단법인 서울디지털재단 Federated learning method and system for enhanced learning converges speed

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860954B1 (en) * 2019-08-27 2020-12-08 Capital One Services, Llc Roomfinder platform
KR20210066754A (en) * 2019-11-28 2021-06-07 경희대학교 산학협력단 Method of generating deep learning model for user characteristic analysis using federated learning
KR20210067911A (en) * 2019-11-29 2021-06-08 경희대학교 산학협력단 Multiple federated learning service orchestrator in edge computing and method of performing thereof
KR20210132500A (en) * 2020-04-27 2021-11-04 한국전자기술연구원 Federated learning system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860954B1 (en) * 2019-08-27 2020-12-08 Capital One Services, Llc Roomfinder platform
KR20210066754A (en) * 2019-11-28 2021-06-07 경희대학교 산학협력단 Method of generating deep learning model for user characteristic analysis using federated learning
KR20210067911A (en) * 2019-11-29 2021-06-08 경희대학교 산학협력단 Multiple federated learning service orchestrator in edge computing and method of performing thereof
KR20210132500A (en) * 2020-04-27 2021-11-04 한국전자기술연구원 Federated learning system and method

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Kim Seon-wook et al., "Implementation of Federated Learning Using Stochastic Sampling Based on Data Distribution Estimation to Solve Statistical Heterogeneity Problems," Journal of the Korean Association for Telecommunications, 46(11), pp. 1941-1949, 2021.11, *
Naoya Yoshida et al.,"MAB-based Client Selection for Federated Learning with Uncertain Resources in Mobile Networks", 2020 IEEE Globecom Workshops, 2020.12.7-11. *
Naoya Yoshida 등,"MAB-based Client Selection for Federated Learning with Uncertain Resources in Mobile Networks", 2020 IEEE Globecom Workshops, 2020.12.7-11.
Sawsan Abdulrahman et al., "FedMCCS: Multicriteria Client Selection Model for Optimal IoT Federated Learning", IEEE Internet of Things Journal, Vol.8, No. 6, 2021.03.15. *
Sawsan Abdulrahman 등, "FedMCCS: Multicriteria Client Selection Model for Optimal IoT Federated Learning", IEEE Internet of Things Journal, Vol.8, No. 6, 2021.03.15.
Yang Chen et al., "Communication-Efficient Federated Deep Learning With Layerwise Asynchronous Model Update and Temporally Weighted Aggregation", IEEE TRAN. ON NNLS, VOL. 31, NO. 10, 2020.10. *
Yang Chen 등, "Communication-Efficient Federated Deep Learning With Layerwise Asynchronous Model Update and Temporally Weighted Aggregation", IEEE TRAN. ON NNLS, VOL. 31, NO. 10, 2020.10. 1부.*
김선욱 등,"통계적 이질성 문제 해결을 위한 데이터 분포 추정 기반 확률적 샘플링 기법을 적용한 연합학습 구현", 한국통신학회논문지, 46(11), pp. 1941-1949, 2021.11,

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102644669B1 (en) 2023-08-14 2024-03-06 재단법인 서울디지털재단 Federated learning method and system for enhanced learning converges speed

Similar Documents

Publication Publication Date Title
CN109947545B (en) Task unloading and migration decision method based on user mobility
CN111240701B (en) Task unloading optimization method for end-side-cloud collaborative computing
KR101990685B1 (en) Method and apparatus for power and user distribution to sub-bands in noma systems
KR102030128B1 (en) Resource allocating method for wireless backhaul network and apparatus based on machine learning
CN102318230B (en) Method for detecting distributed peer to transmit multimedia data in wireless peer-to-peer network
US20230046764A1 (en) User plane function (upf) load balancing based on current upf load and thresholds that depend on upf capacity
CN113038616B (en) Frequency spectrum resource management and allocation method based on federal learning
KR102413116B1 (en) Federated learning method based on layer characteristic of artificial neural network
CN110418399A (en) A kind of car networking resource allocation methods based on NOMA
CN111459662A (en) Migration management method, device and storage medium in mobile edge calculation
Fanghänel et al. Online capacity maximization in wireless networks
CN108307412B (en) User-centered ultra-dense network interference management method based on grouping game
Li et al. Lyapunov optimized resource management for multiuser mobile video streaming
CN103561103B (en) The control method of business migration and device
CN113727278B (en) Path planning method, access network equipment and flight control equipment
KR20230041031A (en) Power control method, device, communication node and storage medium
CN113692052A (en) Network edge machine learning training method
CN110035539B (en) Resource optimization allocation method and device based on relevant balanced regret value matching
Dams et al. Convergence time of power-control dynamics
CN116367310A (en) Maximum gain oriented channel allocation method for mobile edge calculation
CN114666409B (en) Service migration method based on cache management in edge computing environment
Mehta Recursive quadratic programming for constrained nonlinear optimization of session throughput in multiple‐flow network topologies
CN113873525A (en) Task unloading method and terminal for ultra-dense edge computing network
KR101677400B1 (en) Resource allocation method based on bargaining solutions using a direction vector and resource allocation apparatus for performing the method
TWI615051B (en) Scheduling device and method

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant