JP2022551104A - 不均一モデルタイプおよびアーキテクチャを使用した連合学習 - Google Patents
不均一モデルタイプおよびアーキテクチャを使用した連合学習 Download PDFInfo
- Publication number
- JP2022551104A JP2022551104A JP2022520637A JP2022520637A JP2022551104A JP 2022551104 A JP2022551104 A JP 2022551104A JP 2022520637 A JP2022520637 A JP 2022520637A JP 2022520637 A JP2022520637 A JP 2022520637A JP 2022551104 A JP2022551104 A JP 2022551104A
- Authority
- JP
- Japan
- Prior art keywords
- model
- layers
- layer
- global
- filters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000013016 learning Effects 0.000 title claims description 30
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000003062 neural network model Methods 0.000 claims abstract description 17
- 238000004821 distillation Methods 0.000 claims description 62
- 238000012549 training Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 238000012935 Averaging Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 22
- 238000013459 approach Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000035045 associative learning Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
を含み、インデックスiはj番目の層を有する異なるローカルモデルに及ぶものであり、Fiは特定のローカルモデルMiのj番目の層のフィルタ(または、フィルタのサブセット)のことを指す。
は連結、
はセットI={i}を表す。
のように表し得、数1はN個のフィルタに対して有効であり、ここで入力データ(in[k])のサイズはMで、フィルタ(c)のサイズはPで、1の刻み幅をもつ。即ち、in[k]はフィルタの入力(サイズM)のk番目の要素を表し、c[j]はフィルタ(サイズP)のj番目の要素である。また、説明のために、このCNNモデルでは1つの層のみが考慮される。上記の表示は、入力データとフィルタ係数との間に点乗積を保証する。この表現から、フィルタ係数cを、バックプロパゲーションを使用することによって学習することができる。通常、これらのフィルタの中から、少数(例えば、2つまたは3つ)のフィルタのみが良好に機能する。それゆえに、上の式は、良好に機能しているフィルタのサブセットNs(Ns≦N)のみに縮小することができる。これらのフィルタ(即ち、他のフィルタと比較して良好に機能するフィルタ)は、上記のように、様々な方法で取得され得る。
のように表し得、ここで、cmは、最良に機能するフィルタのサブセットからのフィルタのうち1つを表し、Wは最終層の重み付けのセットであり、bはバイアスであり、g(.)は最終層の活性化関数である。全結合層への入力は、層に進む前に平坦化されることになる。この方程式は、標準のバックプロパゲーション技術を使用して重み付けを計算するために、ユーザの各々に送信される。異なるユーザによって学習された重み付けが、W1、W2、......、WUであると仮定すると、ここで、Uは連合学習アプローチにおけるユーザの数であり、グローバルモデルの最終層の重み付けは、数3のように平均することによって決定され得る。
Claims (22)
- 中央ノードまたはサーバ上での方法であって、前記方法は、
第1のユーザデバイスから第1のモデルを受信し、第2のユーザデバイスから第2のモデルを受信することであって、前記第1のモデルが、ニューラルネットワークモデルタイプであり、かつ第1の層のセットを有し、前記第2のモデルが、前記ニューラルネットワークモデルタイプであり、かつ前記第1の層のセットとは異なる第2の層のセットを有する、ことと、
前記第1の層のセットの各層について、前記第1の層のセットの中の前記層から第1のフィルタのサブセットを選択することと、
前記第2の層のセットの各層について、前記第2の層のセットの中の前記層から第2のフィルタのサブセットを選択することと、
グローバルの層のセット中の各層について、前記層が、対応する前記第1のフィルタのサブセットおよび/または対応する前記第2のフィルタのサブセットに基づくフィルタを備えるように、前記第1の層のセットおよび前記第2の層のセットに基づいて前記グローバルの層のセットを形成することによってグローバルモデルを構成することと、
前記グローバルモデルに対する全結合層であって、前記グローバルの層のセットの最終層となる、全結合層を形成することと
を備える、方法。 - 前記グローバルモデルに対する前記全結合層に関した情報を、前記第1のユーザデバイスおよび前記第2のユーザデバイスを含む1つまたは複数のユーザデバイスに送信することと、
前記グローバルモデルに対する前記全結合層に関した前記情報を使用して、デバイス固有のローカルモデルをトレーニングする前記1つまたは複数のユーザデバイスの各々からの結果に対応する、1つまたは複数の係数のセットを、前記1つまたは複数のユーザデバイスから受信することと、
前記全結合層に対する新しい係数のセットを作成するために、前記1つまたは複数の係数のセットを平均することによって、前記グローバルモデルを更新することと
を更に備える、請求項1に記載の方法。 - 前記第1の層のセットの中の前記層から第1のフィルタのサブセットを選択することが、前記層からk個の最良のフィルタを決定することを備え、前記第1のサブセットが、決定された前記k個の最良のフィルタを備える、請求項1または2に記載の方法。
- 前記第2の層のセットの中の前記層から第2のフィルタのサブセットを選択することが、前記層からk個の最良のフィルタを決定することを備え、前記第2のサブセットが、決定された前記k個の最良のフィルタを備える、請求項1または2に記載の方法。
- 前記第1の層のセットおよび前記第2の層のセットに基づいてグローバルの層のセットを形成することが、
前記第1の層のセットおよび前記第2の層のセットに共通している各層について、対応する前記第1のフィルタのサブセットおよび対応する前記第2のフィルタのサブセットを連結することによって、前記グローバルモデル中の対応する層を生成することと、
前記第1の層のセットに固有である各層について、対応する前記第1のフィルタのサブセットを使用することによって、前記グローバルモデル中の対応する層を生成することと、
前記第2の層のセットに固有である各層について、対応する前記第2のフィルタのサブセットを使用することによって、前記グローバルモデル中の対応する層を生成することと
を備える、請求項1から4のいずれか一項に記載の方法。 - 第1のユーザデバイスおよび第2のユーザデバイスのうちの1つまたは複数に、そのそれぞれのローカルモデルを前記ニューラルネットワークモデルタイプに蒸留するように命令することを更に備える、請求項1から5のいずれか一項に記載の方法。
- 不均一モデルタイプおよび/またはアーキテクチャを備えた連合学習を利用するためのユーザデバイス上での方法であって、前記方法は、
ローカルモデルを第1の蒸留モデルに蒸留することであって、前記ローカルモデルが、第1のモデルタイプであり、前記第1の蒸留モデルが、前記第1のモデルタイプとは異なる第2のモデルタイプである、ことと、
前記第1の蒸留モデルをサーバに送信することと、
グローバルモデルを前記サーバから受信することであって、前記グローバルモデルが、前記第2のモデルタイプである、ことと、
前記グローバルモデルに基づいて前記ローカルモデルを更新することと
を備える、方法。 - ユーザデバイスで受信される新しいデータに基づいて前記ローカルモデルを更新することと、
更新された前記ローカルモデルを第2の蒸留モデルに蒸留することであって、前記第2の蒸留モデルが、前記第2のモデルタイプである、ことと、
前記第2の蒸留モデルの重み付き平均および前記第1の蒸留モデルを前記サーバに送信することと
を更に備える、請求項7に記載の方法。 - 前記第2の蒸留モデルの前記重み付き平均および前記第1の蒸留モデルが、W1+αW2によって与えられ、ここで、W1は、前記第1の蒸留モデルを表し、W2は、前記第2の蒸留モデルを表し、0<α<1である、請求項8に記載の方法。
- ローカルデータに基づいて前記グローバルモデルの最終層に対する係数を決定することと、
前記係数を中央ノードまたはサーバに送信することと
を更に備える、請求項7から9のいずれか一項に記載の方法。 - メモリと、
前記メモリに接続したプロセッサと
を備える、中央ノードまたはサーバであって、前記プロセッサは、
第1のユーザデバイスから第1のモデルを受信し、第2のユーザデバイスから第2のモデルを受信し、前記第1のモデルが、ニューラルネットワークモデルタイプであり、かつ第1の層のセットを有し、前記第2のモデルが、前記ニューラルネットワークモデルタイプであり、かつ前記第1の層のセットとは異なる第2の層のセットを有し、
前記第1の層のセットの各層について、前記第1の層のセットの中の前記層から第1のフィルタのサブセットを選択し、
前記第2の層のセットの各層について、前記第2の層のセットの中の前記層から第2のフィルタのサブセットを選択し、
グローバルの層のセット中の各層について、前記層が、対応する前記第1のフィルタのサブセットおよび/または対応する前記第2のフィルタのサブセットに基づくフィルタを備えるように、前記第1の層のセットおよび前記第2の層のセットに基づいて前記グローバルの層のセットを形成することによってグローバルモデルを構成し、
前記グローバルモデルに対する全結合層を形成し、前記全結合層が、前記グローバルの層のセットの最終層となるように設定される、中央ノードまたはサーバ。 - 前記プロセッサは、
前記グローバルモデルに対する前記全結合層に関した情報を、前記第1のユーザデバイスおよび前記第2のユーザデバイスを含む1つまたは複数のユーザデバイスに送信し、
1つまたは複数の係数のセットを前記1つまたは複数のユーザデバイスから受信し、前記1つまたは複数の係数のセットが、前記グローバルモデルに対する前記全結合層に関した前記情報を使用して、デバイス固有のローカルモデルをトレーニングする前記1つまたは複数のユーザデバイスの各々からの結果に対応し、
前記全結合層に対する新しい係数のセットを作成するために、前記1つまたは複数の係数のセットを平均することによって、前記グローバルモデルを更新する
ように更に設定される、請求項11に記載の中央ノードまたはサーバ。 - 前記第1の層のセットの中の前記層から第1のフィルタのサブセットを選択することが、前記層からk個の最良のフィルタを決定することを備え、前記第1のサブセットが、決定された前記k個の最良のフィルタを備える、請求項11または12に記載の中央ノードまたはサーバ。
- 前記第2の層のセットの中の前記層から第2のフィルタのサブセットを選択することが、前記層からk個の最良のフィルタを決定することを備え、前記第2のサブセットが、決定された前記k個の最良のフィルタを備える、請求項11または12に記載の中央ノードまたはサーバ。
- 前記第1の層のセットおよび前記第2の層のセットに基づいてグローバルの層のセットを形成することが、
前記第1の層のセットおよび前記第2の層のセットに共通している各層について、対応する前記第1のフィルタのサブセットおよび対応する前記第2のフィルタのサブセットを連結することによって前記グローバルモデル中の対応する層を生成することと、
前記第1の層のセットに固有である各層について、対応する前記第1のフィルタのサブセットを使用することによって、前記グローバルモデル中の対応する層を生成することと、
前記第2の層のセットに固有である各層について、対応する前記第2のフィルタのサブセットを使用することによって、前記グローバルモデル中の対応する層を生成することと
を備える、請求項11から14のいずれか一項に記載の中央ノードまたはサーバ。 - 前記プロセッサが、第1のユーザデバイスおよび第2のユーザデバイスのうちの1つまたは複数に、そのそれぞれのローカルモデルを前記ニューラルネットワークモデルタイプに蒸留するよう命令するように更に設定される、請求項11から15のいずれか一項に記載の中央ノードまたはサーバ。
- メモリと、
前記メモリに接続したプロセッサと
を備える、ユーザデバイスであって、前記プロセッサは、
ローカルモデルを第1の蒸留モデルに蒸留し、前記ローカルモデルが、第1のモデルタイプであり、前記第1の蒸留モデルが、前記第1のモデルタイプとは異なる第2のモデルタイプであり、
前記第1の蒸留モデルをサーバに送信し、
グローバルモデルを前記サーバから受信し、前記グローバルモデルが、前記第2のモデルタイプあり、
前記グローバルモデルに基づいて前記ローカルモデルを更新する
ように設定される、ユーザデバイス。 - 前記プロセッサは、
ユーザデバイスで受信される新しいデータに基づいて前記ローカルモデルを更新し、
更新された前記ローカルモデルを第2の蒸留モデルに蒸留し、前記第2の蒸留モデルが、前記第2のモデルタイプであり、
前記第2の蒸留モデルの重み付き平均および前記第1の蒸留モデルを前記サーバに送信する
ように更に設定される、請求項17に記載のユーザデバイス。 - 前記第2の蒸留モデルの前記重み付き平均および前記第1の蒸留モデルが、W1+αW2によって与えられ、ここで、W1は、前記第1の蒸留モデルを表し、W2は、前記第2の蒸留モデルを表し、0<α<1である、請求項18に記載のユーザデバイス。
- 前記プロセッサは、
ローカルデータに基づいて前記グローバルモデルの最終層に対する係数を決定し、
前記係数を中央ノードまたはサーバに送信する
ように更に設定される、請求項17から19のいずれか一項に記載のユーザデバイス。 - 命令を備えるコンピュータプログラムであって、前記命令は、処理回路によって実行されると、前記処理回路に、請求項1から10のいずれか一項に記載の方法を実施させる、コンピュータプログラム。
- 電子信号、光信号、無線信号、およびコンピュータ可読記憶媒体のうちの1つである、請求項21に記載のコンピュータプログラムをもつキャリア。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IN2019/050736 WO2021064737A1 (en) | 2019-10-04 | 2019-10-04 | Federated learning using heterogeneous model types and architectures |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022551104A true JP2022551104A (ja) | 2022-12-07 |
JP7383803B2 JP7383803B2 (ja) | 2023-11-20 |
Family
ID=75336973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022520637A Active JP7383803B2 (ja) | 2019-10-04 | 2019-10-04 | 不均一モデルタイプおよびアーキテクチャを使用した連合学習 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220351039A1 (ja) |
EP (1) | EP4038519A4 (ja) |
JP (1) | JP7383803B2 (ja) |
CN (1) | CN114514519A (ja) |
WO (1) | WO2021064737A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11431688B2 (en) | 2019-12-13 | 2022-08-30 | TripleBlind, Inc. | Systems and methods for providing a modified loss function in federated-split learning |
US11599671B1 (en) * | 2019-12-13 | 2023-03-07 | TripleBlind, Inc. | Systems and methods for finding a value in a combined list of private values |
US20220083917A1 (en) * | 2020-09-15 | 2022-03-17 | Vmware, Inc. | Distributed and federated learning using multi-layer machine learning models |
CN113112029B (zh) * | 2021-04-22 | 2022-09-16 | 中国科学院计算技术研究所 | 一种应用于异构计算设备的联邦学习系统和方法 |
CN113326947B (zh) * | 2021-05-28 | 2023-06-16 | 山东师范大学 | 一种联合学习模型训练方法及系统 |
JP7353328B2 (ja) | 2021-07-12 | 2023-09-29 | ヤフー株式会社 | 端末装置、情報処理方法及び情報処理プログラム |
US11792646B2 (en) | 2021-07-27 | 2023-10-17 | TripleBlind, Inc. | Systems and methods for providing a multi-party computation system for neural networks |
TW202319935A (zh) * | 2021-11-05 | 2023-05-16 | 財團法人資訊工業策進會 | 基於中介處理的聯邦學習方法及聯邦學習系統 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106462800A (zh) | 2014-04-11 | 2017-02-22 | 谷歌公司 | 使卷积神经网络的训练并行化 |
US20190012592A1 (en) * | 2017-07-07 | 2019-01-10 | Pointr Data Inc. | Secure federated neural networks |
US11201882B2 (en) * | 2017-11-30 | 2021-12-14 | Nec Corporation Of America | Detection of malicious network activity |
US11526745B2 (en) * | 2018-02-08 | 2022-12-13 | Intel Corporation | Methods and apparatus for federated training of a neural network using trusted edge devices |
-
2019
- 2019-10-04 WO PCT/IN2019/050736 patent/WO2021064737A1/en unknown
- 2019-10-04 CN CN201980101110.8A patent/CN114514519A/zh active Pending
- 2019-10-04 JP JP2022520637A patent/JP7383803B2/ja active Active
- 2019-10-04 EP EP19947809.0A patent/EP4038519A4/en active Pending
- 2019-10-04 US US17/766,025 patent/US20220351039A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4038519A4 (en) | 2023-07-19 |
JP7383803B2 (ja) | 2023-11-20 |
US20220351039A1 (en) | 2022-11-03 |
WO2021064737A1 (en) | 2021-04-08 |
EP4038519A1 (en) | 2022-08-10 |
CN114514519A (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7383803B2 (ja) | 不均一モデルタイプおよびアーキテクチャを使用した連合学習 | |
WO2022083536A1 (zh) | 一种神经网络构建方法以及装置 | |
WO2020094060A1 (zh) | 推荐方法及装置 | |
CN108351881A (zh) | 分布式最优化的系统和方法 | |
WO2018205999A1 (zh) | 一种数据处理方法及装置 | |
CN112948885B (zh) | 实现隐私保护的多方协同更新模型的方法、装置及系统 | |
CN116685985A (zh) | 具有多样化反馈的联合学习系统与方法 | |
CN115344883A (zh) | 一种用于处理不平衡数据的个性化联邦学习方法和装置 | |
CN111400504A (zh) | 企业关键人的识别方法和装置 | |
US20230297844A1 (en) | Federated learning using heterogeneous labels | |
CN116862012A (zh) | 机器学习模型训练方法、业务数据处理方法、装置及系统 | |
CN115249073A (zh) | 一种联邦学习方法以及装置 | |
US11843587B2 (en) | Systems and methods for tree-based model inference using multi-party computation | |
Nguyen et al. | Hcfl: A high compression approach for communication-efficient federated learning in very large scale iot networks | |
US20240095539A1 (en) | Distributed machine learning with new labels using heterogeneous label distribution | |
Gharibi et al. | Refinedfed: A refining algorithm for federated learning | |
Liu et al. | Multilevel Federated Learning based Intelligent Traffic Flow Forecasting for Transportation Network Management | |
US20230169402A1 (en) | Collaborative machine learning | |
US11539504B2 (en) | Homomorphic operation accelerator and homomorphic operation performing device including the same | |
WO2023026293A1 (en) | System and method for statistical federated learning | |
WO2022253454A2 (en) | Dimensioning of telecommunication infrastructure | |
Kwon et al. | Tighter regret analysis and optimization of online federated learning | |
CN114584471A (zh) | 一种基于联邦学习的网络数据分析功能的模型训练方法及装置 | |
CN116701972B (zh) | 业务数据处理方法、装置、设备以及介质 | |
CN112084422B (zh) | 一种账号数据智能处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7383803 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |