JP7389177B2 - 連合学習方法、装置、機器及び記憶媒体 - Google Patents
連合学習方法、装置、機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7389177B2 JP7389177B2 JP2022111567A JP2022111567A JP7389177B2 JP 7389177 B2 JP7389177 B2 JP 7389177B2 JP 2022111567 A JP2022111567 A JP 2022111567A JP 2022111567 A JP2022111567 A JP 2022111567A JP 7389177 B2 JP7389177 B2 JP 7389177B2
- Authority
- JP
- Japan
- Prior art keywords
- task
- terminal device
- model
- sample
- resource information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 75
- 238000003860 storage Methods 0.000 title claims description 14
- 238000012549 training Methods 0.000 claims description 99
- 230000002787 reinforcement Effects 0.000 claims description 84
- 230000008569 process Effects 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 28
- 238000009826 distribution Methods 0.000 claims description 17
- 230000007613 environmental effect Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000005457 optimization Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/547—Remote procedure calls [RPC]; Web services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本開示の第1態様によれば、連合学習方法であって、連合学習システムにおけるサーバに応用され、前記連合学習システムは前記サーバと複数の端末装置を含み、前記連合学習システムは複数のタスクを達成するために用いられ、前記方法は、前記連合学習システムにおける各タスクに対して、それぞれ、
複数の端末装置のリソース情報を取得するステップS1、
前記リソース情報を利用して、前記タスクに対応するターゲット端末装置を確定するステップS2、
前記ターゲット端末装置によって、前記タスクに対応するグローバルモデルを、前記グローバルモデルがプリセット条件を満たすまでトレーニングするステップS3を実行することを含む連合学習方法を提供する。
複数の端末装置のリソース情報を取得するために用いられる第1取得モジュールと、
前記リソース情報を利用して、前記タスクに対応するターゲット端末装置を確定するために用いられる確定モジュールと、
前記ターゲット端末装置によって、前記タスクに対応するグローバルモデルを、前記グローバルモデルがプリセット条件を満たすまでトレーニングするために用いられるタスクトレーニングモジュールとを備える連合学習装置を提供する。
少なくとも1つのプロセッサ、及び
前記少なくとも1つのプロセッサに通信接続されるメモリを備え、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサに第1態様に記載の方法を実行させる電子機器を提供する。
本開示の第5態様によれば、プロセッサによって実行されると、第1態様に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供する。
理解すべきことは、この部分に説明される内容は、本開示の実施例の要点又は重要な特徴を特定することを意図しておらず、本開示の保護範囲を限定するためのものではないことである。本開示の他の特徴は、以下の明細書によって理解されやすくなる。
本開示の実施例は連合学習方法を提供し、連合学習システムにおけるサーバに応用され、連合学習システムはサーバ及び複数の端末装置を含み、連合学習システムは複数のタスクを達成するために用いられ、図1に示すように、該方法は、
連邦学習システムにおける各タスクに対して、それぞれ、
複数の端末装置のリソース情報を取得するステップS1、
リソース情報を利用して、タスクに対応するターゲット端末装置を確定するステップS2、
ターゲット端末装置によって、グローバルモデルがプリセット条件を満たすまで、タスクに対応するグローバルモデルをトレーニングするステップS3を実行することを含む。
連合学習における複数のタスクは、画像分類、音声認識、テキスト生成などのタスクを含むことができる。画像分類のタスクは画像分類のためのモデルを学習すること、音声認識は音声認識のためのモデルを学習すること、テキスト生成のタスクはテキスト生成のためのモデルを学習することと理解できる。
S1、複数の端末装置のリソース情報を取得する。
各端末装置について、該端末装置のリソース情報は、メモリ、CPU情報、GPU情報及びローカルデータのサイズなどの少なくとも1つを含む。
サーバはタスクに対応するグローバルモデルをタスクに対応するターゲット端末装置に配信し、各ターゲット端末装置はグローバルモデルをトレーニングしてモデルパラメータを得て、且つ得られたモデルパラメータをサーバにそれぞれアップロードする。サーバは各ターゲット端末装置から返信されたモデルパラメータを受信する。各ターゲット端末装置から返信されたモデルパラメータを集約して、更新されたグローバルモデルを得る。そして、更新されたグローバルモデルがプリセット条件を満たすか否かを判断し、プリセット条件を満たす場合、反復を終了し、該タスクは完了する。プリセット条件を満たさない場合、更新されたグローバルモデルをターゲット端末装置に継続して配信し、各ターゲット端末装置は、更新されたグローバルモデルがプリセット条件を満たすまで、更新されたグローバルモデルをトレーニングし続ける。ここで、プリセット条件は、予め設定された性能であってもよく、例えば、損失関数が収束し、損失関数精度が予め設定された精度値、例えば、0.9などに達することであってもよい。異なるタスクに対応するグローバルモデルが満たす必要があるプリセット条件は、異なっていてもよい。
グローバルモデルがプリセット条件を満たしていないことに応答して、S1に戻り、S1、S2、S31、及びS32を、グローバルモデルがプリセット条件を満たすまで継続して実行する。
S1、複数の端末装置のリソース情報を取得する。
ターゲット端末装置によって、グローバルモデルがプリセット条件を満たすまで、タスクに対応するグローバルモデルをトレーニングする。
端末装置はグローバルモデルと反復回数を受信した後、ローカルデータを利用してグローバルモデルをトレーニングし、且つトレーニング過程中に該反復回数を反復した後にトレーニングを終了し、モデルパラメータを得る。
リソース情報を予めトレーニングされた強化学習モデルに入力し、強化学習モデルによりタスクに対応するターゲット端末装置を得ることを含む。
別の実現可能な方式では、強化学習モデルは、各タスクが端末装置にそれぞれ対応する確率を出力し、各タスクについて、該タスクが各端末装置に対応する確率に応じて各端末装置をソーティングしてもよく、例えば、高いものから低いものへ、又は低いものから高いものへの順でソーティングし、高いものから低いものへの順でソーティングすれば、前にソーティングした予め設定された数の端末装置を該タスクが対応するターゲット端末装置として選択し、低いものから高いものへの順でソーティングすれば、後ろにソーティングした予め設定された数の端末装置を該タスクが対応するターゲット端末装置として選択してもよい。
S11、サンプルタスクの特性情報を取得する。
S12、サンプルタスクが使用可能なサンプル端末装置セット、及びサンプル端末装置セットの各サンプル端末装置のリソース情報を取得する。
該モデルは、例えば、長短期記憶ネットワーク(Long Short-Term Memory,LSTM)のような深層学習ネットワークであってもよい。
サンプル端末装置を確率の高いものから低いものへの順でソーティングし、得られたソーティング結果が確率の高いものから低いものへの順でソーティングされた複数のサンプル端末装置であれば、前にソーティングした予め設定された数のサンプル端末装置をサンプルタスクに対応するスケジューリングデバイスとして選択することができる。
このようにして、モデルによって、サンプルタスクがそれぞれ各サンプル端末装置に対応する確率を得ることができる。そして、確率に応じてサンプル端末装置をサンプルタスクに対応するスケジューリングデバイスとして選択する。確率は、モデルが環境状態、即ちタスクの特性情報と端末装置のリソース新情報を根拠とし、即ちモデルのトレーニング過程でタスクの特性情報と端末装置のリソース新情報を考慮することであり、これにより、より合理的にタスクのためにデバイスをスケジューリングし、トレーニングのレートを向上させることができる。また、トレーニングによって得られたモデルがより正確にタスクのためにターゲット端末装置を確定することができる。
1つの実現可能な方式において、報酬関数は、
更新されたモデルが反復終了条件を満たしていなければ、S12に戻り、更新されたモデルで上記モデルを置き換え、更新されたモデルが反復終了条件を満たすまでS12からS16を繰り返し実行して、トレーニング済み強化学習モデルを得る。
各端末装置は全てのタスクのデータセットを有し、マルチタスク連合学習は、異なるタスクの損失関数によって、対応するデータセットからそれぞれのモデルパラメータwmを学習するものである。マルチタスク連合学習のグローバル学習問題は以下の式で表すことができる。
端末装置がグローバルモデルを受信した後、端末装置が1ラウンドのグローバルトレーニングを完了するのに要する時間は主に計算時間tk,m cpと通信時間tk,m cmによって確定される。任意のタスクに対し、グローバルトレーニングの各ラウンドに必要な時間は、選択された最も遅い速度の端末装置によって確定される。端末装置とサーバとの通信が並行していると仮定すると、1ラウンドのグローバルトレーニングに必要な総時間は以下のとおりである。
理想的には、即ち、全ての端末装置のリソース及び状態は不変のままであり、サーバは、全ての端末装置のリソース情報に基づいて、全てのラウンドのトレーニングを完了するのに必要な端末装置を各タスクに一度スケジューリングすることができる。しかしながら、いくつかの用途では、例えばエッジ計算環境では、エッジデバイスのリソース及び状態が変化する可能性がある。例えば、端末装置は現在アイドルであり、利用可能であるが、一定の時間後、デバイスはビジーであり且つ利用不可能であるか、又はリソースの一部が占有されている可能性がある。従って、全てのデバイススケジューリングを一度に完成させることは現実的ではなく、本開示の実施例は貪欲アルゴリズムの思想を採用し、近似解を得る。サーバは、全ての利用可能な端末装置の現在のデバイス情報に基づいて、トレーニングされるべきタスクのために現在ラウンドに必要なターゲット端末装置をスケーリングし、現在の時間ノードで、全てのタスクに必要なトレーニング時間が最短であることを確保する。即ち、各タスクは、各ラウンドのトレーニング中に端末装置をスケジューリングするようにサーバに要求する。
即ち、各タスクがそれぞれ対応するグローバルモデルを初期化する。
ステップA4、タスクのサービスプログラムは異なるデバイスのリソース情報を受信した後、サーバのスケジューリングポリシーによって現在のタスクに対して現在のラウンドのトレーニングに必要なデバイスをスケジューリングする。
マルチタスクリソーススケジューリングステップにおいて、サーバは取得した全てのデバイスリソース情報に基づいて、深層強化学習に基づくデバイススケジューリングアルゴリズムを実行し、即ちトレーニング済みの強化学習モデルを呼び出して現在のタスクに対して効率的なスケジューリングスキームを自動的に生成して現在のラウンドのグローバルトレーニングを完成し、ここではラウンドごとのスケジューリングスキームに含まれるデバイスの数は固定的ではなく、スケジューリングアルゴリズムは自己学習によって確定される。次いで、サーバは、現在のタスクの最新のグローバルモデル及び異なるデバイス更新モデルに必要なローカル反復回数をステップ4で選択されたデバイスに送信し、選択されたデバイスは、ローカルデータを使用して受信されたグローバルモデルを更新する。これらのデバイスのリソース及びローカルデータ分布の違いにより、サーバはデバイスのリソース情報に基づいて、選択されたデバイスに対してローカル更新の反復回数を指定して、グローバルモデルをより迅速に収束させる必要がある。最後に、サーバは、新しいグローバルモデルを得るために、現在のタスクの全ての選択されたデバイスの更新を集約し、これにより、1ラウンドのトレーニングが完了する。このプロセスでは、複数のタスクが互いに待つことなく並行に実行され、各タスクは、グローバルモデルが期待される性能又は収束に達する前に、初期化ステップ以外の全ての上述のステップを繰り返す。
各前記タスクの特性情報、複数の端末装置のリソース情報及び複数の端末装置からなるデバイスセットを強化学習モデルの環境状態とし、且つ奨励関数に基づいて強化学習モデルを更新することと、
グローバルモデルがプリセット条件を満たしていないことに応答して、S1に戻り、S1、S2、S31、S32を継続して実行し、リソース情報を利用して、タスクに対応するターゲット端末装置を確定することとを更に含むことができる。
各端末装置に対して、端末装置がタスクのトレーニングに参与する参与頻度を確定することと、参与頻度が予め設定された参与頻度閾値より小さいことに応答して、端末装置をタスクに対応する利用可能な端末装置とすることと、利用可能な端末装置のリソース情報を取得することを含む。
静的スケジューリングモードに対して、本開示の実施例は、連合学習方式を提供する。具体的には、以下のステップを含むことができる。
ステップB2、利用不可なデバイスセットHm中のデバイス数は全デバイス数
利用不可なデバイスセットを確定する際に参与頻度の制限パラメータNm、即ち、参与頻度閾値を導入することができる。
ステップB3、利用不可なデバイスセットHm中のデバイスを利用可能なデバイスセットΘm rから除去する。
ステップB5、デバイスセットsm rにおけるデバイスがタスクmのトレーニングに参加する頻度Fk mを統計する。
静的スケジューリングモードでは、事前トレーニング済みの強化学習モデルを、連合学習環境に直接ロードして、現在のラウンドのトレーニングに必要なデバイスを各タスクのためにスケジューリングし、その後、このモデルはトレーニングされなくなる。また、デバイス参与の公平性のために、一部のデバイスの過度参与によるタスクモデルの過度フィッティングを防止し、タスクモデルの収束速度を向上させるために、各タスクデバイスの参与頻度の制限Nmを導入することができる。
ステップC1、タスクmの利用不可なデバイスセットHm及びデバイスがタスクmのトレーニングに参与する頻度Fk mを初期化する。
ステップC3、利用不可なデバイスセットHm中のデバイスを利用可能なデバイスセットΘm rから除去する。
ステップC5、デバイスセットsm rにデバイスがタスクmのトレーニングに参加する頻度Fk mを統計する。
このとき、トレーニングモードと理解され、上記強化学習モデルを呼び出してデバイスをスケジューリングした後、強化学習モデルの更新を継続する。
ステップC7、タスクmのスケジューリングデバイスセットsm rを返す。
複数の端末装置のリソース情報を取得するために用いられる第1取得モジュール601と、
リソース情報を利用して、タスクに対応するターゲット端末装置を確定するために用いられる確定モジュール602と、
ターゲット端末装置によって、グローバルモデルがプリセット条件を満たすまで、タスクに対応するグローバルモデルをトレーニングするために用いられるタスクトレーニングモジュール603とを備える。
タスクに対応するグローバルモデルをタスクに対応するターゲット端末装置に配信して、各ターゲット端末装置にグローバルモデルをトレーニングさせ、モデルパラメータを得るために用いられる配信サブモジュール701と、
各ターゲット端末装置から返信されたモデルパラメータを受信し、各ターゲット端末装置から返信されたモデルパラメータを集約して、更新されたグローバルモデルを得るために用いられる受信サブモジュール702とを備え、グローバルモデルがプリセット条件を満たしていないことに応答して、第1取得モジュール601に戻り、グローバルモデルがプリセット条件を満たすまで、第1取得モジュール601、確定モジュール602、配信サブモジュール701、及び受信サブモジュール702を呼び出す。
前記サンプルタスクの特性情報を取得し、サンプルタスクが使用可能なサンプル端末装置セット、及びサンプル端末装置セットにおける各サンプル端末装置のリソース情報を取得するために用いられる第2取得モジュール801と、
サンプル端末装置セット、及び各サンプル端末装置のリソース情報及びサンプルタスクの特性情報をモデルに入力するために用いられる入力モジュール802と、
各サンプル端末装置のリソース情報及びサンプルタスクの特性情報に基づいて、モデルによって、サンプル端末装置セットからサンプルタスクに対応するスケジューリングデバイスを選択するために用いられる選択モジュール803と、
スケジューリングデバイスを利用してサンプルタスクを実行し、且つ報酬関数によってスケジューリングデバイスがサンプルタスクを実行することに対応する報酬値を計算するために用いられる計算モジュール804と、
報酬値に基づいてモデルに対応するモデルパラメータを調整し、更新されたモデルを得るために用いられる調整モジュール805とを更に備え、更新されたモデルが反復終了条件を満たしていなければ、入力モジュール802に戻り、更新されたモデルを前記モデルに置き換え、更新されたモデルが反復終了条件を満たしてトレーニング済み強化学習モデルを得るまで入力モジュール802、選択モジュール803、計算モジュール804と調整モジュール805を繰り返し呼び出す。
各タスクの特性情報、複数の端末装置のリソース情報及び複数の端末装置からなるデバイスセットを強化学習モデルの環境状態とし、且つ奨励関数に基づいて強化学習モデルを更新するための更新モジュール901と、
具体的に、リソース情報を更新された強化学習モデルに入力し、更新された強化学習モデルによってタスクに対応するターゲット端末装置を得るために用いられる確定モジュール602とを更に備える。
図10は本開示の実施例を実施するための例示的な電子機器1000を示す概略ブロック図である。電子機器は、様々な形態のデジタルコンピュータ、例えば、ラップトップ型コンピュータ、デスクトップ型コンピュータ、ステージ、個人用デジタル補助装置、サーバ、ブレードサーバ、大型コンピュータ、その他の適切なコンピュータを示す。電子機器は更に、様々な形態の移動装置、例えば、個人デジタル処理、携帯電話、スマートフォン、着用可能な装置とその他の類似する計算装置を示してよい。本明細書に示される部品は、これらの接続関係及びこれらの機能は例示的なものに過ぎず、本明細書に説明した及び/又は請求した本願の実現を制限しない。
Claims (16)
- 連合学習システムにおけるサーバにより実行される連合学習方法であって、前記連合学習システムは前記サーバと複数の端末装置を含み、前記連合学習システムは複数のタスクを達成するために用いられ、前記方法は、前記連合学習システムにおける各タスクに対して、それぞれ、
複数の端末装置のリソース情報を取得するステップS1と、
前記リソース情報を利用して、前記タスクに対応するターゲット端末装置を確定するステップS2であって、当該ステップS2が、前記リソース情報を予めトレーニングされた強化学習モデルに入力し、前記強化学習モデルによって前記タスクに対応するターゲット端末装置を得るステップを含み、前記強化学習モデルは、複数のサンプルタスクが使用可能なサンプル端末装置セットと、各サンプル端末装置のリソース情報と、前記サンプルタスクの特性情報とを環境状態として、報酬関数に基づいて学習して得られるものであり、前記報酬関数は、サンプル端末装置がサンプルタスクを完了する時間と、前記サンプルタスクを完了するのに必要なデータのサンプル端末装置における分布とに基づいて確定される、ステップS2と、
前記ターゲット端末装置によって、前記タスクに対応するグローバルモデルを、前記グローバルモデルがプリセット条件を満たすまでトレーニングするステップS3と
を実行することを含む連合学習方法。 - 前記の前記ターゲット端末装置によって、前記タスクに対応するグローバルモデルを、前記グローバルモデルがプリセット条件を満たすまでトレーニングするステップは、
前記タスクに対応するグローバルモデルを前記タスクに対応するターゲット端末装置に配信して、各前記ターゲット端末装置に前記グローバルモデルをトレーニングさせ、モデルパラメータを得るステップS31と、
各前記ターゲット端末装置から返信された前記モデルパラメータを受信し、各前記ターゲット端末装置から返信されたモデルパラメータを集約して、更新されたグローバルモデルを得るステップS32と、
前記グローバルモデルがプリセット条件を満たしていないことに応答して、S1に戻り、S1、S2、S31、及びS32を、前記グローバルモデルが前記プリセット条件を満たすまで継続して実行するステップとを含む請求項1に記載の方法。 - 前記サンプルタスクの特性情報を取得するステップS11と、
サンプルタスクが使用可能なサンプル端末装置セット、及び前記サンプル端末装置セットにおける各サンプル端末装置のリソース情報を取得するステップS12と、
前記サンプル端末装置セット、各サンプル端末装置のリソース情報及び前記サンプルタスクの特性情報をモデルに入力するステップS13と、
各サンプル端末装置のリソース情報及び前記サンプルタスクの特性情報に基づいて、前記モデルによって、前記サンプル端末装置セットから前記サンプルタスクに対応するスケジューリングデバイスを選択するステップS14と、
前記スケジューリングデバイスを利用して前記サンプルタスクを実行し、且つ前記報酬関数によって前記スケジューリングデバイスが前記サンプルタスクを実行することに対応する報酬値を計算するステップS15と、
前記報酬値に基づいて前記モデルに対応するモデルパラメータを調整し、更新されたモデルを得るステップS16と、
更新されたモデルが反復終了条件を満たしていなければ、S12に戻り、前記更新されたモデルで上記モデルを置き換え、更新されたモデルが反復終了条件を満たすまでS12からS16を繰り返し実行して、トレーニング済み強化学習モデルを得るステップとを更に含む請求項1に記載の方法。 - 前記の、各サンプル端末装置のリソース情報及び前記サンプルタスクの特性情報に基づいて、前記モデルによって、前記サンプル端末装置セットから前記サンプルタスクに対応するスケジューリングデバイスを選択するステップは、
前記各サンプル端末装置のリソース情報及び前記サンプルタスクの特性情報に基づいて、前記モデルによって、前記サンプルタスクがそれぞれ、各サンプル端末装置に対応する確率を得るステップと、
確率によって各サンプル端末装置をソーティングするステップと、
ソーティング結果に基づいて、予め設定された数のサンプル端末装置を、前記サンプルタスクに対応するスケジューリングデバイスとして選択するステップとを含む請求項3に記載の方法。 - 前記の、複数の端末装置のリソース情報を取得するステップは、
各端末装置に対して、前記端末装置が前記タスクのトレーニングに参与する参与頻度を確定するステップと、
前記参与頻度が予め設定された参与頻度閾値より小さいことに応答して、前記端末装置を前記タスクに対応する利用可能な端末装置とするステップと、
前記利用可能な端末装置のリソース情報を取得するステップとを含む請求項1に記載の方法。 - 前記方法は、前記の前記タスクに対応するターゲット端末装置を確定するステップの後に、
各前記タスクの特性情報、複数の端末装置のリソース情報及び複数の端末装置からなるデバイスセットを前記強化学習モデルの環境状態とし、前記報酬関数に基づいて前記強化学習モデルを更新するステップを更に含み、
前記リソース情報を利用して、前記タスクに対応するターゲット端末装置を確定するステップは、
前記リソース情報を更新された強化学習モデルに入力し、更新された強化学習モデルによって前記タスクに対応するターゲット端末装置を得るステップを含む請求項3に記載の方法。 - 前記方法は、
前記タスクに対応するグローバルモデルを前記タスクに対応するターゲット端末装置に配信することに応答して、各前記ターゲット端末装置に反復回数を配信して、各前記ターゲット端末装置が前記グローバルモデルをトレーニングする過程において前記反復回数反復するステップを更に含み、前記反復回数は、前記サーバが前記端末装置のリソース情報に基づいて確定されるものである請求項2に記載の方法。 - 連合学習装置であって、連合学習システムにおけるサーバに応用され、前記連合学習システムは前記サーバと複数の端末装置を含み、前記連合学習システムは複数のタスクを達成するために用いられ、前記装置は、
複数の端末装置のリソース情報を取得するために用いられる第1取得モジュールと、
前記リソース情報を利用して、前記タスクに対応するターゲット端末装置を確定するために用いられる確定モジュールであって、当該確定モジュールが、具体的に、前記リソース情報を予めトレーニングされた強化学習モデルに入力し、前記強化学習モデルによって前記タスクに対応するターゲット端末装置を得るために用いられ、前記強化学習モデルは、複数のサンプルタスクが使用可能なサンプル端末装置セットと、各サンプル端末装置のリソース情報と、前記サンプルタスクの特性情報とを環境状態として、報酬関数に基づいて学習して得られるものであり、前記報酬関数は、サンプル端末装置がサンプルタスクを完了する時間と、前記サンプルタスクを完了するのに必要なデータのサンプル端末装置における分布とに基づいて確定される、確定モジュールと、
前記ターゲット端末装置によって、前記タスクに対応するグローバルモデルを、前記グローバルモデルがプリセット条件を満たすまでトレーニングするために用いられるタスクトレーニングモジュールとを備える連合学習装置。 - 前記タスクトレーニングモジュールは、
前記タスクに対応するグローバルモデルを前記タスクに対応するターゲット端末装置に配信して、各前記ターゲット端末装置に前記グローバルモデルをトレーニングさせ、モデルパラメータを得るために用いられる配信サブモジュールと、
各前記ターゲット端末装置から返信された前記モデルパラメータを受信し、各前記ターゲット端末装置から返信されたモデルパラメータを集約して、更新されたグローバルモデルを得るために用いられる受信サブモジュールとを備え、
前記グローバルモデルがプリセット条件を満たしていないことに応答して、前記第1取得モジュールに戻り、前記グローバルモデルがプリセット条件を満たすまで、第1取得モジュール、確定モジュール、配信サブモジュール、及び受信サブモジュールを呼び出す請求項8に記載の装置。 - 前記サンプルタスクの特性情報を取得し、サンプルタスクが使用可能なサンプル端末装置セット、及び前記サンプル端末装置セットにおける各サンプル端末装置のリソース情報を取得するために用いられる第2取得モジュールと、
前記サンプル端末装置セット、各サンプル端末装置のリソース情報及び前記サンプルタスクの特性情報をモデルに入力するために用いられる入力モジュールと、
各サンプル端末装置のリソース情報及び前記サンプルタスクの特性情報に基づいて、前記モデルによって、前記サンプル端末装置セットから前記サンプルタスクに対応するスケジューリングデバイスを選択するために用いられる選択モジュールと、
前記スケジューリングデバイスを利用して前記サンプルタスクを実行し、且つ前記報酬関数によって前記スケジューリングデバイスが前記サンプルタスクを実行することに対応する報酬値を計算するために用いられる計算モジュールと、
前記報酬値に基づいて前記モデルに対応するモデルパラメータを調整し、更新されたモデルを得るために用いられる調整モジュールとを更に備え、
更新されたモデルが反復終了条件を満たしていなければ、入力モジュールに戻り、前記更新されたモデルを前記モデルに置き換え、更新されたモデルが反復終了条件を満たしてトレーニング済み強化学習モデルを得るまで入力モジュール、選択モジュール、計算モジュールと調整モジュールを繰り返し呼び出す請求項8に記載の装置。 - 前記選択モジュールは、具体的に、前記各サンプル端末装置のリソース情報及び前記サンプルタスクの特性情報に基づいて、前記モデルによって、前記サンプルタスクがそれぞれ、各サンプル端末装置に対応する確率を得て、確率によって各サンプル端末装置をソーティングし、ソーティング結果に基づいて、予め設定された数のサンプル端末装置を、前記サンプルタスクに対応するスケジューリングデバイスとして選択するために用いられる請求項10に記載の装置。
- 前記第1取得モジュールは、具体的に、各端末装置に対して、前記端末装置が前記タスクのトレーニングに参与する参与頻度を確定し、前記参与頻度が予め設定された参与頻度閾値より小さいことに応答して、前記端末装置を前記タスクに対応する利用可能な端末装置とし、前記利用可能な端末装置のリソース情報を取得するために用いられる請求項8に記載の装置。
- 前記装置は、
各前記タスクの特性情報、複数の端末装置のリソース情報及び複数の端末装置からなるデバイスセットを前記強化学習モデルの環境状態とし、且つ前記報酬関数に基づいて前記強化学習モデルを更新するために用いられる更新モジュールを更に備え、
前記確定モジュールは、具体的に、前記リソース情報を更新された強化学習モデルに入力し、更新された強化学習モデルによって前記タスクに対応するターゲット端末装置を得るために用いられる請求項10に記載の装置。 - 前記配信サブモジュールは更に、前記タスクに対応するグローバルモデルを前記タスクに対応するターゲット端末装置に配信することに応答して、各前記ターゲット端末装置に反復回数を配信して、各前記ターゲット端末装置が前記グローバルモデルをトレーニングする過程において前記反復回数反復するために用いられ、前記反復回数は、前記サーバが前記端末装置のリソース情報に基づいて確定されるものである請求項9に記載の装置。
- 電子機器であって、
少なくとも1つのプロセッサ、及び
前記少なくとも1つのプロセッサに通信接続されるメモリを備え、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサに請求項1~7のいずれか一項に記載の方法を実行させる電子機器。 - コンピュータに請求項1~7のいずれか一項に記載の方法を実行させるためのコンピュータ命令が記憶された非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110792130.3A CN113516250B (zh) | 2021-07-13 | 2021-07-13 | 一种联邦学习方法、装置、设备以及存储介质 |
CN202110792130.3 | 2021-07-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022137182A JP2022137182A (ja) | 2022-09-21 |
JP7389177B2 true JP7389177B2 (ja) | 2023-11-29 |
Family
ID=78067025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022111567A Active JP7389177B2 (ja) | 2021-07-13 | 2022-07-12 | 連合学習方法、装置、機器及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220366320A1 (ja) |
JP (1) | JP7389177B2 (ja) |
CN (1) | CN113516250B (ja) |
GB (1) | GB2610297A (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113971090B (zh) * | 2021-10-21 | 2022-09-13 | 中国人民解放军国防科技大学 | 分布式深度神经网络的分层联邦学习方法及装置 |
WO2023070684A1 (zh) * | 2021-11-01 | 2023-05-04 | Oppo广东移动通信有限公司 | 无线通信的方法和设备 |
CN114065863B (zh) * | 2021-11-18 | 2023-08-29 | 北京百度网讯科技有限公司 | 联邦学习的方法、装置、系统、电子设备及存储介质 |
CN114065864B (zh) * | 2021-11-19 | 2023-08-11 | 北京百度网讯科技有限公司 | 联邦学习方法、联邦学习装置、电子设备以及存储介质 |
CN116264684A (zh) * | 2021-12-10 | 2023-06-16 | 华为技术有限公司 | 一种无线网络中的人工智能ai模型训练方法及装置 |
CN114298322B (zh) * | 2021-12-27 | 2023-08-25 | 北京百度网讯科技有限公司 | 联邦学习方法和装置、系统、电子设备、计算机可读介质 |
CN114548426B (zh) * | 2022-02-17 | 2023-11-24 | 北京百度网讯科技有限公司 | 异步联邦学习的方法、业务服务的预测方法、装置及系统 |
CN114675965B (zh) * | 2022-03-10 | 2023-05-02 | 北京百度网讯科技有限公司 | 联邦学习方法、装置、设备和介质 |
CN114938372B (zh) * | 2022-05-20 | 2023-04-18 | 天津大学 | 一种基于联邦学习的微网群请求动态迁移调度方法及装置 |
CN114997337B (zh) * | 2022-07-18 | 2023-01-13 | 浪潮电子信息产业股份有限公司 | 信息融合、数据通信方法、装置及电子设备和存储介质 |
CN115277264B (zh) * | 2022-09-28 | 2023-03-24 | 季华实验室 | 一种基于联邦学习的字幕生成方法、电子设备及存储介质 |
WO2024082274A1 (zh) * | 2022-10-21 | 2024-04-25 | 华为技术有限公司 | Ai任务指示的方法、通信装置和系统 |
CN115496054B (zh) * | 2022-11-15 | 2023-02-21 | 树优(宁波)科技有限公司 | 多学科设计优化方法、系统、电子设备及存储介质 |
CN116090550B (zh) * | 2022-12-27 | 2024-03-22 | 百度在线网络技术(北京)有限公司 | 联邦学习方法、装置、服务器、电子设备及存储介质 |
CN115828022B (zh) * | 2023-02-21 | 2023-04-25 | 中国电子科技集团公司第十五研究所 | 一种数据识别方法、联邦训练模型、装置和设备 |
CN115994588B (zh) * | 2023-03-16 | 2023-07-25 | 杭州海康威视数字技术股份有限公司 | 基于区块链与合同理论的数据处理方法、装置及设备 |
CN116029370B (zh) * | 2023-03-17 | 2023-07-25 | 杭州海康威视数字技术股份有限公司 | 基于区块链的联邦学习的数据共享激励方法、装置及设备 |
CN116016610B (zh) * | 2023-03-21 | 2024-01-09 | 杭州海康威视数字技术股份有限公司 | 基于区块链的车联网数据安全共享方法、装置及设备 |
CN116108934B (zh) * | 2023-04-13 | 2023-06-20 | 中电科大数据研究院有限公司 | 联邦学习系统、联邦学习方法和装置 |
CN116484922B (zh) * | 2023-04-23 | 2024-02-06 | 深圳大学 | 一种联邦学习方法、系统、设备及存储介质 |
CN116932164B (zh) * | 2023-07-25 | 2024-03-29 | 和光舒卷(广东)数字科技有限公司 | 一种基于云平台的多任务调度方法及其系统 |
CN116737607B (zh) * | 2023-08-16 | 2023-11-21 | 之江实验室 | 样本数据缓存方法、系统、计算机设备和存储介质 |
CN117076132B (zh) * | 2023-10-12 | 2024-01-05 | 北京邮电大学 | 分层联邦学习系统的资源分配及聚合优化方法及装置 |
CN117311991B (zh) * | 2023-11-28 | 2024-02-23 | 苏州元脑智能科技有限公司 | 模型训练方法、任务分配方法、装置、设备、介质及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200027022A1 (en) | 2019-09-27 | 2020-01-23 | Satish Chandra Jha | Distributed machine learning in an information centric network |
CN112348199A (zh) | 2020-10-30 | 2021-02-09 | 河海大学 | 一种基于联邦学习与多任务学习的模型训练方法 |
US20210049042A1 (en) | 2019-08-16 | 2021-02-18 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110442457A (zh) * | 2019-08-12 | 2019-11-12 | 北京大学深圳研究生院 | 基于联邦学习的模型训练方法、装置及服务器 |
US20210089910A1 (en) * | 2019-09-25 | 2021-03-25 | Deepmind Technologies Limited | Reinforcement learning using meta-learned intrinsic rewards |
CN110782042B (zh) * | 2019-10-29 | 2022-02-11 | 深圳前海微众银行股份有限公司 | 横向联邦和纵向联邦联合方法、装置、设备及介质 |
CN112565331B (zh) * | 2020-11-02 | 2022-08-12 | 中山大学 | 一种基于边缘计算的端-边协同联邦学习优化方法 |
-
2021
- 2021-07-13 CN CN202110792130.3A patent/CN113516250B/zh active Active
-
2022
- 2022-07-12 GB GB2210246.1A patent/GB2610297A/en active Pending
- 2022-07-12 JP JP2022111567A patent/JP7389177B2/ja active Active
- 2022-07-13 US US17/864,098 patent/US20220366320A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210049042A1 (en) | 2019-08-16 | 2021-02-18 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
US20200027022A1 (en) | 2019-09-27 | 2020-01-23 | Satish Chandra Jha | Distributed machine learning in an information centric network |
CN112348199A (zh) | 2020-10-30 | 2021-02-09 | 河海大学 | 一种基于联邦学习与多任务学习的模型训练方法 |
Non-Patent Citations (1)
Title |
---|
NISHIO, Takayuki et al.,Client Selection for Federated Learning with Heterogeneous Resources in Mobile Edge,arXiv.org [online],2018年10月30日,[検索日 2023.06.26], インターネット:<URL:https://arxiv.org/pdf/1804.08333.pdf>,<DOI:10.48550/arXiv.1804.08333> |
Also Published As
Publication number | Publication date |
---|---|
GB202210246D0 (en) | 2022-08-24 |
GB2610297A (en) | 2023-03-01 |
US20220366320A1 (en) | 2022-11-17 |
CN113516250A (zh) | 2021-10-19 |
CN113516250B (zh) | 2023-11-03 |
JP2022137182A (ja) | 2022-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7389177B2 (ja) | 連合学習方法、装置、機器及び記憶媒体 | |
CN112561078B (zh) | 分布式的模型训练方法及相关装置 | |
Han et al. | Tailored learning-based scheduling for kubernetes-oriented edge-cloud system | |
CN110262845A (zh) | 区块链使能的分布式计算任务卸载方法及系统 | |
US11436050B2 (en) | Method, apparatus and computer program product for resource scheduling | |
CN113361721B (zh) | 模型训练方法、装置、电子设备、存储介质及程序产品 | |
CN112667400B (zh) | 边缘自治中心管控的边云资源调度方法、装置及系统 | |
US20220374776A1 (en) | Method and system for federated learning, electronic device, and computer readable medium | |
JP7412489B2 (ja) | 連合学習方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム | |
CN116991560A (zh) | 针对语言模型的并行调度方法、装置、设备及存储介质 | |
AlOrbani et al. | Load balancing and resource allocation in smart cities using reinforcement learning | |
CN116954866A (zh) | 基于深度强化学习的边缘云下任务调度方法及系统 | |
US20220374775A1 (en) | Method for multi-task scheduling, device and storage medium | |
WO2023284347A1 (zh) | 任务执行方法及装置 | |
KR102590112B1 (ko) | 사물인터넷 환경에서 분산 머신 러닝 학습을 위한 코딩 및 인센티브 기반 메커니즘 | |
Wang | A dynamic resource management in mobile agent by artificial neural network | |
CN113703936A (zh) | 创建算力容器的方法、算力平台、电子设备及存储介质 | |
CN113747504A (zh) | 多接入边缘计算联合任务卸载和资源分配的方法及系统 | |
CN114661431A (zh) | 一种任务调度方法、存储介质及终端设备 | |
Appadurai et al. | Radial basis function networks-based resource-aware offloading video analytics in mobile edge computing | |
Di Cicco et al. | DRL-FORCH: A Scalable Deep Reinforcement Learning-based Fog Computing Orchestrator | |
Gad-Elrab et al. | Genetic-Based Task Scheduling Algorithm with Dynamic Virtual Machine Generation in Cloud Computing | |
Sharma et al. | Multi-Faceted Job Scheduling Optimization Using Q-learning With ABC In Cloud Environment | |
CN112330450B (zh) | 算力交易处理方法、装置、区块链的节点及存储介质 | |
Li et al. | AttentionFunc: Balancing FaaS compute across edge-cloud continuum with reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7389177 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |