JP2024068611A - ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法及びシステム - Google Patents
ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法及びシステム Download PDFInfo
- Publication number
- JP2024068611A JP2024068611A JP2023072062A JP2023072062A JP2024068611A JP 2024068611 A JP2024068611 A JP 2024068611A JP 2023072062 A JP2023072062 A JP 2023072062A JP 2023072062 A JP2023072062 A JP 2023072062A JP 2024068611 A JP2024068611 A JP 2024068611A
- Authority
- JP
- Japan
- Prior art keywords
- demand response
- self
- value
- privacy
- organization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 110
- 230000013016 learning Effects 0.000 title claims abstract description 93
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000008569 process Effects 0.000 claims description 47
- 238000012549 training Methods 0.000 claims description 43
- 230000035045 associative learning Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 abstract description 10
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000013480 data collection Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06315—Needs-based resource requirements planning or analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- Bioethics (AREA)
- General Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Entrepreneurship & Innovation (AREA)
- Data Mining & Analysis (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Public Health (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Water Supply & Treatment (AREA)
- Computing Systems (AREA)
- Operations Research (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明の第1態様は、
反復回数、プライバシーバジェット及びデマンドレスポンス能力を初期化し、貢献能力基準値、参加能力基準値、アクティブ基準値及びプライバシーバジェット基準値を取得するステップ1と、
貢献能力基準値、参加能力基準値、アクティブ基準値に基づいて、インフルエンス値を算出してパラメータサーバー側にアップロードして、自己組織体に加入するか否かについてのフィードバック及び更新されたアクティブ基準値を取得するステップ2と、
である。
反復回数、プライバシーバジェット及びデマンドレスポンス能力を初期化し、貢献能力基準値、参加能力基準値、アクティブ基準値及びプライバシーバジェット基準値を取得するように配置される初期化モジュールと、
貢献能力基準値、参加能力基準値、アクティブ基準値に基づいて、インフルエンス値を算出してパラメータサーバー側にアップロードして、自己組織体に加入するか否かについてのフィードバック及び更新されたアクティブ基準値を取得するように配置されるインフルエンス値算出モジュールと、
自己組織体に加入するというフィードバックを受信した後、トレニンーグサンプルを生成するとともに、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして内層連合学習プロセスを実行し、総プライバシー補償コストと、連合学習プロセスに加入する1組のユーザー側のデマンドレスポンス能力を合わせて、ユーザー側の最適効用を算出してパラメータサーバー側にアップロードすることにより、パラメータサーバーから返信された平均勾配を取得するように配置される内層連合学習モジュールと、
平均勾配に基づいて、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして、外層連合学習プロセスを実行し、分散型ネットワークマネージャーの最適効用を取得するように配置される外層連合学習モジュールと、
最適効用に基づいて、更新されたプライバシーバジェット及びデマンドレスポンス能力を算出し、分散型ネットワークマネージャーにアップロードすることにより、分散型ネットワークマネージャーから返信された総プライバシー補償コストを取得するように配置される総プライバシー補償コスト更新モジュールと、
結果が収束するか否かを判断し、結果が収束しない場合に、内層連合学習モジュールに戻り、結果が収束する場合に、自己組織体のうち、デマンドレスポンスに参加する最終的な自己組織体メンバーを特定し、参加能力基準値及びプライバシーバジェット基準値を更新し、反復回数を増加させ、外層連合学習モジュールに戻るように配置される自己組織体特定モジュールと、を含むネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンスシステムを提供する。
実施例1
Ii,t=aiIC,i,t+biIP,i,t+ciIA,i,t+diIB,i,t (1)として記載されてもよい。
パラメータサーバー側は、自己組織に加入するエージェントiへフィードバックするとともに、すべてのエージェントiのアクティブ基準値IA,i,t+1を更新する(エージェントiが自己組織に加入した後、パラメータサーバーはエージェントiへフィードバックし、エージェントiのデータ収集装置が、フィードバック情報を受信した後にユーザーの履歴パフォーマンスを更新し、ユーザーが自己組織に参加するため、そのアクティブ基準値が増加する)。
実施例2
反復回数、プライバシーバジェット及びデマンドレスポンス能力を初期化し、貢献能力基準値、参加能力基準値、アクティブ基準値及びプライバシーバジェット基準値を取得するように配置される初期化モジュールと、
貢献能力基準値、参加能力基準値、アクティブ基準値に基づいて、インフルエンス値を算出してパラメータサーバー側にアップロードして、自己組織体に加入するか否かについてのフィードバック及び更新されたアクティブ基準値を取得するように配置されるインフルエンス値算出モジュールと、
自己組織体に加入するというフィードバックを受信した後、トレニンーグサンプルを生成するとともに、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして内層連合学習プロセスを実行し、総プライバシー補償コストと、連合学習プロセスに加入する1組のユーザー側のデマンドレスポンス能力を合わせて、ユーザー側の最適効用を算出してパラメータサーバー側にアップロードすることにより、パラメータサーバーから返信された平均勾配を取得するように配置される内層連合学習モジュールと、
平均勾配に基づいて、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして、外層連合学習プロセスを実行し、分散型ネットワークマネージャーの最適効用を取得するように配置される外層連合学習モジュールと、
最適効用に基づいて、更新されたプライバシーバジェット及びデマンドレスポンス能力を算出し、分散型ネットワークマネージャーにアップロードすることにより、分散型ネットワークマネージャーから返信された総プライバシー補償コストを取得するように配置される総プライバシー補償コスト更新モジュールと、
結果が収束するか否かを判断し、結果が収束しない場合に内層連合学習モジュールに戻り、結果が収束する場合に、自己組織体のうち、デマンドレスポンスに参加する最終的な自己組織体メンバーを特定し、参加能力基準値及びプライバシーバジェット基準値を更新し、反復回数を増加させ、外層連合学習モジュールに戻るように配置される自己組織体特定モジュールと、を含むネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンスシステムを提供する。
実施例3
実施例4
反復回数、プライバシーバジェット及びデマンドレスポンス能力を初期化し、貢献能力基準値、参加能力基準値、アクティブ基準値及びプライバシーバジェット基準値を取得するように配置される初期化モジュールと、
貢献能力基準値、参加能力基準値、アクティブ基準値に基づいて、インフルエンス値を算出してパラメータサーバー側にアップロードして、自己組織体に加入するか否かについてのフィードバック及び更新されたアクティブ基準値を取得するように配置されるインフルエンス値算出モジュールと、
自己組織体に加入するというフィードバックを受信した後、トレーニングサンプルを生成するとともに、プライバシーバジェット及びデマンドレスポンス能力をトレーニングパラメータとして内層連合学習プロセスを実行し、総プライバシー補償コストと、連合学習プロセスに加入する1組のユーザー側のデマンドレスポンス能力を合わせて、ユーザー側の最適効用を算出してパラメータサーバー側にアップロードすることにより、パラメータサーバーから返信された平均勾配を取得するように配置される内層連合学習モジュールと、
平均勾配に基づいて、プライバシーバジェット及びデマンドレスポンス能力をトレーニングパラメータとして、外層連合学習プロセスを実行し、分散型ネットワークマネージャーの最適効用を取得するように配置される外層連合学習モジュールと、
最適効用に基づいて、更新されたプライバシーバジェット及びデマンドレスポンス能力を算出し、分散型ネットワークマネージャーにアップロードすることにより、分散型ネットワークマネージャーから返信された総プライバシー補償コストを取得するように配置される総プライバシー補償コスト更新モジュールと、
結果が収束するか否かを判断し、結果が収束しない場合に、内層連合学習モジュールに戻り、結果が収束する場合に、自己組織体のうち、デマンドレスポンスに参加する最終的な自己組織体メンバーを特定し、参加能力基準値及びプライバシーバジェット基準値を更新し、反復回数を増加させ、外層連合学習モジュールに戻るように配置される自己組織体特定モジュールと、を含むネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンスシステムを提供する。
反復回数、プライバシーバジェット及びデマンドレスポンス能力を初期化し、貢献能力基準値、参加能力基準値、アクティブ基準値及びプライバシーバジェット基準値を取得するように配置される初期化モジュールと、
貢献能力基準値、参加能力基準値、アクティブ基準値に基づいて、インフルエンス値を算出してパラメータサーバー側にアップロードして、自己組織体に加入するか否かについてのフィードバック及び更新されたアクティブ基準値を取得するように配置されるインフルエンス値算出モジュールと、
自己組織体に加入するというフィードバックを受信した後、トレーニングサンプルを生成するとともに、プライバシーバジェット及びデマンドレスポンス能力をトレーニングパラメータとして内層連合学習プロセスを実行し、総プライバシー補償コストと、連合学習プロセスに加入する1組のユーザー側のデマンドレスポンス能力を合わせて、ユーザー側の最適効用を算出してパラメータサーバー側にアップロードすることにより、パラメータサーバーから返信された平均勾配を取得するように配置される内層連合学習モジュールと、
平均勾配に基づいて、プライバシーバジェット及びデマンドレスポンス能力をトレーニングパラメータとして、外層連合学習プロセスを実行し、分散型ネットワークマネージャーの最適効用を取得するように配置される外層連合学習モジュールと、
最適効用に基づいて、更新されたプライバシーバジェット及びデマンドレスポンス能力を算出し、分散型ネットワークマネージャーにアップロードすることにより、分散型ネットワークマネージャーから返信された総プライバシー補償コストを取得するように配置される総プライバシー補償コスト更新モジュールと、
結果が収束するか否かを判断し、結果が収束しない場合に内層連合学習モジュールに戻り、結果が収束する場合に、自己組織体のうち、デマンドレスポンスに参加する最終的な自己組織体メンバーを特定し、参加能力基準値及びプライバシーバジェット基準値を更新し、反復回数を増加させ、外層連合学習モジュールに戻るように配置される自己組織体特定モジュールと、を含むネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンスシステムを提供する。
Claims (9)
- ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法であって、
反復回数、プライバシーバジェット及びデマンドレスポンス能力を初期化し、貢献能力基準値、参加能力基準値、アクティブ基準値及びプライバシーバジェット基準値を取得するステップ1と、
貢献能力基準値、参加能力基準値、アクティブ基準値に基づいて、インフルエンス値を算出してパラメータサーバー側にアップロードして、自己組織体に加入するか否かについてのフィードバック及び更新されたアクティブ基準値を取得するステップであって、前記パラメータサーバー側は、インフルエンス値に基づいてそれぞれのユーザー側が自己組織体に加入するか否かを判断し、ユーザー側のインフルエンス値が高いほど、自己組織体に加入する可能性が高くなるステップ2と、
自己組織体に加入するというフィードバックを受信した後、トレニンーグサンプルを生成するとともに、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして内層連合学習プロセスを実行し、総プライバシー補償コストと、連合学習プロセスに加入する1組のユーザー側のデマンドレスポンス能力を合わせて、ユーザー側の最適効用を算出してパラメータサーバー側にアップロードすることにより、パラメータサーバーから返信された平均勾配を取得するステップ3と、
平均勾配に基づいて、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして、外層連合学習プロセスを実行し、分散型ネットワークマネージャーの最適効用を取得するステップ4と、
最適効用に基づいて、更新されたプライバシーバジェット及びデマンドレスポンス能力を算出し、分散型ネットワークマネージャーにアップロードすることにより、分散型ネットワークマネージャーから返信された総プライバシー補償コストを取得するステップ5と、
結果が収束するか否かを判断し、結果が収束しない場合に、ステップ3に戻り、結果が収束する場合に、自己組織体のうち、デマンドレスポンスに参加する最終的な自己組織体メンバーを特定し、参加能力基準値及びプライバシーバジェット基準値を更新し、反復回数を増加させ、ステップ2に戻るステップ6と、を含む
ことを特徴とするネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法。 - ユーザー側iの効用Ui,tとしては、
ことを特徴とする請求項1に記載のネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法。 - 分散型ネットワークマネージャーの効用は、連合学習トレニンーグモデルの性能と分散型ネットワークマネージャーのコストの2部分に決められる
ことを特徴とする請求項1に記載のネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法。 - 前記分散型ネットワークマネージャーのコストは、デマンドレスポンスプロセスにおける応答コストと、連合学習プロセスにおける総プライバシー補償コストとに決められる
ことを特徴とする請求項3に記載のネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法。 - 結果が収束するか否かを判断する方法としては、ユーザー側及び分散型ネットワークマネージャーの最大効用はいずれも唯一であれば、収束する
ことを特徴とする請求項1に記載のネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法。 - 前記プライバシーバジェットとプライバシーバジェット基準値とは比例する
ことを特徴とする請求項1に記載のネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法。 - ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンスシステムであって、
反復回数、プライバシーバジェット及びデマンドレスポンス能力を初期化し、貢献能力基準値、参加能力基準値、アクティブ基準値及びプライバシーバジェット基準値を取得するように配置される初期化モジュールと、
貢献能力基準値、参加能力基準値、アクティブ基準値に基づいて、インフルエンス値を算出してパラメータサーバー側にアップロードして、自己組織体に加入するか否かについてのフィードバック及び更新されたアクティブ基準値を取得するように配置されるものであって、前記パラメータサーバー側は、インフルエンス値に基づいてそれぞれのユーザー側が自己組織体に加入するか否かを判断し、ユーザー側のインフルエンス値が高いほど、自己組織体に加入する可能性が高くなるインフルエンス値算出モジュールと、
自己組織体に加入するというフィードバックを受信した後、トレニンーグサンプルを生成するとともに、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして内層連合学習プロセスを実行し、総プライバシー補償コストと、連合学習プロセスに加入する1組のユーザー側のデマンドレスポンス能力を合わせて、ユーザー側の最適効用を算出してパラメータサーバー側にアップロードすることにより、パラメータサーバーから返信された平均勾配を取得するように配置される内層連合学習モジュールと、
平均勾配に基づいて、プライバシーバジェット及びデマンドレスポンス能力をトレニンーグパラメータとして、外層連合学習プロセスを実行し、分散型ネットワークマネージャーの最適効用を取得するように配置される外層連合学習モジュールと、
最適効用に基づいて、更新されたプライバシーバジェット及びデマンドレスポンス能力を算出し、分散型ネットワークマネージャーにアップロードすることにより、分散型ネットワークマネージャーから返信された総プライバシー補償コストを取得するように配置される総プライバシー補償コスト更新モジュールと、
結果が収束するか否かを判断し、結果が収束しない場合に内層連合学習モジュールに戻り、結果が収束する場合に、自己組織体のうち、デマンドレスポンスに参加する最終的な自己組織体メンバーを特定し、参加能力基準値及びプライバシーバジェット基準値を更新し、反復回数を増加させ、外層連合学習モジュールに戻るように配置される自己組織体特定モジュールと、を含む
ことを特徴とするネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンスシステム。 - コンピュータプログラムが記憶され、このプログラムがプロセッサによって実行される場合に、請求項1から6のいずれか一項に記載のネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法におけるステップを実現する
ことを特徴とするコンピュータ読み取り可能な記憶媒体。 - メモリ、プロセッサ、及びメモリに記憶されプロセッサで実行可能なコンピュータプログラムを含むコンピュータ機器であって、前記プロセッサは、前記プログラムを実行する場合に、請求項1から6のいずれか一項に記載のネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法におけるステップを実現する
ことを特徴とするコンピュータ機器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211388054.0A CN115439026B (zh) | 2022-11-08 | 2022-11-08 | 基于嵌套联邦学习的多智能体自组织需求响应方法及系统 |
CN202211388054.0 | 2022-11-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7382045B1 JP7382045B1 (ja) | 2023-11-16 |
JP2024068611A true JP2024068611A (ja) | 2024-05-20 |
Family
ID=84252563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023072062A Active JP7382045B1 (ja) | 2022-11-08 | 2023-04-26 | ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法及びシステム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7382045B1 (ja) |
CN (1) | CN115439026B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117575291B (zh) * | 2024-01-15 | 2024-05-10 | 湖南科技大学 | 基于边缘参数熵的联邦学习的数据协同管理方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102012249B1 (ko) * | 2013-03-28 | 2019-08-21 | 한국전자통신연구원 | 동적 자원 할당 방법 및 장치 |
CN111091200B (zh) * | 2019-12-20 | 2021-03-19 | 深圳前海微众银行股份有限公司 | 训练模型的更新方法、系统、智能设备、服务器及存储介质 |
CN112446040A (zh) * | 2020-11-24 | 2021-03-05 | 平安科技(深圳)有限公司 | 基于选择性梯度更新的联邦建模方法及相关设备 |
US20220328189A1 (en) * | 2021-04-09 | 2022-10-13 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for implementing advancements towards annotation efficient deep learning in computer-aided diagnosis |
CN113361694B (zh) * | 2021-06-30 | 2022-03-15 | 哈尔滨工业大学 | 一种应用差分隐私保护的分层联邦学习方法及系统 |
CN114462090B (zh) * | 2022-02-18 | 2023-06-27 | 北京邮电大学 | 一种针对联邦学习中差分隐私预算计算的收紧方法 |
CN114841364B (zh) * | 2022-04-14 | 2024-06-14 | 北京理工大学 | 一种满足个性化本地差分隐私需求的联邦学习方法 |
-
2022
- 2022-11-08 CN CN202211388054.0A patent/CN115439026B/zh active Active
-
2023
- 2023-04-26 JP JP2023072062A patent/JP7382045B1/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN115439026B (zh) | 2023-03-24 |
CN115439026A (zh) | 2022-12-06 |
JP7382045B1 (ja) | 2023-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhan et al. | A learning-based incentive mechanism for federated learning | |
Wu et al. | A context-aware multiarmed bandit incentive mechanism for mobile crowd sensing systems | |
Zhang et al. | Security-aware virtual network embedding algorithm based on reinforcement learning | |
WO2020000399A1 (zh) | 一种基于智能电网的多智能体深度强化学习代理方法 | |
Lu et al. | Optimization of task offloading strategy for mobile edge computing based on multi-agent deep reinforcement learning | |
Jain et al. | A multiarmed bandit incentive mechanism for crowdsourcing demand response in smart grids | |
CN112367109A (zh) | 空地网络中由数字孪生驱动的联邦学习的激励方法 | |
He et al. | Three-stage Stackelberg game enabled clustered federated learning in heterogeneous UAV swarms | |
JP2024068611A (ja) | ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法及びシステム | |
CN114896899B (zh) | 一种基于信息交互的多智能体分散式决策方法及系统 | |
CN116489712B (zh) | 一种基于深度强化学习的移动边缘计算任务卸载方法 | |
US20230189075A1 (en) | Wireless communication network resource allocation method with dynamic adjustment on demand | |
Xu et al. | Aoi-guaranteed incentive mechanism for mobile crowdsensing with freshness concerns | |
Zhao et al. | Reinforcement learning for resource mapping in 5G network slicing | |
Cui et al. | Multiagent reinforcement learning-based cooperative multitype task offloading strategy for internet of vehicles in B5G/6G network | |
CN116486192A (zh) | 一种基于深度强化学习的联邦学习方法及系统 | |
CN116795198A (zh) | 数据中心的能耗优化方法、装置及存储介质 | |
CN114449536B (zh) | 一种基于深度强化学习的5g超密集网络多用户接入选择方法 | |
Tan et al. | Based on bid and data quality incentive mechanisms for mobile crowd sensing systems | |
Chen et al. | Enhanced hybrid hierarchical federated edge learning over heterogeneous networks | |
Yuan | Intrinsically-motivated reinforcement learning: A brief introduction | |
Liu et al. | Incentive-driven long-term optimization for edge learning by hierarchical reinforcement mechanism | |
CN114866459B (zh) | 一种多约束条件下的路径规划方法 | |
Gao et al. | Deep reinforcement learning based rendering service placement for cloud gaming in mobile edge computing systems | |
CN111986821B (zh) | 一种面向远程诊疗的非合作博弈资源调度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230501 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7382045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |