JP2022136234A - 連合学習方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム - Google Patents
連合学習方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム Download PDFInfo
- Publication number
- JP2022136234A JP2022136234A JP2022119635A JP2022119635A JP2022136234A JP 2022136234 A JP2022136234 A JP 2022136234A JP 2022119635 A JP2022119635 A JP 2022119635A JP 2022119635 A JP2022119635 A JP 2022119635A JP 2022136234 A JP2022136234 A JP 2022136234A
- Authority
- JP
- Japan
- Prior art keywords
- task
- scheduling information
- target
- identifying
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000013016 learning Effects 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000004590 computer program Methods 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 49
- 230000004044 response Effects 0.000 claims abstract description 6
- 230000035045 associative learning Effects 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 15
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 12
- 238000013145 classification model Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Genetics & Genomics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
図2に示すように、この方法200は操作S210~操作S230を含んでよい。
図4に示すように、各候補機器の計算指標401と各候補機器に記憶された各タスクに対するトレーニングデータのデータ量402とに基づいて、例えば、式(2)を用いて各候補機器が各タスクを実行する時間長情報404を特定する。
図5に示すように、この装置500は、第1の特定モジュール510、第1の送信モジュール520及び更新モジュール530を含む。
Claims (19)
- 現在学習周期に対して、複数の候補機器のリソース情報に基づいて、前記複数の候補機器のうち、実行すべき少なくとも1つの学習タスクのそれぞれに対する対象機器を特定することと、
前記各タスクに対する対象機器に前記各タスクに対するグローバルモデルを送信することで、前記各タスクに対する対象機器が前記各タスクに対するグローバルモデルをトレーニングすることと、
前記各タスクのすべての対象機器に対して送信されたトレーニング後モデルを受信したことに応答して、前記トレーニング後モデルに基づいて前記各タスクに対するグローバルモデルを更新して、前記現在学習周期を完了することと、を含む、
連合学習方法。 - 前記複数の候補機器のうち、実行すべき少なくとも1つの学習タスクのそれぞれに対する対象機器を特定することは、
前記複数の候補機器のリソース情報に基づいて、現在学習周期の時間コストを最小にさせる、それぞれ少なくとも1つの学習タスクに対する複数の対象機器グループを含む対象機器セットを候補スケジューリング情報として特定することと、
前記候補スケジューリング情報と複数の所定スケジューリング情報とを初期スケジューリング情報セットとして、所定ループ停止条件を満たすまで、以下の操作をループして実行することとを含み、
前記操作は、
現在スケジューリング情報セットにおける対象スケジューリング情報を調整して、n個(nは正の整数である)の調整後スケジューリング情報を得ることと、
前記n個の調整後スケジューリング情報及び前記現在スケジューリング情報セットから前記現在学習周期の時間コストを高くするn個のスケジューリング情報を除去して、更新後スケジューリング情報セットを得ることと、を含む。
請求項1に記載の方法。 - 現在学習周期の時間コストを最小にさせる対象機器セットを特定することは、
前記複数の候補機器のリソース情報に基づいて、前記複数の候補機器のそれぞれが前記各タスクを実行する時間長情報を特定することと、
前記時間長情報に基づいて、現在学習周期の時間コストを最小にさせる対象機器セットを特定することと、を含む、
請求項2に記載の方法。 - 現在学習周期の時間コストを最小にさせる対象機器セットを特定することは、
前記各候補機器が前記現在学習周期の前の学習周期で前記各タスクを実行する回数に基づいて、前記複数の候補機器の、前記各タスクに対するスケジューリングバランス分散を特定することと、
前記スケジューリングバランス分散と前記時間長情報とに基づいて、現在学習周期の時間コストを最小にさせる対象機器セットを特定することと、を含む、
請求項3に記載の方法。 - 前記複数の候補機器のそれぞれが前記各タスクを実行する時間長情報を特定することは、
前記各候補機器のリソース情報に基づいて、前記各候補機器の計算能力を示す、前記各候補機器の計算指標を特定することと、
前記計算指標と前記各候補機器に記憶された前記各タスクに対するトレーニングデータのデータ量とに基づいて、所定変位指数分布を用いて前記各候補機器が前記各タスクを実行する時間長情報を特定することと、を含む、
請求項3に記載の方法。 - 現在スケジューリング情報セットにおける対象スケジューリング情報を調整することは、
前記現在スケジューリング情報セットにおける各スケジューリング情報の、前記現在学習周期に対する時間コストに基づいて、前記現在スケジューリング情報セットにおける少なくとも2つのスケジューリング情報を対象スケジューリング情報として特定することと、
クロスオーバーにて前記対象スケジューリング情報のうちのいずれか2つのスケジューリング情報を調整して、調整後スケジューリング情報を得ることと、を含む、
請求項2に記載の方法。 - クロスオーバーにて前記対象スケジューリング情報のうちのいずれか2つのスケジューリング情報を調整することは、
前記いずれか2つのスケジューリング情報中の候補機器の差分セットを特定して、複数の対象機器を得ることと、
前記複数の対象機器に基づいて、前記クロスオーバーにて前記対象スケジューリング情報のうちのいずれか2つのスケジューリング情報を調整することと、を含む、
請求項6に記載の方法。 - 前記各タスクを実行する対象機器のリソース情報に基づいて、前記各タスクに対する対象機器が前記各タスクに対するグローバルモデルをトレーニングする目標回数を特定することと、
前記各タスクに対する対象機器に前記目標回数を送信することで、前記各タスクに対する対象機器が前記目標回数に基づいて前記各タスクに対するグローバルモデルをトレーニングするようにすることと、をさらに含む、
請求項1に記載の方法。 - 現在学習周期に対して、複数の候補機器のリソース情報に基づいて、前記複数の候補機器のうち、実行すべき少なくとも1つの学習タスクのそれぞれに対する対象機器を特定するための第1の特定モジュールと、
前記各タスクに対する対象機器に前記各タスクに対するグローバルモデルを送信することで、前記各タスクに対する対象機器が前記各タスクに対するグローバルモデルをトレーニングするための第1の送信モジュールと、
前記各タスクのすべての対象機器に対して送信されたトレーニング後モデルを受信したことに応答して、前記トレーニング後モデルに基づいて前記各タスクに対するグローバルモデルを更新して、前記現在学習周期を完了するための更新モジュールと、を含む、
連合学習装置。 - 前記第1の特定モジュールは、
前記複数の候補機器のリソース情報に基づいて、現在学習周期の時間コストを最小にさせる、それぞれ少なくとも1つの学習タスクに対する複数の対象機器グループを含む対象機器セットを候補スケジューリング情報として特定するための第1の特定サブモジュールと、
前記候補スケジューリング情報と複数の所定スケジューリング情報とを初期スケジューリング情報セットとし、所定ループ停止条件を満たすまで、以下の手段によってループして操作を実行するためのループサブモジュールと、を含み、
上記手段は、
現在スケジューリング情報セットにおける対象スケジューリング情報を調整して、n個(nは正の整数である)の調整後スケジューリング情報を得るための調整手段と、
前記n個の調整後スケジューリング情報及び前記現在スケジューリング情報セットから前記現在学習周期の時間コストを高くするn個のスケジューリング情報を除去して、更新後スケジューリング情報セットを得るための除去手段と、を含む、
請求項9に記載の装置。 - 前記第2の特定サブモジュールは、
前記複数の候補機器のリソース情報に基づいて、前記複数の候補機器のそれぞれが前記各タスクを実行する時間長情報を特定するための第1の特定手段と、
前記時間長情報に基づいて、現在学習周期の時間コストを最小にさせる対象機器セットを特定するための第2の特定手段と、を含む、
請求項10に記載の装置。 - 前記第2の特定手段は、
前記各候補機器が前記現在学習周期の前の学習周期で前記各タスクを実行する回数に基づいて、前記複数の候補機器の、前記各タスクに対するスケジューリングバランス分散を特定するための第1の特定サブ手段と、
前記スケジューリングバランス分散と前記時間長情報とに基づいて、現在学習周期の時間コストを最小にさせる対象機器セットを特定するための第2の特定サブ手段と、を含む、
請求項11に記載の装置。 - 前記第1の特定手段は、
前記各候補機器のリソース情報に基づいて、前記各候補機器の計算能力を示す、前記各候補機器の計算指標を特定するための第3の特定サブ手段と、
前記計算指標と前記各候補機器に記憶された前記各タスクに対するトレーニングデータのデータ量とに基づいて、所定変位指数分布を用いて前記各候補機器が前記各タスクを実行する時間長情報を特定するための実行サブ手段と、を含む、
請求項11に記載の装置。 - 前記調整手段は、
前記現在スケジューリング情報セットにおける各スケジューリング情報の、前記現在学習周期に対する時間コストに基づいて、前記現在スケジューリング情報セットにおける少なくとも2つのスケジューリング情報を対象スケジューリング情報として特定するための第4の特定サブ手段と、
クロスオーバーにて前記対象スケジューリング情報のうちのいずれか2つのスケジューリング情報を調整して、調整後スケジューリング情報を得るための第1の調整サブ手段と、を含む、
請求項10に記載の装置。 - 前記第1の調整サブ手段は、
前記いずれか2つのスケジューリング情報中の候補機器の差分セットを特定して、複数の対象機器を得るための第5の特定サブ手段と、
前記複数の対象機器に基づいて、前記クロスオーバーにて前記対象スケジューリング情報のうちのいずれか2つのスケジューリング情報を調整するための第2の調整サブ手段と、を含む、
請求項14に記載の装置。 - 前記各タスクを実行する対象機器のリソース情報に基づいて、前記各タスクに対する対象機器が前記各タスクに対するグローバルモデルをトレーニングする目標回数を特定するための第2の特定モジュールと、
前記各タスクに対する対象機器に前記目標回数を送信することで、前記各タスクに対する対象機器が前記目標回数に基づいて前記各タスクに対するグローバルモデルをトレーニングするようにするための第2の送信モジュールと、をさらに含む、
請求項9に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続するメモリとを有する電子機器であって、
前記メモリに、前記少なくとも1つのプロセッサによって実行され得るコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが請求項1~8のいずれか一項に記載の方法を実行することができる、
電子機器。 - コンピュータに請求項1~8のいずれか一項に記載の方法を実行させるためのコンピュータコマンドを記憶している、
非一時的なコンピュータ読取可能な記憶媒体。 - プロセッサにより実行される場合に、請求項1~8のいずれか一項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111104028.6A CN113850394B (zh) | 2021-09-18 | 2021-09-18 | 联邦学习方法、装置、电子设备及存储介质 |
CN202111104028.6 | 2021-09-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022136234A true JP2022136234A (ja) | 2022-09-15 |
JP7412489B2 JP7412489B2 (ja) | 2024-01-12 |
Family
ID=78974742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022119635A Active JP7412489B2 (ja) | 2021-09-18 | 2022-07-27 | 連合学習方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220391780A1 (ja) |
JP (1) | JP7412489B2 (ja) |
CN (1) | CN113850394B (ja) |
GB (1) | GB2611621A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116016212A (zh) * | 2022-12-26 | 2023-04-25 | 电子科技大学 | 一种带宽感知的去中心化联邦学习方法及装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114610575B (zh) * | 2022-03-14 | 2024-05-14 | 北京百度网讯科技有限公司 | 应用于计算分支的更新峰值的方法、装置、设备和介质 |
CN115829064B (zh) * | 2023-02-17 | 2023-05-05 | 山东浪潮科学研究院有限公司 | 一种联邦学习加速方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210042628A1 (en) * | 2019-08-09 | 2021-02-11 | International Business Machines Corporation | Building a federated learning framework |
CN113361721A (zh) * | 2021-06-29 | 2021-09-07 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备、存储介质及程序产品 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310932B (zh) * | 2020-02-10 | 2024-09-27 | 深圳前海微众银行股份有限公司 | 横向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN113011602B (zh) * | 2021-03-03 | 2023-05-30 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN113112029B (zh) * | 2021-04-22 | 2022-09-16 | 中国科学院计算技术研究所 | 一种应用于异构计算设备的联邦学习系统和方法 |
CN113408743B (zh) * | 2021-06-29 | 2023-11-03 | 北京百度网讯科技有限公司 | 联邦模型的生成方法、装置、电子设备和存储介质 |
-
2021
- 2021-09-18 CN CN202111104028.6A patent/CN113850394B/zh active Active
-
2022
- 2022-07-27 JP JP2022119635A patent/JP7412489B2/ja active Active
- 2022-08-12 GB GB2211819.4A patent/GB2611621A/en active Pending
- 2022-08-18 US US17/820,758 patent/US20220391780A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210042628A1 (en) * | 2019-08-09 | 2021-02-11 | International Business Machines Corporation | Building a federated learning framework |
CN113361721A (zh) * | 2021-06-29 | 2021-09-07 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备、存储介质及程序产品 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116016212A (zh) * | 2022-12-26 | 2023-04-25 | 电子科技大学 | 一种带宽感知的去中心化联邦学习方法及装置 |
CN116016212B (zh) * | 2022-12-26 | 2024-06-04 | 电子科技大学 | 一种带宽感知的去中心化联邦学习方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7412489B2 (ja) | 2024-01-12 |
US20220391780A1 (en) | 2022-12-08 |
CN113850394B (zh) | 2023-02-28 |
GB2611621A (en) | 2023-04-12 |
GB202211819D0 (en) | 2022-09-28 |
CN113850394A (zh) | 2021-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7389177B2 (ja) | 連合学習方法、装置、機器及び記憶媒体 | |
CN112561078B (zh) | 分布式的模型训练方法及相关装置 | |
US11762697B2 (en) | Method and apparatus for scheduling resource for deep learning framework | |
EP3913545A2 (en) | Method and apparatus for updating parameter of multi-task model, and electronic device | |
JP7412489B2 (ja) | 連合学習方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラム | |
US20210326762A1 (en) | Apparatus and method for distributed model training, device, and computer readable storage medium | |
US12039976B2 (en) | Man- machine interaction system and multi-task processing method in the man-machine interaction system | |
US20240281312A1 (en) | Automatic application program interface (api) selector for unsupervised natural language processing (nlp) intent classification | |
CN107688493A (zh) | 训练深度神经网络的方法、装置及系统 | |
CN114298322B (zh) | 联邦学习方法和装置、系统、电子设备、计算机可读介质 | |
US11423307B2 (en) | Taxonomy construction via graph-based cross-domain knowledge transfer | |
EP4131083A2 (en) | Method and apparatus for generating federated learning model | |
CN111461345A (zh) | 深度学习模型训练方法及装置 | |
CN107341235A (zh) | 报表查询方法、装置、介质和电子设备 | |
US11816443B2 (en) | Method, device, and storage medium for generating response | |
WO2023174189A1 (zh) | 图网络模型节点分类方法、装置、设备及存储介质 | |
CN115510203B (zh) | 问题答案确定方法、装置、设备、存储介质及程序产品 | |
CN113128677A (zh) | 模型生成方法和装置 | |
CN113313196B (zh) | 标注数据处理方法、相关装置及计算机程序产品 | |
CN115412401A (zh) | 训练虚拟网络嵌入模型及虚拟网络嵌入的方法和装置 | |
CN114217933A (zh) | 多任务调度方法、装置、设备以及存储介质 | |
CN117519996B (zh) | 一种数据处理方法、装置、设备以及存储介质 | |
US20230019202A1 (en) | Method and electronic device for generating molecule set, and storage medium thereof | |
CN114331379B (zh) | 用于输出待办任务的方法、模型训练方法和装置 | |
US20220286416A1 (en) | Method and apparatus for generating account intimacy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7412489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |