JP2022137193A - 深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム - Google Patents
深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2022137193A JP2022137193A JP2022111838A JP2022111838A JP2022137193A JP 2022137193 A JP2022137193 A JP 2022137193A JP 2022111838 A JP2022111838 A JP 2022111838A JP 2022111838 A JP2022111838 A JP 2022111838A JP 2022137193 A JP2022137193 A JP 2022137193A
- Authority
- JP
- Japan
- Prior art keywords
- deep learning
- distributed
- learning model
- distributed training
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 158
- 238000013136 deep learning model Methods 0.000 title claims abstract description 107
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000004590 computer program Methods 0.000 title claims description 12
- 238000000638 solvent extraction Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 25
- 230000007246 mechanism Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 13
- 238000005192 partition Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000003780 insertion Methods 0.000 claims description 4
- 230000037431 insertion Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013468 resource allocation Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 235000019580 granularity Nutrition 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
Description
本実施形態では、深層学習モデルの分散トレーニング方法の実行主体(例えば、図1に示すサーバ105)は、トレーニングすべき深層学習モデルの演算子とテンソルを取得することができる。コンピューティングデータフローグラフにおけるノードでの計算を演算子と呼び、各エッジはノード間で伝送されるテンソルを表し、各演算子とテンソルを並列して表現すれば、ニューラルネットワーク全体を並列化し、順次実行されるコンピューティンググラフから分散コンピューティンググラフに変換することができる。したがって、上記実行主体は、まず、トレーニングすべき深層学習モデルの演算子とテンソルを取得する。
Claims (21)
- トレーニングすべき深層学習モデルのデータ情報に基づいて分散コンピューティングビューを生成することと、
前記トレーニングすべき深層学習モデルに対応するクラスターハードウェアリソースの属性情報に基づいてクラスターリソースビューを生成することと、
前記分散コンピューティングビューと前記クラスターリソースビューとに基づいて、分散トレーニングタスクの目標分割ポリシーを確定することと、
前記目標分割ポリシーに基づいて前記トレーニングすべき深層学習モデルに対して分散トレーニングを行うことと、
を含む深層学習モデルの分散トレーニング方法。 - トレーニングすべき深層学習モデルのデータ情報に基づいて分散コンピューティングビューを生成することは、
前記トレーニングすべき深層学習モデルの演算子とテンソルを取得することと、
前記演算子と前記テンソルに基づいて分散コンピューティングビューを生成することと、を含む請求項1に記載の分散トレーニング方法。 - トレーニングすべき深層学習モデルのデータ情報に基づいて分散コンピューティングビューを生成することは、
前記演算子の分散属性と前記テンソルの分散属性を取得することをさらに含み、
前記演算子と前記テンソルに基づいて分散コンピューティングビューを生成することは、
前記演算子と、前記演算子の分散属性と、前記テンソルと、前記テンソルの分散属性とに基づいて、分散コンピューティングビューを生成することを含む請求項2に記載の分散トレーニング方法。 - 前記分散コンピューティングビューにおける入力テンソルと出力テンソルの定義と、その入力テンソルと出力テンソルを使用する演算子の定義とが一致しないことを検出したことに応答して、再構成変換演算子を挿入することと、
前記分散コンピューティングビューにおける入力テンソルと出力テンソルに対応するデバイスと、その入力テンソルと出力テンソルを使用する演算子に対応するデバイスとが一致しないことを検出したことに応答して、通信演算子を挿入することと、
をさらに含む請求項2または請求項3に記載の分散トレーニング方法。 - 前記トレーニングすべき深層学習モデルに対応するクラスターハードウェアリソースの属性情報に基づいてクラスターリソースビューを生成することは、
前記トレーニングすべき深層学習モデルに対応するクラスターハードウェアリソースにおける各デバイス間のトポロジー情報と、前記クラスターハードウェアリソースにおける各デバイスの処理能力情報とを取得することであって、前記処理能力情報は、プロセッサ情報、帯域幅情報、グラフィックスメモリ情報の少なくとも1つを含むことと、
前記トポロジー情報と前記処理能力情報とに基づいてクラスターリソースビューを生成することと、
を含む請求項1に記載の分散トレーニング方法。 - 前記分散コンピューティングビューと前記クラスターリソースビューとに基づいて、分散トレーニングタスクの目標分割ポリシーを確定することは、
前記分散コンピューティングビューと前記クラスターリソースビューとに基づいて、前記深層学習モデルの分割方式と前記クラスターハードウェアリソースのリソース構成方式を含む異なる分割ポリシーを生成することと、
各分割ポリシーに対応するオーバーヘッドに基づいて、分散トレーニングタスクの目標分割ポリシーを確定することと、
を含む請求項1に記載の分散トレーニング方法。 - 各分割ポリシーに対応するオーバーヘッドに基づいて、分散トレーニングタスクの目標分割ポリシーを確定することは、
各分割ポリシーに対応するオーバーヘッドを計算することであって、前記オーバーヘッドはランタイムオーバーヘッドとメモリ空間占有オーバーヘッドを含み、前記ランタイムオーバーヘッドは演算子オーバーヘッドと通信オーバーヘッドを含むことと、
オーバーヘッドが最小となる分割ポリシーを、分散トレーニングタスクの目標分割ポリシーとして確定することと、
を含む請求項6に記載の分散トレーニング方法。 - 前記目標分割ポリシーに基づいて前記トレーニングすべき深層学習モデルに対して分散トレーニングを行うことは、
前記目標分割ポリシーに基づいて、非同期式パイプライン処理機構を用いて前記トレーニングすべき深層学習モデルに対して分散トレーニングを行うことを含む請求項1に記載の分散トレーニング方法。 - 前記分散トレーニングプロセスにおいて、前記クラスターハードウェアリソースの環境が変化したことに応答して、前記目標分割ポリシーを再確定するために柔軟なリソース管理機構をトリガすることをさらに含む請求項8に記載の分散トレーニング方法。
- トレーニングすべき深層学習モデルのデータ情報に基づいて分散コンピューティングビューを生成するように構成される第1の生成モジュールと、
前記トレーニングすべき深層学習モデルに対応するクラスターハードウェアリソースの属性情報に基づいてクラスターリソースビューを生成するように構成される第2の生成モジュールと、
前記分散コンピューティングビューと前記クラスターリソースビューとに基づいて、分散トレーニングタスクの目標分割ポリシーを確定するように構成される確定モジュールと、
前記目標分割ポリシーに基づいて前記トレーニングすべき深層学習モデルに対して分散トレーニングを行うように構成されるトレーニングモジュールと、
を備える深層学習モデルの分散トレーニング装置。 - 前記第1の生成モジュールは、
前記トレーニングすべき深層学習モデルの演算子とテンソルを取得するように構成される第1の取得サブモジュールと、
前記演算子と前記テンソルに基づいて分散コンピューティングビューを生成するように構成される第1の生成サブモジュールと、
を備える請求項10の分散トレーニング装置。 - 前記第1の生成モジュールは、
前記演算子の分散属性と前記テンソルの分散属性を取得するように構成される第2の取得サブモジュールをさらに備え、
前記第1の生成サブモジュールは、
前記演算子と、前記演算子の分散属性と、前記テンソルと、前記テンソルの分散属性とに基づいて、分散コンピューティングビューを生成するように構成される生成ユニットを備える請求項11に記載の分散トレーニング装置。 - 前記分散コンピューティングビューにおける入力テンソルと出力テンソルの定義と、その入力テンソルと出力テンソルを使用する演算子の定義とが一致しないことを検出したことに応答して、再構成変換演算子を挿入するように構成される第1の挿入モジュールと、
前記分散コンピューティングビューにおける入力テンソルと出力テンソルに対応するデバイスと、その入力テンソルと出力テンソルを使用する演算子に対応するデバイスとが一致しないことを検出したことに応答して、通信演算子を挿入するように構成される第2の挿入モジュールと、をさらに備える請求項11または請求項12に記載の分散トレーニング装置。 - 前記第2の生成モジュールは、
前記トレーニングすべき深層学習モデルに対応するクラスターハードウェアリソースにおける各デバイス間のトポロジー情報と、前記クラスターハードウェアリソースにおける各デバイスの処理能力情報とを取得するように構成される第3の取得サブモジュールであって、前記処理能力情報は、プロセッサ情報、帯域幅情報、グラフィックスメモリ情報の少なくとも1つを含む第3の取得サブモジュールと、
前記トポロジー情報と前記処理能力情報とに基づいてクラスターリソースビューを生成するように構成される第2の生成サブモジュールと、
を備える請求項10に記載の分散トレーニング装置。 - 前記確定モジュールは、
前記分散コンピューティングビューと前記クラスターリソースビューとに基づいて、前記深層学習モデルの分割方式と前記クラスターハードウェアリソースのリソース構成方式を含む異なる分割ポリシーを生成するように構成される第3の生成サブモジュールと、
各分割ポリシーに対応するオーバーヘッドに基づいて、分散トレーニングタスクの目標分割ポリシーを確定するように構成される確定サブモジュールと、を備える請求項10に記載の分散トレーニング装置。 - 前記確定サブモジュールは、
各分割ポリシーに対応するオーバーヘッドを計算するように構成される計算ユニットであって、前記オーバーヘッドはランタイムオーバーヘッドとメモリ空間占有オーバーヘッドを含み、前記ランタイムオーバーヘッドは演算子オーバーヘッドと通信オーバーヘッドを含む、計算ユニットと、
オーバーヘッドが最小となる分割ポリシーを、分散トレーニングタスクの目標分割ポリシーとして確定するように構成される確定ユニットと、
を備える請求項15に記載の分散トレーニング装置。 - 前記トレーニングモジュールは、
前記目標分割ポリシーに基づいて、非同期式パイプライン処理機構を用いて前記トレーニングすべき深層学習モデルに対して分散トレーニングを行うように構成されるトレーニングサブモジュールを備える請求項10に記載の分散トレーニング装置。 - 前記分散トレーニングプロセスにおいて、前記クラスターハードウェアリソースの環境が変化したことに応答して、前記目標分割ポリシーを再確定するために柔軟なリソース管理機構をトリガするように構成されるトリガモジュールをさらに備える、請求項17に記載の分散トレーニング装置。
- 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が格納され、前記指令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1~9のいずれか1項に記載の分散トレーニング方法を実行させる、電子機器。 - コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体であって、
前記コンピュータ指令は、コンピュータに請求項1~3、5~9のいずれか1項に記載の分散トレーニング方法を実行させるために用いられる非一時的コンピュータ可読記憶媒体。 - プロセッサによって実行されると、請求項1~3、5~9のいずれか1項に記載の分散トレーニング方法が実現されるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111264469.2A CN113961351B (zh) | 2021-10-28 | 2021-10-28 | 深度学习模型的分布式训练方法、装置、设备及存储介质 |
CN202111264469.2 | 2021-10-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022137193A true JP2022137193A (ja) | 2022-09-21 |
JP7433373B2 JP7433373B2 (ja) | 2024-02-19 |
Family
ID=79468048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022111838A Active JP7433373B2 (ja) | 2021-10-28 | 2022-07-12 | 深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220374713A1 (ja) |
JP (1) | JP7433373B2 (ja) |
CN (1) | CN113961351B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115600671A (zh) * | 2022-10-20 | 2023-01-13 | 北京百度网讯科技有限公司(Cn) | 深度学习框架的数据处理方法、装置、设备和存储介质 |
CN115858131A (zh) * | 2023-02-22 | 2023-03-28 | 山东海量信息技术研究院 | 一种任务执行方法、系统、设备及可读存储介质 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723045B (zh) * | 2022-04-06 | 2022-12-20 | 北京百度网讯科技有限公司 | 模型训练方法、装置、系统、设备、介质及程序产品 |
CN114840322B (zh) * | 2022-05-17 | 2022-12-09 | 北京百度网讯科技有限公司 | 任务调度方法及装置、电子设备和存储 |
CN114820279B (zh) * | 2022-05-18 | 2023-03-24 | 北京百度网讯科技有限公司 | 基于多gpu的分布式深度学习方法、装置及电子设备 |
CN114862656B (zh) * | 2022-05-18 | 2023-05-05 | 北京百度网讯科技有限公司 | 基于多gpu的分布式深度学习模型训练代价的获取方法 |
CN116309002B (zh) * | 2022-05-19 | 2024-03-01 | 北京百度网讯科技有限公司 | 图数据存储、访问、处理方法、训练方法、设备及介质 |
CN114969444A (zh) * | 2022-05-24 | 2022-08-30 | 北京百度网讯科技有限公司 | 数据的处理方法、装置、电子设备和存储介质 |
WO2024065826A1 (en) * | 2022-09-30 | 2024-04-04 | Intel Corporation | Accelerate deep learning with inter-iteration scheduling |
CN116596091B (zh) * | 2022-11-08 | 2024-02-02 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备以及存储介质 |
CN115996173B (zh) * | 2022-11-14 | 2023-06-20 | 中国科学技术大学 | 面向分布式深度学习算子并行训练的通信优化方法与系统 |
CN115906983B (zh) * | 2022-11-23 | 2024-01-02 | 北京百度网讯科技有限公司 | 分布式模型训练方法、装置、设备、存储介质及程序产品 |
CN115936091B (zh) * | 2022-11-24 | 2024-03-08 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、装置、电子设备以及存储介质 |
CN115829053B (zh) * | 2022-11-25 | 2023-09-19 | 北京百度网讯科技有限公司 | 模型运行策略确定方法、装置、电子设备以及存储介质 |
CN115543639B (zh) * | 2022-12-01 | 2023-04-28 | 阿里云计算有限公司 | 分布式执行深度学习任务的优化方法和分布式系统 |
CN115878332B (zh) * | 2023-02-14 | 2023-05-26 | 北京燧原智能科技有限公司 | 深度学习网络中的内存资源分配方法、装置、设备及介质 |
CN116341642B (zh) * | 2023-03-01 | 2023-11-10 | 之江实验室 | 一种数据处理的方法、装置、存储介质及电子设备 |
CN116227585B (zh) * | 2023-05-10 | 2023-07-25 | 之江实验室 | 集群任务的并行执行方法、装置、计算机设备和存储介质 |
CN116306856B (zh) * | 2023-05-17 | 2023-09-05 | 之江实验室 | 一种基于搜索的深度学习模型部署方法及装置 |
CN116579400B (zh) * | 2023-05-19 | 2024-02-23 | 北京百度网讯科技有限公司 | 深度学习模型的量化方法、数据处理方法和装置 |
CN116862019B (zh) * | 2023-07-06 | 2024-03-19 | 清华大学 | 基于数据并行范式的模型训练方法及装置 |
CN116701001B (zh) * | 2023-08-08 | 2023-10-20 | 国网浙江省电力有限公司信息通信分公司 | 目标任务分配方法、装置、电子设备及存储介质 |
CN117057411B (zh) * | 2023-10-11 | 2024-01-09 | 北京燧原智能科技有限公司 | 一种大语言模型训练方法、装置、设备及存储介质 |
CN117112145B (zh) * | 2023-10-16 | 2024-02-13 | 之江实验室 | 训练模型分配方法、装置、计算机设备和存储介质 |
CN117271098B (zh) * | 2023-11-21 | 2024-02-13 | 北京燧原智能科技有限公司 | 一种ai模型计算核调度方法、装置、设备及存储介质 |
CN117875362A (zh) * | 2024-03-12 | 2024-04-12 | 菲特(天津)检测技术有限公司 | 大模型的分布式训练方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123205A (ja) * | 2006-11-10 | 2008-05-29 | Internatl Business Mach Corp <Ibm> | ジョブ実行方法、ジョブ実行システム及びジョブ実行プログラム |
JP2015167041A (ja) * | 2015-05-20 | 2015-09-24 | 大澤 昇平 | 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム |
JP2020518065A (ja) * | 2017-04-26 | 2020-06-18 | ミデア グループ カンパニー リミテッドMidea Group Co., Ltd. | ジョブサーバを使用した大規模な分散システムでの機械学習モデルのトレーニング |
CN113128702A (zh) * | 2021-04-15 | 2021-07-16 | 杭州电子科技大学 | 一种基于强化学习的神经网络自适应分布式并行训练方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7552098B1 (en) * | 2005-12-30 | 2009-06-23 | At&T Corporation | Methods to distribute multi-class classification learning on several processors |
CN109754060B (zh) * | 2017-11-06 | 2023-08-25 | 阿里巴巴集团控股有限公司 | 一种神经网络机器学习模型的训练方法及装置 |
US10776164B2 (en) * | 2018-11-30 | 2020-09-15 | EMC IP Holding Company LLC | Dynamic composition of data pipeline in accelerator-as-a-service computing environment |
CN109559734B (zh) * | 2018-12-18 | 2022-02-18 | 百度在线网络技术(北京)有限公司 | 声学模型训练的加速方法和装置 |
CN110889492B (zh) * | 2019-11-25 | 2022-03-08 | 北京百度网讯科技有限公司 | 用于训练深度学习模型的方法和装置 |
US20210158147A1 (en) * | 2019-11-26 | 2021-05-27 | International Business Machines Corporation | Training approach determination for large deep learning models |
CN115456160A (zh) * | 2020-03-27 | 2022-12-09 | 华为技术有限公司 | 一种数据处理方法和数据处理设备 |
-
2021
- 2021-10-28 CN CN202111264469.2A patent/CN113961351B/zh active Active
-
2022
- 2022-07-12 JP JP2022111838A patent/JP7433373B2/ja active Active
- 2022-08-03 US US17/880,070 patent/US20220374713A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123205A (ja) * | 2006-11-10 | 2008-05-29 | Internatl Business Mach Corp <Ibm> | ジョブ実行方法、ジョブ実行システム及びジョブ実行プログラム |
JP2015167041A (ja) * | 2015-05-20 | 2015-09-24 | 大澤 昇平 | 機械学習モデル設計支援装置、機械学習モデル設計支援方法、機械学習モデル設計支援装置用プログラム |
JP2020518065A (ja) * | 2017-04-26 | 2020-06-18 | ミデア グループ カンパニー リミテッドMidea Group Co., Ltd. | ジョブサーバを使用した大規模な分散システムでの機械学習モデルのトレーニング |
CN113128702A (zh) * | 2021-04-15 | 2021-07-16 | 杭州电子科技大学 | 一种基于强化学习的神经网络自适应分布式并行训练方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115600671A (zh) * | 2022-10-20 | 2023-01-13 | 北京百度网讯科技有限公司(Cn) | 深度学习框架的数据处理方法、装置、设备和存储介质 |
CN115858131A (zh) * | 2023-02-22 | 2023-03-28 | 山东海量信息技术研究院 | 一种任务执行方法、系统、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20220374713A1 (en) | 2022-11-24 |
CN113961351B (zh) | 2022-12-30 |
JP7433373B2 (ja) | 2024-02-19 |
CN113961351A (zh) | 2022-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7433373B2 (ja) | 深層学習モデルの分散トレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
AU2019284011B2 (en) | Data processing method and related products | |
US11847554B2 (en) | Data processing method and related products | |
CN109117252B (zh) | 基于容器的任务处理的方法、系统及容器集群管理系统 | |
CN109614227B (zh) | 任务资源调配方法、装置、电子设备及计算机可读介质 | |
US20230409921A1 (en) | Multi-node distributed training method and apparatus, device and readable medium | |
CN114862656A (zh) | 基于多gpu的分布式深度学习模型训练代价的获取方法 | |
EP4209894A1 (en) | Cloud code development system, method, and apparatus, device, and storage medium | |
US20220101194A1 (en) | Method, electronic device, and computer program product for processing machine learning model | |
CN114816393B (zh) | 信息生成方法、装置、设备以及存储介质 | |
CN107526639B (zh) | 资源编排的方法、介质、装置和计算设备 | |
CN109582528B (zh) | 状态监测方法、装置、电子设备及计算机可读存储介质 | |
CN114924851A (zh) | 训练任务的调度方法、装置、电子设备和存储介质 | |
CN116932147A (zh) | 流式作业处理方法、装置、电子设备及介质 | |
CN115543543A (zh) | 一种应用服务处理方法、装置、设备及介质 | |
US20210243088A1 (en) | Infrastructure resource simulation mechanism | |
CN112955865A (zh) | 应用视图层次的静态协调 | |
US11953972B2 (en) | Selective privileged container augmentation | |
Chung et al. | Perseus: Removing Energy Bloat from Large Model Training | |
CN117057411B (zh) | 一种大语言模型训练方法、装置、设备及存储介质 | |
CN114356505A (zh) | 用于调度容器组的方法、装置、设备、介质和产品 | |
CN117270862A (zh) | 基于动态编译的软件可插拔方法、装置、设备和介质 | |
CN117667038A (zh) | 代码生成方法、装置、设备以及存储介质 | |
CN116684473A (zh) | 程序变更发布方法、程序变更发布装置、存储介质及设备 | |
KR20220046526A (ko) | 데이터 처리 방법, 장치, 전자 기기 및 저장 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7433373 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |