JP2022017588A - 深層学習フレームワークのトレーニング方法、装置及び記憶媒体 - Google Patents
深層学習フレームワークのトレーニング方法、装置及び記憶媒体 Download PDFInfo
- Publication number
- JP2022017588A JP2022017588A JP2021185382A JP2021185382A JP2022017588A JP 2022017588 A JP2022017588 A JP 2022017588A JP 2021185382 A JP2021185382 A JP 2021185382A JP 2021185382 A JP2021185382 A JP 2021185382A JP 2022017588 A JP2022017588 A JP 2022017588A
- Authority
- JP
- Japan
- Prior art keywords
- task
- training
- deep learning
- node
- task node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 196
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000013135 deep learning Methods 0.000 claims abstract description 140
- 238000004590 computer program Methods 0.000 claims description 13
- 230000001360 synchronised effect Effects 0.000 claims description 13
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 8
- 239000003814 drug Substances 0.000 description 11
- 229940079593 drug Drugs 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/485—Task life-cycle, e.g. stopping, restarting, resuming execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/52—Program synchronisation; Mutual exclusion, e.g. by means of semaphores
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H70/00—ICT specially adapted for the handling or processing of medical references
- G16H70/40—ICT specially adapted for the handling or processing of medical references relating to drugs, e.g. their side effects or intended usage
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/48—Indexing scheme relating to G06F9/48
- G06F2209/485—Resource constraint
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5022—Workload threshold
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/503—Resource availability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
Description
ターゲットタスクがトレーニング開始条件を満たす場合、現在タスクノードクラスターにおける予め設定された開始条件を満たす少なくとも1つのタスクノードを取得し、さらに、少なくとも1つのタスクノードのノード数が予め設定された数を超えるかどうかを判断し、予め設定された数を超える場合、少なくとも1つのタスクノードがサンプルデータに基づいてターゲットタスクの深層学習フレームワークを同期トレーニングし、最後に、ターゲットタスクがトレーニング終了条件を満たす場合、同期トレーニングされたターゲット深層学習フレームワークを取得する。これにより、深層学習フレームワークの自動的なフレキシブルトレーニングを実現し、トレーニング効果を確保した上で、トレーニング効率を向上させ、人的コストを削減する。
本例では、ターゲット深層学習フレームワークによって画像意味の認識を行う。
本例では、ターゲット深層学習フレームワークによって医薬品類別の類別ラベルの決定を行う。
本発明の一実施例では、ターゲットタスクのトレーニングに対する自動化管理を容易にするために、タスクの4つの状態を設定し、図2に示すように、タスクトレーニングの4つの状態は、有効化、待機、動作、終了を含み、これらの変換関係は図2を参照し、各タスクの初期状態はすべて「有効化」であり、クラスターリソースにおいてトレーニングする時、タスクの状態は動作であり、動作状態はタスクが正常に動作していることを示し、中断され、プリエンプトされ、マシンの故障やその他の原因で失敗する場合、待機状態に変換され、待機状態の場合、クラスターリソースがトレーニング開始に関連する要求に再度満たすと、トレーニングタスクは再び動作状態に変換され、タスク全体がトレーニングを順調に完成した後、終了状態に変換され、トレーニング終了を示す。
本実施例では、人為的にトリガーするトレーニング開始のインタフェースを提供し、受信したユーザ音声情報にターゲットタスクのトレーニング開始キーワードが含まれる場合、または、ユーザが予め設定されたトレーニング開始コントロールをトリガーする時、ターゲットタスクがトレーニング開始条件を満たすと決定する。
本例では、他の高優先度タスクの進行を妨げないために、高レベルのスタクを実行する必要がない場合のみ、タスクのトレーニング開始条件が満たされる。
本例では、予め設定された開始条件はノード状態がアイドル状態であることである。
本例では、予め設定された開始条件はアイドルリソース量が一定値を超過することである。
現在タスクノードクラスターにおける各ノードのノード状態を決定し、
ノード状態がアイドル状態条件であるノードを、予め設定された開始条件を満たす少なくとも1つのタスクノードに決定する。
現在タスクノードクラスターにおける各ノードのアイドルリソース量を決定し、
アイドルリソース量が予め設定された閾値条件を超えるノードを、予め設定された開始条件を満たす少なくとも1つのタスクノードに決定する。
各タスクノードにおいて深層学習フレームワークをトレーニングし、
予め設定された周期に基づいて、各周期の各タスクノードにおける深層学習フレームワークのフレームワークパラメータを読み取り、
すべてのタスクノードのフレームワークパラメータの平均値である第1平均値を決定し、第1平均値に基づいて各タスクノードにおける深層学習フレームワークを同期する。
少なくとも1つのタスクノードの各タスクノードにおける深層学習フレームワークの現在フレームワークパラメータを取得し、
すべての現在フレームワークパラメータの平均値である第2平均値を決定し、
他のタスクノードと少なくとも1つのタスクノードが第2平均値に基づいて深層学習フレームワークのフレームワークパラメータを更新する。
現在タスクノードクラスターにおける実行対象のタスクの優先度を監視し、
優先度が予め設定されたレベルより低い場合、ターゲットタスクがトレーニング開始条件を満たすと決定する。
Claims (17)
- 深層学習フレームワークのトレーニング方法であって、
ターゲットタスクがトレーニング開始条件を満たす場合、現在タスクノードクラスターにおける予め設定された開始条件を満たす少なくとも1つのタスクノードを取得するステップと、
前記少なくとも1つのタスクノードのノード数が予め設定された数を超えるかどうかを判断するステップと、
前記ノード数が前記予め設定された数を超える場合、前記少なくとも1つのタスクノードはサンプルデータに基づいて、前記ターゲットタスクの深層学習フレームワークを同期トレーニングするステップと、
前記ターゲットタスクがトレーニング終了条件を満たす場合、同期トレーニングされたターゲット深層学習フレームワークを取得するステップと、を含む、
深層学習フレームワークのトレーニング方法。 - 前記現在タスクノードクラスターにおける予め設定された開始条件を満たす少なくとも1つのタスクノードを取得するステップは、
前記現在タスクノードクラスターにおける各ノードのノード状態を決定するステップと、
前記ノード状態がアイドル状態条件であるノードを、前記予め設定された開始条件を満たす少なくとも1つのタスクノードに決定するステップと、を含む、
請求項1に記載の方法。 - 現在タスクノードクラスターにおける予め設定された開始条件を満たす少なくとも1つのタスクノードを取得するステップは、
前記現在タスクノードクラスターにおける各ノードのアイドルリソース量を決定するステップと、
前記アイドルリソース量が予め設定された閾値条件を超えるノードを、前記予め設定された開始条件を満たす少なくとも1つのタスクノードに決定するステップと、を含む、
請求項1に記載の方法。 - 前記少なくとも1つのタスクノードはサンプルデータに基づいて、前記ターゲットタスクの深層学習フレームワークを同期トレーニングするステップは、
各前記タスクノードにおいて前記深層学習フレームワークをトレーニングするステップと、
予め設定された周期に基づいて各周期の各前記タスクノードにおける深層学習フレームワークのフレームワークパラメータを読み取るステップと、
すべての前記タスクノードのフレームワークパラメータの平均値である第1平均値を決定するステップと、
前記第1平均値に基づいて各前記タスクノードにおける深層学習フレームワークを同期するステップと、を含む、
請求項1に記載の方法。 - 前記少なくとも1つのタスクノードがサンプルデータに基づいて、前記ターゲットタスクの深層学習フレームワークを同期トレーニングするステップは、
前記現在タスクノードクラスターに前記予め設定された開始条件を満たす他のタスクノードが含まれているかどうかを監視するステップと、
前記他のタスクノードが存在する場合、前記他のタスクノードと前記少なくとも1つのタスクノードはサンプルデータに基づいて、前記ターゲットタスクの深層学習フレームワークを同期トレーニングするステップと、を含む、
請求項1に記載の方法。 - 前記他のタスクノードと前記少なくとも1つのタスクノードがサンプルデータに基づいて、前記ターゲットタスクの深層学習フレームワークを同期トレーニングするステップは、
前記少なくとも1つのタスクノードの各タスクノードにおける深層学習フレームワークの現在フレームワークパラメータを取得するステップと、
すべての前記現在フレームワークパラメータの平均値である第2平均値を決定するステップと、
前記他のタスクノードと前記少なくとも1つのタスクノードは前記第2平均値に基づいて前記深層学習フレームワークのフレームワークパラメータを更新するステップと、を含む、
請求項5に記載の方法。 - 前記ターゲットタスクがトレーニング開始条件を満たす前記場合、
前記現在タスクノードクラスターにおける実行対象のタスクの優先度を監視するステップと、
前記優先度が予め設定されたレベルより低い場合、前記ターゲットタスクがトレーニング開始条件を満たすと決定するステップと、を含む、
請求項1に記載の方法。 - 深層学習フレームワークのトレーニング装置であって、
ターゲットタスクがトレーニング開始条件を満たす場合、現在タスクノードクラスターにおける予め設定された開始条件を満たす少なくとも1つのタスクノードを取得するための第1取得モジュールと、
前記少なくとも1つのタスクノードのノード数が予め設定された数を超えるかどうかを判断するための判断モジュールと、
前記ノード数が前記予め設定された数を超える場合、前記少なくとも1つのタスクノードがサンプルデータに基づいて、前記ターゲットタスクの深層学習フレームワークを同期トレーニングするトレーニングモジュールと、
前記ターゲットタスクがトレーニング終了条件を満たす場合、同期トレーニングされたターゲット深層学習フレームワークを取得するための第2取得モジュールと、を含む、
深層学習フレームワークのトレーニング装置。 - 前記第1取得モジュールは、具体的に、
前記現在タスクノードクラスターにおける各ノードのノード状態を決定し、
前記ノード状態がアイドル状態条件であるノードを、前記予め設定された開始条件を満たす少なくとも1つのタスクノードに決定する、
請求項8に記載の装置。 - 前記第1取得モジュールは、具体的に、
前記現在タスクノードクラスターにおける各ノードのアイドルリソース量を決定し、
前記アイドルリソース量が予め設定された閾値条件を超えるノードを、前記予め設定された開始条件を満たす少なくとも1つのタスクノードに決定する、
請求項8に記載の装置。 - 前記トレーニングモジュールは、具体的に、
各前記タスクノードにおいて前記深層学習フレームワークをトレーニングし
予め設定された周期に基づいて各周期の各前記タスクノードにおける深層学習フレームワークのフレームワークパラメータを読み取り、
すべての前記タスクノードのフレームワークパラメータの平均値である第1平均値を決定する、
請求項8に記載の装置。 - 前記現在タスクノードクラスターに前記予め設定された開始条件を満たす他のタスクノードが含まれているかどうかを監視する監視モジュールと、
前記他のタスクノードと前記少なくとも1つのタスクノードはサンプルデータに基づいて、前記ターゲットタスクの深層学習フレームワークを同期トレーニングする前記トレーニングモジュールと、をさらに含む、
請求項8に記載の装置。 - 前記トレーニングモジュールは、具体的に、
前記少なくとも1つのタスクノードの各タスクノードにおける深層学習フレームワークの現在フレームワークパラメータを取得し、
すべての前記現在フレームワークパラメータの平均値である第2平均値を決定し、
前記他のタスクノードと前記少なくとも1つのタスクノードが前記第2平均値に基づいて前記深層学習フレームワークのフレームワークパラメータを更新する、
請求項12に記載の装置。 - 前記第1取得モジュールは、具体的に、
前記現在タスクノードクラスターにおける実行対象のタスクの優先度を監視し、
前記優先度が予め設定されたレベルより低い場合、前記ターゲットタスクがトレーニング開始条件を満たすと決定する、
請求項8に記載の装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1~7のいずれかに記載の深層学習フレームワークのトレーニング方法を実行させる、
電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、前記コンピュータに請求項1~7のいずれかに記載の深層学習フレームワークのトレーニング方法を実行させる、
非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムはプロセッサによって実行される場合、請求項1~7のいずれかに記載の深層学習フレームワークのトレーニング方法を実現する、
コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110266288.7 | 2021-03-10 | ||
CN202110266288.7A CN113032117A (zh) | 2021-03-10 | 2021-03-10 | 深度学习框架的训练方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022017588A true JP2022017588A (ja) | 2022-01-25 |
Family
ID=76470214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021185382A Pending JP2022017588A (ja) | 2021-03-10 | 2021-11-15 | 深層学習フレームワークのトレーニング方法、装置及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220036241A1 (ja) |
EP (1) | EP3955174A3 (ja) |
JP (1) | JP2022017588A (ja) |
KR (1) | KR20210156243A (ja) |
CN (1) | CN113032117A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102665470B1 (ko) | 2023-06-09 | 2024-05-10 | 주식회사 노타 | 인공지능 기반의 모델의 벤치마크 결과를 포함하는 사용자 인터페이스를 제공하기 위한 방법 및 장치 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113327598B (zh) * | 2021-06-30 | 2023-11-14 | 北京有竹居网络技术有限公司 | 模型的训练方法、语音识别方法、装置、介质及设备 |
CN114741175A (zh) * | 2022-04-15 | 2022-07-12 | 支付宝(杭州)信息技术有限公司 | 任务执行方法、装置、中心节点和下游节点设备 |
CN114860411B (zh) * | 2022-05-17 | 2023-05-05 | 北京百度网讯科技有限公司 | 多任务学习方法、装置、电子设备和存储介质 |
CN114820279B (zh) * | 2022-05-18 | 2023-03-24 | 北京百度网讯科技有限公司 | 基于多gpu的分布式深度学习方法、装置及电子设备 |
CN115222041B (zh) * | 2022-06-22 | 2023-09-01 | 北京百度网讯科技有限公司 | 用于模型训练的图生成方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007244887A (ja) * | 2001-12-03 | 2007-09-27 | Ziosoft Inc | ボリュームレンダリング処理方法、ボリュームレンダリング処理システム、計算機及びプログラム |
US20200151606A1 (en) * | 2015-05-22 | 2020-05-14 | Amazon Technologies, Inc. | Dynamically scaled training fleets for machine learning |
JP2020518065A (ja) * | 2017-04-26 | 2020-06-18 | ミデア グループ カンパニー リミテッドMidea Group Co., Ltd. | ジョブサーバを使用した大規模な分散システムでの機械学習モデルのトレーニング |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729126A (zh) * | 2016-08-12 | 2018-02-23 | 中国移动通信集团浙江有限公司 | 一种容器云的任务调度方法和装置 |
CN109117265A (zh) * | 2018-07-12 | 2019-01-01 | 北京百度网讯科技有限公司 | 在集群中调度作业的方法、装置、设备及存储介质 |
CN110889492B (zh) * | 2019-11-25 | 2022-03-08 | 北京百度网讯科技有限公司 | 用于训练深度学习模型的方法和装置 |
CN111768006A (zh) * | 2020-06-24 | 2020-10-13 | 北京金山云网络技术有限公司 | 一种人工智能模型的训练方法、装置、设备及存储介质 |
CN112000473A (zh) * | 2020-08-12 | 2020-11-27 | 中国银联股份有限公司 | 深度学习模型的分布式训练方法以及装置 |
CN112416599B (zh) * | 2020-12-03 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 一种资源调度方法、装置、设备及计算机可读存储介质 |
-
2021
- 2021-03-10 CN CN202110266288.7A patent/CN113032117A/zh active Pending
- 2021-10-13 EP EP21202496.2A patent/EP3955174A3/en active Pending
- 2021-10-14 US US17/501,003 patent/US20220036241A1/en active Pending
- 2021-11-15 JP JP2021185382A patent/JP2022017588A/ja active Pending
- 2021-12-07 KR KR1020210173825A patent/KR20210156243A/ko unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007244887A (ja) * | 2001-12-03 | 2007-09-27 | Ziosoft Inc | ボリュームレンダリング処理方法、ボリュームレンダリング処理システム、計算機及びプログラム |
US20200151606A1 (en) * | 2015-05-22 | 2020-05-14 | Amazon Technologies, Inc. | Dynamically scaled training fleets for machine learning |
JP2020518065A (ja) * | 2017-04-26 | 2020-06-18 | ミデア グループ カンパニー リミテッドMidea Group Co., Ltd. | ジョブサーバを使用した大規模な分散システムでの機械学習モデルのトレーニング |
Non-Patent Citations (1)
Title |
---|
SU HANG, ET AL.: "EXPERIMENTS ON PARALLEL TRAINING OF DEEP NEURAL NETWORK USING MODEL AVERAGING", ARXIV, JPN6023000215, 1 June 2018 (2018-06-01), US, ISSN: 0004961038 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102665470B1 (ko) | 2023-06-09 | 2024-05-10 | 주식회사 노타 | 인공지능 기반의 모델의 벤치마크 결과를 포함하는 사용자 인터페이스를 제공하기 위한 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP3955174A3 (en) | 2022-05-04 |
CN113032117A (zh) | 2021-06-25 |
KR20210156243A (ko) | 2021-12-24 |
EP3955174A2 (en) | 2022-02-16 |
US20220036241A1 (en) | 2022-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022017588A (ja) | 深層学習フレームワークのトレーニング方法、装置及び記憶媒体 | |
US11068518B2 (en) | Reducing negative effects of service waiting time in humanmachine interaction to improve the user experience | |
EP3913545A2 (en) | Method and apparatus for updating parameter of multi-task model, and electronic device | |
JP2021174516A (ja) | ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
US20210201912A1 (en) | Virtual Object Image Display Method and Apparatus, Electronic Device and Storage Medium | |
KR20210090122A (ko) | 분산형 모델 트레이닝 장치, 방법 및 컴퓨터 프로그램 | |
EP4287074A1 (en) | Mixture-of-experts model implementation method and system, electronic device, and storage medium | |
CN113656175A (zh) | 基于分布式系统训练模型的方法、设备及程序产品 | |
CN109033814A (zh) | 智能合约触发方法、装置、设备及存储介质 | |
US20200293942A1 (en) | Distributed learning model for fog computing | |
CN113657483A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
US11636304B2 (en) | Creating response schedule for tasks from cognitive state of a user | |
CN116127319B (zh) | 多模态负样本构建、模型预训练方法、装置、设备及介质 | |
US20230144949A1 (en) | Virtual-machine cold migration method and apparatus, electronic device and storage medium | |
CN115186738B (zh) | 模型训练方法、装置和存储介质 | |
US20220335316A1 (en) | Data annotation method and apparatus, electronic device and readable storage medium | |
CN116049420A (zh) | 知识图谱生成任务构建方法、装置、电子设备和存储介质 | |
CN116069497A (zh) | 执行分布式任务的方法、装置、设备以及存储介质 | |
CN113963186A (zh) | 目标检测模型的训练方法、目标检测方法及相关装置 | |
CN113821313A (zh) | 一种任务调度方法、装置及电子设备 | |
CN117057411B (zh) | 一种大语言模型训练方法、装置、设备及存储介质 | |
CN114979141B (zh) | 一种任务处理方法、装置、设备以及存储介质 | |
CN113420227B (zh) | 点击率预估模型的训练方法、预估点击率的方法、装置 | |
CN116599895A (zh) | 数据传输方法及装置、设备和介质 | |
CN115390992A (zh) | 一种虚拟机创建方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230215 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230801 |