JP7379668B2 - 機械学習ワークロードのためのタスクスケジューリング - Google Patents
機械学習ワークロードのためのタスクスケジューリング Download PDFInfo
- Publication number
- JP7379668B2 JP7379668B2 JP2022514245A JP2022514245A JP7379668B2 JP 7379668 B2 JP7379668 B2 JP 7379668B2 JP 2022514245 A JP2022514245 A JP 2022514245A JP 2022514245 A JP2022514245 A JP 2022514245A JP 7379668 B2 JP7379668 B2 JP 7379668B2
- Authority
- JP
- Japan
- Prior art keywords
- host
- hosts
- resources
- hardware
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 55
- 230000015654 memory Effects 0.000 claims description 78
- 238000000034 method Methods 0.000 claims description 63
- 238000012545 processing Methods 0.000 claims description 47
- 238000013528 artificial neural network Methods 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 32
- 238000004891 communication Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000008878 coupling Effects 0.000 claims description 4
- 238000010168 coupling process Methods 0.000 claims description 4
- 238000005859 coupling reaction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000013468 resource allocation Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5044—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/25—Using a specific main memory architecture
- G06F2212/254—Distributed memory
- G06F2212/2542—Non-uniform memory access [NUMA] architecture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Description
本明細書は、概して、計算ワークロードのタスクをスケジューリングすることと、計算ワークロードのタスクを実行するために使用されるリソースを割り当てることとに関する。
本文書には、大規模分散システム内の複数のホストにわたるリソースのそれぞれのグループにワークロードのタスクを割り当てることによって、機械学習(ML)ワークロードを処理する際のスケジューリングおよびリソース割り当てを改善する技術が記載されている。本文書に記載されている技術を使用して、分散システムを、分散システムの共有または共通のハードウェアバスを介してデータ通信をやり取りするリソースのグループにワークロードの各タスクを割り当てるように構成することができる。この割り当てスキームは、リソースグループの非均一メモリアクセス(non-uniform memory access:NUMA)トポロジに基づくリソース局所性を利用することによってワークロード処理時間を短縮することができる。いくつかの例において、記載されている技術を使用して、ハードウェアアクセラレータのフリートに対してNUMA認識スケジューリングを実行することにより、分散システムの個別のテンソル処理ノードで行われるニューラルネットワーク計算を加速させることができる。
さまざまな図面における同様の参照番号および名称は、同様の要素を示す。
Claims (19)
- ハードウェアアクセラレータを使用して、機械学習ワークロードを実行するためのタスクをスケジューリングしてリソースを割り当てる方法であって、前記ハードウェアアクセラレータの各々は、複数のニューラルネットワーク層を含むニューラルネットワークを実行するように構成され、前記方法は、
機械学習(ML)ワークロードを実行する要求を受信することと、
前記要求に基づいて、複数のホストを含む分散処理システムにおいて前記MLワークロードを実行するためのリソース要件を決定することとを備え、前記複数のホストのうちの各ホストはそれぞれの複数のハードウェアアクセラレータを含み、前記方法はさらに、
前記リソース要件と各ホストの前記それぞれの複数のハードウェアアクセラレータとに基づいて、前記MLワークロードを形成するタスクのセットからそれぞれのタスクを実行するように各々が割り当てられる多数のホストを決定することと、
前記多数のホストのうちの各ホストについて、
前記ホストのメモリアクセストポロジに基づいて、前記それぞれの複数のハードウェアアクセラレータを含む前記ホストのリソースを使用して前記ホストで実行されるように割り当てられた前記タスクを指定するそれぞれのタスク仕様を生成することと、
前記それぞれのタスク仕様を前記多数のホストのうちの前記ホストに提供することと、
前記多数のホストのうちの各ホストが前記ホストの前記それぞれのタスク仕様で指定された前記タスクを実行することによって、前記MLワークロードを実行することとを備える、方法。 - 各ホストの前記メモリアクセストポロジは、前記ホストに対してローカルであるそれぞれのメモリを含むそれぞれの非均一メモリアクセス(NUMA)トポロジを含み、
前記それぞれのメモリは、前記それぞれのメモリを前記それぞれの複数のハードウェアアクセラレータのうちの各ハードウェアアクセラレータと前記ホストの1つ以上の他のリソースとに結合するソケットインターフェイスを含む、請求項1に記載の方法。 - 前記それぞれのタスク仕様で指定された前記タスクを実行することは、
複数のニューラルネットワーク計算のそれぞれの部分を前記それぞれの複数のハードウェアアクセラレータのうちの各ハードウェアアクセラレータに割り当てたことに応答して、前記複数のニューラルネットワーク計算を行って、前記複数のニューラルネットワーク層のうちの各ニューラルネットワーク層の出力を生成することを備える、請求項1または2に記載の方法。 - 前記MLワークロードを実行することは、
前記ホストの制御グループの各リソースを使用して、かつ、前記それぞれのメモリと、前記ハードウェアアクセラレータと、前記ホストの前記リソースに含まれるそれぞれのプロセッサとの間でやり取りされるデータに基づいて、前記それぞれのタスク仕様についての命令を処理することを備える、請求項2に記載の方法。 - 前記MLワークロードを実行することは、
前記ホストの前記制御グループの各リソースをリンクするハードウェアソケットを介してやり取りされている前記データに基づいて前記命令を処理したことに応答して、前記それぞれのタスク仕様で指定されたタスクを実行することを備え、前記ハードウェアソケットは、前記ホストによって管理される複数のリソース間で共有されるローカル通信バスを規定する、請求項4に記載の方法。 - 第1のホストのそれぞれのNUMAトポロジは、一部が、
i)前記第1のホストに対してローカルであるリソースのそれぞれの構成におけるそれぞれの第1のメモリと、
ii)第2の異なるホストに対してはローカルであるが前記第1のホストに対してはリモートであるリソースのそれぞれの構成におけるそれぞれの第2の異なるメモリとに基づく、請求項4に記載の方法。 - 前記多数のホストを決定することは、
前記複数のホストのうちの各ホストによって管理されるリソースの構成を記述するシステムファイルを取得することと、
前記複数のホストのうちの各ホストの前記システムファイルに記述されている前記リソースの構成に基づいて、前記多数のホストを決定することとを備える、請求項1~6のいずれか1項に記載の方法。 - 前記複数のホストのうちの各ホストのNUMAソケットのマッピングを記述するシステムファイルに基づいて、前記ホストのリソースを結合する1つ以上のソケットを特定することと、
前記ホストの前記リソースを結合する前記1つ以上のソケットに基づいて、前記ホストの制御グループを形成することとを備える、請求項1に記載の方法。 - 前記制御グループ内のアクセラレータのための1つ以上のソケットインターフェイスに基づいて、前記タスク仕様のMLタスクを前記ホストの前記制御グループに割り当てることを備え、前記ソケットインターフェイスは前記システムファイルに記述されている前記NUMAソケットのマッピングに含まれており、さらに、
前記制御グループ内の前記アクセラレータを使用して、前記MLタスクを前記制御グループの下でプロセスとして実行することを備える、請求項8に記載の方法。 - ハードウェアアクセラレータを使用して、機械学習ワークロードを実行するためのタスクをスケジューリングしてリソースを割り当てるように構成されたシステムであって、前記ハードウェアアクセラレータの各々は、複数のニューラルネットワーク層を含むニューラルネットワークを実行するように構成され、前記システムは、
1つ以上の処理装置と、
動作を実行させるように前記1つ以上の処理装置によって実行可能な命令を格納する1つ以上の非一時的な機械読取可能記憶装置とを備え、前記動作は、
機械学習(ML)ワークロードを実行する要求を受信することと、
前記要求に基づいて、複数のホストを含む分散処理システムにおいて前記MLワークロードを実行するためのリソース要件を決定することとを備え、前記複数のホストのうちの各ホストはそれぞれの複数のハードウェアアクセラレータを含み、前記動作はさらに、
前記リソース要件と各ホストの前記それぞれの複数のハードウェアアクセラレータとに基づいて、前記MLワークロードを形成するタスクのセットからそれぞれのタスクを実行するように各々が割り当てられる多数のホストを決定することと、
前記多数のホストのうちの各ホストについて、
前記ホストのメモリアクセストポロジに基づいて、前記それぞれの複数のハードウェアアクセラレータを含む前記ホストのリソースを使用して前記ホストで実行されるように割り当てられた前記タスクを指定するそれぞれのタスク仕様を生成することと、
前記それぞれのタスク仕様を前記多数のホストのうちの前記ホストに提供することと、
前記多数のホストのうちの各ホストが前記ホストの前記それぞれのタスク仕様で指定された前記タスクを実行することによって、前記MLワークロードを実行することとを備える、システム。 - 各ホストの前記メモリアクセストポロジは、前記ホストに対してローカルであるそれぞれのメモリを含むそれぞれの非均一メモリアクセス(NUMA)トポロジを含み、
前記それぞれのメモリは、前記それぞれのメモリを前記それぞれの複数のハードウェアアクセラレータのうちの各ハードウェアアクセラレータと前記ホストの1つ以上の他のリソースとに結合するソケットインターフェイスを含む、請求項10に記載のシステム。 - 前記それぞれのタスク仕様で指定された前記タスクを実行することは、
複数のニューラルネットワーク計算のそれぞれの部分を前記それぞれの複数のハードウェアアクセラレータのうちの各ハードウェアアクセラレータに割り当てたことに応答して、前記複数のニューラルネットワーク計算を行って、前記複数のニューラルネットワーク層のうちの各ニューラルネットワーク層の出力を生成することを備える、請求項10または11に記載のシステム。 - 前記MLワークロードを実行することは、
前記ホストの制御グループの各リソースを使用して、かつ、前記それぞれのメモリと、前記ハードウェアアクセラレータと、前記ホストの前記リソースに含まれるそれぞれのプロセッサとの間でやり取りされるデータに基づいて、前記それぞれのタスク仕様についての命令を処理することを備える、請求項11に記載のシステム。 - 前記MLワークロードを実行することは、
前記ホストの各リソースをリンクするハードウェアソケットを介してやり取りされている前記データに基づいて前記命令を処理したことに応答して、前記それぞれのタスク仕様で指定されたタスクを実行することを備え、前記ハードウェアソケットは、前記ホストによって管理される複数のリソース間で共有されるローカル通信バスを規定する、請求項13に記載のシステム。 - 第1のホストのそれぞれのNUMAトポロジは、一部が、
i)前記第1のホストに対してローカルであるリソースのそれぞれの構成におけるそれぞれの第1のメモリと、
ii)第2の異なるホストに対してはローカルであるが前記第1のホストに対してはリモートであるリソースのそれぞれの構成におけるそれぞれの第2の異なるメモリとに基づく、請求項13に記載のシステム。 - 前記多数のホストを決定することは、
前記複数のホストのうちの各ホストによって管理されるリソースの構成を記述するシステムファイルを取得することと、
前記複数のホストのうちの各ホストの前記システムファイルに記述されている前記リソースの構成に基づいて、前記多数のホストを決定することとを備える、請求項10~15のいずれか1項に記載のシステム。 - 前記動作は、
前記複数のホストのうちの各ホストのNUMAソケットのマッピングを記述するシステムファイルに基づいて、前記ホストのリソースを結合する1つ以上のソケットを特定することと、
前記ホストの前記リソースを結合する前記1つ以上のソケットに基づいて、前記ホストの制御グループを形成することとを備える、請求項10に記載のシステム。 - 前記制御グループ内のアクセラレータのための1つ以上のソケットインターフェイスに基づいて、前記タスク仕様のMLタスクを前記ホストの前記制御グループに割り当てることを備え、前記ソケットインターフェイスは前記システムファイルに記述されている前記NUMAソケットのマッピングに含まれており、さらに、
前記制御グループ内の前記アクセラレータを使用して、前記MLタスクを前記制御グループの下でプロセスとして実行することを備える、請求項17に記載のシステム。 - ハードウェアアクセラレータによって実行されるプログラムであって、前記ハードウェアアクセラレータに前請求項1~9のいずれか1項に記載された方法を実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023187576A JP2024020271A (ja) | 2019-11-20 | 2023-11-01 | 機械学習ワークロードのためのタスクスケジューリング |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962938304P | 2019-11-20 | 2019-11-20 | |
US62/938,304 | 2019-11-20 | ||
US16/720,717 US11544113B2 (en) | 2019-11-20 | 2019-12-19 | Task scheduling for machine-learning workloads |
US16/720,717 | 2019-12-19 | ||
PCT/US2020/049648 WO2021101617A1 (en) | 2019-11-20 | 2020-09-08 | Task scheduling for machine-learning workloads |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023187576A Division JP2024020271A (ja) | 2019-11-20 | 2023-11-01 | 機械学習ワークロードのためのタスクスケジューリング |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023511467A JP2023511467A (ja) | 2023-03-20 |
JP7379668B2 true JP7379668B2 (ja) | 2023-11-14 |
Family
ID=75910002
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022514245A Active JP7379668B2 (ja) | 2019-11-20 | 2020-09-08 | 機械学習ワークロードのためのタスクスケジューリング |
JP2023187576A Pending JP2024020271A (ja) | 2019-11-20 | 2023-11-01 | 機械学習ワークロードのためのタスクスケジューリング |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023187576A Pending JP2024020271A (ja) | 2019-11-20 | 2023-11-01 | 機械学習ワークロードのためのタスクスケジューリング |
Country Status (6)
Country | Link |
---|---|
US (2) | US11544113B2 (ja) |
EP (1) | EP4062281A1 (ja) |
JP (2) | JP7379668B2 (ja) |
KR (1) | KR20220038497A (ja) |
CN (1) | CN114503077A (ja) |
WO (1) | WO2021101617A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544113B2 (en) * | 2019-11-20 | 2023-01-03 | Google Llc | Task scheduling for machine-learning workloads |
US11847489B2 (en) * | 2021-01-26 | 2023-12-19 | Apple Inc. | United states graphics processor techniques with split between workload distribution control data on shared control bus and corresponding graphics data on memory interfaces |
US11436054B1 (en) * | 2021-04-05 | 2022-09-06 | Hewlett Packard Enterprise Development Lp | Directing queries to nodes of a cluster of a container orchestration platform distributed across a host system and a hardware accelerator of the host system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015132887A (ja) | 2014-01-09 | 2015-07-23 | 富士通株式会社 | 要求分散プログラム、要求分散方法および情報処理装置 |
US20190114534A1 (en) | 2017-10-17 | 2019-04-18 | Xilinx, Inc. | Neural network processing system having multiple processors and a neural network accelerator |
US20190312772A1 (en) | 2018-04-04 | 2019-10-10 | EMC IP Holding Company LLC | Topology-aware provisioning of hardware accelerator resources in a distributed environment |
US20190325302A1 (en) | 2018-04-23 | 2019-10-24 | EMC IP Holding Company LLC | Implementing parameter server in networking infrastructure for high-performance computing |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2476314A1 (en) | 2002-02-07 | 2003-08-14 | Think-Dynamics Inc. | Method and system for managing resources in a data center |
US20130185729A1 (en) | 2012-01-13 | 2013-07-18 | Rutgers, The State University Of New Jersey | Accelerating resource allocation in virtualized environments using workload classes and/or workload signatures |
US9697045B2 (en) | 2015-03-24 | 2017-07-04 | International Business Machines Corporation | Selecting resource allocation policies and resolving resource conflicts |
US10241674B2 (en) | 2015-12-11 | 2019-03-26 | Vmware, Inc. | Workload aware NUMA scheduling |
US10346950B2 (en) | 2016-10-05 | 2019-07-09 | Hidden Path Entertainment, Inc. | System and method of capturing and rendering a stereoscopic panorama using a depth buffer |
US10176550B1 (en) | 2017-03-20 | 2019-01-08 | Nutanix, Inc. | GPU resource usage display and dynamic GPU resource allocation in a networked virtualization system |
US11010205B2 (en) | 2017-05-30 | 2021-05-18 | Hewlett Packard Enterprise Development Lp | Virtual network function resource allocation |
US10445249B2 (en) * | 2017-11-09 | 2019-10-15 | International Business Machines Corporation | Facilitating access to memory locality domain information |
US10713092B2 (en) | 2018-01-02 | 2020-07-14 | Jpmorgan Chase Bank, N.A. | Dynamic resource management of a pool of resources for multi-tenant applications based on sample exceution, query type or jobs |
US10942767B2 (en) | 2018-02-27 | 2021-03-09 | Microsoft Technology Licensing, Llc | Deep neural network workload scheduling |
US10601903B2 (en) * | 2018-05-17 | 2020-03-24 | International Business Machines Corporation | Optimizing dynamical resource allocations based on locality of resources in disaggregated data centers |
US11030012B2 (en) | 2018-09-28 | 2021-06-08 | Intel Corporation | Methods and apparatus for allocating a workload to an accelerator using machine learning |
US11216314B2 (en) * | 2018-11-02 | 2022-01-04 | EMC IP Holding Company LLC | Dynamic reallocation of resources in accelerator-as-a-service computing environment |
US20200294182A1 (en) * | 2019-03-15 | 2020-09-17 | Intel Corporation | On chip dense memory for temporal buffering |
US11388054B2 (en) * | 2019-04-30 | 2022-07-12 | Intel Corporation | Modular I/O configurations for edge computing using disaggregated chiplets |
US11521042B2 (en) | 2019-05-21 | 2022-12-06 | Anil Ravindranath | System and method to dynamically and automatically sharing resources of coprocessor AI accelerators |
US11301307B2 (en) * | 2019-07-24 | 2022-04-12 | Red Hat, Inc. | Predictive analysis for migration schedulers |
US20210097428A1 (en) * | 2019-09-30 | 2021-04-01 | International Business Machines Corporation | Scalable and dynamic transfer learning mechanism |
US20210149677A1 (en) * | 2019-11-15 | 2021-05-20 | Intel Corporation | Enhanced processor functions for calculation |
US11726793B2 (en) * | 2019-11-15 | 2023-08-15 | Intel Corporation | Data locality enhancement for graphics processing units |
US11544113B2 (en) * | 2019-11-20 | 2023-01-03 | Google Llc | Task scheduling for machine-learning workloads |
US11586932B2 (en) * | 2020-03-10 | 2023-02-21 | International Business Machines Corporation | Model training with variable batch sizing and gradient checkpoint segments |
US11526964B2 (en) * | 2020-06-10 | 2022-12-13 | Intel Corporation | Deep learning based selection of samples for adaptive supersampling |
US20220114401A1 (en) * | 2020-10-12 | 2022-04-14 | International Business Machines Corporation | Predicting performance of machine learning models |
US20220171700A1 (en) * | 2020-12-02 | 2022-06-02 | Unifabrix Ltd. | System and method for multimodal computer address space provisioning |
US20220188691A1 (en) * | 2020-12-11 | 2022-06-16 | International Business Machines Corporation | Machine Learning Pipeline Generation |
US20220124009A1 (en) * | 2021-11-16 | 2022-04-21 | Thijs Metsch | Intent-based orchestration in heterogenous compute platforms |
US20230195519A1 (en) * | 2021-12-22 | 2023-06-22 | Intel Corporation | Low power inference engine pipeline in a graphics processing unit |
US20230137191A1 (en) * | 2022-11-12 | 2023-05-04 | Adrian C. Hoban | Mechanism to recompose workload packages in a computing environment |
-
2019
- 2019-12-19 US US16/720,717 patent/US11544113B2/en active Active
-
2020
- 2020-09-08 WO PCT/US2020/049648 patent/WO2021101617A1/en unknown
- 2020-09-08 EP EP20775537.2A patent/EP4062281A1/en active Pending
- 2020-09-08 CN CN202080061569.2A patent/CN114503077A/zh active Pending
- 2020-09-08 KR KR1020227007076A patent/KR20220038497A/ko not_active Application Discontinuation
- 2020-09-08 JP JP2022514245A patent/JP7379668B2/ja active Active
-
2022
- 2022-12-29 US US18/091,263 patent/US20230136661A1/en active Pending
-
2023
- 2023-11-01 JP JP2023187576A patent/JP2024020271A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015132887A (ja) | 2014-01-09 | 2015-07-23 | 富士通株式会社 | 要求分散プログラム、要求分散方法および情報処理装置 |
US20190114534A1 (en) | 2017-10-17 | 2019-04-18 | Xilinx, Inc. | Neural network processing system having multiple processors and a neural network accelerator |
US20190312772A1 (en) | 2018-04-04 | 2019-10-10 | EMC IP Holding Company LLC | Topology-aware provisioning of hardware accelerator resources in a distributed environment |
US20190325302A1 (en) | 2018-04-23 | 2019-10-24 | EMC IP Holding Company LLC | Implementing parameter server in networking infrastructure for high-performance computing |
Also Published As
Publication number | Publication date |
---|---|
US20210149729A1 (en) | 2021-05-20 |
JP2024020271A (ja) | 2024-02-14 |
CN114503077A (zh) | 2022-05-13 |
EP4062281A1 (en) | 2022-09-28 |
WO2021101617A1 (en) | 2021-05-27 |
US11544113B2 (en) | 2023-01-03 |
US20230136661A1 (en) | 2023-05-04 |
KR20220038497A (ko) | 2022-03-28 |
JP2023511467A (ja) | 2023-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111247533B (zh) | 用于神经网络加速的机器学习运行时库 | |
JP7379668B2 (ja) | 機械学習ワークロードのためのタスクスケジューリング | |
CN115422284B (zh) | 存储设备、分布式存储系统以及数据处理方法 | |
TWI547817B (zh) | 叢集運算架構的資源規劃方法、系統及裝置 | |
CN111488205B (zh) | 面向异构硬件架构的调度方法和调度系统 | |
US11055139B2 (en) | Smart accelerator allocation and reclamation for deep learning jobs in a computing cluster | |
CN114730275A (zh) | 使用张量在分布式计算系统中进行矢量化资源调度的方法和装置 | |
KR20210148586A (ko) | 스케줄러, 스케줄러의 동작 방법 및 이를 포함한 가속기 시스템 | |
US10936377B2 (en) | Distributed database system and resource management method for distributed database system | |
JP2022068110A (ja) | データ処理方法、データ処理装置及びデータ処理装置を含む電子装置 | |
US20220229695A1 (en) | System and method for scheduling in a computing system | |
US20210390405A1 (en) | Microservice-based training systems in heterogeneous graphic processor unit (gpu) cluster and operating method thereof | |
CN106844024B (zh) | 一种自学习运行时间预测模型的gpu/cpu调度方法及系统 | |
CN113010301A (zh) | 用户定义的测定的优先级队列 | |
US20190370076A1 (en) | Methods and apparatus to enable dynamic processing of a predefined workload | |
US11663465B2 (en) | Method of managing task performance in an artificial neural network, and system executing an artificial neural network | |
US20240111578A1 (en) | Hierarchical work scheduling | |
US20240095083A1 (en) | Parallel workload scheduling based on workload data coherence | |
JP7396463B2 (ja) | 分散処理ノードおよび分散処理システム | |
US20230385228A1 (en) | Remote promise and remote future for downstream components to update upstream states | |
KR20230064963A (ko) | 클러스터 컴퓨팅 시스템에서의 리소스 할당 방법 및 장치 | |
KR20220132796A (ko) | 기계학습 워크로드 처리 장치 및 방법 | |
KR20230135923A (ko) | 기계학습 서비스를 위한 클러스터 구성 방법 및 장치 | |
KR20220049294A (ko) | 스케줄러, 스케줄러의 동작 방법 및 이를 포함한 전자 장치 | |
Melissaris | Market-Based Resourse Management for Many-Core Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7379668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |