JP7424137B2 - 動作のスケジューリング - Google Patents
動作のスケジューリング Download PDFInfo
- Publication number
- JP7424137B2 JP7424137B2 JP2020047864A JP2020047864A JP7424137B2 JP 7424137 B2 JP7424137 B2 JP 7424137B2 JP 2020047864 A JP2020047864 A JP 2020047864A JP 2020047864 A JP2020047864 A JP 2020047864A JP 7424137 B2 JP7424137 B2 JP 7424137B2
- Authority
- JP
- Japan
- Prior art keywords
- operations
- scheduling
- computational resources
- resources
- perform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005457 optimization Methods 0.000 claims description 81
- 238000000034 method Methods 0.000 claims description 74
- 238000012545 processing Methods 0.000 claims description 52
- 238000010801 machine learning Methods 0.000 claims description 47
- 230000009471 action Effects 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 18
- 238000012549 training Methods 0.000 description 27
- 238000012546 transfer Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 15
- 238000013500 data storage Methods 0.000 description 8
- 238000007792 addition Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
- G06F9/4887—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues involving deadlines, e.g. rate based, periodic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Description
(付記1)
機能を実装するように連続的に実行されるよう構成され、各動作がパラメータ及び入力に関して実行される複数の動作を取得することと、
パラメータ及び入力に関して前記複数の動作を実行するよう構成される複数のリソースと、該複数のリソースの夫々が前記複数の動作の夫々を個別的に実行するための存続期間との指示を取得することと、
前記複数の動作を実行する全体の存続期間を減らす、前記複数の動作を実行するための前記複数のリソースのスケジューリングを、前記複数のリソースの夫々が前記複数の動作の夫々を個別的に実行するための前記存続期間に基づき、バイナリ最適化としてモデル化することと、
前記バイナリ最適化を解いて前記複数のリソースのスケジュールを決定することと、
前記複数のリソースによって、前記機能を実装するように前記スケジュールに従って前記複数の動作を実行することと
を有する方法。
(付記2)
前記複数のリソース間で情報を伝える通信遅延を取得することを更に有し、
前記複数のリソースの前記スケジューリングをモデル化することは、前記通信遅延に更に基づく、
付記1に記載の方法。
(付記3)
前記複数のリソースの夫々に関連したメモリ容量と、前記パラメータのメモリ要件及び前記入力のメモリ要件とを取得することを更に有し、
前記複数のリソースの前記スケジューリングをモデル化することは、前記パラメータのメモリ要件及び前記入力のメモリ要件に基づき、前記複数の動作の夫々に関して前記複数のリソースの夫々に関連したメモリ容量制約をモデル化することを含み、該モデル化されたメモリ容量制約は、前記バイナリ最適化を解くときに適用される、
付記2に記載の方法。
(付記4)
前記複数のリソースの前記スケジューリングを前記バイナリ最適化としてモデル化することは、前記複数の動作の中の第1動作の完了時間を定義するバイナリ最適化式を、前記第1動作の前に位置する前記複数の動作の中の動作を実行するための実行時間と、前記第1動作のための入力を取得するための前記通信遅延とを用いて生成することを含む、
付記3に記載の方法。
(付記5)
前記複数の動作の中の第1動作のための入力は、前記複数の動作の中の第2動作の出力であり、該第2動作は、前記複数の動作の連続実行において前記第1動作の直前である、
付記1に記載の方法。
(付記6)
前記複数のリソースの前記スケジューリングをモデル化することは、
前記複数の動作の夫々が前記複数のリソースのうちの1つによって実行されることをモデル化することと、
前記複数の動作の夫々が前記複数のリソースのうちの1つによって実行されることをモデル化することを、前記バイナリ最適化を解くときに制約として適用することと
を含む、
付記1に記載の方法。
(付記7)
前記複数の動作は、複数のサブタスクの中のあるサブタスクに関連し、該複数のサブタスクの夫々は、異なった複数の動作に関連し、
前記複数の動作を実行するための前記複数のリソースの前記スケジューリングをモデル化することは、前記複数のリソースによって前記複数のサブタスクの夫々について前記異なった複数の動作を実行するように前記複数のリソースの前記スケジューリングを前記バイナリ最適化としてモデル化することを含む、
付記1に記載の方法。
(付記8)
前記複数のリソースの数は、前記複数のサブタスクの数よりも多い、
付記7に記載の方法。
(付記9)
前記パラメータの夫々は、前記複数の動作のうちの2つによって使用される、
付記1に記載の方法。
(付記10)
前記複数の動作の実行によって実装される前記機能は、機械学習モデルを生成し、
当該方法は、分類されていない入力に前記機械学習モデルを適用して、前記入力の分類に関して前記分類されていない入力を分類することを更に有する、
付記1に記載の方法。
(付記11)
システムによって実行される場合に、該システムに動作を実行させる命令を記憶するよう構成された1以上のコンピュータ可読媒体であって、
前記動作は、
機能を実装するように連続的に実行されるよう構成され、各動作がパラメータ及び入力に関して実行される複数の動作を取得することと、
パラメータ及び入力に関して前記複数の動作を実行するよう構成される前記システム内の複数のリソースと、該複数のリソースの夫々が前記複数の動作の夫々を個別的に実行するための存続期間との指示を取得することと、
前記複数の動作を実行する全体の存続期間を減らす、前記複数の動作を実行するための前記複数のリソースのスケジューリングを、前記複数のリソースの夫々が前記複数の動作の夫々を個別的に実行するための前記存続期間に基づき、バイナリ最適化としてモデル化することと、
前記バイナリ最適化を解いて前記システムの前記複数のリソースのスケジュールを決定することと、
前記システムの前記複数のリソースによって、前記機能を実装するように前記スケジュールに従って前記複数の動作を実行することと
を有する、コンピュータ可読媒体。
(付記12)
前記動作は、前記複数のリソース間で情報を伝える通信遅延を取得することを更に有し、
前記複数のリソースの前記スケジューリングをモデル化することは、前記通信遅延に更に基づく、
付記11に記載のコンピュータ可読媒体。
(付記13)
前記動作は、前記複数のリソースの夫々に関連したメモリ容量と、前記パラメータのメモリ要件及び前記入力のメモリ要件とを取得することを更に有し、
前記複数のリソースの前記スケジューリングをモデル化することは、前記パラメータのメモリ要件及び前記入力のメモリ要件に基づき、前記複数の動作の夫々に関して前記複数のリソースの夫々に関連したメモリ容量制約をモデル化することを含み、該モデル化されたメモリ容量制約は、前記バイナリ最適化を解くときに適用される、
付記12に記載のコンピュータ可読媒体。
(付記14)
前記複数のリソースの前記スケジューリングを前記バイナリ最適化としてモデル化することは、前記複数の動作の中の第1動作の完了時間を定義するバイナリ最適化式を、前記第1動作の前に位置する前記複数の動作の中の動作を実行するための実行時間と、前記第1動作のための入力を取得するための前記通信遅延とを用いて生成することを含む、
付記13に記載のコンピュータ可読媒体。
(付記15)
前記複数の動作の中の第1動作のための入力は、前記複数の動作の中の第2動作の出力であり、該第2動作は、前記複数の動作の連続実行において前記第1動作の直前である、
付記11に記載のコンピュータ可読媒体。
(付記16)
前記複数のリソースの前記スケジューリングをモデル化することは、
前記複数の動作の夫々が前記複数のリソースのうちの1つによって実行されることをモデル化することと、
前記複数の動作の夫々が前記複数のリソースのうちの1つによって実行されることをモデル化することを、前記バイナリ最適化を解くときに制約として適用することと
を含む、
付記11に記載のコンピュータ可読媒体。
(付記17)
前記複数の動作は、複数のサブタスクの中のあるサブタスクに関連し、該複数のサブタスクの夫々は、異なった複数の動作に関連し、
前記複数の動作を実行するための前記複数のリソースの前記スケジューリングをモデル化することは、前記複数のリソースによって前記複数のサブタスクの夫々について前記異なった複数の動作を実行するように前記複数のリソースの前記スケジューリングを前記バイナリ最適化としてモデル化することを含む、
付記11に記載のコンピュータ可読媒体。
(付記18)
前記複数のリソースの数は、前記複数のサブタスクの数よりも多い、
付記17に記載のコンピュータ可読媒体。
(付記19)
前記パラメータの夫々は、前記複数の動作のうちの2つによって使用される、
付記11に記載のコンピュータ可読媒体。
(付記20)
前記複数の動作の実行によって実装される前記機能は、機械学習モデルを生成し、
前記動作は、分類されていない入力に前記機械学習モデルを適用して、前記入力の分類に関して前記分類されていない入力を分類することを更に有する、
付記11に記載のコンピュータ可読媒体。
110 動作データ
112 リソースデータ
114 入力データ
120 スケジューリングモジュール
122 スケジュール
130 実行環境
132,210 リソース
140 出力
302 コンピューティングシステム
350 プロセッサ
352 メモリ
354 データストレージ
Claims (18)
- タスク実行のための動作をスケジューリングするための、プロセッサによって実行される方法であって、
特定のタスクを実行するように連続的に実行されるよう構成される複数の動作に関する動作データを取得することであり、前記動作データは、動作ごとにどのようなパラメータ及び入力が供給されるかを表し、前記特定のタスクは複数のサブタスクを含み、前記複数の動作は前記複数のサブタスクの中のあるサブタスクに関連し、該複数のサブタスクの夫々は異なった複数の動作に関連する、ことと、
前記複数の動作を実行するために使用される複数の計算リソースと、該複数の計算リソースの夫々が前記複数の動作の夫々を個別的に実行するのに要する処理時間とに関するリソースデータを取得することと、
前記複数の動作を実行する総処理時間を減らすように、前記複数の計算リソースの夫々が前記複数の動作の夫々を個別的に実行するのに要する前記処理時間に基づき、前記複数の動作を実行するための前記複数の計算リソースのスケジューリングをバイナリ最適化問題として定式化することと、
前記バイナリ最適化問題の解に基づいて、前記リソースデータにおいて表されている前記複数の計算リソースによって前記動作データにおいて表されている前記複数の動作を実行するスケジュールを決定することと、
前記複数の計算リソースによって、前記特定のタスクを実行するように前記スケジュールに従って前記複数の動作を実行することと
を有し、
前記複数の計算リソースはメモリを含み、前記リソースデータは、前記メモリのメモリ容量と、前記複数の動作の夫々の前記パラメータ及び入力のためのメモリ要件とを含み、
前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記メモリ容量及び前記パラメータ及び入力のための前記メモリ要件に基づき、前記複数の動作の夫々に関して、前記複数の計算リソースのうち、当該動作の実行に十分なメモリ容量を持たない計算リソースは割り当てられないことを定めるメモリ容量制約を定式化して、メモリ容量制約式を取得することを含み、該メモリ容量制約式は、前記バイナリ最適化問題を解くときに適用される、方法。 - 前記リソースデータに基づいて、前記複数の計算リソース間で情報を伝える通信遅延を決定することを更に有し、
前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記通信遅延に更に基づく、
請求項1に記載の方法。 - 前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記複数の動作の中のいずれか1つの動作である第1動作の完了時間を定義するバイナリ最適化式を、前記第1動作の前に位置する前記複数の動作の中の動作を実行するための実行時間と、前記第1動作の前に位置する前記複数の動作の中の前記動作から前記第1動作のための入力を取得するための前記通信遅延とを用いて生成することを含む、
請求項2に記載の方法。 - 前記複数の動作の中の前記第1動作のための前記入力は、前記複数の動作の中の第2動作の出力であり、該第2動作は、前記複数の動作の連続実行において前記第1動作の直前である、
請求項3に記載の方法。 - 前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、
前記複数の動作の夫々が前記複数の計算リソースのうちの1つによって実行されること定める制約を定式化して、制約式を取得することを有し、
前記制約式は、前記バイナリ最適化問題を解くときに適用される、
請求項1に記載の方法。 - 前記複数の動作を実行するための前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記複数の計算リソースによって前記複数のサブタスクの夫々について前記異なった複数の動作を実行するように前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することを含む、
請求項1に記載の方法。 - 前記複数の計算リソースの数は、前記複数のサブタスクの数よりも多い、
請求項6に記載の方法。 - 前記パラメータの夫々は、前記複数の動作のうちの2つによって使用される、
請求項1に記載の方法。 - 前記複数の動作の連続的な実行によって実行される前記特定のタスクは、機械学習モデルを生成し、
当該方法は、分類されていない入力に前記機械学習モデルを適用して、前記入力の分類に関して前記分類されていない入力を分類することを更に有する、
請求項1に記載の方法。 - システムによって実行される場合に、該システムに動作を実行させる命令を記憶するよう構成された1以上のコンピュータ可読媒体であって、
前記動作は、
特定のタスクを実行するように連続的に実行されるよう構成される複数の動作に関する動作データを取得することであり、前記動作データは、動作ごとにどのようなパラメータ及び入力が供給されるかを表し、前記特定のタスクは複数のサブタスクを含み、前記複数の動作は前記複数のサブタスクの中のあるサブタスクに関連し、該複数のサブタスクの夫々は異なった複数の動作に関連する、ことと、
前記複数の動作を実行するために使用される複数の計算リソースと、該複数の計算リソースの夫々が前記複数の動作の夫々を個別的に実行するのに要する処理時間とに関するリソースデータを取得することと、
前記複数の動作を実行する総処理時間を減らすように、前記複数の計算リソースの夫々が前記複数の動作の夫々を個別的に実行するのに要する前記処理時間に基づき、前記複数の動作を実行するための前記複数の計算リソースのスケジューリングをバイナリ最適化問題として定式化することと、
前記バイナリ最適化問題の解に基づいて、前記リソースデータにおいて表されている前記複数の計算リソースによって前記動作データにおいて表されている前記複数の動作を実行するスケジュールを決定することと、
前記システムの前記複数の計算リソースによって、前記特定のタスクを実行するように前記スケジュールに従って前記複数の動作を実行することと
を有し、
前記複数の計算リソースはメモリを含み、前記リソースデータは、前記メモリのメモリ容量と、前記複数の動作の夫々の前記パラメータ及び入力のためのメモリ要件とを含み、
前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記メモリ容量及び前記パラメータ及び入力のための前記メモリ要件に基づき、前記複数の動作の夫々に関して、前記複数の計算リソースのうち、当該動作の実行に十分なメモリ容量を持たない計算リソースは割り当てられないことを定めるメモリ容量制約を定式化して、メモリ容量制約式を取得することを含み、該メモリ容量制約式は、前記バイナリ最適化問題を解くときに適用される、コンピュータ可読媒体。 - 前記動作は、前記リソースデータに基づいて、前記複数の計算リソース間で情報を伝える通信遅延を決定することを更に有し、
前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記通信遅延に更に基づく、
請求項10に記載のコンピュータ可読媒体。 - 前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記複数の動作の中のいずれか1つの動作である第1動作の完了時間を定義するバイナリ最適化式を、前記第1動作の前に位置する前記複数の動作の中の動作を実行するための実行時間と、前記第1動作の前に位置する前記複数の動作の中の前記動作から前記第1動作のための入力を取得するための前記通信遅延とを用いて生成することを含む、
請求項11に記載のコンピュータ可読媒体。 - 前記複数の動作の中の前記第1動作のための前記入力は、前記複数の動作の中の第2動作の出力であり、該第2動作は、前記複数の動作の連続実行において前記第1動作の直前である、
請求項12に記載のコンピュータ可読媒体。 - 前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、
前記複数の動作の夫々が前記複数の計算リソースのうちの1つによって実行されること定める制約を定式化して、制約式を取得することを有し、
前記制約式は、前記バイナリ最適化問題を解くときに適用される、
請求項10に記載のコンピュータ可読媒体。 - 前記複数の動作を実行するための前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することは、前記複数の計算リソースによって前記複数のサブタスクの夫々について前記異なった複数の動作を実行するように前記複数の計算リソースの前記スケジューリングを前記バイナリ最適化問題として定式化することを含む、
請求項10に記載のコンピュータ可読媒体。 - 前記複数の計算リソースの数は、前記複数のサブタスクの数よりも多い、
請求項15に記載のコンピュータ可読媒体。 - 前記パラメータの夫々は、前記複数の動作のうちの2つによって使用される、
請求項10に記載のコンピュータ可読媒体。 - 前記複数の動作の連続的な実行によって実行される前記特定のタスクは、機械学習モデルを生成し、
前記動作は、分類されていない入力に前記機械学習モデルを適用して、前記入力の分類に関して前記分類されていない入力を分類することを更に有する、
請求項10に記載のコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/420,071 US11231961B2 (en) | 2019-05-22 | 2019-05-22 | Scheduling operations |
US16/420071 | 2019-05-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020191074A JP2020191074A (ja) | 2020-11-26 |
JP7424137B2 true JP7424137B2 (ja) | 2024-01-30 |
Family
ID=69779743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020047864A Active JP7424137B2 (ja) | 2019-05-22 | 2020-03-18 | 動作のスケジューリング |
Country Status (4)
Country | Link |
---|---|
US (1) | US11231961B2 (ja) |
EP (1) | EP3742292A1 (ja) |
JP (1) | JP7424137B2 (ja) |
CN (1) | CN111984398A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220188166A1 (en) * | 2020-12-16 | 2022-06-16 | International Business Machines Corporation | Cognitive task scheduler |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160071018A1 (en) | 2014-09-09 | 2016-03-10 | 1Qb Information Technologies Inc. | Method and system for solving an optimization problem involving graph similarity |
WO2016174725A1 (ja) | 2015-04-28 | 2016-11-03 | 株式会社日立製作所 | 計算機及びニューラルネットワークを用いた演算方法 |
US20180285254A1 (en) | 2017-04-04 | 2018-10-04 | Hailo Technologies Ltd. | System And Method Of Memory Access Of Multi-Dimensional Data |
JP2018533792A (ja) | 2015-10-28 | 2018-11-15 | グーグル エルエルシー | 計算グラフの修正 |
WO2019079008A1 (en) | 2017-10-17 | 2019-04-25 | Xilinx, Inc. | LEARNING EXECUTION LIBRARY MACHINE FOR NEURONAL NETWORK ACCELERATION |
US10685295B1 (en) | 2016-12-29 | 2020-06-16 | X Development Llc | Allocating resources for a machine learning model |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140093508A (ko) | 2013-01-18 | 2014-07-28 | 한국과학기술원 | 근접질의 연산 가속화 시스템 |
US9430280B1 (en) | 2013-02-11 | 2016-08-30 | Amazon Technologies, Inc. | Task timeouts based on input data characteristics |
US11036552B2 (en) | 2016-10-25 | 2021-06-15 | International Business Machines Corporation | Cognitive scheduler |
US11003992B2 (en) * | 2017-10-16 | 2021-05-11 | Facebook, Inc. | Distributed training and prediction using elastic resources |
US10698737B2 (en) * | 2018-04-26 | 2020-06-30 | Hewlett Packard Enterprise Development Lp | Interoperable neural network operation scheduler |
US20200293838A1 (en) * | 2019-03-13 | 2020-09-17 | Deepmind Technologies Limited | Scheduling computation graphs using neural networks |
-
2019
- 2019-05-22 US US16/420,071 patent/US11231961B2/en active Active
-
2020
- 2020-02-19 CN CN202010102100.0A patent/CN111984398A/zh active Pending
- 2020-02-20 EP EP20158429.9A patent/EP3742292A1/en not_active Withdrawn
- 2020-03-18 JP JP2020047864A patent/JP7424137B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160071018A1 (en) | 2014-09-09 | 2016-03-10 | 1Qb Information Technologies Inc. | Method and system for solving an optimization problem involving graph similarity |
WO2016174725A1 (ja) | 2015-04-28 | 2016-11-03 | 株式会社日立製作所 | 計算機及びニューラルネットワークを用いた演算方法 |
JP2018533792A (ja) | 2015-10-28 | 2018-11-15 | グーグル エルエルシー | 計算グラフの修正 |
US20200401897A1 (en) | 2015-10-28 | 2020-12-24 | Google Llc | Modifying computational graphs |
US10685295B1 (en) | 2016-12-29 | 2020-06-16 | X Development Llc | Allocating resources for a machine learning model |
US20180285254A1 (en) | 2017-04-04 | 2018-10-04 | Hailo Technologies Ltd. | System And Method Of Memory Access Of Multi-Dimensional Data |
JP2020515989A (ja) | 2017-04-04 | 2020-05-28 | ハイロ テクノロジーズ リミテッド | 計算およびローカルメモリ要素を組み込むニューラルネットワーク処理要素 |
WO2019079008A1 (en) | 2017-10-17 | 2019-04-25 | Xilinx, Inc. | LEARNING EXECUTION LIBRARY MACHINE FOR NEURONAL NETWORK ACCELERATION |
JP2020537784A (ja) | 2017-10-17 | 2020-12-24 | ザイリンクス インコーポレイテッドXilinx Incorporated | ニューラルネットワークアクセラレーションのための機械学習ランタイムライブラリ |
Non-Patent Citations (2)
Title |
---|
中島 重義 Shigeyoshi NAKAJIMA,モジュール化されたフローグラフの静的割当て Statical Allocation of a Modularized Flow Graph,電子情報通信学会技術研究報告 Vol.90 No.143 IEICE Technical Report,日本,社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,1990年07月19日,第90巻 第143号, 65~70 |
片山謙吾、成久洋介,メタヒューリスティックスの現状,岡山理科大学紀要.A, 自然科学,巻 36,日本,岡山理科大学,2001年03月31日,119-128,https://ous.repo.nii.ac.jp/records/1661,2023年12月12日検索 |
Also Published As
Publication number | Publication date |
---|---|
US20200371838A1 (en) | 2020-11-26 |
EP3742292A1 (en) | 2020-11-25 |
CN111984398A (zh) | 2020-11-24 |
JP2020191074A (ja) | 2020-11-26 |
US11231961B2 (en) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020091858A (ja) | タスクグラフ動作のスケジューリング | |
Rosvall et al. | A constraint-based design space exploration framework for real-time applications on MPSoCs | |
Choudhury et al. | Online scheduling of dynamic task graphs with communication and contention for multiprocessors | |
Bambha et al. | Intermediate representations for design automation of multiprocessor DSP systems | |
Wang et al. | Overlapping communication with computation in parameter server for scalable DL training | |
JP7424137B2 (ja) | 動作のスケジューリング | |
Maiti et al. | Scheduling precedence-constrained jobs on related machines with communication delay | |
Wang et al. | Accelerate cooperative deep inference via layer-wise processing schedule optimization | |
Niu et al. | A scalable design approach for stencil computation on reconfigurable clusters | |
Su et al. | Increasing network size and training throughput of FPGA restricted Boltzmann machines using dropout | |
Huang et al. | An efficient parallel method for batched OS-ELM training using MapReduce | |
JP2023544911A (ja) | 並列量子コンピューティングのための方法及び装置 | |
Luangsomboon et al. | Fast min-plus convolution and deconvolution on GPUs | |
Panwar et al. | A Genetic algorithm based technique for efficient scheduling of tasks on multiprocessor system | |
Lößer et al. | Bottlemod: Modeling data flows and tasks for fast bottleneck analysis | |
Rodríguez et al. | Automating Data-Throttling Analysis for Data-Intensive Workflows | |
Cruz et al. | Parallelizing a heuristic for the maximum clique problem on gpus and clusters of workstations | |
Parmas et al. | Proppo: a message passing framework for customizable and composable learning algorithms | |
He et al. | Marking optimization of deterministic timed weighted marked graphs | |
Chen et al. | MARCO: A High-performance Task M apping a nd R outing Co-optimization Framework for Point-to-Point NoC-based Heterogeneous Computing Systems | |
Hu et al. | GiPH: Generalizable Placement Learning for Adaptive Heterogeneous Computing | |
Stetsenko | Parallel Algorithm for Petri Object Simulation | |
CN109298921B (zh) | 一种基于贝叶斯网络的分布式计算任务调度算法 | |
US20230130747A1 (en) | Computer-readable recording medium storing learning program, learning method, and information processing device | |
Dumitru et al. | A queueing theory approach to pareto optimal bags-of-tasks scheduling on clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231003 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7424137 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |