JP5853624B2 - ワークロード・メタデータの生成、分析、及び利用のための方法、プログラム、及びシステム - Google Patents
ワークロード・メタデータの生成、分析、及び利用のための方法、プログラム、及びシステム Download PDFInfo
- Publication number
- JP5853624B2 JP5853624B2 JP2011250635A JP2011250635A JP5853624B2 JP 5853624 B2 JP5853624 B2 JP 5853624B2 JP 2011250635 A JP2011250635 A JP 2011250635A JP 2011250635 A JP2011250635 A JP 2011250635A JP 5853624 B2 JP5853624 B2 JP 5853624B2
- Authority
- JP
- Japan
- Prior art keywords
- workload
- metadata
- resource
- resources
- computational resources
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
- G06F9/5088—Techniques for rebalancing the load in a distributed system involving task migration
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Description
別の実施例において、ワークロード・キャラクタライザ101は、与えられた処理ユニット(例えば計算ノード110)の一つ以上のコア114のワークロード及びリソースを分析するように構成されてもよい。このようなコアは単一の計算ノード110の各々で動作するものであってもよい、又は、複数のコアが単一の計算ノードで動作してもよい。さらに別の実施例では、ワークロード・キャラクタライザ101は、一つ以上のスレッド118のワークロード及びリソースを分析するように構成されてもよい。このようなスレッドは単一のコア114の各々で動作してもよい。あるいは、複数のスレッドは単一CPUで動作してもよい。このようなスレッドは、コア114、CPU、又は、他の処理エンティティによって並行的な実行として同時に動作していてもよい。
ワークロードBが、初期の優先順位に関してワークロードキュー504においてワークロードCより前に位置するが、コア占有キャッシュの重い利用を行うワークロードBの要求がコア・オペレーション・ステータス502に示す利用可能リソースと競合を起こすため、ワークロード・マネジャ102は、ワークロードCの実行を優先させるように構成されてもよい。特に、コアのコア占有キャッシュ229は、すでに重く利用される。
ノードのオペレーション・ステータス602は、処理エンティティによってすでに実行に割り当てられるワークロードのリソース要求を含んでもよい。ノード・オペレーション・ステータス602は、リソース(例えばノード間バンド幅205、CPU利用206、パワー利用限度207、利用できるシステムメモリ204及びI/O接続208)を反映した領域を含んでもよい。ノード・オペレーション・ステータス602は、このようなリソースの各々の利用の現在のレベルの表示、及びこのようなリソースの各々の最大能力の表示を含んでもよい。例えば、CPU0の現在の利用は85%、CPU1は0%、ノード間バンド幅2GB/s、パワー利用300ワット、利用できるシステムメモリ384ギガバイト、及びI/O接続5GB/sである。ワークロード・キャラクタライザ101は、例えば、一つ以上の計算ノード110のオペレーションに基づいて、ノード・オペレーション・ステータス602を決定するように構成されてもよい。システム100の他の処理エンティティのためのオペレーション・ステータスを作成するように構成されてもよい。
コア間バンド幅と同様に、クロックレート及びシステム100の特定の設計は、整数ユニットの最大及び利用に影響を及ぼす。
コア占有キャッシュは、キロバイトで測定されてもよい。例えば、最大128キロバイトを有する。システム100の特定の設計は、コア占有キャッシュの利用及び最大値に影響を及ぼす。パワー利用制限は、ワットで測定されてもよい。例えば、最大25ワットが例として挙げられる。クロックレート、電源電圧、システム100の特定の設計は、利用及び最大パワー利用制限、システム100のリソースによるアイドリングに費やされる時間に影響を与える。その他の、最大値は、システム100の特定の設計に依存する。そして、このような利用、及びその最大は、システム100の処理エンティティのオペレーションを評価するために用いられる特定のレジスタの性質に従って変化する。
計算ノード110は、ネットワーク化された構成、又は方式(例えばクラウド計算方式)において実行されてもよい。計算ノード110は、一部の共有リソースを共有しながら、効率的に一つ以上のこのようなワークロードを実行するために、ワークロード・マネジャ102によってワークロードを割り当てられてもよい。計算ノード110は、リソース、例えば利用できるシステムメモリ204、ノード間バンド幅205、所定の計算ノードのCPU利用206、パワー利用限度207、及び/又はI/O接続バンド幅208、を共有してもよい。計算ノード110の全体(プール)に利用できるこのようなリソースの量は、ワークロード・キャラクタライザ101によって特徴づけられてもよい。所定のワークロードによって必要なこのようなリソースの量は、ワークロード・キャラクタライザ101によって特徴づけられてもよい。
(付記1)計算リソースを管理する方法であって、
第1のワークロードのための第1のワークロード・メタデータを生成するステップと;
第2のワークロードのための第2のワークロード・メタデータを生成するステップであって:
前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータの各々は、関連づけられたワークロードによって必要な計算リソースを特徴づけ;
最初に、前記第1のワークロードのメタデータが、前記第2のワークロード・メタデータより優先され;かつ
前記第1のワークロード及び前記第2のワークロードは、一つ以上の処理エンティティによって実行される;
ステップと;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータを比較するステップであって、前記計算リソースを特徴づけている前記リソース・メタデータは、一つ以上の前記処理エンティティにより利用可能である、ステップと、
リソース・メタデータに対するワークロード・メタデータの前記比較に基づいて、前記第1のワークロードと前記処理エンティティが利用できる前記計算リソースとの間でのリソース要求の潜在的な競合を特定するステップと;
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップであって、リソース要求の前記潜在的な競合は、前記第2のワークロードの前記リソース要求と前記処理エンティティが利用できる前記計算リソースとの間に存在しない、ステップと、
を有する方法。
(付記2)前記第1のワークロード・メタデータ及び第2のワークロード・メタデータは、各々のワークロードに要求される計算リソースの相対的特徴を含む、付記1記載の方法。
(付記3)前記第1のワークロード・メタデータ及び第2のワークロード・メタデータは、各々のワークロードに要求される前記計算リソースの定量的特徴を含む、付記1記載の方法。
(付記4)前記一つ以上の処理エンティティは、計算ノードのプールを有する、付記1記載の方法。
(付記5)前記一つ以上の処理エンティティは、プロセッサ・コアのプールを有する、付記1記載の方法。
(付記6)前記一つ以上の処理エンティティは、プロセッサ・スレッドのプールを有する、付記1記載の方法。
(付記7)ワークロードのためのワークロード・メタデータを生成するステップは、
実行のために前記ワークロードをシステムにロードするステップと;
データの第1のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードによって利用される前記計算リソースを測定するステップと;
を有する付記1記載の方法。
(付記8)ワークロードのためのワークロード・メタデータを生成するステップは、
データの第2のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードによって利用される前記計算リソースを測定するステップと;
前記ワークロードによって使用された計算リソースを平均化するステップと;
を更に有する付記7記載の方法。
(付記9)
第1の処理エンティティ及び第2の処理エンティティに利用可能な計算リソースを特徴付けることによって、リソース・メタデータが生成され;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び第2のワークロード・メタデータを比較するステップは、第1のワークロード・メタデータ及び第2のワークロード・メタデータを、前記第1の計算エンティティ及び前記第2の計算エンティティに利用可能な前記リソースに対して比較するステップを含み、
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップは、
前記第1の処理エンティティが、前記第2のワークロードを実行するために、十分なリソースを持っているか否かを判断するステップと;
前記第1の処理エンティティが、不十分なリソースしか持たない場合、前記第2のワークロードを実行するために、前記第2の処理エンティティが十分なリソースを持つか否かを判断するステップと;
前記第2の処理エンティティが十分なリソースを持つ場合、前記第2の処理エンティティによる実行のために前記第2のワークロードを割り当てるステップと;
を含む、付記1記載の方法。
(付記10)第1の処理エンティティによる前記第1のワークロードの実行が、前記処理エンティティに対して、利用可能な計算リソースの所定のカテゴリの100パーセントを超えさせる場合、潜在的な競合が特定される、付記3記載の方法。
(付記11)
コンピュータに、
第1のワークロードのための第1のワークロード・メタデータを生成するステップと;
第2のワークロードのための第2のワークロード・メタデータを生成するステップであって:
前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータの各々は、関連づけられたワークロードによって必要な計算リソースを特徴づけ;
最初に、前記第1のワークロードのメタデータが、前記第2のワークロード・メタデータより優先され;かつ
前記第1のワークロード及び前記第2のワークロードは、一つ以上の処理エンティティによって実行される;
ステップと;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータを比較するステップであって、前記計算リソースを特徴づけている前記リソース・メタデータは、一つ以上の前記処理エンティティにより利用可能である、ステップと、
リソース・メタデータに対するワークロード・メタデータの前記比較に基づいて、前記第1のワークロードと前記処理エンティティが利用できる前記計算リソースとの間でのリソース要求の潜在的な競合を特定するステップと;
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップであって、リソース要求の前記潜在的な競合は、前記第2のワークロードの前記リソース要求と前記処理エンティティが利用できる前記計算リソースとの間に存在しない、ステップと、
を実行させるプログラム。
(付記12)前記第1のワークロード・メタデータ及び第2のワークロード・メタデータは、各々のワークロードに要求される計算リソースの相対的特徴を含む、付記11記載のプログラム。
(付記13)前記第1のワークロード・メタデータ及び第2のワークロード・メタデータは、各々のワークロードに要求される前記計算リソースの定量的特徴を含む、付記11記載のプログラム。
(付記14)前記一つ以上の処理エンティティは、計算ノードのプールを有する、付記11記載のプログラム。
(付記15)前記一つ以上の処理エンティティは、プロセッサ・コアのプールを有する、付記11記載のプログラム。
(付記16)前記一つ以上の処理エンティティは、プロセッサ・スレッドのプールを有する、付記11記載のプログラム。
(付記17)ワークロードのためのワークロード・メタデータを生成するステップは、
実行のために前記ワークロードをシステムにロードするステップと;
データの第1のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードによって利用される前記計算リソースを測定するステップと;
を有する付記11記載のプログラム。
(付記18)ワークロードのためのワークロード・メタデータを生成するステップは、
データの第2のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードによって利用される前記計算リソースを測定するステップと;
前記ワークロードによって使用された計算リソースを平均化するステップと;
を更に有する付記17記載のプログラム。
(付記19)
第1の処理エンティティ及び第2の処理エンティティに利用可能な計算リソースを特徴付けることによって、リソース・メタデータが生成され;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び第2のワークロード・メタデータを比較するステップは、第1のワークロード・メタデータ及び第2のワークロード・メタデータを、前記第1の計算エンティティ及び前記第2の計算エンティティに利用可能な前記リソースに対して比較するステップを含み、
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップは、
前記第1の処理エンティティが、前記第2のワークロードを実行するために、十分なリソースを持っているか否かを判断するステップと;
前記第1の処理エンティティが、不十分なリソースしか持たない場合、前記第2のワークロードを実行するために、前記第2の処理エンティティが十分なリソースを持つか否かを判断するステップと;
前記第2の処理エンティティが十分なリソースを持つ場合、前記第2の処理エンティティによる実行のために前記第2のワークロードを割り当てるステップと;
を含む、付記11記載のプログラム。
(付記20)第1の処理エンティティによる前記第1のワークロードの実行が、前記処理エンティティに対して、利用可能な計算リソースの所定のカテゴリの100パーセントを超えさせる場合、潜在的な競合が特定される、付記13記載のプログラム。
(付記21)計算ワークロードを管理するシステムであって、
プロセッサと;
前記プロセッサに接続される計算機可読の媒体であって、コンピュータに、
第1のワークロードのための第1のワークロード・メタデータを生成するステップと;
第2のワークロードのための第2のワークロード・メタデータを生成するステップであって:
前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータの各々は、関連づけられたワークロードによって必要な計算リソースを特徴づけ;
前記第1のワークロード及び前記第2のワークロードは、一つ以上の処理エンティティによって実行される;
ステップと;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータを比較するステップであって、前記計算リソースを特徴づけている前記リソース・メタデータは、一つ以上の前記処理エンティティにより利用可能である、ステップと、
リソース・メタデータに対するワークロード・メタデータの前記比較に基づいて、前記第1のワークロードと前記処理エンティティが利用できる前記計算リソースとの間でのリソース要求の潜在的な競合を特定するステップと;
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップであって、リソース要求の前記潜在的な競合は、前記第2のワークロードの前記リソース要求と前記処理エンティティが利用できる前記計算リソースとの間に存在しない、ステップと、
を実行させるプログラムを格納した媒体と;
を有するシステム。
(付記22)前記第1のワークロード・メタデータ及び第2のワークロード・メタデータは、各々のワークロードに要求される計算リソースの相対的特徴を含む、付記21記載のシステム。
(付記23)前記第1のワークロード・メタデータ及び第2のワークロード・メタデータは、各々のワークロードに要求される前記計算リソースの定量的特徴を含む、付記21記載のシステム。
(付記24)前記一つ以上の処理エンティティは、計算ノードのプールを有する、付記21記載のシステム。
(付記25)前記一つ以上の処理エンティティは、プロセッサ・コアのプールを有する、付記21記載のシステム。
(付記26)前記一つ以上の処理エンティティは、プロセッサ・スレッドのプールを有する、付記21記載のシステム。
(付記27)ワークロードのためのワークロード・メタデータを生成するステップは、
実行のために前記ワークロードをシステムにロードするステップと;
データの第1のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードによって利用される前記計算リソースを測定するステップと;
を有する付記21記載のシステム。
(付記28)ワークロードのためのワークロード・メタデータを生成するステップは、
データの第2のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードによって利用される前記計算リソースを測定するステップと;
前記ワークロードによって使用された計算リソースを平均化するステップと;
を更に有する付記27記載のシステム。
(付記29)
第1の処理エンティティ及び第2の処理エンティティに利用可能な計算リソースを特徴付けることによって、リソース・メタデータが生成され;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び第2のワークロード・メタデータを比較するステップは、第1のワークロード・メタデータ及び第2のワークロード・メタデータを、前記第1の計算エンティティ及び前記第2の計算エンティティに利用可能な前記リソースに対して比較するステップを含み、
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップは、
前記第1の処理エンティティが、前記第2のワークロードを実行するために、十分なリソースを持っているか否かを判断するステップと;
前記第1の処理エンティティが、不十分なリソースしか持たない場合、前記第2のワークロードを実行するために、前記第2の処理エンティティが十分なリソースを持つか否かを判断するステップと;
前記第2の処理エンティティが十分なリソースを持つ場合、前記第2の処理エンティティによる実行のために前記第2のワークロードを割り当てるステップと;
を含む、付記21記載のプログラム。
(付記30)第1の処理エンティティによる前記第1のワークロードの実行が、前記処理エンティティに対して、利用可能な計算リソースの所定のカテゴリの100パーセントを超えさせる場合、潜在的な競合が特定される、付記23記載のシステム。
105 サーバ
110 計算ノード
112 ネットワーク
114 コア
118 スレッド
Claims (11)
- 計算リソースを管理する方法であって、
第1のワークロードのための第1のワークロード・メタデータを生成するステップと;
第2のワークロードのための第2のワークロード・メタデータを生成するステップであって:
前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータの各々は、関連づけられたワークロードに必要な計算リソースを指定し、必要な計算リソースは、各計算リソースを、別個のセグメント又は利用のカテゴリに分けることによって指定され;
最初に、前記第1のワークロードが、前記第2のワークロードより優先され;かつ
前記第1のワークロード及び前記第2のワークロードは、コンピュータシステムの複数の処理エンティティのうちの一つ以上の処理エンティティによってアサインされかつ実行されるようにスケジューリングされる;
ステップと;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータを比較するステップと;
コンピュータシステムのリソース・メタデータを生成するステップであって、前記リソース・メタデータは、前記複数の処理エンティティの各々において利用できる計算リソースを指定する、ステップと;
前記リソース・メタデータに対するワークロード・メタデータの前記比較に基づいて、前記第1のワークロードと前記処理エンティティが利用できる前記計算リソースとの間でのリソース要求の潜在的な競合を特定するステップであって、前記潜在的な競合は、前記第1のワークロードに要求される前記計算リソースのいずれかが、前記処理エンティティに利用できる前記計算リソースのいずれかの容量を超えると判断することによって特定される、ステップと;
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップであって、リソース要求の前記潜在的な競合は、前記第2のワークロードの前記リソース要求と前記処理エンティティが利用できる前記計算リソースとの間に存在しない、ステップと、
を有する方法。 - 一つ以上の閾値を用いて、必要な計算リソースを、別個のセグメント又は利用のカテゴリに分けるように、一つ以上の閾値を用いるステップをさらに有する、請求項1記載の方法。
- 前記第1のワークロード・メタデータ及び第2のワークロード・メタデータは、各々のワークロードに要求される前記計算リソースの定量的特徴を含む、請求項1記載の方法。
- 前記一つ以上の処理エンティティは、計算ノードの集合を有する、請求項1記載の方法。
- 前記一つ以上の処理エンティティは、プロセッサ・コアの集合を有する、請求項1記載の方法。
- 前記一つ以上の処理エンティティは、プロセッサ・スレッドの集合を有する、請求項1記載の方法。
- ワークロードのためのワークロード・メタデータを生成するステップは、
実行のために前記ワークロードをシステムにロードするステップと;
データの第1のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードの実行によって利用される前記計算リソースを測定するステップと;
を有する請求項1記載の方法。 - ワークロードのためのワークロード・メタデータを生成するステップは、
データの第2のサンプルによって前記ワークロードを実行するステップと;
前記ワークロードによって利用される前記計算リソースを測定するステップと;
前記ワークロードの実行によって使用された計算リソースの最大消費レベルに対するパーセンテージの平均値を算出するステップと;
を更に有する請求項7記載の方法。 - 第1の処理エンティティによる前記第1のワークロードの実行を行えば、前記第1の処理エンティティに対して、いずれかの利用可能な計算リソースの要求が100パーセントを超えることとなると判断される場合、潜在的な競合が特定される、請求項3記載の方法。
- コンピュータに、
第1のワークロードのための第1のワークロード・メタデータを生成するステップと;
第2のワークロードのための第2のワークロード・メタデータを生成するステップであって:
前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータの各々は、関連づけられたワークロードに必要な計算リソースを指定し、必要な計算リソースは、各計算リソースを、別個のセグメント又は利用のカテゴリに分けることによって指定され;
最初に、前記第1のワークロードが、前記第2のワークロードより優先され;かつ
前記第1のワークロード及び前記第2のワークロードは、コンピュータシステムの複数の処理エンティティのうちの一つ以上の処理エンティティによってアサインされかつ実行されるようにスケジューリングされる;
ステップと;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータを比較するステップと;
コンピュータシステムのリソース・メタデータを生成するステップであって、前記リソース・メタデータは、前記複数の処理エンティティの各々において利用できる計算リソースを指定する、ステップと;
前記リソース・メタデータに対するワークロード・メタデータの前記比較に基づいて、前記第1のワークロードと前記処理エンティティが利用できる前記計算リソースとの間でのリソース要求の潜在的な競合を特定するステップであって、前記潜在的な競合は、前記第1のワークロードに要求される前記計算リソースのいずれかが、前記処理エンティティに利用できる前記計算リソースのいずれかの容量を超えると判断することによって特定される、ステップと;
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップであって、リソース要求の前記潜在的な競合は、前記第2のワークロードの前記リソース要求と前記処理エンティティが利用できる前記計算リソースとの間に存在しない、ステップと、
を実行させるプログラム。 - 計算ワークロードを管理するシステムであって、
プロセッサと;
前記プロセッサに接続される計算機可読の媒体であって、コンピュータに、
第1のワークロードのための第1のワークロード・メタデータを生成するステップと;
第2のワークロードのための第2のワークロード・メタデータを生成するステップであって:
前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータの各々は、関連づけられたワークロードに必要な計算リソースを指定し、必要な計算リソースは、各計算リソースを、別個のセグメント又は利用のカテゴリに分けることによって指定され;
最初に、前記第1のワークロードのメタデータが、前記第2のワークロード・メタデータより優先され;かつ
前記第1のワークロード及び前記第2のワークロードは、コンピュータシステムの複数の処理エンティティのうちの一つ以上の処理エンティティによってアサインされかつ実行されるようにスケジューリングされる;
ステップと;
リソース・メタデータに対して前記第1のワークロード・メタデータ及び前記第2のワークロード・メタデータを比較するステップと;
コンピュータシステムのリソース・メタデータを生成するステップであって、前記リソース・メタデータは、前記複数の処理エンティティの各々において利用できる計算リソースを指定する、ステップと;
前記リソース・メタデータに対するワークロード・メタデータの前記比較に基づいて、前記第1のワークロードと前記処理エンティティが利用できる前記計算リソースとの間でのリソース要求の潜在的な競合を特定するステップであって、前記潜在的な競合は、前記第1のワークロードに要求される前記計算リソースのいずれかが、前記処理エンティティに利用できる前記計算リソースのいずれかの容量を超えると判断することによって特定される、ステップと;
前記処理エンティティのうちの1つによる実行のために前記第2のワークロードを割り当てるステップであって、リソース要求の前記潜在的な競合は、前記第2のワークロードの前記リソース要求と前記処理エンティティが利用できる前記計算リソースとの間に存在しない、ステップと、
を実行させるプログラムを格納した媒体と;
を有するシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/949,494 | 2010-11-18 | ||
US12/949,494 US8869161B2 (en) | 2010-11-18 | 2010-11-18 | Characterization and assignment of workload requirements to resources based on predefined categories of resource utilization and resource availability |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012108917A JP2012108917A (ja) | 2012-06-07 |
JP5853624B2 true JP5853624B2 (ja) | 2016-02-09 |
Family
ID=46065659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011250635A Active JP5853624B2 (ja) | 2010-11-18 | 2011-11-16 | ワークロード・メタデータの生成、分析、及び利用のための方法、プログラム、及びシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8869161B2 (ja) |
JP (1) | JP5853624B2 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8914515B2 (en) * | 2011-10-28 | 2014-12-16 | International Business Machines Corporation | Cloud optimization using workload analysis |
US20140188986A1 (en) * | 2013-01-02 | 2014-07-03 | Sourcefire, Inc. | Method and Apparatus for Identifying Computing Resource Trajectory |
US9811573B1 (en) * | 2013-09-27 | 2017-11-07 | EMC IP Holding Company LLC | Lineage information management in data analytics |
CN104182279A (zh) * | 2014-02-26 | 2014-12-03 | 无锡天脉聚源传媒科技有限公司 | 一种任务调度方法、装置及系统 |
US9378363B1 (en) | 2014-10-08 | 2016-06-28 | Amazon Technologies, Inc. | Noise injected virtual timer |
US9754103B1 (en) | 2014-10-08 | 2017-09-05 | Amazon Technologies, Inc. | Micro-architecturally delayed timer |
US9864636B1 (en) | 2014-12-10 | 2018-01-09 | Amazon Technologies, Inc. | Allocating processor resources based on a service-level agreement |
US9491112B1 (en) * | 2014-12-10 | 2016-11-08 | Amazon Technologies, Inc. | Allocating processor resources based on a task identifier |
US10740311B2 (en) * | 2015-09-14 | 2020-08-11 | Sap Se | Asynchronous index loading for database computing system startup latency managment |
US10034407B2 (en) * | 2016-07-22 | 2018-07-24 | Intel Corporation | Storage sled for a data center |
MX2019011590A (es) * | 2017-03-31 | 2019-11-08 | Velocity Tech Solutions Inc | Metodos y sistemas para realizar pruebas en aplicaciones web. |
US10558499B2 (en) * | 2017-10-26 | 2020-02-11 | Advanced Micro Devices, Inc. | Wave creation control with dynamic resource allocation |
US11223534B2 (en) | 2017-12-29 | 2022-01-11 | Virtual Instruments Worldwide, Inc. | Systems and methods for hub and spoke cross topology traversal |
US10768970B2 (en) | 2017-12-29 | 2020-09-08 | Virtual Instruments Corporation | System and method of flow source discovery |
US10572314B2 (en) * | 2018-01-11 | 2020-02-25 | Intel Corporation | Methods and apparatus to distribute a workload for execution |
US10671302B1 (en) | 2018-10-26 | 2020-06-02 | Pure Storage, Inc. | Applying a rate limit across a plurality of storage systems |
WO2020092852A1 (en) * | 2018-10-31 | 2020-05-07 | Virtual Instruments Corporation | Methods and system for throttling analytics processing |
KR102641520B1 (ko) * | 2018-11-09 | 2024-02-28 | 삼성전자주식회사 | 멀티-코어 프로세서를 포함하는 시스템 온 칩 및 그것의 태스크 스케줄링 방법 |
KR20200095103A (ko) | 2019-01-31 | 2020-08-10 | 에스케이하이닉스 주식회사 | 데이터 저장 장치 및 그 동작 방법 |
US11520297B2 (en) * | 2019-03-29 | 2022-12-06 | Intel Corporation | Enhancing diagnostic capabilities of computing systems by combining variable patrolling API and comparison mechanism of variables |
KR20200117256A (ko) * | 2019-04-03 | 2020-10-14 | 에스케이하이닉스 주식회사 | 컨트롤러, 이를 포함하는 메모리 시스템 및 메모리 시스템의 동작 방법 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6591262B1 (en) * | 2000-08-01 | 2003-07-08 | International Business Machines Corporation | Collaborative workload management incorporating work unit attributes in resource allocation |
JP2002073576A (ja) * | 2000-08-31 | 2002-03-12 | Toshiba Corp | バッチジョブ制御システム |
US7127625B2 (en) * | 2003-09-04 | 2006-10-24 | Hewlett-Packard Development Company, L.P. | Application management based on power consumption |
CN1297894C (zh) * | 2003-09-30 | 2007-01-31 | 国际商业机器公司 | 用于调度作业的方法、调度器以及网络计算机系统 |
US7810099B2 (en) * | 2004-06-17 | 2010-10-05 | International Business Machines Corporation | Optimizing workflow execution against a heterogeneous grid computing topology |
JP2006053654A (ja) * | 2004-08-10 | 2006-02-23 | Olympus Corp | ジョブ振分装置 |
US20060117317A1 (en) * | 2004-11-12 | 2006-06-01 | International Business Machines Corporation | On-demand utility services utilizing yield management |
US7472079B2 (en) * | 2005-01-12 | 2008-12-30 | International Business Machines Corporation | Computer implemented method for automatically controlling selection of a grid provider for a grid job |
US8214836B1 (en) * | 2005-05-13 | 2012-07-03 | Oracle America, Inc. | Method and apparatus for job assignment and scheduling using advance reservation, backfilling, and preemption |
US20070150599A1 (en) * | 2005-12-22 | 2007-06-28 | International Business Machines Corporation | Generation of resource-usage profiles for application sessions of a number of client computing devices |
US8136114B1 (en) * | 2006-04-21 | 2012-03-13 | Sprint Communications Company L.P. | Business process management system having dynamic task assignment |
US9588809B2 (en) * | 2006-10-10 | 2017-03-07 | Invistasking LLC | Resource-based scheduler |
US8185422B2 (en) * | 2006-07-31 | 2012-05-22 | Accenture Global Services Limited | Work allocation model |
US8566803B2 (en) * | 2007-09-20 | 2013-10-22 | International Business Machines Corporation | Benchmark profiling for distributed systems |
US8627325B2 (en) * | 2008-01-03 | 2014-01-07 | Hewlett-Packard Development Company, L.P. | Scheduling memory usage of a workload |
US8180716B2 (en) * | 2008-03-24 | 2012-05-15 | At&T Intellectual Property I, L.P. | Method and device for forecasting computational needs of an application |
US8443370B2 (en) * | 2008-08-26 | 2013-05-14 | Microsoft Corporation | Method of assigning resources to fulfill a service request by a programming model abstraction layer at a data center based at least in part on a reference of the requested resource class indicative of an abstract amount of resources |
US8260603B2 (en) * | 2008-09-30 | 2012-09-04 | Hewlett-Packard Development Company, L.P. | Scaling a prediction model of resource usage of an application in a virtual environment |
US20100169892A1 (en) * | 2008-12-29 | 2010-07-01 | Advanced Micro Devices, Inc. | Processing Acceleration on Multi-Core Processor Platforms |
US8266289B2 (en) * | 2009-04-23 | 2012-09-11 | Microsoft Corporation | Concurrent data processing in a distributed system |
US9703609B2 (en) * | 2009-05-29 | 2017-07-11 | Red Hat, Inc. | Matching resources associated with a virtual machine to offered resources |
US9141433B2 (en) * | 2009-12-18 | 2015-09-22 | International Business Machines Corporation | Automated cloud workload management in a map-reduce environment |
US8806501B2 (en) * | 2010-03-31 | 2014-08-12 | International Business Machines Corporation | Predictive dynamic system scheduling |
US8438570B2 (en) * | 2010-07-31 | 2013-05-07 | International Business Machines Corporation | Resource allocator with knowledge-based optimization |
US9069610B2 (en) * | 2010-10-13 | 2015-06-30 | Microsoft Technology Licensing, Llc | Compute cluster with balanced resources |
-
2010
- 2010-11-18 US US12/949,494 patent/US8869161B2/en active Active
-
2011
- 2011-11-16 JP JP2011250635A patent/JP5853624B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20120131593A1 (en) | 2012-05-24 |
JP2012108917A (ja) | 2012-06-07 |
US8869161B2 (en) | 2014-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5853624B2 (ja) | ワークロード・メタデータの生成、分析、及び利用のための方法、プログラム、及びシステム | |
JP5744909B2 (ja) | アクセラレータ・リソースを動的に管理するための方法、情報処理システム、およびコンピュータ・プログラム | |
US10191771B2 (en) | System and method for resource management | |
US8676976B2 (en) | Microprocessor with software control over allocation of shared resources among multiple virtual servers | |
US8972702B2 (en) | Systems and methods for power management in a high performance computing (HPC) cluster | |
US10884779B2 (en) | Systems and methods for selecting virtual machines to be migrated | |
US7698529B2 (en) | Method for trading resources between partitions of a data processing system | |
US8656405B2 (en) | Pulling heavy tasks and pushing light tasks across multiple processor units of differing capacity | |
US20060230405A1 (en) | Determining and describing available resources and capabilities to match jobs to endpoints | |
US20140215176A1 (en) | Memory allocation control method, recording medium, and information processing device | |
KR101140914B1 (ko) | 컴퓨팅 자원들을 제어하는 기술 | |
Zhu et al. | Deadline-constrained workflow scheduling in IaaS clouds with multi-resource packing | |
US7752623B1 (en) | System and method for allocating resources by examining a system characteristic | |
Gifford et al. | Dna: Dynamic resource allocation for soft real-time multicore systems | |
CN111625339A (zh) | 集群资源调度方法、装置、介质和计算设备 | |
US10140158B2 (en) | Methods and modules relating to allocation of host machines | |
Goglin et al. | Using performance attributes for managing heterogeneous memory in HPC applications | |
Sharma et al. | CASH: a credit aware scheduling for public cloud platforms | |
Modi et al. | CABARRE: Request Response Arbitration for Shared Cache Management | |
JP6364827B2 (ja) | 情報処理装置、及び、そのリソースアクセス方法、並びに、リソースアクセスプログラム | |
WO2023226437A1 (zh) | 一种资源调度方法、装置及设备 | |
US20230401089A1 (en) | Credit-based scheduling using load prediction | |
Yoon et al. | WCET-Aware optimization of shared cache partition and bus arbitration for hard real-time multicore systems | |
CN118041922A (zh) | 一种numa架构下cpu热点的判定方法 | |
Wang et al. | Interference-aware program scheduling for multicore processors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150323 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150623 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150917 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151123 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5853624 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |