JP5900088B2 - 並列計算機、並列計算機の制御方法及び制御プログラム - Google Patents
並列計算機、並列計算機の制御方法及び制御プログラム Download PDFInfo
- Publication number
- JP5900088B2 JP5900088B2 JP2012071235A JP2012071235A JP5900088B2 JP 5900088 B2 JP5900088 B2 JP 5900088B2 JP 2012071235 A JP2012071235 A JP 2012071235A JP 2012071235 A JP2012071235 A JP 2012071235A JP 5900088 B2 JP5900088 B2 JP 5900088B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- node
- job
- nodes
- communication path
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0871—Allocation or management of cache space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/172—Caching, prefetching or hoarding of files
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1041—Resource optimization
- G06F2212/1044—Space efficiency improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/15—Use in a specific computing environment
- G06F2212/154—Networked environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/16—General purpose computing application
- G06F2212/163—Server or database system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/28—Using a specific disk cache architecture
- G06F2212/283—Plural cache memories
- G06F2212/284—Plural cache memories being distributed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/46—Caching storage objects of specific type in disk cache
- G06F2212/463—File
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
まず、本実施の形態の概要について説明する。本実施の形態のシステムにおいては、計算ノードが、ファイルサーバのディスクから読み出されたデータを用いてジョブを実行し、実行結果をファイルサーバにおけるディスクに書き戻すという一連のディスクキャッシュとしての処理を行う。ここで、計算ノードの周りにはキャッシュサーバを配置し、キャッシュサーバのメモリにデータを格納できるようにしておくことにより、計算ノードによる処理の高速化等を実現する。
・計算ノードは2つのグループに分かれている。計算ノードからファイルサーバへの通信路の各々は独立である。各グループに含まれるノード数は同じではない。
図3に、第1の実施の形態のシステム概要を示す。例えば並列計算機システムである情報処理システム1は、複数の計算ノード2及び複数のキャッシュサーバ3を含む計算処理システム10と、ディスクデータ格納部110を含む複数のファイルサーバ11とを含む。計算処理システム10と複数のファイルサーバ11とは、ネットワーク4を介して接続されている。なお、計算処理システム10は、計算ノード2及びキャッシュサーバ3の各々がCPU(Central Processing Unit)及びメモリ等を有しているシステムである。
・E(N)=(1/2)N*D(N)
・入力バイト数の予測値=(2M−1)*{E(1)+E(2)+...+E(M)}/2M−1
ここで、M及びNは自然数とする。
・E(N)=(1/2)N*D(N)
・出力バイト数の予測値=(2M−1)*{E(1)+E(2)+...+E(M)}/2M−1
ここで、M及びNは自然数とする。
・ノード間の通信路を「辺」とする。
・各通信路において使用可能な(すなわち他のジョブによって使用されていない)バンド幅(ビット/秒)を「重み」とする。
・データ転送の向きを「(グラフにおける辺の)向き」とする。
・計算ノード2がファイルサーバ11におけるディスクデータ格納部110にデータを書き込む場合の通信においては、始点を計算ノード2とし、終点をファイルサーバ11とする。
(2)i番目のノードからj番目のノードへの通信路において使用可能なバンド幅を行列における(i,j)成分とする。
(3)i番目のノードからj番目のノードへの通信路が無い又はジョブがその通信路を利用できない場合には、(i,j)成分を0とする。
・1つのジョブを実行する計算ノード群を複数の部分集合(N1,N2,...Nk。ここで、kは2以上の自然数。)に分ける。ここで、Ni(iは自然数)とキャッシュサーバ3との間の通信路とNj(jはi<jを満たす自然数)とキャッシュサーバ3との間の通信路とが干渉しないように区分されている場合に、Ni及びNjを仮想的に1つの計算ノードとして取り扱う。
(2)次はカンマとする。
(3)1列目の数字が0以外であるかを判断する。ここでは1列目の数字が0であるので、何もしない。
(4)2列目の数字が0以外であるかを判断する。ここでは、2列目の数字が0以外であるので、3文字目を列番号「2」とし、4文字目をその数字「5」とする。
(5)3列目の数字が0以外であるかを判断する。ここでは3列目の数字が0であるので、何もしない。
(6)4列目の数字が0以外であるかを判断する。ここでは、4列目の数字が0以外であるので、5文字目を列番号「4」とし、6文字目をその数字「5」とする。
(7)5列目の数字が0以外であるかを判断する。ここでは5列目の数字が0であるので、何もしない。
(8)6列目の数字が0以外であるかを判断する。ここでは、6列目の数字が0以外であるので、7文字目を列番号「6」とし、8文字目をその数字「7」とする。
(9)7列目の数字が0以外であるかを判断する。ここでは7列目の数字が0であるので、何もしない。
次に、第2の実施の形態について説明する。第2の実施の形態においては、情報処理システム1がCPUバウンド状態及びIOバウンド状態のいずれであるかを判断し、その判断結果に応じて資源の割当を行うようになっている。ここで、CPUバウンド状態とは、利用できるCPU時間がジョブ実行の実時間の長さを決める主な要因である状態(すなわち、CPUがボトルネックになっている状態)のことを言う。これに対し、IOバウンド状態とは、IO処理がジョブ実行の実時間の長さを決める主な要因である状態(すなわち、IOがボトルネックになっている状態)のことを言う。
次に、第3の実施の形態について説明する。第3の実施の形態においては、ジョブの実行プログラムから特性データを抽出する。
次に、第4の実施の形態について説明する。第4の実施の形態においては、ステージイン及びステージアウトに合わせて資源の割当を行うことにより、特性データを利用することなく資源の割当を行えるようにする。
・ジョブの実行中は、ローカルファイルサーバ上のファイルを使用する。
・ジョブ実行終了時に、ローカルファイルサーバ上のファイルをリモートファイルサーバに書き戻す。この処理はファイルの「ステージアウト」と呼ばれる。
・ジョブの実行プログラム自身の動作を契機として制御を行う。例えば、ジョブの実行プログラムがファイルを最初にオープンする処理の延長でステージインを行い、最後にクローズする際又は最後のプロセスが終了する際にステージアウトする。このようなステージイン及びステージアウトの検出は、ジョブの実行プログラムを実行中に監視し、「最初のオープン」、「最後のクローズ」又は「プロセスの終了」という動作を「イベント」として捉えることで行う。
複数のノードがネットワークを介して接続された並列計算機システムの制御プログラムにおいて、
前記複数のノードのいずれかに、
前記複数のノードのうち第1のノードの記憶装置に格納されたデータを用いて実行するジョブについて、前記記憶装置に格納されたデータに対するアクセスの特性を示す特性データを取得させ、
取得された前記特性データに基づき、前記並列計算機システム及び前記ネットワークが有する資源のうちキャッシュに割り当てる資源を決定させる
ことを特徴とする並列計算機システムの制御プログラム。
前記特性データが、前記記憶装置に格納されたデータに対するアクセスによって転送されるデータ量の情報を含み、
前記キャッシュに割り当てる資源を決定させる処理において、
前記データ量が第1の閾値以上である場合、前記複数のノードのうち他のノードから受信した帯域幅のデータを用いて、データの転送時間が最短になるように又はデータを転送するための帯域幅が最大になるように前記第1のノードまでの転送経路を決定させ、該転送経路上のノードの資源をキャッシュに割り当てさせる
ことを特徴とする、付記1記載の並列計算機システムの制御プログラム。
前記キャッシュに割り当てる資源を決定させる処理において、
前記複数のノードの各々を頂点とし、前記ネットワークにおける各通信路を辺とし、該各通信路の帯域幅を重みとし、且つデータの転送方向を向きとした重み付き有向グラフを生成させ、
前記第1のノードまでの転送経路のうちキャッシュに割り当てる資源を有するノードまでの区間の経路を、前記重み付き有向グラフに対して第1のアルゴリズムを適用することにより決定させ、
前記第1のノードまでの転送経路のうちキャッシュに割り当てる資源を有するノードから前記第1のノードまでの区間の経路を、前記重み付き有向グラフに対して前記第1のアルゴリズムとは異なる第2のアルゴリズムを適用することにより決定させる
ことを特徴とする、付記2記載の並列計算機システムの制御プログラム。
前記重み付き有向グラフを生成させる処理において、
前記複数のノードの一部を仮想的に1つのノードとして頂点を生成させ、前記ネットワークにおける複数の通信路を仮想的に1つの通信路として辺を生成させ、且つ前記ネットワークにおける複数の通信路の各々の帯域幅の合計を該複数の通信路に対応する仮想的な1つ通信路の帯域幅とすることにより前記重み付き有向グラフを生成させる
ことを特徴とする、付記3記載の並列計算機システムの制御プログラム。
前記特性データが、
前記ジョブの実行に要するCPU時間及び前記記憶装置に格納されたデータに対するアクセスのための処理に要する時間の情報を含み、
前記キャッシュに割り当てる資源を決定させる処理において、
前記CPU時間及び前記記憶装置に格納されたデータに対するアクセスのための処理に要する時間に基づき、前記複数のノードの資源の割当方法を決定させる
ことを特徴とする、付記1記載の並列計算機システムの制御プログラム。
前記特性データを取得させる処理において、
前記ジョブの実行中に前記記憶装置に格納されたデータに対するアクセスを監視することにより、前記特性データを取得させる
ことを特徴とする、付記1乃至5のいずれか1つ記載の並列計算機システムの制御プログラム。
前記特性データを取得させる処理において、
前記ジョブの実行中に、前記特性データを格納するデータ格納部から該特性データを取得させる
ことを特徴とする、付記1乃至5のいずれか1つ記載の並列計算機システムの制御プログラム。
前記特性データを取得させる処理において、
前記ジョブの実行前に前記ジョブの実行プログラムを解析することにより前記特性データを生成させ、前記データ格納部に格納させる
ことを特徴とする、付記7記載の並列計算機システムの制御プログラム。
前記特性データを取得させる処理において、
前記ジョブの各実行段階について前記特性データを取得させ、
前記キャッシュに割り当てる資源を決定させる処理において、
前記ジョブの各実行段階について前記キャッシュに割り当てる資源を決定させる
ことを特徴とする、付記1乃至8のいずれか1つ記載の並列計算機システムの制御プログラム。
前記複数のノードのいずれかに、さらに、
前記ジョブの実行を制御するためのプログラムを解析することにより又は前記ジョブの実行を監視することにより、前記ジョブの実行開始又は前記ジョブの実行終了を検出させ、
前記ジョブの実行開始又は前記ジョブの実行終了を検出させる処理において前記ジョブの実行開始又は前記ジョブの実行終了が検出された場合に、前記複数のノードのいずれかにおける資源のうちキャッシュに割り当てる資源を増加させる
ことを特徴とする、付記1乃至9のいずれか1つ記載の並列計算機システムのプログラム。
前記第1のアルゴリズム及び前記第2のアルゴリズムが、ダイクストラ法、エースター法、ベルマンフォード法、増加道法及びプリフロープッシュ法の少なくともいずれかである
ことを特徴とする付記3又は4記載のプログラム。
前記並列計算機システムが有する資源が、CPU若しくはCPUコア又はメモリ若しくはメモリ領域のうち少なくともいずれかを含む
ことを特徴とする付記1乃至11のいずれか1つ記載のプログラム。
複数のノードがネットワークを介して接続された並列計算機システムの制御方法において、
前記複数のノードのいずれかが、
前記複数のノードのうち第1のノードの記憶装置に格納されたデータを用いて実行するジョブについて、前記記憶装置に格納されたデータに対するアクセスの特性を示す特性データを取得し、
取得された前記特性データに基づき、前記並列計算機システム及び前記ネットワークが有する資源のうちキャッシュに割り当てる資源を決定する
ことを特徴とする並列計算機システムの制御方法。
複数のノードがネットワークを介して接続された並列計算機システムにおいて、
前記複数のノードのいずれかが、
前記複数のノードのうち第1のノードの記憶装置に格納されたデータを用いて実行するジョブについて、前記記憶装置に格納されたデータに対するアクセスの特性を示す特性データを取得する取得部と、
取得された前記特性データに基づき、前記並列計算機システム及び前記ネットワークが有する資源のうちキャッシュに割り当てる資源を決定する決定部と
を有することを特徴とする並列計算機システム。
11 ファイルサーバ 110 ディスクデータ格納部
2 計算ノード 200 処理部
201 IO処理部 202 取得部
203 設定部 204 ジョブ実行部
205 特性管理部 206 特性データ格納部
207 資源割当部 208 バンド幅算出部
209 帯域データ格納部 210 リスト格納部
211 割当データ格納部 212 ジョブスケジューラ
3 キャッシュサーバ 31 キャッシュ処理部
32 キャッシュ 4 ネットワーク
5 インターコネクト
Claims (10)
- 複数のノードがネットワークを介して接続された並列計算機システムの制御プログラムであって、
前記複数のノードのいずれかのノードである第1のノードに、
前記複数のノードのうち第2のノードの記憶装置に格納されたデータを用いて実行するジョブについて、前記記憶装置に格納されたデータに対するアクセスによって転送されるデータ量の情報を含む特性データを取得させ、
前記データ量が第1の閾値以上である場合、前記複数のノードの各々を頂点とし、前記ネットワークにおける各通信路を辺とし、該各通信路の帯域幅を重みとし、且つデータの転送方向を向きとした重み付き有向グラフを生成させ、
前記第1のノードと前記複数のノードのうち第3のノードとの間の通信について、データの転送時間が最短になる又はデータを転送するための帯域幅が最大になる第1の通信路を、前記重み付き有向グラフに対して第1のアルゴリズムを適用することにより決定させ、
前記第3のノードと前記第2のノードとの間の通信について、データの転送時間が最短になる又はデータを転送するための帯域幅が最大になる第2の通信路を、前記重み付き有向グラフに対して前記第1のアルゴリズムとは異なる第2のアルゴリズムを適用することにより決定させ、
前記第1の通信路及び前記第2の通信路を用いてデータを転送する時間が所定の条件を満たす場合、前記第3のノードの資源をキャッシュに割り当てさせる
ことを特徴とする並列計算機システムの制御プログラム。 - 前記重み付き有向グラフを生成させる処理において、
前記複数のノードの一部を仮想的に1つのノードとして頂点を生成させ、前記ネットワークにおける複数の通信路を仮想的に1つの通信路として辺を生成させ、且つ前記ネットワークにおける複数の通信路の各々の帯域幅の合計を該複数の通信路に対応する仮想的な1つ通信路の帯域幅とすることにより前記重み付き有向グラフを生成させる
ことを特徴とする、請求項1記載の並列計算機システムの制御プログラム。 - 前記特性データを取得させる処理において、
前記ジョブの実行中に前記記憶装置に格納されたデータに対するアクセスを監視することにより、前記特性データを取得させる
ことを特徴とする、請求項1又は2記載の並列計算機システムの制御プログラム。 - 前記特性データを取得させる処理において、
前記ジョブの実行中に、前記特性データを格納するデータ格納部から該特性データを取得させる
ことを特徴とする、請求項1乃至3のいずれか1つ記載の並列計算機システムの制御プログラム。 - 前記特性データを取得させる処理において、
前記ジョブの実行前に前記ジョブの実行プログラムを解析することにより前記特性データを生成させ、前記データ格納部に格納させる
ことを特徴とする、請求項4記載の並列計算機システムの制御プログラム。 - 前記ジョブの各実行段階について、前記特性データを取得する処理、前記重み付き有向グラフを生成する処理、前記第1の通信路を決定する処理、前記第2の通信路を決定する処理、及び前記第3のノードの資源をキャッシュに割り当てる処理を実行させる
ことを特徴とする、請求項1乃至5のいずれか1つ記載の並列計算機システムの制御プログラム。 - 前記第1のノードに、さらに、
前記ジョブの実行を制御するためのプログラムを解析することにより又は前記ジョブの実行を監視することにより、前記ジョブの実行開始又は前記ジョブの実行終了を検出させ、
前記ジョブの実行開始又は前記ジョブの実行終了を検出させる処理において前記ジョブの実行開始又は前記ジョブの実行終了が検出された場合に、前記第3のノードにおける資源のうちキャッシュに割り当てる資源を増加させる
ことを特徴とする、請求項1乃至6のいずれか1つ記載の並列計算機システムの制御プログラム。 - 複数のノードがネットワークを介して接続された並列計算機システムの制御プログラムであって、
前記複数のノードのいずれかのノードである第1のノードに、
前記複数のノードのうち第2のノードの記憶装置に格納されたデータを用いて実行するジョブについて、前記ジョブの実行に要するCPU時間及び前記記憶装置に格納されたデータに対するアクセスのための処理に要する時間の情報を含む特性データを取得させ、
前記CPU時間及び前記記憶装置に格納されたデータに対するアクセスのための処理に要する時間に基づき、前記複数のノードの資源の割当方法を決定させる
ことを特徴とする並列計算機システムの制御プログラム。 - 複数のノードがネットワークを介して接続された並列計算機システムの制御方法であって、
前記複数のノードのいずれかのノードである第1のノードが、
前記複数のノードのうち第2のノードの記憶装置に格納されたデータを用いて実行するジョブについて、前記記憶装置に格納されたデータに対するアクセスによって転送されるデータ量の情報を含む特性データを取得し、
前記データ量が第1の閾値以上である場合、前記複数のノードの各々を頂点とし、前記ネットワークにおける各通信路を辺とし、該各通信路の帯域幅を重みとし、且つデータの転送方向を向きとした重み付き有向グラフを生成し、
前記第1のノードと前記複数のノードのうち第3のノードとの間の通信について、データの転送時間が最短になる又はデータを転送するための帯域幅が最大になる第1の通信路を、前記重み付き有向グラフに対して第1のアルゴリズムを適用することにより決定し、
前記第3のノードと前記第2のノードとの間の通信について、データの転送時間が最短になる又はデータを転送するための帯域幅が最大になる第2の通信路を、前記重み付き有向グラフに対して前記第1のアルゴリズムとは異なる第2のアルゴリズムを適用することにより決定し、
前記第1の通信路及び前記第2の通信路を用いてデータを転送する時間が所定の条件を満たす場合、前記第3のノードの資源をキャッシュに割り当てる
ことを特徴とする並列計算機システムの制御方法。 - 複数のノードがネットワークを介して接続された並列計算機システムであって、
前記複数のノードのいずれかのノードである第1のノードが、
前記複数のノードのうち第2のノードの記憶装置に格納されたデータを用いて実行するジョブについて、前記記憶装置に格納されたデータに対するアクセスによって転送されるデータ量の情報を含む特性データを取得する取得部と、
前記データ量が第1の閾値以上である場合、前記複数のノードの各々を頂点とし、前記ネットワークにおける各通信路を辺とし、該各通信路の帯域幅を重みとし、且つデータの転送方向を向きとした重み付き有向グラフを生成する生成部と、
前記第1のノードと前記複数のノードのうち第3のノードとの間の通信について、データの転送時間が最短になる又はデータを転送するための帯域幅が最大になる第1の通信路を、前記重み付き有向グラフに対して第1のアルゴリズムを適用することにより決定し、
前記第3のノードと前記第2のノードとの間の通信について、データの転送時間が最短になる又はデータを転送するための帯域幅が最大になる第2の通信路を、前記重み付き有向グラフに対して前記第1のアルゴリズムとは異なる第2のアルゴリズムを適用することにより決定する決定部と、
前記第1の通信路及び前記第2の通信路を用いてデータを転送する時間が所定の条件を満たす場合、前記第3のノードの資源をキャッシュに割り当てる割当部と
を有することを特徴とする並列計算機システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012071235A JP5900088B2 (ja) | 2012-03-27 | 2012-03-27 | 並列計算機、並列計算機の制御方法及び制御プログラム |
US13/832,266 US20130262683A1 (en) | 2012-03-27 | 2013-03-15 | Parallel computer system and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012071235A JP5900088B2 (ja) | 2012-03-27 | 2012-03-27 | 並列計算機、並列計算機の制御方法及び制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013205891A JP2013205891A (ja) | 2013-10-07 |
JP5900088B2 true JP5900088B2 (ja) | 2016-04-06 |
Family
ID=49236590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012071235A Expired - Fee Related JP5900088B2 (ja) | 2012-03-27 | 2012-03-27 | 並列計算機、並列計算機の制御方法及び制御プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20130262683A1 (ja) |
JP (1) | JP5900088B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9847907B2 (en) * | 2012-11-26 | 2017-12-19 | Amazon Technologies, Inc. | Distributed caching cluster management |
US9602614B1 (en) | 2012-11-26 | 2017-03-21 | Amazon Technologies, Inc. | Distributed caching cluster client configuration |
US9529772B1 (en) | 2012-11-26 | 2016-12-27 | Amazon Technologies, Inc. | Distributed caching cluster configuration |
EP3018581B1 (en) * | 2014-11-06 | 2017-03-08 | Fujitsu Limited | Data staging management system |
US10156999B2 (en) * | 2016-03-28 | 2018-12-18 | Seagate Technology Llc | Dynamic bandwidth reporting for solid-state drives |
JP6696315B2 (ja) * | 2016-06-17 | 2020-05-20 | 富士通株式会社 | 並列処理装置及びメモリキャッシュ制御方法 |
JP2022074864A (ja) * | 2020-11-05 | 2022-05-18 | 富士通株式会社 | 情報処理装置、情報処理装置の制御方法および情報処理装置の制御プログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5701482A (en) * | 1993-09-03 | 1997-12-23 | Hughes Aircraft Company | Modular array processor architecture having a plurality of interconnected load-balanced parallel processing nodes |
US6167438A (en) * | 1997-05-22 | 2000-12-26 | Trustees Of Boston University | Method and system for distributed caching, prefetching and replication |
ATE479147T1 (de) * | 2001-02-24 | 2010-09-15 | Ibm | Neuartiger massivparalleler supercomputer |
JP2003085032A (ja) * | 2001-09-10 | 2003-03-20 | Kanazawa Inst Of Technology | 自己組織化キャッシュ方法およびその方法を利用可能なキャッシュサーバ |
US7362709B1 (en) * | 2001-11-02 | 2008-04-22 | Arizona Board Of Regents | Agile digital communication network with rapid rerouting |
US8473602B2 (en) * | 2005-06-11 | 2013-06-25 | Intellectual Business Machines Corporation | System and method for autonomic system management through modulation of network controls |
US8150946B2 (en) * | 2006-04-21 | 2012-04-03 | Oracle America, Inc. | Proximity-based memory allocation in a distributed memory system |
US7428629B2 (en) * | 2006-08-08 | 2008-09-23 | International Business Machines Corporation | Memory request / grant daemons in virtual nodes for moving subdivided local memory space from VN to VN in nodes of a massively parallel computer system |
US8150904B2 (en) * | 2007-02-28 | 2012-04-03 | Sap Ag | Distribution of data and task instances in grid environments |
US20090025004A1 (en) * | 2007-07-16 | 2009-01-22 | Microsoft Corporation | Scheduling by Growing and Shrinking Resource Allocation |
KR101440107B1 (ko) * | 2008-01-28 | 2014-09-12 | 삼성전자주식회사 | 다중 코어 시스템에서 접근 시간에 기초한 메모리 관리방법 및 장치 |
JP2010009449A (ja) * | 2008-06-30 | 2010-01-14 | Nec Corp | 分散情報配置システム |
JP5052592B2 (ja) * | 2009-12-28 | 2012-10-17 | 株式会社日立製作所 | ストレージ管理システム、ストレージ階層管理方法及び管理サーバ |
JP2012242975A (ja) * | 2011-05-17 | 2012-12-10 | Nippon Telegr & Teleph Corp <Ntt> | 分散並列処理キャッシュ装置及び方法及び資源管理ノード及びプログラム |
JP5880139B2 (ja) * | 2012-02-29 | 2016-03-08 | 富士通株式会社 | 配置サーバ、情報処理システム、キャッシュ配置方法、キャッシュ配置プログラム |
-
2012
- 2012-03-27 JP JP2012071235A patent/JP5900088B2/ja not_active Expired - Fee Related
-
2013
- 2013-03-15 US US13/832,266 patent/US20130262683A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20130262683A1 (en) | 2013-10-03 |
JP2013205891A (ja) | 2013-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5900088B2 (ja) | 並列計算機、並列計算機の制御方法及び制御プログラム | |
US9864712B2 (en) | Shared receive queue allocation for network on a chip communication | |
CN108431796B (zh) | 分布式资源管理系统和方法 | |
CN111344688B (zh) | 云计算中资源提供的方法及系统 | |
US8862744B2 (en) | Optimizing traffic load in a communications network | |
JP4119239B2 (ja) | 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム | |
US9483187B2 (en) | Quality of service implementation in a networked storage system with hierarchical schedulers | |
CN103098014B (zh) | 存储系统 | |
CN109962969B (zh) | 用于云计算存储系统的自适应缓存负载均衡的方法和装置 | |
JP5332065B2 (ja) | クラスタ構成管理方法、管理装置及びプログラム | |
JP5664098B2 (ja) | 複合イベント分散装置、複合イベント分散方法および複合イベント分散プログラム | |
JP7063284B2 (ja) | 制御装置、制御方法及びプログラム | |
CN109684074A (zh) | 物理机资源分配方法及终端设备 | |
JP7442523B2 (ja) | ワークロードの特性を使用したストレージ層間のデータ転送によるデータ性能の向上 | |
JP5609730B2 (ja) | 情報処理プログラム及び方法、転送処理装置 | |
US9232000B1 (en) | Method and system for balancing load across target endpoints on a server and initiator endpoints accessing the server | |
CN108540405B (zh) | 网络资源迁移方法及装置 | |
US9591099B1 (en) | Server connection establishment over fibre channel using a block device access model | |
JP2014186411A (ja) | 管理装置、情報処理システム、情報処理方法、及びプログラム | |
CN105635285B (zh) | 一种基于状态感知的vm迁移调度方法 | |
US20110055831A1 (en) | Program execution with improved power efficiency | |
JP2010108300A (ja) | 情報処理システム、及び情報処理システムにおけるi/oのパスへの割り当て方法 | |
US9270786B1 (en) | System and method for proxying TCP connections over a SCSI-based transport | |
US9509797B1 (en) | Client communication over fibre channel using a block device access model | |
US9473590B1 (en) | Client connection establishment over fibre channel using a block device access model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5900088 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |