JP2022187285A - 管理装置,ストレージシステム及び情報処理方法 - Google Patents

管理装置,ストレージシステム及び情報処理方法 Download PDF

Info

Publication number
JP2022187285A
JP2022187285A JP2021095239A JP2021095239A JP2022187285A JP 2022187285 A JP2022187285 A JP 2022187285A JP 2021095239 A JP2021095239 A JP 2021095239A JP 2021095239 A JP2021095239 A JP 2021095239A JP 2022187285 A JP2022187285 A JP 2022187285A
Authority
JP
Japan
Prior art keywords
storage
load information
workload
network
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021095239A
Other languages
English (en)
Inventor
長武 白木
Nagatake Shiraki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021095239A priority Critical patent/JP2022187285A/ja
Priority to US17/686,022 priority patent/US11665228B2/en
Publication of JP2022187285A publication Critical patent/JP2022187285A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1012Server selection for load balancing based on compliance of requirements or conditions with available server resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1031Controlling of the operation of servers by a load balancer, e.g. adding or removing servers that serve requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ストレージシステムにおける負荷を分散させてスループットを向上させる。【解決手段】ストレージシステムの管理装置であって、コンテナの実行の際に、ワークロード負荷情報131及びシステム負荷情報133~135を取得し、ワークロード210の起動の際に、ワークロード負荷情報131及びシステム負荷情報133~135に基づき、ワークロード210の配置先及びボリューム13のレプリカ位置の決定を行う。【選択図】図3

Description

本発明は、管理装置,ストレージシステム及び情報処理方法に関する。
ネットワークを経由したストレージを有するクラスタシステムが存在する。
クラスタシステムでは、複数のサーバがネットワークによって接続したクラスタとして用意され、そのハードウェアをアプリケーションがシェアして利用する。クラスタ構成の一つの形態として、計算資源(CPU)と記憶資源(ストレージ)とを分離したシステムがある。アプリケーションの実行形態として、低オーバヘッドのコンテナの採用が進んでいる。
米国公開公報第2018/0248949号 米国公開公報第2019/0306022号 特表2016-528617号公報
図1は、クラスタシステムにおけるデータの読み出し例を説明する図である。
図1に示すクラスタシステムにおいては、ストレージ#1に記憶されているデータA,B及びストレージ#2に記憶されているデータCに対して、それぞれ、ストレージ#2にレプリカとしてのデータA’が記憶され、ストレージ#3にレプリカとしてのデータB’,C’が記憶されている。
符号A1に示すように、サーバ#1は、ストレージ#1からデータAを読み出している。また、符号A2に示すように、サーバ#2は、ストレージ#1からデータBを読み出している。更に、符号A3に示すように、サーバ#3は、ストレージ#2からデータCを読み出している。
このように、クラスタシステムにおいて、ワークロードの制御が行われない場合には、ワークロードが特定のストレージ(図1に示す例では、ストレージ#1)に集中してしまい、スループットが低下してしまうおそれがある。
1つの側面では、ストレージシステムにおける負荷を分散させてスループットを向上させることを目的とする。
1つの側面では、管理装置は、ストレージシステムの管理装置であって、コンテナの実行の際に、ワークロード負荷情報及びシステム負荷情報を取得し、ワークロードの起動の際に、前記ワークロード負荷情報及びシステム負荷情報に基づき、ワークロード配置先及びボリュームのレプリカ位置の決定を行う。
1つの側面では、ストレージシステムにおける負荷を分散させてスループットを向上させることができる。
クラスタシステムにおけるデータの読み出し例を説明する図である。 実施形態におけるワークロード負荷情報の取得及び蓄積を簡単に説明するブロック図である。 実施形態としてのストレージシステムにおけるレプリカ位置の決定動作を説明するブロック図である。 図3に示したストレージシステムの構成例を模式的に示すブロック図である。 実施形態としての情報処理装置のハードウェア構成例を模式的に示すブロック図である。 図3に示した管理ノードのソフトウェア構成例を模式的に示すブロック図である。 図3に示したコンピュートノードのソフトウェア構成例を模式的に示すブロック図である。 図3に示したストレージノードのソフトウェア構成例を模式的に示すブロック図である。 実施形態におけるレプリカ位置の決定処理を説明するフローチャートである。 図9に示したCPU及びアクセラレータの配置処理の詳細を説明するフローチャートである。 図9に示したストレージの配置処理の詳細を説明するフローチャートである。 図11に示したストレージの配置処理における帯域目標値を説明するためのテーブルである。 実施形態におけるストレージノードのリバランス処理を説明するフローチャートである。
〔A〕実施形態
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
〔A-1〕構成例
図2は、実施形態におけるワークロード負荷情報の取得及び蓄積を簡単に説明するブロック図である。
ワークロードの実行の際には、ワークロード負荷情報131が取得され、ワークロードIDと関連付けて保存される。別言すれば、コンテナを実行するときに、リソースへのアクセス状況が取得される。そして、コンテナイメージと関連付けてリソース要求情報が蓄積される。
ワークロードの実行中の負荷として、CPU負荷やメモリ負荷、Graphics Processing Unit(GPU)など使用ボリューム・アクセラレータ負荷、I/O負荷が観測される。I/O負荷は、データ総量や速度の平均・最大値・分散であってよい。
I/O負荷は、CPU101-ストレージ103間、CPU101-ネットワーク102間、CPU101-アクセラレータ104間、アクセラレータ104-ストレージ103間と分類して取得されてよい。
CPU101及びアクセラレータ104は、メモリを内蔵していてよい。
図3は、実施形態としてのストレージシステム100におけるレプリカ位置の決定動作を説明するブロック図である。
ストレージシステム100は、管理ノード1,複数(図示する例では3つ)のコンピュートノード2及び複数(図示する例では3つ)のストレージノード3を備える。
管理ノード1は、管理装置の一例であり、ワークロード実行要求を受け取ると、ワークロード負荷情報131,ノードリソース情報132,コンピュートノード負荷情報133,アクセラレータ負荷情報134,ストレージノード負荷情報135及びボリューム配置情報136を収集する。そして、管理ノード1は、ワークロード(WL)210及びアクセラレータ(ACC)220をスケジューリングして、ワークロード210の配置及び使用ボリュームのレプリカ位置を決定する。
ワークロード負荷情報131は、コンピュートノード2において実行されるワークロード210による負荷を示す。
ノードリソース情報132は、各ノードがメモリやCPU,アクセラレータ220等をどの程度有しているかを示す静的な情報である。
コンピュートノード負荷情報133は、コンピュートノード2におけるCPU,メモリ(MEM)及びネットワーク(NET)の負荷を示す。
アクセラレータ負荷情報134は、コンピュートノード2におけるアクセラレータ220の負荷を示す。
ストレージノード負荷情報135は、ストレージノード3におけるディスク13の負荷を示す。
ボリューム配置情報136は、各ストレージノード3にどのボリュームが存在するかを示す。
管理ノード1は、図4を用いて後述するスケジューラ110がリソースの利用状況を把握する。ワークロード210(別言すれば、コンテナ)の起動時に、ワークロード210の負荷要求及びリソース利用状況に基づき、コンピュートノード2(別言すれば、CPUノード及びアクセラレータノード)及びストレージノード3を決定する。決定には、I/O負荷の増加が配置ノードのネットワークスラック(別言すれば、余裕)を超えないことを考慮して、負荷状況に応じてストレージノード3の選択が動的に制御される。
図4は、図3に示したストレージシステム100の構成例を模式的に示すブロック図である。
ストレージシステム100は、例えばクラスタシステムであり、管理ノード1,複数(図4に示す例では、2つ)のコンピュートノード2及び複数(図4に示す例では、2つ)のストレージノード3を備える。管理ノード1と複数のコンピュートノード2と複数のストレージノード3とは、ネットワーク170を介して接続される。
管理ノード1は、管理装置の一例であり、スケジューラ110,情報130及びNetwork Interface Card(NIC)17を備える。スケジューラ110は、コンピュートノード2におけるワークロード210とストレージノード3におけるディスク13との配置を決定する。情報130は、図3に示したワークロード負荷情報131,ノードリソース情報132,コンピュートノード負荷情報133,アクセラレータ負荷情報134,ストレージノード負荷情報135及びボリューム配置情報136を含む。NIC17は、管理ノード1をネットワーク170に接続させる。
各コンピュートノード2は、サーバ装置の一例であり、複数(図4に示す例では、3つ)のワークロード210及びNIC17を備える。ワークロード210は、管理ノード1によって配置され、ストレージノード3のデータへアクセスするために実行される。NIC17は、コンピュートノード2をネットワーク170に接続させる。
各ストレージノード3は、ストレージ装置の一例であり、複数(図4に示す例では、3つ)のディスク13及びNIC17を備える。ディスク13は、コンピュートノード2からのアクセス対象となるデータを記憶する記憶装置である。NIC17は、ストレージノード3をネットワーク170に接続させる。
図5は、実施形態としての情報処理装置10のハードウェア構成例を模式的に示すブロック図である。
図5に示す情報処理装置10のハードウェア構成例は、図4に示した管理ノード1,コンピュートノード2及びストレージノード3のそれぞれのハードウェア構成例を示す。
情報処理装置10は、プロセッサ11,Random Access Memory(RAM)12,ディスク13,グラフィックInterface(I/F)14,入力I/F15,ストレージI/F16及びネットワーク1/F17を備える。
プロセッサ11は、例示的に、種々の制御や演算を行なう処理装置であり、RAM12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
なお、プロセッサ11としての機能を実現するためのプログラムは、例えばフレキシブルディスク、CD(CD-ROM、CD-R、CD-RW等)、DVD(DVD-ROM、DVD-RAM、DVD-R、DVD+R、DVD-RW、DVD+RW、HD DVD等)、ブルーレイディスク、磁気ディスク、光ディスク、光磁気ディスク等の、コンピュータ読取可能な記録媒体に記録された形態で提供されてよい。そして、コンピュータ(本実施形態ではプロセッサ11)は上述した記録媒体から図示しない読取装置を介してプログラムを読み取って内部記録装置または外部記録装置に転送し格納して用いてよい。また、プログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、記憶装置から通信経路を介してコンピュータに提供してもよい。
プロセッサ11としての機能を実現する際には、内部記憶装置(本実施形態ではRAM12)に格納されたプログラムがコンピュータ(本実施形態ではプロセッサ11)によって実行されてよい。また、記録媒体に記録されたプログラムをコンピュータが読み取って実行してもよい。
プロセッサ11は、情報処理装置10全体の動作を制御する。プロセッサ11は、マルチプロセッサであってもよい。プロセッサ11は、例えばCentral Processing Unit(CPU)やMicro Processing Unit(MPU),Digital Signal Processor(DSP),Application Specific Integrated Circuit(ASIC),Programmable Logic Device(PLD),Field Programmable Gate Array(FPGA)のいずれか一つであってもよい。また、プロセッサ11は、CPU,MPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。
RAM12は、例えばDynamic RAM(DRAM)であってよい。RAM12のソフトウェアプログラムは、プロセッサ11に適宜に読み込まれて実行されてよい。また、RAM12は、一次記録メモリあるいはワーキングメモリとして利用されてよい。
ディスク13は、例示的に、データを読み書き可能に記憶する装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。
グラフィックI/F14は、表示装置140に対して映像を出力する。表示装置140は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。
入力I/F15は、入力装置150からのデータの入力を受け付ける。入力装置150は、例えば、マウス、トラックボール、キーボードであり、この入力装置150を介して、オペレータが各種の入力操作を行なう。入力装置150及び表示装置140は組み合わされたものでもよく、例えば、タッチパネルでもよい。
ストレージI/F16は、媒体読み取り装置160に対するデータの入出力を行う。媒体読み取り装置160は、記録媒体が装着可能に構成される。媒体読み取り装置160は、記録媒体が装着された状態において、記録媒体に記録されている情報を読み取り可能に構成される。本例では、記録媒体は可搬性を有する。例えば、記録媒体は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
ネットワークI/F17は、情報処理装置10をネットワーク170と接続し、このネットワーク170を介して他の情報処理装置10(別言すれば、管理ノード1、コンピュートノード2又はストレージノード3)や図示しない外部装置と通信を行なうためのインタフェース装置である。ネットワークI/F17としては、例えば、有線Local Area Network(LAN)や無線LAN,Wireless Wide Area Network(WWAN)のネットワーク170の規格に対応する各種インタフェースカードを用いることができる。
図6は、図3に示した管理ノード1のソフトウェア構成例を模式的に示すブロック図である。
管理ノード1は、スケジューラ110及び情報交換部111として機能する。
情報交換部111は、ネットワーク170を介して、他のノード(別言すれば、コンピュートノード2及びストレージノード3)から、ワークロード負荷情報131,コンピュートノード負荷情報133,ストレージノード負荷情報135及びアクセラレータ負荷情報134を取得する。
別言すれば、情報交換部111は、コンテナの実行の際に、ワークロード負荷情報131及びシステム負荷情報(別言すれば、コンピュートノード負荷情報133,アクセラレータ負荷情報134及びストレージノード負荷情報135)を取得する。
スケジューラ110は、ノードリソース情報132及びボリューム配置情報136に加えて、情報交換部111によって取得されたワークロード負荷情報131,コンピュートノード負荷情報133,ストレージノード負荷情報135及びアクセラレータ負荷情報134に基づき、ワークロード210の配置を決定する。
別言すれば、スケジューラ110は、ワークロード210の起動の際に、ワークロード負荷情報131及びシステム負荷情報に基づき、ワークロード210の配置先及びボリュームのレプリカ位置の決定を行う。
スケジューラ110は、プロセッサ11とネットワーク170との間の通信量と、プロセッサ11とボリュームとの間の通信量と、アクセラレータ220とボリュームとの間の通信量との和が、ネットワーク170における余裕度以下である第1のコンピュートノード2を、複数のコンピュートノード2の中から選択してよい。また、スケジューラ110は、プロセッサ11とネットワーク170との間の通信量と、プロセッサ11とボリュームとの間の通信量と、プロセッサ11とアクセラレータ220との間の通信量との和が、ネットワーク170における余裕度以下である第2のコンピュートノード2を、複数のコンピュートノード2の中から選択してよい。そして、スケジューラ110は、第1のコンピュートノード2又は前記第2のコンピュートノード2を、ワークロード210の配置先として決定してよい。
スケジューラ110は、プロセッサ11とボリュームとの間の通信量と、アクセラレータ220とボリュームとの間の通信量との和が、ネットワーク170における余裕度以下である1以上の第1のストレージノード3を、複数のストレージノード3の中から選択してよい。そして、スケジューラ110は、1以上の第1のストレージノード3を、レプリカ位置として決定してよい。
スケジューラ110は、ストレージシステム100に備えられる複数のストレージノード3の間における負荷の偏りが閾値を超えた場合に、レプリカ位置の決定を行ってもよい。
図7は、図3に示したコンピュートノード2のソフトウェア構成例を模式的に示すブロック図である。
コンピュートノード2は、ワークロード配備部211,情報交換部212及び負荷情報取得部213をエージェントとして備える。
負荷情報取得部213は、OS20から、図6に示したワークロード負荷情報131,コンピュートノード負荷情報133及びアクセラレータ負荷情報134を含む負荷情報230を取得する。
情報交換部212は、Virtual Switch(VSW)214及びネットワーク170を介して、管理ノード1に対して負荷情報取得部213によって取得された負荷情報230を送信する。
ワークロード配備部211は、管理ノード1における決定に基づき、ワークロード(WL)210を配備する。
図8は、図3に示したストレージノード3のソフトウェア構成例を模式的に示すブロック図である。
ストレージノード3は、情報交換部311及び負荷情報取得部312をエージェントとして備える。
負荷情報取得部312は、OS30から、図6に示したストレージノード負荷情報135を含む負荷情報330を取得する。
情報交換部311は、VSW313及びネットワーク170を介して、管理ノード1に対して負荷情報取得部312によって取得された負荷情報330を送信する。
〔A-2〕動作例
実施形態におけるレプリカ位置の決定処理を、図9に示すフローチャート(ステップS1~S5)に従って説明する。
管理ノード1は、CPU及びアクセラレータ220の配置を行う(ステップS1)。なお、CPU及びアクセラレータ220の配置処理の詳細は、図10を用いて後述する。
管理ノード1は、CPU及びアクセラレータ220の配置ができたかを判定する(ステップS2)。
配置ができていない場合には(ステップS2のNOルート参照)、処理はステップS5へ進む。
一方、配置ができた場合には(ステップS2のYESルート参照)、管理ノード1は、ストレージの配置を行う(ステップS3)。なお、ストレージの配置処理は、図11を用いて後述する。
管理ノード1は、ストレージの配置ができたかを判定する(ステップS4)。
配置ができていない場合には(ステップS4のNOルート参照)、管理ノード1は、ワークロード210をスタンバイ状態とする(ステップS5)。そして、レプリカ位置の決定処理は終了する。
一方、配置ができた場合には(ステップS4のYESルート参照)、レプリカ位置の決定処理は終了する。
次に、図9に示したCPU及びアクセラレータ220の配置処理の詳細を、図10に示すフローチャート(ステップS11~S17)に従って説明する。
管理ノード1は、CPU及びメモリ(MEM)の要件を満たすノードの集合をXとし、アクセラレータ(ACC)220の要件を満たすノードの集合をYとし、XとYとの積集合X∩YをZとする(ステップS11)。
管理ノード1は、集合Zの中で、ネットワーク要件「CPU_NET + CPU_VOL + ACC_VOL <= ネットワークslack」を満たすノードをひとつ選ぶ(ステップS12)。なお、CPU_NETはCPUとネットワークとの間の通信量を示し、CPU_VOLはCPUとボリュームとの間の通信量を示し、ACC_VOLはアクセラレータ220とボリュームとの間の通信量を示す。また、ネットワークslackは、あるノードのネットワーク量の余裕を示す。
管理ノード1は、ネットワーク要件を満たすノードがみつかったかを判定する(ステップS13)。
ネットワーク要件を満たすノードがみつかった場合には(ステップS13のYESルート参照)、配置可能であるとして、CPU及びアクセラレータ220の配置処理は終了する。
一方、ネットワーク要件を満たすノードがみつからなかった場合には(ステップS13のNOルート参照)、管理ノード1は、集合Xの中で、ネットワーク要件「CPU_NET + CPU_VOL + CPU_ACC <= ネットワークslack」を満たすノードをひとつ選ぶ(ステップS14)。なお、CPU_NETはCPUとネットワークとの間の通信量を示し、CPU_VOLはCPUとボリュームとの間の通信量を示し、CPU_ACCはCPUとアクセラレータ220との間の通信量を示す。また、ネットワークslackは、あるノードのネットワーク量の余裕を示す。
管理ノード1は、ネットワーク要件を満たすノードがみつかったかを判定する(ステップS15)。
ネットワーク要件を満たすノードがみつからなかった場合には(ステップS15のNOルート参照)、配置不可能であるとして、CPU及びアクセラレータ220の配置処理は終了する。
一方、ネットワーク要件を満たすノードがみつかった場合には(ステップS15のYESルート参照)、管理ノード1は、集合Yの中で、ネットワーク要件「ACC_VOL + CPU_ACC <= ネットワークslack」を満たすノードをひとつ選ぶ(ステップS16)。なお、ACC_VOLはアクセラレータ220とボリュームとの間の通信量を示し、CPU_ACCはCPUとアクセラレータ220との間の通信量を示す。また、ネットワークslackは、あるノードのネットワーク量の余裕を示す。
管理ノード1は、ネットワーク要件を満たすノードがみつかったかを判定する(ステップS17)。
ネットワーク要件を満たすノードがみつかった場合には(ステップS17のYESルート参照)、配置可能であるとして、CPU及びアクセラレータ220の配置処理は終了する。
一方、ネットワーク要件を満たすノードがみつからなかった場合には(ステップS17のNOルート参照)、配置不可能であるとして、CPU及びアクセラレータ220の配置処理は終了する。
次に、図9に示したストレージの配置処理の詳細を、図11に示すフローチャート(ステップS21~S26)に従って説明する。
管理ノード1は、ボリュームのレプリカを持つストレージノード3の集合をVとする(ステップS21)。
管理ノード1は、集合Vの中で、ネットワーク要件「CPU_VOL + ACC_VOL <= ネットワークslack」を満たすノードをひとつ選ぶ(ステップS22)。なお、CPU_VOLはCPUとボリュームとの間の通信量を示し、ACC_VOLはアクセラレータ220とボリュームとの間の通信量を示す。また、ネットワークslackは、あるノードのネットワーク量の余裕を示す。
管理ノード1は、ネットワーク要件を満たすノードがみつかったかを判定する(ステップS23)。
ネットワーク要件を満たすノードがみつかった場合には(ステップS23のYESルート参照)、配置可能であるとして、ストレージの配置処理は終了する。
一方、ネットワーク要件を満たすノードがみつからなかった場合には(ステップS23のNOルート参照)、管理ノード1は、集合Vの中から、組み合わせることによってネットワーク要件「CPU_VOL + ACC_VOL <= ネットワークslack」を満たす複数のノードを選ぶ(ステップS24)。なお、CPU_VOLはCPUとボリュームとの間の通信量を示し、ACC_VOLはアクセラレータ220とボリュームとの間の通信量を示す。また、ネットワークslackは、あるノードのネットワーク量の余裕を示す。
管理ノード1は、選択されたノードの中でボリュームを配置する(ステップS25)。
管理ノード1は、ネットワーク要件を満たすノードがみつかったかを判定する(ステップS26)。
ネットワーク要件を満たすノードがみつかった場合には(ステップS26のYESルート参照)、配置可能であるとして、ストレージの配置処理は終了する。
一方、ネットワーク要件を満たすノードがみつからなかった場合には(ステップS26のNOルート参照)、配置不可能であるとして、ストレージの配置処理は終了する。
図12は、図11に示したストレージの配置処理における帯域目標値を説明するためのテーブルである。
3つの使用ボリュームV1, V2, V3があり、レプリカをストレージノード3に持つとする。図12に示す例では、ボリュームV1のレプリカがストレージノード#1,#2に配置され、ボリュームV2のレプリカがストレージノード#2,#3に配置され、ボリュームV3のレプリカがストレージノード#1,#3に配置されている。また、ボリュームV1, V2, V3毎の負荷をそれぞれR1, R2, R3とする。
ストレージノード3毎のネットワークSlackをS1, S2, S3とする。
ストレージの割り当ては、以下の手順(1)~(4)の手順で行われる。
(1)S1を超えない範囲でR 11, R 31を最大限割り当てる。このときR 11を優先する。なお、R11=min(S1, R1)であり、R31=min(S1-R11, R3)である。
R11+ R31≦S1, R11≦R1, R31≦R3
(2)S2を超えない範囲でR12, R22を最大限割り当てる。このときR12を優先する。
R12+ R21≦R2, R12=R1-R11, R22≦R2
(3)S3を超えない範囲でR23, R33を割り当てる。
R 23+ R33≦S3, R23=R2-R22, R33= R 3-R31
(4)上記の(1)~(3)のいずれも満たせない場合は、割り当て不可能となる。
そして、帯域目標値が満たされるように、ボリュームへのアクセスが制御される。ストレージノード3のボリュームがN個のブロックで構成されている場合に、各ブロックへのアクセス帯域RがR1とR2(R=R1+R2)に振り分けられる。
ワークロード210の配備時には、ボリュームのレプリカを持つ2つのノードに対して、相当するブロック数を以下のようにN1, N2に分割する。
Figure 2022187285000002
また、ワークロード210の実行時には、ボリュームにアクセスするワークロード210の実行ノードにおいて、そのボリュームへのアクセス帯域をRに制限する。各ブロックへのアクセスが均一に行われる状況で、各レプリカへのアクセス帯域はR1, R2となる。
次に、実施形態におけるストレージノード3のリバランス処理を、図13に示すフローチャート(ステップS31,S32)に従って説明する。
管理ノード1は、一定間隔で、各ストレージノード3の負荷の偏りが閾値を超えたかを判定する(ステップS31)。
各ストレージノード3の負荷の偏りが閾値を超えていない場合には(ステップS31のNOルート参照)。ステップS31における処理が繰り返し実行される。
一方、各ストレージノード3の負荷の偏りが閾値を超えた場合には(ステップS31のYESルート参照)、管理ノード1は、ストレージノード3の選択のリバランスを行う(ステップS32)。これにより、特定のストレージノード3に対する負荷が高くなり性能が低下することを防止でき、負荷の偏りを減らすことによりワークロードへの公平なリソース割り当てを実現できる。そして、ストレージノード3のリバランス処理は終了する。
次式により、ネットワークSlackの平均と差分d及び分散Dを求め、分散Dが閾値tを超えたらリバランスが実施される。
Figure 2022187285000003
そして、リバランスは、以下の手順(1)~(4)より行われる。
(1)以下の集合G, Lを定義する。
Figure 2022187285000004
(2)集合G, Lの両方にレプリカが属するボリュームの集合Vを抽出する。
(3)集合Vからひとつボリュームを選び、負荷割り当てを集合Gから集合Lに移動する。
(4)集合G, Lに属するボリュームの帯域の差が一定値以下になるか、移動候補ボリュームがなくなるまで繰り返す。
〔B〕効果
上述した実施形態の一例における管理ノード1,ストレージシステム100及び情報処理方法によれば、例えば、以下の作用効果を奏することができる。
管理ノード1は、コンテナの実行の際に、ワークロード負荷情報131及びシステム負荷情報(別言すれば、コンピュートノード負荷情報133,アクセラレータ負荷情報134及びストレージノード負荷情報135)を取得する。管理ノード1は、ワークロード210の起動の際に、ワークロード負荷情報131及びシステム負荷情報に基づき、ワークロード210の配置先及びボリュームのレプリカ位置の決定を行う。
これにより、ストレージシステム100における負荷を分散させてスループットを向上させることができる。具体的には、クラスタのもつリソースを、通信やストレージを含めて、有効に活用することができる。したがって、同一のシステムでより多くのアプリケーションを実行することができる。
管理ノード1は、プロセッサ11とネットワーク170との間の通信量と、プロセッサ11とボリュームとの間の通信量と、アクセラレータ220とボリュームとの間の通信量との和が、ネットワーク170における余裕度以下である第1のコンピュートノード2を、複数のコンピュートノード2の中から選択する。管理ノード1は、プロセッサ11とネットワーク170との間の通信量と、プロセッサ11とボリュームとの間の通信量と、プロセッサ11とアクセラレータ220との間の通信量との和が、ネットワーク170における余裕度以下である第2のコンピュートノード2を、複数のコンピュートノード2の中から選択する。管理ノード1は、第1のコンピュートノード2又は前記第2のコンピュートノード2を、ワークロード210の配置先として決定する。
これにより、ワークロード210の配置先に適切なコンピュートノード2を選択できる。
管理ノード1は、プロセッサ11とボリュームとの間の通信量と、アクセラレータ220とボリュームとの間の通信量との和が、ネットワーク170における余裕度以下である1以上の第1のストレージノード3を、複数のストレージノード3の中から選択する。管理ノード1は、1以上の第1のストレージノード3を、レプリカ位置として決定する。
これにより、ボリュームのレプリカ位置に適切なストレージノード3を選択できる。
管理ノード1は、ストレージシステム100に備えられる複数のストレージノード3の間における負荷の偏りが閾値を超えた場合に、レプリカ位置の決定を行う。
これにより、特定のストレージノード3に対する負荷が高くなり性能が低下することを防止でき、負荷の偏りを減らすことによりワークロードへの公平なリソース割り当てを実現できる。
〔C〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
〔D〕付記
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
ストレージシステムの管理装置であって、
コンテナの実行の際に、ワークロード負荷情報及びシステム負荷情報を取得し、
ワークロードの起動の際に、前記ワークロード負荷情報及びシステム負荷情報に基づき、ワークロード配置先及びボリュームのレプリカ位置の決定を行う、
管理装置。
(付記2)
前記ストレージシステムは、互いにネットワークで接続される複数のサーバ装置と複数のストレージ装置とを備え、
前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
前記複数のストレージ装置のそれぞれは、ボリュームを備え、
前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である第1のサーバ装置を、前記複数のサーバ装置の中から選択し、
前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記プロセッサと前記アクセラレータとの間の通信量との和が、前記ネットワークにおける余裕度以下である第2のサーバ装置を、前記複数のサーバ装置の中から選択し、
前記第1のサーバ装置又は前記第2のサーバ装置を、前記ワークロード配置先として決定する、
付記1に記載の管理装置。
(付記3)
前記ストレージシステムは、互いにネットワークで接続される複数のサーバ装置と複数のストレージ装置とを備え、
前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
前記複数のストレージ装置のそれぞれは、ボリュームを備え、
前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である1以上の第1のストレージ装置を、前記複数のストレージ装置の中から選択し、
前記1以上の第1のストレージ装置を、前記レプリカ位置として決定する、
付記1又は2に記載の管理装置。
(付記4)
前記ストレージシステムに備えられる複数のストレージ装置の間における負荷の偏りが閾値を超えた場合に、前記レプリカ位置の決定を行う、
付記1~3のいずれか1項に記載の管理装置。
(付記5)
管理装置とサーバ装置とストレージ装置とを備えるストレージシステムであって、
前記サーバ装置は、当該サーバ装置におけるシステム負荷情報を前記管理装置へ送信し、
前記ストレージ装置は、当該ストレージ装置におけるシステム負荷情報を前記管理装置へ送信し、
前記管理装置は、
コンテナの実行の際に、ワークロード負荷情報と、前記サーバ装置及び前記ストレージ装置から送信されたシステム負荷情報を取得し、
ワークロードの起動の際に、前記ワークロード負荷情報及びシステム負荷情報に基づき、ワークロード配置先及びボリュームのレプリカ位置の決定を行う、
ストレージシステム。
(付記6)
前記サーバ装置及び前記ストレージ装置は、互いにネットワークで接続され、
前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
前記複数のストレージ装置のそれぞれは、ボリュームを備え、
前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である第1のサーバ装置を、前記複数のサーバ装置の中から選択し、
前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記プロセッサと前記アクセラレータとの間の通信量との和が、前記ネットワークにおける余裕度以下である第2のサーバ装置を、前記複数のサーバ装置の中から選択し、
前記第1のサーバ装置又は前記第2のサーバ装置を、前記ワークロード配置先として決定する、
付記5に記載のストレージシステム。
(付記7)
前記サーバ装置及び前記ストレージ装置は、互いにネットワークで接続され、
前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
前記複数のストレージ装置のそれぞれは、ボリュームを備え、
前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である1以上の第1のストレージ装置を、前記複数のストレージ装置の中から選択し、
前記1以上の第1のストレージ装置を、前記レプリカ位置として決定する、
付記5又は6に記載のストレージシステム。
(付記8)
前記複数のストレージ装置の間における負荷の偏りが閾値を超えた場合に、前記レプリカ位置の決定を行う、
付記5~7のいずれか1項に記載のストレージシステム。
(付記9)
管理装置とサーバ装置とストレージ装置とを備えるストレージシステムにおける情報処理方法であって、
前記サーバ装置は、当該サーバ装置におけるシステム負荷情報を前記管理装置へ送信し、
前記ストレージ装置は、当該ストレージ装置におけるシステム負荷情報を前記管理装置へ送信し、
前記管理装置は、
コンテナの実行の際に、ワークロード負荷情報と、前記サーバ装置及び前記ストレージ装置から送信されたシステム負荷情報を取得し、
ワークロードの起動の際に、前記ワークロード負荷情報及びシステム負荷情報に基づき、ワークロード配置先及びボリュームのレプリカ位置の決定を行う、
情報処理方法。
(付記10)
前記サーバ装置及び前記ストレージ装置は、互いにネットワークで接続され、
前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
前記複数のストレージ装置のそれぞれは、ボリュームを備え、
前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である第1のサーバ装置を、前記複数のサーバ装置の中から選択し、
前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記プロセッサと前記アクセラレータとの間の通信量との和が、前記ネットワークにおける余裕度以下である第2のサーバ装置を、前記複数のサーバ装置の中から選択し、
前記第1のサーバ装置又は前記第2のサーバ装置を、前記ワークロード配置先として決定する、
付記9に記載の情報処理方法。
(付記11)
前記サーバ装置及び前記ストレージ装置は、互いにネットワークで接続され、
前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
前記複数のストレージ装置のそれぞれは、ボリュームを備え、
前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である1以上の第1のストレージ装置を、前記複数のストレージ装置の中から選択し、
前記1以上の第1のストレージ装置を、前記レプリカ位置として決定する、
付記9又は10に記載の情報処理方法。
(付記12)
前記複数のストレージ装置の間における負荷の偏りが閾値を超えた場合に、前記レプリカ位置の決定を行う、
付記9~11のいずれか1項に記載の情報処理方法。
1 :管理ノード
2 :コンピュートノード
3 :ストレージノード
10 :情報処理装置
11 :プロセッサ
12 :RAM
13 :ディスク
14 :グラフィックI/F
15 :入力I/F
16 :ストレージI/F
17 :ネットワークI/F
100 :ストレージシステム
101 :CPU
102,170:ネットワーク
103 :ストレージ
104,220:アクセラレータ
110 :スケジューラ
111 :情報交換部
130 :情報
131 :ワークロード負荷情報
132 :ノードリソース情報
133 :コンピュートノード負荷情報
134 :アクセラレータ負荷情報
135 :ストレージノード負荷情報
136 :ボリューム配置情報
140 :表示装置
150 :入力装置
160 :媒体読み取り装置
210 :ワークロード
211 :ワークロード配備部
212 :情報交換部
213 :負荷情報取得部
214,313:VSW
230 :負荷情報
311 :情報交換部
312 :負荷情報取得部
330 :負荷情報

Claims (6)

  1. ストレージシステムの管理装置であって、
    コンテナの実行の際に、ワークロード負荷情報及びシステム負荷情報を取得し、
    ワークロードの起動の際に、前記ワークロード負荷情報及びシステム負荷情報に基づき、ワークロード配置先及びボリュームのレプリカ位置の決定を行う、
    管理装置。
  2. 前記ストレージシステムは、互いにネットワークで接続される複数のサーバ装置と複数のストレージ装置とを備え、
    前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
    前記複数のストレージ装置のそれぞれは、ボリュームを備え、
    前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である第1のサーバ装置を、前記複数のサーバ装置の中から選択し、
    前記プロセッサと前記ネットワークとの間の通信量と、前記プロセッサと前記ボリュームとの間の通信量と、前記プロセッサと前記アクセラレータとの間の通信量との和が、前記ネットワークにおける余裕度以下である第2のサーバ装置を、前記複数のサーバ装置の中から選択し、
    前記第1のサーバ装置又は前記第2のサーバ装置を、前記ワークロード配置先として決定する、
    請求項1に記載の管理装置。
  3. 前記ストレージシステムは、互いにネットワークで接続される複数のサーバ装置と複数のストレージ装置とを備え、
    前記複数のサーバ装置のそれぞれは、プロセッサとアクセラレータとを備え、
    前記複数のストレージ装置のそれぞれは、ボリュームを備え、
    前記プロセッサと前記ボリュームとの間の通信量と、前記アクセラレータと前記ボリュームとの間の通信量との和が、前記ネットワークにおける余裕度以下である1以上の第1のストレージ装置を、前記複数のストレージ装置の中から選択し、
    前記1以上の第1のストレージ装置を、前記レプリカ位置として決定する、
    請求項1又は2に記載の管理装置。
  4. 前記ストレージシステムに備えられる複数のストレージ装置の間における負荷の偏りが閾値を超えた場合に、前記レプリカ位置の決定を行う、
    請求項1~3のいずれか1項に記載の管理装置。
  5. 管理装置とサーバ装置とストレージ装置とを備えるストレージシステムであって、
    前記サーバ装置は、当該サーバ装置におけるシステム負荷情報を前記管理装置へ送信し、
    前記ストレージ装置は、当該ストレージ装置におけるシステム負荷情報を前記管理装置へ送信し、
    前記管理装置は、
    コンテナの実行の際に、ワークロード負荷情報と、前記サーバ装置及び前記ストレージ装置から送信されたシステム負荷情報を取得し、
    ワークロードの起動の際に、前記ワークロード負荷情報及びシステム負荷情報に基づき、ワークロード配置先及びボリュームのレプリカ位置の決定を行う、
    ストレージシステム。
  6. 管理装置とサーバ装置とストレージ装置とを備えるストレージシステムにおける情報処理方法であって、
    前記サーバ装置は、当該サーバ装置におけるシステム負荷情報を前記管理装置へ送信し、
    前記ストレージ装置は、当該ストレージ装置におけるシステム負荷情報を前記管理装置へ送信し、
    前記管理装置は、
    コンテナの実行の際に、ワークロード負荷情報と、前記サーバ装置及び前記ストレージ装置から送信されたシステム負荷情報を取得し、
    ワークロードの起動の際に、前記ワークロード負荷情報及びシステム負荷情報に基づき、ワークロード配置先及びボリュームのレプリカ位置の決定を行う、
    情報処理方法。
JP2021095239A 2021-06-07 2021-06-07 管理装置,ストレージシステム及び情報処理方法 Pending JP2022187285A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021095239A JP2022187285A (ja) 2021-06-07 2021-06-07 管理装置,ストレージシステム及び情報処理方法
US17/686,022 US11665228B2 (en) 2021-06-07 2022-03-03 Management device, storage system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021095239A JP2022187285A (ja) 2021-06-07 2021-06-07 管理装置,ストレージシステム及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2022187285A true JP2022187285A (ja) 2022-12-19

Family

ID=84284483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021095239A Pending JP2022187285A (ja) 2021-06-07 2021-06-07 管理装置,ストレージシステム及び情報処理方法

Country Status (2)

Country Link
US (1) US11665228B2 (ja)
JP (1) JP2022187285A (ja)

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6721720B2 (en) * 2001-02-22 2004-04-13 Hewlett-Packard Development Company, L.P. Methods and structure for characterization of bayesian belief networks
JP4334424B2 (ja) * 2004-07-09 2009-09-30 富士通株式会社 ネットワークのリソース,サービス発見方法及び中継ノード装置
US7281045B2 (en) * 2004-08-26 2007-10-09 International Business Machines Corporation Provisioning manager for optimizing selection of available resources
US8046446B1 (en) * 2004-10-18 2011-10-25 Symantec Operating Corporation System and method for providing availability using volume server sets in a storage environment employing distributed block virtualization
US7979460B2 (en) * 2006-02-15 2011-07-12 Sony Computer Entainment America Inc. Systems and methods for server management
JP4240062B2 (ja) * 2006-05-31 2009-03-18 日本電気株式会社 計算機システムおよび性能計測方法ならびに管理サーバ装置
US8046767B2 (en) * 2007-04-30 2011-10-25 Hewlett-Packard Development Company, L.P. Systems and methods for providing capacity management of resource pools for servicing workloads
US8484510B2 (en) * 2009-12-15 2013-07-09 Symantec Corporation Enhanced cluster failover management
JPWO2011093011A1 (ja) * 2010-01-29 2013-05-30 日本電気株式会社 情報処理装置及び情報処理方法
US8762323B2 (en) * 2011-02-10 2014-06-24 Nec Laboratories America, Inc. Replica based load balancing in multitenant databases
WO2013093994A1 (ja) * 2011-12-19 2013-06-27 富士通株式会社 ストレージシステム、データリバランシングプログラム及びデータリバランシング方法
US9323628B2 (en) * 2012-10-09 2016-04-26 Dh2I Company Instance level server application monitoring, load balancing, and resource allocation
WO2014080438A1 (en) * 2012-11-20 2014-05-30 Hitachi, Ltd. Storage system and data management method
US11016820B2 (en) 2013-08-26 2021-05-25 Vmware, Inc. Load balancing of resources
JP6583048B2 (ja) * 2016-02-25 2019-10-02 富士通株式会社 ワークロード推定方法およびワークロード推定装置
US10462221B2 (en) * 2017-02-25 2019-10-29 Vmware, Inc. Distributed storage resource management in a hyper converged infrastructure
WO2018224242A1 (en) * 2017-06-08 2018-12-13 British Telecommunications Public Limited Company Denial of service mitigation
JP7395558B2 (ja) * 2018-03-23 2023-12-11 インフラサイト ソフトウェア コーポレイション 異種コンピューティング資源の使用量を単一の測定単位として定量化する方法
US11128530B2 (en) * 2018-03-29 2021-09-21 Hewlett Packard Enterprise Development Lp Container cluster management
US10768850B2 (en) * 2018-04-30 2020-09-08 Amazon Technologies, Inc. Distributed replica for block storage systems
US10983719B1 (en) * 2019-03-28 2021-04-20 Amazon Technologies, Inc. Replica pools to support volume replication in distributed storage systems
US11288132B1 (en) * 2019-09-30 2022-03-29 EMC IP Holding Company LLC Distributing multiple phases of deduplication processing amongst a set of nodes within a clustered storage environment
JP2021197010A (ja) * 2020-06-17 2021-12-27 株式会社日立製作所 分散型ストレージシステム及びリバランス処理方法

Also Published As

Publication number Publication date
US11665228B2 (en) 2023-05-30
US20220394086A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
US8359596B2 (en) Determining capability of an information processing unit to execute the job request based on satisfying an index value and a content of processing of the job
US10572290B2 (en) Method and apparatus for allocating a physical resource to a virtual machine
JP3872343B2 (ja) コンピュータ環境におけるワークロード管理
JP3813056B2 (ja) 優先順位に基づくチャネル・サブシステム保留入出力作業キューの処理
JP3659324B2 (ja) コンピュータ環境の論理プロセッサを管理する方法、システム、およびプログラム製品
US8751657B2 (en) Multi-client storage system and storage system management method
JP3807916B2 (ja) コンピュータ環境の区画のグループを管理する方法およびシステム
JP3672236B2 (ja) コンピュータ環境の中央処理装置を管理する方法、システム、およびプログラム製品
US9323547B2 (en) Virtual machine and/or multi-level scheduling support on systems with asymmetric processor cores
US8112524B2 (en) Recommending moving resources in a partitioned computer
US8185905B2 (en) Resource allocation in computing systems according to permissible flexibilities in the recommended resource requirements
US10356150B1 (en) Automated repartitioning of streaming data
US20100229175A1 (en) Moving Resources In a Computing Environment Having Multiple Logically-Partitioned Computer Systems
JP2007026094A (ja) 実行装置およびアプリケーションプログラム
KR20120092930A (ko) 맵 리듀스를 이용한 분산 메모리 클러스터 제어 장치 및 방법
US20220329651A1 (en) Apparatus for container orchestration in geographically distributed multi-cloud environment and method using the same
KR20080023358A (ko) 스케줄 제어 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 및 스케줄 제어 방법
US10664458B2 (en) Database rebalancing method
JP2012043098A (ja) 管理装置,ファイルサーバシステム,処理方法及び管理プログラム
JP2011192049A (ja) 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム
US9400691B2 (en) Process allocation management apparatus, system and method
JP2022187285A (ja) 管理装置,ストレージシステム及び情報処理方法
US20200409766A1 (en) Hyper-converged infrastructure (hci) resource reservation system
JP2017204086A (ja) 情報処理装置、ジョブ管理方法およびジョブ管理プログラム
CN111475277A (zh) 一种资源分配方法、系统、设备及机器可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240307