JP2010282420A - 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム - Google Patents
管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム Download PDFInfo
- Publication number
- JP2010282420A JP2010282420A JP2009135181A JP2009135181A JP2010282420A JP 2010282420 A JP2010282420 A JP 2010282420A JP 2009135181 A JP2009135181 A JP 2009135181A JP 2009135181 A JP2009135181 A JP 2009135181A JP 2010282420 A JP2010282420 A JP 2010282420A
- Authority
- JP
- Japan
- Prior art keywords
- resource
- amount
- pool
- physical
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5011—Pool
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Debugging And Monitoring (AREA)
Abstract
【解決手段】複数の物理サーバ104と、物理サーバ104で稼動する複数の仮想サーバ120と、物理サーバ104にネットワーク207を介して接続される管理サーバ101と、を備える情報処理システムにおけるリソース管理方法において、リソースプール130に関連付けられた仮想サーバ120と仮想サーバ120が稼動する物理サーバ104を特定し、特定した物理サーバ104の性能情報を収集し、収集した性能情報に基づいてリソースプール130の性能情報を算出することを特徴とする。
【選択図】図1
Description
この問題を解決するため、サーバを仮想化する技術が知られている。サーバを仮想化する技術は、複数の仮想サーバが単一の物理サーバで稼動できる技術である。具体的には、物理サーバに備わるプロセッサ(CPU:Central Processing Unit)及びメモリ等のリソースが分割され、分割された物理サーバのリソースが、それぞれ複数の仮想サーバに割り当てられる。そして、単一の物理サーバで複数の仮想サーバが同時に稼動する。
また、サーバを仮想化する技術は、複数の仮想サーバが単一の物理サーバで稼動できるというメリットの他に、複数の仮想サーバでワークロード管理をすることによって、物理サーバのリソースをより有効に利用できるというメリットももたらす。
このように、リソースプールのリソース管理をすることによって、複数の物理サーバのリソースをより有効に利用できる(特許文献1、特許文献2、非特許文献1参照)。
近年では、仮想サーバに要求されるリソース量が大きくなり、物理サーバのリソース量に近づいている。そのため、物理サーバのリソース量の空きがほとんど無い状態で、十分なリソース量の空きがあるリソースプールの管理が行われることが通常である。そのような管理において、リソースプールの管理者が物理サーバを監視することができるようになるのは非常に有益である。従来は、仮想サーバに要求されるリソース量がそれほど大きくなかったので、リソースプールの管理者が物理サーバに着目する必要性は乏しかった。
詳細は後記する。
図1は、本発明の第1の実施の形態の情報処理システムの構成図である。
本実施の形態の情報処理システムは、管理サーバ(管理計算機)101と、物理サーバ104と、端末103と、を備える。
管理サーバ101と、物理サーバ104と、端末103は、ネットワーク207を介して接続されている。物理サーバ104は、サーバ仮想化プログラム121を備え、そのプログラムを読み出して処理を実行することにより、仮想サーバ120をその物理サーバ104上に稼働する。
管理サーバ101、物理サーバ104、端末103は、計算機201(図2参照)として構成されている。
計算機201は、CPU(制御装置)202、主記憶装置(記憶装置)203、外部記憶装置インターフェース204、通信インターフェース205、を備える。外部記憶装置インターフェース204は、外部記憶装置(記憶装置)206に接続され、通信インターフェース205は、ネットワーク207に接続されている。また、計算機201は、入力装置(例:キーボード、ポインティングデバイス)208と、出力装置(表示装置(例:ディスプレイ))209が接続されている。また、管理サーバ101は、図示していないがコンソールを備える。なお、管理サーバ101が、コンソールを備えなくとも、管理サーバ101にネットワーク207を介して接続する別の計算機が、コンソールを備えていても良い。
また、計算機201は、外部記憶装置206、入力装置208、出力装置209を含めて備えた構成としても良い。
管理サーバ101は、プール管理部110と、制御部111と、性能管理部112と、構成管理部113と、表示部114と、シミュレーション部115と、記憶部119を備える。
制御部111は、サーバ仮想化プログラム121を介して仮想サーバ120を制御する処理部である。
シミュレーション部115は、仮想サーバ120、物理サーバ104、リソースプール130のリソース量をシミュレーションして算出する処理部である。
記憶部119は、仮想サーバ性能テーブル300と、物理サーバ性能テーブル400と、プール性能テーブル500と、仮想サーバ物理サーバ対応テーブル600と、仮想サーバプール対応テーブル700と、プール物理サーバ対応テーブル800と、プール構成テーブル900と、を備える。また、管理サーバ110の処理部による処理結果やネットワーク207上で取得したデータ等を一時的または半永久的に記憶する。
図3は、仮想サーバ性能テーブル300の構成図である。各行に、仮想サーバ120に割り当てられたCPU202に関する性能情報と性能情報に関係する設定情報を記録している。これらの性能情報は、クロック周波数で表現している。
なお、前記CPU202は、当該物理サーバ104が備えるCPU202をいう。以下、単に「CPU202」と記載するときは、特に説明しない限り、当該物理サーバ104が備えるCPUを意味するものとする。また、主記憶装置203、外部記憶装置206についても同様である。
仮想サーバID欄301には、仮想サーバ120を一意に識別する情報が記憶されている。
物理サーバ性能テーブル400は、物理サーバID欄401と、CPU合計欄402と、CPU使用欄403と、CPU空き欄404と、を備える。
CPU合計欄402には、物理サーバ104に搭載されたCPU202の全クロック周波数を記憶する。
CPU使用欄403には、物理サーバ104に搭載されたCPU202の動作クロック周波数(物理デバイスの使用リソース量)を記憶する。CPU合計欄402の値を全体としたときのCPU使用欄403の値の割合は、物理サーバ104のCPU使用率である。また、物理サーバ104上で稼動する全ての仮想サーバ120のCPU割当量(符号302参照)を合計した値は、物理サーバ104のCPU使用欄403の値となる。
プール性能テーブル500は、プールID欄501と、CPU割当合計欄502と、CPU割当使用欄503と、CPU割当空き欄504と、CPU割当上限欄505と、CPU割当予約欄506と、CPU割当加重欄507と、を備える。
CPU割当合計欄502には、リソースプール130に割り当てられたCPU202のクロック周波数の合計量を記憶している。リソースプール130の利用者(管理者)は、仮想サーバ120に割り当てられるクロック周波数の合計がCPU割当合計欄502の値以内になる範囲で、仮想サーバ120を新たに作成したり、仮想サーバ120に割り当てられるクロック周波数を拡張したりできる。
図6は、仮想サーバ物理サーバ対応テーブル600の構成図である。各行には、仮想サーバ120とその仮想サーバ120が稼動する物理サーバ104との対応関係を記録している。仮想サーバ物理サーバ対応テーブル600は、仮想サーバID欄601と、物理サーバID欄602と、を備える。
物理サーバID欄602には、物理サーバ104を一意に識別する情報が記憶されている。
図7は、仮想サーバプール対応テーブル700の構成図である。各行には、仮想サーバ120とリソースプール130の対応関係を記録している。仮想サーバプール対応テーブル700は、プールID欄701と、仮想サーバID欄702と、を備えている。
仮想サーバID欄702には、仮想サーバ120を一意に識別する情報が記憶されている。
図8は、プール物理サーバ対応テーブル800の構成図である。各行には、リソースプール130と物理サーバ104の対応関係を記憶している。プール物理サーバ対応テーブル800は、プールID欄801と、物理サーバID欄802と、共有欄803と、を備えている。
物理サーバID欄802には、物理サーバ104を一意に識別する情報を記憶している。
共有欄803には、リソースプール130が物理サーバ104を共有しているか否かを示す情報を記憶している。図8によれば、物理サーバA、Bは、プールA、Bにリソースを提供したとき、物理サーバAは、必要に応じて物理サーバBが提供したリソースを利用することができ、物理サーバBは、必要に応じて物理サーバAが提供したリソースを利用することができる(共有)。しかし、物理サーバC、Dは、プールCにリソースを提供しても、物理サーバCは、物理サーバDが提供したリソースを利用することはできないし、物理サーバDは、物理サーバCが提供したリソースを利用することはできない(占有)。
プールID欄901には、リソースプール130を一意に識別する情報を記憶している。
物理サーバID欄902には、物理サーバ104を一意に識別する情報を記憶している。
なお、図10に関する説明は、後記する。
なお、前記管理用のプログラムは、管理サーバ101が記憶するだけでなく、リソースプール130を作成する別の計算機が記憶し、前記実行を行うようにしても良い。
(1)表示部114は、プールXを特定する(ステップ1101)。例えば、あるリソースプール130を特定した表示要求を受信したとき、そのリソースプール130をプールXとして特定する。
また、プールCにリソースを提供している物理サーバ(この場合は、物理サーバC(PMC)および物理サーバD(PMD))に関するリソースの利用状況を示すプールCの内訳1203では、物理サーバCのCPU使用量1208と、物理サーバCのCPU空き量1209と、物理サーバCのCPU合計量1210と、物理サーバDのCPU使用量1211と、物理サーバDのCPU空き量1212と、物理サーバDのCPU合計量1213とが表示されている。
また、表示されたリソースプールの利用状況に対しリソースの移動等の操作を行うために押下するOKボタン1214および前記操作を中断するために押下するキャンセルボタン1215が表示されている。
リソースプール130の利用者は、管理対象の単一または複数のリソースプール130を特定して使用状況の表示要求を出すと、表示部114は、リソースプール130を構成する物理サーバ104を特定し、リソースプール130と関連付けられた仮想サーバ120を特定し、リソースプール130と特定した物理サーバ104と仮想サーバ120の性能情報をそれぞれプール情報1301と仮想サーバリスト1302と構成物理サーバ1303を画面1300に表示する。
仮想サーバリスト1302は、図3の仮想サーバ性能テーブルの符号301、302、304、305のそれぞれに対応する仮想サーバID1321、割当て1323、上限1324および下限1325と、当該仮想サーバが稼働する物理サーバを示す物理サーバID1322と、拡張したい仮想サーバがあればその拡張量を示す拡張可能1326から構成されている。
構成物理サーバ1303は、図4の物理サーバ性能テーブルの符号401から符号404のそれぞれに対応する物理サーバ1331、全体1332、使用1333、空き1334から構成されている。
この他に、表示されたリソースプールの利用状況に対しリソースの移動等の操作を行うために押下するOKボタン1340および前記操作を中断するために押下するキャンセルボタン1341が表示されている。
なお、図13に示した画面は、リソースプールの利用者だけでなく、管理者や、リソースプールの提供者が利用しても良い。
管理者は、仮想サーバ120の性能劣化が発生した場合に、リソースプール130が原因か、物理サーバ104が原因か、仮想サーバ120が原因かを特定できる。
リソースプール130の提供者は、管理対象の単一または複数のリソースプール130を特定して使用状況の表示要求を出すと、表示部114は、リソースプール130を構成する物理サーバ104を特定し、リソースール130と関連付けられた仮想サーバ120を特定し、リソースプール130と特定した物理サーバ104と仮想サーバ120の性能情報をそれぞれプール情報1401と仮想サーバリスト1402と構成物理サーバ1403を画面1400に表示する。図14では、図13のときと比べ、1つの物理サーバ(ここでは物理サーバAまたはB)が複数のリソースプール(ここではプールAおよびプールB)にリソースを提供したときの画面1400が表示されている。
プールID1411、全体1412、使用1413、空き1414、上限1415、予約1416、追加可能仮想サーバ最大サイズ1417はそれぞれ、プールID1311、全体1312、使用1313、空き1314、上限1315、予約1316、追加可能仮想サーバ最大サイズ1317と同じである。
仮想サーバID1421、物理サーバID1422、割当て1423、上限1424、下限1425、拡張可能1426はそれぞれ、仮想サーバID1321、物理サーバID1322、割当て1323、上限1324、下限1325、拡張可能1326と同じである。
OKボタン1440、キャンセルボタン1441はそれぞれ、OKボタン1340、キャンセルボタン1341と同じである。
なお、図14に示した画面は、リソースプールの提供者だけでなく、管理者や、複数のリソースプールを利用するリソースプールの提供者が利用しても良い。
管理者は、仮想サーバ120の性能劣化が発生した場合に、リソースプール130が原因か、物理サーバ104が原因か、仮想サーバ120が原因かを特定できる。
さらに、リソースプール130のリソースに属する仮想サーバ120がさらに利用可能なリソース量を予測でき、仮想サーバ120に割り振る負荷量を利用可能なリソース量に収まるよう調整できる。
さらに、必要に応じて、リソースプール130の利用者は、仮想サーバ120の稼動する物理サーバ104を変更することにより、複数の物理サーバに分散している空きリソースをまとめて、仮想サーバ130に割り当てることで、リソースプール130に割り当てられたリソースを有効活用できる。また、リソースプール130内で適用される仮想サーバ130のリソース割当て設定を見直すこともできる。また、複数のリソースプール130を管理する場合は、図14の画面1400に表示された性能や構成を参照し、そのリソースプール130間でリソースを融通する設定調整もできる。
(1)シミュレーション部115は、プールXを特定する(ステップ1501)。例えば、リソースプール130の利用者から、リソースプール130の性能情報の表示要求があると、表示部114はシミュレーション部115に表示要求のあったリソースプール130を指定してシミュレーションを要求する。指定されたリソースプール130をプールXとして特定する。
なお、前記要求は、例えば管理サーバ101の利用者の入力装置208からの操作によりなされる。
結果的に、仮に設定したリソース量Yのうち最大となるリソース量を決定する。
結果的に、仮に設定したリソース量Yのうち最大となるリソース量を決定する。
(2)シミュレーション部115は、プールXとプールYの合計リソース量X、Yを取得する(ステップ1702)。
(3)シミュレーション部115は、プールX、Yを構成する物理サーバ群Xを取得する(ステップ1703)。
(5)シミュレーション部115は、物理サーバXの合計リソース量Zを取得する(ステップ1705)。
(6)シミュレーション部115は、プールX、Yに属する仮想サーバ群Xを取得する(ステップ1706)。
(8)シミュレーション部115は、仮想サーバX上の負荷の処理に必要なリソース量Aを算出する(ステップ1708)。
(9)シミュレーション部115は、シミュレーション対象を判定する(ステップ1709)。
結果的に、仮に設定したリソース量Bのうち最大となるリソース量を決定する。
(18)シミュレーション部115は、仮想サーバ群Xと物理サーバ群Xの構成を決定する(ステップ1718)。
(19)シミュレーション部115は、ステップ1718で決定した構成にしたとき、プールXに属する仮想サーバ群Xのリソース量の合計が、合計リソース量X(ステップ1702参照)以内で、プールYに属する仮想サーバ群Xの合計リソース量Y(ステップ1702参照)以内か判定する(ステップ1719)。合計リソース量X、Y以内である場合(ステップ1719でYes)、ステップ1720に進み、そうでない場合(ステップ1719でNo)、ステップ1718で決定した構成では最大のリソース量Cを見つけられないとして、仮定したリソース量Cを破棄し(ステップ1725)、次のステップに移る。
結果的に、仮に設定したリソース量Cのうち最大となるリソース量を決定する。
(2)シミュレーション部115は、プールXとプールYの合計リソース量X、Yを取得する(ステップ1802)。
(3)シミュレーション部115は、プールX、Yを構成する物理サーバ群Xを取得する(ステップ1803)。
(5)シミュレーション部115は、物理サーバXの合計リソース量Zを取得する(ステップ1805)。
(6)シミュレーション部115は、プールX、Yに属する仮想サーバ群Xを取得する(ステップ1806)。
(8)シミュレーション部115は、仮想サーバX上の負荷の処理に必要なリソース量Aを算出する(ステップ1808)。
(9)シミュレーション部115は、シミュレーション対象を判定する(ステップ1809)。
結果的に、仮に設定したリソース量Bのうち最大となるリソース量を決定する。
(17)シミュレーション部115は、仮想サーバ群Xと物理サーバ群Xの構成を決定する(ステップ1817)。
結果的に、仮に設定したリソース量Cのうち最大となるリソース量を決定する。
(1)プール管理部110は、プールXの空きリソース量Xを取得する(ステップ1901)。
(2)プール管理部110は、プールXを構成する物理サーバ群Xを取得する(ステップ1902)。
(3)プール管理部110は、物理サーバ群Xに属する物理サーバXについてステップ1904からステップ1908までの処理を実行する(ステップ1903)。
(5)プール管理部110は、空きリソース量Yが空きリソース量Xよりも大きいか判定する(ステップ1905)。ステップ1905の判定で、大きいと判定した場合は(ステップ1905でYes)、ステップ1903で次の物理サーバXのステップに移行する。例えば、ある仮想サーバを移動したいときは、プールXの空きリソース量X以上の十分な空きリソースYを有する物理サーバに移動して稼働させれば良い。これにより、仮想サーバの移動元の物理サーバのリソースを確保し、その物理サーバが構成するプールの空きリソースを有効に活用することができる。仮想サーバの移動の要求は、例えば、入力装置208からなされる。
(6)ステップ1905の判定で、小さいと判定すると(ステップ1905でNo)、プール管理部110は、構成変更が可能か判定する(ステップ1906)。なお、構成変更が可能であるとは、リソースプール130を構成することになる物理サーバ群を変更する、つまりリソースプール130からリソースが割り当てられた仮想サーバを別の物理サーバに移動するときに、その物理サーバ群の性能情報に由来する制約のもとで変更することが可能であることを意味する。
(8)ステップ1906の判定で構成変更できないと判定すると(ステップ1906でNo)、プール管理部110は、表示部114を通してプール利用者や管理者、プール提供者に通知する。また、シミュレーション部115を通して、確保可能な最大量をシミュレートし、表示部114を通して表示する(ステップ1908)。表示した後、ステップ1903で次の物理サーバXの処理に移行する。
サーバグループ1001は、複数の物理サーバ104をまとめたものである。
プール利用者1000が利用するあるリソースプール130は、物理サーバ104を他のリソースプールと共有せず、占有した状態である。リソースプール130に属する仮想サーバ120は、リソースプール130を構成する物理サーバ104のいずれかのひとつの上でそれぞれ稼動する。1つの物理サーバ104上には複数の仮想サーバ120が稼動していても良い。また、物理サーバ104のCPU合計量から仮想サーバ120のCPU割当量の合計を差し引いたものが、空き1002である。
複数のリソースプール1、2(130)が、物理サーバ104を共有している。リソースプール1、2(130)のサイズは固定である。プール利用者1(1000)が利用するリソースプール1(130)には、仮想サーバ1(120)および仮想サーバ5(120)が割り当てられている。また、プール利用者2(1000)が利用するリソースプール2(130)には、仮想サーバ2(120)、仮想サーバ3、4(120)および仮想サーバ5(120)が割り当てられている。
複数のリソースプール130が、物理サーバ104を共有している。リソースプール130のサイズは変動である。プール利用者1(1000)が利用するリソースプール1(130)には、仮想サーバ1(120)および仮想サーバ5(120)が割り当てられている。また、プール利用者2(1000)が利用するリソースプール2(130)には、仮想サーバ2(120)、仮想サーバ3、4(120)および仮想サーバ5(120)が割り当てられている。仮想サーバ120の運用に応じて、リソースプール1(130)のCPU割当量(2GHz)およびリソースプール2(130)のCPU割当量(2GHz)を変えることができる。
本発明の第2の実施形態は、仮想サーバ120へのCPU202の割当てをCPUのコアの数によって定義する点で第1の実施の形態とは異なる。
本実施の形態のCPU202は、複数のコアを備える。各コアは、プログラムを同時に実行できる。複数のコアを備えるCPU202の場合には、コア単位で仮想サーバ120に割り当てるほうが、独立性が高く効率的である。
なお、第1の実施の形態と同じ構成は同じ符号を付与し、説明を省略する。
仮想サーバ性能テーブル300は、仮想サーバID欄301と、割当コア数欄2001とを、備える。
割当コア数欄2001には、仮想サーバ120に割当てられる単位となるCPU202のコア数を記憶している。
物理サーバ性能テーブル400は、物理サーバID欄401と、総コア数欄2301と、割当済コア数欄2302と、未割当コア数欄2303を備える。
割当済コア数欄2302は、物理サーバ104のCPU202のコア数で、物理サーバ104上で稼動する仮想サーバ120に割り当てられたコア数を記憶している。
未割当コア数欄2303は、物理サーバ104のCPU202のコア数で、物理サーバ104上で稼動するどの仮想サーバ120にも割り当てられていないコア数を記憶している。
プール性能テーブル500は、プールID欄501と、総コア数欄2401と、割当済コア数欄2402と、未割当コア数欄2403を備えている。
割当済コア数欄2402は、リソースプール130に属する仮想サーバ120に割り当てたコア数の合計を記憶している。
未割当てコア数欄2403は、リソースプール130に属するどの仮想サーバ120にも割り当てられておらず、リソースプール130に属する仮想サーバ120や新たにリソースプール130に追加する仮想サーバ120が利用可能なコア数の合計を記憶している。
前記した各実施形態は、本発明を実施するために好適のものであるが、その実施形式はこれらに限定されるものでなく、本発明の要旨を変更しない範囲内において種々変形することが可能である。
また、本実施の形態では、シミュレーション部115が、プールに追加可能な仮想サーバの最大リソース量や、仮想サーバが拡張可能な最大リソース量を算出した(図16〜図18参照)。しかし、算出するこれらのリソース量は、必ずしも最大でなくとも良い(例:仮想サーバの稼働パフォーマンスが最良になるように、前記最大のリソース量の60%のリソース量を算出する等)。
104 物理サーバ(物理デバイス)
120 仮想サーバ(仮想デバイス)
121 サーバ仮想化プログラム
130 リソースプール
110 プール管理部
111 制御部
112 性能管理部
113 構成管理部
114 表示部
115 シミュレーション部
119 記憶部
300 仮想サーバ性能テーブル(構成情報の一部)
400 物理サーバ性能テーブル(構成情報の一部)
500 プール性能テーブル(構成情報の一部)
600 仮想サーバ物理サーバ対応テーブル(性能情報の一部)
700 仮想サーバプール対応テーブル(性能情報の一部)
800 プール物理サーバ対応テーブル(性能情報の一部)
900 プール構成テーブル(性能情報の一部)
Claims (17)
- 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理し、前記物理デバイスと通信可能に接続される管理計算機において、
前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶する記憶装置と、
あるリソースプールに関する表示要求を入力装置から取得する制御と、
前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定する制御と、
前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定する制御と、
前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を表示装置に表示する制御と、を実行する制御装置と、を有する
ことを特徴とする管理計算機。 - 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
前記制御装置は、
前記表示要求のあったリソースプールからリソースを割り当てる仮想デバイスを追加する場合は、前記構成情報および前記性能情報を参照して、前記追加する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記追加する仮想デバイスに割り当てることができるリソース量を算出する制御と、
前記算出したリソース量の最大を前記表示装置に表示する制御と、を実行する
ことを特徴とする請求項1に記載の管理計算機。 - 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
前記制御装置は、
前記表示要求のあったリソースプールからリソースを割り当てられている仮想デバイスを拡張する場合は、前記構成情報および前記性能情報を参照して、前記拡張する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記拡張する仮想デバイスに割り当てることができるリソースの拡張量を算出する制御と、
前記算出したリソースの拡張量の最大を前記表示装置に表示する制御と、を実行する
ことを特徴とする請求項1に記載の管理計算機。 - 前記制御装置は、
前記性能情報を参照して、前記リソースプールの空きリソース量以上の空きリソース量を有する物理デバイスが存在すれば、ある物理デバイス上を稼働する仮想デバイスを移動させる要求を前記入力装置から取得する制御と、
前記仮想デバイスを当該物理デバイス上に移動して稼働させる制御と、を実行する
ことを特徴とする請求項1に記載の管理計算機。 - 前記物理デバイスは、物理サーバであり、
前記仮想デバイスは、仮想サーバである、
ことを特徴とする請求項1から請求項4のいずれかに記載の管理計算機。 - 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理し、前記物理デバイスと通信可能に接続される管理計算機によるリソース管理方法において、
前記管理計算機の記憶装置は、
前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶しており、
前記管理計算機の制御装置は、
あるリソースプールに関する表示要求を入力装置から取得するステップと、
前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定するステップと、
前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定するステップと、
前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を表示装置に表示するステップと、を実行する
ことを特徴とするリソース管理方法。 - 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
前記制御装置は、
前記表示要求のあったリソースプールからリソースを割り当てる仮想デバイスを追加する場合は、前記構成情報および前記性能情報を参照して、前記追加する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記追加する仮想デバイスに割り当てることができるリソース量を算出するステップと、
前記算出したリソース量の最大を前記表示装置に表示するステップと、を実行する
ことを特徴とする請求項6に記載のリソース管理方法。 - 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
前記制御装置は、
前記表示要求のあったリソースプールからリソースを割り当てられている仮想デバイスを拡張する場合は、前記構成情報および前記性能情報を参照して、前記拡張する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記拡張する仮想デバイスに割り当てることができるリソースの拡張量を算出するステップと、
前記算出したリソースの拡張量の最大を前記表示装置に表示するステップと、を実行する
ことを特徴とする請求項6に記載のリソース管理方法。 - 前記制御装置は、
前記性能情報を参照して、前記リソースプールの空きリソース量以上の空きリソース量を有する物理デバイスが存在すれば、ある物理デバイス上を稼働する仮想デバイスを移動させる要求を前記入力装置から取得するステップと、
前記仮想デバイスを当該物理デバイス上に移動して稼働させるステップと、を実行する
ことを特徴とする請求項6に記載のリソース管理方法。 - 前記物理デバイスは、物理サーバであり、
前記仮想デバイスは、仮想サーバである、
ことを特徴とする請求項6から請求項9のいずれかに記載のリソース管理方法。 - 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理し、前記物理デバイスと通信可能に接続される管理計算機によるリソース管理方法を実行させるリソース管理プログラムにおいて、
前記管理計算機の記憶装置は、
前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶しており、
前記管理計算機の制御装置に、
あるリソースプールに関する表示要求を入力装置から取得する処理と、
前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定する処理と、
前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定する処理と、
前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を表示装置に表示する処理と、を実行させる
ことを特徴とするリソース管理プログラム。 - 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
前記制御装置に、
前記表示要求のあったリソースプールからリソースを割り当てる仮想デバイスを追加する場合は、前記構成情報および前記性能情報を参照して、前記追加する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記追加する仮想デバイスに割り当てることができるリソース量を算出する処理と、
前記算出したリソース量の最大を前記表示装置に表示する処理と、を実行させる
ことを特徴とする請求項11に記載のリソース管理プログラム。 - 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
前記制御装置に、
前記表示要求のあったリソースプールからリソースを割り当てられている仮想デバイスを拡張する場合は、前記構成情報および前記性能情報を参照して、前記拡張する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記拡張する仮想デバイスに割り当てることができるリソースの拡張量を算出する処理と、
前記算出したリソースの拡張量の最大を前記表示装置に表示する処理と、を実行させる
ことを特徴とする請求項11に記載のリソース管理プログラム。 - 前記制御装置に、
前記性能情報を参照して、前記リソースプールの空きリソース量以上の空きリソース量を有する物理デバイスが存在すれば、ある物理デバイス上を稼働する仮想デバイスを移動させる要求を前記入力装置から取得する処理と、
前記仮想デバイスを当該物理デバイス上に移動して稼働させる処理と、を実行させる
ことを特徴とする請求項11に記載のリソース管理プログラム。 - 前記物理デバイスは、物理サーバであり、
前記仮想デバイスは、仮想サーバである、
ことを特徴とする請求項11から請求項14のいずれかに記載のリソース管理プログラム。 - 請求項11から請求項15のいずれかに記載のリソース管理プログラムを記録した記録媒体。
- 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理する管理計算機と、前記物理デバイスとが通信可能に接続される情報処理システムにおいて、
前記管理計算機は、
前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶する記憶装置と、
あるリソースプールに関する表示要求を前記管理計算機の入力装置から取得する制御と、
前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定する制御と、
前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定する制御と、
前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を前記管理計算機の表示装置に表示する制御と、を実行する制御装置と、を有する
ことを特徴とする情報処理システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009135181A JP5400482B2 (ja) | 2009-06-04 | 2009-06-04 | 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム |
US12/558,866 US8131855B2 (en) | 2009-06-04 | 2009-09-14 | Management computer, resource management method, resource management computer program, recording medium, and information processing system |
US13/408,495 US9197698B2 (en) | 2009-06-04 | 2012-02-29 | Management computer, resource management method, resource management computer program, recording medium, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009135181A JP5400482B2 (ja) | 2009-06-04 | 2009-06-04 | 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010282420A true JP2010282420A (ja) | 2010-12-16 |
JP2010282420A5 JP2010282420A5 (ja) | 2011-08-18 |
JP5400482B2 JP5400482B2 (ja) | 2014-01-29 |
Family
ID=43301532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009135181A Active JP5400482B2 (ja) | 2009-06-04 | 2009-06-04 | 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム |
Country Status (2)
Country | Link |
---|---|
US (2) | US8131855B2 (ja) |
JP (1) | JP5400482B2 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012117471A1 (ja) * | 2011-03-01 | 2012-09-07 | 日本電気株式会社 | 仮想サーバシステム、管理サーバ装置及びシステム管理方法 |
WO2014020746A1 (ja) * | 2012-08-02 | 2014-02-06 | 株式会社日立製作所 | 管理計算機及び計算機システム管理方法 |
WO2014188478A1 (ja) * | 2013-05-20 | 2014-11-27 | 株式会社日立製作所 | 仮想環境と非仮想環境が混在するクラウドシステムにおける監視項目制御方法、管理計算機及び計算機システム |
JP2014533462A (ja) * | 2011-10-27 | 2014-12-11 | ゼットティーイー コーポレイション | 明示的または仮想化されたマシーントゥーマシンゲート(m2m)ウェイ要素を介して、サービス構成要素の集中的な過負荷の制御をクラウドベースで実行するためのシステムおよび方法 |
WO2015049789A1 (ja) * | 2013-10-04 | 2015-04-09 | 株式会社日立製作所 | リソース管理システムおよびリソース管理方法 |
JP2015094975A (ja) * | 2013-11-08 | 2015-05-18 | 日本電気株式会社 | 仮想マシン管理システムおよび仮想マシン管理方法 |
JP2015141459A (ja) * | 2014-01-27 | 2015-08-03 | 日本電気株式会社 | システム制御装置、制御方法、及びプログラム |
JP2015524976A (ja) * | 2012-08-31 | 2015-08-27 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 中央処理装置のリソース割当方法及び計算ノード |
JP2017142838A (ja) * | 2017-04-06 | 2017-08-17 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 中央処理装置のリソース割当方法及び計算ノード |
WO2019176606A1 (ja) * | 2018-03-12 | 2019-09-19 | 日本電信電話株式会社 | Vm性能保証システムおよびvm性能保証方法 |
WO2019225419A1 (ja) * | 2018-05-24 | 2019-11-28 | 日本電信電話株式会社 | Vm優先度制御システムおよびvm優先度制御方法 |
WO2019225429A1 (ja) * | 2018-05-24 | 2019-11-28 | 日本電信電話株式会社 | Vmマイグレーションシステムおよびvmマイグレーション方法 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120158923A1 (en) * | 2009-05-29 | 2012-06-21 | Ansari Mohamed | System and method for allocating resources of a server to a virtual machine |
GB2473194A (en) * | 2009-09-02 | 2011-03-09 | 1E Ltd | Monitoring the performance of a computer based on the value of a net useful activity metric |
WO2011043011A1 (ja) * | 2009-10-09 | 2011-04-14 | 日本電気株式会社 | 仮想サーバシステム、その自律制御サーバ、そのデータ処理方法およびコンピュータプログラム |
US8224993B1 (en) * | 2009-12-07 | 2012-07-17 | Amazon Technologies, Inc. | Managing power consumption in a data center |
US9122538B2 (en) * | 2010-02-22 | 2015-09-01 | Virtustream, Inc. | Methods and apparatus related to management of unit-based virtual resources within a data center environment |
US8782240B2 (en) * | 2010-10-18 | 2014-07-15 | Avaya Inc. | Resource allocation using shared resource pools |
US20120158945A1 (en) * | 2010-12-16 | 2012-06-21 | Christian Goldbach | Server load balancing using dynamic log-on groups |
US8549519B2 (en) | 2011-08-19 | 2013-10-01 | Hitachi, Ltd. | Method and apparatus to improve efficiency in the use of resources in data center |
US9223623B2 (en) * | 2012-03-28 | 2015-12-29 | Bmc Software, Inc. | Dynamic service resource control |
US20150006730A1 (en) * | 2013-06-27 | 2015-01-01 | Sap Ag | Enabling multi-tenant virtual servers in a cloud system |
US20150081400A1 (en) * | 2013-09-19 | 2015-03-19 | Infosys Limited | Watching ARM |
US9432267B2 (en) | 2014-03-12 | 2016-08-30 | International Business Machines Corporation | Software defined infrastructures that encapsulate physical server resources into logical resource pools |
US10382279B2 (en) * | 2014-06-30 | 2019-08-13 | Emc Corporation | Dynamically composed compute nodes comprising disaggregated components |
US10382534B1 (en) | 2015-04-04 | 2019-08-13 | Cisco Technology, Inc. | Selective load balancing of network traffic |
US10108455B2 (en) | 2015-08-26 | 2018-10-23 | Vmware, Inc. | Methods and apparatus to manage and execute actions in computing environments based on a type of virtual compute node |
US10110505B2 (en) | 2015-08-26 | 2018-10-23 | Vmware, Inc. | Methods and apparatus to manage and execute actions in computing environments using a graphical user interface |
US10122649B2 (en) * | 2015-08-26 | 2018-11-06 | Vmware, Inc. | Methods and apparatus to manage and execute actions in computing environments based on a routing path |
US11005682B2 (en) | 2015-10-06 | 2021-05-11 | Cisco Technology, Inc. | Policy-driven switch overlay bypass in a hybrid cloud network environment |
US10523657B2 (en) | 2015-11-16 | 2019-12-31 | Cisco Technology, Inc. | Endpoint privacy preservation with cloud conferencing |
US20180013636A1 (en) * | 2016-07-07 | 2018-01-11 | Cisco Technology, Inc. | System and method for scaling application containers in cloud environments |
US10659283B2 (en) | 2016-07-08 | 2020-05-19 | Cisco Technology, Inc. | Reducing ARP/ND flooding in cloud environment |
US10263898B2 (en) | 2016-07-20 | 2019-04-16 | Cisco Technology, Inc. | System and method for implementing universal cloud classification (UCC) as a service (UCCaaS) |
US11044162B2 (en) | 2016-12-06 | 2021-06-22 | Cisco Technology, Inc. | Orchestration of cloud and fog interactions |
US10326817B2 (en) | 2016-12-20 | 2019-06-18 | Cisco Technology, Inc. | System and method for quality-aware recording in large scale collaborate clouds |
US10334029B2 (en) | 2017-01-10 | 2019-06-25 | Cisco Technology, Inc. | Forming neighborhood groups from disperse cloud providers |
US10552191B2 (en) | 2017-01-26 | 2020-02-04 | Cisco Technology, Inc. | Distributed hybrid cloud orchestration model |
US10892940B2 (en) | 2017-07-21 | 2021-01-12 | Cisco Technology, Inc. | Scalable statistics and analytics mechanisms in cloud networking |
JPWO2021171211A1 (ja) * | 2020-02-26 | 2021-09-02 | ||
CN117891426B (zh) * | 2024-03-14 | 2024-05-24 | 麒麟软件有限公司 | 显示设备扩展功能管理系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120106A (ja) * | 1997-10-17 | 1999-04-30 | Fujitsu Ltd | サーバ資源利用状況の表示方式およびそのための記録媒体 |
JP2005222123A (ja) * | 2004-02-03 | 2005-08-18 | Hitachi Ltd | 計算機システム、管理装置、ストレージ装置及びコンピュータ装置 |
JP2008152594A (ja) * | 2006-12-19 | 2008-07-03 | Hitachi Ltd | マルチコアプロセッサ計算機の高信頼化方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4949254A (en) | 1988-09-29 | 1990-08-14 | Ibm Corp. | Method to manage concurrent execution of a distributed application program by a host computer and a large plurality of intelligent work stations on an SNA network |
JP4519098B2 (ja) | 2006-03-30 | 2010-08-04 | 株式会社日立製作所 | 計算機の管理方法、計算機システム、及び管理プログラム |
WO2009108344A1 (en) * | 2008-02-29 | 2009-09-03 | Vkernel Corporation | Method, system and apparatus for managing, modeling, predicting, allocating and utilizing resources and bottlenecks in a computer network |
-
2009
- 2009-06-04 JP JP2009135181A patent/JP5400482B2/ja active Active
- 2009-09-14 US US12/558,866 patent/US8131855B2/en not_active Expired - Fee Related
-
2012
- 2012-02-29 US US13/408,495 patent/US9197698B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120106A (ja) * | 1997-10-17 | 1999-04-30 | Fujitsu Ltd | サーバ資源利用状況の表示方式およびそのための記録媒体 |
JP2005222123A (ja) * | 2004-02-03 | 2005-08-18 | Hitachi Ltd | 計算機システム、管理装置、ストレージ装置及びコンピュータ装置 |
JP2008152594A (ja) * | 2006-12-19 | 2008-07-03 | Hitachi Ltd | マルチコアプロセッサ計算機の高信頼化方法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012117471A1 (ja) * | 2011-03-01 | 2012-09-07 | 日本電気株式会社 | 仮想サーバシステム、管理サーバ装置及びシステム管理方法 |
US9461933B2 (en) | 2011-03-01 | 2016-10-04 | Nec Corporation | Virtual server system, management server device, and system managing method |
JP5867499B2 (ja) * | 2011-03-01 | 2016-02-24 | 日本電気株式会社 | 仮想サーバシステム、管理サーバ装置及びシステム管理方法 |
US9426088B2 (en) | 2011-10-27 | 2016-08-23 | Zte (Usa) Inc. | System and method for cloud-based implementation of control of focused overload of service element (COFO-SE) via explicit (or virtualized) machine-to-machine (M2M) gateway element |
JP2014533462A (ja) * | 2011-10-27 | 2014-12-11 | ゼットティーイー コーポレイション | 明示的または仮想化されたマシーントゥーマシンゲート(m2m)ウェイ要素を介して、サービス構成要素の集中的な過負荷の制御をクラウドベースで実行するためのシステムおよび方法 |
WO2014020746A1 (ja) * | 2012-08-02 | 2014-02-06 | 株式会社日立製作所 | 管理計算機及び計算機システム管理方法 |
US10810045B2 (en) | 2012-08-31 | 2020-10-20 | Huawei Technologies Co., Ltd. | Method and apparatus for allocating central processing unit (CPU) resources in a default resource pool |
JP2015524976A (ja) * | 2012-08-31 | 2015-08-27 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 中央処理装置のリソース割当方法及び計算ノード |
US10007558B2 (en) | 2012-08-31 | 2018-06-26 | Huawei Technologies Co., Ltd. | Method and apparatus for allocating central processing unit resources in a default resource pool |
WO2014188478A1 (ja) * | 2013-05-20 | 2014-11-27 | 株式会社日立製作所 | 仮想環境と非仮想環境が混在するクラウドシステムにおける監視項目制御方法、管理計算機及び計算機システム |
US9444704B2 (en) | 2013-05-20 | 2016-09-13 | Hitachi, Ltd. | Method for controlling monitoring items, management computer, and computer system in cloud system where virtual environment and non-virtual environment are mixed |
JP6030757B2 (ja) * | 2013-05-20 | 2016-11-24 | 株式会社日立製作所 | 仮想環境と非仮想環境が混在するクラウドシステムにおける監視項目制御方法、管理計算機及び計算機システム |
WO2015049789A1 (ja) * | 2013-10-04 | 2015-04-09 | 株式会社日立製作所 | リソース管理システムおよびリソース管理方法 |
JP5976230B2 (ja) * | 2013-10-04 | 2016-08-23 | 株式会社日立製作所 | リソース管理システムおよびリソース管理方法 |
US9495195B2 (en) | 2013-10-04 | 2016-11-15 | Hitachi, Ltd. | Resource migration between virtual containers based on utilization rate and performance degradation |
JP2015094975A (ja) * | 2013-11-08 | 2015-05-18 | 日本電気株式会社 | 仮想マシン管理システムおよび仮想マシン管理方法 |
JP2015141459A (ja) * | 2014-01-27 | 2015-08-03 | 日本電気株式会社 | システム制御装置、制御方法、及びプログラム |
JP2017142838A (ja) * | 2017-04-06 | 2017-08-17 | 華為技術有限公司Huawei Technologies Co.,Ltd. | 中央処理装置のリソース割当方法及び計算ノード |
WO2019176606A1 (ja) * | 2018-03-12 | 2019-09-19 | 日本電信電話株式会社 | Vm性能保証システムおよびvm性能保証方法 |
WO2019225419A1 (ja) * | 2018-05-24 | 2019-11-28 | 日本電信電話株式会社 | Vm優先度制御システムおよびvm優先度制御方法 |
JP2019204305A (ja) * | 2018-05-24 | 2019-11-28 | 日本電信電話株式会社 | Vm優先度制御システムおよびvm優先度制御方法 |
WO2019225429A1 (ja) * | 2018-05-24 | 2019-11-28 | 日本電信電話株式会社 | Vmマイグレーションシステムおよびvmマイグレーション方法 |
Also Published As
Publication number | Publication date |
---|---|
US20100312893A1 (en) | 2010-12-09 |
US9197698B2 (en) | 2015-11-24 |
JP5400482B2 (ja) | 2014-01-29 |
US20120166649A1 (en) | 2012-06-28 |
US8131855B2 (en) | 2012-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5400482B2 (ja) | 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム | |
JP4519098B2 (ja) | 計算機の管理方法、計算機システム、及び管理プログラム | |
CN111344688B (zh) | 云计算中资源提供的方法及系统 | |
US8595364B2 (en) | System and method for automatic storage load balancing in virtual server environments | |
JP5577412B2 (ja) | 計算機システム、マイグレーション方法及び管理サーバ | |
US8327370B2 (en) | Dynamic policy manager method, system, and computer program product for optimizing fractional resource allocation | |
US9201896B2 (en) | Managing distributed storage quotas | |
Li et al. | CAM: a topology aware minimum cost flow based resource manager for MapReduce applications in the cloud | |
US20160210175A1 (en) | Method of allocating physical computing resource of computer system | |
KR101430649B1 (ko) | 클라우드 환경 내의 데이터 분석 서비스 제공 시스템 및 방법 | |
US10248460B2 (en) | Storage management computer | |
CN109684074A (zh) | 物理机资源分配方法及终端设备 | |
JP2015146154A (ja) | ジョブスケジューリング装置、ジョブスケジューリング方法、およびジョブスケジューリングプログラム | |
US10419305B2 (en) | Visualization of workload distribution on server resources | |
JP2011186701A (ja) | リソース割当装置、リソース割当方法、およびリソース割当プログラム | |
US11586471B2 (en) | Computer system and control method for computer system | |
US11635996B2 (en) | Management system and management method for migrating a business system operating on a target infrastructure | |
JP2017215884A (ja) | 仮想マシン配置装置およびリソース管理方法 | |
US9467336B2 (en) | Information processing system and management method thereof | |
JP2015022385A (ja) | 仮想システムおよび仮想システム制御方法 | |
JP2010026828A (ja) | 仮想計算機の制御方法 | |
JP6374059B2 (ja) | コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ | |
JP2016038888A (ja) | 情報処理システム、情報処理方法及び情報処理プログラム | |
KR20160063430A (ko) | 가상머신 리소스 사전예약을 통한 가용 리소스 자원 관리 및 할당 방법 | |
JP2015146148A (ja) | 仮想マシン管理装置、仮想マシン管理方法、及び、仮想マシン管理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5400482 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |