JP2010250689A - 性能モニタリングシステム、ボトルネック判定方法及び管理計算機 - Google Patents

性能モニタリングシステム、ボトルネック判定方法及び管理計算機 Download PDF

Info

Publication number
JP2010250689A
JP2010250689A JP2009101129A JP2009101129A JP2010250689A JP 2010250689 A JP2010250689 A JP 2010250689A JP 2009101129 A JP2009101129 A JP 2009101129A JP 2009101129 A JP2009101129 A JP 2009101129A JP 2010250689 A JP2010250689 A JP 2010250689A
Authority
JP
Japan
Prior art keywords
bottleneck
resource
logical
occurred
management computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009101129A
Other languages
English (en)
Other versions
JP5428075B2 (ja
Inventor
Toshiaki Tarui
俊明 垂井
Takeshi Tanaka
剛 田中
Kazuhiko Mizuno
和彦 水野
Takeshi Naono
健 直野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009101129A priority Critical patent/JP5428075B2/ja
Priority to US12/758,105 priority patent/US20100268816A1/en
Publication of JP2010250689A publication Critical patent/JP2010250689A/ja
Application granted granted Critical
Publication of JP5428075B2 publication Critical patent/JP5428075B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3485Performance evaluation by tracing or monitoring for I/O devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3495Performance evaluation by tracing or monitoring for systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/091Measuring contribution of individual network components to actual service level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/20Arrangements for monitoring or testing data switching networks the monitoring system or the monitored elements being virtualised, abstracted or software-defined entities, e.g. SDN or NFV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/504Resource capping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/508Monitor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】複数の仮想計算機が物理リソースを共有するシステムで、物理リソースの割当ポリシ、ソフトウェアへの影響を考慮してボトルネックを判定する。
【解決手段】サーバと、サーバに接続されたストレージシステムと、サーバ及びストレージシステムを管理する管理計算機とを備える性能モニタリングシステムであって、サーバ上では、サーバを論理的に分割して作成された、複数の仮想計算機が実行され、管理計算機は、リソース割当ポリシに関する情報を管理し、指定された仮想計算機の論理リソースにボトルネックが発生しているか否かを判定し、ボトルネックが発生している論理リソースの性能が仮想計算機の性能に与える影響を示す性能値を取得し、取得された性能値に基づいて、仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定し、前記仮想計算機に大きいボトルネックが発生したことを通知することを特徴とする。
【選択図】図8

Description

本発明は、仮想計算機システムに関し、複数の仮想サーバの間における性能ボトルネック要因の判定を支援するツールに関する。
近年、CPUの高性能化にともない、サーバ統合によるコスト削減、運用の柔軟化等を実現するために、1つの計算機を複数のシステムが共有するサーバ仮想化が広く用いられている。
仮想化を実施するシステムでは、一台のサーバ上に複数の仮想サーバを設け、各々独立したOSを動作させる。以下では、仮想サーバをLPAR(Logical Partition、論理区画)と呼ぶ。
各LPARは一台の物理サーバを分割(時分割、又はCPUコア毎の分割)して使用し、ユーザからはあたかも複数のサーバが独立して存在するように見せることができる。
前述したように、仮想化システムでは、複数のLPARが単一の物理リソース(CPU、I/Oデバイス)が共有される。さらに、大規模なシステムでは、SAN等によるI/O共有が行われるため、I/Oにおいても単一の物理リソース(SANのスイッチ、又はストレージ)が複数のLPARによって共有される。
前述したように仮想化を実現するシステムでは、物理リソースと、ユーザが使用する論理リソース(LPARとそれが使用するI/OデバイスやCPUの組)との間のマッピングが行われ、一対一の対応関係ではなくなる。その結果、論理的なリソースと物理リソースとの対応関係が複雑化し、アプリケーションがどの物理リソースを使用しているかが判りにくくなる。
一方、個々の物理リソース、論理リソースの性能を測定するツールは各種存在するが、前述した仮想化システムでは、測定された大量のデータのどこを見ればよいかがわかりにくい。
以上の原因によって、従来の性能評価、又はボトルネック判定手法をそのまま使用することが困難になりつつある。
前述の課題を解決するために、複数サーバでの性能モニタリングに関して、複数のサーバがストレージネットワークを共有するシステムにおいて、各サーバで測定された性能データを元に、物理−論理リソースマッピングを表わすシステム構成管理表に基づいて、各サーバが物理リソースをどれだけ使用しているかを表示する管理プログラムを備える方法がある(例えば、特許文献1参照)。
特許文献1に記載されている方法を使用することによって、複数の仮想サーバが一つの物理リソースを共有している環境において、どの仮想サーバがどの物理リソースを占有しているかを判定することができる。
しかし、複数のサーバが物理リソースを共有する場合、ベストエフォート(使った者勝ち)では、各サーバがどれだけ物理リソースを使用するか制御できないため、性能管理ができない問題がある。
前述した問題に対して、共有するリソースに関して割当ポリシを設定し、各サーバのリソース使用量を制御することが行われている。割当ポリシとしては、リソース割当率、最大リソース使用量の指定、及び優先度指定等、種々の方式が使用される。
例えば、ストレージネットワークで各サーバに物理リソース使用量を割り当てるときに、動的に変化する仮想計算機のストレージリソース使用状況を定期的にモニタリングし、リソース割当量を再検査し、余分なリソースを回収し、優先度にしたがって再割当する方法がある(例えば、特許文献2参照)。
また、仮想化システムでは、XenのDomain0等の特定の仮想サーバが他の仮想サーバのI/O処理を代行する。ある仮想サーバの通信処理が増加した場合、前記特定の仮想サーバのCPU処理が同時に増加するため、システムのボトルネック判定を複雑化する要因となる。
前述の問題に対して、前記特定の仮想サーバに対するI/O処理の影響を考慮し、リソース使用量を計算する方法がある(例えば、特許文献3参照)。
さらに、ストレージシステムにおいて、アクセスパスの接続経路における物理ポートのトラフィック量をモニタリングすることによって、物理リソースがネックになっている場合、空きリソースを持つパスを表示し、パス切り替えをナビゲーションする方法がある(例えば、特許文献4参照)。
特開2005−62941号 特開2005−309644号 特開2008−217332号 特開2004−72135号
前述した従来例は、各LPARがI/O機器、CPU等の物理リソースをどれだけ使用しているかを示す使用状況を把握することができる。
しかし、以下に示す理由によって、従来技術で物理リソースの使用状況をモニタリングするだけでは、システムのどの部分が性能的に問題あるかを明らかにすることが困難である。
(1)論理リソースの割当量を限界まで使用してボトルネックとなるLPARの判断が困難。
複数LPARが物理リソースを共有し、当該物理リソース使用量が割当ポリシによって制限されている場合、100%使用されていない物理リソースでもボトルネックになっている可能性がある。
例えば、2つのLPARがあるシステムにおいて、LPAR1に割り当てられたリソース使用量が100%で使い切られているのに対して、LPAR2に割り当てられたリソース使用量には余裕がある場合が考えられる。前述のような場合、物理リソースのリソース使用量は100%では無いが、LPAR1にとっては該当するリソースの使用量をこれ以上増やすことができないため、ボトルネックになっている。つまり、このような場合におけるボトルネック判断が必要になる。
(2)アプリケーション性能に与える影響がわからない。
前記したように複数の論理リソースがボトルネックになっていると判定された場合、そのうちどれがアプリケーション性能に与える影響が大きいかわからない。そのため、複数のボトルネックの対策の優先度が判定できないため、迅速な対策を採ることができない。
例えば、ストレージデバイスのリソース使用量が100%になっている場合でも、待ち行列の長さによって、アプリケーションの待ち時間は大きく異なり、性能への悪影響は異なる。このような場合は、待ち行列長が長く、アプリケーションの待ち時間への悪影響が大きい項目を先に対策するべきである。つまり、性能モニタリングシステムが優先度を判定し、システム管理者をナビゲーションする必要がある。
前述した理由によって、従来技術では単純な性能モニタリングは可能であるが、アプリケーション性能が低下している場合に、原因となる箇所を判断することが困難であり、どの部分を対策してよいかがわからないという問題点があった。特に大規模なシステムでは、(1)で判定される論理リソースのボトルネックが非常に多数(数十〜数百)発生する場合があり、(1)による自動判定だけでは、対策箇所を判断することが非常に困難である。
本発明は、物理リソースの割当ポリシ、及びアプリケーション性能に与える影響を考慮して、ボトルネック判定を支援するモニタリングシステムを提供することを目的とする。
本発明の代表的な一例を示せば以下の通りである。すなわち、サーバと、前記サーバに接続されたストレージシステムと、前記サーバ及び前記ストレージシステムを管理する管理計算機とを備える性能モニタリングシステムであって、前記サーバは、第1のプロセッサと、前記第1のプロセッサと接続される第1のメモリと、前記第1のプロセッサと接続される第1のネットワークインタフェースとを備え、前記ストレージシステムは、コントローラと、記憶装置と、前記コントローラと前記記憶装置とを接続するディスクインタフェースとを備え、前記コントローラは、第2のプロセッサと、前記第2のプロセッサと接続される第2のメモリとを備え、前記管理計算機は、第3のプロセッサと、前記第3のプロセッサと接続される第3のメモリと、前記第3のプロセッサと接続される記憶装置とを備え、前記サーバ上では、前記サーバを論理的に分割して作成された、複数の仮想計算機が実行され、前記ストレージシステムは、前記記憶装置を論理的に分割した論理記憶ユニットを前記仮想計算機に提供し、前記仮想計算機から前記論理ユニットまでの経路における物理リソースが、前記仮想計算機の論理リソースとして割り当てられ、前記サーバは、前記論理リソースごとに、前記仮想計算機が測定する前記論理リソースによって使用される物理リソースの使用量に関する時系列データを収集し、前記管理計算機は、前記論理リソースに設定されるリソース割当ポリシに関する情報を管理し、前記サーバから、前記収集された時系列データを取得し、前記取得された時系列データの各時刻において、指定された前記仮想計算機の論理リソースが使用する物理リソースの使用量と、前記リソース割当ポリシとを参照し、前記指定された仮想計算機の論理リソースにボトルネックが発生しているか否かを判定し、ボトルネックが発生している前記論理リソースの性能が前記仮想計算機の性能に与える影響を示す性能値を取得し、前記取得された性能値に基づいて、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定し、前記仮想計算機に与える影響が大きいボトルネックが発生していると判定された場合、前記仮想計算機に大きいボトルネックが発生したことを通知することを特徴とする。
本発明によれば、各仮想計算機が使用する物理リソースにおけるボトルネックの有無を判定する場合、物理リソース使用量が100%に達していない状態でも、ボトルネックとなっている科捜研算器を判定することができる。
さらに、ボトルネックであると判定された箇所が複数ある場合、各ボトルネック箇所における、仮想計算機への影響が大きい部分を判定することができる。
本発明の第1の実施形態のモニタリングシステムの構成を説明するブロック図である。 本発明の第1の実施形態のストレージアクセスの次に本実施例における物理的な経路を説明するブロック図である。 本発明の第1の実施形態の各LPARのストレージシステム上の論理ボリュームへの接続の論理構成を示す説明図である。 本発明の第1の実施形態の管理用LPARを介したネットワーク通信処理の詳細を示す説明図である。 本発明の第1の実施形態の管理サーバが備えるシステム構成管理表の一例を示す説明図である。 本発明の第1の実施形態の管理サーバが備えるリソース割当ポリシ管理の一例を示す図である。 本発明の第1の実施形態におけるボトルネック箇所報告画面を説明する図である。 本発明の第1の実施形態における物理リソースボトルネック画面を説明する図である。 本発明の第1の実施形態の管理サーバが物理リソース全体の使用状況を収集する処理を説明するフローチャートである。 本発明の第1の実施形態の管理サーバが実行するリソース割当ポリシを考慮した、ボトルネック箇所判定処理を説明するフローチャートである。 本発明の第1の実施形態の管理サーバが実行する、リソース待ち時間を考慮したボトルネック対策の優先順位判定処理を説明するフローチャートである。 本発明の第1の実施形態の管理サーバが実行する、ボトルネック解決処理を説明するフローチャートである。 本発明の第1の実施形態におけるリソース割当ポリシの一例を示す説明図である。 本発明の第1の実施形態の時系列性能データを説明する図である。 本発明の第1の実施形態の変形例1における物理リソースボトルネック画面の表示方法の変形例を説明するフローチャートである。 本発明の第1の実施形態の変形例2におけるリソース待ち時間比の計算方法を示す説明図である。
[第1の実施形態]
以下、本発明の一実施形態を添付図面に基づいて説明する。
図1は、本発明の第1の実施形態のモニタリングシステムの構成を説明するブロック図である。
モニタリングシステムは、モニタリング対象となるモニタリング対象システム100、及び管理サーバ200から構成される。
モニタリング対象システム100は、複数のサーバ110、120、FC−SW(Fibre Channel Switch)500、ストレージシステム550、ネットワーク160、及び、ポリシ管理サーバ190から構成される。
サーバ110は、ネットワーク160を介してポリシ管理サーバ190及び管理サーバ200と接続される。また、サーバ110は、SAN(Storage Area Network)を介して、ストレージシステム550と接続される。具体的には、ストレージインタフェース(HBA:Host Bus Adapter)114とFC−SW(Fibre Channel Switch)500及びコントローラ(551、552)(図2参照)を介して、サーバ110、120とストレージシステム550とは互いに接続される。
以下、サーバ110の詳細を説明するが、サーバ120についても同一の構成である。なお、図中の実線はネットワークの接続関係、点線はデータの流れを示す。
サーバ110は、CPU111、主記憶装置112、ネットワークインタフェース(NIC:Network Interface Card)113、及びストレージインタフェース(HBA:Host Bus Adapter)114を備える。
サーバ110は仮想化機構を備え、当該仮想化機構によって複数のLPARに論理分割され、各々のLPARが仮想サーバとして機能する。
サーバ110の主記憶装置112は、仮想化を実現するための制御プログラムであるハイパバイザ350、並びに各LPAR(管理用LPARを含む)のプログラムであるLPAR300、LPAR310、及び管理用LPAR360が格納される。前述したプログラムは、CPU111によって実行される。
LPAR300、310は、ユーザプログラムを実行する仮想サーバである。管理用LPAR360は、各LPAR300、310のネットワーク160を介した通信機能を担当し、ネットワークI/Oの仮想化を実現する。具体的には、管理用LPAR360は、各LPAR300、310が通信に使用する仮想的なNICの実現、各LPAR300、310及びNIC113を結ぶ仮想的なスイッチの実現、並びに、NIC113を介したネットワーク160へのI/Oの実現をサポートする。詳細については、図4を用いて後述する。
CPU111は、ハイパバイザ350を介して、各LPAR300、310を実行する。これによって、OS、及びアプリケーションを含んだ仮想的なサーバをユーザに提供される。
各LPAR300、310、360では、該LPAR300、310、360で動作するOS上で、OSモニタリングプログラム301、311、361が実行され、OSやI/Oの基本的な情報が周期的にモニタリングされる。
さらに、ハイパバイザ350も、ハイパバイザモニタリングプログラム351が実行され、各LPAR300、310、360に割り当てられたCPU時間等の性能基本情報がモニタリングされる。
OSのモニタリングプログラムの例としては、UNIX(登録商標)系OSのsar及びiostat、Windows(登録商標)系OSのsystem monitorがある。ハイパバイザのモニタリング機能の例としては、Xen(登録商標)のxentopがある。
前述のモニタリングされた各データは、後述する測定データ収集プログラム221によって、ネットワーク160を介して管理サーバ200のストレージシステム230に収集される。モニタリングされる情報については、図14を用いて後述する。
性能データとして、例えば、ストレージアクセススループット(各LPAR300、310、360上のOSがストレージシステム550上に作成された論理デバイスにアクセスするスループット)、ストレージの平均待ち時間(OS上で計測された、ストレージアクセスの論理デバイス毎の平均待ち時間)、及び、サーバ(110)での各LPAR(300、310、360)のCPU(111)使用率等がある。
ポリシ管理サーバ190は、モニタリング対象システム100内で動作するLPAR(300、310、360)が使用する物理リソース(各サーバ110、120のCPU、ストレージ150、ネットワーク160等)の割り当てを管理する。具体的には、ポリシ管理サーバ190は、リソース割当ポリシ191によって、各LPAR300、310、360への物理リソースの割当を管理する。リソース割当ポリシ191は、ポリシ管理サーバ190によって設定され、また管理される。
リソース割当ポリシ191に基づいて、サーバ110のCPU111には、ハイパバイザ350にCPUリソース割当ポリシ352が設定され、ストレージシステム550にはSANリソース割当ポリシ5510が設定され、また、ネットワーク160内の機器(図示省略)にはネットワークリソース割当ポリシ161が設定される。
なお、第1の実施形態におけるポリシ管理の対象は、CPUの割当時間、ネットワーク帯域、及びストレージシステム550内のSANの帯域である。
管理サーバ200は、モニタリング機能が動作する計算機であり、CPU210、主記憶装置220、ストレージシステム230、表示装置240、及びNIC250を備える。
管理サーバ200は、NIC250を介して、モニタリング対象システム100のネットワーク160に接続される。
主記憶装置220は、制御プログラム222、測定データ収集プログラム221、表示プログラム223が格納する。前述した各プログラムはCPU210によって実行され、これによってモニタリング機能が実現される。
ストレージシステム230は、モニタリング対象システム100で測定され、測定データ収集プログラム221によって収集されたモニタデータ231、並びに制御プログラム222が使用する管理用のデータを格納する。具体的には、ストレージシステム230は、管理用のデータとして、システム構成管理表232、リソース割当ポリシ233、及びリソース待ち時間しきい値234を格納する。
システム構成管理表232は、各LPARにおける論理リソースと物理リソースとのマッピングを格納する。リソース割当ポリシ233は、ポリシ管理サーバ190が格納するリソース割当ポリシ191と同一のものである。リソース待ち時間しきい値234はシステム管理者によって入力される。例えば、システム管理者が表示装置を用いて、リソース待ち時間しきい値234を入力する。
管理サーバ200は、測定データ収集プログラム221を実行し、モニタリング対象システム100内のモニタリングプログラム(OSモニタリングプログラム301、311、361、ハイパバイザモニタリングプログラム351)によって測定された性能の時系列データを、ネットワーク160経由でストレージシステム230上のモニタデータ231として蓄積する。
また、管理サーバ200は、制御プログラム222を実行することによって後述する処理が実行され、また、表示プログラム223を実行することによって当該処理の結果が表示装置240に表示される。なお、表示プログラム223は、表示装置240からのパラメータ入力処理も実行する。
なお、図1に示す例では、モニタリング対象システム100は、2つのサーバ110、120を備えるが、1つ、又は3以上の数のサーバを備えていてもよい。また、図1に示す例では、通常の(ユーザプログラムを実行する)LPARが2つある場合を示しているが、1つ又は3つ以上LPARがあってもよい。
図2は、本発明の第1の実施形態のストレージアクセスの次に本実施例における物理的な経路を説明するブロック図である。
図2の説明において、各サーバ110、120の内部は、CPU111、121、CPU111、112上で動作するLPAR300、310、400、410、420、ハイパバイザ350、450、及びHBA114、124のみを示し、その他の構成要素は省略する。
ストレージシステム550は、コントローラ551、552、複数の記憶媒体(図示省略)を備え、当該複数の記憶媒体から複数のRAID Groupを作成する。図2に示す例では、ストレージシステム550上には、RAID Group560〜563が作成されている。
ストレージシステム550は、さらに、RAID Group560〜563上に論理ボリューム(図3参照)を作成する。
各サーバ110、120はそれぞれHBA114、124を介してストレージシステム550に接続される。
図2に示す例では、コントローラ551、552は各々、ポートを備え、当該ポートを介してFC−SW500に接続される。具体的には、RAIDグループRG00、RG01はCTRL0コントローラ経由でアクセスされ、また、RG02、RG03はCTRL1経由でアクセスされる。
各RAID Groupに分散するように論理ボリュームが配置される。図2に示す例では、RG00(560)にはLPAR00(300)がアクセスする論理ボリュームsda、及びLPAR21(420)がアクセスする論理ボリュームsdaが作成さている。RG01(561)にはLPAR00(300)がアクセスする論理ボリュームsdbが作成されている。RG02(562)にはLPAR00(300)がアクセスする論理ボリュームsdcが作成されている。RG03(563)にはLPAR01(310)がアクセスする論理ボリュームsda、LPAR10(400)がアクセスする論理ボリュームsda、及びLPAR11(410)がアクセスする論理ボリュームsdaが作成されている。
図3は、本発明の第1の実施形態の各LPARのストレージシステム550上の論理ボリュームへの接続の論理構成を示す説明図である。
図3において、各LPAR300、310、400、410、420はsda等の論理ボリューム900〜906が割り当てられ、論理的には図3に示すように構成される。
各LPAR300、310、400、410、420は、2つのポートを介して各論理ボリューム900〜906にアクセスする。LPAR00(300)を例に詳細を説明すると、論理ボリュームsda900、sdb901はHBA114のポートhport00(114A)経由で、sdc902はHBA114のポートhport01(114B)経由でアクセスされる。前述のような構成を実現するためには、FC−SW500のポート1はポート5に、ポート2はポート6に接続されなければならない。
また、他のLPAR310、350、400、410、420については、図3に示すような構成を実現するためには、ストレージアクセス経路を考慮すると、FC−SW500は図2の点線で示すように接続される必要がある。
図4は、本発明の第1の実施形態の管理用LPAR360を介したネットワーク通信処理の詳細を示す説明図である。
以下、管理用LPAR360における通信に伴う処理についてネットワーク通信を例に説明する。
各LPAR300、310には、それぞれ、通信を行うための仮想NICプログラム305、315を備える。
仮想NICプログラム305、315は、管理用LPAR360上のプログラム(OS)に対して仮想デバイスとして働き、各LPAR300、310があたかもNICを備えているように振舞う。仮想NICプログラム305、315は、ハイパバイザ350が提供するLPAR間通信プログラム355を介して、管理用LPAR360が備えるネットワーク通信プログラム365と通信する。
ネットワーク通信プログラム365は、仮想スイッチプログラム366と物理NICドライバ367とを含む。仮想スイッチプログラム366は、各LPAR300、310相互間、及び、各LPAR300、310とサーバ110外の装置との間の通信のスイッチングを行う。物理NICドライバ367は、各LPAR300、310がサーバ110外の装置との通信を行う時に物理NICを介した通信を行う。
前述したように管理用LPAR(360)を介した通信処理が必要になる理由は、NIC113が仮想化機構を備えず、複数のLPAR(300、310)からの通信を扱うことが出来ないためである。そのため、管理用LPAR(360)上のソフトウェア処理によって、複数のLPAR(300、310)が一つのNICを共有することが可能になる。なお、I/Oアダプタがハードウェアで仮想化機構を備える場合は、各LPARはI/Oアダプタを直接アクセスすることができ、管理用LPAR360を介した処理は行われない。
図5は、本発明の第1の実施形態の管理サーバ200が備えるシステム構成管理表232の一例を示す説明図である。
本実施形態におけるシステム構成管理表232は、SANを経由してストレージシステム550へのアクセスに関して、各LPARの持つ論理リソース(縦軸)毎に、ストレージシステム550へのアクセスに使用される物理リソース(横軸)を格納する。つまり、アクセスパスが格納される。
システム構成管理表232は、論理リソース2321、アクセス時に使用される物理リソース2322を含む。
論理リソース2321は、各LPARがアクセスする論理ボリュームを識別するための識別子を格納する。アクセス時に使用される物理リソース2322は、論理リソース2321に対応するLPARからストレージシステム550上の論理ボリュームへのアクセス時に使用される物理リソースを格納する。
具体的には、アクセス時に使用される物理リソース2322は、CPU23221、HBA23222、HBAポート23223、FC−SWポート23224、FC−SW23225、FC−SWポート23226、ストレージポート23227、コントローラ23228、及びRAID Group23229を含む。
CPU23221は、LPARが動作するCPUを識別するための識別子を格納する。HBA23222は、サーバが備えるHBAを識別するための識別子を格納する。HBAポート23223は、HBAが備えるHBAポートを識別するための識別子を格納する。
FC−SWポート23224は、FC−SWが備える入力ポートを識別するための識別子を格納する。FC−SW23225は、FC−SWを識別するための識別子を格納する。FC−SWポート23226は、FC−SWが備える出力ポートを識別するための識別子を格納する。
ストレージポート23227は、ストレージシステムが備えるポートを識別するための識別子を格納する。コントローラ23228は、ストレージシステムが備えるコントローラを識別するための識別子を格納する。RAID Group23229は、ストレージシステム上に作成されたRAID Groupを識別するための識別子を格納する。
例えば、LPAR00(300)からsda900へのアクセスに関しては、CPU23221は「server00」、HBA23222は「HBA00」、HBAポート23223は「hport00」、FC−SWポート23224は「SW0−1」、FC−SW23225は「SW0」、FC−SWポート23226は「SW0−5」、ストレージポート23227は「s−port0」、コントローラ23228は「CTRL0」を経由して、最終的にRAID Group23229が「RG00」上のsda900に格納されたデータにアクセスされることを示している。
その他の論理リソース(論理ボリューム)に関しても同様にアクセスパスが記憶される。
管理サーバ200は、システム構成管理表232を備えることによって、物理リソースと論理リソースとのマッピングを把握することができる。なお、システム構成管理表232の各内容はシステム管理者がシステムの構築時にシステム設計情報を元に入力する。
図6は、本発明の第1の実施形態の管理サーバ200が備えるリソース割当ポリシ233の一例を示す図である。
リソース割当ポリシ233は、ポリシ管理サーバ190が管理しているリソース割当ポリシ191から作成される。また、リソース割当ポリシ191は、システム管理者が構築やサイジング実施時に入力するパラメータである。
リソース割当ポリシ233は、物理リソース2331、性能限界2332、及び論理リソースへの割当方法2333を含む。
物理リソース2331は、ポリシが設定される物理リソースを識別するための識別子を格納する。性能限界2332は、物理リソース2331に対応する物理リソースに設定されるポリシの内容を格納する。論理リソースへの割当方法2333は、物理リソース2331に対応する物理リソースを使用する論理リソースに設定されるポリシの内容を格納する。
図6に示す例では、2つのエントリのみを示しているが、他の複数の物理リソースに関するエントリがあってもよい。
本実施形態では、ポリシによって、LPARに割り当てられた論理リソースが使用可能な帯域の割当値が設定される。
図6に示す例では、物理リソース2331は「FC−SW500のポートSW0−6」であり、当該ポートの性能限界2332は「8Gbps」であり、当該ポートを経由する4つの論理リソース(この場合は論理ボリューム)へのアクセスに対して、LPAR00(300)のsdc902は「3Gbps」、LPAR01(310)のsda903は1Gbps、LPAR10(400)のsda904は「2Gbps」、LPAR11(410)のsda905は「2Gbps」の帯域が割り当てられている。
また、本実施形態では、各論理リソースへの帯域割当においてキャッピングの有無が指定されている。
ここで、「キャッピング有」は、他の論理リソースへのアクセスに割り当てられた帯域が空いていても、当該帯域を流用することはできないことを示し、また、「キャッピング無」は、他の論理リソースへのアクセスに割り当てられた帯域が空いている場合には、余っている帯域を流用することができることを示す。
なお、図6に示す例では、割当ポリシとして各論理リソースへの割当帯域を使用したが、割当率指定、優先度制御、及び最低割当率指定等、種々のものが考えられる。また、各論理リソースの使用帯域を全く制限しないベストエフォートによる制御が行われる場合も考えられる。
図7及び図8は、本発明の第1の実施形態におけるボトルネック判定結果の表示画面である。管理サーバ200は、モニタリング対象システム100から取得されたモニタデータ231に基づいて、制御プログラム222を実行することによって後述するアルゴリズムに従ってボトルネックの判定を行った後、表示プログラム223を実行し表示装置240に図7及び図8に示す画面を表示する。
図7は、本発明の第1の実施形態におけるボトルネック箇所報告画面2000を説明する図である。
ボトルネック箇所報告画面2000は、LPARへの影響が大きいボトルネックを報告する画面である。
ボトルネック箇所報告画面2000は、着目するLPARを指定する入力領域2010、リソース待ち時間しきい値234を指定する入力領域2011、ボトルネック箇所を報告する出力表2020から構成される。
出力表2020は、時間範囲2021、論理デバイス2022、物理リソース2023、及びリソース待ち時間2024を含む。
時間範囲2021は、着目するLPARにおいて、ボトルネックとなっていると判定された時間間隔を表示する。
論理デバイス2022は、着目するLPARがアクセスした論理デバイス(この場合、論理ボリューム)を示す。物理リソース2023は、着目するLPARから論理デバイスまでのアクセスパスにおいて、限界まで使用されている物理リソースを示す。つまり、ボトルネックとなっている物理リソースを示す。リソース待ち時間2024は、リソース待ち時間の平均値を示す。
リソース待ち時間2024は、論理リソースへのアクセス性能がサーバ性能に与える影響を表わすパラメータであり、当該値が大きいほどソフトウェア性能への悪影響が大きいことを示す。
ボトルネック箇所報告画面2000は、実際に計測されたリソース待ち時間が入力領域2011に入力されたリソース待ち時間しきい値234より大きい論理リソースについてのみ、リソース待ち時間の降順にボトルネック部分を表示する。つまり、ソフトウェアから見て影響の大きい順にボトルネック部分が表示される。
これによって、システム管理者は、アプリケーション性能への影響が大きいボトルネック部分を知ることができる。
図7に示す例では、LPAR11(410)に関するボトルネックのうち、リソース待ち時間が「2.0」以上のものが表示されている。例えば、図7に示すボトルネック箇所報告画面2000の最初の項目は、9時00分から9時10分の間、論理ボリュームsda905へのアクセスが、FC−SW500のポートSW0−6において割り当てられた帯域を限界まで使用されており、リソース待ち時間2024は「4.0」であることが分かる。その他の行についても他のボトルネック箇所が表示されている。
ここで、リソース待ち時間について詳細に説明する。アプリケーションが論理デバイスにアクセスする場合、OSがアクセスのためのキューが用意される。アクセス経路内の何れかの物理リソースの帯域が律速して論理リソースのアクセス帯域が不足し、I/Oリクエストが滞ると、キューにアクセスリクエストの待ち行列ができ、リクエストが待たされる。
リソース待ち時間は、前述のOSにおけるI/Oリクエストの待ち時間を計測した値である。リソース待ち時間が大きいと、アクセスの帯域不足がアプリケーションへ与える影響が大きいことを示す。
例えば、UNIX(登録商標)系のOSの場合、I/O待ち時間はOSの標準コマンドである、iostatコマンドによって、awaitという項目で測定することができる。他のOSでも同様に基本コマンドによって測定することができる。
ボトルネックがI/O性能に与える影響を示すパラメータは、前記で述べたリソース待ち時間だけでなく、平均待ち行列長等を使用することもできる。特にCPUがボトルネックになっている場合、平均待ち行列長はload averageとして測定することができる。
図8は、本発明の第1の実施形態における物理リソースボトルネック画面2100を説明する図である。
物理リソースボトルネック画面2100は、物理リソースに割り当てられていたリソース使用量の限界に達している部分を報告する画面である。
物理リソースボトルネック画面2100は、着目する物理リソースを指定する入力領域2110、リソース使用量を表示する出力グラフ2120、どの論理リソースがボトルネックになっているかを表示するアラート出力領域2130から構成される。
出力グラフ2120は、縦軸はI/Oスループットを示し、横軸は時刻を示す。出力グラフ2120は、各時刻において、着目された物理リソース(図8に示す例ではFC−SW500のポートSW0−6)を使用する各LPARが論理デバイスにアクセスするときに、当該物理リソースをどれだけ使用しているかを、積み上げの面グラフの形で表示する。
出力グラフ2120は、さらに、論理デバイスのアクセスにおいて、割り当てられた帯域を使い切っている(ボトルネック)部分について、強調表示する。
図8に示す例では、下から順に、LPAR00(300)のsdc902、LPAR01(310)のsda903、LPAR10(400)のsda904、LPAR11(410)のsda905のI/Oアクセススループットの時刻変化が表示されている。
図8に示す例では、LPAR11(410)のsda905へのアクセスが2Gbpsに制限されている。図8において、点線の部分がLPAR11(410)のsda905が使える帯域の上限を示す。図8に示すように、9時から9時10分までの間、LPAR11(410)のsda905へのアクセスは2Gbpsの帯域を使い切っているため、この部分は斜線で強調表示されるとともに、当該論理デバイスのリソース使用量は割り当てられた帯域の限界に達している旨がアラート出力領域2130に表示される。
なお、LPAR11(410)のsda905が使える帯域の上限を点線は表示されなくてもよく、斜線の部分のみを表示するものであってもよい。
これによって、システム管理者は、どの時刻に、どの論理リソースへのアクセスが帯域を限界まで使用しているか(ボトルネックが発生しているか)、さらに、ボトルネック発生時に、他の論理リソースへのアクセスは当該物理リソースをどれだけ使用しているかをモニタすることができる。
ボトルネック箇所報告画面2000及び物理リソースボトルネック画面2100の表示方法としては、最初にボトルネック箇所報告画面2000を表示し、システム管理者はボトルネックが発生している部分とその対策優先順位を判定した後に、物理リソースボトルネック画面2100を表示し、システム管理者は該当する物理リソースのリソース使用量の時系列変化(ボトルネックになっている部分で該当する物理リソースを他のLPARがどの程度使用しているかが示される)をモニタし、原因を推定する方法が考えられる。なお、ボトルネック箇所報告画面2000及び物理リソースボトルネック画面2100の表示方法はこれに限定されず、例えば、同時に表示するものあってもよい。
次に、管理サーバ200の処理について説明する。
本発明の第1の実施形態における特長は、管理サーバ200が制御プログラム222を実行することによって、図9〜図12で示す処理を行うことである。
<管理サーバ200の処理>
以下では、本発明によるモニタリングシステム、すなわち、管理サーバ200の動作を、図9〜図14を用いて説明する。
管理サーバ200は、測定データ収集プログラム221を実行することによって、性能データ(図14参照)を収集し、収集された性能データをストレージシステム230上にモニタデータ231として蓄積する。
当該処理は、例えば、リモートシェルでiostatコマンドを起動することで実現できる。管理サーバ200は、蓄積されたモニタデータ231を元に、ボトルネック解析を実行する。
図14は、本発明の第1の実施形態の時系列性能データを説明する図である。
時系列性能データは、各LPAR(300、310)上のOSで測定され、管理サーバ200のモニタデータ231に蓄積される。図14に示す例では、Linux(登録商標)のiostatによって等間隔(この場合、10秒間隔)で測定したデータが、蓄積されている。図14では19時17分40秒と50秒に測定されたデータを示すが、その後も同様にデータが蓄積される。以下、各時刻で測定されたデータの内容を順に説明する。
時刻の次の2行はLPAR(300、310)上のOSで測定されたCPU(111)時間の内訳を示し、各項目の意味は下記のとおりである。
%userは、ユーザモードで動作した時間の割合を示す。%niceは、低優先度のユーザモードで動作した時間の割合を示す。%systemは、システムモードで動作した時間の割合を示す。%iowaitは、I/Oの完了を待っていた時間の割合を示す。%stealは、仮想化環境で他のオペレーティングシステムにより消費された時間の割合を示す。%idleは、タスク待ちの時間の割合を示す。
測定されたデータの下の4行は、LPAR(300、310)上のOSで測定されたI/Oの動作状況であり、I/Oデバイス毎に測定されている。各項目の意味は下記のとおりである。
Deviceは、OS上の論理デバイス名を示す。rrqm/sは、デバイスに対するマージされたリクエスト数の一秒毎の数を示す。wrpm/sは、デバイスに対するマージされたリクエスト数の一秒毎の数を示す。r/sは、デバイスに対する読み出しリクエスト数の一秒毎の数を示す。w/sは、デバイスに対する書き込みリクエスト数の一秒毎の数を示す。rsec/sは、デバイスから読み出したセクタ数の一秒毎の数(スループット)を示す。wsec/sは、デバイスに書き込んだセクタ数の一秒毎の数(スループット)を示す。avgrq−szは、デバイスに対するリクエストの平均サイズ(セクタ単位)を示す。avgqu−szは、デバイスの要求リクエストキューの平均長を示す。
awaitは、デバイスへのI/Oリクエストがサービス終了するまでの平均待ち時間を示す。svctmは、デバイスへのI/Oの要求の平均サービス時間を示す。%utilは、デバイスの平均使用率を示す。
本実施形態では、I/Oアクセス性能のソフトウェアに与える影響を表わす指標としてリソース待ち時間awaitを使用する。モニタデータ231に蓄積される時系列性能データの内容は、図14に示したiostatの他にも、sarコマンドや、ハイパバイザのxentopコマンド等、種々のコマンドの出力が可能である。
図9は、本発明の第1の実施形態の管理サーバ200が物理リソース全体の使用状況を収集する処理を説明するフローチャートである。
当該処理は、ボトルネック判定を実行するときに必要となる、各物理リソースにおける使用状況を収集する処理である。
当該処理は、管理者がボトルネック箇所報告画面2000の入力領域2010に、着目するLPARを指定することによって開始される。
制御プログラム222は、システム構成管理表232を参照し、入力領域2010に入力されたLPAR(以下、着目LPARとも記載する)が使用する物理リソースを全て抽出する(ステップ1401)。
図7に示す例では入力領域2010にLPAR11(410)が入力されており、制御プログラム222は、LPAR11(410)が使用する物理リソースとして、CPU23221は「server01」、HBA23222は「HBA10」、HBAポート23223は「hport11」、FC−SWポート23224は「SW0−4」、FC−SW23225は「SW0」、FC−SWポート23226は「SW0−6」、ストレージポート23227は「s−port0」、コントローラ23228「CTRL1」、及びRAID Group23229は「RG03」を抽出する。
制御プログラム222は、抽出された全ての物理リソースについて、以下(ステップ1403〜1405)の処理を実行する(ステップ1402)。具体的には、制御プログラム222は、抽出された全ての物理リソースから一つの物理リソースを選択し、選択された物理リソース(以下、着目物理リソースとも記載する)についてステップ1403〜1405の処理を実行する。
制御プログラム222は、システム構成管理表232を参照し、着目物理リソースを使用する論理リソース(この場合、LPARと論理デバイスとの組み合わせ)を全て取得する(ステップ1403)。
例えば、選択された着目物理リソースがFC−SW500のポートSW0−6の場合、LPAR00(300)のsdc902、LPAR01(310)のsda(903)、LPAR10(400)のsda(905)、及びLPAR11(420)のsda906が当該着目物理リソースを使用する論理リソースとして取得される。
次に、制御プログラム222は、取得された全ての論理リソースについて、蓄積されたモニタデータ231から性能の時系列変化を取得する(ステップ1404)。
制御プログラム222は、全ての論理リソースにおける、取得された時系列データを同一時刻ごとに照合して集計する(ステップ1405)。
制御プログラム222は、ステップ1401において抽出された全ての物理リソースについて処理が実行されたか否かを判定する(ステップ1406)。
ステップ1401において抽出された全ての物理リソースについて処理が実行されていないと判定された場合、制御プログラム222は、ステップ1403に戻り、処理されていない物理リソースを一つ選択して同一の処理(ステップ1403〜1406)を実行する。
ステップ1401において抽出された全ての物理リソースについて処理が実行されたと判定された場合、制御プログラム222は、処理を終了する。
この処理によって、各時刻において、着目LPARの各論理デバイスへのアクセスによって、物理リソースをどれだけ使用しているかが分かる。
図10は、本発明の第1の実施形態の管理サーバ200が実行するリソース割当ポリシを考慮した、ボトルネック箇所判定処理を説明するフローチャートである。
制御プログラム222は、図9に示す処理によって集計された各時刻における物理リソースの使用状況を用いて、リソース割当ポリシを考慮したボトルネック判定を実行する。
制御プログラム222は、各論理リソースにおける着目物理リソースの使用量の時系列データを取得する(ステップ1000)。以下に示すボトルネック判定は、ステップ1000において取得された時系列の測定データの、全ての時刻について行われる。
制御プログラム222は、全ての時刻についてステップ1002〜ステップ1015の処理を実行する(ステップ1001)。
制御プログラム222は、着目物理リソースがCPUであるか否かを判定する(ステップ1002)。
着目物理リソースがCPUであると判定された場合、制御プログラム222は、管理用LPARにおける通信処理に伴うCPUネックを判定するための処理を実行する。
具体的には、制御プログラム222は、CPU使用率が100%に達しており、かつ、管理用LPARのCPU処理が動作しているか否か(例えば、1%程度のしきい値を超えているか)を判定する(ステップ1014)。
CPU使用率が100%に達しており、かつ、管理用LPARのCPU処理が動作していると判定された場合、制御プログラム222は、管理用LPARにおける通信処理に伴うCPUネックであると判定し、該当する測定点(時刻、論理リソースの組み合わせ)がボトルネックになっていることを記録し(ステップ1015)、ステップ1016に進む。
ステップ1014において、前述した条件を満たしていないと判定された場合、制御プログラム222は、ステップ1003に進む。
着目物理リソースがCPUである場合、通信に伴うCPU処理ネックが優先して判定される。通信に伴うCPU処理は各LPARに割り当てられたCPUリソースの空き部分を使って動作するはずであり、通信に伴い管理用LPARが動作して物理CPUが100%使われていると状態は、通信用に確保してあるCPUリソースが不足していることを示すためである。
具体的には、ステップ1002、ステップ1014及びステップ1015の処理を行うのは、図4に示すように、各LPAR300、310がネットワーク通信を行う場合、管理用LPAR360上でネットワーク通信プログラム365が実行されるために、CPU111の負荷が生じる。ネットワーク通信量が多い場合、前述したCPU111の負荷は、各LPAR300、310の処理に比べて無視できない量となるため、ボトルネック判定で考慮する必要になるためである。
ステップ1014及びステップ1015の処理によって、制御プログラム222は、他のLPARのI/Oをまとめて処理する管理用LPARがI/O処理によってボトルネックになっていることを判定できる。
ステップ1002において、着目物理リソースがCPUでないと判定された場合、制御プログラム222は、ステップ1003以降の処理を実行する。
制御プログラム222は、リソース割当ポリシ233から、着目物理リソースの性能限界値を読み出す(ステップ1003)。
制御プログラム222は、着目物理リソースが複数の論理リソースによって共有されているか否かを判定する(ステップ1004)。
着目物理リソースが複数の論理リソースによって共有されていると判定された場合、制御プログラム222は、リソース割当ポリシ233から、着目物理リソースのリソース割当ポリシを読み出す(ステップ1005)。
制御プログラム222は、リソース割当ポリシが性能限界スレッショルドを用いるか否かを判定する(ステップ1006)。
その後の処理はリソース割当ポリシによって異なる。まず、リソース割当ポリシについて説明する。
図13は、本発明の第1の実施形態におけるリソース割当ポリシの一例を示す説明図である。
図9では以下のポリシについて、使用される判定方法、性能限界決定方式を示す。なお、本実施形態では図13に示すもの以外のリソース割当ポリシであっても可能である。
リソース割当ポリシ分類コラムは、リソース割当ポリシの方法を示している。具体的には、以下に示すようなものである。
・Best Effort
各論理リソースは使えるだけ物理リソースを使用する。
・優先度制御
各論理リソースは優先度に従って物理リソースを使用する。
最低割当率が指定されている場合には、優先度が低い論理リソースにも、あらかじめ、決め られた量の物理リソースが割り当てられる。
・割当率指定
各論理リソースに、指定された割合の物理リソースが割り当てられる。
・割当値指定
各論理リソースへの物理リソース割当値が直接指定される。
割当率指定及び割当値指定については、キャッピングの有無があわせて指定される。
判定方法コラムは、「性能限界スレッショルド」を用いた判定が行われるかどうかを示す。
具体的には、割当値指定や割当率指定のように、論理リソースが使用できる物理リソースの割当量が指定できる場合、「性能限界スレッショルド」を用いた判定が行われる。
優先度制御のように、各論理リソースが使用できる物理リソースの割当量が決められない(他の論理リソースの物理リソースの使用量との相対関係でしか決められない)場合は、性能限界スレッショルドを用いない判定が行われる。
まず、性能限界スレッショルドが用いられる例として、論理リソースが「SW0−6」、割当ポリシが「割当値指定、キャッピング有」の場合について説明する。この場合、各論理リソースの性能限界スレッショルドは、性能割当値そのもの(例えば、LPAR11(410)のsda905の場合、性能限界スレッショルドは2Gbps)となる。
制御プログラム222は、ステップ1006において、リソース割当ポリシが性能限界スレッショルドを用いると判定し、次に性能スレッショルドを算出する(ステップ1007)。例えば、性能割当率が50%で、キャッピング有の場合、性能スレッショルドは、物理リソース性能限界値に0.5を乗じた値として算出される。
制御プログラム222は、測定された性能値(論理リソースの物理リソース使用量)が性能限界スレッショルドに達しているか否かを判定する(ステップ1008)。
測定された性能値(論理リソースの物理リソース使用量)が性能限界スレッショルドに達していると判定された場合、制御プログラム222は、該当する測定点(時刻と、論理リソースとの組み合わせ)がボトルネックであることを記録し(ステップ1012)、ステップ1016に進む。
測定された性能値(論理リソースの物理リソース使用量)が性能限界スレッショルドに達していないと判定された場合、該当する測定点を通常(ボトルネックにならないと)と記録し(ステップ1009)、ステップ1016に進む。
以上の処理によって、制御プログラム222は、論理リソースが物理リソースの割当量を使い切っている(LPAR11のsdaの場合、SW0−6ポートが2Gbpsまで使われている)ことを検出することができる。
次に性能限界スレッショルドが使われない場合の判定方法を説明する。性能限界スレッショルドが使われない場合、図13の「性能割当決定方式」コラムが、各論理リソースが性能限界に達しているか否か(論理リソースが、物理リソースの割当量を使い切りボトルネックになっている)を判定するアルゴリズムを示している。
例えば、「優先度制御」が行われる場合について説明すると(優先度制御では、各論理リソースの物理リソース使用量の限界値はあらかじめ決められず、他の論理リソースの使用量によって変化する)、以下に示す方式によって判定が行われる。
(1)全ての論理リソースの該物理リソース使用量の合計が、物理リソースの性能限界値より小さい(物理リソースの使用量に余裕がある)場合は、どの論理リソースも性能限界に達していないと判定。
(2)物理リソースが限界まで使われている場合、
(2a)論理リソースが最低優先度なら、該論理リソースは性能限界に達していると判定。
(2b)論理リソースが最低優先度でない場合で、該論理リソースより、優先度が低い論理リソースのリソース使用量が全てゼロの場合、該論理リソースは性能限界に達していると判定。
(2c)該論理リソースより、優先度が低い論理リソースのリソース使用量のうちゼロでない値がある場合、該論理リソースは性能限界に達していないと判定。
図10のフローチャートに戻ると、制御プログラム222は、ステップ1006において、リソース割当ポリシが性能限界スレッショルドを用いないと判定し、図13で示したアルゴリズムを用いて性能限界有無を判定する(ステップ1010)。
制御プログラム222は、前述の性能判定有無の処理の結果、性能限界に達しているとか否かを判定する(ステップ1011)。
性能限界に達していると判定された場合、制御プログラム222は、該当する測定点がボトルネックになっていることを記録し(ステップ1012)、ステップ1016に進む。
性能限界に達していないと判定された場合は、制御プログラム222は、該当する測定点を通常と記録し(ステップ1009)、ステップ1016に進む。
ここで、図13において説明していないリソース割当ポリシにおける処理を説明する。
・Best Effort
全ての論理リソースの該物理リソース使用量の合計が、物理リソースの性能限界値に達している場合、全ての論理リソースが性能限界に達していると判定。
・優先度制御(最低割当率指定)
前述した優先度制御と同様であるが、(2b)が「論理リソースが最低優先度でない場合で、該論理リソースより、優先度が低い論理リソースのリソース使用量が全て最低値」の場合、該論理リソースは性能限界に達していると判定される。また、(2c)が「該論理リソースより、優先度が低い論理リソースのリソース使用量のうち最低値でない値がある場合」該論理リソースは性能限界に達していないと判定される。
・割当値指定、キャッピング有
性能限界スレッショルドは以下のアルゴリズムで算出される。
(1)該論理リソース以外の他の何れかの論理リソースの物理リソース使用量に余裕がある(割当量より小さい)場合
性能限界スレッショルド=物理リソースの性能限界値−他の論理リソースのリソース使用量合計
(2)他の何れの論理リソースの使用量にも余裕が無い場合
性能限界スレッショルド=物理リソースの割当値
・割当率指定(キャッピング有/無)
性能割当値と同じ方法、ただし、性能割当値の代わりに、物理リソース性能限界値×物理リソース割当率が使用される。
前述した性能限界決定方法を適用して、ボトルネックの有無が判定される。
ステップ1004において、着目物理リソースが複数の論理リソースによって共有されていないと判定された場合、制御プログラム222は、物理リソースの性能限界値を「性能限界スレッショルド」として設定し(ステップ1013)、ステップ1008に進む。これによって、着目物理リソースが共有されていない場合、ハードの限界値を超えているかどうかが判定される。
制御プログラム222は、全時刻のデータについて処理が終了したか否かを判定する(ステップ1016)。
全時刻のデータについて処理が終了していないと判定された場合、制御プログラム222は、ステップ1002に戻り、同様の処理(ステップ1002〜ステップ1016)の処理を実行する。
全時刻のデータについて処理が終了したと判定された場合、制御プログラム222は、処理を終了する。
図10に示す処理によって、各論理リソースの物理リソース使用量の時系列測定点(各時刻の値)について、ボトルネックの有無(該論理リソースがポリシによって決められた割当量を使い切っているか否か)が記録される。その結果、下記を実現する。
当該処理の結果を用いて、図11を用いて後述する処理によって、リソース待ち時間を考慮したボトルネック対策の優先順位判定が実行される。
図8で示す物理リソースボトルネック画面2100で、リソース使用量が割り当てられた限界に達している部分を報告するときに使用される。具体的には、入力領域2110に入力された着目物理リソースについて、図10に示す処理の判定結果を取得し、リソース割使用量が割り当てられた限界に達しておりボトルネックありと記録された測定点(時刻範囲)が図8の斜線のように強調表示される。また、アラート出力領域2130に、該論理リソースにおいてリソース使用量が割当られた限界に達していることが表示される。
次に、リソース待ち時間を考慮したボトルネック対策の優先順位判定フローを説明する。
図11は、本発明の第1の実施形態の管理サーバ200が実行する、リソース待ち時間を考慮したボトルネック対策の優先順位判定処理を説明するフローチャートである。
図10で示した処理の終了後、システム管理者が入力領域2010に着目LPARを入力し、入力領域2011にリソース待ち時間しきい値234を入力した後に当該処理が開始される。
制御プログラム222は、着目LPARを入力領域2010から取得する(ステップ1101)。
制御プログラム222は、システム構成管理表232から着目LPARが使用する物理リソースと、論理デバイスとの組み合わせを取得する(ステップ1102)。
例えば、着目LPARとしてLPAR11(410)が指定された場合、論理リソースとして「sda905」、また、物理リソースとして、CPU23221が「server01」、HBA23222が「HBA10」、HBAポート23223が「hport11」、FC−SWポート23224が「SW0−4」、FC−SW23225が「SW0」、FC−SWポート23226が「SW0−6」、ストレージポート23227が「s−port1」、コントローラ23228が「CTRL1」、及びRAID Group23229が「RG03」と取得される。
制御プログラム222は、物理リソースと論理リソースとの全ての組み合わせに関して、以下(ステップ1104〜1109)の処理を実行する(ステップ1103)。
制御プログラム222は、図10で示した処理の結果を参照し、着目LPARが使用する物理リソースにおけるボトルネック(リソース割当ポリシによる割当量の限界に達している部分)の有無を判定する(ステップ1104)。
制御プログラム222は、モニタデータ231を参照し、ボトルネックが発生していると判定された時刻範囲におけるリソース待ち時間を取得し(ステップ1105)、取得されたリソース待ち時間の平均値を算出する(ステップ1106)。
例えば、物理リソースが「SW0−6」、論理リソースが「LPAR11(410)のsda905」の場合、9時00分から9時10分の間のリソース待ち時間測定値の平均値が算出される。
制御プログラム222は、算出されたリソース待ち時間の平均値とリソース待ち時間しきい値234とを比較し(ステップ1107)、算出されたリソース待ち時間の平均値が、リソース待ち時間しきい値234を超えているか否かを判定する(ステップ1108)。
算出されたリソース待ち時間の平均値が、リソース待ち時間しきい値234を超えていると判定された場合、制御プログラム222は、出力表2020に、リソース待ち時間の大きい順番に該当するボトルネック箇所の情報(時刻範囲、論理デバイス、及び物理リソースの情報)を表示する(ステップ1109)。具体的には、ステップ1104〜ステップ1110のループ処理が実行され、処理が終わった結果から逐次に、出力表2020にリソース待ち時間の大きいものから順番に表示される。
なお、制御プログラム222は、取得された全ての論理リソースと物理リソースとの組み合わせについてステップ1103〜ステップ1108までの処理が実行し、処理結果に基づいて、リソース待ち時間の大きいものから降順にボトルネック箇所を表示するための情報を生成し、生成された情報に基づいて出力表2020を表示するものであってもよい。
算出されたリソース待ち時間の平均値が、リソース待ち時間しきい値234を超えていないと判定された場合、制御プログラム222は、ステップ1110に進む。
制御プログラム222は、ステップ1102において取得された全ての論理リソースと物理リソースとの組み合わせについて処理が実行されたか否かを判定する(ステップ1110)。
ステップ1102において取得された全ての論理リソースと物理リソースとの組み合わせについて処理が実行されていないと判定された場合、制御プログラム222は、ステップ1104に戻り、ステップ1104〜ステップ1110の処理を実行する。
ステップ1102において取得された全ての論理リソースと物理リソースとの組み合わせについて処理が実行されたと判定された場合、制御プログラム222は、処理を終了する。
以上の処理によって、図7に示すボトルネック箇所報告画面2000が表示される。
次に、ボトルネック判定後の管理サーバ200上の制御プログラム222の動作を、図12を用いて説明する。
図12は、本発明の第1の実施形態の管理サーバ200が実行する、ボトルネック解決処理を説明するフローチャートである。
当該処理では、表示装置240を介して、ボトルネックを解決するために、システム管理者との対話的な処理が実行される。
図11に示す処理が実行された後に当該処理が開始される(ステップ1201)。
制御プログラム222は、リソース割当ポリシを変更するか否かを判定する(ステップ1202)。具体的には、管理サーバ200が表示プログラム223を実行し、表示装置240にリソース割当ポリシを変更するか否かの指示を促すメッセージ等を表示する。システム管理者は、当該メッセージに基づいて、リソース割当ポリシを変更するか否かを指示する。
リソース割当ポリシを変更すると判定された場合、つまり、管理サーバ200がシステム管理者からリソース割当ポリシを変更する旨の指示を受信した場合、制御プログラム222は、リソース割当ポリシを変更する(ステップ1209)。具体的には、管理サーバ200が、ポリシ管理サーバ190に、ボトルネックが発生していると判定された論理リソースへのリソース割当量を増加させる指示を含むリソース割当ポリシの変更指示を送信する。
ポリシ自体の内容は、システム管理者が、各LPARの仕事の優先度等を考慮して決定する。図8に示す例では、スイッチの物理ポートSW0−6の使用率には余裕があるので、割当ポリシの該論理リソースに対するキャッピングを「無」に設定する等の対策が可能である。
リソース割当ポリシを変更しないと判定された場合、つまり、管理サーバ200がシステム管理者からリソース割当ポリシを変更しない旨の指示を受信した場合、制御プログラム222は、論理リソースを移動させるか否かを判定する(ステップ1203)。具体的には、管理サーバ200が表示プログラム223を実行し、表示装置240に論理リソースを移動させるか否かの指示を促すメッセージ等を表示する。
論理リソースを移動させないと判定された場合、つまり、管理サーバ200がシステム管理者から論理リソースを移動させない旨の指示を受信した場合、制御プログラム222は、表示装置240に移動しない旨を表示する(ステップ1208)。
論理リソースを移動させると判定された場合、つまり、管理サーバ200がシステム管理者から論理リソースを移動させる旨の指示を受信した場合、制御プログラム222は、ボトルネックになった論理リソースに割り当て可能な空きリソースを検索し(ステップ1204)、ボトルネックになった論理リソースに割り当て可能な空きリソースがあるか否かを判定する(ステップ1205)。
ボトルネックになった論理リソースに割り当て可能な空きリソースがあると判定された場合、制御プログラム222は、当該空きリソースに論理リソースを移動する(ステップ1206)。
ボトルネックになった論理リソースに割り当て可能な空きリソースがないと判定された場合、制御プログラム222は、表示装置240に空きリソースがない旨を表示する(ステップ1207)。
図2を例に説明すると、FC−SWのポートSW0−6がボトルネックの場合、仮にポートSW0−5やストレージのコントローラCTRL0の使用率に余裕が十分にある場合、制御プログラム222は、LPAR11(410)がアクセスするsda905のストレージ側の担当コントローラとFC−SWとの接続を変更し、SW0−5とCTRL0経由でアクセスするようにアクセス経路を変更する、等の対策が可能である。
以上の処理によって、管理サーバ200は、リソース使用量の監視、ボトルネック判定、及びボトルネックの対策の一連の流れを実行できる。
[変形例1]
第1の実施形態では、図8に示す物理リソースボトルネック画面2100において、ボトルネックが発生している部分を強調表示した。しかし、限界に達して初めて強調表示する方式の他に、限界に達する前から使用率に応じて色を変えて表示する方式が考えられる。
図15は、本発明の第1の実施形態の物理リソースボトルネック画面2100の表示方法の変形例を説明するフローチャートである。
制御プログラム222は、リソース割当ポリシにおいて、論理リソースへのリソース割り当てが割当値又は割当率で指定されているか否かを判定する(ステップ1301)。
論理リソースへのリソース割り当てが割当値又は割当率で指定されていると判定された場合、制御プログラム222は、以下のように変数Rを算出する(ステップ1302)。つまり、論理リソースへのリソース割り当てが割当値で指定されている場合、変数Rは、
R=論理リソースのリソース使用量測定値÷リソース割当値…(1)
と算出される。
また、論理リソースへのリソース割り当てが割当率で指定されている場合、変数Rは、
R=物理リソースの性能限界値×割当率…(2)
と算出される。
論理リソースへのリソース割り当てが割当値又は割当率で指定されていると判定された場合、制御プログラム222は、変数Rを下式で算出する(ステップ1304)。
R=全論理リソースの該物理リソース使用量合計÷物理リソースの性能限界値…(3)
変数Rは、論理リソースに対して割当られたリソース量に対してどれだけ使用されているかを示す指標である。各論理リソースに対して、割当率や割当量が指定されていない、優先度制御等が行われている(ステップ1304の)場合、個々の論理リソースではなく、論理リソース全体で一括して、Rが算出される。
制御プログラム222は、算出された変数Rの値によって、色分けして該当する論理リソースにおける物理リソース使用量を表わすグラフを描画する(ステップ1303)。
ここで注意しなければならないのは、キャッピングが行われている場合、Rの値が100%以上になることである。この場合、Rの値が100%と超えていることと、該当する論理リソースがボトルネックとなっている(物理リソースを限界まで使用している)こととは直接には関連しない(他の論理リソースの使用量に空きがある場合、該論理リソースの使用量が100%を超えていても、ボトルネックとは判定されない)。したがって、図8で示すようなボトルネック範囲の強調表示と本変形例の色づけとは独立に行われる必要がある。
なお、当該処理は、物理リソースボトルネック画面2100の入力領域2110に着目物理リソースが入力されてから開始される。
変形例1によれば、各論理リソースの物理リソース使用量が限界までどれだけ余裕が有るかを視覚的に認識でき、システム性能管理を容易化することができる。
[変形例2]
第1の実施形態では、I/Oアクセス性能のソフトウェアに与える影響を表わす指標として、リソース待ち時間の絶対値が使用されていた。しかし、前述の指標は簡便ではあるがアクセスされるデータの属性によって異なるため、異なる性質のデータにアクセスするLPARでは、複数の論理デバイス間の性能を比較するときに、正確な比較にならない可能性がある。例えば、OSが異なると、OS毎にリソース待ち時間のはかり方が異なる場合があり、比較する指標としては適切でない。
前述した問題を回避するために、リソース待ち時間の絶対値に代え、通常時におけるリソース待ち時間と、I/Oスループットが限界に達している時におけるリソース待ち時間との比を、ソフトウェアに与える影響の指標として使用する方法が考えられる。
図16は、本発明の第1の実施形態の変形例におけるリソース待ち時間比の計算方法を示す説明図である。
図16の上部記載の表はハードウェアリソース使用量の時系列変化を示し(図8の出力グラフ2120と同一のグラフである)、図16の下部記載の表は、LPAR11(410)がアクセスするsda905のリソース待ち時間の時系列変化を示す。
両グラフの横軸は同一の時刻を表わす。図16に示すように、論理リソースのスループットが限界に達している時刻範囲で、リソース待ち時間の値が大きな値になる。
以下、論理リソースのスループットが限界に達している時刻範囲でのリソース待ち時間の平均値をWpと記載し、それ以外の区間でのリソース待ち時間の平均値をWnと記載する。第1の実施形態では、I/Oアクセス性能のソフトウェアに与える影響を表わす指標としてWpが用いられていたが、本変形例ではI/Oアクセス性能のソフトウェアに与える影響を表わす指標としてWp/Wnが用いられる。
具体的には、図11のステップ1105、1106に代えて以下のステップを制御プログラム222が実行する。
(1)ボトルネックが発生している時刻範囲の情報、及び論理デバイスのリソース待ち時間の時系列変化データから、Wp及びWnを算出するステップ。
(2)Wp/Wnを算出するステップ。
なお、それ以降のしきい値判定、及び表示は、第1の実施形態と同様のアルゴリズムで実行される。
変形例2によれば、性質の異なるI/Oアクセスのソフトウェアに与える影響についても、同一の指標を用いて比較できるようになる。
さらに、本発明は、性能指標としてリソース待ち時間でなく、I/Oのキュー長やサービス時間、及びCPUのload average(待ち行列長)を用いて可能である。また、本発明では測定された値の平均値を用いていたが、最大値を用いることもできる。
以上のように、本発明によれば、複数の論理リソースが物理リソースを共有する環境において、リソース割当ポリシを考慮して、論理リソースの使用量がボトルネックに達している(決められた割当値の限界に達している)ことを判定できる。さらに、ボトルネックと判定された部分がソフトウェアに与える影響を判定し、ソフトウェアに与える悪影響が大きい部分をナビゲーションすることができる。
これによって、従来の性能モニタリングシステムでは実現できなかった、リソース割当ポリシ、及びソフトウェアへの影響を考慮したボトルネック判定を実現し、システム管理者は迅速に性能対策を行うことができる。
100 モニタリング対象システム
110 サーバ
111 CPU
112 主記憶装置
113 NIC
114 HBA
120 サーバ
150 ストレージ
160 ネットワーク
161 ネットワークリソース割当ポリシ
190 ポリシ管理サーバ
191 リソース割当ポリシ
200 管理サーバ
221 測定データ収集プログラム
222 制御プログラム
223 表示プログラム
230 ストレージシステム
231 モニタデータ
232 システム構成管理表
233 リソース割当ポリシ
240 表示装置
250 NIC
301 OSモニタリングプログラム
305 仮想NICプログラム
310 LPAR
350 ハイパバイザ
351 ハイパバイザモニタリングプログラム
352 CPUリソース割当ポリシ
355 LPAR間通信プログラム
365 ネットワーク通信プログラム
366 仮想スイッチプログラム
367 物理NICドライバ
500 FC−SW
550 ストレージシステム
551 コントローラ
560〜563 RAID Group
2000 ボトルネック箇所報告画面
2100 物理リソースボトルネック画面
5510 SANリソース割当ポリシ

Claims (15)

  1. サーバと、前記サーバに接続されたストレージシステムと、前記サーバ及び前記ストレージシステムを管理する管理計算機とを備える性能モニタリングシステムであって、
    前記サーバは、第1のプロセッサと、前記第1のプロセッサと接続される第1のメモリと、前記第1のプロセッサと接続される第1のネットワークインタフェースとを備え、
    前記ストレージシステムは、コントローラと、記憶装置と、前記コントローラと前記記憶装置とを接続するディスクインタフェースとを備え、
    前記コントローラは、第2のプロセッサと、前記第2のプロセッサと接続される第2のメモリとを備え、
    前記管理計算機は、第3のプロセッサと、前記第3のプロセッサと接続される第3のメモリと、前記第3のプロセッサと接続される記憶装置とを備え、
    前記サーバ上では、前記サーバを論理的に分割して作成された、複数の仮想計算機が実行され、
    前記ストレージシステムは、前記記憶装置を論理的に分割した論理記憶ユニットを前記仮想計算機に提供し、
    前記仮想計算機から前記論理ユニットまでの経路における物理リソースが、前記仮想計算機の論理リソースとして割り当てられ、
    前記サーバは、前記論理リソースごとに、前記仮想計算機が測定する前記論理リソースによって使用される物理リソースの使用量に関する時系列データを収集し、
    前記管理計算機は、
    前記論理リソースに設定されるリソース割当ポリシに関する情報を管理し、
    前記サーバから、前記収集された時系列データを取得し、
    前記取得された時系列データの各時刻において、指定された前記仮想計算機の論理リソースが使用する物理リソースの使用量と、前記リソース割当ポリシとを参照し、前記指定された仮想計算機の論理リソースにボトルネックが発生しているか否かを判定し、
    ボトルネックが発生している前記論理リソースの性能が前記仮想計算機の性能に与える影響を示す性能値を取得し、
    前記取得された性能値に基づいて、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定し、
    前記仮想計算機に与える影響が大きいボトルネックが発生していると判定された場合、前記仮想計算機に大きいボトルネックが発生したことを通知することを特徴とする性能モニタリングシステム。
  2. 前記性能値は、前記仮想計算機上で実行されるオペレーティングシステムにおけるリソース待ち行列のオーバヘッドを示すパラメータを用い、
    前記管理計算機は、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定する場合に、前記性能値が予め設定されたしきい値より大きいか否かを判定し、前記性能値が予め設定されたしきい値より大きい場合に、前記仮想計算機に与える影響が大きいボトルネックが発生していると判定することを特徴とする請求項1に記載の性能モニタリングシステム。
  3. 前記性能値は、ボトルネックが発生している時の前記論理リソースにおける物理リソースの使用量と、ボトルネックが発生していない時の前記論理リソースにおける物理リソースの使用量と、の比を用い、
    前記管理計算機は、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定する場合に、前記性能値が予め設定されたしきい値より大きいか否かを判定し、前記性能値が予め設定されたしきい値より大きい場合に、前記仮想計算機に与える影響が大きいボトルネックが発生していると判定することを特徴とする請求項1に記載の性能モニタリングシステム。
  4. 前記性能モニタリングシステムは、前記管理計算機の判定結果を表示する表示部を備え、
    前記管理計算機は、前記仮想計算機に与える影響が大きいボトルネックが発生していると判定された論理リソースを、前記仮想計算機に与える影響が大きい順に表示するための表示情報を生成し、前記生成された表示情報を前記表示部に表示することを特徴とする請求項1に記載の性能モニタリングシステム。
  5. 前記性能モニタリングシステムは、前記管理計算機の判定結果を表示する表示部を備え、
    前記管理計算機は、前記仮想計算機に与える影響が大きいボトルネックの発生を検知した場合、前記リソース割当ポリシの変更、又は、ボトルネックが発生していない前記物理リソースに前記論理リソースを移動のいずれかを選択する旨を前記表示部に表示することを特徴とする請求項1に記載の性能モニタリングシステム。
  6. 前記性能モニタリングシステムは、前記管理計算機の判定結果を表示する表示部を備え、
    前記管理計算機は、
    前記論理リソースが使用する前記物理リソースの使用量を前記表示部に表示し、
    前記指定された仮想計算機の論理リソースにボトルネックが発生していることを検知した場合、ボトルネックが発生している部分を強調して表示することを特徴とする請求項1に記載の性能モニタリングシステム。
  7. 前記管理計算機は、
    前記論理リソースにおける前記物理リソースの使用量と、前記論理リソースに対する前記物理リソースの割当量との比率を算出し、
    前記比率に応じて、前記ボトルネックが発生している部分の表示方法を変更することを特徴とする請求項6に記載の性能モニタリングシステム。
  8. サーバと、前記サーバに接続されたストレージシステムと、前記サーバ及び前記ストレージシステムを管理する管理計算機とを備える性能モニタリングシステムにおけるボトルネック判定方法であって、
    前記サーバは、第1のプロセッサと、前記第1のプロセッサと接続される第1のメモリと、前記第1のプロセッサと接続される第1のネットワークインタフェースとを備え、
    前記ストレージシステムは、コントローラと、記憶装置と、前記コントローラと前記記憶装置とを接続するディスクインタフェースとを備え、
    前記コントローラは、第2のプロセッサと、前記第2のプロセッサと接続される第2のメモリとを備え、
    前記管理計算機は、第3のプロセッサと、前記第3のプロセッサと接続される第3のメモリと、前記第3のプロセッサと接続される記憶装置とを備え、
    前記サーバは、前記サーバを論理的に分割して作成された、複数の仮想計算機が実行され、
    前記ストレージシステムは、前記記憶装置を論理的に分割した論理記憶ユニットを前記仮想計算機に提供し、
    前記仮想計算機から前記論理ユニットまでの経路における物理リソースが、前記仮想計算機の論理リソースとして割り当てられ、
    前記サーバは、前記論理リソースごとに、前記仮想計算機が測定する前記論理リソースによって使用される物理リソースの使用量に関する時系列データを収集し、
    前記管理計算機は、前記論理リソースに設定されるリソース割当ポリシに関する情報を管理し、
    前記方法は、
    前記管理計算機が、前記サーバから、前記収集された時系列データを取得するステップと、
    前記管理計算機が、前記取得された時系列データの各時刻において、指定された前記仮想計算機の論理リソースが使用する物理リソースの使用量と、前記リソース割当ポリシとを参照し、前記指定された仮想計算機の論理リソースにボトルネックが発生しているか否かを判定するステップと、
    前記管理計算機が、ボトルネックが発生している前記論理リソースの性能が前記仮想計算機の性能に与える影響を示す性能値を取得するステップと、
    前記管理計算機が、前記取得された性能値に基づいて、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定するステップと、
    前記仮想計算機に与える影響が大きいボトルネックが発生していると判定された場合、前記管理計算機が、前記仮想計算機に大きいボトルネックが発生したことを通知するステップと、を含むことを特徴とするボトルネック判定方法。
  9. 前記性能値は、前記仮想計算機上で実行されるオペレーティングシステムにおけるリソース待ち行列のオーバヘッドを示すパラメータを用い、
    前記方法は、
    前記管理計算機が、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定する場合に、前記性能値が予め設定されたしきい値より大きいか否かを判定するステップと、
    前記管理計算機が、前記性能値が予め設定されたしきい値より大きい場合に、前記仮想計算機に与える影響が大きいボトルネックが発生していると判定するステップと、を含むことを特徴とする請求項8に記載のボトルネック判定方法。
  10. 前記性能値は、ボトルネックが発生している時の前記論理リソースにおける物理リソースの使用量と、ボトルネックが発生していない時の前記論理リソースにおける物理リソースの使用量と、の比を用い、
    前記方法は、
    前記管理計算機が、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定する場合に、前記性能値が予め設定されたしきい値より大きいか否かを判定するステップと、
    前記管理計算機が、前記性能値が予め設定されたしきい値より大きい場合に、前記仮想計算機に与える影響が大きいボトルネックが発生していると判定するステップと、を含むことを特徴とする請求項8に記載のボトルネック判定方法。
  11. 前記性能モニタリングシステムは、前記管理計算機の判定結果を表示する表示部を備え、
    前記方法は、
    前記管理計算機が、前記仮想計算機に与える影響が大きいボトルネックが発生していると判定された論理リソースを、前記仮想計算機に与える影響が大きい順に表示するための表示情報を生成するステップと、
    前記管理計算機が、前記生成された表示情報を前記表示部に表示するステップと、を含むことを特徴とする請求項8に記載のボトルネック判定方法。
  12. 前記性能モニタリングシステムは、前記管理計算機の判定結果を表示する表示部を備え、
    前記方法は、
    前記管理計算機が、前記仮想計算機に与える影響が大きいボトルネックの発生を検知した場合、前記リソース割当ポリシの変更、又は、ボトルネックが発生していない前記物理リソースに前記論理リソースを移動のいずれかを選択する旨を前記表示部に表示するステップを含むことを特徴とする請求項8に記載のボトルネック判定方法。
  13. 前記性能モニタリングシステムは、前記管理計算機の判定結果を表示する表示部を備え、
    前記方法は、
    前記管理計算機が、前記論理リソースが使用する前記物理リソースの使用量を前記表示部に表示するステップと、
    前記指定された仮想計算機の論理リソースにボトルネックが発生していることを検知した場合、前記管理計算機が、ボトルネックが発生している部分を強調して表示するステップと、を含むことを特徴とする請求項8に記載のボトルネック判定方法。
  14. 前記方法は、
    前記管理計算機が、前記論理リソースにおける前記物理リソースの使用量と、前記論理リソースに対する前記物理リソースの割当量との比率を算出するステップと、
    前記管理計算機が、前記比率に応じて、前記ボトルネックが発生している部分の表示方法を変更するステップと、を含むことを特徴とする請求項13に記載のボトルネック判定方法。
  15. サーバと、前記サーバに接続されたストレージシステムとを備える性能モニタリングシステムに備わり、前記サーバ及び前記ストレージシステムを管理する管理計算機であって、
    前記サーバは、第1のプロセッサと、前記第1のプロセッサと接続される第1のメモリと、前記第1のプロセッサと接続される第1のネットワークインタフェースとを備え、
    前記ストレージシステムは、コントローラと、記憶装置と、前記コントローラと前記記憶装置とを接続するディスクインタフェースとを備え、
    前記コントローラは、第2のプロセッサと、前記第2のプロセッサと接続される第2のメモリとを備え、
    前記管理計算機は、第3のプロセッサと、前記第3のプロセッサと接続される第3のメモリと、前記第3のプロセッサと接続される記憶装置とを備え、
    前記サーバは、前記サーバを論理的に分割して作成された、複数の仮想計算機が実行され、
    前記ストレージシステムは、前記記憶装置を論理的に分割した論理記憶ユニットを前記仮想計算機に提供し、
    前記管理計算機は、
    前記仮想計算機に割り当てられ、前記仮想計算機から前記論理ユニットまでの経路における物理リソースである論理リソースに設定されるリソース割当ポリシに関する情報を管理し、
    前記論理リソースごとに、前記サーバが測定する前記論理リソースによって使用される物理リソースの使用量に関する時系列データを取得し、
    前記取得された時系列データの各時刻において、指定された前記仮想計算機の前記論理リソースが使用する物理リソースの使用量と、前記リソース割当ポリシとを参照し、前記指定された仮想計算機の論理リソースにボトルネックが発生しているか否かを判定し、
    ボトルネックが発生している前記論理リソースの性能が前記仮想計算機の性能に与える影響を示す性能値を取得し、
    前記取得された性能値に基づいて、前記仮想計算機に与える影響が大きいボトルネックが発生しているか否かを判定し、
    前記仮想計算機に与える影響が大きいボトルネックが発生していると判定された場合、前記仮想計算機に大きいボトルネックが発生したことを通知することを特徴とする管理計算機。
JP2009101129A 2009-04-17 2009-04-17 性能モニタリングシステム、ボトルネック判定方法及び管理計算機 Expired - Fee Related JP5428075B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009101129A JP5428075B2 (ja) 2009-04-17 2009-04-17 性能モニタリングシステム、ボトルネック判定方法及び管理計算機
US12/758,105 US20100268816A1 (en) 2009-04-17 2010-04-12 Performance monitoring system, bottleneck detection method and management server for virtual machine system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009101129A JP5428075B2 (ja) 2009-04-17 2009-04-17 性能モニタリングシステム、ボトルネック判定方法及び管理計算機

Publications (2)

Publication Number Publication Date
JP2010250689A true JP2010250689A (ja) 2010-11-04
JP5428075B2 JP5428075B2 (ja) 2014-02-26

Family

ID=42981816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009101129A Expired - Fee Related JP5428075B2 (ja) 2009-04-17 2009-04-17 性能モニタリングシステム、ボトルネック判定方法及び管理計算機

Country Status (2)

Country Link
US (1) US20100268816A1 (ja)
JP (1) JP5428075B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226703A (ja) * 2011-04-22 2012-11-15 Hitachi Solutions Ltd 仮想環境管理システム
JP2014191723A (ja) * 2013-03-28 2014-10-06 Hitachi Ltd 仮想デバイスタイムアウト時間算出装置、方法、およびプログラム
US9104495B2 (en) 2012-12-11 2015-08-11 International Business Machines Corporation Shared resource segmentation
US9317330B2 (en) 2013-11-25 2016-04-19 Tata Consultancy Services Limited System and method facilitating performance prediction of multi-threaded application in presence of resource bottlenecks
JP2016158092A (ja) * 2015-02-24 2016-09-01 日本電気株式会社 表示システム、表示方法、表示プログラムおよび仮想システム
JP2018160197A (ja) * 2017-03-24 2018-10-11 東日本旅客鉄道株式会社 情報処理装置
US10509678B2 (en) 2016-04-26 2019-12-17 Hitachi, Ltd. Management system for managing computer system

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9459984B2 (en) * 2007-10-29 2016-10-04 Intel Corporation Method and systems for external performance monitoring for virtualized environments
EP2380082A1 (en) * 2009-05-22 2011-10-26 International Business Machines Corporation Apparatus and method for monitoring a computer system
GB2473194A (en) * 2009-09-02 2011-03-09 1E Ltd Monitoring the performance of a computer based on the value of a net useful activity metric
JP5589583B2 (ja) * 2010-06-15 2014-09-17 富士ゼロックス株式会社 監視ポータル、監視システム、端末、そのプログラム
US8707300B2 (en) 2010-07-26 2014-04-22 Microsoft Corporation Workload interference estimation and performance optimization
US8489827B2 (en) * 2010-10-28 2013-07-16 Hewlett-Packard Development Company, L.P. Method and system for storage-system management
US9378111B2 (en) * 2010-11-11 2016-06-28 Sap Se Method and system for easy correlation between monitored metrics and alerts
US8756310B2 (en) * 2011-03-09 2014-06-17 International Business Machines Corporation Comprehensive bottleneck detection in a multi-tier enterprise storage system
US9164785B2 (en) * 2011-03-14 2015-10-20 Sap Se Predicting performance of a consolidated virtualized computing environment
JP5370946B2 (ja) * 2011-04-15 2013-12-18 株式会社日立製作所 リソース管理方法及び計算機システム
US8490092B2 (en) 2011-07-06 2013-07-16 Microsoft Corporation Combined live migration and storage migration using file shares and mirroring
US8863022B2 (en) 2011-09-07 2014-10-14 Microsoft Corporation Process management views
US10114679B2 (en) * 2011-10-26 2018-10-30 Microsoft Technology Licensing, Llc Logical CPU division usage heat map representation
CN102945162B (zh) * 2011-10-26 2016-12-21 微软技术许可有限责任公司 用于设备实现逻辑cpu划分的使用热度图表示的方法和装置
US9223607B2 (en) * 2012-01-17 2015-12-29 Microsoft Technology Licensing, Llc System for replicating or migrating virtual machine operations log by throttling guest write iOS based on destination throughput
CN103365755A (zh) * 2012-03-27 2013-10-23 台达电子工业股份有限公司 云端系统的主机监控及异常处理方法
US9135135B2 (en) 2012-06-28 2015-09-15 Sap Se Method and system for auto-adjusting thresholds for efficient monitoring of system metrics
US9600206B2 (en) 2012-08-01 2017-03-21 Microsoft Technology Licensing, Llc Request ordering support when switching virtual disk replication logs
US8954546B2 (en) 2013-01-25 2015-02-10 Concurix Corporation Tracing with a workload distributor
US20130283281A1 (en) 2013-02-12 2013-10-24 Concurix Corporation Deploying Trace Objectives using Cost Analyses
US8924941B2 (en) 2013-02-12 2014-12-30 Concurix Corporation Optimization analysis using similar frequencies
US8997063B2 (en) 2013-02-12 2015-03-31 Concurix Corporation Periodicity optimization in an automated tracing system
US9251115B2 (en) 2013-03-07 2016-02-02 Citrix Systems, Inc. Dynamic configuration in cloud computing environments
US9665474B2 (en) 2013-03-15 2017-05-30 Microsoft Technology Licensing, Llc Relationships derived from trace data
US9575874B2 (en) 2013-04-20 2017-02-21 Microsoft Technology Licensing, Llc Error list and bug report analysis for configuring an application tracer
US9811435B2 (en) * 2013-09-03 2017-11-07 Cisco Technology, Inc. System for virtual machine risk monitoring
US9292415B2 (en) 2013-09-04 2016-03-22 Microsoft Technology Licensing, Llc Module specific tracing in a shared module environment
US9807014B2 (en) * 2013-09-27 2017-10-31 International Business Machines Corporation Reactive throttling of heterogeneous migration sessions in a virtualized cloud environment
EP3069241B1 (en) 2013-11-13 2018-08-15 Microsoft Technology Licensing, LLC Application execution path tracing with configurable origin definition
JP6221701B2 (ja) 2013-12-03 2017-11-01 富士通株式会社 制御プログラム、制御装置及び制御方法
US9372725B2 (en) 2014-02-19 2016-06-21 International Business Machines Corporation Dynamically adjusting wait periods according to system performance
JP6033985B2 (ja) * 2014-03-07 2016-11-30 株式会社日立製作所 性能評価方法及び情報処理装置
US9483299B2 (en) * 2014-06-30 2016-11-01 Bmc Software, Inc. Capacity risk management for virtual machines
US9594592B2 (en) * 2015-01-12 2017-03-14 International Business Machines Corporation Dynamic sharing of unused bandwidth capacity of virtualized input/output adapters
US9733987B2 (en) * 2015-02-20 2017-08-15 Intel Corporation Techniques to dynamically allocate resources of configurable computing resources
US9558004B1 (en) * 2015-10-16 2017-01-31 International Business Machines Corporation Inter-platform management of computing resources
US10067803B2 (en) * 2015-11-25 2018-09-04 International Business Machines Corporation Policy based virtual machine selection during an optimization cycle
JP6572795B2 (ja) * 2016-02-16 2019-09-11 富士通株式会社 解析装置及び解析プログラム
WO2017189015A1 (en) * 2016-04-29 2017-11-02 Intel IP Corporation Network function virtualization
US10345883B2 (en) 2016-05-31 2019-07-09 Taiwan Semiconductor Manufacturing Co., Ltd. Power estimation
US11093836B2 (en) * 2016-06-15 2021-08-17 International Business Machines Corporation Detecting and predicting bottlenecks in complex systems
US10146585B2 (en) 2016-09-07 2018-12-04 Pure Storage, Inc. Ensuring the fair utilization of system resources using workload based, time-independent scheduling
US10360058B2 (en) * 2016-11-28 2019-07-23 International Business Machines Corporation Input/output component selection for virtual machine migration
CN106874932B (zh) * 2016-12-30 2020-07-10 陕西师范大学 基于快速稀疏描述的sar目标型号识别方法
US11061894B2 (en) * 2018-10-31 2021-07-13 Salesforce.Com, Inc. Early detection and warning for system bottlenecks in an on-demand environment
US10924354B2 (en) 2019-07-17 2021-02-16 International Business Machines Corporation Detection of a bottleneck in a message flow between associated servers
US20220318117A1 (en) * 2021-04-06 2022-10-06 EMC IP Holding Company LLC Method to identify the performance bottle neck in the complex enterprise virtualized environment
US20240004680A1 (en) * 2022-06-29 2024-01-04 Microsoft Technology Licensing, Llc CPU Core Off-parking

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075832A (ja) * 1999-08-31 2001-03-23 Fujitsu Ltd システム診断装置、システム診断方法およびシステム診断プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005222123A (ja) * 2004-02-03 2005-08-18 Hitachi Ltd 計算機システム、管理装置、ストレージ装置及びコンピュータ装置
JP2007047986A (ja) * 2005-08-09 2007-02-22 Hitachi Ltd ストレージシステムの構成管理装置及び構成管理方法
JP2008293117A (ja) * 2007-05-22 2008-12-04 Hitachi Ltd 仮想計算機の性能監視方法及びその方法を用いた装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6148335A (en) * 1997-11-25 2000-11-14 International Business Machines Corporation Performance/capacity management framework over many servers
US6263253B1 (en) * 1998-11-24 2001-07-17 Taiwan Semiconductor Manufacturing Co., Ltd. Method for allocating bottleneck resources
JP3996010B2 (ja) * 2002-08-01 2007-10-24 株式会社日立製作所 ストレージネットワークシステム、管理装置、管理方法及びプログラム
JP4421230B2 (ja) * 2003-08-12 2010-02-24 株式会社日立製作所 性能情報分析方法
EP1679595A4 (en) * 2003-10-29 2008-06-04 Ibm INFORMATION SYSTEM, LOAD CONTROL METHOD AND PROGRAM, AND RECORDING MEDIUM
US20050132362A1 (en) * 2003-12-10 2005-06-16 Knauerhase Robert C. Virtual machine management using activity information
JP2005309644A (ja) * 2004-04-20 2005-11-04 Hitachi Ltd リソース制御方法及びそのシステム
US8903983B2 (en) * 2008-02-29 2014-12-02 Dell Software Inc. Method, system and apparatus for managing, modeling, predicting, allocating and utilizing resources and bottlenecks in a computer network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075832A (ja) * 1999-08-31 2001-03-23 Fujitsu Ltd システム診断装置、システム診断方法およびシステム診断プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005222123A (ja) * 2004-02-03 2005-08-18 Hitachi Ltd 計算機システム、管理装置、ストレージ装置及びコンピュータ装置
JP2007047986A (ja) * 2005-08-09 2007-02-22 Hitachi Ltd ストレージシステムの構成管理装置及び構成管理方法
JP2008293117A (ja) * 2007-05-22 2008-12-04 Hitachi Ltd 仮想計算機の性能監視方法及びその方法を用いた装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNB200200242001; 梅田峰子: Solaris 8 管理者ガイド 第1版, 20010331, pp.297-299, ソフトバンクパブリッシング株式会社 *
CSNG200800304003; 小林大: '並列ストレージにおけるデータ再配置による長期的負荷均衡化と短期的応答性能の両立' 情報処理学会論文誌 第49巻, 20080315, pp.29-43, 社団法人情報処理学会 *
JPN6013022350; 小林大: '並列ストレージにおけるデータ再配置による長期的負荷均衡化と短期的応答性能の両立' 情報処理学会論文誌 第49巻, 20080315, pp.29-43, 社団法人情報処理学会 *
JPN6013022352; 梅田峰子: Solaris 8 管理者ガイド 第1版, 20010331, pp.297-299, ソフトバンクパブリッシング株式会社 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226703A (ja) * 2011-04-22 2012-11-15 Hitachi Solutions Ltd 仮想環境管理システム
US9104495B2 (en) 2012-12-11 2015-08-11 International Business Machines Corporation Shared resource segmentation
US9582336B2 (en) 2012-12-11 2017-02-28 International Business Machines Corporation Shared resource segmentation
JP2014191723A (ja) * 2013-03-28 2014-10-06 Hitachi Ltd 仮想デバイスタイムアウト時間算出装置、方法、およびプログラム
US9317330B2 (en) 2013-11-25 2016-04-19 Tata Consultancy Services Limited System and method facilitating performance prediction of multi-threaded application in presence of resource bottlenecks
JP2016158092A (ja) * 2015-02-24 2016-09-01 日本電気株式会社 表示システム、表示方法、表示プログラムおよび仮想システム
US10509678B2 (en) 2016-04-26 2019-12-17 Hitachi, Ltd. Management system for managing computer system
US11086682B2 (en) 2016-04-26 2021-08-10 Hitachi, Ltd. Management system for managing computer system
JP2018160197A (ja) * 2017-03-24 2018-10-11 東日本旅客鉄道株式会社 情報処理装置

Also Published As

Publication number Publication date
JP5428075B2 (ja) 2014-02-26
US20100268816A1 (en) 2010-10-21

Similar Documents

Publication Publication Date Title
JP5428075B2 (ja) 性能モニタリングシステム、ボトルネック判定方法及び管理計算機
JP5117120B2 (ja) ストレージ装置のボリュームを管理する計算機システム、方法及びプログラム
US10203993B2 (en) Method and system for continuous optimization of data centers by combining server and storage virtualization
US8595364B2 (en) System and method for automatic storage load balancing in virtual server environments
US8549528B2 (en) Arrangements identifying related resources having correlation with selected resource based upon a detected performance status
US8549519B2 (en) Method and apparatus to improve efficiency in the use of resources in data center
US20160188370A1 (en) Interface for Orchestration and Analysis of a Computer Environment
US9733962B2 (en) Method and apparatus for determining the identity of a virtual machine
EP2631796A1 (en) Data collection method and information processing system
US20100125715A1 (en) Storage System and Operation Method Thereof
US9146793B2 (en) Management system and management method
US20220239742A1 (en) Methods and systems for managing a resource in a networked storage environment
US20160019078A1 (en) Implementing dynamic adjustment of i/o bandwidth for virtual machines using a single root i/o virtualization (sriov) adapter
US9152331B2 (en) Computer system, storage management computer, and storage management method
US20150074251A1 (en) Computer system, resource management method, and management computer
JP2005216151A (ja) 資源運用管理システム及び資源運用管理方法
US10389809B2 (en) Systems and methods for resource management in a networked environment
JP2009075718A (ja) 仮想i/oパスの管理方法、情報処理システム及びプログラム
WO2015002647A1 (en) Thin provisioning of virtual storage system
JP2019144821A (ja) 運用管理システム及び運用管理方法
JP6394313B2 (ja) ストレージ管理装置、ストレージ管理方法及びストレージ管理プログラム
JP2013127685A (ja) 情報処理システムおよび運用管理方法
JP2010026828A (ja) 仮想計算機の制御方法
US9065740B2 (en) Prioritising data processing operations
US20180293109A1 (en) Method for monitoring the use capacity of a partitioned data-processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131113

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees