JPWO2016174764A1 - 管理装置および管理方法 - Google Patents

管理装置および管理方法 Download PDF

Info

Publication number
JPWO2016174764A1
JPWO2016174764A1 JP2017515345A JP2017515345A JPWO2016174764A1 JP WO2016174764 A1 JPWO2016174764 A1 JP WO2016174764A1 JP 2017515345 A JP2017515345 A JP 2017515345A JP 2017515345 A JP2017515345 A JP 2017515345A JP WO2016174764 A1 JPWO2016174764 A1 JP WO2016174764A1
Authority
JP
Japan
Prior art keywords
port
determined
processor
logical storage
bottleneck
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017515345A
Other languages
English (en)
Other versions
JP6462116B2 (ja
Inventor
小林 恵美子
恵美子 小林
峰義 増田
峰義 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016174764A1 publication Critical patent/JPWO2016174764A1/ja
Application granted granted Critical
Publication of JP6462116B2 publication Critical patent/JP6462116B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/06Addressing a physical block of locations, e.g. base addressing, module addressing, memory dedication
    • G06F12/0646Configuration or reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold

Abstract

計算機からアクセスされる複数の論理記憶領域を有するストレージ装置を管理する管理装置は、前記計算機が前記複数の論理記憶領域へ均等にアクセスするという設定を判定し、前記均等にアクセスするという設定であると判定した場合、前記複数の論理記憶領域それぞれのアクセス数を取得し、前記取得した複数のアクセス数を比較することにより、問題のある論理記憶領域の存在を判定する監視モジュールと、前記問題のある論理記憶領域が存在すると判定された場合、前記問題のある論理記憶領域に割り当てられた前記ストレージ装置の構成情報を取得し、前記取得した構成情報に基づき、前記ストレージ装置内の各構成のいずれがボトルネックであるかを特定する解析モジュールと、前記特定されたボトルネックとなる構成を経由するアクセス経路を変更する対策案を作成する作成モジュールと、前記作成した対策案を出力する出力モジュールとを有する。

Description

本発明は管理装置および管理方法に関するものである。
データベース管理システムやアプリケーションサーバなどにおいて実行されるミドルウェアやアプリケーションプログラムには、データを安全かつ高速にアクセスできるようにストレージ装置のデータ配置を管理するものがある。例えば、複数の記憶デバイスへデータを分散配置し、IO(Input/Output:例えば読み書き命令あるいはアクセス)を均等に分散することにより、複数の記憶デバイスの並列実行度を上げて高速化するものもある。
一方ストレージ装置でも、記憶デバイスを論理化してアプリケーションプログラムに認識させ、データへのアクセス頻度によって性能の異なる記憶デバイスに配置する階層管理など、同様に高速性を高めるためのデータ管理を行っている。
特許文献1にはアプリケーションプログラムの重要度と使用時間帯に従ってストレージ装置とアプリケーションサーバ間のIOパスの割り当てを行う技術が示されている。
特許第4686305号公報
特許文献1に示された技術を用いれば、アプリケーションプログラムに応じたIOパスを割り当てることができる。しかしながら、アプリケーションプログラムの均等に分散するIOに対し、記憶デバイスを論理化するストレージ装置が均等に処理することを保証するものではない。ストレージ装置内にボトルネックが発生すると、均等に分散されたIOの一部が遅れるだけではなく、均等に分散したIOに基づく処理はその一部の遅れの影響により全体として遅れが生じてしまう。
また、アプリケーション側の管理者にとってストレージ装置内のどの部分がボトルネックとなり、均等に処理できないかを判断することは難しく、その判断には多大な労力が必要となる。
そこで、本発明は、ストレージ装置の一部のボトルネックによる性能問題が発生した場合、管理者へそのボトルネックの対策案を提示することを目的とする。
本発明に係る代表的な管理装置は、計算機からアクセスされる複数の論理記憶領域を有するストレージ装置を管理する管理装置は、前記計算機が前記複数の論理記憶領域へ均等にアクセスするという設定を判定し、前記均等にアクセスするという設定であると判定した場合、前記複数の論理記憶領域それぞれのアクセス数を取得し、前記取得した複数のアクセス数を比較することにより、問題のある論理記憶領域の存在を判定する監視モジュールと、前記問題のある論理記憶領域が存在すると判定された場合、前記問題のある論理記憶領域に割り当てられた前記ストレージ装置の構成情報を取得し、前記取得した構成情報に基づき、前記ストレージ装置内の各構成のいずれがボトルネックであるかを特定する解析モジュールと、前記特定されたボトルネックとなる構成を経由するアクセス経路を変更する対策案を作成する作成モジュールと、前記作成した対策案を出力する出力モジュールとを有することを特徴とする。
本発明によれば、ストレージ装置の一部のボトルネックによる性能問題が発生しても、管理者へそのボトルネックの対策案を提示することができる。
システムの構成の例を示す図である。 管理サーバの構成の例を示す図である。 ストレージ装置の構成の例を示す図である。 管理サーバの処理モジュールの構成の例を示す図である。 処理全体の例を示すフローチャート図である。 IO監視処理の例を示すフローチャート図である。 ボトルネック解析処理の例を示すフローチャート図である。 ポートボトルネックの対策案作成処理の例を示すフローチャート図である。 プロセッサボトルネックの対策案作成処理の例を示すフローチャート図である。 追加ボリューム切り出し案作成処理の例を示すフローチャート図である。 AP構成情報管理テーブルの例を示す図である。 ストレージ構成情報管理テーブルの例を示す図である。 ボリュームに関するストレージ性能情報管理テーブルの例を示す図である。 プロセッサに関するストレージ性能情報管理テーブルの例を示す図である。 ポートに関するストレージ性能情報管理テーブルの例を示す図である。 キャッシュに関するストレージ性能情報管理テーブルの例を示す図である。 対策案提示のGUI画面の例を示す図である。 ボリューム移行案作成処理の例を示すフローチャート図である。 AP性能情報管理テーブルの例を示す図である。
図1はシステムの構成の例を示す図である。この例のシステムは、ストレージ装置103を管理する管理サーバ101と、アプリケーションプログラム106を実行するアプリケーションサーバ102、アプリケーションプログラム106のデータを保存するストレージ装置103から構成される。アプリケーションサーバ102とストレージ装置103との間はIP(Internet Protocol)またはファイバーチャネルなどのストレージエリアネットワーク(SAN)104で接続される。またアプリケーションサーバ102およびストレージ装置103は管理用ネットワーク105により管理サーバ101と接続される。
ストレージ装置103は、複数の物理的な記憶デバイス112をRAID(Redundant Arrays of Inexpensive Disks)によりまとめて管理し、パリティグループ111を構成する。パリティグループ111の中では複数の物理的な記憶デバイス112をまたぐように記憶領域が論理化された論理ユニット113が設定される。論理ユニット113は論理デバイスなどと呼ばれることもある。論理ユニット113はアプリケーションサーバ102から読み書き時に指定されるひとまとまりの記憶領域であり、アプリケーションプログラム106からは論理ボリューム(以下、単にボリュームと呼ぶ)108として認識される。
なお、図1の例において、論理ユニット(#1)の#1などは複数の論理ユニット113を個別に識別するためのID(識別子)であり、論理ユニット113以外のものの表記も同じである。また、この例ではボリューム108と論理ユニット113とは1対1に対応するため、論理ユニット113の代わりにボリューム108と表現することもある。
ストレージ装置103は、アプリケーションサーバ102からの読み書きを可能にするため、ストレージエリアネットワーク104と接続してアプリケーションサーバ102と通信するポート109を備え、パーティショングループ111や論理ユニット113を管理し、ポート109による通信を記憶デバイス112への読み書きに変換するMPB(Micro Processor Blade)110を備える。MPB110には複数のマイクロプロセッサが搭載される。ストレージ装置103の構成については後でさらに説明する。
アプリケーションサーバ102は一般的なサーバすなわちコンピュータであり、アプリケーションプログラム106を実行する。アプリケーションプログラム106は、記憶域グループ107として一つ以上のボリューム108をグループとして管理する。記憶域グループ107は例えば同じような特性(性能)のボリューム108により構成される。このため、アプリケーションプログラム106は、アプリケーション処理においてデータに要求される性能などに応じて、各記憶域グループ107を使い分けることができる。なお、アプリケーションプログラム106は、ミドルウェアであってもよく、データベースのプログラムであってもよい。
アプリケーションプログラム106は、その実行中にストレージ装置103へのデータの読み書きが発生すると、記憶域グループ107を介してボリューム108へアクセスする。ボリューム108は論理ボリュームであって実体がないため、アプリケーションサーバ102はボリューム108へのアクセスを、ストレージエリアネットワーク104経由のストレージ装置103へのアクセスとする。このアクセスをストレージ装置103はポート109で受け、MPB110が実体である記憶デバイス112により構成されるパリティグループ111内の論理ユニット113へのアクセスに変換する。このアクセスのパスを図1では点線の矢印で示す。
多数のボリューム108が存在する場合、各ボリューム108へ物理的なポート109やMPB110をそれぞれ割り当てるには多量のハードウェアリソースが必要となるため、図1にも示すように、1個のポート109や1個のMPB110が複数のボリューム108に割り当てられてもよい。図1の例では、ポート109の#2は2個のボリューム108が割り当てられ、MPB110の#1は2個の論理ユニット113が割り当てられる。これらの割り当ては各部の負荷(性能)に影響を与える。
ストレージエリアネットワーク104がアプリケーションプログラム106の読み書きするデータを通信するためのものであるのに対し、管理用ネットワーク105は管理用の情報を通信するためのものである。管理サーバ101は管理用ネットワーク105を介してアプリケーションサーバ102やストレージ装置103から性能情報などを受信し、アプリケーションサーバ102やストレージ装置103へ情報を設定する。
図2は管理サーバ101の構成の例を示す図である。管理サーバ101のハードウェアは、1個以上のCPU(中央処理装置)201、メモリ202、ハードディスクなどの二次記憶装置203、キーボード、マウスからの入力とディスプレイへの出力情報を制御する入出力I/F(インタフェース)204、ネットワークに接続するネットワークI/F205から構成される。アプリケーションサーバ102のハードウェア構成も同様である。
管理サーバ101のメモリ202上にはストレージ管理プログラム206がロードされ、CPU201により実行される。また二次記憶装置203にはストレージ管理プログラム206が使用する管理テーブル207のデータが保存される。アプリケーションサーバ102ではアプリケーションプログラム106がメモリ上にロードされ、CPUにより実行される。なお、各サーバは物理マシンでなく仮想マシンとして実装されてもよい。
図3はストレージ装置103のハードウェア構成の例を示す図である。コントローラ301は、フロントエンド側にアプリケーションサーバ102などのホスト計算機との接続インタフェースであるホストI/F302、バックエンド側に記憶メディアとの接続インタフェースであるメディアI/F303、一つ以上のプロセッサ304、キャッシュメモリ305から構成され、それぞれが内部ネットワークで相互接続される。
記憶メディアとしてはハードディスクなどの記憶デバイス112が接続される。プロセッサ304は複数の同種の記憶メディア(記憶デバイス112)の組で構成された論理記憶領域(パリティグループ111)を設定する。各パリティグループ111は異なる特性を備えてもよい。特性とは例えば、記憶デバイス112の記憶素子の違いやインタフェースの違い、RAIDレベルの違いであり、これらの違いにより性能が異なる。このため、設定されたパリティグループ111はその特性とともに管理され、性能レベルとして例えば高・中・低の3段階を設けて管理される。
ホストI/F302はポート109を備える。ストレージ装置103は1個以上のホストI/F302を備えてよく、1個のホストI/F302は1個以上のポート109を備えてもよい。プロセッサ304はMPB110を構成するものであり、ストレージ装置103は1個以上のMPB110を備えてよく、1個のMPB110は1個以上のプロセッサ304を備えてもよい。
図4は管理サーバ101の処理モジュールの構成の例を示す図である。APサーバ(アプリケーションサーバ)102から構成情報と性能情報を収集するAPサーバ情報収集部401、ストレージ装置103の構成情報と性能情報を収集するストレージ情報収集部402、ディスクIO数やIO応答時間などのIO性能を監視するIO性能監視部407、IO性能に問題がある場合に解析を行うボトルネック解析部408、ボトルネックに対する対策案を作成する対策案作成部409、性能問題とその対策に関する情報を出力する対策情報出力部410とUI(ユーザインタフェース)411から構成される。
これら各部(各モジュール)はCPU201がストレージ管理プログラム206を実行することにより実現されてもよい。例えば、ストレージ管理プログラム206の中のAPサーバ情報収集の部分(プログラムモジュール)をCPU201が実行している状態において、CPU201とメモリ202はAPサーバ情報収集部401(ハードウェアモジュール)と見なされてよい。このため、以下での各部を主語とする説明は、CPU201を主語とする説明に置き換えてもよい。
また、収集した構成情報、性能情報をそれぞれ管理するテーブルとして、AP構成情報管理テーブル403、AP性能情報監視テーブル404、ストレージ構成情報管理テーブル405、ストレージ性能情報管理テーブル406を、管理サーバ101は保持する。これらのテーブルは二次記憶装置203の管理テーブル207に含まれてもよい。
図5は処理全体の例を示すフローチャート図である。APサーバ情報収集部401とストレージ情報収集部402のそれぞれは、アプリケーションサーバ102とストレージ装置103の構成情報と性能情報を定期的に収集する(S501)。構成情報と性能情報の収集間隔は異なる。APサーバ情報収集部401とストレージ情報収集部402により、構成情報は定期的な収集と構成変更時の不定期な収集が行われるのに対し、性能情報は分間隔で収集が行われる。
ここで収集される性能情報は、アプリケーションサーバ102側ではストレージ装置103の読み書きを行う回数、読み書き量、応答時間であり、ストレージ装置103側ではボリューム108(論理ユニット113)への読み書きについて回数、データ量、応答時間である。
次に収集する性能情報について、IO性能監視部407はボリューム108毎のIO数に偏りがないかを監視する(S502)。ボトルネック解析部408は、監視の結果から問題の有無を判定し(S503)、問題がある場合はボトルネック解析を行う(S504)。ストレージ内にボトルネックがある場合、対策案作成部409はボトルネックを解消する対策案を作成する(S505)。そして、問題情報出力部410とUI411が出力する(S506)。対策が実施された場合、問題が改善されたかどうかは収集(S501)や監視(S502)に戻って確認されてもよい。
図6はボリューム108ごとのIO監視処理の例を示すフローチャート図である。この処理は、図5に示したステップS502に相当する。IO性能監視部407は、アプリケーションサーバ102において記憶域グループ107で管理され、かつ均等配置が設定されているかを判定する(S601)。この判定の結果が設定されていないと判定された場合は、ステップS602以降の処理を実施しない。なお、記憶域グループ107による管理は図11を用いて後で説明するAP構成情報管理テーブル403に設定されており、均等配置は予めアプリケーション管理者などにより設定されてもよい。また、均等配置は、アプリケーションプログラム106の出力する情報あるいはアプリケーションプログラム106が何であるかを識別する情報に基づき設定されていてもよい。
ステップS601の判定の結果が設定されていると判定された場合、IO性能監視部407は、AP構成情報管理テーブル403から記憶域グループ107を構成するボリューム情報を取得する(S602)。IO性能監視部407は、記憶域グループ107が複数のボリューム108から構成されているかを判定し(S603)、複数のボリューム108で構成されている場合、ストレージ性能情報管理テーブル406から各ボリューム108の性能を取得し、各ボリューム108の性能の任意期間の平均値を比較する(S604)。
ここでは、性能値としてIO数と応答時間がそれぞれ比較される。管理サーバ101は収集した1回以上の性能値の履歴データから各ボリューム108の任意期間の平均値以外に、中央値、最頻値を算出してもよい。これらの中のいずれの値を使用するかは、システムとして事前に設定されるか、アプリケーション管理者により適宜設定される。
例として、IO数の場合を説明する。比較条件として、IO数が他よりも多いボリューム108、またはIO数が他よりも少ないボリューム108があるかをIO性能監視部407は判定する(S605)。中央値を使用する設定において、各ボリューム108のIO数の中央値が算出され、中央値からのはずれ度合いが基準値以上の場合、条件に一致するものと判定される。ここで基準値は、予めシステムとして設定されるか、アプリケーション管理者により設定される。
例えば、3つのボリューム108を記憶領域グループとしている場合、1秒当たりのIO数がボリューム#1:100/秒、ボリューム#2:200/秒、ボリューム#3:210/秒であり、他も含めた中央値の200/秒からのはずれ度合いの基準が10%と設定されている場合、ボリューム#1の100/秒は他より少なく、問題ありと判定される。いずれか設定された条件に一致する場合、条件の一致したボリューム108は問題調査要となり、処理は終了する(S606)。
比較条件として、平均値を使用する場合、IO性能監視部407は標準偏差を算出して、標準偏差が基準値以下で、平均値プラスまたはマイナス標準偏差の内に収まらないボリューム108がある場合、条件に一致するものと判定してもよい。また、分散を用いて同様に判定してもよい。ここでの基準値も予め設定される。
応答時間の場合も同様で、定期的に取得したボリューム108毎の応答時間から任意期間の平均値を算出する。ボリューム108毎の応答時間の平均値を比較して、一部のボリューム108の応答時間が他よりも遅いボリューム108があるかを判別する。応答時間については、はずれ度合いの基準や標準偏差の基準について、基準値外であっても時間が短い場合は問題なしとする。基準値外で応答時間が長い場合のみ、問題ありと判断し、問題調査要とする(S606)。
図7はストレージ装置103内のボトルネック解析処理の例を示すフローチャート図である。この処理は、図5に示したステップS504に相当する。ステップS502、S503で問題ありと判定されたボリューム108について、ボトルネック解析部408はストレージ構成情報管理テーブル405から関連する構成情報を読み出す(S701)。また、関連するポート109の性能、プロセッサ304の性能、キャッシュメモリ305の性能をストレージ性能情報管理テーブル406から読み出す。
ボトルネック解析部408は、読み出した各性能値を基準値と比較して超過があるかを判定する。各性能値と基準値の比較としては、一定期間に収集した一つ以上の測定値(性能値)をそれぞれ基準値と比較し、一定回数以上基準値超過である場合を超過と判定してもよいし、測定値の代表値として平均値や中央値を算出して基準値と比較するなどしてもよい。
フローチャートでは、ポート109の通信量またはIO数が基準値を超過しているかを判定し(S702)、超過している場合はポート109がボトルネックと特定して処理を終了する(S705)。次にプロセッサ304の使用率が基準値を超過しているかを判定し(S703)、超過している場合はプロセッサ304がボトルネックと特定して処理を終了する(S706)。
さらにキャッシュヒット率または書き込み待機率が基準値範囲外かを判定し(S704)、基準値外の場合はキャッシュメモリ305がボトルネックと特定して処理を終了する(S707)。いずれの基準値違反もない場合、ボトルネック解析部408はボトルネックなしとして処理を終了する(S708)。基準値との比較処理のステップS702からステップS704は、図7に示した順番とは別の順番で行ってもよい。
図8〜10は対策案作成処理の例を示すフローチャートである。ボトルネックとしていずれかの箇所が特定された場合、ここではボトルネックとなっている使用中の部位を、別の部位に変更する案を作成する。図7に示した処理で特定されたボトルネックの種別毎にフローチャートを示して説明する。
図8はポート109がボトルネックの場合の対策案作成処理の例を示すフローチャートである。ボトルネックとなっているポート109の代替ポートを探すため、対策案作成部409は、まずストレージ性能情報管理テーブル406のポート管理情報を参照して、一定期間の通信量およびIO数が基準値未満のポート109があるかを判定する(S801)。ここでの基準値はボトルネック解析に使用した基準値と同じでもよいし、それよりも厳しい(低い)基準値としてもよい。
基準値未満のポート109がある場合、AP構成情報管理テーブル403を参照して、基準値未満のポート109は、ボトルネックとなるポート109を使用する問題ボリュームが含まれる記憶域グループ107の他のボリューム108が使用するポート109であるかを判定する(S802)。これは同じ記憶域グループ107のボリューム108が使用するポート109を代替ポートとした場合、代替ポートを既に使用しているボリューム108に影響を与え、記憶域グループ107としての性能に影響する可能性があるためである。
基準値未満のポート109は、同じ記憶域グループ107のボリューム108が使用していないポート109であった場合、問題ボリュームへのアクセスに使用するポート109を、ボトルネックとなっていたポート109から基準値未満のポート109へ変更する記述を対策案として作成する(S805)。ここでの記述とは出力用文字列やスクリプトなどの各種言語で記述するものとする。
基準値未満であり候補となるポート109が複数ある場合、対策案作成部409は、それぞれを対策案とし、現状の通信量およびIO数の低いポート109の優先度を高くするよう対策案に優先度を付与してもよい。さらに現在のポート109の通信量とIO量から変更した場合の予測値を算出し、その算出した予測値が基準値未満になるかを確認してもよい。予測値が基準値を超過する場合は、予測値が基準値を超過するポート109を対策案から削除してもよい。
ステップS802で同じ記憶域グループ107の他のボリューム108が使用中のポート109であった場合、対策案作成部409は、再度基準値未満のポート109を検索する(図示せず)。同じ記憶域グループ107の他のボリューム108が使用中のポート109しか基準値未満のポート109がない場合、代替ポートに切替えても通信量が超過しないかを確認する。そのため、対策案作成部409は、ストレージ性能情報管理テーブル406を参照して、ボトルネックとなっているポート109を使用する問題ボリュームのIO量を読み出す(S803)。
代替ポートの一定期間の平均通信量を算出し、算出した平均通信量とステップS803で読み出したIO量を合算する。合算量が基準値未満かを判定し(S804)、ステップS804の判定結果が基準値未満の場合は、基準値未満のポート109へ変更する記述を対策案として作成する(S805)。ステップS804で基準値未満となるポート109がない場合、対策案作成部409は、「対策なし」で処理を終了する(S806)。またステップS801で該当するポート109がない場合は、いずれのポート109も負荷が高いということであり、「対策なし」で終了する(S806)。
図9はプロセッサ304がボトルネックの場合の対策案作成処理の例を示すフローチャートである。ポート109がボトルネックとなった場合と同様に、対策案作成部409は、性能情報を参照してプロセッサ304の割当変更案を作成する。まずストレージ性能情報管理テーブル406のプロセッサ管理情報を参照して、一定期間の使用率が基準値未満のプロセッサ304があるかを判定する(S901)。
基準値未満のプロセッサ304がある場合、対策案作成部409は、AP構成情報管理テーブル403を参照して、基準値未満のプロセッサ304が、ボトルネックとなるプロセッサ304に割り当てられたボリューム108が含まれる記憶域グループ107の他のボリューム108が割り当てられているプロセッサ304かを確認する(S902)。割り当てられていない場合、ボリューム108の割当をボトルネックとなるプロセッサ304から基準値未満のプロセッサ304へ、変更する記述を対策案として作成する(S905)。
基準値未満であり候補となるプロセッサ304が複数ある場合、対策案作成部409は、現使用率が低いプロセッサ304から対策案の優先度を高くしてもよい。さらに現使用率に変更で追加されるボリューム108のプロセッサ使用率を合わせた予測値を算出し、算出した予測値が基準値未満になるかどうかを確認してもよい。予測値が基準値を超過する場合は、予測値が基準値を超過するプロセッサ304を対策案から削除してもよい。
ステップS902で同じ記憶域グループ107の他のボリューム108が割り当てられているプロセッサ304であった場合、対策案作成部409は、再度基準値未満のプロセッサ304を検索する(図示せず)。同じ記憶域グループ107の他のボリューム108に割り当てられたプロセッサ304のみの場合、そのプロセッサ304へ割当変更してもプロセッサ304の使用率が超過しないかを確認する。対策案作成部409は、ストレージ性能情報管理テーブル406を参照して、ボトルネックとなっているプロセッサ304に割り当てられた問題ボリュームのプロセッサ使用率を読み出す(S903)。
基準値未満となっている変更先候補のプロセッサ304の一定期間の平均使用率を算出し、算出した平均使用率とステップS903で読み出した使用率を合算する。この場合、プロセッサ304の性能は変更前と変更先候補で同じであることを前提としている。合算量が基準値未満かを判定し(S904)、ステップS904の判定結果が基準値未満の場合は、変更先候補のプロセッサ304へ割当を変更する記述を対策案として作成する(S905)。
ステップS904で基準値未満となるプロセッサ304がない場合、対策案作成部409は「対策なし」で処理を終了する(S906)。またポート109の場合と同様、ステップS901で該当するがない場合は、いずれのプロセッサ304も負荷が高いということであり、「対策なし」で処理を終了する(S906)。
ボリューム108の使用するキャッシュメモリ305の書き込み待ち率が高く、ボトルネックになっている場合、対策案は、キャッシュパーティション毎の書き込み待ち率を参照し、待ち率の低い、基準値以下のパーティションに、問題ボリュームを切り出しているパリティグループ111を移動する対策案を提示する。
次に図7に示したボトルネック解析フローにおいて、ボトルネックがなしと判定した場合の処理について説明する。記憶域グループ107内のボリューム108のIO数や応答時間の性能が均等でない場合であって、ボトルネックが特定できなかった場合は、さらに負荷を分散し均等になるよう図るため、ボリューム108の追加を対策案として提示する。
図10は追加ボリュームの切り出し案作成処理の例を示すフローチャートである。追加する容量は、ストレージ構成情報管理テーブル405を参照して、問題ボリュームと同容量とする。さらに必要な性能を特定するため、ストレージ性能情報管理テーブル406で管理されるボリューム108のアクセス傾向情報を使用できるように、対策案作成部409は問題ボリュームのアクセス傾向情報を読み出す(S1001)。
ボリューム108のアクセス傾向は、ランダムアクセスまたはシーケンシャルアクセスか、読み出し(In)または書き込み(Out)が多いのかで分類される。ストレージ情報収集部402において、各アクセス傾向別のIO数をストレージ装置103から収集し、収集期間における頻度を比較することで最も頻度の高いパターンを記録する。
アクセス傾向に従って、ボリューム108は必要な性能を高・中・低の三段階の必要性能レベルで管理される。例えばランダムIOが多い場合は高性能、シーケンシャルリードが多い場合は中性能、シーケンシャルライトが多い場合は低性能とする。これらは管理サーバ101がデフォルト設定してもよいし、アプリケーション管理者が設定してもよい。
対策案作成部409は、ステップS1001で読み出したアクセス傾向が一致する条件を必要性能レベルとして識別する(S1002)。問題ボリュームが切り出されているパリティグループ111が必要性能レベルと一致または必要性能レベルより高いかを確認する(S1003)。一致または高いと判定された場合は、問題ボリュームと同じ性能のパリティグループ111からの切り出しを対策案として作成する(S1004)。
ここで同性能のパリティグループ111が一つの場合には、問題ボリュームと同じパリティグループ111から追加ボリュームを切り出す案とするが、同性能のパリティグループが複数ある場合には、パリティグループ111に負荷が集中しないように、問題ボリュームとは別のパリティグループ111から追加ボリュームに切り出す案としてもよい。ステップS1003で必要性能よりも低いと判定された場合、対策案作成部409は、管理サーバ101が管理しているパリティグループ111から、必要性能レベルを持つパリティグループ111を抽出し、抽出したパリティグループ111からの切り出しを対策案として作成する(S1005)。
なお、問題ボリュームの属する記憶域グループ107の全データを、必要性能レベルのパリティグループ111のボリューム108に移動することを対策案として加えてもよい。また対策案には、バックアップ情報を追加してもよい。アプリケーションがバックアップ機能を持っている場合、AP構成情報管理テーブル403にバックアップ先情報を登録され、管理されるバックアップ先情報に応じて、追加容量と同じ容量、性能のボリューム108をバックアップ先でも追加要とするよう、バックアップ先パス、容量、性能レベルを含む対策案を作成してもよい。さらにボリューム108追加後にデータの再配置を実施する場合、過去の性能履歴からIO数の少ない時間帯を抽出し、抽出した時間帯での再配置を対策案に加えてもよい。
図11はAP構成情報管理テーブル403の例を示す図である。ここではアプリケーションプログラム106がデータを保管する論理的な記憶領域としてテーブルスペースという単位で管理しており、テーブルスペースを記憶域グループ107に割り当てている例で説明する。AP構成情報管理テーブル403は、テーブルスペースIDフィールド1101、記憶域グループIDフィールド1102、容量フィールド1103、ボリュームIDフィールド1104、バックアップ先フィールド1105、要求性能フィールド1106から構成される。
テーブルスペース名フィールド1101は例として示したものであり、アプリケーションプログラム106の種別によって異なる。バックアップ先フィールド1105は、既に説明したように、アプリケーションにバックアップ機能があり、管理している場合に登録する。容量フィールド1103とボリュームIDフィールド1104は各記憶域グループ107を構成する記憶装置としての構成である。なお、要求性能フィールド1106については別の実施例で説明する。
図12はストレージ構成情報管理テーブル405の例を示す図である。ボリューム108(論理ユニット113)を一意に識別するボリュームIDフィールド1201、ボリューム108の容量が登録されるボリューム容量フィールド1202、ボリューム108が割り当てられているプロセッサ304の識別子を登録するプロセッサIDフィールド1203、アプリケーションサーバ102からボリューム108へのアクセスに使用されるホストI/F302のポート109を識別するポートIDフィールド1204、ボリューム108が切り出されているパリティグループ111を識別するパリティグループIDフィールド1205、パリティグループ111単位に割り当てられているキャッシュパーティションを識別するキャッシュIDフィールド1206から構成される。
ストレージ装置103において、複数のプロセッサ304が1枚のブレードに搭載され、ブレード単位にボリューム108へ割当てられている場合、プロセッサIDフィールド1203にはプロセッサブレード(MPB110)を識別するIDが登録される。以降では単体のプロセッサ304かプロセッサブレード(MPB110)かを特に区別して説明しない限り、いずれの構成であってもよい。
図13Aから図13Dはストレージ性能情報管理テーブル406の例を示す図である。ストレージ装置103に関する性能情報は、予め設定された所定時間毎で定期的にストレージ装置103から取得され、取得時刻とともに時系列で記録されて管理される。図13Aから図13Dでは1つの時刻での値の例を示し、複数の時刻での値の図示を省略する。性能情報として、図13Aに示すボリューム108毎の性能、図13Bに示すプロセッサ304毎の性能、図13Cに示すポート109毎の性能、図13Dに示すキャッシュパーティション毎の性能がある。
図13Aに示すボリューム108毎の性能情報は、ボリュームIDフィールド1301、平均IO数フィールド1302、平均IO量フィールド1303、平均応答時間フィールド1304、プロセッサ使用率フィールド1305、アクセス傾向フィールド1306から構成される。平均IO数には、読み取りIO数および書き込みIO数の総数の所定時間当たりの平均値を記録する。平均応答時間も同様に、読み取りおよび書き込みにかかった全処理時間の所定時間当たりの平均値を記録する。平均アクセス傾向フィールド306は、本実施例では使用せず、別の実施例で使用するため、別の実施例で説明する。
図13Bに示すプロセッサ304毎の性能情報は、プロセッサIDフィールド1311と使用率フィールド1312から構成される。図13Cに示すポート109毎の性能情報は、ポートIDフィールド1321と通信量フィールド1322、IO数フィールド1323から構成される。図13Dに示すキャッシュパーティション毎の性能情報は、キャッシュIDフィールド1331と書き込み待ち率フィールド1332から構成される。
図14は対策案提示のGUI画面の例を示す図である。アプリケーション管理者が使用する性能監視画面を示している。UI411は、性能情報として、上段1401にはテーブルスペース毎の性能グラフを出力し、中段1402には障害情報を出力し、下段1403には原因の可能性のあるディスクIOについての情報を出力する。問題情報出力部410は対策案として作成された文字列を中断1402の障害情報欄に出力される。
UI411は、実行ボタン1404を出力し、アプリケーション管理者により実行ボタン1404が押されることで、対策案として作成されたスクリプトが実行されてもよい。UI411の出力により、アプリケーション管理者はアプリケーションの応答時間が悪化している問題状態と、関連するストレージ装置103側の状況と対策を把握できる。なお、対策案作成部409の作成した記述を単に出力してもよい。
以上で説明したように、複数のボリューム108に対してデータの均等配置による負荷分散を行っているアプリケーションシステムにおいて、負荷分散のバランスの監視とバランスが不均等になっている問題発生時に、ストレージ装置103内での対策案が提示可能となる。
また対策案の画面出力とは別に、ストレージ設定自動実行ツールを持つシステムの場合、対策案のスクリプトをストレージ設定自動実行ツールに入力することで、ストレージ装置103内で自動的に対策案に従った変更を実行してもよい。これにより、アプリケーション管理者の作業負荷を軽減できる。
実施例1ではパリティグループ111により提供される論理ボリュームを使用する例を説明したが、実施例2では、ストレージ装置における仮想化技術の一つであるシン・プロビジョニングによる仮想ボリュームで提供される論理ボリュームを使用する例を説明する。ストレージ装置103では記憶容量が仮想化された仮想ボリュームを、論理ボリュームとして提供する。アプリケーションプログラム106が新たな領域へライトアクセスすることに併せて、仮想ボリュームに対して実の記憶領域を持つプールから、記憶領域を順次割り当てていく。
プールはメディアの種類やディスクの回転数といった性能・特性別に複数のプールボリュームから構成される。このため、管理する情報として、実施例1の図12で示したストレージ構成情報管理テーブル405に、プールIDフィールドとプール性能情報フィールドが追加される。プール性能情報は、必要性能レベルと同じく、高・中・低の3段階で管理され、アプリケーションプログラム106が使用する記憶域グループ107は、同性能のプールを使用するボリューム108で構成される。実施例1と同様に管理サーバ101はボリューム(論理ボリューム)108の応答時間やIO数が均等にバランスされているかどうかを監視する。
管理サーバは、不均等を検出した場合、ストレージ装置103から提供されるボリューム108が仮想ボリュームであっても、ボリューム108に関する構成情報(ポート、プロセッサ、キャッシュ割当)と性能情報を管理し、ストレージ装置103内のボトルネック解析を行って、対策案を提示する。図10を用いて説明したボリューム108の追加の場合は、アクセス傾向から必要な性能レベルを判断して、実施例1とは異なり、プール性能が条件を満たすプールからボリューム108を切り出す対策案とする。
さらに、ストレージ装置103がシン・プロビジョニングに加え、保存されたデータに対するアクセス頻度によって、性能の異なるプールボリュームにデータを移動する階層管理を行ってもよい。このような管理では、アプリケーションプログラム106から複数のボリューム108に均等にデータを配置しても、データによってそれぞれの異なる階層に移動されることになる。追加のストレージ構成情報として、ボリューム108の階層別割合を管理する。ボリューム108を構成する階層の割合を同等にしている場合、本実施例における処理は同様となる。
階層の割合が同等でない場合、ボリューム108間で応答時間のばらつきが大きくなる可能性がある。そのため、負荷バランスを監視するステップにおいては、応答時間のばらつきのはずれ度合いの基準値を、幅を広くもたせるよう適切に設定して監視を実施する。また応答時間の遅いボリューム108については、高性能階層の割合を増やすようの変更する対策案を作成する。
以上で説明したように、シン・プロビジョニングによる仮想ボリュームを使用するシステムであっても、対策案を提示することが可能になる。
実施例1ではストレージ装置103の性能を監視する例を説明したが、実施例3ではアプリケーションサーバ102側の性能を監視して、アプリケーションサーバ102からみた応答時間に遅延の問題があった場合に、複数ボリューム108へのアクセスの負荷を解析する例を説明する。すなわち実施例1との違いは、監視と問題検知をアプリケーションベースで行う点である。
管理サーバ101は図5を用いて説明した実施例1のステップS502の前に、アプリケーションサーバ102からストレージ装置103へのIOの応答時間を収集する。そして、収集した応答時間が、閾値やベースラインといった基準値違反となっていないかを判定するステップが、ステップS502の前に追加される。応答時間が違反したと判定された場合に管理サーバ101はステップS502の処理を行う。負荷分散のバランスが不均等になっていたとしても、アプリケーションサーバ102への応答に問題がない場合は対策を行う必要がないため、アプリケーション管理者の負担を軽減できる。
さらに、応答遅延に問題発生し、図5を用いて説明したステップS506の後、監視に戻ってステップS501から実行する場合、処理ステップS502の前で、管理サーバ101はアプリケーションサーバ102での応答時間を収集する。収集した応答時間が回復していると判定されれば、負荷分散のバランスが改善したかどうかの確認すなわちステップS502以降の処理は不要である。応答時間が回復していないと判定された場合、管理サーバ101はS502以降の処理を繰り返し実行する。
またステップS502の前の応答時間を収集する処理の次に、アプリケーションサーバ102から収集する応答時間と、ストレージ装置103から取得する応答時間を比較するステップを追加してもよい。この2種類の応答時間の差が予め設定された基準値より大きい場合、アプリケーションサーバ102とストレージ装置103との間のストレージエリアネットワーク104に問題があると判定することも可能になる。これにより、負荷分散のバランスが不均等になっていたとしても、アプリケーションサーバ102への応答遅延がストレージエリアネットワーク104の問題であることが分かるため、ストレージ装置103内の対策を行う必要がなく、アプリケーション管理者の負担を軽減できる。
図7を用いて説明したボトルネック解析処理において、ポート109、プロセッサ304、キャッシュメモリ305でボトルネックが特定できなかった場合、実施例1ではボリューム108を追加する例を説明したが、実施例4ではボリューム108を追加するのではなく、ボリューム108の配置されているパリティグループ111がボトルネックであると判定し、ボリューム108を他パリティグループ111に移行する対策案を作成する例を説明する。記憶域グループ107内のボリューム108毎の性能が均等でなく、問題となるボリューム108がある場合、問題となるボリューム108を他のパリティグループ111に移行する。
図15はボリューム108の移行案作成処理の例を示すフローチャートである。対策案作成部409は、図10を用いて説明したフローチャートの代わりに図15に示すフローチャートに従って処理してもよい。対策案作成部409は、まずパリティグループ111の残容量が、問題となるボリューム108の使用容量よりも多いパリティグループ111を検索する(S1501)。残容量の多いパリティグループ111があると判定された場合、追加ボリューム切り出し処理と同様に、必要な性能を特定するため、ストレージ性能情報管理テーブル406で管理するボリューム108のアクセス傾向情報を使用する。
このため、対策案作成部409は、問題となるボリューム108のアクセス傾向情報を読み出す(S1502)。読み出したアクセス傾向が一致する条件を必要性能レベルとして、高、中、低のいずれかを識別する(S1503)。ステップS1501で抽出した残容量の多いパリティグループ111が必要性能レベルと一致または必要性能レベルより高いかを判定する(S1504)。この判定の結果が必要性能レベル未満の場合は、ステップS1501へ戻り他のパリティグループ111を抽出して繰り返す。
ステップS1501の判定結果として残容量の多いパリティグループ111がないと判定された場合、対策案作成部409は対策なしとする(S1508)。なお、ステップS1508を実行する場合、図10を用いて説明した追加ボリュームの切り出し案作成処理を実行してもよいし、残容量を多くするためにパリティグループ111の容量を物理的に増設する案を作成してもよい。
ステップS1504において必要性能レベルのパリティグループ111があると判定された場合、対策案作成部409は、問題となるボリューム108と同じ記憶域グループ107の他のボリューム108が使用しているパリティグループ111であるかを判定する(S1505)。この判定の結果が使用していないと判定された場合は、問題となるボリューム108を、ステップS1504で必要性能レベルであると判定されたパリティグループ111へ移行する対策案を作成する(S1507)。
ステップS1505において他のボリューム108も使用していると判定された場合、対策案作成部409は、使用していると判定された他のボリューム108の一定期間のIO性能を取得し、取得したIO性能が基準値を満たすかを判定する(S1506)。この判定の結果が満たすと判定した場合は、問題となるボリューム108を移行する対策案を作成する(S1507)。ここでの基準値は性能が問題ないことを判定するための値であり、単位時間当たりのIO数や応答時間について事前に設定された値である。
ステップS1506において基準値を満たさないと判定された場合は、問題となるボリューム108を移行した際に、他のボリューム108の性能に影響があるため移行先としない。このようにステップS1506の条件を満たすパリティグループ111がない場合、対策案作成部409は対策なしとする(S1508)。
以上で説明したように、問題となるボリューム108を他のパリティグループ111へ移行する対策案を作成できる。
実施例3ではアプリケーションサーバ102としての性能を監視する例を説明したが、実施例5ではアプリケーションサーバ102の中のアプリケーションプログラム106が管理する記憶域グループ107のアクセス性能が必要な性能を満たしているかを監視する例を説明する。図5を用いて既に説明したようにステップS502において、管理サーバ101は記憶域グループ107の各ボリューム108の負荷のバランスが均等になっているかを監視するが、さらに条件を加えて、記憶域グループ107のアクセス性能が要求を満たしていない場合に、ステップS502で負荷のバランスが均等かを判定する。
図11に示すようにAP構成情報管理テーブル403は要求性能フィールド1106を含み、アプリケーションプログラム106の管理単位である記憶域グループ107(図11の例ではテーブルスペース)に対し、要求されるディスクアクセス性能値を記憶して管理する。この要求性能の指標として、図11の例では単位時間当たりのIO数としているが、応答時間や単位時間当たりのIO量でもよい。この指標の要求性能値はアプリケーション管理者によって予め設定される。
図16はアプリケーションのディスクアクセス性能情報を管理するAP性能情報管理テーブル404の例を示す図である。AP性能情報管理テーブル404は、アプリケーションプログラム106のディスクアクセス性能情報を管理するためのものであり、性能情報が定期的にアプリケーションサーバ102から取得され、単位期間の性能値を取得時刻とともに時系列に記録されて管理される。
図16では1つの時刻における値の例を示し、複数の時刻での値の図示を省略する。AP性能情報管理テーブル404は、テーブルスペースIDフィールド1601の値(ID)に対し、性能情報として、平均IO数フィールド1602、平均IO量フィールド1603、平均応答時間フィールド1604から構成される。
管理サーバ101は、図5を用いて説明したステップS502の前に、AP構成情報管理テーブル403の要求性能フィールド1106から要求性能値を取得し、AP性能情報管理テーブル404から平均IO数フィールド1602から性能値を取得し、取得した性能値が取得した要求性能値以上であるかを判定する。この判定の結果が要求性能値以上すなわち要求性能値を満たしていると判定された場合は、ステップS501へ戻り監視を継続する。また、この判定の結果が要求性能値未満すなわち要求性能値を満たしていないと判定された場合、管理サーバ101はステップS502の処理に移る。
以上で説明したように、アプリケーションプログラム106に対して必要なディスクアクセス性能を提供することが可能となる。
101:管理サーバ、102:アプリケーションサーバ、103:ストレージ装置、106:アプリケーションプログラム、107:記憶域グループ、108:ボリューム、109:ポート、110:MPB、111:パリティグループ

Claims (12)

  1. 計算機からアクセスされる複数の論理記憶領域を有するストレージ装置を管理する管理装置は、
    前記計算機が前記複数の論理記憶領域へ均等にアクセスするという設定を判定し、前記均等にアクセスするという設定であると判定した場合、前記複数の論理記憶領域それぞれのアクセス数を取得し、前記取得した複数のアクセス数を比較することにより、問題のある論理記憶領域の存在を判定する監視モジュールと、
    前記問題のある論理記憶領域が存在すると判定された場合、前記問題のある論理記憶領域に割り当てられた前記ストレージ装置の構成情報を取得し、前記取得した構成情報に基づき、前記ストレージ装置内の各構成のいずれがボトルネックであるかを特定する解析モジュールと、
    前記特定されたボトルネックとなる構成を経由するアクセス経路を変更する対策案を作成する作成モジュールと、
    前記作成した対策案を出力する出力モジュールと
    を有することを特徴とする管理装置。
  2. 前記監視モジュールは、
    前記均等に発行する設定と判定した場合、前記複数の論理記憶領域それぞれのアクセス数を取得し、前記複数の論理記憶領域それぞれにおける前記取得したアクセス数の任意期間の平均値を算出し、前記算出した複数の平均値の平均値と標準偏差を算出し、前記算出した複数の平均値の平均値から前記算出した標準偏差の予め設定された第1の基準値に収まらない論理記憶領域を、問題のある論理記憶領域とすること
    を特徴とする請求項1に記載の管理装置。
  3. 前記解析モジュールは、
    前記ストレージ装置の前記計算機へ接続するポートの中の前記問題のある論理記憶領域に割り当てられた第1のポートのアクセス数を取得し、前記取得した第1のポートのアクセス数が予め設定された第2の基準値を超えるか判定し、前記第2の基準値を超えると判定した場合、前記第1のポートをボトルネックであると特定し、
    前記ストレージ装置のプロセッサの中の前記問題のある論理記憶領域に割り当てられた第1のプロセッサの使用率を取得し、前記取得した第1のプロセッサの使用率が予め設定された第3の基準値を超えるか判定し、前記第3の基準値を超えると判定した場合、前記第1のプロセッサをボトルネックであると特定し、
    前記ストレージ装置のキャッシュの中の前記問題のある論理記憶領域に割り当てられた第1のキャッシュのヒット率を取得し、前記取得した第1のキャッシュのヒット率が予め設定された第4の基準値の範囲外かを判定し、前記第4の基準値の範囲外であると判定した場合、前記第1のキャッシュをボトルネックであると特定すること
    を特徴とする請求項2に記載の管理装置。
  4. 前記作成モジュールは、
    前記第1のポートがボトルネックであると特定された場合、前記ストレージ装置の前記計算機へ接続するポートに予め設定された第5の基準値未満の第2のポートが存在するかを判定し、前記第2のポートが存在すると判定した場合、前記第2のポートは前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられているかを判定し、
    前記第2のポートは、前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられていないと判定した場合、前記第1のポートを前記第2のポートへ変更する対策案を作成し、
    前記第2のポートは、前記均等に発行する設定と判定された複数の論理記憶領域に割り当てられていると判定した場合、前記第1のポートを前記第2のポートへ変更した場合の第1の予測値を算出し、前記算出した第1の予測値に応じて前記第1のポートを前記第2のポートへ変更する対策案を作成すること
    を特徴とする請求項3に記載の管理装置。
  5. 前記作成モジュールは、
    前記第1のプロセッサがボトルネックであると特定された場合、前記ストレージ装置のプロセッサに予め設定された第6の基準値未満の第2のプロセッサが存在するかを判定し、前記第2のプロセッサが存在すると判定した場合、前記第2のプロセッサは前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられているかを判定し、
    前記第2のプロセッサは、前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられていないと判定した場合、前記第1のプロセッサを前記第2のプロセッサへ変更する対策案を作成し、
    前記第2のプロセッサは、前記均等に発行する設定と判定された複数の論理記憶領域に割り当てられていると判定した場合、前記第1のプロセッサを前記第2のプロセッサへ変更した場合の第2の予測値を算出し、前記算出した第2の予測値に応じて前記第1のプロセッサを前記第2のプロセッサへ変更する対策案を作成すること
    を特徴とする請求項4に記載の管理装置。
  6. 前記作成モジュールは、
    前記第1のポートと前記第1のプロセッサと前記第1のキャッシュのいずれもボトルネックでない場合、前記均等にアクセスするという設定であると判定された複数の論理記憶領域へ論理記憶領域を追加する対策案を作成すること
    を特徴とする請求項5に記載の管理装置。
  7. CPUを有し、計算機からアクセスされる複数の論理記憶領域を有するストレージ装置を管理する、管理計算機の管理方法は、
    前記CPUが、
    前記計算機が前記複数の論理記憶領域へ均等にアクセスするという設定を判定し、
    前記均等にアクセスするという設定であると判定した場合、
    前記複数の論理記憶領域それぞれのアクセス数を取得し、
    前記取得した複数のアクセス数を比較することにより、問題のある論理記憶領域の存在を判定し、
    前記問題のある論理記憶領域が存在すると判定された場合、
    前記問題のある論理記憶領域に割り当てられた前記ストレージ装置の構成情報を取得し、
    前記取得した構成情報に基づき、前記ストレージ装置内の各構成のいずれがボトルネックであるかを特定し、
    前記特定されたボトルネックとなる構成を経由するアクセス経路を変更する対策案を作成し、
    前記作成した対策案を出力すること
    を特徴とする管理方法。
  8. 前記CPUが、
    前記均等にアクセスするという設定であると判定した場合、
    前記複数の論理記憶領域それぞれのアクセス数を取得し、
    前記複数の論理記憶領域それぞれにおける前記取得したアクセス数の任意期間の平均値を算出し、前記算出した複数の平均値の平均値と標準偏差を算出し、
    前記算出した複数の平均値の平均値から前記算出した標準偏差の予め設定された第1の基準値に収まらない論理記憶領域を、問題のある論理記憶領域とすること
    を特徴とする請求項7に記載の管理方法。
  9. 前記CPUが、
    前記ストレージ装置の前記計算機へ接続するポートの中の前記問題のある論理記憶領域に割り当てられた第1のポートのアクセス数を取得し、
    前記取得した第1のポートのアクセス数が予め設定された第2の基準値を超えるか判定し、
    前記第2の基準値を超えると判定した場合、前記第1のポートをボトルネックであると特定し、
    前記ストレージ装置のプロセッサの中の前記問題のある論理記憶領域に割り当てられた第1のプロセッサの使用率を取得し、
    前記取得した第1のプロセッサの使用率が予め設定された第3の基準値を超えるか判定し、前記第3の基準値を超えると判定した場合、前記第1のプロセッサをボトルネックであると特定し、
    前記ストレージ装置のキャッシュの中の前記問題のある論理記憶領域に割り当てられた第1のキャッシュのヒット率を取得し、
    前記取得した第1のキャッシュのヒット率が予め設定された第4の基準値の範囲外かを判定し、前記第4の基準値の範囲外であると判定した場合、前記第1のキャッシュをボトルネックであると特定すること
    を特徴とする請求項8に記載の管理方法。
  10. 前記CPUが、
    前記第1のポートがボトルネックであると特定された場合、
    前記ストレージ装置の前記計算機へ接続するポートに予め設定された第5の基準値未満の第2のポートが存在するかを判定し、
    前記第2のポートが存在すると判定した場合、
    前記第2のポートは前記均等に発行する設定と判定された複数の論理記憶領域に割り当てられているかを判定し、
    前記第2のポートは、前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられていないと判定した場合、前記第1のポートを前記第2のポートへ変更する対策案を作成し、
    前記第2のポートは、前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられていると判定した場合、前記第1のポートを前記第2のポートへ変更した場合の第1の予測値を算出し、前記算出した第1の予測値に応じて前記第1のポートを前記第2のポートへ変更する対策案を作成すること
    を特徴とする請求項9に記載の管理方法。
  11. 前記CPUが、
    前記第1のプロセッサがボトルネックであると特定された場合、
    前記ストレージ装置のプロセッサに予め設定された第6の基準値未満の第2のプロセッサが存在するかを判定し、
    前記第2のプロセッサが存在すると判定した場合、
    前記第2のプロセッサは前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられているかを判定し、
    前記第2のプロセッサは、前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられていないと判定した場合、前記第1のプロセッサを前記第2のプロセッサへ変更する対策案を作成し、
    前記第2のプロセッサは、前記均等にアクセスするという設定であると判定された複数の論理記憶領域に割り当てられていると判定した場合、前記第1のプロセッサを前記第2のプロセッサへ変更した場合の第2の予測値を算出し、前記算出した第2の予測値に応じて前記第1のプロセッサを前記第2のプロセッサへ変更する対策案を作成すること
    を特徴とする請求項10に記載の管理方法。
  12. 前記CPUが、
    前記第1のポートと前記第1のプロセッサと前記第1のキャッシュのいずれもボトルネックでない場合、前記均等にアクセスするという設定であると判定された複数の論理記憶領域へ論理記憶領域を追加する対策案を作成すること
    を特徴とする請求項11に記載の管理方法。
JP2017515345A 2015-04-30 2015-04-30 管理装置および管理方法 Active JP6462116B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/062973 WO2016174764A1 (ja) 2015-04-30 2015-04-30 管理装置および管理方法

Publications (2)

Publication Number Publication Date
JPWO2016174764A1 true JPWO2016174764A1 (ja) 2017-12-28
JP6462116B2 JP6462116B2 (ja) 2019-01-30

Family

ID=57199116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017515345A Active JP6462116B2 (ja) 2015-04-30 2015-04-30 管理装置および管理方法

Country Status (3)

Country Link
US (1) US10754866B2 (ja)
JP (1) JP6462116B2 (ja)
WO (1) WO2016174764A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170222886A1 (en) * 2016-01-28 2017-08-03 Hewlett Packard Enterprise Development Lp Metering storage usage
KR101968575B1 (ko) * 2017-06-02 2019-08-13 그린아일 주식회사 실시간 병목 자동 분석 방법 및 이러한 방법을 수행하는 장치
CN108508853A (zh) * 2018-03-13 2018-09-07 济南大学 基于改进扩展移动瓶颈算法求解产品综合调度问题的方法
US20200186592A1 (en) * 2020-02-13 2020-06-11 Francesc Guim Bernat Hardware-assisted tracing schemes for distributed and scale-out applications
US11573736B2 (en) * 2020-11-30 2023-02-07 EMC IP Holding Company LLC Managing host connectivity to a data storage system
JP7429214B2 (ja) * 2021-10-07 2024-02-07 株式会社日立製作所 ストレージシステム及びストレージシステムにおけるデータ複製方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010956A (ja) * 2003-06-17 2005-01-13 Hitachi Ltd 情報処理装置の制御方法、情報処理装置、情報処理システム、及びプログラム
JP2006228188A (ja) * 2005-02-14 2006-08-31 Hitachi Ltd ストレージシステムの負荷を動的にバランスさせる方法
JP2008276279A (ja) * 2007-04-25 2008-11-13 Hitachi Ltd 装置性能管理方法、装置性能管理システム、および管理プログラム
JP2015082315A (ja) * 2013-10-24 2015-04-27 富士通株式会社 ストレージ制御装置、制御方法、およびプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001001262A1 (fr) * 1999-06-24 2001-01-04 Fujitsu Limited Controleur de peripherique et systeme d'entree/sortie
US6697367B1 (en) * 2000-06-12 2004-02-24 Emc Corporation Multihop system calls
JP3992427B2 (ja) * 2000-08-01 2007-10-17 株式会社日立製作所 ファイルシステム
WO2002071242A1 (en) * 2001-03-01 2002-09-12 Akamai Technologies, Inc. Optimal route selection in a content delivery network
US7886299B2 (en) 2004-06-01 2011-02-08 Hitachi, Ltd. Method of dynamically balancing workload of a storage system
JP4169157B2 (ja) * 2004-10-04 2008-10-22 インターナショナル・ビジネス・マシーンズ・コーポレーション 管理サーバ、これを用いたシステムおよびプログラム
US7409586B1 (en) * 2004-12-09 2008-08-05 Symantec Operating Corporation System and method for handling a storage resource error condition based on priority information
US7711978B1 (en) * 2004-12-30 2010-05-04 Symantec Operating Corporation Proactive utilization of fabric events in a network virtualization environment
JP4686305B2 (ja) 2005-08-26 2011-05-25 株式会社日立製作所 ストレージ管理システムおよびその方法
JP2007072571A (ja) * 2005-09-05 2007-03-22 Hitachi Ltd 計算機システム及び管理計算機ならびにアクセスパス管理方法
JP4857818B2 (ja) * 2006-03-02 2012-01-18 株式会社日立製作所 ストレージ管理方法およびストレージ管理サーバ
US20080147878A1 (en) * 2006-12-15 2008-06-19 Rajiv Kottomtharayil System and methods for granular resource management in a storage network
US8935701B2 (en) * 2008-03-07 2015-01-13 Dell Software Inc. Unified management platform in a computer network
US8321501B2 (en) * 2009-12-23 2012-11-27 Intel Corporation Secure out-of-band storage control
WO2012073316A1 (ja) * 2010-11-29 2012-06-07 富士通株式会社 通信装置および方法
US8738972B1 (en) * 2011-02-04 2014-05-27 Dell Software Inc. Systems and methods for real-time monitoring of virtualized environments
WO2014116936A2 (en) * 2013-01-26 2014-07-31 Lyatiss, Inc. Methods and systems for detecting, locating and remediating a congested resource or flow in a virtual infrastructure
US20160147803A1 (en) * 2014-11-24 2016-05-26 International Business Machines Corporation Pattern-based problem determination guidance
JP6407092B2 (ja) * 2015-04-22 2018-10-17 日本電信電話株式会社 負荷分散装置、負荷分散方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010956A (ja) * 2003-06-17 2005-01-13 Hitachi Ltd 情報処理装置の制御方法、情報処理装置、情報処理システム、及びプログラム
JP2006228188A (ja) * 2005-02-14 2006-08-31 Hitachi Ltd ストレージシステムの負荷を動的にバランスさせる方法
JP2008276279A (ja) * 2007-04-25 2008-11-13 Hitachi Ltd 装置性能管理方法、装置性能管理システム、および管理プログラム
JP2015082315A (ja) * 2013-10-24 2015-04-27 富士通株式会社 ストレージ制御装置、制御方法、およびプログラム

Also Published As

Publication number Publication date
US20180046686A1 (en) 2018-02-15
JP6462116B2 (ja) 2019-01-30
WO2016174764A1 (ja) 2016-11-03
US10754866B2 (en) 2020-08-25

Similar Documents

Publication Publication Date Title
JP6462116B2 (ja) 管理装置および管理方法
US9432256B2 (en) Resource management method and resource management system
US8549528B2 (en) Arrangements identifying related resources having correlation with selected resource based upon a detected performance status
US8850152B2 (en) Method of data migration and information storage system
US8856264B2 (en) Computer system and management system therefor
US9086947B2 (en) Management method and management system for computer system
JP4749140B2 (ja) データマイグレーション方法及びシステム
US9043571B2 (en) Management apparatus and management method
US9628404B1 (en) Systems and methods for multi-tenancy management within a distributed database
US8694727B2 (en) First storage control apparatus and storage system management method
US9760294B2 (en) Computer system, storage management computer, and storage management method
US8578121B2 (en) Computer system and control method of the same
US9442765B2 (en) Identifying shared physical storage resources having possibility to be simultaneously used by two jobs when reaching a high load
EP2811411A1 (en) Computer and method for controlling arrangement of data in hierarchical pool owned by storage device
US10437642B2 (en) Management system for computer system
US20180267728A1 (en) Provisioning volumes
JPWO2013046331A1 (ja) 計算機システム、及び情報管理方法
US20110231686A1 (en) Management apparatus and management method
US9870152B2 (en) Management system and management method for managing data units constituting schemas of a database
JP6035363B2 (ja) 管理計算機、計算機システム、及び管理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181226

R150 Certificate of patent or registration of utility model

Ref document number: 6462116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150