JP2010108409A - ストレージ管理方法及び管理サーバ - Google Patents
ストレージ管理方法及び管理サーバ Download PDFInfo
- Publication number
- JP2010108409A JP2010108409A JP2008282267A JP2008282267A JP2010108409A JP 2010108409 A JP2010108409 A JP 2010108409A JP 2008282267 A JP2008282267 A JP 2008282267A JP 2008282267 A JP2008282267 A JP 2008282267A JP 2010108409 A JP2010108409 A JP 2010108409A
- Authority
- JP
- Japan
- Prior art keywords
- virtual machine
- output data
- input
- data amount
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0626—Reducing size or complexity of storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/4557—Distribution of virtual machine instances; Migration and load balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45579—I/O management, e.g. providing access to device drivers or storage
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45583—Memory management, e.g. access or allocation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Hardware Redundancy (AREA)
Abstract
【解決手段】仮想マシン250が実行されている物理サーバ2と、アレイグループ33を有するストレージ装置3と、仮想マシン250と、アレイグループ33の対応付を管理している管理サーバ1を有する計算機システムであって、移動後の仮想マシン250の予測I/O量を算出し、移動後の仮想マシン250に接続しているアレイグループ33の最大I/O量を、前記予測I/O量が超えていた場合、最大I/O量が、予測I/O量を下回るアレイグループ33を検索することを特徴とする。
【選択図】図1
Description
仮想マシンの移動に伴い、この仮想マシンに多くの計算機資源を割当てることにより、これらの仮想マシンで動作するアプリケーションの処理量が増加する可能性がある。また、アプリケーションの処理量増加に伴い、アプリケーションが使用するストレージ装置へのI/O負荷も増加し得る。さらに、このストレージ装置へのI/O負荷増大により前記ストレージ装置へのI/O負荷が最大I/O処理量を上回り、そのストレージ装置を共有する他のアプリケーションのI/O性能が劣化し、性能問題が発生する可能性がある。このように、従来技術では、より多くの仮想資源を仮想マシンに割り当てた結果、仮想マシンとストレージ装置を共有する他のアプリケーションのI/O性能が低下する可能性がある。
以下の実施形態におけるストレージ管理システムでは、本発明に不必要な機能や詳細を省略しているため、一般的なストレージ管理システムと比べて単純化されているが、本発明の適用範囲が制限されるわけではない。
図1は、本実施形態に係る計算機システムの構成例を示す図である。
計算機システムAは、複数のストレージ装置3と、複数の物理サーバ2と、管理サーバ1とを有してなる。各ストレージ装置3および各物理サーバ2は、SAN4を介して互いに接続されている。また、各物理サーバ2と、各ストレージ装置と、管理サーバ1とは、管理LAN(Local Area Network)5を介して互いに接続されている。物理サーバ2とSAN4との接続はHBA(Host Bus Adaptor)23を経由し、ストレージ装置3とSAN4との接続はSAN用ポート35を経由して接続される。各装置1〜3における管理LAN5との接続は、LAN用ポート16,25,34を経由して接続される。
各物理サーバ2は、CPU22と、メモリ21と、デバイスファイル24と、HBA23と、LAN用ポート25とを有している。各物理サーバ2では、格納された物理サーバ性能情報取得エージェント262、ハイパバイザプログラム(以下、ハイパバイザ260と記載)、および複数の仮想マシン250がメモリ21に展開され、CPU22によって実行されることにより具現化している。デバイスファイル24については、後記する。
管理サーバ1は、CPU13と、メモリ11と、LAN用ポート16と、表示装置14と、入力装置15と、記憶装置12(記憶部)とを有している。
メモリ11には、管理プログラム110が展開され、CPU13によって実行されることにより具現化している。管理プログラム110内には、サーバI/O量変化予測プログラム111(予測値算出部)、マイグレーション先候補検索エンジン112(検索部)、ストレージ構成変更プログラム113(ストレージ構成変更部)、仮想マシン構成変更プログラム114(仮想マシン構成変更部)などの各プログラムが実行されている。管理プログラム110内で実行されている各プログラムの詳細は、後記して説明する。
記憶装置12内には、図2〜図13を参照して後記する各テーブルを保持しているデータ格納用DB(Data Base)120が格納されている。
ストレージ装置3は、CPU36と、メモリ31と、少なくとも1つのSAN用ポート35とLAN用ポート34と、少なくとも1つのLDEV32(Logic Device)と、少なくとも1つのアレイグループ33(記憶デバイス)を有している。
メモリ31には、コントローラプログラム(以下、コントローラ311と記載)が展開され、CPU36によって実行されることにより具現化している。
ここで、コントローラ311は、複数のディスクから特定のRAID(Redundant Array of Inexpensive Disks)レベルを持つアレイグループ33を構築している。さらにコントローラ311は、アレイグループ33から指定された容量を持つ仮想ボリュームを生成する。本実施形態では、この仮想ボリュームをLDEV32と呼ぶこととする。また、コントローラ311は、LDEV32内にあるデータを別のアレイグループ33に移動する機能も有する。なお、生成されたLDEV32は、SAN用ポート35およびHBA23を経由して物理サーバ2に公開される。これにより、物理サーバ2は公開されたLDEV32をデバイスファイル24として認識することができる。
なお、アレイグループを構成する記憶デバイスは、HD(Hard Disk)に限らず、フラッシュメモリなどを用いてもよい。
次に、図1を参照しつつ、図2〜図12に沿って、本実施形態に係る各テーブルについて説明する。
図2は、本実施形態に係る仮想マシン性能情報テーブルの例を示す図である。
仮想マシン性能情報テーブル200は、各仮想マシン250の性能情報を格納するテーブルであり、VM(Vertual Machine)名(カラム201)、AP名(Application)(カラム202)、CPU利用率(カラム203)、メモリ利用率(カラム204)、稼働率(カラム205)、RandReadIOPS(Random Read I/O Per Second)(カラム206)、RandWriteIOPS(Random Write I/O Per Second)(カラム207)、SeqReadIOPS(Seqencial Read I/O Per Second)(カラム208)、SeqWriteIOPS(Seqencial Write I/O Per Second)(カラム209)、RandReadI/Oデータ転送量(カラム210)、SeqReadI/Oデータ転送量(カラム211)、RandWriteI/Oデータ転送量(カラム212)、SeqWriteI/Oデータ転送量(カラム213)、データ収集時刻(カラム214)を有するテーブルである。
なお、RandReadIOPS(カラム206)、RandWriteIOPS(カラム207)、SeqReadIOPS(カラム208)およびSeqWriteIOPS(カラム209)の単位は、「回」である。
なお、RandReadIOデータ転送量(カラム210)、RandWriteIOデータ転送量(カラム212)、SeqReadIOデータ転送量(カラム211)およびSeqWriteIOデータ転送量(カラム213)の単位は、「Mbps」である。
図3は、本実施形態に係る仮想マシン仕様情報テーブルの例を示す図である。
仮想マシン仕様情報テーブル300は、各仮想マシン250における使用可能な最大計算機資源量を格納するテーブルであり、VM名(カラム301)、CPU割当量(カラム302)、メモリ割当量(カラム303)をカラムに有するテーブルである。
カラム301のVM名は、図2のカラム201と同様のデータであるため、説明を省略する。カラム302のCPU割当量は、該当する仮想マシン250に割当てられているCPUの最大量であり、単位は「GHz」である。カラム303のメモリ割当量は、該当する仮想マシン250に割当てられ散るメモリの最大量であり、単位は「GB」である。
図4は、本実施形態に係る物理サーバ性能情報テーブルの例を示す図である。
物理サーバ性能情報テーブル400は、各物理サーバ2の性能情報を格納するテーブルであり、物理サーバ名(カラム401)、CPU利用率(カラム402)、メモリ利用率(カラム403)、稼働率(カラム404)、RandReadIOPS(カラム405)、RandWriteIOPS(カラム406)、SeqReadIOPS(カラム407)、SeqWriteIOPS(カラム408)、RandReadI/Oデータ転送量(カラム409)、SeqReadI/Oデータ転送量(カラム410)、RandWriteI/Oデータ転送量(カラム411)、SeqWriteI/Oデータ転送量(カラム412)およびデータ収集時刻(カラム413)を有するテーブルである。
カラム401の物理サーバ名は、該当する物理サーバ2の名称が格納されるカラムである。また、カラム402〜413は、図2のカラム202〜213のデータにおいて、仮想マシン250に関するデータが、物理マシンに関するデータとなったものであるため、説明を省略する。
図5は、本実施形態に係る物理サーバ仕様情報テーブルの例を示す図である。
物理サーバ仕様情報テーブル500は、各物理サーバ2の仕様情報を格納したテーブルであり物理サーバ名(カラム501)、CPU量(カラム502)、メモリ量(カラム503)、最大I/Oデータ転送量(カラム504)を有する。
カラム501の物理サーバ名は、図4のカラム401と同様のデータであるため、説明を省略する。カラム502のCPU量は、該当する物理サーバ2に搭載されているCPUの性能値であり、単位は「GHz」である。カラム503のメモリ量は、該当する物理サーバ2に搭載されているメモリの性能値(容量値)であり、単位は「GB」である。カラム504の最大I/Oデータ転送量は、該当する物理サーバ2における最大のデータ転送量であり、単位は「Mbps」である。データ転送量については、前記して説明したため、ここでは説明を省略する。
物理サーバ性能情報取得エージェント262は、物理サーバ2が新たに設置されたときに、物理サーバ2から取得した物理サーバ名や、搭載されているCPUおよびメモリの性能値や、最大I/Oデータ転送量といった、物理サーバ2の仕様情報を取得すると、これらを組の情報として管理サーバ1へと送信する。管理サーバ1の管理プログラム110は、受信した物理サーバ2の仕様情報を物理サーバ仕様情報テーブル500に登録することによって、物理サーバ仕様情報テーブル500が生成される。
図6は、本実施形態に係るLDEV性能情報テーブルの例を示す図である。
LDEV性能情報テーブル600は、各LDEV32の性能情報を格納するテーブルであり、LDEV名(カラム601)、稼働率(カラム602)、データ収集時刻(カラム603)を有する。
カラム601のLDEV名は、各LDEV32に対し一意に付された名称である。カラム602の稼働率は、仮想マシン250が1秒間にLDEV32に対してI/O処理を行っている割合を示す値であり、単位は「%」である。カラム603のデータ収集時刻は、該当するデータを収集した時刻である。
ストレージ装置3のストレージ情報取得エージェント312は、コントローラ311から定期的に取得したLDEV名、稼働率、データ収集時刻を組とした情報を、LDEV32の性能情報として管理サーバ1へ送る。管理サーバ1の管理プログラム110が、受信したLDEV32の性能情報をLDEV性能情報テーブル600の各カラム601〜603に登録することによって、LDEV32性能テーブルが生成される。
図7は、本実施形態に係るLDEV仕様情報テーブルの例を示す図である。
LDEV仕様情報テーブル700は、各LDEV32の仕様情報を格納するテーブルであり、LDEV名(カラム701)、ボリューム容量(カラム702)、AG(Array Group)名(カラム703)を有する。
カラム701のLDEV名は、図6のカラム601のデータと同様であるため、説明を省略する。カラム702のボリューム容量は、該当するLDEV32に割り当てられたボリューム容量であり、単位は「GB」である。カラム703のAG名は、該当するLDEV32を構成するアレイグループ33の名称である。AG名は、少なくともシステム内において一意の名称である。
ストレージ装置3のストレージ情報取得エージェント312は、LDEV32が新たに設定されたときに、コントローラ311より取得したLDEV名や、LDEV32のボリューム容量や、LDEV32を構成するアレイグループ名を組とした情報をLDEV32の仕様情報として、管理サーバ1へ送る。管理サーバ1の管理プログラム110が、受信したLDEV32の使用情報をLDEV仕様情報テーブル700の各カラム701〜703に登録することにより、LDEV仕様情報テーブル700が生成される。
図8は、本実施形態に係るアレイグループ性能情報テーブルの例を示す図である。
アレイグループ性能情報テーブル800は、各アレイグループ33の性能情報を格納するテーブルであり、AG名(カラム801)、稼働率(カラム802)、RandReadIOPS(カラム803)、RandWriteIOPS(カラム804)、SeqReadIOPS(カラム805)、SeqWriteIOPS(カラム806)、RandReadI/Oデータ転送量(カラム807)、SeqReadI/Oデータ転送量(カラム808)、RandWriteI/Oデータ転送量(カラム809)、SeqWriteI/Oデータ転送量(810)、データ収集時刻(カラム811)、使用ボリューム容量(カラム812)などを有する。
カラム801のAG名は、少なくとも計算機システムA内において一意であるアレイグループ33の名称である。カラム802の稼働率は、データを収集した時刻において、該当するアレイグループ33に対して仮想マシン250が1秒間にI/O処理を行っている割合であり、単位は「%」である。
カラム803〜811は、図2のカラム206〜214における仮想マシン250におけるデータが、アレイグループ33におけるデータとなったものであるため、説明を省略する。カラム812の使用ボリューム容量は、データを収集した時刻におけるアレイグループ33のボリューム使用量であり、単位は「GB」である。
図9は、本実施形態に係るアレイグループ仕様情報テーブルの例を示す図である。
アレイグループ仕様情報テーブル900は、各アレイグループ33の仕様情報を格納するテーブルであり、AG名(カラム901)、ボリューム容量(カラム902)、DiskType(カラム903)、Tier(カラム904)、RAIDLevel(カラム905)、StorageType(カラム906)、最大RandReadIOPS(カラム907)、最大RandWriteIOPS(カラム908)、最大SeqReadIOPS(カラム909)、最大SeqWriteIOPS(カラム910)、最大RandReadI/Oデータ転送量(カラム911)、最大SeqReadI/Oデータ転送量(カラム912)、最大RandWriteI/Oデータ転送量(カラム913)、最大SeqWriteI/Oデータ転送量(カラム914)などを有する。
カラム907の最大RandReadIOPSは、該当するアレイグループ33におけるRandReadIOPSの最大値である。同様に、カラム908の最大RandWriteIOPSは、該当するアレイグループ33におけるRandWriteIOPSの最大値である。カラム909の最大SeqReadIOPSは、該当するアレイグループ33におけるSeqReadIOPSの最大値である。カラム910の最大SeqWriteIOPSは、該当するアレイグループ33におけるSeqWriteIOPSの最大値である。
そして、カラム911の最大RandReadIOデータ転送量は、該当するアレイグループ33におけるRandReadIOデータ転送量の最大値である。同様に、カラム912の最大SeqReadIOデータ転送量は、該当するアレイグループ33におけるSeqReadIOデータ転送量の最大値である。カラム913の最大RandWriteIOデータ転送量は、該当するアレイグループ33におけるRandWriteIOデータ転送量の最大値である。カラム914は、最大SeqWriteIOデータ転送量は、該当するアレイグループ33におけるSeqWriteIOデータ転送量の最大値である。カラム907〜914の情報は、請求項における許容入出力データ量である。
また、最大RandReadIOPS、最大SeqReadIOPS、最大RandWriteIOPS、最大SeqWriteIOPS、最大RandReadI/Oデータ転送量、最大SeqReadI/Oデータ転送量、最大RandWriteI/Oデータ転送量、最大SeqWriteI/Oデータ転送量の各情報は、例えば、管理サーバ1が、予めベンチマークテストツールを用いて各アレイグループ33について性能上限値を測定し、測定結果を取得し、アレイグループ仕様情報テーブル900の各カラム907〜914に登録する。また、性能上限値が仕様情報として公開されている場合は、ユーザが管理サーバ1の入力装置15を介して入力し、アレイグループ仕様情報テーブル900に登録してもよい。
図10は、本実施形態に係る経路情報テーブルの例を示す図である。
経路情報テーブル1000は、ある仮想マシン250が所属する物理サーバ2と、データの格納先であるLDEV32、LDEV32の所属するアレイグループ33の情報を記述するテーブルである。経路情報テーブル1000は、物理サーバ名(カラム1001)、デバイスファイル名(カラム1002)、VM名(カラム1003)、LDEV名(カラム1004)をカラムとして有する。
カラム1001の物理サーバ名は、対象となる物理サーバ2の名称である。カラム1002にデバイスファイル名は、このレコードにおけるLDEV32の情報が記述されたファイルの名称である。つまり、カラム1003における仮想マシン250がLDEV32としてアクセスするファイルの名称である。カラム1003のVM名は、仮想マシン250の名称であり、カラム1004のLDEV名は、この仮想マシン250の業務データの格納先となるLDEV32の名称である。
物理サーバ2の仮想マシン仕様情報取得エージェント261は、仮想マシン250が新たに設定されたり、LDEV32との接続が変更されたりすると、物理サーバ2の名称、仮想マシン250に割り当てられたLDEV32の名称およびこのLDEV32に関する情報が記述されているデバイスファイル24名を取得し、組の情報として管理サーバ1へ送る。管理サーバ1の仮想マシン構成変更プログラム114は、受信した情報を経路情報テーブル1000のカラム1001〜1004に登録する。
図11は、本実施形態に係るマッピングモデルテーブルの例を示す図である。
マッピングモデルテーブル1100は、物理サーバ2のスペックと仮想マシン250への割当計算機資源量の組み合わせごとに各アプリケーション251の予測性能値を格納したテーブルであり、後記する物理サーバ2移動後におけるI/O処理量の予測(図15の「予測法1」)では、このマッピングモデルテーブル1100を使用して予測を行う。
マッピングモデルテーブル1100は、AP名(カラム1101)、物理サーバCPU量(カラム1102)、物理サーバメモリ量(カラム1103)、物理サーバ空きCPU量(カラム1104)、物理サーバ空きメモリ量(カラム1105)、仮想マシンCPU消費量(カラム1106)、仮想マシンメモリ消費量(カラム1107)、予測RandReadIOPS(カラム1108)、予測RandWriteIOPS(カラム1109)、予測SeqReadIOPS(カラム1110)、予測SeqWriteIOPS(カラム1111)、予測RandReadI/Oデータ転送量(カラム1112)、予測SeqReadI/Oデータ転送量(カラム1113)、予測RandWriteI/Oデータ転送量(カラム1114)、予測SeqWriteI/Oデータ転送量(カラム1115)などの各データを有する。
各カラム内のデータについて、その取得方法とともに下記に記載する。
管理プログラム110は、移動先物理サーバの物理サーバ性能情報取得エージェント262からCPU22の性能値と、メモリ21の性能値を取得し、カラム1102の物理サーバCPU量およびカラム1103の物理サーバメモリ量へ登録する。また、管理プログラム110は、移動先物理サーバの物理サーバ性能情報取得エージェント262から、移動先物理サーバにおけるCPU利用率とメモリ利用率を取得し、CPU22およびメモリ21の性能値から空きCPUと空きメモリを算出し、カラム1104の物理サーバ空きCPU量とカラム1105の物理サーバ空きメモリ量に登録する。
なお、カラム1102〜1107が請求項における仮想マシン250に関する機器情報に相当し、カラム1108〜1115が請求項の予測入出力データ量に相当する。
図12は、本実施形態に係るアプリケーション毎の処理量モデルテーブルの例を示す図である。
アプリケーション251毎の処理表モデルテーブル1200は、アプリケーション251への割当計算機資源に応じたアプリケーション251の予測実行I/O量を格納するテーブルであり、後記する物理サーバ2の移動後におけるI/O処理量の予測(図16の「予測法2」)では、このアプリケーション251毎の処理表モデルテーブル1200を使用して予測を行う。
アプリケーション251毎の処理モデルテーブルは、AP名(カラム1201)、仮想マシンCPU消費量(カラム1202)、仮想マシンメモリ消費量(カラム1203)、仮想マシンI/Oデータ転送量(カラム1204)、予測RandReadIOPS(カラム1205)、予測RandWriteIOPS(カラム1206)、予測SeqReadIOPS(カラム1207)、予測SeqWriteIOPS(カラム1208)、予測RandReadI/Oデータ転送量(カラム1209)、予測SeqReadI/Oデータ転送量(カラム1210)、予測RandWriteI/Oデータ転送量(カラム1211)、予測SeqWriteI/Oデータ転送量(カラム1212)などの各データを有する。
管理サーバ1におけるベンチマークテスト時において、管理サーバ1が取得するデータは、仮想マシン250上のアプリケーション251のCPU消費量とメモリ消費量とアプリケーション251の各I/O性能情報である。
管理サーバ1は、各仮想マシン内の仮想マシン性能情報取得エージェント252より、各仮想マシンにおけるアプリケーション名とCPU消費量とメモリ諸費量を取得する。また、仮想マシン名を取得し、各仮想マシン250を制御するハイパバイザ260内の仮想マシン仕様情報取得エージェント261より、前記仮想マシン250のデバイスファイル24への各IOPSや、各I/Oデータ転送量などの各I/O量を取得する。
そして、管理サーバ1は、取得したI/O量を元に、ベンチマークテストを行い、その分析結果として取得した予測RandReadIOPS、予測RandWriteIOPS、予測SeqReadIOPS、予測SeqWriteIOPSの各予測IOPSの値と、予測RandReadI/Oデータ転送量、予測SeqReadI/Oデータ転送量、予測RandWriteI/Oデータ転送量、予測SeqWriteI/Oデータ転送量の各予測I/Oデータ転送量をアプリケーション251毎の処理表モデルテーブル1200における該当するカラム1205〜1212に登録する。つまり、マッピングモデルテーブル1100におけるカラム1108〜1115は、仮想マシン250が入出力するI/O量の予測値である。なお、カラム1202〜1204の情報が、請求項における仮想マシン250に関する機器情報であり、カラム1205〜カラム1212が、請求項における予測入出力データ量である。
ここで、図13を参照して、各テーブルと、各プログラムとの関係をまとめておく。
図13は、本実施形態に係るテーブル関係を示す図である。
経路情報テーブル1000は、物理サーバ2の物理サーバ性能情報取得エージェント262から送られるデータを用いて、仮想マシン構成変更プログラム114によって登録されるテーブルである。
また、アプリケーション251毎の処理量モデルテーブル1200およびマッピングモデルテーブル1100は、ベンチマークテストによって出力された分析結果を用いて登録されるテーブルである。
そして、マイグレーション先候補検索エンジン112は、サーバI/O量変化予測プログラム111が出力した結果を使用して、LDEV仕様情報テーブル700、LDEV性能情報テーブル600、アレイグループ仕様情報テーブル900、アレイグループ性能情報テーブル800などを参照して、マイグレーション先候補を検索し、マイグレーション先候補表示画面2100に表示する。
さらに、仮想マシン構成変更プログラム114が、ストレージ構成変更プログラム113の変更結果に従って、仮想マシン250の構成を変更し、変更結果を経路情報テーブル1000に登録する。
次に、図1〜図12を参照しつつ、図14〜図21に沿って本実施形態に係るボリューム再配置方法の手順を説明する。
まず、図14と、図20と、図21を参照して、本実施形態に係る全体処理を説明する。
図14は、本実施形態に係る全体処理の手順の流れを示すフローチャートであり、図20は、本実施形態に係る移動仮想マシン選択画面を示す図であり、図21は、本実施形態に係るマイグレーション先候補表示画面の例を示す図である。
まず、サーバI/O量変化予測プログラム111は、図20に示す移動仮想マシン選択画面2000より選択された移動対象仮想マシン名と移動先物理サーバ名を取得する(S101)。具体的には、サーバI/O量変化予測プログラム111が、図20に示す移動仮想マシン選択画面2000を表示し、移動対象となる仮想マシン250と移動先となる物理サーバ2をユーザに入力指定してもらう。
ここで、図20を参照して、移動仮想マシン選択画面について説明する。
移動仮想マシン選択画面2000は、サーバI/O量変化予測プログラム111が表示装置14に描画させる画面であり、ストレージ運用管理者による移動対象仮想マシン名と移動先物理サーバ名の選択を受け付ける画面である。
移動仮想マシン選択画面2000は、移動先物理サーバ選択領域2001と、仮想マシン選択領域2002より構成される。サーバI/O量変化予測プログラム111は、移動仮想マシン選択画面2000の移動先物理サーバ選択領域2001内の移動先物理サーバ選択リスト2011に、物理サーバ仕様情報テーブル500のカラム501に含まれる物理サーバ名の一覧をプルダウンメニューで表示する。また、サーバI/O量変化予測プログラム111は、仮想マシン選択領域2002内の仮想マシン選択リスト2021に仮想マシン仕様情報テーブル300のカラム301(VM名)に含まれる仮想マシン250名の一覧をプルダウンメニューで表示する。
実行ボタン2023が選択入力されると、サーバI/O量変化予測プログラム111は、選択された移動先物理サーバ名および仮想マシン250名を取得して、管理プログラム110は、図14のステップS102へ移行する。
つまり、図20に示す画面例では説明を簡素化するため、移動する仮想マシン250に割当てるCPU使用量やメモリ量なども入力せず、移動先物理サーバの空きCPUおよび空きメモリを、すべて移動する仮想マシン250に割当てるシンプルなモデルを想定しているが、移動後に割当てるCPU使用量およびメモリ使用量を設定するよう拡張してもよい。
ステップS101の後、ステップS101で取得した情報を基にサーバI/O量変化予測プログラム111が移動対象仮想マシン移動後のアレイグループ33のI/O量を予測する(S102)。具体的には、サーバI/O量変化予測プログラム111は、ステップS101にて取得した移動対象仮想マシン名と移動先物理サーバ名を入力とし、各予測IOPSと各予測I/Oデータ転送量を予測I/O量として出力する(「予測法3」の場合、予測I/Oデータ転送量を出力する)。本実施形態において、予測I/O量の算出方法は、3通りであり、それぞれにおける具体的な算出方法は、図15〜図18を参照して後記する
ステップS103の結果、アレイグループ33の最大処理性能を上回る場合(S103→Yes)、マイグレーション先候補検索エンジン112が、各アレイグループ33について移動対象の仮想マシン250が使用予定のLDEV32に移動した場合のI/O量を予測する(S104)。具体的には、マイグレーション先候補検索エンジン112は、ステップS102で算出した各予測I/O量と、アレイグループ性能情報テーブル800における現在の各アレイグループ33の各I/O量を合計することで、LDEV32をこのアレイグループ33に移動した場合の各I/O量を予測する。より具体的には、マイグレーション先候補検索エンジン112は、ステップS103の段階で取得したアレイグループ名をキーとして、アレイグループ性能情報テーブル800のカラム803〜810から現在の各I/O量を取得する。そして、マイグレーション先候補検索エンジン112は、ステップS102で取得した各予測IOデータ転送量の合計値と、取得した現在のI/O量における各IOデータ転送量の合計値を加算する。これをアレイグループにおける合計予測IOデータ転送量とする。また、マイグレーション先候補検索エンジン112は、ステップS102で取得した各予測IOPSの合計値と、取得した現在のI/O量におけるIOPSの合計値とを加算する。これをアレイグループにおける合計予測IOPSとする。
ここで、図21を参照してマイグレーション先候補表示画面の説明を行う。
マイグレーション先候補表示画面2100は、マイグレーション先候補検索エンジン112によって表示装置14に描画される画面であり、ストレージ運用管理者からの移動先アレイグループの選択を受け付ける画面である。
マイグレーション先候補表示画面2100は、移動先アレイグループ選択領域2101より構成される。移動先アレイグループ選択領域2101内の移動先アレイグループ一覧リスト2103には、ステップS105で選択されたアレイグループ33が一覧として表示されている。移動先アレイグループ一覧リスト2103には、ステップS105で選択されたアレイグループ33の名称と、このアレイグループ名をキーとしてアレイグループ性能情報テーブル800から取得した稼働率とが表示される。そして、移動先アレイグループ選択リスト2102は、移動先アレイグループ一覧リスト2103中のアレイグループ33から1つのアレイグループ33を選択できるプルダウンメニューである。移動先アレイグループ選択リスト2102で移動先アレイグループを選択した後、実行ボタン2104が選択入力されることで、ストレージ変更プログラムは、移動先アレイグループ名を取得し、ステップS106へ処理を進める。
そのため、前記マイグレーション先候補検索エンジン112を拡張し、LDEV32のマイグレーション先を選択する際、アレイグループ仕様情報テーブル900のカラム904(Tier)を参照し、そのLDEV32が属するTier内で移動先アレイグループを検索し、該当するアレイグループ33が存在しない場合のみ、上位のTierに含まれるアレイグループ33に移動するように拡張してもよい。
ステップS105で移動先候補アレイグループをマイグレーション先候補検索エンジン112が選択する際、アレイグループ仕様情報テーブル900のカラム904(Tier)を参照し、この移動先候補アレイグループに対応するTierが、移動対象仮想マシンのLDEV32が所属するアレイグループ33のTierと一致すれば、移動先アレイグループ候補一覧リストに移動先候補アレイグループを追加する。同一のTierを有するアレイグループ33がない場合、マイグレーション先候補検索エンジン112は、1階層上のTierについて同様の処理を行う。
ステップS105の後、ストレージ構成変更プログラム113は、ストレージ装置3内のコントローラ311に、マイグレーション先候補表示画面2100で指定された移動先アレイグループへ、移動対象仮想マシンが使用しているLDEV32のデータ内容を移動するよう指示する。そして、ストレージ装置3のコントローラ311は、移動対象仮想マシンが使用しているLDEV32の内容をマイグレーション先候補表示画面2100で選択したアレイグループ33に移動する(S106)。これと同時に、ストレージ構成変更プログラム113は、ステップS103の段階で取得している移動対象仮想マシンが使用しているLDEV名をキーとして、LDEV仕様情報テーブル700において該当するAG名(カラム703)を移動先アレイグループの名称に更新する。また、ストレージ構成変更プログラム113は、経路情報テーブル1000の移動対象仮想マシンに該当するLDEV名(カラム1004)を更新する。
次に、図1〜図12を参照しつつ、図15〜図18を参照して本実施形態に係る3つの予測法を説明する。なお、本実施形態では、それぞれの予測法を「予測法1」、「予測法2」および「予測法3」とする。また、図15〜図18における処理は、図14のステップS102に相当する処理である。
本実施形態におけるサーバI/O量変化予測プログラム111は、ストレージ運用管理者が指定した図14のステップS101にて移動対象仮想マシン名と移動先物理サーバ名を受け付け、仮想マシン250移動後のアプリケーション251のI/O量の予測を行い、予測I/O量と、移動対象仮想マシンのデータ格納先となっているアレイグループ33(現在使用中のアレイグループ33)のI/O量の合計値がアレイグループ33の最大I/O量を上回るか否かを判定する。図15〜図18では、仮想マシン250移動後のアプリケーション251のI/O量(予測I/O量)を算出する方法の詳細を示す。
まず、図15を参照して「予測法1」を説明する。「予測法1」は、サーバI/O量変化予測プログラム111が、移動後の物理サーバ2および仮想マシン250の仕様情報とマッピングモデル表370を用いて予測I/O量を算出する。
図15は、本実施形態に係る「予測法1」の手順の流れを示すフローチャートである。
まず、サーバI/O量変化予測プログラム111は、ステップS101において移動仮想マシン選択画面2000で選択した仮想マシン250のCPU消費量、メモリ消費量を算出する(ステップS201)。具体的には、サーバI/O量変化予測プログラム111は、ステップS101で取得した移動対象仮想マシン名をキーとして、仮想マシン仕様情報テーブル300よりCPU割当量(カラム302)とメモリ割当量(カラム303)を取得する。次に、サーバI/O量変化予測プログラム111は、ステップS101で取得した移動対象仮想マシン名をキーとして、仮想マシン性能情報テーブル200よりCPU利用率(カラム203)とメモリ利用率(カラム204)とを取得する。そして、サーバI/O量変化予測プログラム111は、取得したCPU割当量と、CPU利用率を乗算することでCPU消費量を算出し、メモリ割当量と、メモリ利用率を乗算することでメモリ消費量を算出する。
そして、サーバI/O量変化予測プログラム111は、仮想マシン250の移動後における仮想マシン250の予測I/O量を、ステップS201、ステップS202およびステップS203で算出・取得した値とマッピングモデルテーブル1100を用いて取得する(S204)。
具体的には、サーバI/O量変化予測プログラム111は、ステップS203で取得した移動先物理サーバのCPU量およびメモリ量と、マッピングモデルテーブル1100の物理サーバCPU量(カラム1102)および物理サーバメモリ量(カラム1103)を比較する。さらに、サーバI/O量変化予測プログラム111は、ステップS202で算出した移動先物理サーバの空きCPU量および空きメモリ量と、マッピングモデルテーブル1100の物理サーバ空きCPU量(カラム1104)および物理サーバ空きメモリ量(カラム1105)とを比較する。そして、サーバI/O量変化予測プログラム111は、ステップS201で算出した移動対象仮想マシンのCPU消費量およびメモリ消費量と、マッピングモデルテーブル1100の仮想マシンCPU消費量(カラム1106)および仮想マシンメモリ消費量(カラム1107)を比較する。サーバI/O量変化予測プログラム111は、マッピングモデルテーブル1100において、これら6つの値が一致するレコードを検索し、このレコードにおける各予測I/O量(カラム1108〜1115)を取得する。
このような拡張を行った場合、予測I/O量を取得するロジックに変更が生じる。具体的には、「予測法1」におけるステップS204で、マッピングモデルテーブル1100を参照する際の入力値にステップS202で算出した移動先物理サーバの空きCPU量と、空きメモリ量とを用いているが、前記した拡張を行った場合、ステップS202で算出した各値と、移動仮想マシン選択画面2000で設定したCPU割当量とメモリ割当量の値を比較し、移動仮想マシン選択画面2000で設定したCPU割当量とメモリ割当量の値が、ステップS202で算出した空きCPU量および空きメモリ量の各値未満であれば、ステップS202で算出した値の代わりに、移動仮想マシン選択画面2000で設定したCPU割当量とメモリ割当量の値をマッピングモデルテーブル1100のカラム1104(物理サーバ空きCPU量)とカラム1105(物理サーバ空きメモリ量)への入力値としてもよい。
次に、図16を参照して「予測法2」を説明する。「予測法2」は、移動後の仮想マシン250への計算機資源割当量とアプリケーション251毎の処理量モデルテーブル1200を用いて仮想マシン250移動後のアプリケーション251の予測I/O量を算出する手法である。
図16は、本実施形態に係る「予測法2」の手順の流れを示すフローチャートである。
まず、サーバI/O量変化予測プログラム111は、ステップS101で選択した移動先物理サーバの空きCPU量、空きメモリ量および空き転送量を算出する(S301)具体的には、図14のステップS101で取得した移動先物理サーバ名をキーとして、物理サーバ仕様情報テーブル500よりCPU量(カラム502)、メモリ量(カラム503)および最大I/Oデータ転送量(カラム504)を取得する。また、サーバI/O量変化予測プログラム111は、図14のステップS101で取得した移動先物理サーバ名をキーとして、物理サーバ性能情報テーブル400より、CPU利用率(カラム402)、メモリ利用率(カラム403)と、各I/Oデータ転送量(カラム409〜412)を取得する。そして、サーバI/O量変化予測プログラム111が、サーバI/O量変化予測プログラム111は、(1−CPU利用率)×CPU量、(1−メモリ利用率)×メモリ量、および最大I/Oデータ転送量―各I/Oデータ転送量を算出することによって、空きCPU量、空きメモリ量、空きI/Oデータ転送量(空き転送量)を算出する。
次に、サーバI/O量変化予測プログラム111は、ステップS303で特定したレコードにおける各予測IOPS(カラム1205〜1208)および予測I/Oデータ転送量(カラム1209〜1212)を取得する。
次に、図17〜図19を参照して「予測法3」を説明する。「予測法3」は、アレイグループ33のI/O量の限界を迎える前にサーバ側のCPUやメモリ、HBA23といった計算機資源の性能値が限界に達してしまい、これが原因で仮想マシン250上のアプリケーション251のI/O処理性能値が出ないと判断できる場合、サーバ側の計算機資源の性能限界に達する以前のI/O処理量の増加傾向を用いて、仮想マシン250移動後のアプリケーション251の予測I/O量を算出する手法である。
まず、図17において、予測法3を適用する前に移動先物理サーバで消費I/O量が増え得るか否かを判定する処理(「予測法3」の準備)を行い、図18において「予測法3」による予測I/O量の算出手順を説明する。
図17は、本実施形態に係る移動先物理サーバで消費I/O量が増え得るか否かを判定する手順を示すフローチャートである。
図17では、仮想マシン250が他の物理サーバ2へ移動することで移動前より多くの物理サーバ2の計算機資源を使用できるかを確認する。
まず、サーバI/O量変化予測プログラム111は、移動対象の仮想マシン250のCPU利用率、メモリ利用率および各I/Oデータ転送量を取得する(S401)。なお、このとき入力される情報が、請求項における仮想マシン250に関する機器情報である。具体的には、サーバI/O量変化予測プログラム111は、ステップS101で取得した移動対象仮想マシン名をキーとして、仮想マシン性能情報テーブル200よりCPU利用率(カラム203)、メモリ利用率(カラム204)および各I/Oデータ転送量(カラム210〜213)を取得する。
次に、サーバI/O量変化予測プログラム111は、移動先物理サーバの空きCPU量、空きメモリ量および空きI/Oデータ転送量を算出する(S402)。具体的には、サーバI/O量変化予測プログラム111が、図14のステップS101で取得した移動先物理サーバ名をキーとして、物理サーバ仕様情報テーブル500よりCPU量(カラム502)、メモリ量(カラム503)および最大I/Oデータ転送量(カラム504)を取得する。続いて、サーバI/O量変化予測プログラム111は、図14で取得した移動先物理サーバ名をキーとして、物理サーバ性能情報テーブル400より、CPU利用率(カラム402)、メモリ利用率(カラム403)および各I/Oデータ転送量(カラム409〜412)を取得する。そして、サーバI/O量変化予測プログラム111が、(1−CPU利用率)×CPU量、(1−メモリ利用率)×メモリ量、および最大I/Oデータ転送量―各I/Oデータ転送量を算出することによって、空きCPU量と空きメモリ量と空きI/Oデータ転送量を算出する。
ステップS403の結果、前記した条件のすべてが満たされる場合(S403→Yes)、サーバI/O量変化予測プログラム111が、「予測法3」を用いた各I/Oデータ転送量の予測を行う(S405)。ステップS405の処理は、図18を参照して後記する。
まず、図19(a)から説明する。
図19(a)において、横軸は時間を示し、縦軸はCPU利用率を示す。なお、図19(a)において、縦軸をCPU利用率としたが、これに限らず、メモリ利用率など計算機資源の利用率を示すものであればよい。
符号L1は、CPU利用率の変化を示す線である。図19では、時刻T1に対象となる物理サーバ2が稼動し始め、時刻T2でCPU利用率が飽和状態となっている。そして、時刻T2以降は、CPU利用率は、100%のまま推移している(時刻T3については後記する)。
図19(b)において、横軸は時間を示し、縦軸はI/Oデータ転送量を示す。P1〜Pnは、各時刻におけるI/Oデータ転送量を示している。時刻T1,T2は図19(a)と同様であり、符号I1、直線L2、破線L3および時刻T3については後記する。ここで、I/Oデータ転送量は、RandReadI/Oデータ転送量、SeqReadI/Oデータ転送量、RandWriteI/Oデータ転送量およびSeqWriteI/Oデータ転送量のいずれかであってもよいし、これらの合計値でもよい。
具体的には、サーバI/O量変化予測プログラム111が、仮想マシン性能情報テーブル200に対して次のSQL(Structured Query Language)文を実行する。
この処理は、サーバI/O量変化予測プログラム111が、仮想マシン性能情報テーブル200に対して、次のSQL文を実行することによって行われる。
これは、図19の縦軸において、時刻T1〜T2の直後までの全I/Oデータ転送量に相当する(図19(b)における点P1〜Pn)。
この処理は、サーバI/O量変化予測プログラム111が、仮想マシン性能情報テーブル200に対して次のSQLを実行することによって行われる。
具体的には、ステップ802で取得したデータを元に回帰分析を行い、サーバ側の計算機資源の性能限界に達する以前のI/O処理量の増加傾向を表す関係式を算出する。ここで、算出される関係式は、図19(b)における符号L2が示す線である。
回帰分析の入力値としては、ステップS501およびステップS502で取得したデータ収集時刻と、このデータ収集時刻における各I/Oデータ転送量(図2のカラム210〜213)を用いる。
なお、本実施形態では、回帰分析を用いているが、図19(b)における点P1(一番古いI/O量)と、点Pnを単純に結んだ直線を関係式としてもよい。
具体的には、サーバI/O量変化予測プログラム111は、仮想マシン性能情報テーブル200の最も新しい(現在から最も直近の)データ収集時刻を取得する。そして、サーバI/O量変化予測プログラム111は、取得した最も新しいデータ収集時刻を入力値として、ステップS504で算出した関係式から、当該データ収集時刻における各I/Oデータ転送量を算出する。
サーバI/O量変化予測プログラム111は、ステップS505算出した各I/Oデータ転送量を予測I/Oデータ転送量とする。
本実施形態では、移動対象仮想マシンを移動先物理サーバへ移動する際、移動先の空きCPUと空きメモリとをすべて使用した場合に予測されるI/O量に基づいてLDEV32の移動を行っている。しかし、実際に仮想マシン250の移動後、仮想マシン250上のアプリケーション251が発行するI/O量が、予測したI/O量より下回ることも予想される。そこで、前記した実施形態の別の例として、移動対象仮想マシンの移動後、定期的にI/O量を監視し、アレイグループ33の最大I/O量を上回った時に、初めて移動対象仮想マシンのデータ格納先を他のアレイグループ33に移動するようにすることもできる。
図22の概略を説明すると、まず、管理サーバ1およびストレージ装置3は、移動対象仮想マシンを移動先物理サーバへ移動する。このとき移動対象仮想マシンには、移動先物理サーバの空きCPUと空きメモリの資源を割り当てる。そして、仮想マシン構成変更プログラム114は、仮想マシン250の移動後、予測値に基づく制限値を設定し、移動対象仮想マシンのI/O量がこの制限値に達しているか否かを判定する。次に、移動した仮想マシン250(移動対象仮想マシン)上のアプリケーション251が発行するI/O量が、この制限したI/O量に達したことを管理サーバ1が検知したら、管理サーバ1およびストレージ装置3は、仮想マシン250のデータ格納先となっているLDEV32を他のアレイグループ33へ移動する。
管理サーバ1は、図14のステップS101およびステップS102の処理を行う。その後、サーバI/O量予測プログラムは、移動対象仮想マシンのデータ格納先となるアレイグループ33が処理可能であるI/O量を求め、この移動対象仮想マシンのデータ格納先となっているアレイグループ33(現在使用中のアレイグループ)の最大I/O量を超えないI/O量の制限値を決定する(S601)。具体的には、ステップS102でサーバI/O量変化予測プログラム111は、前記した「予測法1」、「予測法2」および「予測法3」のいずれかを用いて予測I/O量(「予測法3」の場合は、予測I/Oデータ転送量)を算出する。そして、サーバI/O量予測プログラムは、この予測I/O量が、データ格納先となっているアレイグループ33の最大I/O量を上回るのであれば、アレイグループ33の空きI/O量+現在の移動対象仮想マシンのI/O量の値を移動対象仮想マシンのI/O量の制限値とする。上回らないのであれば問題はないので、サーバI/O量変化予測プログラム111は制限値を設けない。
次に、仮想マシン構成変更プログラム114は、移動先物理サーバ内のハイパバイザ260に対して移動対象仮想マシンのI/O量を監視するように指示する(S602)。この機能は、予め仮想マシン構成変更プログラム114に持たせている機能である。また、仮想マシン構成変更プログラム114は、この機能に加え、ストレージポート側に対して、算出した制限値にI/O量を監視するように指示する機能を有していてもよい。このようにすることで、物理サーバ2およびストレージ装置3の双方において、I/O量を監視することができる。
ステップS603の結果、達していない場合(S603→No)、ハイパバイザ260は、ステップS603の処理を繰り返す。
ステップS603の結果、達した場合(S603→Yes)、マイグレーション先候補検索エンジン112は、ステップS102で取得または算出した予測I/O量を移動対象仮想マシンのI/O予測値とした(S604)後、マイグレーション先候補検索エンジン112や、ストレージ構成変更プログラム113や、仮想マシン構成変更プログラム114は、図14のステップS104〜S106と同様の処理を行ってマイグレーションを実行する。そして、仮想マシン構成変更プログラム114は、移動先物理サーバ内のハイパバイザ260に対してI/O量の監視を解除するよう指示し(S605)、メモリに残っている制限値を削除する。
本実施形態によれば、物理サーバ2内の仮想マシン250の計算機資源の再割当てを行ったときに、仮想マシン250の移動に伴うI/O量の増加を予測し、現在使用中のアレイグループ33における最大I/O量を、予測したI/O量が超える場合に、余裕のあるアレイグループ33を検索することで、仮想マシン250の移動に伴う構成変更を一度行うだけで済むようにできる。
1 管理サーバ
2 物理サーバ
3 ストレージ装置
4 SAN
24 デバイスファイル
32 LDEV
33 アレイグループ(記憶デバイス)
110 管理プログラム
111 I/O量変化予測プログラム(予測値算出部)
112 マイグレーション先候補検索エンジン(検索部)
113 ストレージ構成変更プログラム(ストレージ構成変更部)
114 仮想マシン構成変更プログラム(仮想マシン構成変更部)
200 仮想マシン性能情報テーブル
250 仮想マシン
252 仮想マシン性能情報取得エージェント
260 ハイパバイザ
261 仮想マシン仕様情報取得エージェント
262 物理サーバ性能情報取得エージェント
300 仮想マシン仕様情報テーブル
311 コントローラ
312 ストレージ情報取得エージェント
400 物理サーバ性能情報テーブル
500 物理サーバ仕様情報テーブル
600 LDEV性能情報テーブル
700 LDEV仕様情報テーブル
800 アレイグループ性能情報テーブル
900 アレイグループ仕様情報テーブル
1100 マッピングモデルテーブル(予測入出力データ量情報)
1200 アプリケーション毎の処理量モデルテーブル(予測入出力データ量情報)
Claims (15)
- 物理サーバで稼動している仮想マシンと、ストレージ装置とを有するとともに、前記仮想マシンと、前記物理サーバとの関連付け、および前記仮想マシンと前記ストレージ装置との関連付けを管理する管理サーバをさらに有する計算機システムにおけるストレージ管理方法であって、
前記管理サーバは、
記憶部にストレージ装置における記憶デバイスの許容入出力データ量に関する許容入出力情報が記憶されており、
前記管理サーバが、
現在仮想マシンが搭載されている物理サーバから、入力部を介して、あらかじめ選択されている他の前記物理サーバへ当該仮想マシンを移動する際に、
移動する前記仮想マシンに関する機器情報を取得し、
前記取得した機器情報を基に、移動後の仮想マシンにおける予測される入出力データ量である予測入出力データ量の算出を行い、
前記算出された予測入出力データ量が、前記仮想マシンがアクセス可能な記憶デバイスにおける許容入出力データ量以上である場合、前記許容入出力データ量が、前記予測入出力データ量を下回る記憶デバイスを検索し、
前記検索した記憶デバイスと、移動する仮想マシンを関連付けた後、
前記移動する仮想マシンを、他の物理サーバへ移動する
ことを特徴とするストレージ管理方法。 - 前記記憶部には、前記移動後の仮想マシンにおける複数の予測入出力データ量が、前記仮想マシンに関する機器情報としての、前記物理サーバおよび前記仮想マシンの機器情報に対応して保持されている予測入出力データ量情報が格納されており、
前記管理サーバが
移動する仮想マシンおよび移動先の物理サーバにおける機器情報を基に、前記予測入出力データ量情報から、対応する前記予測入出力データ量を取得することによって、前記予測入出力データ量の算出を行う
ことを特徴とする請求項1に記載のストレージ管理方法 - 前記記憶部には、前記移動後の仮想マシンにおける複数の予測入出力データ量が、前記仮想マシンに関する機器情報としての、アプリケーションおよび当該アプリケーションを使用している仮想マシンの機器情報に対応して保持されている予測入出力データ量情報が格納されており、
前記管理サーバが、
移動する仮想マシンにおけるアプリケーションおよび当該移動する仮想マシンの機器情報を基に、前記予測入出力データ量情報から、対応する前記予測入出力データ量を取得することによって、前記予測入出力データ量の算出を行うことを特徴とする
ことを特徴とする請求項1に記載のストレージ管理方法。 - 前記記憶部には、前記移動する仮想マシンに関する過去の機器情報及び過去の入出力データ量が記憶されており、
前記管理サーバが、
移動前の前記仮想マシンを実行している物理サーバにおける前記過去の機器情報が、当該機器情報の機器の性能の限界値を超えていない限界値未満である時間を取得し、
前記取得した時間における前記過去の入出力データ量を取得し、
前記取得した過去の入出力データ量における、前記時間との関係式を算出し、
前記関係式を基に、所定の時間における入出力データ量を算出し、
当該算出した入出力データ量を、前記予測入出力データ量とする
ことを特徴とする請求項1に記載のストレージ管理方法。 - 前記記憶デバイスは、前記記憶デバイス間の階層構造を有しており、
前記管理サーバは、
前記許容入出力データ量が、前記予測入出力データ量を下回る記憶デバイスを検索する際に、当該記憶デバイスが所属する階層におけるストレージ装置で検索を行い、当該階層におけるストレージ装置で、前記予測入出力データ量を下回る記憶デバイスが検出できなかった場合、上位の階層に属すストレージ装置を検索する
ことを特徴とする請求項1に記載のストレージ管理方法。 - 入出力部を介して、前記仮想マシンの移動先物理サーバにおけるCPU割当量と、メモリ割当量と、を設定することが可能な
ことを特徴とする請求項1に記載のストレージ管理方法。 - 前記管理サーバが、
前記予測入出力データ量を基に、前記仮想マシンが使用している記憶デバイスにおける入出力データの制限値を設定し、
前記物理サーバによる前記仮想マシンの移動後、
前記仮想マシンの入出力データ量を監視しており、
前記仮想マシンの入出力データ量が、前記制限値を超えた場合、前記許容入出力データ量が、前記予測入出力データ量を下回る記憶デバイスを検索する
ことを特徴とする請求項1に記載のストレージ管理方法。 - 前記管理サーバが、
前記仮想マシンの入出力データ量に加え、前記ストレージ装置のポートにおける入出力データ量も監視する
ことを特徴とする請求項7に記載のストレージ管理方法。 - 仮想マシンと、物理サーバとの関連付け、および前記仮想マシンとストレージ装置との関連付けを管理している管理サーバであって、
ストレージ装置における記憶デバイスの許容入出力データ量に関する許容入出力情報が記憶されている記憶部と、
現在仮想マシンが搭載されている物理サーバから、入力部を介して、あらかじめ選択されている他の前記物理サーバへ当該仮想マシンを移動する際に、移動する前記仮想マシンに関する機器情報を取得し、前記取得した機器情報を基に、移動後の仮想マシンにおける予測される入出力データ量である予測入出力データ量の算出を行う予測値算出部と、
前記算出された予測入出力データ量が、前記仮想マシンがアクセス可能な記憶デバイスにおける許容入出力データ量以上である場合、前記許容入出力データ量が、前記予測入出力データ量を下回る記憶デバイスを検索する検索部と、
前記検索した記憶デバイスと、移動する仮想マシンを関連付けるストレージ構成変更部と、
前記移動する仮想マシンを、他の物理サーバへ移動する仮想マシン構成変更部と、
を有することを特徴とする管理サーバ。 - 前記記憶部には、前記移動後の仮想マシンにおける予測入出力データ量が、前記仮想マシンに関する機器情報としての、前記物理サーバおよび前記仮想マシンの機器情報に対応して保持されている予測入出力データ量情報が格納されており、
前記予測値算出部は、
移動する仮想マシンおよび移動先の物理サーバにおける機器情報を基に、前記予測入出力データ量情報から、対応する前記予測入出力データ量を取得することによって、前記予測入出力データ量の算出を行う
ことを特徴とする請求項9に記載の管理サーバ。 - 前記記憶部には、前記移動後の仮想マシンにおける予測入出力データ量が、前記仮想マシンに関する機器情報としての、アプリケーションおよび当該アプリケーションを使用している仮想マシンの機器情報に対応して保持されている予測入出力データ量情報が格納されており、
前記予測値算出部は、
移動する仮想マシンにおけるアプリケーションおよび当該移動する仮想マシンの機器情報を基に、前記予測入出力データ量情報から、対応する前記予測入出力データ量を取得することによって、前記予測入出力データ量の算出を行う機能を
さらに有することを特徴とする請求項9に記載の管理サーバ。 - 前記記憶部には、前記移動する仮想マシンに関する過去の機器情報及び過去の入出力データ量が記憶されており、
前記予測値算出部は、
移動前の前記仮想マシンを実行している物理サーバにおける前記過去の機器情報が、当該機器情報の機器の性能の限界値を超えていない限界値未満である時間の取得、前記取得した時間における前記過去の入出力データ量の取得、前記取得した過去の入出力データ量における、前記時間との関係式の算出、お前記関係式を基にした所定の時間における入出力データ量の算出、および当該算出した入出力データ量を、前記予測入出力データ量とする機能を
さらに有することを特徴とする請求項9に記載の管理サーバ。 - 前記記憶デバイスは、前記記憶デバイス間の階層構造を有しており
前記検索部は、
前記記許容入出力データ量が、前記予測入出力データ量を下回る記憶デバイスを検索する際に、当該記憶デバイスが所属する階層におけるストレージ装置で検索を行い、当該階層におけるストレージ装置で、前記予測入出力データ量を下回る記憶デバイスが検出できなかった場合、上位の階層に属すストレージ装置を検索する機能を
さらに有することを特徴とする請求項9に記載の管理サーバ。 - 入出力部を介して、前記仮想マシンの移動先物理サーバにおけるCPU割当量と、メモリ割当量と、を設定することが可能な
ことを特徴とする請求項9に記載の管理サーバ。 - 前記予測値算出部は、
前記予測入出力データ量を基に、前記仮想マシンが使用している記憶デバイスにおける入出力データの制限値を設定する機能を
さらに備え
前記検索部は、
前記物理サーバによる前記仮想マシンの移動後、前記仮想マシンの入出力データ量を監視し、前記仮想マシンの入出力データ量が、前記制限値を超えた場合、前記許容入出力データ量が、前記予測入出力データ量を下回る記憶デバイスを検索する機能を
さらに有することを特徴とする請求項9に記載の管理サーバ。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008282267A JP2010108409A (ja) | 2008-10-31 | 2008-10-31 | ストレージ管理方法及び管理サーバ |
US12/352,854 US8122116B2 (en) | 2008-10-31 | 2009-01-13 | Storage management method and management server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008282267A JP2010108409A (ja) | 2008-10-31 | 2008-10-31 | ストレージ管理方法及び管理サーバ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010108409A true JP2010108409A (ja) | 2010-05-13 |
Family
ID=42132816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008282267A Pending JP2010108409A (ja) | 2008-10-31 | 2008-10-31 | ストレージ管理方法及び管理サーバ |
Country Status (2)
Country | Link |
---|---|
US (1) | US8122116B2 (ja) |
JP (1) | JP2010108409A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012093842A (ja) * | 2010-10-25 | 2012-05-17 | Sanken Electric Co Ltd | 電源装置およびプログラム |
WO2012120664A1 (ja) * | 2011-03-09 | 2012-09-13 | 株式会社日立製作所 | 仮想計算機のマイグレーション評価方法及び仮想計算機システム |
JP2012226427A (ja) * | 2011-04-15 | 2012-11-15 | Hitachi Ltd | リソース管理方法及び計算機システム |
JP2013069214A (ja) * | 2011-09-26 | 2013-04-18 | Fujitsu Ltd | ストレージシステム |
WO2013061375A1 (en) | 2011-10-27 | 2013-05-02 | Hitachi, Ltd. | Storage system and its management method |
JP2013093053A (ja) * | 2010-08-09 | 2013-05-16 | Sanken Electric Co Ltd | 電源装置、プログラムおよび制御方法 |
WO2013108386A1 (ja) * | 2012-01-19 | 2013-07-25 | 株式会社日立製作所 | 計算機システムの管理方法、計算機システム及び記憶媒体 |
JP2013206103A (ja) * | 2012-03-28 | 2013-10-07 | Nec Corp | 仮想化システム、管理用ホスト計算機、ストレージシステムのファームウェアアップデート方法、及びストレージシステムのファームウェアアップデートプログラム |
EP2648127A1 (en) | 2012-03-29 | 2013-10-09 | Fujitsu Limited | Access control method, server device, and storage device |
JP2014063324A (ja) * | 2012-09-20 | 2014-04-10 | Fujitsu Ltd | 情報処理方法、情報処理装置、及びプログラム。 |
WO2014199586A1 (en) * | 2013-06-12 | 2014-12-18 | International Business Machines Corporation | Implementing capacity and user-based resource allocation for a shared adapter in a virtualized system |
JP2015534663A (ja) * | 2012-08-14 | 2015-12-03 | アルカテル−ルーセント | トラフィック・reアウェア・スロット配置を提供するための方法および装置 |
JP2016045682A (ja) * | 2014-08-22 | 2016-04-04 | 日本電信電話株式会社 | サーバ |
WO2016121005A1 (ja) * | 2015-01-27 | 2016-08-04 | 株式会社日立製作所 | 管理計算機および計算機システムの管理方法 |
WO2017216891A1 (ja) * | 2016-06-15 | 2017-12-21 | 株式会社日立製作所 | 計算機システム、計算機システムの制御方法、及びプログラム |
KR101816718B1 (ko) | 2016-09-22 | 2018-02-22 | 고려대학교 산학협력단 | Cpu 네트워크 통합 스케줄링 시스템 및 그 제어방법 |
JP2019021315A (ja) * | 2017-07-19 | 2019-02-07 | 三星電子株式会社Samsung Electronics Co.,Ltd. | オートティアリングを遂行するためのシステム、その方法、及び実行のための命令語が記録された記録媒体 |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7675854B2 (en) | 2006-02-21 | 2010-03-09 | A10 Networks, Inc. | System and method for an adaptive TCP SYN cookie with time validation |
US8099487B1 (en) * | 2006-07-06 | 2012-01-17 | Netapp, Inc. | Systems and methods for determining placement of virtual machines |
US8584199B1 (en) | 2006-10-17 | 2013-11-12 | A10 Networks, Inc. | System and method to apply a packet routing policy to an application session |
US8312507B2 (en) | 2006-10-17 | 2012-11-13 | A10 Networks, Inc. | System and method to apply network traffic policy to an application session |
JP5476764B2 (ja) * | 2009-03-30 | 2014-04-23 | 富士通株式会社 | サーバ装置、計算機システム、プログラム及び仮想計算機移動方法 |
US8359594B1 (en) * | 2009-06-30 | 2013-01-22 | Sychron Advanced Technologies, Inc. | Automated rapid virtual machine provisioning system |
KR101644569B1 (ko) * | 2009-10-01 | 2016-08-01 | 삼성전자 주식회사 | 가상 프로세서 관리 장치 및 방법 |
US20120198063A1 (en) * | 2009-10-09 | 2012-08-02 | Nec Corporation | Virtual server system, autonomous control server thereof, and data processing method and computer program thereof |
US8301860B2 (en) * | 2009-10-16 | 2012-10-30 | International Business Machines Corporation | Identifying dynamically changing virtual storage devices |
US9960967B2 (en) | 2009-10-21 | 2018-05-01 | A10 Networks, Inc. | Determining an application delivery server based on geo-location information |
US8245140B2 (en) * | 2009-12-31 | 2012-08-14 | International Business Machines Corporation | Visualization and consolidation of virtual machines in a virtualized data center |
US9135031B1 (en) * | 2010-04-28 | 2015-09-15 | Netapp, Inc. | System and method for determining storage resources of a virtual machine in a virtual server environment |
US9215275B2 (en) | 2010-09-30 | 2015-12-15 | A10 Networks, Inc. | System and method to balance servers based on server load status |
US8489827B2 (en) * | 2010-10-28 | 2013-07-16 | Hewlett-Packard Development Company, L.P. | Method and system for storage-system management |
US8959220B2 (en) | 2010-11-02 | 2015-02-17 | International Business Machines Corporation | Managing a workload of a plurality of virtual servers of a computing environment |
US9253016B2 (en) * | 2010-11-02 | 2016-02-02 | International Business Machines Corporation | Management of a data network of a computing environment |
US8966020B2 (en) | 2010-11-02 | 2015-02-24 | International Business Machines Corporation | Integration of heterogeneous computing systems into a hybrid computing system |
US9081613B2 (en) | 2010-11-02 | 2015-07-14 | International Business Machines Corporation | Unified resource manager providing a single point of control |
US8984109B2 (en) | 2010-11-02 | 2015-03-17 | International Business Machines Corporation | Ensemble having one or more computing systems and a controller thereof |
EP2458501A1 (en) * | 2010-11-30 | 2012-05-30 | France Telecom | Method of operating a communication device and related communication device |
US9609052B2 (en) | 2010-12-02 | 2017-03-28 | A10 Networks, Inc. | Distributing application traffic to servers based on dynamic service response time |
US8863138B2 (en) * | 2010-12-22 | 2014-10-14 | Intel Corporation | Application service performance in cloud computing |
US8897154B2 (en) | 2011-10-24 | 2014-11-25 | A10 Networks, Inc. | Combining stateless and stateful server load balancing |
US9386088B2 (en) | 2011-11-29 | 2016-07-05 | A10 Networks, Inc. | Accelerating service processing using fast path TCP |
US9094364B2 (en) | 2011-12-23 | 2015-07-28 | A10 Networks, Inc. | Methods to manage services over a service gateway |
US10044582B2 (en) | 2012-01-28 | 2018-08-07 | A10 Networks, Inc. | Generating secure name records |
US8838887B1 (en) * | 2012-03-30 | 2014-09-16 | Emc Corporation | Drive partitioning for automated storage tiering |
US9503517B1 (en) * | 2012-05-07 | 2016-11-22 | Amazon Technologies, Inc. | Data volume placement techniques |
US9348724B2 (en) * | 2012-05-21 | 2016-05-24 | Hitachi, Ltd. | Method and apparatus for maintaining a workload service level on a converged platform |
US8959383B2 (en) * | 2012-06-13 | 2015-02-17 | Microsoft Corporation | Failover estimation using contradiction |
US8782221B2 (en) * | 2012-07-05 | 2014-07-15 | A10 Networks, Inc. | Method to allocate buffer for TCP proxy session based on dynamic network conditions |
US10019287B1 (en) * | 2012-08-23 | 2018-07-10 | Scale Computing | Virtual machine resource display |
US10021174B2 (en) | 2012-09-25 | 2018-07-10 | A10 Networks, Inc. | Distributing service sessions |
JP2015534769A (ja) | 2012-09-25 | 2015-12-03 | エイ10 ネットワークス インコーポレイテッドA10 Networks, Inc. | データネットワークにおける負荷分散 |
US9843484B2 (en) | 2012-09-25 | 2017-12-12 | A10 Networks, Inc. | Graceful scaling in software driven networks |
US10002141B2 (en) | 2012-09-25 | 2018-06-19 | A10 Networks, Inc. | Distributed database in software driven networks |
GB2506623A (en) * | 2012-10-04 | 2014-04-09 | Ibm | Managing user files in a tiered storage system |
US20140122825A1 (en) * | 2012-10-30 | 2014-05-01 | Hitachi, Ltd. | Computer system and method for updating configuration information |
US9338225B2 (en) | 2012-12-06 | 2016-05-10 | A10 Networks, Inc. | Forwarding policies on a virtual service network |
US9208051B2 (en) * | 2012-12-26 | 2015-12-08 | Bmc Software, Inc. | Automatic creation of graph time layer of model of computer network objects and relationships |
US9531846B2 (en) | 2013-01-23 | 2016-12-27 | A10 Networks, Inc. | Reducing buffer usage for TCP proxy session based on delayed acknowledgement |
US9900252B2 (en) | 2013-03-08 | 2018-02-20 | A10 Networks, Inc. | Application delivery controller and global server load balancer |
WO2014144837A1 (en) | 2013-03-15 | 2014-09-18 | A10 Networks, Inc. | Processing data packets using a policy based network path |
US10027761B2 (en) | 2013-05-03 | 2018-07-17 | A10 Networks, Inc. | Facilitating a secure 3 party network session by a network device |
WO2014179753A2 (en) | 2013-05-03 | 2014-11-06 | A10 Networks, Inc. | Facilitating secure network traffic by an application delivery controller |
US9400704B2 (en) | 2013-06-12 | 2016-07-26 | Globalfoundries Inc. | Implementing distributed debug data collection and analysis for a shared adapter in a virtualized system |
US9304849B2 (en) | 2013-06-12 | 2016-04-05 | International Business Machines Corporation | Implementing enhanced error handling of a shared adapter in a virtualized system |
US9720775B2 (en) | 2013-06-12 | 2017-08-01 | International Business Machines Corporation | Implementing concurrent adapter firmware update for an SRIOV adapter in a virtualized system |
US9323620B2 (en) | 2013-06-12 | 2016-04-26 | International Business Machines Corporation | Implementing shared adapter configuration updates concurrent with maintenance actions in a virtualized system |
US9317317B2 (en) | 2013-06-12 | 2016-04-19 | International Business Machines Corporation | Implementing concurrent device driver maintenance and recovery for an SRIOV adapter in a virtualized system |
US10230770B2 (en) | 2013-12-02 | 2019-03-12 | A10 Networks, Inc. | Network proxy layer for policy-based application proxies |
WO2015083282A1 (ja) * | 2013-12-06 | 2015-06-11 | 株式会社日立製作所 | 計算機および負荷測定方法 |
US9817683B2 (en) * | 2014-01-10 | 2017-11-14 | Dell Products, Lp | Optimized remediation policy in a virtualized environment |
US10020979B1 (en) | 2014-03-25 | 2018-07-10 | A10 Networks, Inc. | Allocating resources in multi-core computing environments |
US9942152B2 (en) | 2014-03-25 | 2018-04-10 | A10 Networks, Inc. | Forwarding data packets using a service-based forwarding policy |
US9942162B2 (en) | 2014-03-31 | 2018-04-10 | A10 Networks, Inc. | Active application response delay time |
US9052938B1 (en) | 2014-04-15 | 2015-06-09 | Splunk Inc. | Correlation and associated display of virtual machine data and storage performance data |
US9806943B2 (en) | 2014-04-24 | 2017-10-31 | A10 Networks, Inc. | Enabling planned upgrade/downgrade of network devices without impacting network sessions |
US9906422B2 (en) | 2014-05-16 | 2018-02-27 | A10 Networks, Inc. | Distributed system to determine a server's health |
US9992229B2 (en) | 2014-06-03 | 2018-06-05 | A10 Networks, Inc. | Programming a data network device using user defined scripts with licenses |
US10129122B2 (en) | 2014-06-03 | 2018-11-13 | A10 Networks, Inc. | User defined objects for network devices |
US9986061B2 (en) | 2014-06-03 | 2018-05-29 | A10 Networks, Inc. | Programming a data network device using user defined scripts |
US10430219B2 (en) * | 2014-06-06 | 2019-10-01 | Yokogawa Electric Corporation | Configuring virtual machines in a cloud computing platform |
US9286104B1 (en) * | 2015-01-05 | 2016-03-15 | International Business Machines Corporation | Selecting virtual machines to be relocated based on memory volatility |
US11336519B1 (en) * | 2015-03-10 | 2022-05-17 | Amazon Technologies, Inc. | Evaluating placement configurations for distributed resource placement |
US10581976B2 (en) | 2015-08-12 | 2020-03-03 | A10 Networks, Inc. | Transmission control of protocol state exchange for dynamic stateful service insertion |
US10243791B2 (en) | 2015-08-13 | 2019-03-26 | A10 Networks, Inc. | Automated adjustment of subscriber policies |
US10318288B2 (en) | 2016-01-13 | 2019-06-11 | A10 Networks, Inc. | System and method to process a chain of network applications |
US10440153B1 (en) * | 2016-02-08 | 2019-10-08 | Microstrategy Incorporated | Enterprise health score and data migration |
US10713072B1 (en) * | 2016-06-27 | 2020-07-14 | Amazon Technologies, Inc. | Computing resource provisioning |
US10389835B2 (en) | 2017-01-10 | 2019-08-20 | A10 Networks, Inc. | Application aware systems and methods to process user loadable network applications |
US10540202B1 (en) * | 2017-09-28 | 2020-01-21 | EMC IP Holding Company LLC | Transient sharing of available SAN compute capability |
US10795598B1 (en) | 2017-12-07 | 2020-10-06 | Pure Storage, Inc. | Volume migration for storage systems synchronously replicating a dataset |
US10776173B1 (en) | 2018-04-30 | 2020-09-15 | Amazon Technologies, Inc. | Local placement of resource instances in a distributed system |
US11637748B2 (en) | 2019-08-28 | 2023-04-25 | Microstrategy Incorporated | Self-optimization of computing environments |
US11210189B2 (en) | 2019-08-30 | 2021-12-28 | Microstrategy Incorporated | Monitoring performance of computing systems |
US11360881B2 (en) | 2019-09-23 | 2022-06-14 | Microstrategy Incorporated | Customizing computer performance tests |
US20230004432A1 (en) * | 2021-06-30 | 2023-01-05 | Salesforce.Com, Inc. | Tenant-Level Monitoring |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004199561A (ja) * | 2002-12-20 | 2004-07-15 | Hitachi Ltd | 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム |
JP2006164169A (ja) * | 2004-12-10 | 2006-06-22 | Hitachi Ltd | 名前空間を共有するクラスタ構成のネットワークストレージシステム及びその制御方法 |
JP2006228188A (ja) * | 2005-02-14 | 2006-08-31 | Hitachi Ltd | ストレージシステムの負荷を動的にバランスさせる方法 |
JP2007094473A (ja) * | 2005-09-27 | 2007-04-12 | Hitachi Ltd | ストレージシステムにおけるファイルシステムマイグレーション |
JP2007148469A (ja) * | 2005-11-24 | 2007-06-14 | Hitachi Ltd | ビジネスプロセス定義を用いた事前リソース割り当て方法 |
JP2007280099A (ja) * | 2006-04-07 | 2007-10-25 | Hitachi Ltd | 共通名前空間においてディレクトリ単位のマイグレーションを実行するシステム及び方法 |
US20080270564A1 (en) * | 2007-04-25 | 2008-10-30 | Microsoft Corporation | Virtual machine migration |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6802062B1 (en) * | 1997-04-01 | 2004-10-05 | Hitachi, Ltd. | System with virtual machine movable between virtual machine systems and control method |
US6480862B1 (en) * | 1999-04-23 | 2002-11-12 | International Business Machines Corporation | Relation-based ordering of objects in an object heap |
JP2005234834A (ja) * | 2004-02-19 | 2005-09-02 | Hitachi Ltd | 論理ボリュームの再配置方法 |
US7886299B2 (en) * | 2004-06-01 | 2011-02-08 | Hitachi, Ltd. | Method of dynamically balancing workload of a storage system |
CA2486103A1 (en) * | 2004-10-26 | 2006-04-26 | Platespin Ltd. | System and method for autonomic optimization of physical and virtual resource use in a data center |
US7607129B2 (en) * | 2005-04-07 | 2009-10-20 | International Business Machines Corporation | Method and apparatus for using virtual machine technology for managing parallel communicating applications |
JP4775846B2 (ja) * | 2006-03-20 | 2011-09-21 | 株式会社日立製作所 | 物理リンクの割当てを制御するコンピュータシステム及び方法 |
US8291411B2 (en) * | 2007-05-21 | 2012-10-16 | International Business Machines Corporation | Dynamic placement of virtual machines for managing violations of service level agreements (SLAs) |
US7966614B2 (en) * | 2007-07-24 | 2011-06-21 | International Business Machines Corporation | Controlling an availability policy for a virtual machine based on changes in a real world environment |
US8880797B2 (en) * | 2007-09-05 | 2014-11-04 | Emc Corporation | De-duplication in a virtualized server environment |
US8191063B2 (en) * | 2007-09-30 | 2012-05-29 | Symantex Corporation | Method for migrating a plurality of virtual machines by associating files and state information with a single logical container |
US8015232B2 (en) * | 2007-10-11 | 2011-09-06 | Roaming Keyboards Llc | Thin terminal computer architecture utilizing roaming keyboard files |
US20090150700A1 (en) * | 2007-12-06 | 2009-06-11 | International Business Machines Corporation | Method of controlling power to a plurality of servers |
JP4894745B2 (ja) * | 2007-12-14 | 2012-03-14 | 富士通株式会社 | 仮想マシン移動制御方式 |
JP5223596B2 (ja) * | 2008-10-30 | 2013-06-26 | 富士通株式会社 | 仮想計算機システム及びその管理方法、管理プログラム並びに記録媒体、制御方法 |
-
2008
- 2008-10-31 JP JP2008282267A patent/JP2010108409A/ja active Pending
-
2009
- 2009-01-13 US US12/352,854 patent/US8122116B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004199561A (ja) * | 2002-12-20 | 2004-07-15 | Hitachi Ltd | 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム |
JP2006164169A (ja) * | 2004-12-10 | 2006-06-22 | Hitachi Ltd | 名前空間を共有するクラスタ構成のネットワークストレージシステム及びその制御方法 |
JP2006228188A (ja) * | 2005-02-14 | 2006-08-31 | Hitachi Ltd | ストレージシステムの負荷を動的にバランスさせる方法 |
JP2007094473A (ja) * | 2005-09-27 | 2007-04-12 | Hitachi Ltd | ストレージシステムにおけるファイルシステムマイグレーション |
JP2007148469A (ja) * | 2005-11-24 | 2007-06-14 | Hitachi Ltd | ビジネスプロセス定義を用いた事前リソース割り当て方法 |
JP2007280099A (ja) * | 2006-04-07 | 2007-10-25 | Hitachi Ltd | 共通名前空間においてディレクトリ単位のマイグレーションを実行するシステム及び方法 |
US20080270564A1 (en) * | 2007-04-25 | 2008-10-30 | Microsoft Corporation | Virtual machine migration |
JP2010527056A (ja) * | 2007-04-25 | 2010-08-05 | マイクロソフト コーポレーション | 仮想マシン移行 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013093053A (ja) * | 2010-08-09 | 2013-05-16 | Sanken Electric Co Ltd | 電源装置、プログラムおよび制御方法 |
JP2012093842A (ja) * | 2010-10-25 | 2012-05-17 | Sanken Electric Co Ltd | 電源装置およびプログラム |
WO2012120664A1 (ja) * | 2011-03-09 | 2012-09-13 | 株式会社日立製作所 | 仮想計算機のマイグレーション評価方法及び仮想計算機システム |
JP5577453B2 (ja) * | 2011-03-09 | 2014-08-20 | 株式会社日立製作所 | 仮想計算機のマイグレーション評価方法及び仮想計算機システム |
JPWO2012120664A1 (ja) * | 2011-03-09 | 2014-07-07 | 株式会社日立製作所 | 仮想計算機のマイグレーション評価方法及び仮想計算機システム |
JP2012226427A (ja) * | 2011-04-15 | 2012-11-15 | Hitachi Ltd | リソース管理方法及び計算機システム |
JP2013069214A (ja) * | 2011-09-26 | 2013-04-18 | Fujitsu Ltd | ストレージシステム |
US8578178B2 (en) | 2011-10-27 | 2013-11-05 | Hitachi, Ltd. | Storage system and its management method |
WO2013061375A1 (en) | 2011-10-27 | 2013-05-02 | Hitachi, Ltd. | Storage system and its management method |
WO2013108386A1 (ja) * | 2012-01-19 | 2013-07-25 | 株式会社日立製作所 | 計算機システムの管理方法、計算機システム及び記憶媒体 |
US9400761B2 (en) | 2012-01-19 | 2016-07-26 | Hitachi, Ltd. | Management method for computer system, computer system, and non-transitory computer-readable storage medium |
JPWO2013108386A1 (ja) * | 2012-01-19 | 2015-05-11 | 株式会社日立製作所 | 計算機システムの管理方法、計算機システム及び記憶媒体 |
JP2013206103A (ja) * | 2012-03-28 | 2013-10-07 | Nec Corp | 仮想化システム、管理用ホスト計算機、ストレージシステムのファームウェアアップデート方法、及びストレージシステムのファームウェアアップデートプログラム |
US9276824B2 (en) | 2012-03-29 | 2016-03-01 | Fujitsu Limited | Access control method, server device, and storage device |
EP2648127A1 (en) | 2012-03-29 | 2013-10-09 | Fujitsu Limited | Access control method, server device, and storage device |
JP2015534663A (ja) * | 2012-08-14 | 2015-12-03 | アルカテル−ルーセント | トラフィック・reアウェア・スロット配置を提供するための方法および装置 |
US9378032B2 (en) | 2012-09-20 | 2016-06-28 | Fujitsu Limited | Information processing method, information processing apparatus, recording medium, and system |
JP2014063324A (ja) * | 2012-09-20 | 2014-04-10 | Fujitsu Ltd | 情報処理方法、情報処理装置、及びプログラム。 |
WO2014199586A1 (en) * | 2013-06-12 | 2014-12-18 | International Business Machines Corporation | Implementing capacity and user-based resource allocation for a shared adapter in a virtualized system |
JP2016045682A (ja) * | 2014-08-22 | 2016-04-04 | 日本電信電話株式会社 | サーバ |
WO2016121005A1 (ja) * | 2015-01-27 | 2016-08-04 | 株式会社日立製作所 | 管理計算機および計算機システムの管理方法 |
WO2017216891A1 (ja) * | 2016-06-15 | 2017-12-21 | 株式会社日立製作所 | 計算機システム、計算機システムの制御方法、及びプログラム |
JPWO2017216891A1 (ja) * | 2016-06-15 | 2018-12-06 | 株式会社日立製作所 | 計算機システム、計算機システムの制御方法、及びプログラム |
KR101816718B1 (ko) | 2016-09-22 | 2018-02-22 | 고려대학교 산학협력단 | Cpu 네트워크 통합 스케줄링 시스템 및 그 제어방법 |
JP2019021315A (ja) * | 2017-07-19 | 2019-02-07 | 三星電子株式会社Samsung Electronics Co.,Ltd. | オートティアリングを遂行するためのシステム、その方法、及び実行のための命令語が記録された記録媒体 |
JP7063756B2 (ja) | 2017-07-19 | 2022-05-09 | 三星電子株式会社 | オートティアリングを遂行するためのシステム、その方法、及び実行のための命令語が記録された記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20100115049A1 (en) | 2010-05-06 |
US8122116B2 (en) | 2012-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010108409A (ja) | ストレージ管理方法及び管理サーバ | |
JP4749140B2 (ja) | データマイグレーション方法及びシステム | |
JP5123641B2 (ja) | 性能履歴の管理方法および性能履歴の管理システム | |
US8694727B2 (en) | First storage control apparatus and storage system management method | |
JP5117120B2 (ja) | ストレージ装置のボリュームを管理する計算機システム、方法及びプログラム | |
JP5395962B2 (ja) | 計算機システム、及びその管理方法、並びに、プログラム | |
JP4631301B2 (ja) | 記憶装置のキャッシュ管理方法 | |
US8706963B2 (en) | Storage managing system, computer system, and storage managing method | |
JP5427011B2 (ja) | 仮想ハードディスクの管理サーバおよび管理方法、管理プログラム | |
US8549528B2 (en) | Arrangements identifying related resources having correlation with selected resource based upon a detected performance status | |
JP5577412B2 (ja) | 計算機システム、マイグレーション方法及び管理サーバ | |
JP4684864B2 (ja) | 記憶装置システム及び記憶制御方法 | |
US20130311740A1 (en) | Method of data migration and information storage system | |
WO2011052005A1 (en) | Storage controller and storage control method for dynamically assigning partial areas of pool area as data storage areas | |
US9354914B2 (en) | Storage system | |
JP2007058637A (ja) | ストレージシステム、管理計算機及びデータ移動方法 | |
JP2008108020A (ja) | 計算機システム、データ移行方法、およびストレージ管理サーバ | |
JP5585235B2 (ja) | ストレージ制御装置、ストレージ制御方法、ストレージシステム | |
JP2005038071A (ja) | ストレージの容量を最適化する管理方法 | |
JPWO2011117925A1 (ja) | ストレージ装置及びその制御方法 | |
JP2016118821A (ja) | ストレージ管理装置、ストレージ管理方法およびストレージ管理プログラム | |
JP2010055209A (ja) | 論理ボリュームのデータ移動方法とストレージシステムおよび管理計算機 | |
JP5597266B2 (ja) | ストレージシステム | |
JP2011070464A (ja) | 計算機システム及び計算機システムの性能管理方法 | |
JP5235154B2 (ja) | 管理装置および管理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101029 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101207 |