JP2013045444A - データセンタ内のリソースの使用効率を改善するための方法及び装置 - Google Patents

データセンタ内のリソースの使用効率を改善するための方法及び装置 Download PDF

Info

Publication number
JP2013045444A
JP2013045444A JP2012073308A JP2012073308A JP2013045444A JP 2013045444 A JP2013045444 A JP 2013045444A JP 2012073308 A JP2012073308 A JP 2012073308A JP 2012073308 A JP2012073308 A JP 2012073308A JP 2013045444 A JP2013045444 A JP 2013045444A
Authority
JP
Japan
Prior art keywords
virtual machine
virtual
volume
data center
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012073308A
Other languages
English (en)
Other versions
JP5840548B2 (ja
Inventor
Hironori Emaru
裕教 江丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JP2013045444A publication Critical patent/JP2013045444A/ja
Application granted granted Critical
Publication of JP5840548B2 publication Critical patent/JP5840548B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】データセンタ内のリソースの使用効率を改善する。
【解決手段】リソースの使用管理方法は、第1のストレージサブシステムが、第2のストレージサブシステムの物理ボリュームを使用する仮想ボリューム又はストレージプールを含む場合は、第1のストレージサブシステムに物理ボリュームを移行することと、任意のストレージサブシステムが、物理ボリュームから直接作成された仮想ボリュームを含む場合は、ストレージサブシステムのストレージプールから提供される別の仮想ボリュームに仮想ボリュームを移行することと、すべての仮想ボリュームが事前設定されたサービスレベル目標を満たさない場合は、最小の仮想マシンディスクファイルを有する仮想マシン、最大空き領域を有するストレージプールを有するストレージサブシステムの仮想ボリュームを選択し、選択された仮想マシンのディスクファイルを、選択された仮想ボリュームに移行することとを含む。
【選択図】図1

Description

0001 本発明は概してストレージシステムに関し、特に、データセンタ内のリソースの使用効率を改善するための方法及び装置に関する。
0002 仮想化技術は、データセンタにおいて十分に発達してきた。仮想化サーバ及び仮想化アプリケーションは、サーバやストレージなどの物理リソースの制限を考慮せずに使用することができる。データセンタの構成において、データセンタの構成要素は、スケールアウト構造を有する傾向がある。これらの構成要素は、一般に高速インターコネクトによって接続される。複数のデータセンタが協働して、データセンタの連合体を形成する。データセンタの運用では、セルフサービスポータルが主流になってきている。リソースプロビジョニングは、IT管理者ではなくサービスのユーザによって行われる。コンピューティングリソース及びストレージリソースは、リソースプールを提供する。サービスのユーザは、柔軟な方法でプールから自身のリソースを供給することができる。例えば、米国特許第2010/0040058号は、仮想化環境におけるサーバリソースプールを開示する。デプロイの頻度及びアンデプロイの頻度は、特にテスト及び開発の環境で増す。米国特許第2010/0312893号もまた、仮想化環境におけるサーバリソースプールを開示する。米国特許第2010/0058009号は、自動リソース割り当てを行うストレージシステムにおけるストレージリソースプールを開示する。
0003 仮想化技術の発展に関して、オーバー・プロビジョニングが一般的になってきた。ユーザは、物理リソースの量を超えるリソースを供給することができる。この傾向は、例えば、シンプロビジョニング技術によって支えられている。ストレージデバイスのための自動オンライン容量拡張方法については、例えば、米国特許第2004/0162958号を参照して下さい。他の傾向には、仮想サーバのホットマイグレーション(例えばVMware VMotion)や仮想マシンディスクファイルのライブ移行(例えばVMware
Storage VMotion)などがある。いくつかのストレージシステムは、他のストレージサブシステムのストレージリソース(例えば外部ストレージ仮想化)を使用することができる。米国特許第2004/0143832号は、このような外部ストレージ仮想化機能を開示しており、これによって新しいストレージユニットが、設置費用を抑え、新しいストレージユニットの機能を十分に利用することができるように設置される。いくつかのストレージサブシステムは、他のストレージのリソースを一時的にリースすることができる(例えば外部ストレージ仮想化の強化)。米国特許第2009/0157984号は、このような外部ストレージ仮想化の強化を開示しており、これによってストレージシステムは仮想ポートを提供し、ストレージシステムを構成する複数のストレージ制御ユニットに位置する物理ポートの間で仮想ポートを転送することができる。
0004 様々なリソースが一つのデータセンタ内に共存して、異種環境を作り出す。例えば、ITリソースの様々な性能が一つのデータセンタ内に混在する。HDDに加えて、SSDが新しい記憶媒体として使用される。各リソースの接続が異なり得る。高速インターコネクトを介して接続されるリソースもあるが、そうではないリソースもある。運用の自動化に関して、リソースが管理者によってではなく、ユーザによって供給される。性能のチューニングが自動化される。
0005 現在のアプローチには問題がある。プロビジョニング、アンプロビジョニング、リソースの追加、仮想サーバのホットマイグレーション、及び仮想マシンファイルディスクのライブ移行などの様々な運用が、様々な管理者及びユーザによって実行される。データセンタ内のリソースの使用における効率が下がる。例えば、いくつかの仮想マシンは、別のラックのストレージリソースを使用し得る。仮想化環境を監視するために検出することは難しい。その結果、高性能リソースが優先度の低いアプリケーションのために使用される、いくつかの仮想マシンがSLO(サービスレベル目標)を維持することができない、インターコネクトの帯域幅が短くなるなどの問題が生じ得る。
0006 本発明の例示的な実施形態は、データセンタ内のリソースの使用の効率を改善する。提案されるアプローチは、仮想化リソースの物理構成をチェックし、非効率的な構成を特定する。次に、データセンタ内のリソースの使用効率を改善する移行プランを提供し、プランがサービスレベル目標を達成する場合は、プランを実行する。このアプローチは、データセンタにおけるサーバ又はストレージのファームウェアの効率的なデプロイのために使用される。それはまた、データセンタにおける仮想マシン又はアプリケーションのパスの効率的なデプロイのためにも使用される。
0007 本発明の一様態は、複数のサーバと複数のストレージサブシステムとを含むデータセンタ内のリソースの使用管理方法を対象とし、各サーバは、少なくとも一つの仮想マシンと、当該少なくとも一つの仮想マシンによって使用される少なくとも一つのファイルシステムとを含み、各ストレージサブシステムは、仮想ボリュームと、物理ボリュームと、ストレージプールとを含む。前記方法は、前記複数のストレージサブシステムのうちの第1のストレージサブシステムが、前記複数のストレージサブシステムのうちの第2のストレージサブシステムの物理ボリュームを使用する仮想ボリューム又はストレージプールを含むか否かを判断し、肯定結果が得られた場合は、前記第2のストレージサブシステムから前記第1のストレージサブシステムに前記物理ボリュームを移行することと、前記複数のストレージサブシステムのうちの任意の一つのストレージサブシステムが、物理ボリュームから直接作成された仮想ボリュームを含むか否かを判断し、肯定結果が得られた場合は、前記一つのストレージサブシステムの前記ストレージプールから提供された別の仮想ボリュームに、前記一つのストレージサブシステムの前記仮想ボリュームを移行することと、すべての前記仮想ボリュームが事前設定されたサービスレベル目標を満たすか否かを判断し、(i)否定結果が得られた場合は、最小の仮想マシンディスクファイルを有するとともに、移行されていない仮想マシンを選択し、かつ前記最小仮想マシンディスクファイルを含む前記ストレージサブシステムを除外しつつ、最大空き領域を有するストレージプールを選択し、そして、前記選択されたストレージプールを有する前記ストレージサブシステムの仮想ボリュームを選択し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記選択された仮想マシンの前記仮想マシンディスクファイルを前記選択された仮想ボリュームに移行し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルより小さい場合は、エラー通知を送信し、(ii)肯定結果が得られた場合は、前記データセンタ内のリソースの使用のために実行される前記移行のステップを含むプランを確認することとを含む。
0008 いくつかの実施形態では、前記判断のステップは、前記データセンタ内のリソースの使用を管理するために、前記判断のステップを実行する必要性を示すイベントが発生した後でのみ実行されるものであり、前記方法は、前記イベントが発生した後で、前記データセンタ内のリソースの使用を管理する際に使用される前記サーバ及び前記ストレージサブシステムの構成情報を収集することをさらに含む。
0009 特定の実施形態では、前記データセンタは、複数の統合プラットフォームを含み、各統合プラットフォームは、インターコネクトを介して結合された少なくとも一つのサーバと少なくとも一つのストレージサブシステムとを有する。前記第1及び第2のストレージサブシステムが、異なる統合プラットフォームに配置される場合のみ、前記物理ボリュームは、前記第2のストレージサブシステムから前記第1のストレージサブシステムに移行される。前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記統合プラットフォームに移行する。前記方法は、任意の仮想マシンと、当該仮想マシンの仮想マシンディスクファイルを格納するための対応する仮想ボリュームとが、当該対応する仮想ボリュームのための前記統合プラットフォームとは異なる統合プラットフォーム上で前記仮想マシンが実行されるように、異なる統合プラットフォーム上にデプロイされているか否かを判断し、肯定結果が得られた場合は、前記仮想マシン及び前記対応する仮想ボリュームによって使用される前記ファイルシステムを同じ統合プラットフォーム内に配置するように移行を実行することをさらに含む。移行の実行は、(1)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンのライブ移行機能を有し、かつ前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することができる場合、前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することと、(2)前記対応する仮想ボリュームのための前記ストレージサブシステムが、ライブボリューム移行機能を有し、かつ前記仮想マシンの前記同じ統合プラットフォームに前記対応する仮想ボリュームを移行することができる場合は、前記仮想マシンの前記同じ統合プラットフォームに前記対応する仮想ボリュームを移行することと、(3)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンディスクファイルのライブ移行機能を有し、かつ前記仮想マシンの前記同じ統合プラットフォームに前記仮想マシンの前記仮想マシンディスクファイルを移行することができる場合は、前記仮想マシンの前記同じ統合プラットフォームに前記仮想マシンディスクファイルを移行することとのうちの一つを含む。前記方法は、最小コストを有する(1)、(2)、及び(3)の移行のうちの一つを選択することをさらに含む。
0010 いくつかの実施形態では、複数のデータセンタが設けられ、各データセンタは、複数のサーバと複数のストレージサブシステムとを含む。前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記データセンタに移行する。
0011 特定の実施形態では、複数のデータセンタが設けられ、各データセンタは、複数のサーバと複数のストレージサブシステムとを含む。前記方法は、任意の仮想マシンと、当該仮想マシンの仮想マシンディスクファイルを格納するための対応する仮想ボリュームとが、当該対応する仮想ボリュームのための前記データセンタとは異なるデータセンタ上で前記仮想マシンが実行されるように、異なるデータセンタ上にデプロイされているか否かを判断し、肯定結果が得られた場合は、前記仮想マシン及び前記対応する仮想ボリュームによって使用される前記ファイルシステムを同じデータセンタ内に配置するように移行を実行することをさらに含む。移行の実行は、(1)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンのライブ移行機能を有し、かつ前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することができる場合、前記対応する仮想ボリュームの前記データセンタに前記仮想マシンを移行することと、(2)前記対応する仮想ボリュームのための前記ストレージサブシステムが、ライブボリューム移行機能を有し、かつ前記仮想マシンの前記同じデータセンタに前記対応する仮想ボリュームを移行することができる場合、前記仮想マシンの前記同じデータセンタに前記対応する仮想ボリュームを移行することと、(3)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンディスクファイルのライブ移行機能を有し、前記仮想マシンの前記同じデータセンタに前記仮想マシンの仮想マシンディスクファイルを移行することができる場合、前記仮想マシンの前記同じデータセンタに前記仮想マシンディスクファイルを移行することとのうちの一つを含む。前記方法は、最小コストを有する(1)、(2)、及び(3)の移行のうちの一つを選択することをさらに含む。
0012 本発明の他の態様は、複数のサーバと複数のストレージサブシステムとを含むデータセンタ内のリソースの使用管理装置を対象とし、各サーバは、少なくとも一つの仮想マシンと、当該少なくとも一つの仮想マシンによって使用される少なくとも一つのファイルシステムとを含み、各ストレージサブシステムは、仮想ボリュームと、物理ボリュームと、ストレージプールとを含む。前記管理装置は、プロセッサと、メモリと、効率改善モジュールとを備える。当該効率改善モジュールは、前記複数のストレージサブシステムのうちの第1のストレージサブシステムが、前記複数のストレージサブシステムのうちの第2のストレージサブシステムの物理ボリュームを使用する仮想ボリューム又はストレージプールを含むか否かを判断し、肯定結果が得られた場合は、前記第2のストレージサブシステムから前記第1のストレージサブシステムに前記物理ボリュームを移行し、前記複数のストレージサブシステムのうちの任意の一つのストレージサブシステムが、物理ボリュームから直接作成された仮想ボリュームを含むか否かを判断し、肯定結果が得られた場合は、前記一つのストレージサブシステムの前記ストレージプールから提供された別の仮想ボリュームに、前記一つのストレージサブシステムの前記仮想ボリュームを移行し、すべての前記仮想ボリュームが事前設定されたサービスレベル目標を満たすか否かを判断し、(i)否定結果が得られた場合は、最小の仮想マシンディスクファイルを有するとともに、移行されていない仮想マシンを選択し、かつ前記最小仮想マシンディスクファイルを含む前記ストレージサブシステムを除外しつつ、最大空き領域を有するストレージプールを選択し、そして、前記選択されたストレージプールを有する前記ストレージサブシステムの仮想ボリュームを選択し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記選択された仮想マシンの前記仮想マシンディスクファイルを前記選択された仮想ボリュームに移行し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルより小さい場合は、エラー通知を送信し、(ii)肯定結果が得られた場合は、前記データセンタ内のリソースの使用のために実行される前記移行のステップを含むプランを確認するように構成された、管理装置。
0013 いくつかの実施形態では、前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記効率改善モジュールは、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記統合プラットフォームに移行するように指示する。前記効率改善モジュールは、任意の仮想マシンと、当該仮想マシンの仮想マシンディスクファイルを格納するための対応する仮想ボリュームとが、当該対応する仮想ボリュームのための前記統合プラットフォームとは異なる統合プラットフォーム上で前記仮想マシンが実行されるように、異なる統合プラットフォーム上にデプロイされているか否かを判断し、肯定結果が得られた場合は、前記仮想マシン及び前記対応する仮想ボリュームによって使用される前記ファイルシステムを同じ統合プラットフォーム内に配置するように移行を実行するように指示する。
0014 特定の実施形態では、複数のデータセンタが設けられ、各データセンタは、複数のサーバと複数のストレージサブシステムとを含む。前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記効率改善モジュールは、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記データセンタに移行するように指示する。
0015 本発明の上記及びその他の特徴及び効果は、特定の実施形態についての以下の詳細な説明を考慮することにより、当業者にとって明らかとなるであろう。
0016 図1は、本発明の方法及び装置が第1の実施形態に従って適用され得るデータセンタシステムのハードウェア構成の一例を示す。 0017 図2は、データセンタの管理サーバの構成の一例を示す。 0018 図3は、データセンタのサーバの構成の一例を示す。 0019 図4は、データセンタのストレージサブシステムの構成の一例を示す。 0020 図5は、第1の実施形態に従ったデータセンタシステムの論理構成の一例を示す。 0021 図6は、第1の実施形態に従った管理サーバの構成情報テーブルの一例を示す。 0022 図7は、管理サーバのIOPSテーブルの一例を示す。 0023 図8は、管理サーバのプール構成テーブルの一例を示す。 0024 図9は、管理サーバの媒体性能テーブルの一例を示す。 0025 図10は、第1の実施形態に従った管理サーバの効率改善プログラムの流れ図の一例を示す。 0026 図11は、第1の実施形態に従った効率改善プログラムの実行後のデータセンタシステムの論理構成の一例を示す。 0027 図12は、第2の実施形態に従ったデータセンタシステムのハードウェア構成の一例を示す。 0028 図13は、第2の実施形態に従ったデータセンタシステムの論理構成の一例を示す。 0029 図14は、第2の実施形態に従った管理サーバの構成情報テーブルの一例を示す。 0030 図15は、第2の実施形態に従った管理サーバの効率改善プログラムの流れ図の一例です。 0031 図16は、第2の実施形態に従った効率改善プログラムの実行後のデータセンタシステムの論理構成の一例を示す。 0032 図17は、第2の実施形態に従ったマルチデータセンタシステムのハードウェア構成の一例を示す。 0033 図18は、第3の実施形態に従ったデータセンタシステムの論理構成の一例を示す。 0034 図19は、第3の実施形態に従った管理サーバの構成情報テーブルの一例を示す。 0035 図20は、第3の実施形態に従った管理サーバの効率改善プログラムの流れ図の一例を示す。 0036 図21は、第3の実施形態に従った効率改善プログラムの実行後のデータセンタシステムの論理構成の一例を示す。
0037 以下の本発明についての詳細な説明では、開示の一部を成すとともに、それによって本発明が実施され得る例示的実施形態が実例として(但し限定ではない)示される、添付の図面を参照する。当該図面において、類似の数字は、いくつかの図面を通してほぼ同様の構成要素を示すものである。また、留意すべき点として、詳細な説明では様々な例示的実施形態を提供する(以下に説明し、かつ図面で示される通り)が、本発明は本明細書において説明されかつ示される実施形態に限定されず、当業者が知っているであろう又は知るようになり得るその他の実施形態にも及び得る。本明細書における「一実施形態」、「本実施形態」、又は「上述の実施形態」の言及は、当該実施形態に関連して説明される特定の特性、構造又は特徴が、本発明の少なくとも一つの実施形態に含まれることを意味し、本明細書の様々な箇所において上記文言が使用されていても、必ずしもすべてが同一の実施形態を言及するものではない。さらに、以下の詳細な説明において、本発明を徹底して理解できるように、多くの具体的な詳細が記載されている。但し、本発明を実施するためにこれらの具体的な詳細すべてが必要なわけではないことは、当業者にとって明らかであろう。他の状況では、本発明を不必要に曖昧にしないように、周知の構造、材料、回路、プロセス及びインタフェースの詳細については説明しておらず、かつ/又はブロック図において図示している場合もある。
0038 さらに、以下の詳細な説明の一部は、コンピュータ内のオペレーションのアルゴリズム及び象徴的な態様に関して示されている。これらのアルゴリズム記述及び象徴的な態様は、データ処理分野の当業者がその新しいアイディアのエッセンスを最も効果的に他の当業者に伝えるために使用する手段である。アルゴリズムとは、望ましい最終状態又は結果へと導く一連の定義されたステップである。本発明において、実施されるステップは、具体的な結果を達成するための相当量の物理的操作を必要とする。通常は(必ずしもそうではないが)、当該数量は、格納、転送、組み合わせ、比較、その他の操作が可能な電気もしくは磁気信号又は命令の形態を取る。主に一般的な使用のために、上記の信号をビット、値、要素、記号、文字、用語、数字、命令等として言及することが時として便利であることが証明されている。但し、上記の及び類似の用語のすべてが、適切な物理数量に関連付けられるものであり、かつ当該数量に適用される単に便利なラベルであることを留意すべきである。別段の記載がない限り、以下の解説から明らかなように、当然のことながら説明全体を通して、「処理」、「演算」、「計算」、「判断」、「表示」等の用語を用いた解説は、コンピュータシステムのレジスタ及びメモリ内の物理的(電子的)数量として表わされるデータを、コンピュータシステムのメモリもしくはレジスタ又はその他の情報記憶、送信もしくは表示装置の中の物理的数量として同様に表わされるその他のデータに操作しかつ変換する、コンピュータシステム又はその他の情報処理装置の動作又はプロセスを含み得る。
0039 本発明は、本明細書における動作を実施する装置にも関する。この装置は、必要とされる目的のために特別に構築してもよく、又は一つ以上のコンピュータプログラムによって選択的に起動又は再構成された一つ以上の汎用コンピュータを含み得る。当該コンピュータプログラムは、光ディスク、磁気ディスク、読取専用記憶装置(ROM)、ランダムアクセスメモリ(RAM)、ソリッドステート装置及びドライブ、又は電子情報の格納に適したその他の種類の媒体等(但し、これらに限定されない)のコンピュータ読取可能記憶媒体に格納され得る。本明細書において示されるアルゴリズム及び(情報)提示は、特定のコンピュータ又はその他の装置に本質的に関係しているわけではない。様々な汎用システムを、本明細書における教示に従ってプログラム及びモジュールと共に使用してもよく、又は望ましい方法ステップを実施するためにより特化した装置を構築することが都合がよいということが判明するかもしれない。さらに、本発明は、特定のプログラミング言語を参照して説明されてはいない。当然のことながら、本明細書に記載されている通りに本発明の教示を実施するために、様々なプログラミング言語を使用してもよい。プログラミング言語の命令は、一つ以上の処理装置、例えば中央処理装置(CPU)、プロセッサ、又はコントローラによって実行され得る。
0040 以下により詳細に示す本発明の例示的実施形態は、データセンタ内のリソースの使用における効率を改善するための装置、方法及びコンピュータプログラムを提供する。
0041 第1の実施形態
0042 第1の実施形態は、データセンタ内のリソースの使用の効率を改善する方法を開示する。
0043 図1は、本発明の方法及び装置が第1の実施形態に従って適用され得るデータセンタシステムのハードウェア構成の一例を示す。データセンタ1100は、統合プラットフォーム1500及び管理サーバ1200を含む。統合プラットフォーム1500は、サーバ、ネットワーク、及びストレージをオールインワンに含むハードウェア構成の一つである。統合プラットフォーム1500は、サーバ1300、ストレージサブシステム1400、及びインターコネクト1510で構成される。複数の統合プラットフォーム1500は、データネットワーク1030を介して接続される。統合プラットフォーム1500と管理サーバ1200は、管理ネットワーク1020を介して接続される。本実施形態では、管理ネットワーク1020とデータネットワーク1030は別々である。この特定の構成は、本発明の範囲を限定しない。
0044 図2は、データセンタ1100の管理サーバ1020の構成の一例を示す。管理インタフェース1210は、管理ネットワーク1020へのインタフェースである。入出力装置1270は、モニタ、キーボード、マウスなどのユーザインタフェースである。ローカルディスク1260は、媒体性能テーブル5000及び効率改善プログラム1262を含む。効率改善プログラム1262は、メモリ1240にロードされ、プロセッサ1250によって実行される。効率改善プログラム1262の手順については後述する(図10を参照)。
0045 図3は、データセンタ1100のサーバ1300の構成の一例を示す。管理インタフェース1310は、管理ネットワーク1020へのインタフェースである。通信インタフェース1320は、データネットワーク1030へのインタフェースである。内部インタフェース1380は、インターコネクト1510へのインタフェースである。ローカルディスク1360は、仮想マシンマネージャ(VMM)1820−A1及び性能監視プログラム1362を含む。VMMは、メモリ1340にロードされ、プロセッサ1350によって実行される。本実施形態では、VMMは、ローカルディスク1360からロードされるが、本発明はこれに限定されない。例えば、VMMは、ストレージサブシステム1400からロードできる。この場合、サーバ1300は、ローカルディスク1360を備える必要がない。性能監視プログラム1362の手順については後述する(図10を参照)。メモリ1340は、仮想マシンを含む。本実施形態では、VM_A1 1840−A1、VM_A2 1840−A2、及びVM_A3 1840−A3は、ストレージサブシステム1400からロードされ、VMM1820−A1上のプロセッサ1350によって実行される。
0046 図4は、データセンタ1100のストレージサブシステム1400の構成の一例を示す。ストレージサブシステム1400は、コントローラ1405及びHDD1490を有する。コントローラ1405は、管理インタフェース1410、通信インタフェース1420、メモリ1440、プロセッサ1450、ローカルディスク1460、入出力装置1470、ディスクインタフェース1480、及び内部インタフェース1430を有する。管理インタフェース1410は、管理ネットワーク1020へのインタフェースである。通信インタフェース1420は、データネットワーク1030へのインタフェースである。ディスクインタフェース1480は、HDD1490へのインタフェースである。性能監視プログラム1462は、メモリ1440にロードされ、プロセッサ1450によって実行される。このプログラムは、仮想ボリュームの各ページのIOPS(Input/Output Operations Per Second)を監視し、IOPSテーブル3100を作成する。IOPSテーブル3100の詳細な構成については後述する(図7を参照)。HDDは、いくつかのHDD(ハードディスクドライブ)を含む。図4では、二つのHDDが示されているが、数は2個に限定されない。ディスクは、HDDに限定されない。SSD(ソリッドステートディスク)及びいくつかの他の媒体を使用することができる。さらに、SAS、SATA、SSDなどの様々なHDDを混在させることができる。
0047 図5は、第1の実施形態に従ったデータセンタシステム1100の論理構成の一例を示す。同図は、第1の実施形態に従った仮想マシンから物理ボリュームへのシステムの論理構成を示す。仮想マシン(VM)1810は、仮想マシンマネージャ(VMM)1820上で実行される。VMは、仮想マシン(FS)1830のファイルシステムを使用する。仮想マシンのイメージは、ストレージサブシステム1400に格納され、サーバ1300にロードされる。複数のVMは、一つのVMM上にデプロイすることができる。複数のVMは、一つのFS1830を使用することができる。本実施形態では、7つのVMが一つのデータセンタにデプロイされるが、本発明はこれに限定されない。
0048 FS1830は、仮想ボリューム1850を使用する。FSは、別の統合プラットフォームの仮想ボリュームを使用することができる。FSは、複数の仮想ボリュームを使用することができる。本実施形態では、4つの仮想ボリュームが一つのデータセンタで作成されるが、本発明はこれに限定されない。仮想ストレージ1840−1は、複数のストレージを一つの仮想化ストレージに仮想化する。仮想ボリュームは、ストレージプール1860又は物理ボリューム1870から作成される。仮想ボリュームは、シンプロビジョニング機能又は動的階層機能を有することができる。本実施形態では、仮想ボリューム1850−3は、一つの物理ボリューム1870−A3から作成されるが、本発明はこれに限定されない。仮想ボリュームは、複数の物理ボリュームから作成することができる。物理ボリューム1870は、様々なHDD又はSSDなどの物理媒体である。物理ボリューム1870は、複数の媒体を含むRAIDグループであり得る。
0049 第1の実施形態では、リソース効率を悪化させる4つの理由がある。第一に、FS1830−B1は、別の統合プラットフォームの仮想ボリューム1850−2を使用する。この状況は、プロビジョニングの際に内部ストレージプールに容量がほとんどない場合に起きる。統合プラットフォーム間のストレージアクセスは、非効率的である。第二に、FS1830−B2は、別の統合プラットフォームの仮想ボリューム1850−3を使用する。VM1820−A3及び1820−B2は、仮想ボリューム1850−3を共有し、二つのVMが各FS上で稼働する。この状況は、VMのライブ移行によって起きる。ライブ移行の目的は、ロードバランシング(負荷分散)であり得る。統合プラットフォーム間のストレージアクセスは、非効率的である。第三に、仮想ボリューム1850−3は、プールからではなく、物理ボリュームから直接作成される。それは、このような仮想ボリュームが別の仮想ボリュームと容量を共有できないので、不十分である。第四に、プール1860−A1は、別の統合プラットフォームの物理ボリューム1870−B1を使用する。同様に、プール1860−B1は、別の統合プラットフォームの物理ボリューム1870−A4を使用する。この状況は、内部ストレージプール又は物理ボリュームに性能又は容量の要件を満たすボリュームがない場合に起きる。統合プラットフォーム間のストレージアクセスは、非効率的である。第1の実施形態では、リソース効率を悪化させる4つの理由があるが、すべての理由が必須であるわけではない。
0050 図6は、第1の実施形態に従った管理サーバ1200の構成情報テーブル2000の一例を示す。このテーブルは、効率改善プログラム1262によって管理サーバのメモリ1240に作成される。このテーブルは、仮想マシンから物理ボリュームへの論理マッピング関係を示す。仮想マシン名の行2110は、データセンタ1100における各仮想マシン1810のIDを示す。仮想マシンマネージャIDの行2120は、データセンタ1100における各VMM1820のIDを示す。VMM
IDの行2130のファイルシステムは、データセンタ1100におけるVMM1830の各ファイルシステムのIDを示す。VMの行2135の統合プラットフォームは、この欄の仮想マシンが実行される統合プラットフォームのIDを示す。例えば、欄2005は、仮想マシンVM_A1が統合プラットフォーム1500−Aで実行されることを示す。このIDは、統合プラットフォームのシリアル番号であり得る。仮想サブシステムIDの行2140は、データセンタ1100における各仮想サブシステム1840のIDを示す。このIDは、サブシステムのシリアル番号であり得る。仮想ボリュームIDの行2150は、データセンタ1100における各仮想ボリューム1850のIDを示す。このIDは、ボリュームの論理ユニット番号であり得る。仮想ボリュームの統合プラットフォームIDの行2155は、仮想ボリュームが存在する統合プラットフォームのIDを示す。例えば、欄2005は、仮想ボリュームVVOL_1が統合プラットフォーム1500−Aに存在することを示す。プールIDの行2160は、データセンタ1100における各プール1860のIDを示す。物理ボリュームIDの行2170は、データセンタ1100における各物理ボリューム1870のIDを示す。このIDは、物理ボリュームのRAIDグループ番号又はボリュームの論理ユニット番号であり得る。さらに、このフィールドは、階層番号及び各物理ボリュームのページの番号を有する。階層情報は、各サーバ1300の性能監視プログラム1362を使用して効率改善プログラム1262によって決定される。ページ情報は、各ストレージサブシステム1400から得られる。物理ボリュームの統合プラットフォームIDの行2175は、物理ボリュームが存在する統合プラットフォームのIDを示す。例えば、欄2015は、物理ボリュームRG_B1が統合プラットフォーム1500−Bに存在することを示す。
0051 図7は、管理サーバ1200のIOPSテーブル3000の一例を示す。同図は、効率改善プログラム1262によって管理サーバのメモリ1240に作成されるIOPSテーブル3000を示す。各ストレージサブシステム1400は、性能監視プログラム1462によってサブセットIOPSテーブル3100を作成する。効率改善プログラム1262は、サブセットIOPSテーブル3100のすべてを収集し、IOPSテーブル3000を作成する。各行は、仮想ボリュームの各ページのIOPSを示す。例えば、行3005は、仮想ボリュームVVOL_1が7ページを有し、これらのページのIOPSが25、375、5894、11、4、92、及び55であることを示す。
0052 図8は、管理サーバ1200のプール構成テーブル4000の一例を示す。各行は、プール1860の構成である。例えば、行4005は、プール_A1が、100ページの階層1 4105、600ページの階層2 4110、及び1300ページの階層3 4115を有することを示す。このテーブルは、効率改善プログラム1262によって作成される。
0053 図9は、管理サーバ1200の媒体性能テーブル5000の一例を示す。各行は、各階層の性能を定義する。例えば、行5005は、階層1を定義する。階層1の平均応答時間5105は、0.05ミリ秒であり、階層1の応答時間範囲5110は、0ミリ秒〜0.10ミリ秒である。
0054 図10は、第1の実施形態に従った管理サーバ1200の効率改善プログラム1262の流れ図の一例である。このプログラムは、ステップ6010で開始する。ステップ6020では、プログラムは、新しいイベントが到着したか否かを判断する。新しいイベントが到着した場合、プログラムはステップ6040に進む。そうでない場合、ステップ6030に進む。第1の実施形態では、三つのイベントがあるが、すべてのイベントが必須というわけではない。第一は、ユーザからの命令である。第二は、周期的である。この場合、プログラムは、管理サーバ1200にタイマープログラムをデプロイし、イベントを通知する。第三は、閾値である。プログラムは、事前に閾値を設定する。例えば、物理ボリュームの20%は、別の統合プラットフォームからのサーバ1300によって使用される。複数のVMのうちの一つはSLO応答時間の80%を超え、データネットワーク帯域幅の70%が消費される。
0055 ステップ6030では、プログラムはしばらく待ち、次にステップ6020に進む。ステップ6040では、プログラムは、管理サーバ1200内の情報をリフレッシュする。本実施形態では、三つのテーブルがリフレッシュされる。第一は、構成情報テーブル2000である。効率改善プログラム1262は、データセンタ1100のすべてのサーバ1300及びすべてのストレージサブシステム1400から構成情報を収集し、構成情報テーブル2000を作成する。この時点で、物理ボリューム2170の階層はまだ決定されていない。第二は、IOPSテーブル3000である。各ストレージサブシステム1400は、IOPSテーブルのサブセットを有する。効率改善プログラム1262は、サブセットを収集し、次にIOPSテーブル3000を作成する。第三は、プール構成テーブル4000である。ストレージプールを構成する各物理ボリュームのページ番号は、ストレージサブシステムから得られる。階層は、各物理ボリュームについて決定される。プログラムは、サーバ1300の性能監視プログラム1362を使用して実際の応答時間を取得する。各物理ボリュームの階層は、実際の応答時間と媒体性能テーブル5000の応答時間範囲5110を比較することによって決定される。決定された階層情報は、構成情報テーブル2000に記録される。同じ媒体であっても異なる性能になる可能性がある。例えば、同じ統合プラットフォームのSSDは階層1であるが、別の統合プラットフォームのSSDは階層2であるかもしれない。従って、階層は、実際の性能によって定義されるべきである。
0056 以下のステップ6060〜ステップ6120は、データセンタ内のリソースの使用効率を改善するためのプランを作成することを含む。このプランは、ステップ6150まで実行されない。
0057 ステップ6060では、プログラムは、別の統合プラットフォームの物理ボリュームを使用する仮想ボリューム又はプールが存在するか否かをチェックする。このチェックは、構成情報テーブル2000の行2155と行2175を比較することによって行われる。別の統合プラットフォームの物理ボリュームが使用される場合、プログラムはステップ6070に進む。そうでない場合、ステップ6080に進む。ステップ6070では、別の統合プラットフォームの仮想ボリューム又はプールのために使用される物理ボリュームは、同じ統合プラットフォームのプールに移行する。プログラムは、次にステップ6080に進む。ステップ6080では、プログラムは、物理ボリュームから直接作成された仮想ボリュームが存在するか否かをチェックする。このチェックは、構成情報テーブル2000のプールID行2160を調べることによって行われる。このフィールドが「−」である場合、この仮想ボリュームが物理ボリュームから直接作成されたことを意味する。例えば、仮想ボリュームVVOL_3のプールIDは「−」であり、よって、VVOL_3は、物理ボリュームから直接作成されたものである。物理ボリュームから直接作成された仮想ボリュームが存在する場合、プログラムはステップ6090に進む。そうでない場合、ステップ6100に進む。ステップ6090では、物理ボリュームから直接作成された仮想ボリュームは、ストレージプールから供給される新しい仮想ボリュームに移行する。プログラムは次にステップ6100に進む。
0058 ステップ6100では、プログラムは、仮想ボリューム及び仮想マシンが同じ統合プラットフォーム上にデプロイされているか否かをチェックする。このチェックは、構成情報テーブル2000の行2135と行2155を比較することによって行われる。これらのフィールドが異なる場合、この仮想マシンは、異なる統合プラットフォームで実行される。例えば、仮想マシンVM_B1は、統合プラットフォーム1500−B上で実行され、仮想ボリュームVVOL_2は、統合プラットフォーム1500−Aに位置する。従って、これら二つの要素は、異なる統合プラットフォームに位置する。仮想ボリュームと仮想マシンが同じ統合プラットフォーム上にある場合は、プログラムはステップ6120に進む。そうでない場合、ステップ6110に進む。ステップ6110では、VVOL及びFSは、以下の三つの手順のうちの一つを使用して同じ統合プラットフォームに移行される。第一に、VMMがVMライブ移行機能(VMotionなど)を有し、VMをその仮想ボリュームの同じ統合プラットフォームに移行することができる場合、そのVMは移動される。第二に、ストレージサブシステムがライブボリューム移行機能を有し、仮想ボリュームをそのVMの同じ統合プラットフォームに移行することができる場合、その仮想ボリュームは移動される。第三に、VMMが仮想マシンディスクファイルのライブ移行機能(Storage VMotionなど)を有し、仮想マシンディスクファイルをそのVMの同じ統合プラットフォームに移行することができる場合、その仮想マシンディスクファイルは移動される。さらに、効率改善プログラムが複数の手順を実行できる場合、それは、最小コストの手順を選択すべきである。例えば、実行のコストが第1の手順<第2の手順<第3の手順であり、いずれの手順でも実行できる場合は、第1の手順を選択するべきである。ステップ6110の後で、プログラムはステップ6120に進む。
0059 ステップ6120では、プログラムは、仮想ボリュームのすべてがSLOを満たすか否かをチェックする。プランは、ステップ6060からステップ6110までで作成される。このプランでは、すべての仮想サーバ及びその仮想ボリュームが同じ統合プラットフォームに位置する。この作成されたプランに基づいて、各ストレージプールの各階層のページ数を計算することができる。この情報及びIOPSテーブル3000を使用することによって、効率改善プログラム1262は、各仮想ボリュームに割り当てられる各階層のページ数を推定することができる。この情報及び媒体性能テーブル5000の平均応答時間5105に基づいて、効率改善プログラム1262は、各仮想ボリュームの応答時間を計算することができる。図では示されていないが、管理サーバ1200のメモリ1240にSLOテーブルが存在する。SLOテーブルは、各仮想ボリュームのSLOを含む。SLOは、例えば、平均応答時間である。効率改善プログラム1262は、このSLOと、計算された応答時間を比較する。仮想ボリュームのすべての計算された応答時間がSLOを満たす場合、プログラムはステップ6140に進む。そうでない場合、ステップ6130に進む。
0060 ステップ6130では、プログラムは、最小の仮想マシンディスクファイルを有するとともに、このステップで移行されない仮想マシンを選択する。プログラムは、移行先としてストレージプールの最大空き領域を有する一つの統合プラットフォームを選択する。選択されたストレージプールの空き容量が、選択された仮想マシンディスクファイルよりも小さい場合、効率改善プログラム1262は、エラーを通知し、このプログラムの流れ図を終了する。そうでない場合、修正されたプランとして、選択された仮想マシン及びその仮想マシンディスクファイルは、選択された統合プラットフォームに移行される。プログラムは、次にステップ6120に進む。ステップ6140では、プログラムは、作成されたプランをユーザに提供する。ユーザは、プランの即時の実行又は予定実行を選択することができる。予定実行が指定された場合、プログラムは、プランをスケジューラに登録する。ステップ6150では、プログラムは、作成されたプランを実行する。ステップ6160では、プログラムは、ユーザによる終了指示が存在するか否かをチェックする。終了指示が存在する場合、プログラムはステップ6170に進む。そうでない場合、ステップ6020に進む。プログラムは、ステップ6170で終了する。
0061 図11は、第1の実施形態に従った効率改善プログラム1262の実行後のデータセンタシステムの論理構成の一例を示す。効率の改善の結果として、仮想マシンのすべてのファイルシステムは、同じ統合プラットフォームの仮想ボリュームを使用する。作成されたプランは、以下の特徴を有する。ステップ6070に基づいて、物理ボリューム1870−A3はストレージプール1860−A1に接続され、物理ボリューム1870−A4はストレージプール1860−A1に接続され、物理ボリューム1870−B1はストレージプール1860−B1に接続される。ステップ6090に基づいて、仮想ボリューム1850−3はストレージプール1860−A1に接続される。ステップ6110に基づいて、仮想ボリューム1850−2は、ストレージサブシステムのライブボリューム移行機能を使用して統合プラットフォーム1500−Bに移行され、仮想マシン1810−B2は、VMMのVMライブ移行機能を使用して統合プラットフォーム1500−Aに移行される。第1の実施形態のターゲットは一つのデータセンタであるが、本発明は、複数のデータセンタにも適用することができる。
0062 第2の実施形態
0063 第1の実施形態のターゲット構成は、統合プラットフォームである。ターゲット構成が統合プラットフォームでない場合でも、本発明を適用することができる。第2の実施形態は、非統合プラットフォーム環境を有するデータセンタ内のリソースの使用効率を改善する方法を開示する。システム構成及び手順は、第1の実施形態とほぼ同じである。以下は、第1の実施形態との違いのみを説明する。
0064 図12は、第2の実施形態に従ったデータセンタシステムのハードウェア構成の一例を示す。データセンタ1101は、サーバ1300、ストレージサブシステム1400、及び管理サーバ1200を含む。サーバ1300とストレージサブシステム1400は、データネットワーク1030を介して接続される。このネットワークは、一般的にSAN(ストレージエリアネットワーク)であるが、これに限定されない。サーバ1300、ストレージサブシステム1400、及び管理サーバ1200は、管理ネットワーク1020を介して接続される。このネットワークは、一般的にイーサネット(登録商標)LANであるが、これに限定されない。本実施形態では、管理ネットワークとデータネットワークは別々であるが、これに限定されない。管理サーバ1200の構成は、第1の実施形態と同じである。サーバ1300の構成は、第1の実施形態とほぼ同じである。唯一の違いは、本実施形態のサーバ1300が内部インタフェース1380を有さないことである。ストレージサブシステム1400の構成は、第1の実施形態とほぼ同じである。唯一の違いは、本実施形態のストレージサブシステム1400が内部インタフェース1430を有さないことである。
0065 図13は、第2の実施形態に従ったデータセンタシステム1100の論理構成の一例を示す。同図は、仮想マシンから物理ボリュームへのシステムの論理構成を示す。この構成は、第1の実施形態の構成とほぼ同じである。違いは、仮想マシン、仮想マシンマネージャ、及び仮想マシンのファイルシステムが特定のサーバに位置し、仮想ボリューム及びストレージプール及び物理ボリュームが特定のストレージサブシステムに位置することである。
0066 図14は、第2の実施形態に従った管理サーバ1200の構成情報テーブル2001の一例である。同図は、効率改善プログラム1262によって管理サーバのメモリ1240に作成される構成情報テーブル2001を示す。このテーブルは、仮想マシンから物理ボリュームへの論理マッピング関係を示す。この構成は、第1の実施形態の構成とほぼ同じである。三つの違いがある。第一に、VMのサーバIDの行2137は、この欄の仮想マシンが実行されるサーバのIDを示す。このIDは、IPアドレスであり得る。例えば、欄2007は、仮想マシンVM_A1がサーバ1300−A上で実行されることを示す。第二に、仮想ボリュームのサブシステムIDの行2157は、仮想ボリュームが存在するサブシステムのIDを示す。このIDは、サブシステムのシリアル番号であり得る。例えば、欄2007は、仮想ボリュームVVOL_1がサブシステム1400−A上に存在することを示す。第三に、物理ボリュームのサブシステムIDの行2177は、物理ボリュームが存在する統合プラットフォームのIDを示す。例えば、欄2017は、物理ボリュームRG_B1がサブシステム1400−B上に存在することを示す。
0067 管理サーバ1200のIOPSテーブル3000の構成は、第1の実施形態の同テーブルの構成と同じである。管理サーバ1200のプール構成テーブル4000の構成は、第1の実施形態の同テーブルの構成と同じである。管理サーバ1200の媒体性能テーブル5000の構成は、第1の実施形態の同テーブルの構成と同じである。
0068 図15は、第2の実施形態に従った管理サーバ1200の効率改善プログラム1262の流れ図の一例を示す。ステップ6010、6020、及び6030は、第1の実施形態のステップと同じである。ステップ6040では、第1の実施形態との唯一の違いは、手順の最後に、プログラムがステップ6060ではなくステップ6061に進むことである。ステップ6061では、プログラムは、別のストレージサブシステムの物理ボリュームを使用する仮想ボリューム又はプールが存在するか否かをチェックする。このチェックは、構成情報テーブル2001の行2157と行2177を比較することによって行われる。別のストレージサブシステムの物理ボリュームが使用される場合は、プログラムはステップ6071に進む。そうでない場合、ステップ6080に進む。ステップ6071では、別のストレージサブシステムの仮想ボリューム又はプールのために使用される物理ボリュームは、同じストレージサブシステムのプールに移行する。プログラムは、次にステップ6080に進む。ステップ6080及びステップ6090は、第1の実施形態のステップとほぼ同じである。唯一の違いは、手順の最後に、プログラムがステップ6100ではなくステップ6120に進むことである。ステップ6120、6130、6140、6150、6160、及び6170は、第1の実施形態のステップと同じである。ステップ6130について、修正プランとして、選択された仮想マシンは移行されないが、最大空き領域が、選択された仮想マシンの仮想マシンディスクファイルよりも小さくない場合、その仮想マシンディスクファイルだけが、最大空き領域を備えた選択されたストレージプールを有するストレージサブシステムに移行される。より具体的には、仮想ボリュームは、選択されたストレージプールの最大空き領域を含むストレージサブシステムから選択され、選択された仮想マシンの仮想マシンディスクファイルは、選択された仮想ボリュームに移行される。最大空き領域を備えるストレージプールを選択する際に、最小の仮想マシンディスクファイルを含むストレージサブシステムが除外される。
0069 図16は、第2の実施形態に従った効率改善プログラム1262の実行後のデータセンタシステムの論理構成の一例を示す。効率の改善の結果として、すべての仮想ボリュームは、同じストレージサブシステムのストレージプールに提供される。さらに、すべてのストレージプールは、同じストレージサブシステムの物理ボリュームから構成される。作成されたプランは、以下の特徴を有する。ステップ6071に基づいて、物理ボリューム1870−A3はストレージプール1860−A1に接続され、物理ボリューム1870−A4はストレージプール1860−A1に接続され、物理ボリューム1870−Bはストレージプール1860―B1に接続される。ステップ6090に基づいて、仮想ボリューム1850−3は、ストレージプール1860−A1に接続される。
0070 第3の実施形態
0071 第2の実施形態のターゲットは、一つのデータセンタである。ターゲット構成が一つのデータセンタではない場合でも、本発明を適用することができる。第3の実施形態は、マルチデータセンタ環境におけるリソースの使用効率を改善する方法を開示する。システム構成及び手順は、第2の実施形態とほぼ同じである。以下では、第2の実施形態との違いだけを説明する。
0072 図17は、第2の実施形態に従ったマルチデータセンタシステムのハードウェア構成の一例を示す。示されるシステムは二つのデータセンタを有するが、本発明は二つのデータセンタに限定されない。各データセンタ1100は、サーバ1300及びストレージサブシステム1400を含む。一つの管理サーバ1200は一つのデータセンタに置かれるが、本発明は、一つの管理サーバに限定されない。複数の管理サーバを設けることができる。サーバ1300とストレージサブシステム1400は、データネットワーク1030を介して接続される。このネットワークは一般的にSANであるが、これに限定されない。複数のデータネットワーク1030は、データセンタ間データネットワーク1035を介して接続される。サーバ1300、ストレージサブシステム1400、及び管理サーバ1200は、管理ネットワーク1020を介して接続される。このネットワークは一般的にイーサネット(登録商標)LANであるが、これに限定されない。示される実施形態では、管理ネットワークとデータネットワークは別々であるが、これに限定されない。複数の管理ネットワーク1020は、データセンタ間管理ネットワーク1025を介して接続される。管理サーバ1200の構成は、第2の実施形態の構成と同じである。サーバ1300の構成は、第2の実施形態の構成とほぼ同じである。ストレージサブシステム1400の構成は、第2の実施形態の構成とほぼ同じである。
0073 図18は、第3の実施形態に従ったデータセンタシステム1100の論理構成の一例を示す。同図は、仮想マシンから物理ボリュームへのシステムの論理構成を示す。この構成は、第2の実施形態の構成とほぼ同じである。違いは、第3の実施形態のシステムが二つのデータセンタ1100−A及び1100−Bを有することである。サーバ1300−A及びストレージ1400−Aは同じデータセンタ1100−Aにあり、一方、サーバ1300−B及び1300−C及びストレージサブシステム1400−B及び1400−Cは同じデータセンタ1100−Bにある。
0074 図19は、第3の実施形態に従った管理サーバ1200の構成情報テーブル2002の一例を示す。同図は、効率改善プログラム1262によって管理サーバのメモリ1240に作成される構成情報テーブル2002を示す。このテーブルは、仮想マシンから物理ボリュームへの論理マッピング関係を示す。この構成は、第2の実施形態の構成とほぼ同じである。三つの違いがある。第一に、仮想マシンのデータセンタIDの行2139は、この欄の仮想マシンが実行されるデータセンタのIDを示す。例えば、欄2009は、仮想マシンVM_A1がデータセンタ1100−Aで実行されることを示す。第二に、仮想ボリュームのデータセンタIDの行2159は、仮想ボリュームが存在するデータセンタのIDを示す。例えば、欄2007は、仮想ボリュームVVOL_1がデータセンタ1100−Aに存在することを示す。第三に、物理ボリュームのデータセンタIDの行2179は、物理ボリュームが存在するデータセンタのIDを示す。例えば、欄2019は、物理ボリュームRG_C1がデータセンタ1100−Bに存在することを示す。
0075 管理サーバ1200のIOPSテーブル3000の構成は、第1の実施形態の構成と同じである。管理サーバ1200のプール構成テーブル4000の構成は、第1の実施形態の構成と同じである。管理サーバ1200の媒体性能テーブル5000の構成は、第1の実施形態の構成と同じである。
0076 図20は、第3の実施形態に従った管理サーバ1200−Aの効率改善プログラム1262の流れ図の一例を示す。ステップ6010、6020、6030、及び6040は、第2の実施形態のステップと同じである。ステップ6061は、第2の実施形態のステップと同じである。ステップ6071は、第2の実施形態のステップと同じである。ステップ6080及びステップ6090は、第2の実施形態のステップとほぼ同じである。唯一の違いは、手続きの最後に、プログラムがステップ6120ではなくステップ6101に進むことである。ステップ6101では、プログラムは、仮想ボリューム及び仮想マシンが同じデータセンタにデプロイされているか否かをチェックする。このチェックは、構成情報テーブル2002の行2139と行2159を比較することによって行われる。これらのフィールドが異なる場合は、この仮想マシンは、異なるデータセンタで実行される。例えば、仮想マシンVM_B1はデータセンタ1100−Bで実行され、仮想ボリュームVVOL_2はデータセンタ1100−Aに位置する。従って、これら二つの要素は、異なるデータセンタに位置する。すべての仮想ボリューム及び仮想マシンが同じデータセンタに位置する場合は、プログラムはステップ6120に進む。そうでない場合、ステップ6111に進む。
0077 ステップ6111では、VVOL及びFSは、以下の三つの手順のうちの一つを使用して同じサイトに移行される。第一に、VMMがVMライブ移行機能(VMotionなど)を有し、VMをその仮想ボリュームの同じサイトに移行することができる場合は、VMは移動される。第二に、ストレージサブシステムがライブボリューム移行機能を有し、仮想ボリュームをそのVMの同じサイトに移行することができる場合は、仮想ボリュームは移動される。第三に、VMMが仮想マシンディスクファイルのライブ移行機能(storage VMotion)を有し、仮想マシンディスクファイルをそのVMの同じサイトに移行することができる場合は、仮想マシンディスクファイルは移動される。さらに、効率改善プログラムが複数の手順を実行することができる場合は、それは、最小コストの手順を選択すべきである。例えば、実行のコストが第1の手順<第2の手順<第3の手順であり、いずれの手順でも実行することができる場合は、第1の手順を選択するべきである。ステップ6111の後で、プログラムはステップ6120に進む。ステップ6110、6120、6130、6140、6150、6160、及び6170は、第1の実施形態のステップと同じである。ステップ6130について、選択されたデータセンタのストレージプールの最大空き領域が、選択された仮想マシンディスクファイルよりも小さくない場合、修正プランとして、選択された仮想マシン及びその仮想マシンディスクファイルが、選択されたデータセンタに移行される。
0078 図21は、第3の実施形態に従った効率改善プログラム1262の実行後のデータセンタシステムの論理構成を示す。効率改善の結果として、仮想マシンのすべてのファイルシステムは、同じ統合プラットフォームの仮想ボリュームを使用する。作成されたプランは、以下の特徴を有する。ステップ6070に基づいて、物理ボリューム1870−A3はストレージプール1860−A1に接続され、物理ボリューム1870−A4はストレージプール1860−A1に接続され、物理ボリューム1870−C1はストレージプール1860−C1に接続される。ステップ6090に基づいて、仮想ボリューム1850−3は、ストレージプール1860−A1に接続される。ステップ6111に基づいて、仮想ボリューム1850−2は、ストレージサブシステムのライブボリューム移行機能を使用することによってストレージサブシステム1400−Cに移行され、仮想マシン1810−B2は、VMMのVMライブ移行機能を使用してサーバ1300−Aに移行される。
0079 当然のことながら、図1、図12及び図17に示すシステム構成は、本発明が実施され得る情報システムの単なる例示であり、本発明は特定のハードウェア構成に限定されない。本発明を実施するコンピュータ及びストレージシステムは、上述の発明を実施するために用いられるモジュール、プログラム及びデータ構造を格納しかつ読み出すことができる公知のI/O装置(例えば、CD及びDVDドライブ、フロッピー(登録商標)ディスクドライブ、ハードドライブ等)も有し得る。これらのモジュール、プログラム及びデータ構造は、当該コンピュータ読取可能媒体上で符号化することができる。例えば、本発明のデータ構造は、本発明で使用されるプログラムが存在する一つ以上のコンピュータ読取可能媒体から独立したコンピュータ読取可能媒体に格納することができる。システムの構成要素は、あらゆる形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク、ワイドエリアネットワーク(例えば、インターネット)、無線ネットワーク、ストレージエリアネットワーク等を含む。
0080 説明では、本発明を徹底的に理解できるようにするために説明する目的で多くの詳細が記載されている。しかし、当業者にとっては、本発明を実施するためにはこれら具体的な詳細のすべてが必要なわけではないことは明らかであるだろう。また、留意すべき点として、本発明は、通常はフローチャート、流れ図、構成図又はブロック図として記載されるプロセスとして説明されてもよい。フローチャートでは動作を逐次プロセスとして説明し得るが、動作の多くは並行して又は同時に実行することができる。さらに、動作の順番は並び替えてもよい。
0081 当技術分野では周知であるように、上述の動作は、ハードウェア、ソフトウェア、又はソフトウェアとハードウェアの組み合わせによって実行することができる。本発明の実施形態の様々な態様は、回路や論理装置(ハードウェア)を用いて実施してよく、その一方で、その他の態様は、機械読み取り可能媒体(ソフトウェア)上に記憶された命令を用いて実施してもよく、これがプロセッサによって実行された場合には、本発明の実施形態を実行する方法をプロセッサに実施させるものである。さらに、本発明のいくつかの実施形態は、ハードウェアのみにおいて実施されてよく、その他の実施形態は、ソフトウェアのみで実施されてよい。さらに、説明された様々な機能は、一つのユニットで実施することができ、又はあらゆる方法によって多くの構成要素に分散することができる。ソフトウェアによって実施された場合、上記の方法は、コンピュータ読取可能媒体に記憶された命令に基づいて、汎用コンピュータなどのプロセッサによって実行され得る。望ましい場合には、圧縮及び/又は暗号化形式で命令を媒体に記憶することができる。
0082 上記により、本発明が、データセンタ内のリソースの使用における効率を改善するための方法、装置及びコンピュータ読取可能媒体に記憶されたプログラムを提供するものであることが明らかであろう。さらに、本明細書において特定の実施形態が示され説明されているが、当業者にとって当然のことながら、開示された特定の実施形態の代わりに、同じ目的を達成するために考案されるいかなる構成を用いてもよい。本開示は、本発明のあらゆる適応又はバリエーションを対象とすることを意図したものであり、また以下の請求項で用いられる用語は、本発明を本明細書で開示されている特定の実施形態に限定するものとは解釈されるべきではないことが理解される。むしろ本発明の範囲は、以下の請求項によって全面的に判断されるものであり、以下の請求項は、当該請求項が権利を有する同等物の範囲全体と共に、請求項の解釈について確立された原則に従って解釈されるものである。

Claims (20)

  1. 複数のサーバと複数のストレージサブシステムとを含むデータセンタ内のリソースの使用管理方法であって、
    各サーバは、少なくとも一つの仮想マシンと、当該少なくとも一つの仮想マシンによって使用される少なくとも一つのファイルシステムとを含み、
    各ストレージサブシステムは、仮想ボリュームと、物理ボリュームと、ストレージプールとを含むものであり、
    前記複数のストレージサブシステムのうちの第1のストレージサブシステムが、前記複数のストレージサブシステムのうちの第2のストレージサブシステムにおける物理ボリュームを使用する仮想ボリューム又はストレージプールを含むか否かを判断し、肯定結果が得られた場合は、前記第2のストレージサブシステムから前記第1のストレージサブシステムに前記物理ボリュームを移行することと、
    前記複数のストレージサブシステムのうちの任意の一つのストレージサブシステムが、物理ボリュームから直接作成された仮想ボリュームを含むか否かを判断し、肯定結果が得られた場合は、前記一つのストレージサブシステムの前記ストレージプールから提供された別の仮想ボリュームに、前記一つのストレージサブシステムの前記仮想ボリュームを移行することと、
    すべての前記仮想ボリュームが事前設定されたサービスレベル目標を満たすか否かを判断し、(i)否定結果が得られた場合は、最小の仮想マシンディスクファイルを有するとともに、移行されていない仮想マシンを選択し、かつ前記最小仮想マシンディスクファイルを含む前記ストレージサブシステムを除外しつつ、最大空き領域を有するストレージプールを選択し、そして、前記選択されたストレージプールを有する前記ストレージサブシステムの仮想ボリュームを選択し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記選択された仮想マシンの前記仮想マシンディスクファイルを前記選択された仮想ボリュームに移行し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルより小さい場合は、エラー通知を送信し、(ii)肯定結果が得られた場合は、前記データセンタ内のリソースの使用のために実行される前記移行のステップを含むプランを確認することと
    を含む、方法。
  2. 請求項1における前記判断のステップは、前記データセンタ内のリソースの使用を管理するために、請求項1における前記判断のステップを実行する必要性を示すイベントが発生した後でのみ実行されるものであり、
    前記イベントが発生した後で、前記データセンタ内のリソースの使用を管理する際に使用される前記サーバ及び前記ストレージサブシステムの構成情報を収集することをさらに含む、請求項1に記載の方法。
  3. 前記データセンタは、複数の統合プラットフォームを含み、各統合プラットフォームは、インターコネクトを介して結合された少なくとも一つのサーバと少なくとも一つのストレージサブシステムとを有するものであり、
    前記第1及び第2のストレージサブシステムが、異なる統合プラットフォームに配置される場合のみ、前記物理ボリュームは、前記第2のストレージサブシステムから前記第1のストレージサブシステムに移行される、請求項1に記載の方法。
  4. 前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記統合プラットフォームに移行する、請求項3に記載の方法。
  5. 任意の仮想マシンと、当該仮想マシンの仮想マシンディスクファイルを格納するための対応する仮想ボリュームとが、当該対応する仮想ボリュームのための前記統合プラットフォームとは異なる統合プラットフォーム上で前記仮想マシンが実行されるように、異なる統合プラットフォーム上にデプロイされているか否かを判断し、肯定結果が得られた場合は、前記仮想マシン及び前記対応する仮想ボリュームによって使用される前記ファイルシステムを同じ統合プラットフォーム内に配置するように移行を実行することをさらに含む、請求項3に記載の方法。
  6. 移行の実行は、
    (1)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンのライブ移行機能を有し、かつ前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することができる場合、前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することと、
    (2)前記対応する仮想ボリュームのための前記ストレージサブシステムが、ライブボリューム移行機能を有し、かつ前記仮想マシンの前記同じ統合プラットフォームに前記対応する仮想ボリュームを移行することができる場合は、前記仮想マシンの前記同じ統合プラットフォームに前記対応する仮想ボリュームを移行することと、
    (3)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンディスクファイルのライブ移行機能を有し、かつ前記仮想マシンの前記同じ統合プラットフォームに前記仮想マシンの前記仮想マシンディスクファイルを移行することができる場合は、前記仮想マシンの前記同じ統合プラットフォームに前記仮想マシンディスクファイルを移行することと
    のうちの一つを含む、請求項5に記載の方法。
  7. 最小コストを有する(1)、(2)、及び(3)の移行のうちの一つを選択することをさらに含む、請求項6に記載の方法。
  8. 複数のデータセンタが設けられ、各データセンタは、複数のサーバと複数のストレージサブシステムとを含むものであって、
    前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記データセンタに移行する、請求項1に記載の方法。
  9. 複数のデータセンタが設けられ、各データセンタは、複数のサーバと複数のストレージサブシステムとを含むものであって、
    任意の仮想マシンと、当該仮想マシンの仮想マシンディスクファイルを格納するための対応する仮想ボリュームとが、当該対応する仮想ボリュームのための前記データセンタとは異なるデータセンタ上で前記仮想マシンが実行されるように、異なるデータセンタ上にデプロイされているか否かを判断し、肯定結果が得られた場合は、前記仮想マシン及び前記対応する仮想ボリュームによって使用される前記ファイルシステムを同じデータセンタ内に配置するように移行を実行することをさらに含む、請求項1に記載の方法。
  10. 移行の実行は、
    (1)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンのライブ移行機能を有し、かつ前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することができる場合、前記対応する仮想ボリュームの前記データセンタに前記仮想マシンを移行することと、
    (2)前記対応する仮想ボリュームのための前記ストレージサブシステムが、ライブボリューム移行機能を有し、かつ前記仮想マシンの前記同じデータセンタに前記対応する仮想ボリュームを移行することができる場合、前記仮想マシンの前記同じデータセンタに前記対応する仮想ボリュームを移行することと、
    (3)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンディスクファイルのライブ移行機能を有し、前記仮想マシンの前記同じデータセンタに前記仮想マシンの仮想マシンディスクファイルを移行することができる場合、前記仮想マシンの前記同じデータセンタに前記仮想マシンディスクファイルを移行することと
    のうちの一つを含む、請求項9に記載の方法。
  11. 最小コストを有する(1)、(2)、及び(3)の移行のうちの一つを選択することをさらに含む、請求項10に記載の方法。
  12. 複数のサーバと複数のストレージサブシステムとを含むデータセンタ内のリソースの使用管理装置であって、
    各サーバは、少なくとも一つの仮想マシンと、当該少なくとも一つの仮想マシンによって使用される少なくとも一つのファイルシステムとを含み、
    各ストレージサブシステムは、仮想ボリュームと、物理ボリュームと、ストレージプールとを含み、
    前記管理装置は、プロセッサと、メモリと、効率改善モジュールとを備え、
    当該効率改善モジュールは、
    前記複数のストレージサブシステムのうちの第1のストレージサブシステムが、前記複数のストレージサブシステムのうちの第2のストレージサブシステムの物理ボリュームを使用する仮想ボリューム又はストレージプールを含むか否かを判断し、肯定結果が得られた場合は、前記第2のストレージサブシステムから前記第1のストレージサブシステムに前記物理ボリュームを移行し、
    前記複数のストレージサブシステムのうちの任意の一つのストレージサブシステムが、物理ボリュームから直接作成された仮想ボリュームを含むか否かを判断し、肯定結果が得られた場合は、前記一つのストレージサブシステムの前記ストレージプールから提供された別の仮想ボリュームに、前記一つのストレージサブシステムの前記仮想ボリュームを移行し、
    すべての前記仮想ボリュームが事前設定されたサービスレベル目標を満たすか否かを判断し、(i)否定結果が得られた場合は、最小の仮想マシンディスクファイルを有するとともに、移行されていない仮想マシンを選択し、かつ前記最小仮想マシンディスクファイルを含む前記ストレージサブシステムを除外しつつ、最大空き領域を有するストレージプールを選択し、そして、前記選択されたストレージプールを有する前記ストレージサブシステムの仮想ボリュームを選択し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記選択された仮想マシンの前記仮想マシンディスクファイルを前記選択された仮想ボリュームに移行し、前記最大空き領域が前記選択された仮想マシンの前記仮想マシンディスクファイルより小さい場合は、エラー通知を送信し、(ii)肯定結果が得られた場合は、前記データセンタ内のリソースの使用のために実行される前記移行のステップを含むプランを確認するように構成された、管理装置。
  13. 前記効率改善モジュールは、前記データセンタ内のリソースの使用を管理するために、請求項12における前記判断のステップを実行する必要性を示すイベントが発生した後でのみ、請求項12における前記判断のステップを実行するものであり、
    前記効率改善モジュールは、前記イベントが発生した後で、前記データセンタ内のリソースの使用を管理する際に使用される前記サーバ及び前記ストレージサブシステムの構成情報を収集するように構成された、請求項12に記載の管理装置。
  14. 前記データセンタは、複数の統合プラットフォームを含み、各統合プラットフォームは、インターコネクトを介して結合された少なくとも一つのサーバと少なくとも一つのストレージサブシステムとを有するものであり、
    前記第1及び第2のストレージサブシステムが、異なる統合プラットフォームに配置される場合のみ、前記物理ボリュームは、前記第2のストレージサブシステムから前記第1のストレージサブシステムに移行される、請求項12に記載の管理装置。
  15. 前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記効率改善モジュールは、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記統合プラットフォームに移行するように指示する、請求項14に記載の管理装置。
  16. 前記効率改善モジュールは、任意の仮想マシンと、当該仮想マシンの仮想マシンディスクファイルを格納するための対応する仮想ボリュームとが、当該対応する仮想ボリュームのための前記統合プラットフォームとは異なる統合プラットフォーム上で前記仮想マシンが実行されるように、異なる統合プラットフォーム上にデプロイされているか否かを判断し、肯定結果が得られた場合は、前記仮想マシン及び前記対応する仮想ボリュームによって使用される前記ファイルシステムを同じ統合プラットフォーム内に配置するように移行を実行するように指示する、請求項14に記載の管理装置。
  17. 移行の実行は、
    (1)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンのライブ移行機能を有し、かつ前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することができる場合、前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することと、
    (2)前記対応する仮想ボリュームのための前記ストレージサブシステムが、ライブボリューム移行機能を有し、かつ前記仮想マシンの前記同じ統合プラットフォームに前記対応する仮想ボリュームを移行することができる場合は、前記仮想マシンの前記同じ統合プラットフォームに前記対応する仮想ボリュームを移行することと、
    (3)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンディスクファイルのライブ移行機能を有し、かつ前記仮想マシンの前記同じ統合プラットフォームに前記仮想マシンの前記仮想マシンディスクファイルを移行することができる場合は、前記仮想マシンの前記同じ統合プラットフォームに前記仮想マシンディスクファイルを移行することと
    のうちの一つを含む、請求項16に記載の管理装置。
  18. 複数のデータセンタが設けられ、各データセンタは、複数のサーバと複数のストレージサブシステムとを含むものであって、
    前記仮想ボリュームが、すべての前記事前設定されたサービスレベル目標を満たさない場合、かつ前記選択されたストレージプールの前記最大空き領域が、前記選択された仮想マシンの前記仮想マシンディスクファイルよりも小さくない場合、前記効率改善モジュールは、前記仮想マシン及び前記選択された仮想マシンの前記仮想マシンディスクファイルを、前記選択されたストレージプールを有する前記データセンタに移行するように指示する、請求項12に記載の管理装置。
  19. 複数のデータセンタが設けられ、各データセンタは、複数のサーバと複数のストレージサブシステムとを含むものであって、
    前記効率改善モジュールは、任意の仮想マシンと、当該仮想マシンの仮想マシンディスクファイルを格納するための対応する仮想ボリュームとが、当該対応する仮想ボリュームのための前記データセンタとは異なるデータセンタ上で前記仮想マシンが実行されるように、異なるデータセンタ上にデプロイされているか否かを判断し、肯定結果が得られた場合は、前記仮想マシン及び前記対応する仮想ボリュームによって使用される前記ファイルシステムを前記同じデータセンタ内に配置するように移行を実行することを指示するように構成された、請求項12に記載の管理装置。
  20. 移行の実行は、
    (1)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンのライブ移行機能を有し、かつ前記対応する仮想ボリュームの前記統合プラットフォームに前記仮想マシンを移行することができる場合、前記対応する仮想ボリュームの前記データセンタに前記仮想マシンを移行することと、
    (2)前記対応する仮想ボリュームのための前記ストレージサブシステムが、ライブボリューム移行機能を有し、かつ前記仮想マシンの前記同じデータセンタに前記対応する仮想ボリュームを移行することができる場合、前記仮想マシンの前記同じデータセンタに前記対応する仮想ボリュームを移行することと、
    (3)前記仮想マシンを管理するための仮想マシンマネージャが、仮想マシンディスクファイルのライブ移行機能を有し、前記仮想マシンの前記同じデータセンタに前記仮想マシンの仮想マシンディスクファイルを移行することができる場合、前記仮想マシンの前記同じデータセンタに前記仮想マシンディスクファイルを移行することと
    のうちの一つを含む、請求項19に記載の管理装置。
JP2012073308A 2011-08-19 2012-03-28 データセンタ内のリソースの使用効率を改善するための方法及び装置 Expired - Fee Related JP5840548B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/213,118 2011-08-19
US13/213,118 US8549519B2 (en) 2011-08-19 2011-08-19 Method and apparatus to improve efficiency in the use of resources in data center

Publications (2)

Publication Number Publication Date
JP2013045444A true JP2013045444A (ja) 2013-03-04
JP5840548B2 JP5840548B2 (ja) 2016-01-06

Family

ID=46149183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012073308A Expired - Fee Related JP5840548B2 (ja) 2011-08-19 2012-03-28 データセンタ内のリソースの使用効率を改善するための方法及び装置

Country Status (4)

Country Link
US (2) US8549519B2 (ja)
EP (1) EP2560098B1 (ja)
JP (1) JP5840548B2 (ja)
CN (1) CN102955675B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142217A1 (ja) * 2013-03-15 2014-09-18 日本電気株式会社 情報処理システム、及びアプリケーションの移転方法
WO2015052836A1 (ja) * 2013-10-11 2015-04-16 株式会社日立製作所 ストレージ装置及びフェールオーバ方法
JP2016511490A (ja) * 2013-03-15 2016-04-14 ブラケット コンピューティング インコーポレイテッドBracket Computing, Inc. 仮想データセンタリソース利用ポリシーの自動調整
WO2016121005A1 (ja) * 2015-01-27 2016-08-04 株式会社日立製作所 管理計算機および計算機システムの管理方法
WO2016203580A1 (ja) * 2015-06-17 2016-12-22 株式会社日立製作所 管理計算機、リソース移動管理方法、及び計算機システム
WO2019043817A1 (ja) * 2017-08-30 2019-03-07 株式会社日立製作所 計算機システム間の仮想リソース移行を支援する管理システム及び方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018481A (ja) * 2010-07-06 2012-01-26 Fujitsu Ltd ディスクアレイ装置およびディスクアレイ制御方法
JP5998566B2 (ja) * 2012-03-27 2016-09-28 富士通株式会社 移動制御プログラム、移動制御方法および制御装置
US9344327B2 (en) * 2012-04-20 2016-05-17 Microsoft Technology Licensing, Llc Wireless-based network management
CN102724277B (zh) * 2012-05-04 2016-01-06 华为技术有限公司 虚拟机热迁移和部署的方法、服务器及集群系统
WO2013190649A1 (ja) * 2012-06-20 2013-12-27 富士通株式会社 仮想ディスクのマイグレーションに関する情報処理方法及び装置
CN103699334B (zh) * 2012-09-27 2018-04-24 伊姆西公司 用于管理虚拟机磁盘的方法和系统
JP5892031B2 (ja) * 2012-10-22 2016-03-23 富士通株式会社 リソース管理システム、リソース管理方法、およびリソース管理プログラム
JP2014142720A (ja) * 2013-01-22 2014-08-07 Fujitsu Ltd 仮想マシン移動方法、情報処理装置及びプログラム
US9104455B2 (en) * 2013-02-19 2015-08-11 International Business Machines Corporation Virtual machine-to-image affinity on a physical server
US9335932B2 (en) * 2013-03-15 2016-05-10 Bracket Computing, Inc. Storage unit selection for virtualized storage units
US10523728B1 (en) * 2013-06-28 2019-12-31 EMC IP Holding Company LLC Ingesting data from managed elements into a data analytics platform
US9389991B1 (en) * 2013-09-16 2016-07-12 Vce Company, Llc Methods, systems, and computer readable mediums for generating instruction data to update components in a converged infrastructure system
US9483281B2 (en) 2013-09-16 2016-11-01 VCE IP Holding Company LLC Methods, systems, and computer readable mediums for updating components in a converged infrastructure system
CN103617090A (zh) * 2013-12-10 2014-03-05 浪潮电子信息产业股份有限公司 一种基于分布式管理的节能方法
US20150193246A1 (en) * 2014-01-06 2015-07-09 Siegfried Luft Apparatus and method for data center virtualization
US9563569B2 (en) 2014-01-28 2017-02-07 Red Hat Israel, Ltd. Memory transformation in virtual machine live migration
US9785378B2 (en) 2014-01-28 2017-10-10 Red Hat Israel, Ltd. Tracking transformed memory pages in virtual machine chain migration
US9213576B2 (en) 2014-01-31 2015-12-15 Google Inc. Efficient resource utilization in data centers
CN105224381B (zh) * 2014-05-30 2018-10-09 华为技术有限公司 一种迁移虚拟机的方法、装置及系统
US11210120B2 (en) * 2014-06-30 2021-12-28 Vmware, Inc. Location management in a volume action service
CN105653347B (zh) * 2014-11-28 2019-06-07 杭州华为数字技术有限公司 一种服务器、资源管理方法及虚拟机管理器
CN104699540B (zh) * 2015-03-24 2018-07-31 新华三技术有限公司 一种存储资源均衡方法及装置
US9703651B2 (en) * 2015-06-15 2017-07-11 Vmware, Inc. Providing availability of an agent virtual computing instance during a storage failure
US10002014B2 (en) * 2015-07-10 2018-06-19 International Business Machines Corporation Management of a virtual machine in a virtualized computing environment based on a fabric limit
US9965218B1 (en) * 2015-09-30 2018-05-08 EMC IP Holding Company LLC Techniques using multiple service level objectives in connection with a storage group
CN106681650B (zh) * 2015-11-10 2021-04-30 中国电信股份有限公司 虚拟卷访问方法和虚拟化系统
CN105635276B (zh) * 2015-12-28 2019-05-21 国云科技股份有限公司 云平台分布式物理卷对象迁移到非分布式存储的方法
WO2017138942A1 (en) * 2016-02-11 2017-08-17 Hewlett Packard Enterprise Development Lp Provisioning volumes
US10083057B1 (en) * 2016-03-29 2018-09-25 EMC IP Holding Company LLC Migration of active virtual machines across multiple data centers
US10432722B2 (en) * 2016-05-06 2019-10-01 Microsoft Technology Licensing, Llc Cloud storage platform providing performance-based service level agreements
US10089136B1 (en) * 2016-09-28 2018-10-02 EMC IP Holding Company LLC Monitoring performance of transient virtual volumes created for a virtual machine
US20180115316A1 (en) * 2016-10-26 2018-04-26 Qualcomm Incorporated Self-correction techniques for crystal oscillator
CN109144403B (zh) * 2017-06-19 2021-10-01 阿里巴巴集团控股有限公司 一种用于云盘模式切换的方法与设备
US10165426B1 (en) * 2017-06-22 2018-12-25 Apple Inc. Methods for maintaining line-of-sight communications
US10782757B2 (en) * 2017-08-09 2020-09-22 Equinix, Inc. Rack level power control
US10719247B2 (en) * 2018-03-20 2020-07-21 Kabushiki Kaisha Toshiba Information processing device, information processing method, estimation device, estimation method, and computer program product
JP6800904B2 (ja) 2018-03-20 2020-12-16 株式会社東芝 モデル生成装置、情報処理装置、モデル生成方法およびプログラム
CN108490840A (zh) * 2018-04-28 2018-09-04 郑州云海信息技术有限公司 一种模块化数据中心的监控管理系统及模块化数据中心
US11163476B2 (en) 2019-10-04 2021-11-02 International Business Machines Corporation Dynamic rebalancing of free space between storage pools
US11175944B2 (en) * 2020-01-03 2021-11-16 Vmware, Inc. Optimizing cluster-wide operations in a hyper-converged infrastructure (HCI) deployment
CN114650319B (zh) * 2020-12-17 2023-11-03 中移(苏州)软件技术有限公司 一种资源迁移的方法、装置、服务器及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010872A (ja) * 2003-06-17 2005-01-13 Hitachi Ltd 仮想ポート名の管理装置
JP2008234568A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd ファイルレベルの仮想化を行う中間装置
JP2009163703A (ja) * 2007-12-18 2009-07-23 Hitachi Ltd 複数のストレージ制御ユニットを有するストレージシステムにおいてユニット間ネットワークの使用を回避すること
JP2011076286A (ja) * 2009-09-30 2011-04-14 Hitachi Ltd ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
WO2011092738A1 (ja) * 2010-01-28 2011-08-04 株式会社日立製作所 性能の異なる実領域群で構成されたプールを有するストレージシステムの管理システム及び方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4175788B2 (ja) 2001-07-05 2008-11-05 株式会社日立製作所 ボリューム制御装置
JP2004220450A (ja) 2003-01-16 2004-08-05 Hitachi Ltd ストレージ装置、その導入方法、及びその導入プログラム
US7203944B1 (en) * 2003-07-09 2007-04-10 Veritas Operating Corporation Migrating virtual machines among computer systems to balance load caused by virtual machines
JP2005275829A (ja) 2004-03-25 2005-10-06 Hitachi Ltd ストレージシステム
US8429630B2 (en) * 2005-09-15 2013-04-23 Ca, Inc. Globally distributed utility computing cloud
JP4930934B2 (ja) * 2006-09-29 2012-05-16 株式会社日立製作所 データマイグレーション方法及び情報処理システム
US7865663B1 (en) * 2007-02-16 2011-01-04 Vmware, Inc. SCSI protocol emulation for virtual storage device stored on NAS device
US8295308B2 (en) 2008-08-15 2012-10-23 Vmware, Inc. Systems and methods of configuring a resource pool as a network end point
JP2010097533A (ja) * 2008-10-20 2010-04-30 Hitachi Ltd パーティションで区切られた計算機システムにおけるアプリケーション移動及び消費電力の最適化
JP5400482B2 (ja) 2009-06-04 2014-01-29 株式会社日立製作所 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010872A (ja) * 2003-06-17 2005-01-13 Hitachi Ltd 仮想ポート名の管理装置
JP2008234568A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd ファイルレベルの仮想化を行う中間装置
JP2009163703A (ja) * 2007-12-18 2009-07-23 Hitachi Ltd 複数のストレージ制御ユニットを有するストレージシステムにおいてユニット間ネットワークの使用を回避すること
JP2011076286A (ja) * 2009-09-30 2011-04-14 Hitachi Ltd ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
WO2011092738A1 (ja) * 2010-01-28 2011-08-04 株式会社日立製作所 性能の異なる実領域群で構成されたプールを有するストレージシステムの管理システム及び方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142217A1 (ja) * 2013-03-15 2014-09-18 日本電気株式会社 情報処理システム、及びアプリケーションの移転方法
JP2016511490A (ja) * 2013-03-15 2016-04-14 ブラケット コンピューティング インコーポレイテッドBracket Computing, Inc. 仮想データセンタリソース利用ポリシーの自動調整
WO2015052836A1 (ja) * 2013-10-11 2015-04-16 株式会社日立製作所 ストレージ装置及びフェールオーバ方法
US9262289B2 (en) 2013-10-11 2016-02-16 Hitachi, Ltd. Storage apparatus and failover method
WO2016121005A1 (ja) * 2015-01-27 2016-08-04 株式会社日立製作所 管理計算機および計算機システムの管理方法
US20180004425A1 (en) * 2015-01-27 2018-01-04 Hitachi, Ltd. Management computer and computer system management method
US10359938B2 (en) 2015-01-27 2019-07-23 Hitachi, Ltd. Management computer and computer system management method
WO2016203580A1 (ja) * 2015-06-17 2016-12-22 株式会社日立製作所 管理計算機、リソース移動管理方法、及び計算機システム
WO2019043817A1 (ja) * 2017-08-30 2019-03-07 株式会社日立製作所 計算機システム間の仮想リソース移行を支援する管理システム及び方法

Also Published As

Publication number Publication date
US9424057B2 (en) 2016-08-23
US20130047153A1 (en) 2013-02-21
CN102955675B (zh) 2015-12-02
US8549519B2 (en) 2013-10-01
EP2560098B1 (en) 2015-12-16
CN102955675A (zh) 2013-03-06
EP2560098A1 (en) 2013-02-20
JP5840548B2 (ja) 2016-01-06
US20140007099A1 (en) 2014-01-02

Similar Documents

Publication Publication Date Title
JP5840548B2 (ja) データセンタ内のリソースの使用効率を改善するための方法及び装置
US9582221B2 (en) Virtualization-aware data locality in distributed data processing
US9400664B2 (en) Method and apparatus for offloading storage workload
JP6054522B2 (ja) 統合型ストレージ/vdiプロビジョニング方法
WO2017162179A1 (zh) 用于存储系统的负载再均衡方法及装置
US20170346760A1 (en) QUALITY OF SERVICE (QoS) BASED DEVICE FOR ALLOCATING COMPUTE WORKLOADS TO HOSTS PROVIDING STORAGE AND NETWORK SERVICES IN SOFTWARE-BASED DATA CENTER
US20120191929A1 (en) Method and apparatus of rapidly deploying virtual machine pooling volume
US8578121B2 (en) Computer system and control method of the same
US11366617B2 (en) Unbalanced storage resource usage configuration for distributed storage systems
US10540206B2 (en) Dynamic virtual processor manager
US9880907B2 (en) System, method, and computer program product for dynamic volume mounting in a system maintaining synchronous copy objects
US9110591B2 (en) Memory resource provisioning using SAS zoning
JP2011128967A (ja) 仮想計算機の移動方法、仮想計算機システム及びプログラム
JP2009510573A (ja) 故障した物理プロセッサを置換するための方法、装置、およびプログラム
WO2013157072A1 (ja) 計算機システム、リソース管理方法及び管理計算機
JP2011154697A (ja) Raidと関連するアプリケーションの実行のための方法およびシステム
US8650358B2 (en) Storage system providing virtual volume and electrical power saving control method including moving data and changing allocations between real and virtual storage areas
US20130185531A1 (en) Method and apparatus to improve efficiency in the use of high performance storage resources in data center
US10223016B2 (en) Power management for distributed storage systems
CN115280285A (zh) 由独立操作的多个调度器在公共资源集上调度工作负载
JP2011227766A (ja) 記憶手段の管理方法、仮想計算機システムおよびプログラム
US10140022B2 (en) Method and apparatus of subsidiary volume management
JP2011070464A (ja) 計算機システム及び計算機システムの性能管理方法
US9143410B1 (en) Techniques for monitoring guest domains configured with alternate I/O domains
JP2012146280A (ja) 記憶操作のためのキュー及び作業負荷による選択インタフェースの方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151111

R150 Certificate of patent or registration of utility model

Ref document number: 5840548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees