JP6448779B2 - サーバストレージシステムを含んだ計算機システム - Google Patents

サーバストレージシステムを含んだ計算機システム Download PDF

Info

Publication number
JP6448779B2
JP6448779B2 JP2017517568A JP2017517568A JP6448779B2 JP 6448779 B2 JP6448779 B2 JP 6448779B2 JP 2017517568 A JP2017517568 A JP 2017517568A JP 2017517568 A JP2017517568 A JP 2017517568A JP 6448779 B2 JP6448779 B2 JP 6448779B2
Authority
JP
Japan
Prior art keywords
server
storage
resource
lpar
vol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017517568A
Other languages
English (en)
Other versions
JPWO2016181554A1 (ja
Inventor
林 真一
真一 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016181554A1 publication Critical patent/JPWO2016181554A1/ja
Application granted granted Critical
Publication of JP6448779B2 publication Critical patent/JP6448779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)

Description

本発明は、概して、サーバストレージシステムのリソースの割当てに関する。
サーバとストレージを有するサーバストレージシステムが知られている。このようなサーバストレージシステムに複数のアプリケーションプログラム(APP)を集約することのニーズがある。いずれかのAPPの性能が別のいずれかのAPPの性能に影響を与えないよう、サーバストレージシステムのリソースを論理的に分割し、論理的に分割された異なるリソースで異なる複数のAPPを実行することが望ましい。特許文献1によれば、サーバとストレージシステムのリソースを、複数のAPPに占有的に割り当てることで論理的に分割できる。
特許第4227035号
上記のようにサーバからストレージにかけて論理的に分割すると、隣接する論理区画の影響は抑止できる。しかし、割り当てられてたリソース以上のリソースが必要になっている場合であっても、他の論理分割に占有的に割り当てられたリソースを使うことはできない。よって、全ての論理分割に関して従来技術のように論理分割を行うとリソースの利用効率が低下する。
よって、本願では、共存するアプリケーションプログラムの集約率の向上と性能影響の防止の両方を実現することを課題とする。
計算機システムが、サーバストレージシステムを有する。サーバストレージシステムが、複数種類のリソースを含んだ複数のリソースのうちの少なくとも一部が論理分割されることにより得られた複数の論理区画を有する。複数のリソースは、サーバシステムが有する複数種類のサーバリソースを含んだ複数のサーバリソースと、ストレージシステムが有する複数種類のストレージリソースを含んだ複数のストレージリソースとを含む。2以上の論理区画の各々に割り当てられるリソースは、占有割当てされたリソースと共有割当てされたリソースとの少なくとも一方を含む。論理区画に占有割当てされたリソースは、その論理区画に占有されるリソースである。論理区画に共有割当てされたリソースは、その論理区画を含む少なくとも2つの論理区画に共有され得るリソースである。2以上の論理区画の各々について、占有割当てされている複数のリソースの種類が、その論理区画への負荷の負荷特性によって異なっている。ここで言う「計算機システム」は、サーバストレージシステムそれ自体でもよいし、サーバストレージシステムとその管理システムとを含んでもよい。また、「論理区画への負荷の負荷特性」とは、論理区画に割り当てられたリソース(例えば、後述のCPU又はHBAポート等)への負荷の負荷特性であってもよいし、論理区画に提供されたリソース(例えば、後述のVOL)への負荷の負荷特性であってもよい。また、「負荷特性」は、期待(予測)される負荷の特性であってもよいし、実測値として得られた負荷の特性であってもよい。また、論理区画に「割り当てられたリソース」とは、割り当てられた結果として論理区画の一構成要素となるリソースである。一方、論理区画に「提供されたリソース」とは、論理区画(又は論理区画を使用する外部の装置(又はコンピュータプログラム))により使用されるリソースである(典型的には、論理区画の一構成要素としては扱われない)。
APPの集約率の向上と性能影響の防止の両方を実現することができる。
実施例1に係る計算機システムの構成を示す。 サーバストレージシステムのリソース割当て(論理分割)の幾つかの例を示す。 I/Oサイズテーブルの構成例を示す。 割当てポリシーテーブルの構成例を示す。 統合LPARサイズテンプレートテーブルの構成例を示す。 VOLテンプレートテーブルの構成例を示す。 統合LPARテーブルの構成例を示す。 サーバLPARテーブルの構成例を示す。 サーバLPAR/HBAテーブルの構成例を示す。 サーバHBAテーブルの構成例を示す。 ストレージHBAテーブルの構成例を示す。 サーバ/ストレージ接続テーブルの構成例を示す。 ストレージパーティションテーブルの構成例を示す。 ストレージパーティション作成画面の構成例を示す。 統合LPAR作成画面の構成例を示す。 ストレージパーティション作成処理の流れの一例を示す。 統合LPAR作成処理の流れの一例を示す。 実施例2に係る統合LPARのコピーと移動の各々の一例を示す。 統合LPARコピー処理の流れの一例を示す。 統合LPAR移動処理の流れの一例を示す。 サーバストレージシステムの構成例を示す。 統合管理サーバの構成例を示す。 実施例3に係る監視結果画面の一例を示す。
以下、一実施例を説明する。
以下の説明では、「×××テーブル」の表現にて情報を説明することがあるが、情報は、どのようなデータ構造で表現されていてもよい。すなわち、情報がデータ構造に依存しないことを示すために、「×××テーブル」を「×××情報」と呼ぶことができる。また、以下の説明において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部又は一部が1つのテーブルであってもよい。
また、以下の説明では、要素の識別情報として、ID又は名前が使用されるが、それに代えて又は加えて他種の識別情報が使用されてもよい。
また、以下の説明では、同種の要素を区別しないで説明する場合には、参照符号(又は参照符号における共通符号)を使用し、同種の要素を区別して説明する場合は、要素識別情報(要素に割り振られたID又は名前等の識別情報)(又は参照符号)を使用することがある。
また、以下の説明では、I/O(Input/Output)要求は、ライト要求又はリード要求であり、アクセス要求と呼ばれてもよい。
また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を、適宜に記憶部(例えばメモリ)及び/又はインターフェースデバイス(例えば通信ポート)等を用いながら行うため、処理の主語がプロセッサとされてもよい。プログラムを主語として説明された処理は、プロセッサあるいはそのプロセッサを有する装置又はシステムが行う処理としてもよい。また、プロセッサは、制御部の一例であり、処理の一部または全部を行うハードウェア回路を含んでもよい。プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサ(例えばCPU)と記憶部を含み、記憶部はさらに配布プログラムと配布対象であるプログラムとを記憶してよい。そして、プログラム配布サーバのプロセッサが配布プログラムを実行することで、プログラム配布サーバのプロセッサは配布対象のプログラムを他の計算機に配布してよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
また、以下の説明では、管理システムは、一以上の計算機で構成されてよい。具体的には、例えば、管理計算機が情報を表示する場合(具体的には、例えば、管理計算機が自分の表示デバイスに情報を表示する、或いは、管理計算機(例えば管理サーバ)が表示用情報を遠隔の表示用計算機(例えば管理クライアント)に送信する場合)、管理計算機が管理システムである。また、例えば、複数の計算機で管理計算機と同等の機能が実現されている場合は、当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機を含んでよい)が、管理システムである。管理計算機(例えば管理システム)は、表示システムを含むI/Oシステムに接続されたインターフェースデバイスと、記憶部(例えばメモリ)と、インターフェースデバイス及び記憶部に接続されたプロセッサとを有してよい。表示システムは、管理計算機が有する表示デバイスでもよいし、管理計算機に接続された表示用計算機でもよい。I/Oシステムは、管理計算機が有するI/Oデバイス(例えばキーボード及びポインティングデバイス、タッチパネル)でもよいし、管理計算機に接続された表示用計算機又は別の計算機でもよい。管理計算機が「表示用情報を表示する」ことは、表示システムに表示用情報を表示することであり、これは、管理計算機が有する表示デバイスに表示用情報を表示することであってもよいし、管理計算機が表示用計算機に表示用情報を送信することであってもよい(後者の場合は表示用計算機によって表示用情報が表示される)。また、管理計算機が情報を入出力するとは、管理計算機が有するI/Oデバイスとの間で情報の入出力を行うことであってもよいし、管理計算機に接続された遠隔の計算機(例えば表示用計算機)との間で情報の入出力を行うことであってもよい。情報の出力は、情報の表示であってもよい。
また、以下の説明では、「サーバLPAR」は、サーバの複数のリソースのうちの少なくとも1つを占有するLPARである。また、「ストレージパーティション」は、ストレージの複数のリソースのうちの少なくとも1つを占有するLPARである。
また、以下の説明では、「統合LPAR」は、サーバのリソースとストレージのリソースの両方が割り当てられたLPARを表す便宜上の言葉であり、論理区画の一例である。つまりシステム内のサーバとストレージのリソースを論理的に分割した単位をいう。本実施例では、典型的には、統合LPARは、サーバLPARの少なくとも一部とストレージパーティションの少なくとも一部を含む。統合LPARに割り当てられたサーバリソース及びストレージリソースは、いずれも、占有割当てされたリソースであっても共有割当てされたリソースであってもよい。具体的には、例えば、統合LPARには、少なくとも1つのサーバリソースが占有割当てされて、少なくとも1つのストレージリソースが占有割当て又は共有割当てされてもよい。また、例えば、統合LPARには、少なくとも1つのサーバリソースが共有割当てされて、少なくとも1つのストレージリソースが占有割当て又は共有割当てされてもよい。
また、以下の説明では、「リソース」は、サーバストレージシステムを構成するサーバ及びストレージの各々が有するコンポーネントでよい。コンポーネントとして、物理的なコンポーネント(例えばCPU、メモリ、HBA(Host Bus Adapter)、ポート、ドライブ(物理記憶デバイス))もあれば、論理的なコンポーネント(例えばVOL(論理ボリューム))もある。また、サーバ及びストレージの外に存在するエレメント、例えば、サーバ及びストレージ間に存在する中継デバイス(例えば、ルーティング機能を有するスイッチ、或いはルーティング機能を有しないポート拡張デバイス)、サーバ間に存在する中継デバイス、及び、ストレージ間に存在する中継デバイスのいずれかも、「リソース」の一例として扱われてよい。また、そのような中継デバイスのコンポーネント(例えば、ポート、コア(コントローラ))も、「リソース」の一例として扱われてよい。
また、以下の説明では、「XがY1に占有割当てされる」とは、X(例えばリソース)がY1(例えば第1の統合LPAR)に割り当てられY1と同種の他のオブジェクトであるY2(例えば第2の統合LPAR)に割り当てられないことを意味する。結果として、Xは、Y1に占有されることになる。一方、「XがY1に共有割当てされる」とは、XがY1に割り当てられるがY2にも割当て可能であることを意味する。結果として、Xは、Y1及びY2に共有され得る。
また、以下の説明では、「占有リソース」は、占有割当てされたリソースであり、「共有リソース」は、共有割当てされたリソースである。
図1は、実施例1に係る計算機システムの構成を示す。
計算機システムは、サーバストレージシステム1000と、サーバストレージシステム1000を管理する統合管理サーバ140と、サーバストレージシステム1000に集約された複数のAPP(アプリケーションプログラム)104を管理する1以上のAPP管理サーバ160とを有する。図示の例では、APP104として、APP−a及びAPP−bがあり、APP管理サーバ160として、APP−aを管理するAPP管理サーバ160aと、APP−bを管理するAPP管理サーバ160bとがある。
サーバストレージシステム1000は、1以上のサーバ100と1以上のストレージ120とを有する。サーバ100は、CPUやメモリ等の複数のリソース(複数種類のリソース)を有するサーバシステム(1以上のサーバ装置)である。ストレージ120は、CPUやメモリ等の複数のリソース(複数種類のリソース)を有するストレージシステム(1以上のストレージ装置)である。サーバ100及びストレージ120が1つの筺体に収納されていてもよい。
統合管理サーバ140は、統合管理プログラム660を実行する。統合管理プログラム660が実行されることにより、例えば、ストレージパーティション作成機能143及び統合LPAR作成機能144が発揮される。統合LPAR作成機能144が、統合LPAR(Logical Partitioning:論理区画)作成画面141を提供する。ストレージパーティション作成機能143が、ストレージパーティション作成画面142を提供する。画面141及び142のいずれも、例えばGUI(Graphical User Interface)である。
統合LPAR作成画面141は、統合LPARの作成に必要な情報を入力するための画面(図15)である。ストレージパーティション作成画面142は、ストレージパーティションの作成に必要な情報を入力するための画面(図14)である。ストレージパーティション作成機能143は、ストレージパーティション作成画面142を介して入力された情報に基づき、ストレージパーティションを作成する。統合LPAR作成機能144は、統合LPAR作成画面141から入力された情報(又は、APP管理サーバ160からの作成指示に関連付けられている情報)に基づき、統合LPARを作成する。統合LPAR作成画面141は、サーバストレージシステム1000に集約された複数のAPPに共通の画面である。
APP管理サーバ160は、APP管理プログラム163を実行する。APP管理プログラム163が実行されることにより、例えば、APP管理機能161が発揮される。APP管理機能161が、統合LPAR作成画面162を提供する。統合LPAR作成画面162は、この画面162を提供するAPP管理サーバ160の管理対象APPについての統合LPAR作成画面であり、それ以外の点では、統合LPAR作成画面141と同じでよい。APP管理機能161は、統合LPAR作成画面162を介して入力された情報に基づき、統合LPARの作成指示を生成する。その作成指示には、画面162を介して入力された情報が関連付いていてよい。APP管理機能161は、その作成指示を統合管理サーバ140に送信する。
APP管理サーバ160は無くてもよい。統合LPARの作成指示は、統合管理サーバ140からのみ行われてもよい。
図21は、サーバストレージシステム1000の構成例を示す。
サーバ100、ストレージ120、APP管理サーバ160及び統合管理サーバ140が、通信ネットワーク(例えばIP(Internet Protocol)ネットワーク)2100に接続されている。APP管理サーバ160は、通信ネットワーク2100を介して、管理対象APPに関しサーバ100と通信したり、統合LPARの作成指示を統合管理サーバ140に送信したりできる。統合管理サーバ140は、通信ネットワーク2100を介して、APP管理サーバ160から統合LPARの作成指示を受信したり、サーバストレージシステム1000から情報(例えば、サーバ100の構成、ストレージ120の構成、各リソースの稼働状況等)を収集したり、ストレージパーティションを構築したり、統合LPARを構築したりできる。
サーバ100は、NIC(Network Interface Card)109、CPU102、メモリ103、及び、HBA(Host Bus Adapter)106を有する。サーバ100は、NIC109を介して、APP管理サーバ160及び統合管理サーバ140と通信できる。
サーバ100には、サーバLPAR101が構築される。サーバLPAR101は、VM(仮想マシン)を生成するハイパバイザと生成されたVMとを実行してもよいし、VMそれ自体であってもよい。サーバLPAR101は、1以上のCPU102(CPUコア)と、1以上のメモリ103とを有し、少なくとも1つのAPP104を実行し、少なくとも1つのVOL(論理ボリューム)105を認識する。APP104は、データベース管理システム、データ分析プログラム等のプログラムでよい。APP104は、サーバLPAR101が認識したVOL105を指定したI/O要求を発行することで、VOL105に対してデータを入出力できる。図21において、APP104とVOL105間の実線は、APP104とVOL105間の関連付けを示す。
HBA106は、サーバ100とストレージ120とを接続するためのインターフェースデバイスである。HBA106は、CTL(コントローラ)107及びポート108を有する。CTLは、HBA106のコアに相当し、HBA106を経由する要求や応答の転送を制御する。図21において、VOL105、CTL107及びポート108間の実線は、VOL105、CTL107及びポート108間の関連付けを示す。すなわち、CTL107に、VOL105とポート108が関連付けられる。CTL107は、そのCTL107に関連付いているポート108を介して、I/O要求やデータを送受信できる。
本実施例では、サーバ100のリソースは、CPUコア、メモリ、NIC109のポート、HBA106、CTL107、及び、ポート108である。
ストレージ120は、HBA121、CPU123、メモリ124、及び、ドライブ125を有する。
HBA121は、ポート122を有する。図21において、ポート122及び108間の実線は、ポート122及び108間の関連付けを表す。ストレージ120は、ポート122と、そのポート122に関連付いているポート108とを介して、サーバ100(サーバLPAR101)と通信する。例えば、CPU123は、サーバ100からポート122が受信したI/O要求に従い、そのI/O要求を基に特定されたドライブ125に対して、データの入出力を行う。メモリ124は、CPU123により実行されるプログラムや、ドライブ125に対して入出力されるデータを一時記憶するキャッシュ領域や、ストレージ120の制御のための管理情報等を有してよい。ドライブ125は、物理的な記憶デバイスであり、典型的には、不揮発性の記憶デバイス(例えば補助記憶デバイス)である。ドライブ125は、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)でよい。複数のドライブ125により、RAID(Redundant Array of Independent (or Inexpensive) Disks)グループが構成されてよい。RAIDグループは、そのRAIDグループに関連付けられたRAIDレベルに従いデータを記憶する。RAIDグループは、パリティグループと呼ばれてもよい。パリティグループは、例えば、パリティを格納するRAIDグループのことでよい。
本実施例では、ストレージ120のリソースは、HBA121、ポート122、CPU123(又はCPUコア)、メモリ124、及び、ドライブ125である。
ストレージ120には、I/O要求等の要求を処理する第1種のリソースと、第1種のリソースと異なる種類のリソースである第2種のリソースとがある。第1種のリソースは、要求が通るパスに関わるリソース及び要求の処理に関わるリソースのうちの少なくとも1つ、例えば、HBA106のCTL107、ストレージ120のCPU123等である。第2種のリソースは、例えば、サーバHBAポート108、ストレージHBAポート122等である。
第1種のリソースの第2種のリソースの関係は、例えば次の通りである。すなわち、サーバLPAR101からのI/Oの転送帯域が変わらずに、IOPS(I/O Per Second)のようなI/O頻度が増えた場合、第1種のリソースの負荷(例えば最大負荷に対する割合)が、第2種のリソースの負荷よりも大きくなる。逆に、サーバLPAR101からのI/O頻度が変化せずに、I/Oの転送帯域が増えた場合、第2種のリソースの負荷が、第1種のリソースの負荷よりも大きくなる。
そこで、本実施例では、第1種のリソースと第2種のリソースの上記のような関係を考慮して、後述するように、統合管理プログラム660が、複数の統合LPARにそれぞれ割り当てるリソースの種類又は数等を違える(言い換えれば、サーバストレージシステム1000を論理的に分割することにより得られる複数の統合LPARの構成を違える)。
また、本実施例では、サーバ100のリソースは、CPU102、メモリ103、NIC109、HBA106、CTL107、及び、HBAポート108である。サーバ100のリソースとして、これらのリソースのうちの少なくとも1つに代えて少なくとも1つの他種リソースが採用されてもよい。なお、本実施例では、CPU102及びメモリ103のうちの少なくとも1種類のリソースは、サーバLPAR101に必ず占有割当てされる(言い換えれば、サーバLPAR101の構成要素である)ため、占有割当てをするか共有割当てをするかの選択は行われない。
また、本実施例では、ストレージ120のリソースは、HBA121、CPU123、メモリ124(例えば特にキャッシュメモリ)、及び、ドライブ125(例えば、特にRAIDグループ)である。ストレージ120のリソースとして、これらのリソースのうちの少なくとも1つに代えて少なくとも1つの他種リソースが採用されてもよい。その他種リソースは、例えば、RAIDグループに基づくプールでよい。プールからは、Thin Provisioningに従い、記憶領域が、仮想的なVOLに割り当てられてよい。
また、本実施例では、サーバ100とストレージ120間の通信のプロトコルは、FC(Fibre Channel)プロトコルであるが、他のプロトコル(例えばPCI-Express)でもよい。他のプロトコルが採用された場合、サーバ100のHBA106と、ストレージ120のHBA121に代えて、それぞれ、採用されたプロトコルに従う通信のためのインターフェースデバイスが採用されてよい。インターフェースデバイスは、通常、1以上のポートを有する。インターフェースデバイスは、ポートに関連付けられた通信コントローラ(例えば制御チップ)を有してよい。通信コントローラは、CTL107のように、データや要求の送受信を制御できる。
図2は、サーバストレージシステム1000のリソース割当て(論理分割)の幾つかの例を示す。なお、図2において、サーバストレージシステムのリソースを表すブロックには、参照符号に代えて、名前又はIDが表記されている。また、図2において、VOL105(例えばVOL−a)の近傍に記載の文字「L」は、I/Oサイズ「大」を意味し、VOL105(例えばVOL−d)の近傍に記載の文字「S」は、I/Oサイズ「小」を意味する。
<1.本番系と開発系間の影響防止>
1つのサーバストレージシステム1000を、本番系としても開発系としても使用可能である。本番系は、稼働中のシステム、例えば、顧客に対して有料又は無料でサービスを実際に提供しているシステムである。一方、開発系は、開発中のシステム、例えば、サービス提供のための構成の作成途中のシステム、又は、サービスを実際に提供した場合に何らかの不具合が生じるか否か等をテストが行われるシステムである。
例えば、一般に、開発系については、テスト等の実行のために本番系よりも多くのサーバLPAR101を生成することが望ましい。一方、本番系については、サーバLPAR101の性能の確保とAPP104の集約度の向上を両立することが望ましい。また、開発系では、負荷テスト等の実行時に大量のI/Oを発生させることがある。大量のI/Oを発行させた場合においてもサービス提供中の本番系システムに影響を与えないことが望ましい。
そこで、本実施例では、参照符号201で示すように、本番系と開発系というように大きく状況が異なる環境の境界では、互いの影響抑止のために、統合管理プログラム660が、サーバストレージシステム1000を、サーバ100からストレージ120にかけて論理分割する。すなわち、サーバストレージシステム1000が、本番系として使用される第1のサーバストレージサブシステムと、開発系として使用される第2のサーバストレージサブシステムとに大別される。言い換えれば、サーバストレージシステム1000のリソースが、それぞれ、本番系及び開発系のいずれかに占有割り当てされる。この構成により、本番系の性能が開発系の影響を受けないようにすることができる。
また、本実施例では、統合管理プログラム660は、本番系のリソース割当て(リソース分割)のポリシーと、開発系のリソース割当てのポリシーとを違える。これにより、本番系と開発系のそれぞれの特性に適した稼働が期待できる。例えば、本番系では、サーバLPAR101の性能の確保とAPP104の集約度の向上を両立できるよう、リソースの種類と、そのリソースの割当て先のLPAR(又はそのリソースの割当て先に関連付いたLPAR)で実行されるAPP104の用途と、そのサーバLPAR101が認識したVOL105の用途と、そのAPP用途及びVOL用途に対応したI/Oサイズとのうちの少なくとも1つに基づいて、リソースを占有割当てとするか共有割当てとするかが決定される。一方、開発系について、本番系よりも多くのサーバLPAR101を生成することができるよう、開発系でのサーバLPAR101に割り当てられるリソース(サーバLPAR101を構成するCPU102及びメモリ103と、サーバLPAR101が認識するVOL105を除く)は、全て共有リソースである。例えば、図2では、開発系では、1以上のLPARのうちLPAR5のみが図示されているが、複数のLPARに、CTL9、CTL10、Port−e、Port5、HBA3、CPU2、Mem.2及びDrive2等が共有割当てされてよい。なお、開発系でも、リソースを占有割当てとするか共有割当てとするかの選択が行われてよい。
本実施例においては、サーバ100からストレージ120にかけた論理分割として、少なくとも、サーバのCPUコア、サーバメモリ、サーバHBA CTL、サーバHBAポート、ストレージHBAポート、ストレージHBA、ストレージCPU、ストレージメモリ、ストレージドライブが本番系及び開発系のいずれかに占有割り当てられることを想定する。但し、リソースの種類によっては、そのような割り当てができないこともあり得る。その場合は、一部のリソースについて、共有されることもある。また、サーバ100からストレージ120にかけた論理分割は、本番系と開発系とに分割することに代えて、複数の顧客(テナント)の使用範囲を分割する等、他の基準に沿った分割にも適用されてよい。
<2.本番系についてのリソース割当て>
本実施例では、各論理分割において処理することになるI/Oの特性、例えばデータサイズ(I/Oサイズ)を参照して占有/共有とすべきリソースの選択を行うことを特徴とする。一般に、I/Oサイズ「大」の方がI/Oサイズ「小」よりもI/O対象データのサイズが大きいために、要求1つ当たりの処理負荷が大きい。こうした特性の差異によって、負荷がかかるリソース種別が異なる。よって、本実施例においては、処理することになるI/Oの特性を考慮することで、占有すべきリソース種別を決定することとする。一方、単位時間当たりの処理負荷は、I/Oサイズ「小」の方がI/Oサイズ「大」よりも大きい傾向にある。I/Oサイズ「小」のI/O要求は、I/Oサイズ「大」のI/O要求よりも多く単位時間当たりに発行可能だからである。
また、リソース毎に特性も異なる。例えば、I/Oの転送帯域が変わらずにI/O頻度が増えた場合、第1種のリソースへの負荷が、第2種のリソースへの負荷よりも大きくなる。また、例えば、論理区画からのI/Oの頻度が変化せずにI/Oの転送帯域が増えた場合、第2種のリソースの負荷が、第1種のリソースの負荷よりも大きくなることがある。
<2−1.I/Oサイズ「大」間の影響の防止>
上述したように、本番系と開発系のうち少なくとも本番系について、各種のリソースについてを占有割当てとするか共有割当てとするかが選択される。参照符号202及び203に示すように、それぞれI/Oサイズ「大」に関連付いた複数のサーバLPAR101(又は、APP104又はVOL105)に、少なくとも、サーバHBAポート108、及び、ストレージHBAポート122が共有されない。言い換えれば、それぞれI/Oサイズ「大」に関連付いた複数のサーバLPAR101(又は、APP104又はVOL105)に、異なる複数のサーバHBAポート108、及び、異なる複数のストレージHBAポート122が、それぞれ割り当てられる(例えば占有割当てされる)。具体的には、例えば、I/Oサイズ「大」に関連付いたLPAR1(又は、APP−a又はVOL−a)に、Port−a及びPort1が割り当てられ、I/Oサイズ「大」に関連付いた別のLPAR2(又は、APP−b又はVOL−b)に、Port−b(Port−aと異なるサーバHBAポート)及びPort2(Port1と異なるストレージHBAポート)が割り当てられる。
特に大サイズI/Oの処理に際しては、他のリソースの性能と比較してポートの性能は低いため、1ポート当たりの帯域がボトルネックになりやすい。これに対して、上記構成により、サーバHBAポート1つ当たりの帯域、及び、ストレージHBAポート1つ当たりの帯域が、過負荷になっても、I/Oサイズ「大」及び「大」のうちの他方についてサーバHBAポート及びストレージHBAポートが、その過負荷の影響を受けないで済む。結果として、I/Oサイズ「大」間で悪影響が生じないようにすることができる。
なお、ここでは、ストレージHBA121は、それぞれI/Oサイズが「大」である複数のVOL105で共有されてよい。図2の例によれば、I/Oサイズ「大」のVOL−a、VOL−b及びVOL−c(LPAR1〜LPAR3)に、ストレージHBA1が共有される。それぞれI/Oサイズが「大」である複数のVOL105でストレージHBA121が共有されることは、例えば、割当てポリシーテーブル146に定義されている(図4参照)。
また、サーバHBAポート108の上位リソースであるCTL107も、それぞれI/Oサイズ「大」に関連付いた複数のサーバLPAR101(又は、APP104又はVOL105)に共有されないよう割当てられてよい。サーバストレージシステム1000のリソースは、依存関係、例えば階層的なトポロジー構成(ルートは存在しないでよい)を有する。対象リソースの上位にあるリソースのうち、対象リソースの1つ上位のリソースを、「親リソース」と言い、対象リソースの下位にあるリソースのうち、対象リソースの1つ下位のリソースを「子リソース」と言うことができる。リソースの「上位/下位」又は「親/子」の概念は、何を管理(例えば監視)する立場であるかによって違い得るが、所定の基準に沿って定義されていてよい。例えば、リソース間が「接続関係」の場合、一方のリソースが下位であり、一方のリソースに依存する(一方のリソースをベースとする)他方のリソースが上位でよい。リソース間が「包含関係」の場合、一方のリソースが下位であり、一方のリソースを包含する他方のリソースが上位でよい。
<2−2.I/Oサイズ「大」とI/Oサイズ「小」間の影響の防止>
参照符号204に示すように、I/Oサイズは「大」と関連付けられたサーバLPAR101(又は、APP104又はVOL105)と、I/Oサイズは「小」と関連付けられたサーバLPAR101(又は、APP104又はVOL105)に、少なくとも、サーバHBA CTL107、及び、ストレージHBA121が共有されない。言い換えれば、I/Oサイズ「大」に関連付いたサーバLPAR101(又は、APP104又はVOL105)と、I/Oサイズ「小」に関連付いたサーバLPAR101(又は、APP104又はVOL105)に、異なる複数のサーバHBA CTL107、及び、異なる複数のストレージHBA121が、それぞれ割り当てられる(例えば占有割当てされる)。具体的には、例えば、I/Oサイズ「大」に関連付いたVOL−cに、CTL5及び6と、HBA1が割り当てられる。I/Oサイズ「小」に関連付いたVOL−dに、CTL7(CTL5及び6と異なるサーバHBA CTL)と、HBA2(HBA1と異なるストレージHBA)が割り当てられる。
上述のように、一般に、I/Oサイズ「大」の方がI/Oサイズ「小」よりもI/O対象データのサイズが大きいために、要求1つ当たりのCTLにかかる処理負荷が大きい。よって、I/Oサイズが異なるサーバLPAR101(又は、APP104又はVOL105)に、異なるサーバHBA CTL107、及び、異なるストレージHBA121が割り当てることで、I/Oサイズ「大」及び「小」のうちの一方、特に「大」のリソースが高負荷になっても、他方についてのサーバHBA CTL107、及び、異なるストレージHBA121が、その高負荷の影響を受けることを防止できる。
なお、ストレージHBAが、サーバHBLのように、占有割当て可能なCTL(HBAコア)を有している場合、ストレージHBA単位の割り当てに代えて、ストレージHBA CTL単位で、I/Oサイズ「大」に関連付いたサーバLPAR101(又は、APP104又はVOL105)と、I/Oサイズ「小」に関連付いたサーバLPAR101(又は、APP104又はVOL105)への割り当てが、制御されてよい。
<2−3.I/Oサイズ「小」間の影響の防止>
参照符号205に示すように、それぞれI/Oサイズ「小」に関連付いた複数のサーバLPAR101(又は、APP104又はVOL105)に、少なくとも、サーバHBA CTL107が共有されない。言い換えれば、それぞれI/Oサイズ「小」に関連付いた複数のサーバLPAR101(又は、APP104又はVOL105)に、異なる複数のサーバHBA CTL107が、それぞれ割り当てられる(例えば占有割当てされる)。具体的には、例えば、I/Oサイズ「小」に関連付いたLPAR3(又は、APP−c又はVOL−d)に、CTL7が割り当てられ、I/Oサイズ「小」に関連付いた別のLPAR4(又は、APP−d又はVOL−e/VOL−f)に、CTL8(CTL7と異なるサーバHBA CTL)が割り当てられる。
I/Oサイズが小さい場合には、単位時間あたりに処理されるI/O数が多くなる傾向にあるためにHAB CTLへの負荷が大きくなる。上記のようにHBA CTLをそれぞれに占有させることで、I/Oサイズ「小」及び「小」のうちの一方について、サーバHBA CTLが過負荷になっても、I/Oサイズ「小」及び「小」のうちの他方についてのサーバHBA CTLが、その過負荷の影響を受けないで済む。結果として、I/Oサイズ「小」間で悪影響が生じないようにすることができる。
なお、ストレージHBA121及びストレージHBAポート122は、それぞれI/Oサイズが「小」である複数のVOL105で共有されてよい。図2の例によれば、I/Oサイズ「小」のVOL−d、VOL−e及びVOL−fに、ストレージHBA2及びPort4が共有される。それぞれI/Oサイズが「小」である複数のVOL105でストレージHBA121及びストレージHBAポート122が共有されることは、例えば、割当てポリシーテーブル146に定義されている(図4参照)。
別の言い方をすれば、I/Oサイズ「小」間については、サーバHBAポートやストレージHBAポートまで違える(例えば占有割当てとする)必要は無い。なぜなら、I/Oサイズ「小」の場合、ポートより先にストレージ120のCPU123がI/O性能のボトルネックになるためである。
以上、I/Oサイズの観点で行われるリソース割当ての幾つかの例を説明した。
I/Oサイズに代えて、I/O数の多さI/O数のばらつき等の他種のI/O特性、APP用途及びVOL用途のうちの少なくとも1つに基づいて、リソース割当てが行われてよい。例えば、I/O数が多いAPPにはドライブを占有割当てすることが挙げられる。
上述のリソース割当ては、統合管理サーバ140の統合管理プログラム660により、統合管理サーバ140が記憶する管理情報に基づいて行われる。以下、統合管理サーバ140の詳細を説明する。
図22は、統合管理サーバ140の構成例を示す。
統合管理サーバ140は、入力デバイス(例えばキーボード及びポインティングデバイス)610と、表示デバイス620と、NIC650と、コンピュータプログラム及び情報を記憶する記憶部(例えばメモリ)630と、それらに接続されたCPU640とを有する。入力デバイス610及び表示デバイス620は、タッチパネルのように一体であってもよい。統合管理サーバ140は、入力デバイス610及び表示デバイス620に代えて、入力デバイス及び表示デバイスを有する表示用計算機(例えば、システム管理者が操作するパーソナルコンピュータ)に接続されていてもよい。記憶部630が記憶するコンピュータプログラムは、例えば、統合管理プログラム660であり、それがCPU640により実行される。記憶部630が記憶する情報は、例えば、管理情報670である。管理情報670は、サーバストレージシステム1000の管理のために参照又は更新される情報であり、統合LPARの作成(構成の決定等)のために参照される情報を含む。具体的には、例えば、管理情報670は、I/Oサイズテーブル145(図3)、割当てポリシーテーブル146(図4)、統合LPARサイズテンプレートテーブル147(図5)、VOLテンプレートテーブル148(図6)、統合LPARテーブル149(図7)、サーバLPARテーブル150(図8)、サーバLPAR/HBAテーブル151(図9)、サーバHBAテーブル152(図10)、ストレージHBAテーブル153(図11)、サーバ/ストレージ接続テーブル154(図12)及びストレージパーティションテーブル155(図13)を含む。
以下、管理情報670に含まれる各テーブルを説明する。
図3は、I/Oサイズテーブル145の構成例を示す。
I/Oサイズテーブル145は、APP名、APP用途及びVOL用途とI/Oサイズとの関係を示す。I/Oサイズは、APP104からのI/O要求(VOL105を指定したI/O要求)に付随するI/O対象データのサイズ(例えば平均サイズ)である。I/Oサイズは、APP104及びVOL105のうちの少なくとも1つについてのI/O特性の一例である。統合LPARの作成のために考慮されるI/O特性としては、I/Oサイズに代えて又は加えて、リード/ライト比(リード要求の数とライト要求の数との比)と、シーケンシャル/ランダム比(シーケンシャルI/Oの回数とランダムI/Oの回数との比)と、ロカリティ(連続したアドレス範囲にI/Oが集中する集中I/Oと、分散したアドレス範囲に対するI/Oである分散I/Oのどちらが多いか)とのうちの少なくとも1つを採用できる。I/Oサイズと、I/Oサイズ以外のいずれかの種類のI/O特性との組合せを、統合LPAR作成の際に考慮する場合、統合管理プログラム660は、I/Oサイズを他種のI/O特性よりも優先して考慮することができる。
I/Oサイズテーブル145は、APP104毎に、エントリを有する。各エントリに格納される情報は、APP名(もしくは、APPを特定するための他種のAPP識別情報)301、APP用途302、VOL用途303、及び、I/Oサイズ304である。APP名301は、APP104の名前を示す。APP用途302は、APP104の用途を示す。VOL用途303は、APP104に関連付いたVOL105の用途を示す。I/Oサイズ304は、APP104からVOL105へのI/O対象データのサイズであるI/Oサイズを示す。
本実施例では、APP用途として、OLTP(Online Transaction Processing)及びOLAP(Online Analytical Processing)のいずれかが採用される。APP用途として、他種の用途が採用されてもよい。
また、本実施例では、VOL用途として、データ格納用及びログ格納用のいずれかが採用される。VOL用途として、他種の用途が採用されてもよい。
また、本実施例では、I/Oサイズ304の値として、I/Oサイズが比較的大きい(例えば所定の閾値以上である)ことを意味する「大」と、I/Oサイズが比較的小さい(例えば所定の閾値未満である)ことを意味する「小」のいずれかが採用される。I/Oサイズ304の値は、大小の2段階よりも多段階(例えば大中小の3段階)が採用されてもよい。I/Oサイズテーブル145によれば、APP名301、APP用途302及びVOL用途303の組により、I/Oサイズ304の値が決まる。
図4は、割当てポリシーテーブル146の構成例を示す。
割当てポリシーテーブル146は、I/Oサイズに応じたリソース割当てのポリシーを示す。割当てポリシーテーブル146は、割当てポリシー毎にエントリを有する。各エントリに格納される情報は、I/Oサイズ401、サーバHBA CTL402、サーバHBAポート403、ストレージHBAポート404、ストレージHBA405、ストレージCPU406、ストレージメモリ407、及び、ストレージドライブ408である。
I/Oサイズ401は、I/Oサイズを示す。サーバHBA CTL402は、CTL107の割当て方式を示す。サーバHBAポート403は、ポート108の割当て方式を示す。ストレージHBAポート404は、ポート122の割当て方式を示す。ストレージHBA405は、HBA121の割当て方式を示す。ストレージCPU406は、CPU123の割当て方式を示す。ストレージメモリ407は、メモリ124の割当て方式を示す。ストレージドライブ408は、ドライブ125の割当て方式を示す。
割当てポリシーテーブル146において、「占有」は、リソースを占有割当てすることを意味する。「共有」は、共有割当てすることを意味する。「同I/OサイズVOL間で共有」は、I/Oサイズが同じ複数のVOLに対して共有割当てすること(言い換えれば、I/Oサイズが異なる複数のVOLから共有されないように割当てること)を意味する。
I/Oサイズが「大」の場合、サーバHBA106のポート108とストレージHBA121のポート122がボトルネックになり易い。そこで、割当てポリシーテーブル146によれば、I/Oサイズ「大」のVOLに、サーバHBA106のCTL107、サーバHBA106のポート108、及び、ストレージHBA121のポート122の各々が、占有割当てされる。
一方、I/Oサイズが「小」の場合、サーバHBA106のポート108とストレージHBA121のポート122は、ボトルネックになりにくい。しかし、サーバHBA106のCTL107が共有リソースであると、サーバHBA106のポート108を共有する他の負荷の影響を受ける。そこで、割当てポリシーテーブル146によれば、I/Oサイズが「小」のVOLに、サーバHBA106のポート108とストレージHBA121のポート122が、それぞれ共有割当てされ、サーバHBA106のCTL107が、占有割当てされる。
本実施例では、ストレージHBA121のCTL(図示せず)を制御できない。よって、ストレージHBA121のCTLは共有される。ストレージHBA121のCTLが共有されている場合、I/Oサイズ「小」の負荷は、I/Oサイズ「大」の負荷から大きく影響を受け得る。このため、ストレージHBA121を論理的に分割することが望ましい。よって、割当てポリシーテーブル146によれば、ストレージHBA121に関しては、同I/Oサイズの複数のVOLに対して共有割当てがされる。
なお、ストレージHBA121のCTLについて占有割当てが可能な場合、割当てポリシーテーブル146に、ストレージHBA121を論理的に分割する設定がされないでもよい。また、サーバHBA106のCTL107について占有割当てが不可能な場合、割当てポリシーテーブル146に、サーバHBA106を論理的に分割する設定がされてもよい。
図5は、統合LPARサイズテンプレートテーブル147の構成例を示す。
統合LPARサイズテンプレートテーブル147は、統合LPARに割当てるサーバリソースの量を示す。統合LPARサイズテンプレートテーブル147は、統合LPARサイズのテンプレート毎にエントリを有する。各エントリに格納される情報は、統合LPARサイズ501、LPAR CPUコア数502、LPARメモリ容量503、LPAR NICポート数504、I/Oサイズ505、HBAポート数506、及び、サーバHBA CTL数507である。
統合LPARサイズ501は、統合LPARのサイズを示す。統合LPARサイズ501の値として、大中小(L/M/S)の3種類があるが、値は、2種類でも4種類以上でもよい。LPAR CPUコア数502は、サーバLPAR101に割当てるCPUコア数(CPU102のコアの数)を示す。LPARメモリ容量503は、サーバLPAR101に割当てるメモリ103の容量を示す。
LPAR NICポート数504は、サーバLPAR101に割当てるNICポート(NIC109のポート)の数を示す。I/Oサイズ505は、サーバLPAR101におけるAPP104及びVOL105に対応したI/Oサイズを示す。HBAポート数506は、サーバLPAR101に関連付けられるHBAポート108の数を示す。サーバHBA CTL数507は、サーバLPAR101に関連付けられるCTL107の数を示す。
図6は、VOLテンプレートテーブル148の構成例を示す。
VOLテンプレートテーブル148は、APP名、APP用途、VOL用途及び統合LPARサイズと、VOL容量及びVOL数との関係を示す。VOLテンプレートテーブル148は、VOLテンプレート毎にエントリを有する。各エントリに格納される情報は、APP名601、APP用途602、VOL用途603、統合LPARサイズ604、VOL容量605及びVOL数606である。APP名601、APP用途602、VOL用途603、及び、統合LPARサイズ604については、上述の通りである。VOL容量605は、VOL105の容量を示す。VOL数606は、VOL105の数を示す。
図7は、統合LPARテーブル149の構成例を示す。
統合LPARテーブル149は、統合LPARに関する情報を示す。統合LPARテーブル149は、統合LPAR毎にエントリを有する。各エントリに格納される情報は、統合LPAR ID701、環境702、APP名703、APP用途704、及び、統合LPARサイズ706である。
統合LPAR ID701は、統合LPARのIDを示す。統合LPARのIDは、その統合LPARに含まれるサーバLPARのIDと同じ値でよい。環境702は、統合LPARが再配置される環境であるLPAR環境(本番環境と開発環境のいずれであるか)を示す。APP名703は、統合LPARで実行されるAPPの名前を示す。APP用途704は、その実行されるAPPの用途を示す。統合LPARサイズ706は、統合LPARのサイズを示す。
図8は、サーバLPARテーブル150の構成例を示す。
サーバLPARテーブル150は、サーバLPAR101の構成を表す。サーバLPARテーブル150は、サーバLPAR101毎にエントリを有する。各エントリに格納される情報は、LPAR ID801、サーバID802、CPUコア数803、メモリ容量804、NICポート数805及びNICポート割当て806である。
LPAR ID801は、サーバLPAR101のIDを示す。サーバID802は、サーバLPAR101が動作するサーバ100のIDを示す。CPUコア数803は、サーバLPAR101に割当てられているCPU102のコア数を示す。メモリ容量804は、サーバLPAR101に割当てられているメモリ103の容量を示す。NICポート数805は、サーバLPAR101に割当てられているNIC109のポート数を示す。NICポート割当て806は、NIC109のポートがサーバLPAR101に占有割当てされているか、共有割当てされているかを示す。
図9は、サーバLPAR/HBAテーブル151の構成例を示す。
サーバLPAR/HBAテーブル151は、サーバLPAR101とサーバHBA106との関係を示す。サーバLPAR/HBAテーブル151は、サーバLPAR101毎にエントリを有する。各エントリに格納される情報は、LPAR ID901、HBAポート数902、HBAポート割当て903、HBA CTL数904、及び、HBA CTL割当て905である。
LPAR ID901は、サーバ100のサーバLPAR101のIDを示す。HBAポート数902は、サーバLPAR101に割当てられたサーバHBAポート108の数を示す。HBAポート割当て903は、ポート108の割当て状態(占有割当て又は共有割当て)を示す。HBA CTL数904は、サーバLPAR101に割当てられたCTL107の数を示す。HBA CTL割当て905は、CTL107の割当て状態(占有割当て又は共有割当て)を示す。
図10は、サーバHBAテーブル152の構成例を示す。
サーバHBAテーブル152は、サーバHBA106に関する情報である。サーバHBAテーブル152は、サーバHBA CTL107毎にエントリを有する。各エントリに格納される情報は、サーバID1001、HBA ID1002、ポートID1003、ポート割当て1004、CTL ID1005、CTL割当て1006、I/Oサイズ1007、割当先1008、及び、環境1009である。
サーバID1001は、サーバ100のIDを示す。HBA ID1002は、HBA106のIDを示す。ポートID1003は、ポート108のIDを示す。ポート割当て1004は、ポート108の割当て状態(占有割当て、共有割当て又は未割当て)を示す。CTL ID1005は、CTL107のIDを示す。CTL割当て1006は、CTL107の割当て状態(占有割当て、共有割当て又は未割当て)を示す。I/Oサイズ1007は、CTL107に関連付けられているVOL105のI/Oサイズを示す。割当先1008は、CTL107の割当先サーバLPAR101のIDを示す(割当先が無ければ「未割当て」が設定されてよい)。環境1009は、HBA106が属する環境(本番又は開発)を示す。
図11は、ストレージHBAテーブル153の構成例を示す。
ストレージHBAテーブル153は、ストレージHBA121に関する情報である。ストレージHBAテーブル153は、ストレージHBAポート122毎にエントリを有する。各エントリに格納される情報は、ストレージID1101、HBA ID1102、ポートID1103、ポート割当て1104、I/Oサイズ1105、割当先1106、及び、環境1107である。
ストレージID1101は、ストレージ120のIDを示す。HBA ID1102は、HBA121のIDを示す。ポートID1103は、ポート122のIDを示す。ポート割当て1104は、ポート122の割当て状態(占有割当て、共有割当て又は未割当て)を示す。I/Oサイズ1105は、HBA121に関連付いているVOL105のI/Oサイズを示す。割当先1106は、ポート122の割当先サーバLPAR101のIDを示す(割当先が無い場合、「未割当て」でよい)。環境1107は、HBA121が属する環境(本番又は開発)を示す。
1つのストレージHBA121に、異なるI/Oサイズが関連付けられないよう制御される。例えば、HBA121のいずれか1つのポート122(第1ポート122)がサーバLPAR101(又は、APP104又はVOL105)に割り当てられた場合、第1ポート122、及び、第1ポート122を有するHBA121の全ての他のポート122の各々について、I/Oサイズ1105として、第1ポート122が割り当てられたサーバLPAR101(又は、APP104又はVOL105)に対応したI/Oサイズ(「大」又は「小」)が設定されてよい。或いは、例えば、HBA121の第1ポート122がサーバLPAR101(又は、APP104又はVOL105)に割り当てられた場合、第1ポート122について、I/Oサイズ1105として、第1ポート122が割り当てられたサーバLPAR101(又は、APP104又はVOL105)に対応したI/Oサイズ(「大」又は「小」)が設定され、その後、第1ポート122を有するHBA121の全ての他のポート122の各々に、統合管理プログラム660により、他のI/OサイズのサーバLPAR101(又は、APP104又はVOL105)が関連付けられることが、回避されてよい。同一HBA121の全てのポート122が「未割当て」の場合に、いずれかのI/OサイズをそのHBA121に関連付けることができる。
図12は、サーバ/ストレージ接続テーブル154の構成例を示す。
サーバ/ストレージ接続テーブル154は、サーバHBAポート108とストレージHBAポート122間の接続関係を示す。サーバ/ストレージ接続テーブル154は、サーバHBAポート108とストレージHBAポート122の組毎にエントリを有する。各エントリに格納される情報は、サーバID1201、サーバHBA ID1202、サーバポートID1203、ストレージID1204、ストレージHBA ID1205、及び、ストレージポートID1206である。
サーバID1201は、サーバ100のIDを示す。サーバHBA ID1202は、サーバHBA106のIDを示す。サーバポートID1203は、サーバHBAポート108のIDを示す。ストレージID1204は、ストレージ120のIDを示す。ストレージHBA ID1205は、ストレージHBA121のIDを示す。ストレージポートID1206は、ストレージHBAポート122のIDを示す。サーバ/ストレージ接続テーブル154は、サーバ100及びストレージ120から接続情報を収集することにより構築されてよい。
図13は、ストレージパーティションテーブル155の構成例を示す。
ストレージパーティションテーブル155は、ストレージパーティションの構成に関する情報である。ストレージパーティションテーブル155は、ストレージパーティション毎にエントリを有する。各エントリに格納される情報は、ストレージパーティションID1301、環境1302、HBA1303、CPU1304、メモリ1305、及び、ドライブ1306である。
ストレージパーティションID1301は、ストレージパーティションのIDを示す。環境1302は、ストレージパーティションが属する環境(本番又は開発)を示す。HBA1303は、ストレージパーティションに属するHBA121のIDを示す。CPU1304は、ストレージパーティションに属するCPU123のIDを示す。メモリ1305は、ストレージパーティションに属するCLPR(Cache Logical Partition)のIDを示す。CLPRは、メモリ124(キャッシュメモリ)を論理分割することにより得られたキャッシュメモリLPARである。ドライブ1306は、ストレージパーティションに属するドライブ125のIDを示す。
以上が、管理情報670に含まれる各テーブルの説明である。
次に、ストレージパーティション作成画面142及び統合LPAR作成画面141を説明する。
図14は、ストレージパーティション作成画面142の構成例を示す。
ストレージパーティション作成画面142は、ストレージパーティションを作成するための情報の入力と、ストレージパーティション作成の指示とを受け付ける画面(例えばGUI)である。例えば、ストレージパーティション作成画面142には、ストレージパーティションID入力UI(ユーザインターフェース)1401と、環境名入力UI1402と、ストレージパーティションサイズ選択UI1403と、作成指示UI1404とが表示される。
UI1401は、作成するストレージパーティションのIDが入力されるUIであり、例えばテキスト入力欄である。UI1402は、作成するストレージパーティションが属する環境の名前(本番又は開発)が入力されるUIであり、例えばテキスト入力欄である。
UI1403は、ストレージパーティションサイズの選択を受け付けるUIであり、例えば、複数のストレージパーティションサイズにそれぞれ対応した複数のラジオボタンである。具体的には、例えば、UI1403は、ストレージパーティションサイズと、ストレージHBA121の数、CPU123の数、メモリ124の容量、及びドライブ125の数との関係を表すテーブルを含む。そのテーブルは、管理情報670に含まれている情報それ自体、又は、管理情報670に含まれている情報及びポリシーを基に統合管理プログラム660により決定された情報でよい。UI1403が有するテーブルに、ストレージパーティションサイズ毎のラジオボタンが表示される。
UI1401及び1402に情報が入力され、UI1403を通じてシステム管理者所望のストレージパーティションが選択され、作成指示UI1404が操作された場合(例えば「作成」ボタンが押された場合)、ストレージパーティションが作成される。
図15は、統合LPAR作成画面141の構成例を示す。
統合LPAR作成画面141は、統合LPARを作成するための情報の入力と、統合LPARの作成指示とを受け付ける画面(例えばGUI)である。統合LPARを作成するための情報として、統合LPARへの負荷の特性(具体的には、統合LPARへ提供されたVOLへのI/Oの特性)を得るための一例である。本実施例においては、統合LPARの負荷特性を判定するために、その統合LAPRで起動されるAPPのAPP名及びAPP用途の入力を受ける。更に、その統合LAPR(その統合LPARに含まれるサーバLPAR)に提供されるVOLのVOL用途の入力、作成する統合LPARのサイズ、その統合LPARの環境の種類(本番又は開発)、等の情報の入力を受けるようにしてもよい。又、例えば、統合LPARを利用するアプリケーションのI/O特性情報自体、例えばI/Oサイズの入力を受け付けても良い。
統合LPAR作成画面141は、例えば、統合LPAR ID入力UI1501と、APP選択UI1502と、APP用途選択UI1503と、環境選択UI1504と、統合LPARサイズ選択UI1505と、リソース割当て方式選択UI1506と、作成指示UI1507とを有する。統合LPAR作成画面141は、更に、VOL用途選択UI1508を有してもよい。
UI1501は、作成する統合LPARのIDが入力されるUIであり、例えばテキスト入力欄である。UI1502は、APP名の選択を受け付けるUIであり、例えば、複数のAPP名にそれぞれ対応した複数のラジオボタンである。UI1503は、APP用途の選択を受け付けるUIであり、例えば、複数のAPP用途にそれぞれ対応した複数のラジオボタンである。UI1504は、環境の選択を受け付けるUIであり、例えば、複数の環境にそれぞれ対応した複数のラジオボタンである。UI1505は、統合LPARサイズの選択を受け付けるUIであり、例えば、複数の統合LPARサイズにそれぞれ対応した複数のラジオボタンである。UI1508は、VOL用途の選択を受け付けるUIであり、例えば、複数のVOL用途にそれぞれ対応した複数のチェックボックスである。つまり、2以上のVOL用途を選択することができる。UI1506は、リソース割当て方式の選択を受け付けるUIであり、例えば、複数のリソース割当て方式にそれぞれ対応した複数のラジオボタンである。なお、「固定占有」とは、サーバLPARの稼働状況(例えば起動、停止)等に関わらずリソースの占有割当てが維持されることを意味する。「動的占有」とは、サーバLPARの稼働状況が起動しているときのみリソースを占有割当てすることであり、サーバLPAR停止時にリソースを占有しなくてもよいことを意味する。「共有」は、リソースは全て共有割当てされてもよいことを意味する。
UI1501に統合LPAR IDが入力され、UI1502〜1506及び1508を通じてAPP、APP用途、環境、統合LPARサイズ、リソース割当て方式及びVOL用途が選択され、作成指示UI1507が操作された場合(例えば「作成」ボタンが押された場合)、統合LPARが作成される。
以上が、ストレージパーティション作成画面142及び統合LPAR作成画面141の説明である。なお、画面142又は141に表示される選択肢(例えば、ストレージパーティションサイズ、APP、環境名、APP用途、統合LPARサイズ等)は、適宜に、追加、変更又は削除されてよい。また、APP管理サーバ160に表示される統合LPAR作成画面162は、APP選択UIに表示されるAPPが、そのAPP管理サーバ160の管理対象のAPPに制限されてよい。
次に、実施例1で行われる処理を説明する。
図16は、ストレージパーティション作成処理の流れの一例を示す。
ステップ201において、統合管理プログラム660は、ストレージパーティション作成画面142を表示し、その画面142を介して、システム管理者から、ストレージパーティションID、環境名、及びストレージパーティションサイズの入力(選択)と、ストレージパーティション作成指示とを受け付ける。そのストレージパーティション作成指示に応答して、ステップ202以降が行われる。入力されたストレージパーティションIDに対応したストレージパーティションを、図16の説明において、「対象ストレージパーティション」と言う。
ステップ202において、統合管理プログラム660は、ストレージ120にRAIDグループ作成指示を送信する。RAIDグループの作成指示には、画面142を介して入力された情報(例えば、選択されたストレージパーティションサイズに対応したドライブ数等)が含まれる。この結果、ストレージ120は、作成指示に応答して、その作成指示に関連付いた数のドライブで構成されたRAIDグループを作成する。RAIDグループのRAIDレベルは、予め定められたRAIDレベルでよい。異なる種類のドライブ125が混在している場合(例えばHDDとSSDが混在している場合)、同種のドライブで構成されたRAIDグループ(例えば、HDDのRAIDグループ、又は、SSDのRAIDグループ)が作成されてよい。また、作成されたRAIDグループに基づくプールも作成されてよい。
ステップ203において、統合管理プログラム660は、ストレージ120にCLPR作成指示を送信する。CLARの作成指示には、画面142を介して入力された情報(例えば、選択されたストレージパーティションサイズに対応したメモリ容量)が含まれる。ストレージ120は、その作成指示に応答して、その作成指示に関連付いたメモリ容量のCLPRを作成する。異なる種類のドライブ125が混在している場合(例えばHDDとSSDが混在している場合)、ドライブ種類別に、CLPRが作成されてよい。
ステップ204において、統合管理プログラム660は、画面142を介して入力された情報と、作成したRAIDグループ及びCLPRの情報に基づき、ストレージパーティションテーブル155を更新する。例えば、選択されたストレージパーティションサイズに対応したHBA数、CPU数、メモリ容量及びドライブ数に従ってストレージ120により決定されたストレージHBA121、CPU123、CLPAR及びドライブ125の各々のIDが、ストレージ120から統合管理プログラム660に伝えられ、統合管理プログラム660が、それらのIDと、入力されたストレージパーティションIDと、入力された環境名(本番又は開発)とを、対象ストレージパーティションに対応するエントリ(ストレージパーティションテーブル155におけるエントリ)に登録する。
ストレージHBA121及びCPU123の決定は、S202、S203又は別のステップにおいて行われてよい。例えば、統合管理プログラム660は、選択されたストレージパーティションサイズに対応したHBA数及びCPU数を関連付けた指示(例えば、RAIDグループ作成指示、CLPR作成指示又は別の指示)を、ストレージ120に送信してよい。その指示に応答して、ストレージ120が、その指示に関連付いているHBA数及びCPU数に従い、対象ストレージパーティションに含めるストレージHBA121及びCPU123を決定してよい。
このようなストレージパーティション作成処理は、統合LPAR作成処理において行われてもよいが、本実施例では、ストレージパーティション作成処理は、統合LPAR作成処理よりも前に行われる。言い換えれば、ストレージパーティション作成処理の終了後に、統合LPAR作成処理が開始される。ストレージパーティション作成処理では、ドライブ125間のデータ移動を伴う負荷の高い処理が必要となる場合があり、統合LPAR作成処理においてストレージパーティション作成を実行するようにすると、統合LPAR作成処理の開始から終了までに長時間を要してしまう可能性がある。このため、ストレージパーティション作成処理を先に行うことで、統合LPAR作成処理にかかる時間の短縮が期待できる。
図17は、統合LPAR作成処理の流れの一例を示す。
ステップ221において、統合管理プログラム660は、統合LPAR作成画面141(又は162)を介して、システム管理者(又はAPP管理者)から、ストレージパーティションID、環境名、APP名、APP用途、VOL用途、統合LPARサイズ及びリソース割当て方式の入力(選択)と、統合LPAR作成指示とを受け付ける。その統合LPAR作成指示に応答して、ステップ222以降が行われる。入力された統合LPAR IDに対応した統合LPARを、図17の説明において、「対象統合LPAR」と言う。
ステップ222において、統合管理プログラム660は、ストレージパーティションテーブル155を参照し、ステップ221で選択された環境に対応したストレージパーティションを選択する。
ステップ223において、統合管理プログラム660は、I/Oサイズテーブル145を参照し、ステップ221で選択されたAPP、APP用途及びVOL用途に対応するI/Oサイズを特定する。また、このステップ223において、統合管理プログラム660は、VOLテンプレートテーブル148を参照し、ステップ221で選択されたAPP、APP用途及び統合LPARサイズに対応するVOL用途、VOL容量及びVOL数を特定してよい。そして、統合管理プログラム660は、特定したVOL数及びVOL容量通りのVOLを、ステップ222で選択されたストレージパーティションに基づき作成し、作成したVOLを、ステップ221で選択されたAPPを実行することになる対象統合LPARに割り当ててよい。APP名、APP用途から特定されるVOL用途が複数ある場合は、それぞれのVOL用途において指定されたVOL容量、VOL数を作成し、対象統合LPARに割り当ててよい。
ステップ224において、統合管理プログラム660は、選択されたリソース割当てポリシーが、占有割当て(「固有占有」又は「動的占有」)か否かを判断する。この判断の結果が肯定の場合(ステップ224:Yes)、ステップ225が行われる。この判断の結果が否定の場合(ステップ224:No)、ステップ232が行われる。尚、このステップは、1506の入力を受けている場合に実行される。
ステップ225において、統合管理プログラム660は、ステップ223で特定されたI/Oサイズが「大」か否かを判断する。この判断の結果が肯定の場合(ステップ225:Yes)、ステップ226が行われる。この判断の結果が否定の場合(ステップ225:No)、ステップ229が行われる。I/Oサイズ「大」のVOLと、I/Oサイズ「小」のVOLとが混在する場合(例えば図2のVOL−c及びVOL−d)、統合管理プログラム660は、I/Oサイズ「大」のVOLについては、ステップ226を実行し、I/Oサイズ「小」のVOLについては、ステップ229を実行する。
ステップ226において、統合管理プログラム660は、対象統合LPARに、ストレージHBAポート122を占有割当てする。具体的には、例えば、以下の処理が行われる。
(226−1)統合管理プログラム660は、統合LPARサイズテンプレートテーブル147を参照し、ステップ221で選択された統合LPARサイズと、I/Oサイズ「大」とに対応したHBAポート数506を特定する。
(226−2)特定したHBAポート数506と同数のストレージHBAポート122を割当てるまで、以下の処理(226−2−1)及び(226−2−2)が繰り返される。
(226−2−1)統合管理プログラム660は、ストレージHBAテーブル153を参照し、ポート割当て1104が「未割当て」で、I/Oサイズ1105が「大」(又は「未割当て」)で、割当先1106が「未割当て」で、環境1107が、ステップ221で選択された環境と同じであるストレージHBAポートを特定する。
(226−2−2)統合管理プログラム660は、特定したストレージHBAポートを、対象統合LPARに占有割当てする。具体的には、例えば、統合管理プログラム660は、特定したストレージHBAポートに対応したエントリ(ストレージHBAテーブル153内のエントリ)について、ポート割当て1104を「占有」に更新し、割当先1106を、ステップ221で入力された統合LPAR IDに更新する。
ステップ227において、統合管理プログラム660は、対象統合LPARにサーバHBAポート108を占有割当てする。具体的には、例えば、以下の処理が行われる。
(227−1)統合管理プログラム660は、サーバ/ストレージ接続テーブル154を参照し、ステップ226で割当てたストレージHBAポート122と接続されているサーバHBAポート108を特定する。
(227−2)統合管理プログラム660は、特定されたサーバHBAポート108を、対象統合LPARに占有割当てする。具体的には、例えば、統合管理プログラム660は、特定されたサーバHBAポート108に対応するエントリ(サーバHBAテーブル152内のエントリ)について、ポート割当て1104を「占有」に更新し、I/Oサイズ1007を「大」に更新し、割当先1008を、ステップ221で入力された統合LPAR IDに更新する。
本実施例では、サーバHBAポート108とストレージHBAポート122との対応関係が1:1であるが、サーバ100とストレージ120とをスイッチを介して接続することで、サーバHBAポート108とストレージHBAポート122との対応関係が1:n、m:1又はm:nとなってもよい(n、mはそれぞれ2以上の整数)。1つのストレージHBAポート122に、複数のサーバHBAポート108とが接続されている場合、統合管理プログラム660は、サーバHBAテーブル152を参照し、ポート割当て1004が「未割当て」であり、環境1009、ステップ221で選択された環境と同じであるサーバHBAポート108を、対象統合LPARに割当てる。この処理により、選択された環境によって、割当てられるサーバHBAポート108を違えることができる。すなわち、サーバHBAポート108に環境に従い分類できる。なお、適切なサーバHBAポート108がない場合、統合管理プログラム660は、ステップ226に戻って、別のストレージHBAポート122を選択してよい。
ステップ228において、統合管理プログラム660は、対象統合LPARにサーバHBA CTL107を占有割当てする。具体的には、例えば、以下の処理が行われる。
(228−1)統合管理プログラム660は、サーバHBAテーブル152を参照し、ステップ227で占有割当てしたサーバHBAポート108と接続されているサーバHBA CTL107を特定する。
(228−2)統合管理プログラム660は、特定したサーバHBA CTL107を、対象統合LPARに占有割当てする。具体的には、例えば、統合管理プログラム660は、特定したサーバHBA CTL107に対応するエントリ(サーバHBAテーブル152内のエントリ)について、CTL割当て1006を「占有」に更新し、I/Oサイズ1007を「大」に更新し、割当先1008を、ステップ221で入力された統合LPAR IDに更新する。
ステップ229において、統合管理プログラム660は、対象統合LPARに、ストレージHBAポート122を共有割当てする。具体的には、例えば、以下の処理が行われる。
(229−1)統合管理プログラム660は、統合LPARサイズテンプレートテーブル147を参照し、ステップ221で選択された統合LPARサイズと、I/Oサイズ「小」とに対応したHBAポート数506を特定する。
(229−2)特定したHBAポート数506と同数のストレージHBAポート122を割当てるまで、以下の処理(229−2−1)及び(229−2−2)が繰り返される。
(229−2−1)統合管理プログラム660は、ストレージHBAテーブル153を参照し、ポート割当て1104が「共有」又は「未割当て」)で、I/Oサイズ1105が「小」(又は「未割当て」)で、割当先1106が「未割当て」で、環境1107が、ステップ221で選択された環境と同じであるストレージHBAポートを特定する。
(229−2−2)統合管理プログラム660は、特定したストレージHBAポートを、対象統合LPARに共有割当てする。具体的には、例えば、統合管理プログラム660は、特定したストレージHBAポートに対応したエントリ(ストレージHBAテーブル153内のエントリ)について、ポート割当て1104を「共有」に更新し、割当先1106を、ステップ221で入力された統合LPAR IDに更新する。
ステップ230において、統合管理プログラム660は、対象統合LPARにサーバHBAポート108を共有割当てする。具体的には、例えば、以下の処理が行われる。
(230−1)統合管理プログラム660は、サーバ/ストレージ接続テーブル154を参照し、ステップ226で割当てたストレージHBAポート122と接続されているサーバHBAポート108を特定する。
(230−2)統合管理プログラム660は、特定されたサーバHBAポート108を、対象統合LPARに占有割当てする。具体的には、例えば、統合管理プログラム660は、特定されたサーバHBAポート108に対応するエントリ(サーバHBAテーブル152内のエントリ)について、ポート割当て1104を「共有」に更新し、I/Oサイズ1007を「小」に更新し、割当先1008を、ステップ221で入力された統合LPAR IDに更新する。
上述したように、1つのストレージHBAポート122に、複数のサーバHBAポート108とが接続されていてもよい。この場合、統合管理プログラム660は、サーバHBAテーブル152を参照し、ポート割当て1004が「共有」又は「未割当て」であり、環境1009、ステップ221で選択された環境と同じであるサーバHBAポート108を、対象統合LPARに割当てる。
ステップ231において、ステップ228と同様の処理が行われる。但し、ステップ231では、割り当てられるサーバHBA CTL107に対応するI/Oサイズ1007は「小」に更新される。
ステップ232において、統合管理プログラム660は、対象統合LPARにストレージHBAポート122を共有割当てする。詳細はステップ229と同様である。
ステップ233において、統合管理プログラム660は、対象統合LPARにサーバHBAポート108を共有割当てする。詳細はステップ230と同様である。
ステップ234において、統合管理プログラム660は、対象統合LPARにサーバHBA CTL107を共有割当てする。具体的には、例えば、以下の処理が行われる。
(234−1)統合管理プログラム660は、サーバHBAテーブル152を参照し、ステップ233で共有割当てしたサーバHBAポート108と接続されていて、CTL割当てが「共有」または「未割当て」であるサーバHBA CTL107を特定する。
(234−2)統合管理プログラム660は、特定されたサーバHBA CTL107を、対象統合LPARに共有割当てする。具体的には、例えば、統合管理プログラム660は、特定されたサーバHBAポート108に対応するエントリ(サーバHBAテーブル152内のエントリ)について、ポート割当て1104を「共有」に更新し、I/Oサイズ1007を、ステップ223で特定されたI/Oサイズに更新し、割当先1008を、ステップ221で入力された統合LPAR IDに更新する。
ステップ235において、統合管理プログラム660は、統合LPARを完成する。具体的には、例えば、以下の処理が行われる。
(235−1)統合管理プログラム660は、ステップ222において選択したストレージパーティションとストレージパーティションテーブル155を参照し、当該ストレージパーティションに属するCPU、メモリ、ドライブを特定する。統合管理プログラム660は、ステップ223において特定したVOL容量、VOL数に基づくVOL作成を指示し、当該ストレージパーティションに属するCPU、メモリ、ドライブを使用する指示をストレージ120に行う。
(235−2)ストレージ120は、ステップ235−1において指示されたストレージパーティション内に、指示された容量のVOLを指示された個数、指示されたドライブ上に作成する。ストレージ120は、作成したVOLへのアクセスに、指示されたCPU、メモリを使用するよう設定する。
(235−3)統合管理プログラム660は、ステップ226、ステップ229、ステップ232において割り当てたストレージHBAの割当てをストレージ120に指示する。
(235−4)ストレージ120は、ステップ235−3において指示されたストレージHBAからのみ、ステップ235−2において作成したVOLにアクセスできるよう設定する。本設定により、他のストレージHBAからの当該VOLへのアクセスを防止できる。尚、予め少なくともストレージシステム内に存在するCPU、メモリ、ストレージHBAポートを含むリソースは統合管理サーバ内に記憶管理されており、各リソース毎に割り当て済みであるかどうかも管理されているものとする。
(235−5)統合管理プログラム660は、統合LPARサイズテンプレートテーブル147を参照し、ステップ221で選択された統合LPARサイズに対応するLPAR CPUコア数502、LPARメモリ容量503及びLPAR NICポート数504を特定する。
(235−6)統合管理プログラム660は、特定されたCPUコア数と同数のCPUコア(CPU102のコア)と、特定されたLPARメモリ容量503と同総容量のメモリ103と、特定されたLPAR NICポート数504と同数のNICポートと、ステップ226〜ステップ234で割当てたサーバHBAポート108及びサーバHBA CTL107とに基づき、サーバLPAR101の作成をサーバ100に指示する。
(235−7)サーバ100は、ステップ235−2の指示に従い、CPUコア、メモリ、NICポート、サーバHBAポート、サーバHBA CTLを割り当てる。尚、予め少なくともサーバシステム内に存在するCPUコア数、メモリ容量、NICポート及びサーバHBAポート、サーバHBA CTLを含むリソースは、統合管理サーバ内に記憶管理されており、各リソース毎に割り当て済みであるかどうかも管理されているものとする。ステップ235−3において占有割当てされたリソースは、他のサーバLPAR101に割り当てられないように設定され、他のサーバLPAR101上のAPPからアクセスできないように設定されるため、他のサーバLPAR101から使用されることはない。
(235−8)統合管理プログラム660は、作成したサーバLPAR101の構成(割り当てられたリソースに関する情報)を、統合LPARテーブル149、サーバLPARテーブル150、及びサーバLPAR/HBAテーブル151に反映する。
以上が、統合LPAR作成処理の流れの一例である。本処理により、起動されるAPPのI/O特性に応じて、サーバとストレージ両方のリソースのそれぞれについて一連の流れで占有/共有の別が決定されて論理区画が形成される。統合LPAR作成処理では、割り当てられるリソースを決定できればよく、処理の順序については本実施例で示した従う徐に限らない。但し、既に設定したリソースとの接続関係は考慮する必要がある。具体的には、I/Oサイズ「小」のAPPが動作するサーバLPAR101には、I/Oサイズが「小」であるストレージHBAを割り当てる。また、環境を本番と指定したサーバLPAR101は、本番用ストレージパーティションに属するリソースのみを使用する。また、要求に対して十分なリソースが確保できない場合には、例えば、未割当てリソースが無い故に統合LPARを作成できない場合、実施例2の統合LPAR移動により未割当てリソースが用意された後、統合LPARが作成されてもよい。占有割当てせずに共有割当てすることを利用者に提案してもよく、リソースが不足し統合LPARを作成できない旨を表示してもよい。
また、I/Oサイズテーブル145、割当てポリシーテーブル146、統合LPARサイズテンプレートテーブル147、サーバLPARテーブル150、サーバLPAR/HBAテーブル151、サーバHBAテーブル152、ストレージHBAテーブル153、及びストレージパーティションテーブル155から統合LPARテーブル149が作成されてもよい。また、その後の管理のために、統合管理プログラム660により、上述したテーブル(例えば、サーバLPAR/HBAテーブル151、サーバHBAテーブル152及びストレージHBAテーブル153)のうちの少なくとも1つに基づき、リソース毎に割当て種別(共有であるか占有であるか)が表示されてよい。具体的には、例えば、実施例3で説明する画面(図23)のような管理画面に、リソース毎に割当て種別が表示されてよい。
実施例1によれば、サーバストレージシステム1000が、本番系と開発系とにサーバ100からストレージ120にかけて論理分割される。これにより、開発系の負荷が本番系の性能に悪影響を与えないようにすることができる。
また、実施例1によれば、少なくとも本番系について、統合LPARにリソースが占有割当てされるか共有割当てされるかが、統合LPARに提供されるVOLに対する負荷の特性と、割当て対象のリソースの種類とに基づいて決定される。具体的には、例えば、I/Oサイズ「大」のVOLとI/Oサイズ「小」のVOL間で、サーバLPAR101からストレージHBA122にかけたリソースが分割され、I/Oサイズ「大」のVOL間で、サーバLPAR101からストレージHBAポート122にかけたリソースが分割され、I/Oサイズ「小」のVOL間で、サーバLPAR101のからサーバHBA CTL107にかけたリソースが分割される。本構成により、統合LPAR(論理区画)で動作されるAPP(アプリケーション)のI/O特性をふまえて、負荷がかかる部分の特定リソースについて占有割り当てすることが可能となり、APPの集約率の向上と性能影響の防止の両方を実現することが期待できる。なお、実施例1では、負荷特性は、APP名、APP用途及びVOL用途のうちの少なくともAPP用途及びVOL用途の組合せから一義的に定まるが、APP名、APP用途及びVOL用途のうちの少なくとも1つに代えて別の要素から(例えばI/O特性それ自体の入力から)、I/O特性が特定されてもよい。
なお、例えば図2によれば、サーバ100からストレージ120にかけた論理分割も、I/O特性及びAPP用途等のうちの少なくとも1つに基づく論理分割(例えば本番系の論理分割)も、連続した複数の階層にそれぞれ対応した複数種類のリソースが論理分割(割当て制御)される。しかし、論理分割では、複数の階層が必ずしも厳密に連続している必要は無い。例えば、第1及び第2リソースは、それぞれ、論理分割可能な種類のリソースであっても、階層的に第1及び第2リソースの間にある第3リソースは、論理分割不可能な種類のリソースであることもある。この場合、上位から下位にかけたリソースの論理分割において、途中のリソースが論理分割されないことになる。しかし、このような場合も、実質的には、上位から下位にかけたリソースの論理分割(例えばサーバ100からストレージ120にかけた論理分割)と言うことができる。なお、論理分割可能であるか不可能であるかは、リソースの種類とストレージ120の機能とのうちの少なくとも1つに依存してよい。
実施例2を説明する。その際、実施例1との相違点を主に説明し、実施例1との共通点については説明を省略或いは簡略する。
実施例2では、統合LPARのコピー及び移動のうちの少なくとも1つを行うことができる。ここで、コピー移動先のサーバ・ストレージは移行元と同一か否かは問わない。
図18は、統合LPARのコピーと移動の各々の一例を示す。なお、以下の説明では、サーバLPAR101に認識されているVOLをサーバVOL10と言い、ストレージ120が提供するVOLをストレージVOLと言う。サーバVOLは、ストレージVOLに対応する。ストレージVOLは、ドライブ125に基づくプールから記憶領域が割り当てられる仮想的なVOLでもよい。
複数のサーバ100として、例えば、第1サーバ100tと、第2サーバ100wがある。第1サーバ100t及び第2サーバ100w間は、スイッチ170を介して通信可能である。複数のストレージ120として、例えば、第1ストレージ120tと、第2ストレージ120wとがある。第1サーバ100t及び第1ストレージ120tが、サーバ100からストレージ120にかけて論理分割されており、故に、開発系及び本番系を有する。第2サーバ100w及び第2ストレージ120wが、本番系に属する。すなわち、本番系が、第1サーバ100tの一部と、第1ストレージ120tの一部と、第2サーバ100wと、第2ストレージ120wとを有する。本番系において、第1サーバ100tの一部と第2サーバ100wが、それぞれ、第1ストレージ120tの一部と第2ストレージ120wとのいずれにも接続されている。
VOL110は、サーバLPAR101上のマルチパスプログラム(図示せず)が管理するVOLである。マルチパスプログラムは、ストレージ120上の1つのVOL126を複数の経路で参照できる複数のVOL105を1つのVOL110にまとめる機能を持つ。例えば、VOL110uは、VOL105uと、105vとが1つにまとめられたVOLである。
VOL105uは、ポート108u及びポート122uを経由して、VOL126uを参照している。VOL126wは、ポート122z及びポート122yを経由してVOL126uを参照する仮想的なVOLである。VOL105vは、ポート108v、ポート122wを経由して、VOL126wを参照している。よって、VOL105uと、VOL105vは、同一のVOL126uを参照できる。
スイッチ170は、NIC109を接続するスイッチである。サーバLPAR101は、NIC109及びスイッチ170を経由し、他のサーバLPAR101と通信できる。
「統合LPARコピー処理」は、VOL126uを同一のストレージ120の他の環境にコピーし、VOL126uのコピーであるVOL126tを使用できるようにする処理である。「統合LPAR移動処理」は、VOL126u内のデータを別のストレージ120w内のVOL126xに移動し、移動先VOL126xを使用できるようにする処理である。
図19は、統合LPARコピー処理の流れの一例を示す。
統合LPARコピー処理を実行する前に、統合管理プログラム660は、システム管理者から、コピー対象の統合LPARの選択とコピー先の環境の選択とを受け付ける。
ステップ241において、統合管理プログラム660は、割当てポリシーテーブル146を参照する。ステップ242において、統合管理プログラム660は、コピー対象統合LPARの割当て状態が変更されてなく、割当てポリシーを満足しているか否かを判断する。具体的には、例えば、統合管理プログラム660は、統合LPARテーブル149と、I/Oサイズテーブル145と、割当てポリシーテーブル146と、サーバLPAR/HBAテーブル151と、サーバHBAテーブル152と、ストレージHBAテーブル153とに基づき、コピー対象統合LPARに割り当てられているポート108、CTL107及びポート122の割当て状態が、テーブル146が表す割当てポリシーを満足しているか否かを判断する。
通常は、いずれの統合LPARも、割当てポリシーを満たしている。割当てポリシーテーブル146に基づき統合LPARが作成されるからである。しかし、システム管理者、又は、システム管理者とは別の人間(例えば、サーバストレージシステムの保守員)が、エラー解消等の目的で、統合管理サーバ140又は別の端末(例えば、ストレージ120に接続されているSVP(Service Processor)(図示せず))から、統合LPARのリソース割当てを変更することがある。この場合、割当てポリシーを意識することなくリソースの割当てが行われる。このため、統合LPARの割当て状態が割当てポリシーを満たさなくなることがある。このような状況を考慮して、本実施例では、統合LPARのコピー(又は移動)の処理において、統合LPARの割当て状態が割当てポリシーを満たしているか否かが判断される。
ステップ242の判断結果が肯定の場合(S242:No)、ステップ243が行われる。ステップ242の判断結果が否定の場合、ステップ246が行われる。なお、ステップ241とステップ242を省略し、ポリシーを確認せずに後続の処理(ステップ243以降)が行われてもよい。
ステップ243において、統合管理プログラム660は、コピー先環境に未割当てリソースがあることを確認し、使用するリソースを決定する。詳細は、図17の統合LPAR作成処理におけるリソースの割当ての処理の流れと同様に、ストレージHBAポート122、サーバHBAポート108、サーバHBA CTL107、サーバCPU102、メモリ103、NIC109について、ポリシーに従ってリソースが決定される。
ステップ244において、統合管理プログラム660は、VOLコピーをストレージ120に指示する。この指示には、予め定めたコピー速度が指定されていてよい。コピー負荷が他のサーバLPAR101の性能に影響を与えないようにするためである。その指示に応答して、指定されたコピー速度以下の速度で、VOL間のデータコピーが行われる。
ステップ245において、統合管理プログラム660は、サーバLPAR101を作成する。具体的には、例えば、統合管理プログラム660は、ステップ243で決定したリソースを使用し、ステップ244でコピーしたVOLを使用し、統合LPARサイズテンプレートテーブル147に基づき、コピー元と同じ統合LPARサイズのサーバLPAR101を作成する。
ステップ246において、統合管理プログラム660は、統合LPARの構成が変更されていることをシステム管理者に通知する。システム管理者への通知に代えて、割当てポリシーを満足するよう、コピー対象LPARの構成(リソース割当て)が自動的に変更されてもよい。
図20は、統合LPAR移動処理の流れの一例を示す。
統合LPAR移動処理を実行する前に、統合管理プログラム660は、システム管理者から、移動対象の統合LPARの選択と移動先の環境との選択を受け付ける。
ステップ241、S242、及びS246の処理は、図19と同様である。
ステップ263において、統合管理プログラム660は、移動先の環境に未割当てリソースがあることを確認し、使用するリソースを決定する。詳細は、図17の統合LPAR作成処理におけるリソースの割当ての処理の流れと同様に、ストレージHBAポート122、サーバHBAポート108、サーバHBA CTL107、サーバCPU102、メモリ103、NIC109について、ポリシーに従ってリソースが決定される。
S264において、統合管理プログラム660は、VOL移動をサーバ100とストレージ120に指示する。
ここで、本番系のサーバLPAR101uとVOL126uをサーバ100wとストレージ120wに移動することを例に取る。なお、移動前はVOL105uを使用する経路によりVOL126uへのアクセスが行われていたとする。
統合管理プログラム660は、VOL126wがVOL126uを参照するよう設定する。設定完了後、統合管理プログラム660は、VOL105vを使用する経路をVOL110uに追加する。経路追加後、統合管理プログラム660は、VOL105uを使用する経路を削除する。経路削除後、統合管理プログラム660は、VOL126uの内容をVOL126xにコピーする。なお、コピー負荷が他のサーバLPAR101の性能に影響を与えないように、予め定めたコピー速度におけるコピーを指示する。コピー完了後、統合管理プログラム660は、VOL105vの参照先をVOL126wからVOL126xに切り替える。
ステップ265において、統合管理プログラム660は、サーバ100にサーバLPAR移動を指示する。具体的には、例えば、統合管理プログラム660は、ステップ263で決定したリソースを使用し、ステップ263でコピーしたVOLを使用し、統合LPARサイズテンプレートテーブル147に基づき、コピー元と同じ統合LPARサイズのサーバLPARを作成する。この際、統合管理プログラム660は、サーバLPAR101u内のメモリ103の内容をサーバLPAR101wにコピーし、コピー完了後、サーバLPAR101uを削除する。
実施例2によれば、統合LPARのコピー先又は移動先で、統合LPARに対するリソース割当て(割当てポリシーに従うリソース割当て)を引き継ぐことができる。従って、統合LPARのコピー又は移動が発生しても、APP集約率の向上と性能影響の防止の両方を維持できる。なお、実施例2では、同一サーバ100及び同一ストレージ120での異なる環境間で統合LPAR再配置は、統合LPARコピーであるが、コピーに限らず移動でもよい。同様に、同一環境での異なるサーバ100間及び異なるストレージ120間での統合LPAR再配置は、統合LPAR移動であるが、移動に限らずコピーでもよい。
実施例3を説明する。その際、実施例1及び2との相違点を主に説明し、実施例1及び2との共通点については説明を省略或いは簡略する。
統合管理プログラム660が、サーバストレージシステム1000のリソースのメトリック値を繰り返し(例えば定期的に)収集し、リソース毎のメトリック値を管理情報670に登録する。統合管理プログラム660は、登録されたメトリック値と、管理情報670内のテーブル145〜155のうちの少なくとも1つとリソース毎にマージした監視結果を表す監視結果画面を表示できる。
図23は、監視結果画面の一例を示す。
監視結果画面2301は、サーバリソース監視結果と、ストレージリソース監視結果とを表示する。
サーバリソース監視結果は、サーバHBAテーブル152と、サーバHBAポート108及びサーバHBA CTL107の帯域使用率(メトリック値の一例)とがマージされた情報である。
ストレージリソース監視結果は、ストレージHBAテーブル153と、ストレージHBAポート122の帯域使用率(メトリック値の一例)とがマージされた情報である。
システム管理者は、監視結果画面2301を見ることで、リソース管理を適切に行うことができる。例えば、ストレージHBAポート122の帯域使用率が或る値を超えている場合、そのポート122が、共有リソースであれば、システム管理者は、そのポート122を別の統合LPARに更に割り当てることができると判断して、リソース割当ての最適化のための操作を行うことができる。一方、そのポート122が、占有リソースであれば、システム管理者は、そのポート122の割当て状態を占有割当てから共有割当てに変えてはならないと判断できる。
以上、幾つかの実施例を説明したが、これらは本発明の説明のための例示であって、本発明の範囲をこれらの実施例にのみ限定する趣旨ではない。本発明は、他の種々の形態でも実施することが可能である。例えば、上述した実施例では、統合LPARへの負荷の特性は、APP用途及びVOL用途に基づき期待(予測)される負荷の特性(例えば、I/O特性)であるが、それに代えて、実測値として得られた負荷の特性(例えば、I/O特性)であってもよい。
100…サーバ、120…ストレージシステム

Claims (13)

  1. サーバシステム及びストレージシステムを含んだサーバストレージシステムを有し、
    前記サーバストレージシステムが、複数種類のリソースを含んだ複数のリソースのうちの少なくとも一部が論理分割されることにより得られた複数の論理区画を有し、
    前記複数のリソースは、前記サーバシステムが有する複数種類のサーバリソースを含んだ複数のサーバリソースと、前記ストレージシステムが有する複数種類のストレージリソースを含んだ複数のストレージリソースとを含み、
    2以上の論理区画の各々に割り当てられるリソースは、占有割当てされたリソースと共有割当てされたリソースとの少なくとも一方を含み、
    論理区画に占有割当てされたリソースは、その論理区画に占有されるリソースであり、
    論理区画に共有割当てされたリソースは、その論理区画を含む少なくとも2つの論理区画に共有され得るリソースであり、
    前記2以上の論理区画の各々について、占有割当てされている複数のリソースの種類が、その論理区画への負荷の負荷特性により異なり、
    前記2以上の論理区画の各々では、前記ストレージシステムにより提供された論理ボリューム(VOL)に対するI/O要求を発行するアプリケーションプログラム(APP)が実行されるようになっており、
    前記2以上の論理区画の各々について、その論理区画の負荷特性は、その論理区画へ提供されたVOLへのI/Oの特性である、
    計算機システム。
  2. 前記2以上の論理区画の各々について、その論理区画のI/O特性は、その論理区画において発行されるI/O要求に付随するI/O対象データのサイズであるI/Oサイズを含む、
    請求項記載の計算機システム。
  3. 前記2以上の論理区画の各々について、その論理区画のI/O特性は、その論理区画で実行されるAPPの用途の入力と、そのAPPによるI/O先のVOLの用途の入力とに基づき決定された特性である、
    請求項記載の計算機システム。
  4. 前記複数のサーバリソースが、前記ストレージシステムに接続される1以上の第1インターフェースデバイスの1以上のコントローラ(CTL)と、前記1以上の第1インターフェースデバイスの1以上の第1ポートとを含み、
    前記複数のストレージリソースが、前記サーバシステムに接続される1以上の第2インターフェースデバイスと、前記1以上の第2インターフェースデバイスの1以上の第2ポートとを含み、
    CTL、第1ポート、第2インターフェースデバイス及び第2ポートのうちの少なくとも1つについて、前記2以上の論理区画の各々に対して占有割当てか共有割当てかは、その論理区画へ提供されたVOLのI/Oサイズに依存している、
    請求項記載の計算機システム。
  5. I/Oサイズが大きいとされた2以上のVOLが提供された論理区画には、異なるCTL、異なる第1ポート、及び、異なる第2ポートが割り当てられ、第2インターフェースデバイスが共有割当てされ、
    共有割当てされる第2インターフェースデバイスは、同I/OサイズのVOLが提供された論理区画に共有される、
    請求項記載の計算機システム。
  6. I/Oサイズが大きいとされたVOLが提供された論理区画とI/Oサイズが小さいとされたVOLが提供された論理区画には、異なるCTL、及び、異なる第2インターフェースデバイスが割り当てられる、
    請求項記載の計算機システム。
  7. それぞれI/Oサイズが小さいとされたVOLが提供された2以上の論理区画には、異なるCTLが割り当てられ、第1ポート、第2ポート及び第2インターフェースデバイスが共有割当てされ、
    共有割当てされる第2インターフェースデバイス及び第2ポートは、それぞれ、同I/OサイズのVOLが提供された論理区画に共有される、
    請求項記載の計算機システム。
  8. 前記2以上の論理区画の各々には、複数のリソース割当てポリシーのうち、その論理区画の負荷特性に対応したリソース割当てポリシーに従ってリソースが割り当てられ、
    前記複数のリソース割当てポリシーの各々は、2以上のリソース種類の各々について占有と共有のいずれで割当てるかが定義されたポリシーである、
    請求項1記載の計算機システム。
  9. 前記サーバストレージシステムが、サーバシステムからストレージシステムにかけて論理分割されることにより得られた複数のサブシステムを有し、
    前記複数のサブシステムのうちの第1サブシステムが、本番環境に属するサブシステムである本番系であり、
    前記複数のサブシステムのうちの第2サブシステムが、開発環境に属するサブシステムである開発系であり、
    前記本番系が、前記2以上の論理区画を有する、
    請求項1記載の計算機システム。
  10. 同一サーバシステム及び同一ストレージシステムでの異なる環境間での論理区画再配置と、同一環境での異なるサーバシステム間及び異なるストレージシステム間での論理区画再配置のうちの少なくとも1つが行われ、
    再配置先において、論理区画には、その論理区画の特性に従い、割当て対象のリソース種類毎に、占有割当てされるか共有割当てされるかが制御される、
    請求項記載の計算機システム。
  11. 前記サーバストレージシステムを管理する管理システムを有し、
    前記管理システムが、
    前記複数のリソースの少なくとも一部のリソースのメトリック値を収集し、
    前記少なくとも一部のリソースについて、占有割当てされているか共有割当てされているかと、収集されたメトリック値とを表示する、
    請求項1記載の計算機システム。
  12. サーバシステム及びストレージシステムを含んだサーバストレージシステムを有し、
    前記サーバストレージシステムが、複数種類のリソースを含んだ複数のリソースのうちの少なくとも一部が論理分割されることにより得られた複数の論理区画を有し、
    前記複数のリソースは、前記サーバシステムが有する複数種類のサーバリソースを含んだ複数のサーバリソースと、前記ストレージシステムが有する複数種類のストレージリソースを含んだ複数のストレージリソースとを含み、
    2以上の論理区画の各々に割り当てられるリソースは、占有割当てされたリソースと共有割当てされたリソースとの少なくとも一方を含み、
    論理区画に占有割当てされたリソースは、その論理区画に占有されるリソースであり、
    論理区画に共有割当てされたリソースは、その論理区画を含む少なくとも2つの論理区画に共有され得るリソースであり、
    前記2以上の論理区画の各々について、占有割当てされている複数のリソースの種類が、その論理区画への負荷の負荷特性により異なり、
    前記サーバストレージシステムのリソースの論理区画への割当てを制御する管理システムを更に有し、
    前記2以上の論理区画の各々では、前記ストレージシステムにより提供された論理ボリューム(VOL)に対するI/O要求を発行するアプリケーションプログラム(APP)が実行されるようになっており、
    前記管理システムは、
    前記2以上の論理区画の各々について、その論理区画で実行されるAPPの用途の入力と、そのAPPによるI/O先のVOLの用途の入力とを受け付け、
    入力されたAPP用途及びVOL用途に基づいて、その論理区画で提供されたVOLへのI/Oの特性であるI/O特性を決定する
    算機システム。
  13. サーバシステム及びストレージシステムを含んだサーバストレージシステムを管理する管理システムにおける論理区画管理方法であって、
    前記管理システムは制御部と記憶部とを有し、
    前記記憶部は、前記サーバシステムと前記ストレージシステム各々の有する複数リソースのリソース情報と、リソースへの負荷特性に応じて前記複数リソース其々を作成される論理区画に対して占有割り当てとするか又は共有割り当てとするかを対応づけたポリシーを有し、
    前記制御部は、
    アプリケーションの識別情報と当該アプリケーションに提供される論理区画の作成指示を受け、
    前記リソース情報、前記識別情報に基づいて得られる負荷特性と前記ポリシーとに基づいて、前記論理区画に割り当てられるリソースを特定し、かつ、前記特定されたリソースそれぞれについて占有割り当てとするか共有割り当てとするかを判定し、
    前記特定されたリソースが前記判定に基づいて割り当てられる論理区画の作成指示を前記サーバシステムと前記ストレージシステムとに送信し、
    前記制御部は、
    前記アプリケーションの識別情報に加えて、前記アプリケーションの用途と、そのアプリケーションによるI/O先のボリュームの用途についての入力を受け、
    前記入力された情報に基づいて、前記アプリケーションにより発行されるI/O要求に付随するI/O対象データのサイズであるI/Oサイズを前記負荷特性として得る
    ことを特徴とする論理区画管理方法。
JP2017517568A 2015-05-14 2015-05-14 サーバストレージシステムを含んだ計算機システム Active JP6448779B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/063937 WO2016181554A1 (ja) 2015-05-14 2015-05-14 サーバストレージシステムを含んだ計算機システム

Publications (2)

Publication Number Publication Date
JPWO2016181554A1 JPWO2016181554A1 (ja) 2017-12-07
JP6448779B2 true JP6448779B2 (ja) 2019-01-09

Family

ID=57247870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017517568A Active JP6448779B2 (ja) 2015-05-14 2015-05-14 サーバストレージシステムを含んだ計算機システム

Country Status (4)

Country Link
US (1) US10552224B2 (ja)
JP (1) JP6448779B2 (ja)
CN (1) CN107430527B (ja)
WO (1) WO2016181554A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10481828B2 (en) * 2017-10-10 2019-11-19 Seagate Technology, Llc Slow drive detection
CN108958940A (zh) * 2018-07-09 2018-12-07 苏州浪潮智能软件有限公司 一种计算机处理方法及装置
CN111221858B (zh) * 2018-11-26 2023-07-04 阿里巴巴集团控股有限公司 一种数据处理方法、装置及设备
US11093170B2 (en) * 2019-04-02 2021-08-17 EMC IP Holding Company LLC Dataset splitting based on workload footprint analysis

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4018900B2 (ja) 2001-11-22 2007-12-05 株式会社日立製作所 仮想計算機システム及びプログラム
US20030126416A1 (en) * 2001-12-31 2003-07-03 Marr Deborah T. Suspending execution of a thread in a multi-threaded processor
CN1272931C (zh) * 2002-11-08 2006-08-30 联想(北京)有限公司 一种确保数据安全性的数据存储方法及其安全存储装置
US8578130B2 (en) * 2003-03-10 2013-11-05 International Business Machines Corporation Partitioning of node into more than one partition
US7430741B2 (en) * 2004-01-20 2008-09-30 International Business Machines Corporation Application-aware system that dynamically partitions and allocates resources on demand
JP4227035B2 (ja) * 2004-02-03 2009-02-18 株式会社日立製作所 計算機システム、管理装置、ストレージ装置及びコンピュータ装置
US8146089B2 (en) * 2006-06-14 2012-03-27 Intel Corporation Sharing resources of a partitioned system
JP5028304B2 (ja) 2008-03-11 2012-09-19 株式会社日立製作所 仮想計算機システム及びその制御方法
US7962665B2 (en) * 2008-09-26 2011-06-14 International Business Machines Corporation Managing condition indicators that use the same physical indicator device in a logically partitioned computer system
JP2010205209A (ja) 2009-03-06 2010-09-16 Hitachi Ltd 管理計算機、計算機システム、物理リソース割り当て方法
JP5403448B2 (ja) 2010-03-20 2014-01-29 株式会社Pfu 仮想マシン管理装置、仮想マシン管理方法、及びプログラム
CN103503414B (zh) * 2012-12-31 2016-03-09 华为技术有限公司 一种计算存储融合的集群系统

Also Published As

Publication number Publication date
US10552224B2 (en) 2020-02-04
JPWO2016181554A1 (ja) 2017-12-07
CN107430527A (zh) 2017-12-01
US20180052715A1 (en) 2018-02-22
CN107430527B (zh) 2021-01-29
WO2016181554A1 (ja) 2016-11-17

Similar Documents

Publication Publication Date Title
US9400664B2 (en) Method and apparatus for offloading storage workload
US8595364B2 (en) System and method for automatic storage load balancing in virtual server environments
US8402239B2 (en) Volume management for network-type storage devices
WO2017072933A1 (ja) 計算機システムの管理システム及び管理方法
JP6347730B2 (ja) 計算機システム及び計算機リソースの割当て管理方法
WO2014064756A1 (ja) ストレージプールから実記憶領域を仮想ボリュームへ割り当てる方法及び計算機システム
JP2005216151A (ja) 資源運用管理システム及び資源運用管理方法
US20180046509A1 (en) Management system for computer system
WO2014155555A1 (ja) 管理システム及び管理プログラム
JP6448779B2 (ja) サーバストレージシステムを含んだ計算機システム
WO2015118679A1 (ja) 計算機、ハイパーバイザ、物理コアの割り当て方法
JP6480955B2 (ja) 計算機システム、管理システム、及び、リソース管理方法
JP2015532734A (ja) 物理ストレージシステムを管理する管理システム、物理ストレージシステムのリソース移行先を決定する方法及び記憶媒体
JP2011070464A (ja) 計算機システム及び計算機システムの性能管理方法
JP6244496B2 (ja) サーバストレージシステムの管理システム及び管理方法
JP2006155640A (ja) アクセスの設定方法
US11755438B2 (en) Automatic failover of a software-defined storage controller to handle input-output operations to and from an assigned namespace on a non-volatile memory device
US9690610B2 (en) Computer system and management computer controlling method
JP6653786B2 (ja) I/o制御方法およびi/o制御システム
JP6231700B2 (ja) サーバストレージシステムと管理システムを有する計算機システム
JP6612995B2 (ja) データリバランスを制御するシステムおよび方法
WO2016056050A1 (ja) 計算機システム及びそれの管理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R150 Certificate of patent or registration of utility model

Ref document number: 6448779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150