JP2010205209A - 管理計算機、計算機システム、物理リソース割り当て方法 - Google Patents

管理計算機、計算機システム、物理リソース割り当て方法 Download PDF

Info

Publication number
JP2010205209A
JP2010205209A JP2009052922A JP2009052922A JP2010205209A JP 2010205209 A JP2010205209 A JP 2010205209A JP 2009052922 A JP2009052922 A JP 2009052922A JP 2009052922 A JP2009052922 A JP 2009052922A JP 2010205209 A JP2010205209 A JP 2010205209A
Authority
JP
Japan
Prior art keywords
allocation
physical resource
physical
computer
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009052922A
Other languages
English (en)
Inventor
Tomoshi Yoshimura
智志 吉村
Shinji Hotta
真次 堀田
Eiko Kin
永光 金
Toshisue Kunimi
俊季 國見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009052922A priority Critical patent/JP2010205209A/ja
Priority to US12/700,061 priority patent/US20100229171A1/en
Publication of JP2010205209A publication Critical patent/JP2010205209A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Abstract

【課題】本発明は、仮想化システムにおいて物理リソースの割り当て方法に関するものであり、従来は、HAクラスタやVLANなどを導入しているシステムに対してLPAR間の排他連携や共有連携を考慮して物理リソースを割り当てる必要があった。
【解決手段】上記課題を、物理リソース管理データを持つ物理リソース管理テーブル作成部213と、物理リソースの割り当てポリシーを管理する割り当てポリシー管理テーブル作成部215とLPARの構成情報を管理する構成情報管理テーブル作成部216と、それらのテーブルからLPARに対して割り当てる適切な物理リソースを選択する、物理リソース割り当て判定部214により構成される、仮想化システムの管理機能を持つ管理計算機111により解決する。
【選択図】図2

Description

本発明は仮想化システムの仮想計算機の生成または消滅等のタイミングでの物理ハードウェアのリソースの割り当ての技術に関する。
HA(High Availability)構成をとるサーバ仮想化環境において、ホストOS(Operating System)上にゲストOSを監視するクラスタプログラムを有し、当該クラスタプログラムがユーザの業務上のHA要件に基づいて、適切なHA構成を選択し、障害時の系切り替えを実現する技術が特許文献1で開示されている。
特開2008−165637号公報
特許文献1では、クラスタシステムにおける障害時(障害後)の切り替え先を選択する方法について開示しているが、各LPAR(Logical PARtition)がどの物理リソースを使用する(割り当てる)か、については言及していない。
そこで、本発明では、仮想化システムの仮想計算機への物理リソースの割り当てを最適化することを目的とする。
本発明では、仮想化システムにおいて、仮想計算機の構成情報に基づき物理ハードウェアを割り当てることを特徴とする。具体的には、
仮想計算機が稼働する物理計算機と、その物理計算機を管理する計算機(管理計算機)によって構成される計算機システムにおいて、
仮想計算機を制御する仮想化プログラム上では、構成情報採取部と、物理リソース情報採取部が稼働しており、
管理計算機上では、物理リソース管理テーブルと、割り当てポリシー管理テーブルと、構成情報管理テーブルを前記各種採取部から作成する各種テーブル作成部が稼働しており、前記テーブルに基づいて物理リソースの割り当てを制御する。
詳細は、後記する。
本発明によれば、仮想化システムの仮想計算機への物理リソースの割り当てを最適化することができる。
本発明の計算機システムのハードウェア構成を示すブロック図である。 物理計算機および管理計算機のソフトウェア構成を示すブロック図である。 物理リソース管理テーブルの構成図である。 物理リソースの割り当て条件を説明する表の構成図である。 物理リソース管理テーブルで使用される物理リソース割り当て条件の記号を説明する表の構成図である。 割り当てポリシー管理テーブルの構成図である。 物理リソース管理テーブルを構成するセルの状態遷移にてデバイス割り当て済みの場合の状態遷移図である。 物理リソース管理テーブルを構成するセルの状態遷移にてデバイス未割り当てでユニット割り当て済みの場合の状態遷移図である。 物理リソース管理テーブルを構成するセルの状態遷移にてデバイス未割り当てでユニット未割り当ての場合の状態遷移図である。 物理リソース割り当て判定部の処理を示すフローチャートである。 物理リソース割り当て判定部の処理を示すフローチャートである。 物理リソース割り当て判定部の処理を示すフローチャートである。 1つの仮想化システムで閉じたシステムにおいて、あるLPARの割り当てポリシー管理テーブルに排他連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 1つの仮想化システムで閉じたシステムにおいて、あるLPARの割り当てポリシー管理テーブルに排他連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 1つの仮想化システムで閉じたシステムにおいて、あるLPARの割り当てポリシー管理テーブルに排他連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 2つの仮想化システムにおいて、あるLPARの割り当てポリシー管理テーブルに共有連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 2つの仮想化システムにおいて、あるLPARの割り当てポリシー管理テーブルに共有連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 2つの仮想化システムにおいて、あるLPARの割り当てポリシー管理テーブルに共有連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 1つの仮想化システムにおいて、代替割り当て条件によって割り当てが成功する場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 1つの仮想化システムにおいて、代替割り当て条件によって割り当てが成功する場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 1つの仮想化システムにおいて、代替割り当て条件によって割り当てが成功する場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。 構成情報管理テーブルの構成図である。 システム起動時とLPAR作成時の物理リソース管理テーブル作成部と割り当てポリシー管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。 システム起動時とLPAR作成時の物理リソース管理テーブル作成部と割り当てポリシー管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。 LPAR削除時の物理リソース管理テーブル作成部と割り当てポリシー管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。 LPAR更新時の割り当てポリシー管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。 LPAR障害発生時の物理リソース管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。 管理計算機上の構成情報管理テーブル作成部の処理を示すフローチャートである。 割り当て条件と重み付けの対応表の構成図である。 物理リソースに付与したIDの対応表の構成図である。 重み付け条件による優先度の対応表の構成図である。 所定の割り当てポリシー管理テーブルに対して決定された優先順位を示す優先順位表の構成図である。 LPARの優先順位を含む所定の割り当てポリシー管理テーブルの構成図である。 LPARの優先順位を含む所定の割り当てポリシー管理テーブルの構成図である。 LPAR生成順によるLPAR選択の優先度の対応表の構成図である。 業務グループによるLPAR選択の優先度の対応表の構成図である。
以下に、本発明を実施するための実施の形態(以下、「実施形態」という。)を添付図面に基づいて説明する。
本実施形態に関する図は、本発明を理解することを目的に、物理計算機と管理計算機と明確に区別し、その数も限定して示しているが、本発明は、物理計算機と管理計算機が区別されていなくても、また前記各種計算機が複数存在していても適用可能である。
≪はじめに≫
既に述べたとおり、本発明は、仮想化システムにおける仮想計算機への物理リソースの割り当てを最適化するが、最適化がなされない場合、具体的には、以下に述べるような課題が生じる。
まず、一般的な従来技術では、物理リソースの有効利用と、HAシステムの同一物理リソース障害による二重障害の防止を目的としたLPARの独立性の確保と、SAN(Storage Area Network)セキュリティやVLAN(Virtual LAN(Local Area Network))からの情報傍受の防止を目的としたシステムの独立性の確保と、をすべて成立させる物理リソースの割り当てに配慮がされておらず、信頼性やセキュリティ面が十分ではないという第1の課題がある。
前記第1の課題は、すべてのLPARへの物理リソースの占有割り当て(ある物理リソースを1つだけのLPARへ割り当てること)によって解決することもできる。しかしこの方法では仮想化システムの特徴の一つである物理リソースの共有割り当て(ある物理リソースを2以上のLPARへ割り当てること)によるリソースの有効利用が達成されないという第2の課題がある。
また第1の課題は、物理リソースの配置とすべてのLPARの要求構成をユーザが把握していれば、最小限の占有割り当てによって適切な物理リソースを割り当て解決することもできる。しかし大規模なシステム構成を考慮すると人的リソースによる解決は非現実的であるという第3の課題がある。
加えて、仮想化システム上でHAクラスタなどを構築する場合、ユーザは仮想化システム上で割り当てるリソースと物理リソースのマッピングを意識して割り当てを実施する必要が生じる。そのため、物理システム上でのシステム構築に比べ、ユーザへの負担が大きいという第4の課題がある。
そこで、本発明による物理リソースの割り当ての最適化とは、具体的には、仮想化システムの特長であるリソースの有効利用(共有割り当て)と、セキュリティを考慮したシステムの独立性の確保(占有割り当て)を、ユーザの手を煩わせずにシステム側で両立させること意味する。
以下、実施形態を説明するときには、主に、このような事情を踏まえて説明する。
≪実施形態1≫
図1は、本発明の計算機システム(以下、単に、「システム」と称する場合がある)のハードウェア構成を示すブロック図である。本実施形態のシステムは複数(図1では、一例として2台)の物理計算機101(物理計算機A(101a)、物理計算機B(101b)の総称)と、1台の管理計算機111とがネットワークを介して接続されている。
物理計算機101は、CPU(Central Processing Unit)102(102a、102bの総称)と、メモリ1(105)(105a、105bの総称)、メモリ2(106)(106a、106bの総称)と、BMC(Baseboard Management Controller)107(107a、107bの総称)と、NIC(Network Interface Card)108(108a、108bの総称)と、FC(Fibre Channel Card)109(109a、109bの総称)を備えるコンピュータである。また、物理計算機101は、ディスプレイ装置等で実現した表示部や、マウス、キーボード等で実現した入力部も備えている。
CPU102は、メモリ105、106によって格納されたプログラムを実行することで各処理を実行する。メモリ105、106およびストレージ110(110a、110bの総称)はCPU102によって処理されたデータを格納する。NIC108は図中のネットワークを介し、ほかの計算機(例えば物理計算機、管理計算機)と通信する。CPU102は、コア1(103)(103a、103bの総称)、コア2(104)(104a、104bの総称)を持ち、例えばOSなど様々なプログラムを並列で稼働させることができる。メモリ105、メモリ106はそれぞれメモリバスでCPU102に接続される。
管理計算機111においても、ハードウェア構成としては物理計算機101と同様なコンピュータである。図1では、NIC112、CPU(制御部)113、メモリ(記憶部)114、ストレージ115、ディスプレイ装置(表示部)116が図示されている。また、管理計算機111は、マウス、キーボード等で実現した入力部も備えている。
図2は、物理計算機および管理計算機のソフトウェア構成を示すブロック図である。説明の便宜上、物理計算機は、物理計算機A(101a)に着目する。
物理計算機A(101a)では、仮想化システム201で稼働するハイパバイザ208により論理区画(以下、「LPAR(Logical PARtition):仮想計算機」という。)が構成され、LPARが提供される。LPAR1(202)にはゲストOS1(205)が稼働しており、ゲストOS1(205)上では、例えばLPAR間でのHAクラスタ機能を提供する構成管理プログラム1(204)が稼働している。LPAR2(203)の構成もLPAR1(202)と同様であり、ゲストOS2(207)上では、例えばLPAR間でのHAクラスタ機能を提供する構成管理プログラム2(206)が稼働している。
物理計算機A(101a)のハイパバイザ208は、物理リソース割り当て実行部209と、構成情報採取部210と、物理リソース情報採取部211からなる。
前記物理リソース割り当て実行部209は、ハイパバイザ208から物理リソースの割り当て要求があると物理リソースを論理リソースとしてLPARへ割り当てる機能を有する。
前記構成情報採取部210は、各LPAR上で稼働する構成管理プログラムとのインタフェースを持ち、各LPARで要求している構成情報を収集する機能を有する。ここで「構成情報」とは、主に、あるLPARが要求するLPAR間の連携情報(排他連携または共有連携、連携対象LPARを含む。)を指す。
前記物理リソース情報採取部211は、BMC107とのインタフェースを持ち、物理計算機101の有する物理リソース情報(CPU数(コア数)、メモリ数、NIC数(ポート数)、FC数(ポート数))を収集する機能を有する。
構成情報採取部210と、物理リソース情報採取部211は、ネットワークを介し各種収集した情報を管理計算機111に送信する。
物理計算機B(101b)においても、物理計算機Aと同様の機能を有するため、物理計算機B(101b)の説明は省略する。物理計算機B(101b)の機能を構成する上記の各機能ブロックに付す記号も同一であるとする。
管理計算機111では、OS220が稼働し、OS220上ではサーバ管理ソフトウェア212が稼働している。
サーバ管理ソフトウェア212は、物理計算機101のハードウェア構成の一元管理機能と、仮想化システム201の一元管理(LPARの作成または削除、物理リソースの割り当て、構成情報の管理)を行う機能を有している。
また、サーバ管理ソフトウェア212は、物理リソース管理テーブル作成部213と、物理リソース割り当て判定部214と、割り当てポリシー管理テーブル作成部215と、構成情報管理テーブル作成部216とを有している。
前記物理リソース管理テーブル作成部213は、物理計算機101の仮想化システム201上の物理リソース情報採取部211から該物理計算機101の物理リソース情報を受信し、該物理リソースと仮想化システム201のLPAR最大数とを要素とした物理リソース管理テーブル217を作成する。
図3は、物理リソース管理テーブルの構成図である。
物理リソース管理テーブル(物理リソース管理情報)217は、図3に示されるようにLPAR識別子301と、ある種類の物理リソース識別子302〜306(物理リソース識別子の数は、これに限定しない)を有し、LPAR識別子301は稼働している物理計算機間で区別できるように物理計算機名(例:SYS A(物理計算機A(101a)の意。ただし、無くても良い。))とLPAR番号(例:LPAR1)を用いて構成される(例:SYS A−LPAR1)。これにより、LPARごとの物理リソースの割り当てに関する状態(割り当て状態)が登録される。状態の説明は、後記する。
物理リソースは、「デバイス」と「ユニット」という概念で単位を区分する。CPUを例にするとデバイスはCPU(ソケット)単位、ユニットはコア単位となる。物理リソース識別子302〜306は、デバイスは物理計算機名(例:SYS A)とデバイス名(例:デバイス1)で(例:SYS A−デバイス1)、ユニットはユニット名(例:ユニット1)で構成される。物理リソース管理テーブル217は物理リソースごとに作成され管理される。該テーブル217は仮想化システム201を制御する仮想化プログラム(不図示)の稼働を契機に新規作成または更新される。
前記割り当てポリシー管理テーブル作成部215は、ユーザから要求されるLPARへの物理リソースの割り当て、または構成情報管理テーブル219から取得されるLPAR間の連携情報からLPAR毎に割り当てポリシー管理テーブル218を作成する。
図6は、割り当てポリシー管理テーブルの構成図である。
割り当てポリシー管理テーブル(割り当て条件管理情報)218は、図6に示されるようにLPAR識別子601と、ユーザの操作により、該テーブルに値が入力された時刻(仮想化プログラム上の仮想計算機のために論理区画が確保された時刻)であるLPAR生成時刻を示す生成時刻602(LPARの「生成」は便宜上、LPARの「作成」と呼ぶことがある)と、LPARの属する業務(当該LPARの論理リソースを使用して実現されるアプリケーションのサービスをいう)で定めたグループを示す業務グループ603と、物理リソースの種別を示す物理リソース604と、物理リソースの割り当て要求個数を示す個数605と、物理リソースの割り当て条件606と、前記割り当て条件による割り当てが失敗した際の代替条件607と、排他連携または共有連携の要求時に該LPARと連携するLPARのLPAR名が登録される連携LPAR識別子608を有する。割り当てポリシー管理テーブル218は、LPARごとに作成され管理される。該テーブル218は物理リソース管理テーブル217の各LPAR列(LPAR識別子301)に括り付けられ、物理リソース管理テーブル217の新規作成を契機に、LPAR最大数分作成される。
なお、代替条件は、割り当てが失敗になってしまった割り当て条件よりも緩いことが好ましい。割り当てを成功させることを優先して用いる条件であるからである。しかし、システムの構築の如何により、これに限定する必要は無い。
前記構成情報管理テーブル作成部216は、物理計算機101の仮想化システム201上の構成情報採取部210から該物理計算機101の該仮想化システム201上の、各LPARの構成情報を受信し、該物理リソースの種類と仮想化システム201のLPAR最大数とを要素とした構成情報管理テーブル219を作成する。
図15は、構成情報管理テーブルの構成図である。
構成情報管理テーブル(構成情報管理情報)219は、図15に示されるようにLPAR識別子1501と、仮想計算機へ割り当て可能な各種物理リソース1502〜1505(物理リソースの数はこれに限定しない)を有し、仮想計算機上のゲストOS上で稼働する冗長化プログラム(不図示)から連携が要求されている仮想計算機(つまり、LPAR)の有無と、連携先となるLPARと連携元となるLPARを定めた連携情報を含む構成情報を管理する。該テーブル219は、仮想化システムを制御する仮想化プログラムの稼動を契機に新規作成または更新される。
前記物理リソース割り当て判定部214は、LPAR生成のタイミングで、該LPARの割り当てポリシー管理テーブル218を読み込み、該LPARへの各物理リソースの割り当て条件を確認する(図6の符号606参照)。該LPARの該物理リソースの割り当て条件と、物理リソース管理テーブル217の該LPAR行、該物理リソース列(物理リソース識別子302等)の状態と、を比較し、該割り当て条件の方が有効であれば、該物理リソース管理テーブル217を更新する。すべての仮想化システム上で生成されたすべてのLPARに要求された物理リソースの割り当て条件が成立すれば、該物理リソース管理テーブル217に従った割り当て要求を、物理リソース割り当て実行部209に送信する。
ここで、物理リソースの割り当て条件について説明する。
図4は、物理リソースの割り当て条件を説明する表の構成図である。
割り当て条件401は、図4の説明402で示すようにデバイス占有割り当てと、LPARの排他連携を含んだデバイス占有割り当てと、ユニット占有割り当てと、ユニット共有割り当てと、LPARの共有連携を含んだユニット共有割り当ての、5つの割り当て方法からなる。
デバイス占有割り当て(割り当て条件1)は、該デバイスを構成するユニットを対象のLPARに占有で割り当てる方法である。デバイス占有割り当てがされているデバイスはたとえユニットに空きがあってもほかのLPARに割り当てることはできない。この割り当て条件は、割り当てられる物理リソースをデバイス単位で占有することで、前記した課題の一つである、同一物理リソース(デバイス)の共有による二重障害を防ぐことを目的として定めた条件である。
LPARの排他連携を含んだデバイス占有割り当て(割り当て条件2)は、指定されたLPARと該デバイスを共有しないように割り当てる方法である。この割り当て条件は、仮想化システム上のLPAR間でHAクラスタを構成する場合に有効であり、連携対象となるLPARとのみデバイス共有を禁止(排他)し、他のLPARとの共有は許可する。こうすることで、前述の二重障害を防ぎつつ物理リソースの有効利用も達成することができる。
ユニット占有割り当て(割り当て条件3)は、該ユニットを特定の対象のLPARに占有で割り当てる方法である。ユニット占有割り当てがされているユニットと同一デバイスのほかのユニットは、ほかのLPARによって割り当て可能である。この割り当て条件は、従来技術の物理リソースの占有割り当てと同様の割り当てである。
ユニット共有割り当て(割り当て条件4)は、該ユニットによる複数のLPARの共有を許可する割り当て方法である。この割り当て条件は、従来技術の物理リソースの共有割り当てと同様の割り当てであり、複数のLPARと共有することで物理リソースの有効利用を達成することができる。
LPARの共有連携を含んだユニット共有割り当て(割り当て条件5)は、指定されたLPARとのみ該ユニットの共有を許可する割り当て方法である。この割り当て条件は、SANセキュリティやVLANを使用するLPARに有効であり、システムや業務内容が同じLPARとのみユニット共有を許可することで、ユニット共有による不正な情報傍受などセキュリティ上の問題を防ぐことができる。
図5は、物理リソース管理テーブルで使用される物理リソース割り当て条件の記号を説明する表の構成図である。
以上の割り当て条件1〜5に対し、割り当ての状態を、便宜上図5のように記号501で表し、物理リソース管理テーブル217上では該記号(‘D’、‘S’、‘空白(NULL)’、‘×’、‘×(La)’、‘●’)で管理される。これらの記号の意味は、説明502に示したとおりである。なお、Laは、要求LPAR名であり、例えばユーザから割り当てが要求されるaという名のLPARを示す。
次に、物理リソース管理テーブル上での前記記号による状態遷移に関する説明をする。
図7、図8、図9は、物理リソース管理テーブルを構成するセルの状態遷移を説明する表の構成図である。この表は、状態遷移表700と称することにする。
前記状態遷移表700は、物理リソース管理テーブル217上のセルにLPARに対する要求があった際の状態(記号)遷移を示し、LPARに対する要求701と、各セルの状態を示す702〜704、801〜805、901、902を有する。各セルの状態は図5に示す記号で表現する。
デバイス占有割り当ての要求(割り当て条件1)711では、要求を受けるセルの状態が、カラム702〜704に示すように、既に他からの要求によりデバイス自体が割り当て済みだった場合、対象セルの状態に変更はない。
要求を受けるセルの状態が、カラム801〜805に示すようにデバイスは未割り当てだが、ユニットの割り当てが他のLPARにより行われた場合も、対象セルの状態に変更はない。
カラム901では対象ユニットは未割り当てだが、同じデバイスの他ユニットに割り当てが行われている場合も、対象セルの状態に変更はない。
カラム902でデバイス内の全ユニットが未割り当てであった場合、対象セルは記号‘D’に変更され、該ユニットの他のLPAR行と、同じデバイスの他ユニットの全LPAR行は記号‘×’に変更される。
このようにして、対象のLPARに対し、物理リソースが割り当てられているデバイス、ユニットが何も無いときに限り、デバイス占有割り当てが行われる。
LPAR排他連携を含んだデバイス占有割り当ての要求(割り当て条件2)712では、カラム702〜704、801〜805までの状態の場合は、対象セルの状態に変更はない。
カラム901では対象ユニットは未割り当てであり、他ユニットの連携LPAR行が空白(NULL)または‘×’であれば、対象セルは‘D’に変更される。また該ユニットの他のLPAR行は記号‘×’に変更され、同じデバイスの他ユニットの連携LPAR行は記号‘×(要求LPAR名)’に変更される。
カラム902では、デバイス内の全ユニットが未割り当てであるため、対象セルは記号‘D’に変更され、該ユニットの他のLPAR行は記号‘×’に、同じデバイスの他ユニットの連携LPAR行は記号‘×(要求LPAR名)’に変更される。
このようにして、対象のLPARに対し、排他連携したLPARとは割り当ての共有をしないようにしつつ、デバイス占有割り当てが行われる。
ユニット占有割り当ての要求(割り当て条件3)713では、カラム702〜704、801〜805までの状態の場合は、対象セルの状態に変更はない。
カラム901では対象ユニットは未割り当てであり、対象セルは‘D’に変更される。また該ユニットの他のLPAR行は記号‘×’に変更される。
同様にカラム902では、デバイス内の全ユニットが未割り当てであるため、対象セルは記号‘D’に変更される。また該ユニットの他のLPAR行は記号‘×’に変更される。
このようにして、対象のLPARに対し、ユニット占有割り当てが行われる。
ユニット共有割り当ての要求(割り当て条件4)714では、カラム702〜704、801、802までの状態の場合は、対象セルの状態に変更はない。
カラム803では、デバイスは未割り当てでユニットの割り当てが他のLPARにより行われている場合であるが、対象セルは空白(NULL)であるため記号‘S’に変更される。
カラム804、805は、対象セルの状態に変更はない。
カラム901では対象ユニットは未割り当てであり、対象セルは記号‘S’に変更され、同様にカラム902でも、デバイス内の全ユニットが未割り当てであるため、対象セルは記号‘S’に変更される。
このようにして、対象のLPARに対し、ユニット共有割り当てが行われる。
LPAR共有連携を含んだユニット共有割り当ての要求(割り当て条件5)715では、カラム702〜704、801、802までの状態の場合は、対象セルの状態に変更はない。
カラム803では、デバイスは未割り当てでユニットの割り当てが他のLPARにより行われている場合であるが、当該ユニットの連携LPAR以外の行が空白(NULL)または‘×’であれば、対象セルは記号‘S’に変更される。また該ユニットの連携LPAR以外の行は記号‘×(要求LPAR名)’に変更される。
カラム804、805は、対象セルの状態に変更はない。
カラム901では対象ユニットは未割り当てであり、対象セルは記号‘S’に変更される。また該ユニットの連携LPAR以外の行は記号‘×(要求LPAR名)’に変更される。
同様にカラム902でも、デバイス内の全ユニットが未割り当てであるため、対象セルは記号‘S’に変更され、該ユニットの連携LPAR以外の行は記号‘×(要求LPAR名)’に変更される。
このようにして、対象のLPARに対し、共有連携したLPARとのみ割り当ての共有がなされるようにしつつ、ユニット共有割り当てが行われる。
物理リソースの取り外し要求では、カラム702の状態(記号‘D’)の場合、空白(NULL)に更新し、当該デバイスのほかのユニット列も空白(NULL)に更新する。
カラム801の状態(記号‘D’)の場合は当該ユニット列を空白(NULL)に更新する。
カラム703、803、804、901、902の状態(記号‘−’)の場合は何もしない。
カラム704、805の状態(記号‘×(La)’)の場合、物理リソースの取り外しを要求されているLPARがLaと等しい場合のみ該記号は空白(NULL)に更新される。
カラム802の状態(記号‘S’)の場合、空白(NULL)に更新される。
このようにして、対象のLPARに対し、物理リソースの割り当てが削除される。
物理リソースに障害が発生し、使用不可になった場合、カラム702〜902は無条件に記号‘●’に更新される。
また、以上のように説明した要求に対して既に使用不可(記号‘●’)になっている場合もあるが、記号‘×’の場合と同様の状態遷移をするため図7、図8、図9からは省略している。
図10、図11(図11A、図11Bの総称)は、物理リソース割り当て判定部の処理を示すフローチャートである。管理計算機の物理リソース割り当て判定部214が、割り当て要求を受けた際の動作の物理リソース割り当てフローが示されている。物理リソース割り当て判定部214は、ユーザから割り当て条件が示され(入力され)、LPARが生成された時点で処理が開始される。なお、この処理の主体は、CPU113である。
図10では、まず、処理1001にて、ユーザに示されたLPARの優先方法を取得する。優先方法の種類については実施形態9で説明する。
次に、処理1002にて、全LPARの割り当てポリシー管理テーブル218から割り当て判定するLPARを1つ選択する。
次に、処理1003にて、選択されたLPARに係る割り当てポリシー管理テーブル218から各種物理リソースの割り当て情報を取得する。割り当て情報は、主に、物理リソース間の選択優先度(あるLPARに割り当てた1以上の物理リソース同士で定めた優先度)、各物理リソースの割り当て個数、割り当て条件、割り当て代替条件、連携LPARを含む。
次に、処理1004で、割り当て情報に含まれる物理リソース間の選択優先度から、優先して割り当てる物理リソースを1つ選択する。
次に、処理1005では、選択した物理リソースの割り当て条件を判定する。処理1005を通じて、既に取得した割り当て条件によって物理リソースを提供する物理計算機を選択する。ここで、割り当て条件として複数の物理計算機によるシステムで排他連携割り当てを選択した場合(処理1005で「排他連携」)、連携LPAR間の独立性を確保するため、処理1008にて連携LPARとは別筐体(物理計算機)の物理リソース管理テーブル217をポイント(指定)することにより、連携LPARとは別の物理計算機の物理リソースが優先的に選択される。
また、割り当て条件として共有連携割り当てを選択した場合(処理1005で「共有連携」)、閉じた筐体内で連携LPARを選択しセキュリティを確保するため、処理1006にて連携LPARと同じ筐体の物理リソース管理テーブル217をポイントすることにより、連携LPARとは同一の物理計算機の物理リソースが優先的に選択される。
また、割り当て条件として共有割り当てまたは占有割り当てを選択した場合(処理1005で「共有/占有割り当て」)、連携LPARの概念はないため、処理1007にて任意の筐体の物理リソース管理テーブル217をポイントすることにより、任意の筐体の物理リソースが選択される。
物理リソースの選択先を決定した後、図11(図11A)に示すように、処理1101にて、選択した物理リソースの割り当て条件に応じた方法で同一筐体内に物理リソースを、LPARの必要個数分確保する。このとき、指定された割り当て条件で物理リソースを確保可能であるか否かを、ポイントした物理リソース管理テーブル217を一時的な記憶領域に移して、図7〜図9に示した状態遷移が可能であるかを確認することによって判定する。物理リソースをLPARの必要個数分確保するように割り当て可能であれば(処理1101で「割当可」)、処理1102にて残りの種類の物理リソースについても同様に割り当てられるかを確認する。つまり、他の種類の物理リソースも割り当て条件に応じた方法で上記(処理1101)と同一筐体内に物理リソースを、LPARの必要個数分確保できるように、図7〜図9に示した状態遷移が可能であるかを確認する。
物理リソースを、LPARの必要個数分確保するように割り当て可能であれば(処理1102で「割当可」)、処理1111にて該LPARへの割り当て情報(主に、占有情報(占有割り当てに関する情報)や連携LPAR情報)を当該物理リソース管理テーブル217に反映する。
次に、処理1112にて、全LPARの割り当てが終了したか否か判定する。終了していれば(処理1112でYes)、処理1114にて、割り当てが成功したものとし、処理全体を終了する。終了していなければ(処理1112でNo)、処理1113にて、対象のLPARを変更し、処理1003へループする。このループは全LPARに割り当てが成功する(処理1114)か、いずれかのLPARで割り当て失敗する(処理1110)まで繰り返される。
もし処理1101、処理1102にて、割り当て条件を満たした物理リソースが、LPARの必要個数分確保できず、割り当てができない場合(処理1101、処理1102で「割当不可」)、処理1103にて、当該条件にて別筐体(物理計算機)で物理リソースの確保を試行したかどうか(処理1102または処理1103と同じ処理)を判定する。試行していなければ、つまりすべての筐体で試行が終わっていなければ(処理1103でNo)、処理1104にて別筐体の物理リソース管理テーブル217をポイントし、処理1101にループする。
一方、処理1103にて別筐体での試行が終わっている場合(処理1103でYes)、処理1105にて当該物理リソースが最優先の物理リソースかを判定する。最優先の物理リソースの場合(処理1105でYes)、要求された条件で割り当てるべきであり代替割り当て条件を適用せずに処理1108へ移行する。
一方、処理1105で最優先の物理リソースでない場合(処理1105でNo)、処理1106にて割り当て条件が代替条件であるか否か判定する。代替条件でなければ(処理1106でNo)、処理1107にて割り当てポリシーとして設定されている代替条件を設定し、処理1101にループする。一方、代替条件であれば(処理1106でYes)、処理1108へ移行する。
次に、処理1108では、最優先の物理リソースとしてまだ選択されていない物理リソースの有無を判定し、未選択の物理リソースがあった場合(処理1108でYes)、最優先物理リソースに当該物理リソースを選択し直すように選択する物理リソースを変更して処理1005にループする。未選択の物理リソースがない場合(処理1108でNo)、割り当て失敗として処理全体を終了する。
LPAR排他連携を含む割り当て条件が物理リソース管理テーブルで適用される様子について説明する。
図12(図12A、図12B、図12Cの総称)は、1つの仮想化システムで閉じたシステムにおいて、あるLPARの割り当てポリシー管理テーブルに排他連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。本図では説明を簡単にするために、物理リソースとしてCPUのみで説明することにする。また、本図では、符号1200が物理リソース管理テーブル(図3の符号217に相当)を示し、符号1210〜1240が割り当てポリシー管理テーブル(図6の符号218に相当)を示すものとして説明する。
LPAR1の割り当てポリシーテーブル1210において、カラム1215からCPUデバイスが2個と示され、カラム1216とカラム1218からLPAR2との排他連携でのデバイス占有割り当て(割り当て条件「2」)が要求されているように示されている。またカラム1217から代替割り当て条件(代替条件)はデバイス占有(割り当て条件「1」)となっているように示されている。ほかのLPARの要求する割り当て条件については図12のとおりなので省略する。
ここで割り当てポリシー管理テーブルの適用順序がLPARの生成順に従うとすると、LPAR1、LPAR2、LPAR3、LPAR4の順に適用される(生成時刻1212〜1242参照)。
LPAR1の割り当てポリシー管理テーブル1210によって、物理リソース管理テーブル1200のLPAR1行のカラム1202に記号“D”が入り、カラム1202のほかのセルには記号“×”が、また割り当て条件がLPAR2との排他連携であるためLPAR2行のカラム1203に“×(L1)”が挿入される(カラム1203のほかのセルは、まだこの時点では空白であることに注意されたい)。LPAR1はCPUを2個要求しているため、カラム1204、1205のCPU2も同様にLPAR1行のカラム1204に“D”が、カラム1204のほかのセルには記号“×”が、LPAR2行のカラム1205には“×(L1)”が挿入される。
次に、LPAR2の割り当てポリシー管理テーブル1220から、物理リソース管理テーブル1200のLPAR2行のカラム1202、1203、1204、1205と挿入を試みるが“×”または“×(L1)”が挿入されているために失敗し、LPAR2行のカラム1206にて初めて“D”が挿入される。その際にはLPAR2行のカラム1206のほかのセルには“×”が挿入される。LPAR2もLPAR1との排他連携を要求しているため、LPAR1行のカラム1207に“×(L2)”が挿入される。
次に、LPAR3の割り当てポリシーテーブル1230から、CPUをユニット占有で1個要求するが(割り当て条件「3」)、物理リソース管理テーブル1200のLPAR3行のカラム1202から条件に適合する記号を探していくが、1203は空きになっているため該セルに“D”が挿入され、ユニット占有であるためカラム1203のほかのセルを“×”で埋める。
最後に、LPAR4の割り当てポリシーテーブル1240から、CPUをユニット共有で1個要求するが(割り当て条件「4」)、物理リソース管理テーブル1200のLPAR4行のカラム1202から条件に適合する記号を探していく。LPAR4行のカラム1205が空きになっているため該セルに“S”が挿入される。
以上の処理は、管理計算機111の物理リソース割り当て判定部214で行われ、全LPARの要求を満たせることが判明すれば記号が埋まった物理リソース管理テーブル217の割り当てを該物理計算機の物理リソース割り当て実行部209へ要求し、物理リソースの実際の割り当てが実行される。
本実施形態のLPAR排他連携を含むデバイス占有割り当てを、HAクラスタシステムを構築しているLPAR間で実施すれば、同一物理リソース(デバイス)障害による二重障害を防ぐことができる。
≪実施形態2≫
ここでは、LPAR共有連携を含む割り当て条件が物理リソース管理テーブルで適用される様子について説明する。
図13(図13A、図13B、図13Cの総称)は、2つの仮想化システムにおいて、あるLPARの割り当てポリシー管理テーブルに共有連携割り当てが含まれていた場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。基本的な構成は実施形態1のときと同じである。共有連携割り当てを要求するLPARは、SANセキュリティを導入していると仮定すると、特定のLPARとのみFCの共有を許すケースである。本図では簡単のためFCのみで考えることにする。また、本図では、符号1300が物理リソース管理テーブル(図3の符号217に相当)を示し、符号1310〜1340が割り当てポリシー管理テーブル(図6の符号218に相当)を示すものとして説明する。
物理計算機A(101a)上で稼働する仮想化システムのLPAR1(SYSA−LPAR1)の割り当てポリシー管理テーブル1310において、カラム1315からFCデバイスが2個と示され、カラム1316とカラム1318からは物理計算機B(101b)上で稼働する仮想化システムのLPAR2(SYSB−LPAR2)との共有連携でのユニット共有割り当て(割り当て条件「5」)が要求されているように示されている。またカラム1317から代替割り当て条件はユニット共有(割り当て条件「4」)となっているように示されている。
物理計算機A(101a)上で稼働する仮想化システムのLPAR2(SYSA−LPAR2)の割り当てポリシーテーブル1320において、カラム1325からFCデバイスが1個と示され、カラム1326とカラム1328からは物理計算機B(101b)上で稼働する仮想化システムのLPAR1(SYSB−LPAR1)との排他連携でのデバイス占有割り当て(割り当て条件「2」)が要求されているように示されている。またカラム1327から代替割り当て条件も前記排他連携でのデバイス占有割り当て(割り当て条件「2」)が要求されているように示されている。ほかのLPARの要求する割り当て条件も同様なため説明は省略する。
ここで割り当てポリシー管理テーブルの適用順序がLPARの生成順に従うとすると、SYSA−LPAR1、SYSB−LPAR1、SYSA−LPAR2、SYSB−LPAR2の順に適用される。
SYSA−LPAR1の割り当てポリシー管理テーブル1310によって、物理リソース管理テーブル1300のSYSA−LPAR1行のカラム1302に記号“S”が入り、カラム1302の連携LPARであるSYSB−LPAR2行以外のセルには記号“×(SYSA−L1)”が挿入される。SYSA−LPAR1はFCを2個要求しているため、同様にSYSA−LPAR1行のカラム1303に記号“S”が、カラム1303のSYSB−LPAR2行以外のセルには記号“×(SYSA−L1)”が挿入される。
次に、SYSB−LPAR1の割り当てポリシー管理テーブル1330によって、物理リソース管理テーブル1300のSYSB−LPAR1行のカラム1302、1303と挿入を試みるが“×(SYSA−L1)”が挿入されているために失敗するが、SYSB−LPAR1行のカラム1304が空きであるため記号“D”が挿入される。その際にはカラム1304のほかのセルには記号“×”が、また割り当て条件がSYSA−LPAR2との排他連携であるためSYSA−LPAR2行のカラム1305に“×(SYSB−L1)”が挿入される(カラム1305のほかのセルは空白)。SYSB−LPAR1はFCを2個要求しているため、カラム1306、1307のSYSB−FC1も同様にSYSB−LPAR1行のカラム1306に“D”が、カラム1306のほかのセルには記号“×”が、SYSA−LPAR2行のカラム1307には“×(SYSB−L1)”が挿入される。
次に、SYSA−LPAR2の割り当てポリシー管理テーブル1320によって、物理リソース管理テーブル1300のSYSA−LPAR2行のカラム1302〜1307へと挿入を試みるが“×(SYSA−L1)”、“×”または“×(SYSB−L1)”が挿入されているために失敗するが、SYSA−LPAR2行のカラム1308が空きであるため記号“D”が挿入される。その際にはカラム1308のほかのセルには記号“×”が、また割り当て条件がSYSB−LPAR1との排他連携であるためSYSB−LPAR1行のカラム1309に“×(SYSA−L2)”が挿入される。
最後に、SYSB−LPAR2の割り当てポリシー管理テーブル1340によって、物理リソース管理テーブル1300のSYSB−LPAR2行のカラム1302に挿入を試みる。カラム1302は空白であるため記号“S”が挿入される。SYSB−LPAR2はFCを2個要求しているため、SYSB−LPAR2行のカラム1303へも記号“S”が挿入され、割り当ては完了する。
本実施形態のLPAR共有連携を含むユニット共有割り当てを、SANセキュリティやVLANで構築されているシステム内のLPAR間で実施すれば、他のシステムとの独立性が保証されるため高いセキュリティを確保することができる。
≪実施形態3≫
ここでは、代替割り当てを含む割り当て条件が物理リソース管理テーブルで適用される様子について説明する。
図14(図14A、図14B、図14Cの総称)は、1つの仮想化システムにおいて、代替割り当て条件によって割り当てが成功する場合の、物理リソース管理テーブルと各LPARの割り当てポリシー管理テーブルの例を示した図である。図12の一部を変更したものである。基本的な構成は実施形態1のときと同じである。本図では簡単のためNICのみで考えることにする。また、本図では、符号1400が物理リソース管理テーブル(図3の符号217に相当)を示し、符号1410〜1440が割り当てポリシー管理テーブル(図6の符号218に相当)を示すものとして説明する。
LPAR1の割り当てポリシーテーブル1410において、カラム1415からNICデバイスが2個と示され、カラム1416からデバイス占有割り当て(割り当て条件「1」)が要求されているように示されている。またカラム1417から代替割り当て条件はユニット占有(割り当て条件「3」)となっているように示されている。
LPAR2の割り当てポリシーテーブル1420において、カラム1425からNICデバイスが1個と示され、カラム1426とカラム1428からLPAR4との排他連携でのデバイス占有割り当て(割り当て条件「2」)が要求されているように示されている。またカラム1427から代替割り当て条件はユニット占有(割り当て条件「3」)となっているように示されている。LPAR3、LPAR4も同様で各条件の説明は省略する。
ここで割り当てポリシー管理テーブルの適用順序がLPARの生成順に従うとすると、LPAR1、LPAR2、LPAR3、LPAR4の順に適用される。
LPAR1の割り当てポリシー管理テーブル1410によって、物理リソース管理テーブル1400のLPAR1行のカラム1402に記号“D”が入り、カラム1402のほかのセルとカラム1403には記号“×”が挿入される。LPAR1はNICを2個要求しているため、カラム1404、1405のNIC2も同様にLPAR1行のカラム1404に“D”が、カラム1404のほかのセルとカラム1405には記号“×”が挿入される。
次に、LPAR2の割り当てポリシー管理テーブル1420から、物理リソース管理テーブル1400のLPAR2行のカラム1402、1403、1404、1405と挿入を試みるが“×”が挿入されているために失敗し、LPAR2行のカラム1406にて初めて“D”が挿入される。その際にはLPAR2行のカラム1406のほかのセルには“×”が挿入され、LPAR2はLPAR4との排他連携を要求しているため、LPAR4行のカラム1407に“×(L2)”が挿入される(カラム1407のほかのセルは、この時点では空白のままである)。
次に、LPAR3の割り当てポリシー管理テーブル1430から、LPAR3は物理リソース割り当て条件にNICデバイス2個をデバイス占有で要求しているが、物理リソース管理テーブル1400にデバイス2個の空きが存在しないために割り当てに失敗する。そこで該物理リソース割り当て条件をNICデバイス2個のユニット占有の代替割り当て条件「3」で再度割り当て可能か確かめる。LPAR3行のカラム1402、1403、1404、1405、1406と挿入を試みるが“×”が挿入されているために失敗するが、LPAR3行のカラム1407以降に空きがあるため、カラム1407、1408に記号“D”が挿入される。カラム1407、1408のほかのセルには記号“×”が挿入される。
最後に、LPAR4の割り当てポリシー管理テーブル1440によって、物理リソース管理テーブル1400のLPAR4行のカラム1402〜1408へと挿入を試みるが“×”または“×(L2)”が挿入されているために失敗するが、LPAR4行のカラム1409が空きであり、かつ割り当て条件(「2」)で連携するLPAR2行のカラム1408に“×”が挿入されている。図9の状態遷移表に従うと、これは該割り当て条件を満たすためLPAR4行のカラム1409には、記号“D”が挿入され、カラム1409のほかのセルには記号“×”が挿入され、LPAR2行のカラム1408の“×”は“×(L4)”に変更される。
本実施形態にある物理リソースの代替割り当て条件により、割り当て条件が厳しすぎて全LPARへの割り当てが失敗してしまう場合を救える可能性がある。
≪実施形態4≫
次に、LPARのライフサイクルと本発明の関係について説明する。この説明では、図16(図16A、図16Bの総称)、図17、図18、図19を参照する。システムの構成は実施形態1と同じである。
図16は、システム起動時とLPAR作成時の物理リソース管理テーブル作成部と割り当てポリシー管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。なお、この処理の主体は、CPU113である。
ユーザから物理計算機の起動要求が管理計算機111に送信され物理計算機101上の仮想化システムが稼働を始めると、物理リソース管理テーブル作成部213では、処理1601にて仮想化システム上の物理リソース情報採取部211に情報を収集するように要求し、物理リソース情報採取部211によってBMC107から物理リソース情報が収集される。
その後、処理1602にて、処理1601にて収集した物理リソース情報と、管理計算機111が保持する物理リソース管理テーブル217に登録されている仮想化システムと物理リソースを比較し、システム構成に変更があるか否かを確認する。システム構成に変更があった場合(処理1602でYes)、処理1603にて、前記物理リソース情報に基づき物理リソース管理テーブルが更新される。処理1602にて、システム構成に変更がない場合(処理1602でNo)、処理1601に戻る。また、物理リソース管理テーブル217が存在せず、システムの新規立ち上げをしたときにもシステム構成に変更があったものと判断し(処理1602でYes)、処理1603にて前記物理リソース情報に基づき物理リソース管理テーブル217が新規作成される。
その後、処理1604にて、システム構成に変更があった旨を物理リソース割り当て判定部214に通知して(変更通知)、処理全体を終了する。
一方、LPARの新規作成時、割り当てポリシー管理テーブル作成部215では、処理1605にて、LPARの新規作成の有無をチェックする割り込み判定がなされる。LPARの新規作成が確認されると(処理1605でYes)、処理1606にて、LPARが新規に作成された旨を物理リソース割り当て判定部214に通知して(変更通知)、処理全体を終了する。
管理計算機111上の物理リソース割り当て判定部214では、処理1607にて物理リソース管理テーブル作成部213または、割り当てポリシー管理テーブル作成部215からの通知(変更通知)を受信したか否か判定する。受信していれば(処理1607でYes)、処理1608に進み、そうでなければ(処理1607でNo)処理全体を終了する。
次に、処理1608にて、停止しているLPARで、割り当てられていた物理リソースが外されたか否かを判定する。外されていた場合(処理1608でYes)、処理1610に進み、そうでない場合(処理1608でNo)、処理1609に進む。
次に、処理1609にて、停止しているLPAR群より優先度が高いLPARが(新規に)作成されたか否かを判定する。作成された場合(処理1609でYes)、処理1610に進み、そうでない場合(処理1609でNo)、処理1611に進む。
次に、処理1610では、割り当てられたリソースが外された場合、または、新規作成されたLPARが停止しているLPARより優先度が高い場合、取り外し処理を実行し、物理リソース管理テーブル217上の前記LPARに割り当てられている物理リソースのセルをクリアする(空白に戻す)。ただし、システム変更により物理リソースが増えていた場合は、該処理は行われない。
次に、処理1611では、図10、図11にて説明した割り当て処理が実行され、処理1612では、割り当てが成功したか否か判定する。処理1612にて割り当て処理の成功が確認されれば(処理1612でYes)、処理1614にて、物理リソース管理テーブル217の内容とともに、物理リソースの付け外し(取り外し)の要求を、仮想化システム上の物理リソース割り当て実行部209へ送信して処理全体を終了する。なお、物理リソース割り当て実行部209では仮想化プログラムが内部で保持している物理リソースとLPARとのマッピングテーブルを更新することで割り当てを完了する。
割り当て処理が失敗した場合(処理1612でNo)、処理1613にて、物理リソース管理テーブル217のロールバックを行い、処理1615にて、割り当てポリシー管理テーブル218のロールバックを行い、更新直前の状態に戻して処理全体を終了する。
本実施形態により、物理計算機に関するシステムの構築または変更を行えば、自律的に仮想化システムを構築することができる。
≪実施形態5≫
図17は、LPAR削除時の物理リソース管理テーブル作成部と割り当てポリシー管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。なお、この処理の主体は、CPU113である。対象のLPARは、割り当てられる物理リソースを削除するためにユーザのLPAR削除要求の受信を契機に停止される。
ユーザから該LPAR削除が要求されると、管理計算機111上の割り当てポリシー管理テーブル作成部215では、処理1701によりLPARの削除要求があるか否かを確認する。削除要求がなければ(処理1701でNo)、そのまま処理全体を終了するが、削除要求があれば(処理1701でYes)、処理1702に進む。
その後、処理1702にて該LPARの割り当てポリシー管理テーブル218のLPAR識別子(LPAR名)に設定された値以外の他の値をクリアして初期化する。これにより処理全体を終了する。
同時に管理計算機111上の物理リソース管理テーブル作成部213では、処理1703にてLPARの削除要求があるか否かを確認する。削除要求がなければ(処理1703でNo)、処理1705に進み、削除要求があれば(処理1703でYes)、処理1704に進む。
その後、処理1704にてすべての物理リソースの種類に対応した物理リソース管理テーブル217にて、該LPAR行に設定されたすべての値をクリアして初期化する。
その後、処理1705にてLPARの削除要求があった旨を物理リソース割り当て判定部214に通知する(削除要求通知)。
次に、管理計算機111上の物理リソース割り当て判定部214では、処理1706にて削除要求通知として、更新された物理リソース管理テーブル217を受信したか否かを判定する。受信がなければ(処理1706でNo)、そのまま処理全体を終了するが、受信があれば(処理1706でYes)、処理1707に進む。
その後、処理1707にて、当該物理リソースの取り外し処理を実行し、処理1708にて、物理リソースの取り外し要求を、仮想化システム上の物理リソース割り当て実行部209に送信することで処理全体を終了する。
本実施形態により、LPARの削除についても、自律的に仮想化システムを構築することができる。
≪実施形態6≫
図18は、LPAR更新時の割り当てポリシー管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。なお、この処理の主体は、CPU113である。対象のLPARは物理リソース構成の更新のために停止される。
その後、ユーザにより割り当てポリシー管理テーブル218が更新されると、割り当てポリシー管理テーブル作成部215では、処理1801にて割り当てポリシーの変更要求があるか否かを確認する。変更要求がなければ(処理1801でNo)、そのまま処理全体を終了するが、変更要求があれば(処理1801でYes)、処理1802に進む。
その後、処理1802にて割り当てポリシーを取得し、割り当てポリシー管理テーブル218を更新する。
次に、処理1803では、割り当てポリシー管理テーブル218に変更があった旨を管理計算機111上の物理リソース割り当て判定部214へ通知する(変更通知)。
管理計算機111上の物理リソース割り当て判定部214では、まず、処理1804にて変更通知を受信したか否かの割り込み判定をする。受信した場合(処理1804でYes)、処理1805以降の処理を実行する。
その後、図16にて示した物理リソース割り当て判定部214の処理と同様の処理を実行する。つまり、図18の処理1805から処理1810までの処理は、図16の処理1610から処理1615までの処理と同様である。よって、処理1805から処理1810までの処理の詳細な説明は省略する。
本実施形態により、LPARの更新についても、自律的に仮想化システムを構築することができる。
≪実施形態7≫
図19は、LPAR障害発生時の物理リソース管理テーブル作成部と物理リソース割り当て判定部の処理を示すフローチャートである。なお、この処理の主体は、CPU113である。あるLPARにてある物理リソースの障害が発生すると、仮想化システムは障害を検知後(障害検知通知後)、該LPARを停止する。
管理計算機111の物理リソース管理テーブル作成部213では、処理1901にて仮想化システムからの障害検知の通知にてLPARに障害が発生したか否かを確認する。発生がなければ(処理1901でNo)、そのまま処理全体を終了するが、発生があれば(処理1901でYes)、処理1902に進む。
その後、処理1902にて物理リソース管理テーブル217上の障害発生リソースを図5で示した記号“●”にて閉塞することで、物理リソース管理テーブル217を更新する。
次に、処理1903で、物理リソースに障害が発生した旨を管理計算機111上の物理リソース割り当て判定部214へ通知する(障害発生通知)。
管理計算機111上の物理リソース割り当て判定部214は、処理1904にて障害発生通知を受信したか否かを判定する。受信がなければ(処理1904でNo)、そのまま処理全体を終了するが、受信があれば(処理1904でYes)、処理1905に進む。
その後、処理1905では、更新された物理リソース管理テーブル217を参照して、障害が発生した物理リソースについて取り外し処理を実行し、処理1906では、割り当てポリシー管理テーブル218を参照する。
その後、処理1907では、割り当て処理を実行し、割り当てポリシー管理テーブル218にしたがって正常な物理リソースを該LPARへ割り当てる。
次に、処理1908では、割り当て処理による割り当てが成功したか否か判定する。成功した場合(処理1908でYes)、処理1909において、その割り当てに従って、物理リソース管理テーブル217を更新して、処理全体を終了し、そうでなければ(処理1908でNo)、そのまま処理全体を終了する。
本実施形態により、LPARの障害発生時についても、自律的に仮想化システムを構築することができる。
≪実施形態8≫
図20は、管理計算機上の構成情報管理テーブル作成部の処理を示すフローチャートである。なお、この処理の主体は、CPU113である。本処理は図16に示したシステム変更時(システム新規立ち上げ時)とLPAR作成時の処理、ならびに図18で示したLPAR更新時の契機によって実行される。物理計算機101にある仮想化システム201上で稼働する構成情報採取部210は、該仮想化システム201で稼働するゲストOS上の、例えばLPAR間のHAクラスタソフトウェアなどの、構成管理ソフトウェアとのインタフェースを持ち、それらの情報を採取することができる。管理計算機111はそれらの情報を、例えばサーバ管理ソフトウェア212に保持している。
まず、処理2001にて、構成情報管理テーブル作成部216は、システムの構成に変更(システム変更)があったか否かの割り込み判定をする。構成に変更があった場合は(処理2001でYes)、処理2002にて管理計算機111の保持する構成情報を取得し、処理2003にて図15に示す構成情報管理テーブル219を更新する。このとき、システムの新規立ち上げ時であり、構成情報管理テーブル219が存在しない場合は、新規に構成情報管理テーブル219を作成する。
その後、構成情報管理テーブル219は、処理2004にて管理計算機111上の割り当てポリシー管理テーブル作成部215に送信される。
次に、割り当てポリシー管理テーブル作成部215では、処理2005により、構成情報管理テーブル219を受信すると、割り当てポリシー管理テーブル218を参照する。
次に、処理2006では、連携を要求している各LPARに対応する割り当てポリシー管理テーブル218の連携LPAR識別子欄(608参照)に、該LPARが連携するLPAR識別子(名)を入力することで、割り当てポリシー管理テーブル218を更新する。
次に、処理2007では、管理計算機111上の物理リソース割り当て判定部214へ割り当てポリシーに変更があった旨を通知するために、割り当てポリシー管理テーブル218の情報を送信する。
管理計算機110上の物理リソース割り当て判定部214では、連携情報(あるLPAR同士が連携していることを示す情報)が更新された割り当てポリシー管理テーブル218から変更情報(システム構成の変更)があることを知る。あるタイミングで連携要求をしていたゲストOSが停止すると、新しい連携を考慮した物理リソースの割り当てが実行される。
これによりユーザが具体的な割り当てポリシーを提示していなくても、システム側で連携LPARを特定し、排他連携、共有連携を考慮した物理リソースの割り当てが実現できる。このため、ユーザは従来の物理システムでのシステム構築を行うだけで、高信頼でセキュリティが考慮された仮想化システムの構築を完了させることができる。
本実施形態では、例としてHAクラスタシステムを挙げたが、SANセキュリティやVLANについても管理計算機上に同様な構成情報が存在すれば自動的に連携LPARを判定、処理することができる。
≪実施形態9≫
次に、物理リソースの割り当てについて詳細に説明する。
まず、各割り当て条件に重み付けを行った例について説明する。
図21は、割り当て条件と重み付けの対応表の構成図である。ユーザは、物理リソースが優先的に割り当てられるLPARを、重み付けによる優先度順、LPARの生成順、業務グループによる優先順の3つから選択することができる。表2100は、重み付けによる優先度の説明であり、割り当て条件2101と、各割り当て条件の説明2102と、割り当て条件に付与される重み2103と、代替割り当て条件に付与される重み2104とからなる。
前記割り当て条件には、割り当て条件として使用される場合と代替割り当て条件として使用される場合があり、それぞれに重みを設定した。なお、図21で示す重み付けは例であり設定の仕方によって様々な重みを設定可能であることに注意されたい。
重み付けは、各物理リソースに対する割り当て要求を用いて最初に割り当てる物理リソースを決めるための優先順位をつけることが目的であり、より重みが大きい物理リソースを優先する。しかし重みが同値になることもあるため、異なる重み付けを採用して優先順位をつけるようにしても良い。
図22は、物理リソースに付与したIDの対応表の構成図である。
図22の表2200に示すように、ハードウェア(物理リソース2202)にID2201を付与し、重みが同値になった場合にIDの大小によって優先順位を決めることもできる。
重み付け条件による優先度の定め方について説明する。
図23は、重み付けによるLPAR選択の優先度の対応表の構成図である。表2300(第2の優先度情報)のカラム2301には、上位にあるほど高いことを示す優先度が示されており、カラム2302には、重み付け条件の詳細が記載されている条件(説明)が示されている。
カラム2302の条件は、例えば物理リソースの割り当て条件と代替割り当て条件の重みの和が最も大きい物理リソースが優先される。重みの和が同値であった場合、割り当て条件に指定した条件の重みが大きい物理リソースが優先される。指定した条件の組み合わせが一緒(重みの総和が同じで、割り当て条件も同じ)であった場合、図22の表2200にあるハードウェア(物理リソース2202)のID2201を使用し、IDが小さい物理ハードウェアを優先する。
選択される物理リソースの優先順位の決定例について説明する。
図24は、所定の割り当てポリシー管理テーブルに対して決定された優先順位を示す優先順位表の構成図である。割り当てポリシー管理テーブル2400(図6の符号218に相当)に対し、同一LPAR内で各物理リソースにつけられた割り当て条件の重みから割り当て選択の優先度(優先順位)が決められた様子を表2410(第1の優先度情報)として示している。表2410は、物理リソースのID2411、その種別を示す物理リソース2412、割り当て条件に対する重みを示す条件2413、割り当て条件の代替に対する重みを示す代替条件2414、前記2つの重みを足した値を示す重み2415、優先順位を示す優先順位2416からなる。
管理計算機111上の物理リソース割り当て判定部214は、図10の処理1004にて、この優先度から優先して割り当てるべき物理リソースを選択する。
選択されるLPARの優先順位決定例について説明する。
図25(図25A、図25Bの総称)は、LPARの優先順位を含む所定の割り当てポリシー管理テーブルの構成図である。各LPARの各物理リソースに付与されている重みの総和から割り当てLPARの優先度が決められた様子が示されている。LPAR1〜4のそれぞれに対する割り当てポリシー管理テーブル(2500、2520、2540、2560)(図6の符号218に相当)において、それぞれ、割り当てに関する重み(総和)(2509、2529、2549、2569)、LPARの優先順位(2510、2530、2550、2570)が設けられている。
管理計算機111上の物理リソース割り当て判定部214は図10の処理1002にて、この優先度から優先して割り当てるべきLPARを選択する。換言すれば、割り当てポリシーテーブルの適用順序は、LPAR1、LPAR2、LPAR3、LPAR4の順に適用される(優先順位2510、2530、2550、2570参照)。
なお、優先度の定め方としては、図23で示した重み付け条件によるものに限らない。例えば、LPAR生成順による優先度や、業務グループによる優先度の定め方もある。
図26は、LPAR生成順によるLPAR選択の優先度の対応表の構成図である。表2600(第2の優先度情報)のカラム2601には、上位にあるほど高いことを示す優先度が示されており、カラム2602には、LPARの生成時刻の早さを含む重み付け条件の詳細が記載されている条件(説明)が示されている。
表2600では、生成時刻が早いLPARの順に割り当てが優先され、生成時刻が同時刻だった場合は表2600の以降の優先条件からLPARが決定される。割り当て条件と代替割り当て条件の重みの総和、割り当て条件の重みの総和も等しく優先順位が決まらない場合、物理リソース管理テーブルにて上位に登録されているLPAR(LPARの識別子の小さい方)を優先する。
図27は、業務グループによるLPAR選択の優先度の対応表の構成図である。表2700の(第2の優先度情報)カラム2701には、上位にあるほど高いことを示す優先度が示されており、カラム2702には、業務グループの性質を含む重み付け条件の詳細が記載されている条件(説明)が示されている。
表2700において、業務グループ名は、ユーザによって割り当てポリシーに入力された業務グループ名を使用し、業務グループ間の優先度は、割り当て時にユーザに示してもらう。業務グループが同じ場合は表2700の以降の優先条件からLPARが決定される。LPARの生成順と同じように以降条件で優先順位が決まらない場合、物理リソース管理テーブルにて上位に登録されているLPAR(LPARの識別子の小さい方)を優先する。
なお、これらの優先度、優先順位の表は、例えばデータとして管理計算機111のメモリ114に記憶されている。
≪まとめ≫
本実施形態によれば、ユーザは物理システムでの環境構築と同様の工数で仮想化システムを構築でき、HAクラスタシステムでの同一物理リソース障害による二重障害の防止と、VLANやSANセキュリティなどを考慮する、高信頼なシステムが構築できるという効果がある。
また運用時であっても割り当てポリシーに従った再割り当てができるため、一度削除されたLPARや障害が発生したLPARは、次回の生成時には適切な物理リソースが再度割り当てられ、そのまま稼働状態に移行できるという効果もある。
≪その他≫
なお、本発明を実施するための形態は、これに限定されるものでなく、その形態の実施形式を種々変形することが可能である。
例えば、2以上の物理計算機の2以上のハイパバイザの制御により稼働する1つのLPARに対しても、本発明を適用することができる。
その他、ハードウェア、ソフトウェア、各テーブル、各フローチャート等の具体的な構成について、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
101a 物理計算機A
101b 物理計算機B
111 管理計算機
113 CPU(制御部)
114 メモリ(記憶部)
201 仮想化システム
202 LPAR1(仮想計算機)
203 LPAR2(仮想計算機)
204 構成管理プログラム1
205 ゲストOS1
206 構成管理プログラム2
207 ゲストOS2
208 ハイパバイザ
209 物理リソース割り当て実行部
210 構成情報採取部
211 物理リソース情報採取部
212 サーバ管理ソフトウェア
213 物理リソース管理テーブル作成部
214 物理リソース割り当て判定部
215 割り当てポリシー管理テーブル作成部
216 構成情報管理テーブル作成部
217 物理リソース管理テーブル(物理リソース管理情報)
218 割り当てポリシー管理テーブル(割り当て条件管理情報)
219 構成情報管理テーブル(構成情報管理情報)
220 OS
2300、2600、2700 表(第2の優先度情報)
2410 表(第1の優先度情報)

Claims (19)

  1. 1以上の仮想計算機を構成する1以上の物理計算機と通信可能に接続し、前記物理計算機の物理リソースを、前記仮想計算機に割り当てるように前記物理計算機に実行させる管理計算機において、
    前記物理リソースの割り当ての割り当て状態を、仮想計算機ごとに定める物理リソース管理情報と、
    前記物理リソースの割り当てに関する条件を物理リソースごとに定めた割り当て条件を、仮想計算機ごとに定める割り当て条件管理情報と、を記憶する記憶部と、
    所定のタイミングで、ある仮想計算機を選択し、前記割り当て条件管理情報から前記選択した仮想計算機に割り当てられた物理リソースの割り当て条件を取得する制御と、
    前記選択した仮想計算機に割り当てられた物理リソースのうち1つを選択し、前記物理リソース管理情報から前記選択した物理リソースの割り当て状態を取得する制御と、
    前記取得した割り当て条件を満たす割り当てが、前記取得した割り当て状態に基づいて可能であるか否かを判定し、可能であれば当該割り当てを反映するように前記物理リソース管理情報を更新する制御と、
    すべての仮想計算機について、前記判定による割り当てが可能であれば当該物理計算機に対して前記割り当てを実行させる制御と、を実行する制御部と、を有する
    ことを特徴とする管理計算機。
  2. 前記所定のタイミングは、
    前記物理計算機の起動時、前記仮想計算機の生成時、前記割り当て条件の変更時または前記仮想計算機の障害時のいずれかである
    ことを特徴とする請求項1に記載の管理計算機。
  3. 前記物理リソース管理情報または前記割り当て条件管理情報で取り扱う前記物理リソースは、当該物理計算機を構成するデバイスまたは前記デバイスを構成するユニットごとに定められる
    ことを特徴とする請求項1に記載の管理計算機。
  4. 前記割り当て条件は、前記物理リソースの排他的な割り当てを要求された複数の仮想計算機の間では、同種同一の物理リソースを割り当てない排他連携による割り当て条件を含む
    ことを特徴とする請求項1に記載の管理計算機。
  5. 前記割り当て条件は、前記物理リソースの共有の割り当てを要求された複数の仮想計算機の間でのみ同種同一の物理リソースを割り当てる共有連携による割り当て条件を含む
    ことを特徴とする請求項1に記載の管理計算機。
  6. 前記割り当て条件管理情報は、
    前記判定において、前記割り当て条件を満たす割り当てが可能でないとき、前記割り当て条件を代替し、前記割り当て条件よりも緩い条件を満たす割り当てが、当該割り当て状態に基づいて可能であるか否かを前記制御部に判定させる代替条件を含む
    ことを特徴とする請求項1に記載の管理計算機。
  7. 前記記憶部は、
    前記物理計算機から取得した、仮想計算機の間で決められた物理リソースの割り当ての連携に関する情報を含む構成情報を仮想計算機ごとに定める構成情報管理情報を記憶しており、
    前記制御部は、
    ある仮想計算機について定めた前記割り当て条件管理情報を、前記構成情報管理情報の当該構成情報に基づいて作成する制御、を実行する
    ことを特徴とする請求項1に記載の管理計算機。
  8. 前記記憶部は、
    前記割り当て条件に基づいて決められる物理リソースの優先度を定める第1の優先度情報を記憶しており、
    前記制御部は、
    前記物理リソースの選択において、前記第1の優先度情報を参照して、物理リソースの優先度の高い順に当該選択をする制御、を実行する
    ことを特徴とする請求項1に記載の管理計算機。
  9. 前記記憶部は、
    前記第1の優先度情報に基づいて決められる、前記物理リソースが割り当てられる仮想計算機の優先度を定める第2の優先度情報を記憶しており、
    前記制御部は、
    前記仮想計算機の選択において、前記第2の優先度情報を参照して、仮想計算機の優先度の高い順に当該選択をする制御、を実行する
    ことを特徴とする請求項8に記載の管理計算機。
  10. 1以上の仮想計算機を構成する1以上の物理計算機と、前記物理計算機の物理リソースを、前記仮想計算機に割り当てるように前記物理計算機に実行させる管理計算機とが通信可能に接続する計算機システムにおいて、
    前記管理計算機は、
    前記物理リソースの割り当ての割り当て状態を、仮想計算機ごとに定める物理リソース管理情報と、
    前記物理リソースの割り当てに関する条件を物理リソースごとに定めた割り当て条件を、仮想計算機ごとに定める割り当て条件管理情報と、を記憶する記憶部と、
    所定のタイミングで、ある仮想計算機を選択し、前記割り当て条件管理情報から前記選択した仮想計算機に割り当てられた物理リソースの割り当て条件を取得する制御と、
    前記選択した仮想計算機に割り当てられた物理リソースのうち1つを選択し、前記物理リソース管理情報から前記選択した物理リソースの割り当て状態を取得する制御と、
    前記取得した割り当て条件を満たす割り当てが、前記取得した割り当て状態に基づいて可能であるか否かを判定し、可能であれば当該割り当てを反映するように前記物理リソース管理情報を更新する制御と、
    すべての仮想計算機について、前記判定による割り当てが可能であれば当該物理計算機に対して前記割り当てを実行させる制御と、を実行する制御部と、を有する
    ことを特徴とする計算機システム。
  11. 1以上の仮想計算機を構成する1以上の物理計算機と通信可能に接続し、前記物理計算機の物理リソースを、前記仮想計算機に割り当てるように前記物理計算機に実行させる管理計算機による物理リソース割り当て方法において、
    前記管理計算機は、
    前記物理リソースの割り当ての割り当て状態を、仮想計算機ごとに定める物理リソース管理情報と、
    前記物理リソースの割り当てに関する条件を物理リソースごとに定めた割り当て条件を、仮想計算機ごとに定める割り当て条件管理情報と、を記憶しており、
    前記管理計算機の制御部は、
    所定のタイミングで、ある仮想計算機を選択し、前記割り当て条件管理情報から前記選択した仮想計算機に割り当てられた物理リソースの割り当て条件を取得するステップと、
    前記選択した仮想計算機に割り当てられた物理リソースのうち1つを選択し、前記物理リソース管理情報から前記選択した物理リソースの割り当て状態を取得するステップと、
    前記取得した割り当て条件を満たす割り当てが、前記取得した割り当て状態に基づいて可能であるか否かを判定し、可能であれば当該割り当てを反映するように前記物理リソース管理情報を更新するステップと、
    すべての仮想計算機について、前記判定による割り当てが可能であれば当該物理計算機に対して前記割り当てを実行させるステップと、を実行する
    ことを特徴とする物理リソース割り当て方法。
  12. 前記所定のタイミングは、
    前記物理計算機の起動時、前記仮想計算機の生成時、前記割り当て条件の変更時または前記仮想計算機の障害時のいずれかである
    ことを特徴とする請求項11に記載の物理リソース割り当て方法。
  13. 前記物理リソース管理情報または前記割り当て条件管理情報で取り扱う前記物理リソースは、当該物理計算機を構成するデバイスまたは前記デバイスを構成するユニットごとに定められる
    ことを特徴とする請求項11に記載の物理リソース割り当て方法。
  14. 前記割り当て条件は、前記物理リソースの排他的な割り当てを要求された複数の仮想計算機の間では、同種同一の物理リソースを割り当てない排他連携による割り当て条件を含む
    ことを特徴とする請求項11に記載の物理リソース割り当て方法。
  15. 前記割り当て条件は、前記物理リソースの共有の割り当てを要求された複数の仮想計算機の間でのみ同種同一の物理リソースを割り当てる共有連携による割り当て条件を含む
    ことを特徴とする請求項11に記載の物理リソース割り当て方法。
  16. 前記割り当て条件管理情報は、
    前記判定において、前記割り当て条件を満たす割り当てが可能でないとき、前記割り当て条件を代替し、前記割り当て条件よりも緩い条件を満たす割り当てが、当該割り当て状態に基づいて可能であるか否かを前記制御部に判定させる代替条件を含む
    ことを特徴とする請求項11に記載の物理リソース割り当て方法。
  17. 前記管理計算機は、
    前記物理計算機から取得した、仮想計算機の間で決められた物理リソースの割り当ての連携に関する情報を含む構成情報を仮想計算機ごとに定める構成情報管理情報を記憶しており、
    前記制御部は、
    ある仮想計算機について定めた前記割り当て条件管理情報を、前記構成情報管理情報の当該構成情報に基づいて作成するステップ、を実行する
    ことを特徴とする請求項11に記載の物理リソース割り当て方法。
  18. 前記記憶部は、
    前記割り当て条件に基づいて決められる物理リソースの優先度を定める第1の優先度情報を記憶しており、
    前記制御部は、
    前記物理リソースの選択において、前記第1の優先度情報を参照して、物理リソースの優先度の高い順に当該選択をするステップ、を実行する
    ことを特徴とする請求項11に記載の物理リソース割り当て方法。
  19. 前記記憶部は、
    前記第1の優先度情報に基づいて決められる、前記物理リソースが割り当てられる仮想計算機の優先度を定める第2の優先度情報を記憶しており、
    前記制御部は、
    前記仮想計算機の選択において、前記第2の優先度情報を参照して、仮想計算機の優先度の高い順に当該選択をするステップ、を実行する
    ことを特徴とする請求項18に記載の物理リソース割り当て方法。
JP2009052922A 2009-03-06 2009-03-06 管理計算機、計算機システム、物理リソース割り当て方法 Pending JP2010205209A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009052922A JP2010205209A (ja) 2009-03-06 2009-03-06 管理計算機、計算機システム、物理リソース割り当て方法
US12/700,061 US20100229171A1 (en) 2009-03-06 2010-02-04 Management computer, computer system and physical resource allocation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009052922A JP2010205209A (ja) 2009-03-06 2009-03-06 管理計算機、計算機システム、物理リソース割り当て方法

Publications (1)

Publication Number Publication Date
JP2010205209A true JP2010205209A (ja) 2010-09-16

Family

ID=42679384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009052922A Pending JP2010205209A (ja) 2009-03-06 2009-03-06 管理計算機、計算機システム、物理リソース割り当て方法

Country Status (2)

Country Link
US (1) US20100229171A1 (ja)
JP (1) JP2010205209A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191493A (ja) * 2011-03-11 2012-10-04 Nec Corp シンクライアント環境提供システム、サーバ、シンクライアント環境管理方法、及びシンクライアント環境管理プログラム
WO2012137272A1 (ja) * 2011-04-01 2012-10-11 株式会社日立製作所 リソース管理方法および管理サーバ
JP2012198631A (ja) * 2011-03-18 2012-10-18 Ntt Data Corp 仮想マシン配置装置、仮想マシン配置方法、仮想マシン配置プログラム
JP2013541093A (ja) * 2010-09-30 2013-11-07 アマゾン テクノロジーズ インコーポレイテッド 専用実装リソースを用いる仮想リソース費用追跡
WO2014091734A1 (ja) * 2012-12-14 2014-06-19 日本電気株式会社 システム構築装置、及び、システム構築方法
WO2014147802A1 (ja) * 2013-03-21 2014-09-25 富士通株式会社 情報処理装置、資源割当方法、及びプログラム
WO2016110950A1 (ja) * 2015-01-07 2016-07-14 株式会社日立製作所 計算機システム、管理システム、及び、リソース管理方法
WO2016181554A1 (ja) * 2015-05-14 2016-11-17 株式会社日立製作所 サーバストレージシステムを含んだ計算機システム
JP2016536713A (ja) * 2013-09-12 2016-11-24 ザ・ボーイング・カンパニーThe Boeing Company モバイル通信装置およびその動作方法
US9722866B1 (en) 2011-09-23 2017-08-01 Amazon Technologies, Inc. Resource allocation to reduce correlated failures
JP2017182591A (ja) * 2016-03-31 2017-10-05 三菱電機インフォメーションシステムズ株式会社 コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ
JP2018503897A (ja) * 2014-12-29 2018-02-08 株式会社Nttドコモ クラウドシステムにおけるリソース管理
US10013662B2 (en) 2010-09-30 2018-07-03 Amazon Technologies, Inc. Virtual resource cost tracking with dedicated implementation resources
US11106479B2 (en) 2010-09-30 2021-08-31 Amazon Technologies, Inc. Virtual provisioning with implementation resource boundary awareness
JP7444274B2 (ja) 2020-10-07 2024-03-06 日本電信電話株式会社 多重伝送システムおよび多重伝送システムのリソース制御方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5476764B2 (ja) * 2009-03-30 2014-04-23 富士通株式会社 サーバ装置、計算機システム、プログラム及び仮想計算機移動方法
US8489797B2 (en) * 2009-09-30 2013-07-16 International Business Machines Corporation Hardware resource arbiter for logical partitions
CN102065544B (zh) * 2009-11-17 2015-02-25 索尼株式会社 资源管理方法和系统
CN102646052B (zh) * 2011-02-16 2016-01-27 中国移动通信集团公司 一种虚拟机部署方法、装置及系统
US8595267B2 (en) * 2011-06-27 2013-11-26 Amazon Technologies, Inc. System and method for implementing a scalable data storage service
US8661448B2 (en) 2011-08-26 2014-02-25 International Business Machines Corporation Logical partition load manager and balancer
US20150378786A1 (en) * 2013-01-31 2015-12-31 Adarsh Suparna Physical resource allocation
WO2017002185A1 (ja) * 2015-06-30 2017-01-05 株式会社日立製作所 サーバストレージシステムの管理システム及び管理方法
US10990926B2 (en) * 2015-10-29 2021-04-27 International Business Machines Corporation Management of resources in view of business goals
US20170214672A1 (en) * 2016-01-24 2017-07-27 Bassem ALHALABI Universal Physical Access Control System and Method
CN108337109B (zh) * 2017-12-28 2021-12-17 中兴通讯股份有限公司 一种资源分配方法及装置和资源分配系统
US11288250B2 (en) 2018-08-09 2022-03-29 Servicenow, Inc. Partial discovery of cloud-based resources

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177220A (ja) * 1993-12-17 1995-07-14 Nippon Telegr & Teleph Corp <Ntt> 複数ジョブへの資源割当方法
JP2008152594A (ja) * 2006-12-19 2008-07-03 Hitachi Ltd マルチコアプロセッサ計算機の高信頼化方法
JP2008269250A (ja) * 2007-04-19 2008-11-06 Ffc Ltd 負荷分散装置、仮想サーバ管理システム、負荷分散方法および負荷分散プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5838968A (en) * 1996-03-01 1998-11-17 Chromatic Research, Inc. System and method for dynamic resource management across tasks in real-time operating systems
US7979863B2 (en) * 2004-05-21 2011-07-12 Computer Associates Think, Inc. Method and apparatus for dynamic CPU resource management
US7996842B2 (en) * 2006-03-30 2011-08-09 Oracle America, Inc. Computer resource management for workloads or applications based on service level objectives
JP4809209B2 (ja) * 2006-12-28 2011-11-09 株式会社日立製作所 サーバ仮想化環境における系切り替え方法及び計算機システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177220A (ja) * 1993-12-17 1995-07-14 Nippon Telegr & Teleph Corp <Ntt> 複数ジョブへの資源割当方法
JP2008152594A (ja) * 2006-12-19 2008-07-03 Hitachi Ltd マルチコアプロセッサ計算機の高信頼化方法
JP2008269250A (ja) * 2007-04-19 2008-11-06 Ffc Ltd 負荷分散装置、仮想サーバ管理システム、負荷分散方法および負荷分散プログラム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541093A (ja) * 2010-09-30 2013-11-07 アマゾン テクノロジーズ インコーポレイテッド 専用実装リソースを用いる仮想リソース費用追跡
US11842208B2 (en) 2010-09-30 2023-12-12 Amazon Technologies, Inc. Virtual provisioning with implementation resource boundary awareness
US11106479B2 (en) 2010-09-30 2021-08-31 Amazon Technologies, Inc. Virtual provisioning with implementation resource boundary awareness
US10013662B2 (en) 2010-09-30 2018-07-03 Amazon Technologies, Inc. Virtual resource cost tracking with dedicated implementation resources
JP2012191493A (ja) * 2011-03-11 2012-10-04 Nec Corp シンクライアント環境提供システム、サーバ、シンクライアント環境管理方法、及びシンクライアント環境管理プログラム
JP2012198631A (ja) * 2011-03-18 2012-10-18 Ntt Data Corp 仮想マシン配置装置、仮想マシン配置方法、仮想マシン配置プログラム
WO2012137272A1 (ja) * 2011-04-01 2012-10-11 株式会社日立製作所 リソース管理方法および管理サーバ
JP5525654B2 (ja) * 2011-04-01 2014-06-18 株式会社日立製作所 リソース管理方法および管理サーバ
US9385964B2 (en) 2011-04-01 2016-07-05 Hitachi, Ltd. Resource management method and management server
US9722866B1 (en) 2011-09-23 2017-08-01 Amazon Technologies, Inc. Resource allocation to reduce correlated failures
US11303509B2 (en) 2011-09-23 2022-04-12 Amazon Technologies, Inc. Resource allocation to reduce correlated failures
WO2014091734A1 (ja) * 2012-12-14 2014-06-19 日本電気株式会社 システム構築装置、及び、システム構築方法
JPWO2014147802A1 (ja) * 2013-03-21 2017-02-16 富士通株式会社 情報処理装置、資源割当方法、及びプログラム
WO2014147802A1 (ja) * 2013-03-21 2014-09-25 富士通株式会社 情報処理装置、資源割当方法、及びプログラム
US9792142B2 (en) 2013-03-21 2017-10-17 Fujitsu Limited Information processing device and resource allocation method
JP2016536713A (ja) * 2013-09-12 2016-11-24 ザ・ボーイング・カンパニーThe Boeing Company モバイル通信装置およびその動作方法
JP2018503897A (ja) * 2014-12-29 2018-02-08 株式会社Nttドコモ クラウドシステムにおけるリソース管理
US10459768B2 (en) 2015-01-07 2019-10-29 Hitachi, Ltd. Computer system, management system, and resource management method
WO2016110950A1 (ja) * 2015-01-07 2016-07-14 株式会社日立製作所 計算機システム、管理システム、及び、リソース管理方法
JPWO2016110950A1 (ja) * 2015-01-07 2017-09-21 株式会社日立製作所 計算機システム、管理システム、及び、リソース管理方法
JPWO2016181554A1 (ja) * 2015-05-14 2017-12-07 株式会社日立製作所 サーバストレージシステムを含んだ計算機システム
US10552224B2 (en) 2015-05-14 2020-02-04 Hitachi, Ltd. Computer system including server storage system
WO2016181554A1 (ja) * 2015-05-14 2016-11-17 株式会社日立製作所 サーバストレージシステムを含んだ計算機システム
JP2017182591A (ja) * 2016-03-31 2017-10-05 三菱電機インフォメーションシステムズ株式会社 コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ
JP7444274B2 (ja) 2020-10-07 2024-03-06 日本電信電話株式会社 多重伝送システムおよび多重伝送システムのリソース制御方法

Also Published As

Publication number Publication date
US20100229171A1 (en) 2010-09-09

Similar Documents

Publication Publication Date Title
JP2010205209A (ja) 管理計算機、計算機システム、物理リソース割り当て方法
JP5427574B2 (ja) 仮想計算機の移動管理方法、前記移動管理方法を用いた計算機、前記移動管理方法を用いた仮想化機構および前記移動管理方法を用いた計算機システム
US9519795B2 (en) Interconnect partition binding API, allocation and management of application-specific partitions
US9535798B1 (en) Systems and methods for maintaining virtual component checkpoints on an offload device
KR102103596B1 (ko) 계산 작업을 처리하기 위한 컴퓨터 클러스터 장치 및 이를 작동시키기 위한 방법
CN102891882B (zh) 利用硬件中的网络包缓冲的基于检查点的高可用性
US11936731B2 (en) Traffic priority based creation of a storage volume within a cluster of storage nodes
CN106874125B (zh) 多容器系统间共享系统资源的方法及装置
EP2354935A1 (en) Extending functionality of legacy services in computing system environment
JP4576398B2 (ja) マルチパーティションコンピュータシステムのi/oデバイスを制御するためのシステム
US11924117B2 (en) Automated local scaling of compute instances
US9542226B2 (en) Operating programs on a computer cluster
US20120239814A1 (en) Clustered computer environment partition resolution
US20120151095A1 (en) Enforcing logical unit (lu) persistent reservations upon a shared virtual storage device
CN113886089B (zh) 一种任务处理方法、装置、系统、设备及介质
US20210200573A1 (en) Virtual Machine Live Migration Method And Communications Device
CN107528871A (zh) 存储系统中的数据分析
JP2017215884A (ja) 仮想マシン配置装置およびリソース管理方法
US11360824B2 (en) Customized partitioning of compute instances
JP2010205208A (ja) ホストコンピュータ、マルチパスシステム、パス割当方法およびプログラム
US20230229478A1 (en) On-boarding virtual infrastructure management server appliances to be managed from the cloud
JP2011221634A (ja) 計算機システム、論理区画管理方法及び論理分割処理プログラム
CN106161487A (zh) 服务器的信息处理方法
JP6244496B2 (ja) サーバストレージシステムの管理システム及び管理方法
US20240160487A1 (en) Flexible gpu resource scheduling method in large-scale container operation environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120724