JP5417287B2 - 計算機システム、及び、計算機システムの制御方法 - Google Patents

計算機システム、及び、計算機システムの制御方法 Download PDF

Info

Publication number
JP5417287B2
JP5417287B2 JP2010198766A JP2010198766A JP5417287B2 JP 5417287 B2 JP5417287 B2 JP 5417287B2 JP 2010198766 A JP2010198766 A JP 2010198766A JP 2010198766 A JP2010198766 A JP 2010198766A JP 5417287 B2 JP5417287 B2 JP 5417287B2
Authority
JP
Japan
Prior art keywords
resource
virtual
pool
computer
physical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010198766A
Other languages
English (en)
Other versions
JP2012058815A (ja
Inventor
健太郎 渡邊
良史 高本
貴志 爲重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010198766A priority Critical patent/JP5417287B2/ja
Priority to US13/820,638 priority patent/US9201695B2/en
Priority to PCT/JP2011/000499 priority patent/WO2012032679A1/ja
Publication of JP2012058815A publication Critical patent/JP2012058815A/ja
Application granted granted Critical
Publication of JP5417287B2 publication Critical patent/JP5417287B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5011Pool

Description

本発明は、計算機システム、及び、計算機システムの制御方法に係り、特に、仮想計算機に対するリソースの割当を制御する計算機システム、及び、仮想計算機に対するリソースの割当方法に関するものである。
情報化社会の発展に伴って、企業の情報処理システムやデータセンタ等において、複数のサーバを集約して設置する傾向になってきており、かつ、サーバの設置台数も増加の一途を辿っている。しかも、サーバの設置台数の増加にしたがって、サーバの運用管理に必要な労力も増加し、その結果、管理コストも無視できないものになっている。
そこで、サーバの運用効率を改善するために、計算機を仮想化する技術が注目されるようになってきている。仮想化された計算機を実現するアーキテクチャ或いはソフトウェアは、計算機のプロセッサや記憶装置などの物理リソースを仮想化して複数の仮想計算機を稼働させるものであり、詳しくは、物理リソースを論理的に分割し、分割されたリソースを複数の仮想計算機の夫々に割り当てるというものである。計算機に仮想化環境を実現する仮想化ソフトウェアとして、Virtage、VMware、Hyper−V(以上、商標名)などのハイパバイザが知られている。
複数の仮想計算機の夫々は、分割されたリソースを利用して、OSやアプリケーションプログラムを稼働することができる。したがって、物理サーバの運用効率が改善され、その結果として、計算機の設置数を削減できるという利点がある。
物理サーバの仮想化技術を利用した事業形態として、サーバホスティングサービスがある。これは、物理サーバのリソースの一部を、ある期間、ユーザに貸し出す事業形態である。サーバホスティングサービスの事業者は、データセンタに複数のサーバを集約して設置し、リソースの管理者は、複数のユーザからのリソース割当て要求に応じて要求があったリソース量を確保しユーザが利用する仮想サーバに割当てるようにしている。
ユーザは、リソースが割当てられた仮想計算機を利用して業務システムを稼働させる。リソースの管理者は、複数の仮想計算機同士で一台の物理的なコンピュータのリソースを奪い合うことを防ぐため、複数の仮想サーバが将来的に利用するリソース量をスケジュール管理している。
そして、リソース管理者は、ユーザが業務システムの利用を開始する日時までに、仮想計算機をユーザが要求するリソース量の割当てが可能な物理サーバにデプロイする。
リソース管理者は、複数の仮想化環境を一元管理することができる管理システムを導入しており、この管理システムは、リソースの空き状況から仮想計算機のデプロイ先となる物理サーバを特定することができる。
ユーザに割当てるリソース量が不足した時には、リソース管理者は、ユーザとの間の契約や業務システムの優先度などに基づき、リソース量を複数の仮想サーバ間で調整するようにしている。しかしながら、リソース管理者が、ユーザが要求するリソース量を確保できないと判断した場合には、そのことをユーザに早く通知しなければならい。
仮想サーバにリソースを確保するための従来技術として、例えば、特開2005−309644号公報に記載のリソース制御システムが存在する。
このものは、業務システムが稼働し、割当てられるリソース量が動的に変化する仮想サーバのリソース使用状況を、リソース制御システムが定期的に収集し、使用状況から仮想サーバが必要とするリソース量を算出し、算出結果に基づいて、仮想サーバに割当てたリソースから余分なリソース量を回収することを特徴とする。
特開2005―309644号公報
従来技術に係るリソース管理システムは、物理計算機のリソースの空き状況を計測して、リソースを仮想計算機に確保しようとするものであるが、他の仮想計算機が一時的にリソースを使用していると、目的の仮想計算機に対してリソースをその時には確保できないと判断してしまうことがある。仮想計算機が、大きなリソース量を一度に確保しようとする時には、この傾向は益々顕著となる。しかしながら、時間を均せば、物理計算機のリソース量には余裕があり、目的の仮想計算機にリソースを十分確保できるケースも多々ある。
そこで、本発明は、物理計算機のリソースの仮想計算機に対する割当てを効率的に実行可能な計算機システム、及び、その制御方法を提供することを目的とするものである。
本発明の他の目的は、リソース量が一時的に不足していても、実質的にはリソース量に余裕がある場合を判別して、リソースを仮想計算機に割当てることができる計算機システム、及びその制御方法を提供することにある。
前記目的を達成するために、本発明は、計算機システムが、仮想計算機に保証するリソース量を一度に確保できる物理計算機がある場合は、当該物理計算機を前記仮想計算機に配置し、前記必要リソース量を一度に確保できる物理計算機がない場合は、前記必要リソース量より少ないリソース量を徐々に増加させてリソース確保しながら、前記仮想計算機の稼働開始までに、前記必要リソース量を確保できる物理計算機を決定し、この決定された物理計算機を前記仮想計算機に配置することを特徴とするものである。
本発明によれば、物理計算機のリソースの仮想計算機に対する割当てを効率的に実行可能な計算機システム、及び、その制御方法を提供することができ、リソース量が一時的に不足していても、実質的にはリソース量に余裕がある場合を判別して、リソースを仮想計算機に割当てることができる計算機システム、及び、その制御方法を提供することができる。
本発明の第1の実施形態に係る計算機システムのハードウェアブロック図である。 管理計算機100、及び、物理計算機101に共通なハードウェア構成を示すブロック図である。 仮想計算機リソーステーブル200の一例である。 業務テーブル300の一例である。 物理計算機リソーステーブル400の一例である。 対応テーブル500の一例である。 管理対象物理計算機101にリソース確保用プール114を生成する処理を示すフローチャートである。 リソース確保用プールにリソースの確保を行う処理のフローチャートである。 リソース確保部104がリソース確保用プールに、仮想計算機が要求したリソース量を徐々に確保するための処理(図8のステップ902)の詳細なフローチャートである。 仮想計算機が行う業務システムの優先度に応じて、仮想計算機に、リソース確保用プールからリソースを配分する処理のフローチャートである。 仮想計算機が実行する業務システムのシステム構成に応じて、仮想計算機に、リソース確保用プールからリソース配分する処理のフローチャートである。 リソースの仮想計算機に対する割当をキューによって管理する処理のフローチャートである。 リソース確保用プール114から仮想計算機113へ確保したリソース量を引き継ぐための処理のフローチャートである。 リソース確保用プール114に、仮想計算機に必要なリソース量を確保できるか否かを、リソース確保処理の実行前に検証するためのフローチャートである。 仮想サーバ113を別の管理対象物理サーバ101に移動する要求を処理するためのフローチャートである。 仮想サーバ113の削除処理を実施するフローチャートである。 物理サーバを省電力モードにする際に、物理サーバから仮想サーバを退避させる際のフローチャートである。 本発明の他の実施形態に係る計算機システムのハードウェアブロック図である。 本発明の更に他の実施形態に係る計算機システムのハードウェアブロック図である。 本発明の更に他の実施形態に係る計算機システムのハードウェアブロック図である。 本発明の更に他の実施形態に係る計算機システムのハードウェアブロック図である。 本発明の更に他の実施形態に係る計算機システムのハードウェアブロック図である。 本発明の更に他の実施形態に係る計算機システムのハードウェアブロック図である。 本発明の更に他の実施形態に係る計算機システムのハードウェアブロック図である。
次に、本発明の実施形態を添付図面にしたがって説明する。図1は、本発明の第1の実施形態に係る計算機システムのハードウェアブロック図である。この計算機システムは、複数の物理サーバ101と、物理サーバのリソースの管理を主に実行する管理サーバ100と、管理端末102と、これらを互いに接続するネットワーク115と、を備えている。
物理サーバ101には仮想化ソフトウェアが搭載されている。仮想化ソフトウェアは、物理計算機のOS上で動作可能な複数の計算機を仮想的に作り出すものであり、このように仮想的に作り出された計算機を仮想計算機、又は、仮想機械という。仮想化ソフトウェアは、物理サーバのリソースを複数の領域に分割し、分割した領域を利用して複数の仮想的計算機が稼働可能な環境を実現する。
仮想計算機には、サーバとしてのものと、クライアントとしてのものがある。前者を仮想サーバといい、以後、物理サーバに複数の仮想サーバが設定される形態に基づいて本発明を説明する。ただし、仮想計算機であれば仮想サーバに限定せずいずれの用途であってもよく、仮想計算機をクライアント目的で使用してもよい。
仮想サーバは、自身に割当てられたリソースを利用して、OSやアプリケーションを稼働することによって、あたかも一台の物理サーバであるかのように振る舞う。リソースには、プロセッサ、メモリ、ストレージ(ハードディスクやSSDなど)、そして、ネットワークなどがある。
サーバの仮想化技術によって、1台の物理的なサーバ上に、Webサーバ、メールサーバなど、利用目的、OSが異なる複数の仮想的計算機環境を構築することができる。管理サーバ100は、管理対象としての物理サーバ101のリソースの仮想サーバに対する割当てを管理する。
図2は、管理サーバ100、及び、物理サーバ101に共通なハードウェア構成を示したブロック図である。管理サーバ100と管理対象物理サーバ101は、一般的な計算機と同様なハードウェア構成を備えている。
サーバは、CPU600と、主記憶装置601と、ネットワークアダプタ602と、ストレージアダプタ603と、ストレージデバイス604と、そして、これらを互いに接続する共有バス605と、を備えている。
ネットワークアダプタ602は管理ネットワーク115Aに接続しており、ネットワーク115Aを介して、CPU600は他のサーバに接続可能である。
ストレージアダプタ603は、SANなどのストレージネットワーク115Bが接続している。したがって、CPU600は、ストレージネットワーク115Bを介して外部ストレージ装置に接続可能である。
物理サーバ101のストレージデバイス604には、仮想化ソフトウェアなどのリソース管理プログラムが格納されている。仮想化ソフトウェアは、リソースをリソースプールにプールし、リソースプールからリソース量を仮想サーバに割当てる処理を実行する。すなわち、仮想サーバがリソースプールに対応付けられていると、仮想サーバへのリソースの割当は、リソースプールから行われる。後述するリソース確保用プール114は、リソースプールをリソース確保目的に利用したプールのことである。
物理サーバ101は、図1に示すように、仮想化ソフトウェアを実行することにより、仮想サーバ113に割当てるリソースを物理サーバから確保するためのリソース確保用プール114と、リソース確保用プール114から仮想サーバ113へのリソースの割当てやリソース確保用プール114へのリソースの確保などのリソース管理処理を実行するリソース制御部120とを、計算機環境に構築する。
仮想サーバ113やリソースプールへ割当てられるリソース量を定義或いは設定するためのパラメータの一例として、「保証値」がある。保証値は、仮想サーバ113やリソースプールへの割当が保証されるリソース量に相当するパラメータである。したがって、ある仮想サーバ或いはリソースプールが他の仮想サーバとの間とでリソースを競合する状況になっても、前者の仮想サーバ或いはリソースプールに対するリソースの割当ては、保証値の範囲内で保証される。保証値は、仮想化ソフトウェアの備えるリソース割当てパラメータのひとつであり、一般に予約値または下限値とも呼ばれる。
管理サーバ100は、仮想サーバに対する必要リソース量の確保のための管理・制御処理を実行して、仮想サーバのデプロイ先となる物理サーバを決定するなどのリソース管理処理を実行する。
管理サーバ100は、リソース確保用プールに、仮想サーバの必要リソース量の目安となる予約値を設定する。予約値に相当するリソース量を確保できたリソース確保用プール114を有する物理サーバを仮想サーバのデプロイ先として決定する。
管理対象物理サーバのリソース制御御部120は、リソース確保用プール114から、予約値に相当するリソース量を、仮想サーバ113を起動させる際に、仮想サーバ113に確保する制御を実施する。なお、リソース量の管理は、物理サーバのプロセッサやメモリ、I/Oなどのリソースを論理ブロックに分割することに基づいて実行される。
管理サーバ100は、全ての管理対象物理サーバ101の仮想サーバ113とリソース確保用プール114とを、仮想サーバ113に対する必要リソース量の確保の可否判定のために制御する。仮想サーバに必要リソース量を確保できる物理サーバが仮想サーバのデプロイ先となる。リソース確保用プール114は、複数の管理対象物理サーバ101のそれぞれに設定されている。
図1に示すように、管理サーバ100のCPU600は、ストレージデバイス604に記憶されている管理プログラムを主記憶装置601で取り込んで実行することにより、リソース管理部103と、リソース確保部104と、業務管理部105と、リソース割当部116と、プール制御部106と、プール生成部107と、仮想化環境管理部108と、性能情報収集部109と、構成情報収集部110と、そして、配置決定部111となど、物理サーバのリソースに対する種々の制御・管理機能を実現する。
さらに、管理サーバ100は、ストレージ装置604に、当該制御・管理機能の実行に必要な管理データを有する管理テーブルを格納している。管理テーブルは、仮想サーバリソーステーブル200と、物理サーバリソーステーブル400と、業務テーブル300と、仮想サーバとリソース確保用プールとの対応テーブル500と、を含んでいる。
リソース管理部103は、他の処理部に対する統括機能やリソース管理の上位処理を実行する。リソース確保部104は、仮想サーバ113へ割当てるリソースをリソース確保用プール114に確保する処理を実行する。業務管理部105は、仮想サーバ113が実行する業務システムを管理するための処理を実行する。
リソース割当部116は、管理サーバ100が管理するリソースを仮想サーバ113へ割当てる制御を、管理対象物理サーバ101のリソース制御部120を介して実行する処理部である。
プール制御部106は、リソース確保用プール114のリソース量を制御する処理を、リソース制御部120を介して実行する処理部である。
プール生成部107は、管理対象物理サーバ101にリソース確保用プール114を生成する処理を実行する。仮想化環境管理部108は、リソース制御部120を制御するI/Fを管理サーバ100に提供する。管理サーバ100は、ネットワーク115Aを介して複数の管理対象物理サーバ101を制御する。
リソース確保部104、リソース割当部116、プール制御部106、プール生成部107、性能情報収集部109、そして、構成情報収集部110の各処理は、仮想化環境管理部108を介して管理対象物理サーバ101にアクセスする。
性能情報収集部109は、管理対象物理サーバ101、仮想サーバ113、リソース確保用プール114の性能情報および稼働情報を収集する処理部である。性能情報には、CPU利用率、メモリ利用率、ストレージ容量、ストレージとの間のデータ転送速度、ネットワークのデータ転送速度や、CPU割当て量、メモリ割当て量などの物理サーバから仮想サーバへのリソース割当て量などがある。
構成情報収集部110は、管理対象物理サーバ101、仮想サーバ113、リソース確保用プール114の構成情報を収集する処理部である。構成情報には、管理対象物理サーバ101のハードウェア構成、そのWeb3階構成などの論理的なシステム構成、その業務システム構成に係る情報などがある。
性能情報収集部109と構成情報収集部110は、それぞれ、所定のサンプリング間隔で管理対象に定期的にアクセスして情報を収集し、収集した情報を管理テーブルに登録する。
配置決定部111は、リソースを割り当てるべき仮想サーバ113をどの管理対象物理サーバ101に配置して稼働させるのかを決定する。配置決定部111は、仮想サーバを配置すべき物理サーバを決定する処理部である。
仮想化環境管理部108は、管理サーバ100に存在していることとしたが、管理サーバ100がネットワーク115を介してアクセス可能な別の物理サーバにあってもよい。この場合、管理サーバ100のリソース確保部104等は当該物理サーバの仮想化環境管理部を介して管理対象物理サーバにアクセスする。また、仮想化環境管理部108は仮想サーバ113上にあってもよい。
なお、管理サーバの各処理部は、仮想化環境管理部108を介さずリソース制御部115のI/Fを介して管理対象物理サーバにアクセスしてもよい。
リソース制御部120は管理サーバ100からコマンドを受信して、仮想サーバ113、リソース確保用プール115に対して、制御・管理処理を実行する。
管理端末102は、ネットワーク115Aを介して、管理サーバ100に対して、管理のための入力情報を送信し、さらに、管理サーバ100から管理状況の出力情報を受信する。符号112は入力及び出力のための、キーボード、ディスプレイなどハードウェア、及び、インタフェースなどのソフトウェアからなる入出力部である。
管理ユーザは、管理端末102を介して、管理サーバ100の管理対象である、管理対象物理サーバ101、仮想サーバ113、そして、リソース確保用プール114の性能情報や構成情報を参照したり、管理サーバ100を介して、これら管理対象に制御・管理処理を適用する。
図3は、仮想サーバリソーステーブル200の一例である。仮想サーバリソーステーブル200は、仮想サーバ113、及び、リソース確保用プール(図2では「プール」と略記。)114のリソースを管理するためのものである。
仮想サーバリソーステーブル200は、仮想サーバ・リソース確保用プールの識別欄201と、物理サーバの識別欄202と、実割当リソース量の欄203と、要求リソース量の欄204と、確保リソース量の欄205と、確保用フラグの欄206と、収集時刻の欄207と、確保予定リソース量欄208とを備えている。
仮想サーバ・リソース確保用プール識別欄201には、エンティティ(仮想サーバ113またはリソース確保用プール114、リソース確保用プール以外のリソースプール)を識別する情報が記録されている。この識別情報は、仮想サーバリソーステーブルの各レコードのキー情報となる。
物理サーバ識別欄202には、エンティティが稼働する管理対象物理サーバ101を識別する情報が記録される。
実割当リソース量欄203には、エンティティに現在割り当てられているリソース量が登録される。
確保リソース量欄205には、エンティティが確保したリソース量が記録される。エンティティが仮想サーバ113の場合は、確保リソース量は仮想サーバの既述の保証値に相当するかこれを基準としたものになる。エンティティがリソース確保用プールの場合には、確保リソース量は、リソース確保用プールの既述の保証値に相当するリソース量かこれを基準としたものになる。
もし、リソース確保用プールに仮想サーバが属している場合、リソース確保用プールの保証値はリソース確保用プールに属する仮想サーバの保証値の合算値よりも大きいのが通常である。 なお、管理サーバ100は、物理サーバの空きリソース量を越える値を保証値としてリソース確保用プール114に設定することは通常できない。管理サーバ100は、計測して取得できる現状の物理サーバの空きリソース量にもとづき、空きリソース量の範囲内でリソース確保用プールの保証値を増分していく。
要求リソース量欄204には、エンティティがリソース割当部116に割当てを要求したリソース量が登録される。監視対象物理サーバ101のリソース量が切迫していない場合、この要求リソース量欄204と実割当リソース量欄203の値は等しくなる。
一方、監視対象物理サーバ101のリソース量が切迫している状況では、リソース制御部120は、要求リソース量を満たすリソース量をエンティティに割当てることができないため、実割当リソース量は要求リソース量より少なくなることがある。要求リソース量が確保リソース量よりも少ない場合、通常、要求リソース量と実割当てリソース量とが等しくなる。逆に、要求リソース量が確保リソース量以上の場合、実割当てリソース量203が確保リソース量を下回ることは通常ない。
図3に示した実割当リソース量欄203と、要求リソース量欄204と、そして、確保リソース量欄205には、メモリサイズやストレージの容量を示すGB(ギガバイト)が登録されているが、仮想サーバに割当てられるリソースがプロセッサ、ネットワーク等の場合は、CPUの周波数(Hz)、ディスク転送量やネットワーク転送量(MB/s、パケット数/s)がリソース量として記録される。リソースが複数種類に及ぶ場合には、複数種類のリソース量を組み合わせたものが記録されてもよいし、複数種類のリソース量から算出された値が記録されてもよい。
確保用フラグ欄206には、物理サーバから仮想サーバにリソースを割当てるためにリソースを確保するエンティティであるか否かを管理サーバ100が区別するためのフラグ情報が記録される。
管理サーバ100が、プールをリソース確保用プールとして設定する場合には、確保用フラグとして、「true」を登録し、プールをリソース確保用プールとして設定しない場合には「false」を登録する。
仮想サーバは通常リソースの供給先であって、リソースの供給元にはならないために、通常、確保用フラグには、「false」が登録されるが、仮想サーバをリソースの供給元に設定する場合には、仮想サーバに対しても「true」が設定される。例えば、リソース供給元の仮想サーバが、業務とは関係がない疑似的な負荷を受けている状態を特別プログラムによって作り出し、この擬似的な負荷に基づいて確保したリソースを業務実行用の仮想サーバに割当てる。なお、収集時刻欄207は、レコードの収集時刻が記憶される。
性能情報収集部109と構成情報収集部110とが仮想化環境管理部108を通して、管理対象物理サーバのリソース制御部120から情報を収集すると、これを仮想サーバリソーステーブル200に初期登録或いは更新登録する。
プール生成部107が、リソース確保用プール114を定義して、これを仮想サーバリソーステーブル200に登録する際に、確保用フラグ欄206に「true」を設定する。
確保予定リソース量欄208には、エンティティの確保予定のリソース量を記憶している。リソース確保用プールやリソース確保用仮想サーバが確保することを要求されたリソース量を記憶する。確保するリソース量の目標値を示し、確保リソース量欄205の値は、確保予定リソース量欄208の値に到達するまで徐々に増加する。リソース確保用プールやリソース確保用仮想サーバに対応するリソース確保要求の予約値を合算した値を記憶する。
図4に、業務テーブル300の一例を示す。業務テーブル300は、仮想サーバ113により実行される業務内容の観点から業務システムを分類し、業務システム毎に、リソース割当て情報、リソース貸出予約情報等のリソース管理情報を記録している。
業務テーブル300は、業務欄301と、業務優先度欄302と、要求リソース欄303と、予約期間欄304と、仮想サーバ欄305と、そして、システム要件欄306と、を備えている。
業務欄301には、業務システムの識別情報が記憶されている。この識別情報は、テーブルに記録されるレコードのキー情報となる。
業務優先度欄302には、業務システムの優先度情報が格納されている。この情報は、業務システムの重要度に応じて管理者によって設定されるものである。業務優先度は、例えば、業務システムに求められる信頼性やサービスレベル等に応じた値である。より具体的には、開発環境のリソース貸出の場合は低い優先度になり、高いサービスレベルが要求されるチケット販売システムの場合は高い優先度になる。
管理対象物理サーバ101に複数の業務システムが稼働している状況では、優先度に基づき、リソース割当部116は、リソース確保用プール114のリソースを業務毎の仮想サーバ113に割当てることによって、複数の業務システムに対してリソースの配分を妥当なものにしている。
要求リソース欄303には、業務システムに要求されるリソース量が登録される。
予約期間欄304には、業務システム欄301で特定される業務システムに、管理対象物理サーバ101からリソースの貸出を予約する時間の情報が登録される。
仮想サーバ欄305には、業務欄301で特定される業務システムを構成する仮想サーバ113を識別する情報が登録される。
システム要件欄306には、業務欄301で特定される業務システムに要求されるシステム要件情報が登録される。例えば、業務システムを構成する複数の仮想サーバ113がそれぞれ異なる管理対象物理サーバ101で稼働しなければならないという条件や、逆に同じ管理対象物理サーバ101で稼働しなければならないという条件が登録される。
前者の条件は、管理対象物理サーバ101のハードウェアが故障することを想定して、信頼性を高めるために設定されるものであり、後者の条件は、管理対象物理サーバ101のメモリの共有やキャッシュヒット率を高めて、業務の処理の高速化を図るためのものである。
業務管理部105は、性能情報収集部109と構成情報収集部110とが管理対象物理サーバから収集した情報に基づいて、業務テーブル300を生成或いは更新する。
図5は、物理サーバリソーステーブル400の一例である。物理サーバリソーステーブル400は、物理サーバのリソース利用状況を管理するためのものである。
物理サーバリソーステーブル400は、物理サーバ欄401と、全リソース量欄402と、空きリソース量欄403と、未確保リソース量欄404と、を含む。
物理サーバ欄401には、管理対象物理サーバ101を識別する情報が登録される。この識別情報は、物理サーバリソーステーブルの各レコードのキー情報である。
全リソース量欄402には、物理サーバ欄401で特定される、ある管理対象物理サーバ101の備えるリソース量の全体サイズが登録される。
空きリソース量欄403には、物理サーバ欄401で特定される、ある管理対象物理サーバ101の備えるリソース量のうち、仮想サーバ113やリソース確保用プール114のいずれにも割り当てられてない未使用のリソース量、すなわち、物理サーバ欄401(図5)と同じ物理サーバに属する実割当てリソース量欄203(図3)の合計値を全リソース量欄402から引いた値が登録される。
未確保リソース量欄404には、物理サーバ欄401で特定されたある管理対象物理サーバ101の備えるリソース量のうち、リソース確保用プール114に確保されてないリソース量が登録される。この値は、物理サーバ欄401(図5)と同じ物理サーバに属する確保リソース量欄206(図3)の合計値を全リソース量欄402から引いた値に相当する。
この物理サーバリソーステーブル400は、性能情報収集部109と構成情報収集部110との収集情報に基づいてリソース管理部103によって生成及び更新される。
図6は、対応テーブル500の一例である。対応テーブル500には、仮想サーバ113と、仮想サーバにリソースを供給するリソース確保プール114(図6では「プール」と略記。)との対応関係が登録されている。配置決定部111が仮想サーバ113をデプロイすべき物理サーバ101を決定した段階で、仮想サーバが割当てられるリソース確保用プールを対応テーブル500に登録する。
対応テーブル500には、仮想サーバ欄501と、リソース確保用プール欄502がある。仮想サーバ欄501には、仮想サーバ113の識別情報が記録されている。リソース確保用プール欄502には、仮想サーバ欄501で特定される仮想サーバ113に、確保したリソースを割当てるためのリソース確保用プール114を識別する情報が登録される。
一方、仮想サーバの利用期間が終了すると、管理者は、仮想サーバのエントリを対応テーブルから削除する。この際、仮想サーバに対応していたリソース確保用プールが他の仮想サーバにも対応していない場合には、管理者はこのリソース確保用プールを対応テーブルから削除する。
図7は、プール生成部107(図1)の動作、すなわち、管理対象物理サーバ101にリソース確保用プール(図7では「プール」と略記。)114を生成する処理を示すフローチャートである。プール生成部107は、ネットワーク115A(図2)を介してディスカバリを実行し、管理範囲に新たな管理対象物理サーバ101があればこの存在を検出する(ステップ701)。
プール生成部107は、検出した物理サーバ101にアクセスしてそのソフトウェア環境を分析し、管理対象物理サーバに仮想化環境が存在するか否かを判定する(ステップ702)。
プール生成部107が、ステップ702を肯定判定すると、管理対象物理サーバ101の構成情報、性能情報に基づいて、物理サーバ101にリソース確保用プール114が設定されているか否かを判定する(ステップ703)。
プール生成部107が、ステップ703を、リソース確保用のプールがない、と判定すると、物理サーバ101のハイパバイザ(リソース制御部120)にリソース確保用プール114の作成コマンドを供給する(ステップ704)。
プール生成部107は、作成したリソース確保用プールを管理対象として、仮想サーバリソーステーブル200(図2)に登録する(ステップ705)。詳しくは、プール生成部107は、仮想サーバリソーステーブル200に新たなレコードを生成し、仮想サーバ欄201に作成したリソース確保用プール114の識別子を記録し、物理サーバ202欄にリソース確保用プールを生成した管理対象物理サーバ101を記録し、確保用フラグ欄206に「true」を記録する。実割当リソース量欄203や要求リソース量欄204には、性能情報収集部109が収集したリソース量の情報が登録される。プール生成部107は、確保リソース量欄205に予約値を設定する。
プール生成部107が、ステップ702を否定判定するとプール生成部107はフローチャートを終了する。ステップ703を、リソース確保用プールがある、と判定すると、既存のリソース確保用プールを管理対象として(ステップ706)、フローチャートを終了する。
図8は、リソース確保部104(図1)の動作、すなわち、リソース確保用プールにリソースの確保を行う処理のフローチャートである。リソース確保部104は、新たな仮想サーバのデプロイ先となる管理対象物理サーバを決定する際に、図8のフローチャートを実行する。
物理サーバに仮想サーバが稼働している状態では、リソース確保用プール114から既にリソースが仮想サーバ113に放出されているために、リソース確保部が仮想サーバにリソースを割当てようとする場合には、リソース確保プールには改めてリソースを確保する必要がある。
そこで、リソース確保部104は、新たな仮想サーバが要求するリソース量である予約値を管理端末102からの入力情報に基づいて決定し、リソース確保用プールに設定する予約値を算出する。
次いで、リソース確保部104は、予約値の大小を判定するための閾値を、主記憶装置601の所定領域から取得し、予約値と閾値とを比較する(ステップ901)。
リソース確保部104は、予約値が閾値以下の場合(ステップ901:No)には、図3のエンティティ識別欄201を参照して、確保リソース量が存在しない未使用のリソース確保用プール114に予約値を設定し、このリソース確保用プール114のリソース制御部120にコマンドを送信する。このコマンドの送信を受けたリソース制御部120は、リソース確保用プール114に予約値に相当するリソース量を確保する(ステップ906)。
この際、予約値は閾値より小さいため、管理対象物理サーバ101には、予約値に相当するリソース量に足る空き容量が存在するため、リソース確保部104は、仮想サーバの必要リソース量を一回でリソース確保用プール114に確保させることができる。なお、リソース確保部104は、閾値の代わりに物理サーバの空き容量を予約値と比較してもよい。
一方、リソース確保部104が、予約値を閾値超と判定すると(ステップ901:Yes)、リソース確保部104は、未使用のリソース確保用プール114のリソース制御部120に対して、リソース確保用プール114に予約値に相当するリソース量を複数回に分けて徐々に確保すべき、継続的リソース確保要求をリソース制御部120に送信する(ステップ902:詳細を図9で説明。)。
従来サーバホスティング事業者は、仮想サーバに要求リソース量を一度に割当てようとしてもこれができないことが多々あったが、ステップ901、902、906によれば、管理サーバは、物理サーバにデプロイしようとしている仮想サーバの要求リソース量が少ない場合には、これを一度に確保し、要求リソース量が大きい場合には、要求リソース量より少ないリソース量を継続的に累積確保することによって、目的の要求リソース量を仮想サーバの稼働開始時期までに確実に確保できるようにしている。
性能情報収集部109・構成情報収集部110は、リソース確保用プールにおけるリソース確保の進展状況を物理サーバ101から取得して、図2のテーブルの実割当リソース量欄203、要求リソース欄204、確保リソース量欄205に更新登録している。
リソース確保用プール114へのリソースの確保の進展にしたがって、実割当リソース量203、要求リソース欄204、確保リソース量205には、確保されたリソース量が更新登録される。
リソース確保用プール114に対する、目的リソース量の確保が完了すると、確保リソース量205に予約値に相当するリソース量が登録されている。
図3のプール1及びプール3はリソースの確保が完了し、仮想サーバへリソースが割当てる前の状態のものであり、プール2は、リソースが仮想サーバに放出された後、リソースが確保される前の状態のものである。
次に、リソース確保部104は、少なくとも一つのリソース確保用プール(図8では「プール」と略記。)について、予約値に相当する要求リソース量を確保できたか否かを、確保リソース量欄205(図3)を参照して判定する(ステップ903)。リソース確保部104がこの判定を肯定すると、仮想サーバをデプロイすべきリソース確保用プール114を決定する。
ステップ903において、リソース確保部104が、少なくとも一つのリソース確保用プールに対してリソースの確保を完了させた判定すると、この一つのリソース確保用プールの物理サーバが、仮想サーバをデプロイすべきものと決定し、一方、複数のリソース確保用プールについてリソースの確保を完了いた場合、所定の選択基準にしたがって、特定のリソース確保用プールが仮想サーバのデプロイ先として決定される。
選択基準としては、要求リソース量の確保が完了した時間的な先後、リソース確保用プールの物理サーバの空き容量(図5:403)の大小がある。
次いで、リソース確保部104は、デプロイ先として選択されなかったリソース確保用プールについて、確保されたリソース領域を解放し(ステップ904)、実割当リソース量欄203、要求リソース量欄204、確保リソース量欄205をクリアする。
閾値は、管理ユーザによって、予め、リソース確保部104に対して設定されることが一般的であるが、所定のデフォルト値、あるいは、閾値決定プログラムによって、管理対象物理サーバの空きリソース量(図4)、確保リソース量(図3)などに応じて、リソース確保部104が図8のフローチャートを実行する都度決定されてもよく、また、リソース確保部104が閾値を動的に変えてもよい。
例えば、管理対象物理サーバあたりの仮想サーバ数や管理対象物理サーバのスペック、物理サーバの空きサイズなどをもとに一度に確保が難しいリソース量を閾値として算出することができる。
次いで、仮想サーバのデプロイ先として決定されたリソース確保用プールのリソース制御部120は、確保したリソースの情報を管理サーバ100のリソース管理部103に応答する(ステップ905)。
さらに、リソース確保部104は、リソース確保用プール114と仮想サーバ113との対応関係を対応テーブル500に登録する。リソース管理部103は、図1のように、仮想サーバ113をリソース確保用プール114の外に設定することの他、仮想サーバをリソース確保用プール内に設定することもできる。また、リソース確保用プール内に別のリソース確保用プールを設定することもできる。すなわち、リソース確保用プールを階層化することができる。
図8を、複数の物理サーバについて、リソースの確保が実行されるものとして説明したが、管理サーバ100が、過去に収集したリソースの割当て監視結果(図3の履歴情報)に基づいて、要求リソース量を確保する可能性が高い物理サーバから優先してリソースの確保を試みるものであってもよい。
図9は、リソース確保部104がリソース確保用プールに、仮想サーバが要求したリソース量を徐々に確保するための処理(図8のステップ902)の詳細を示すフローチャートである。
リソース確保部104は、前記閾値と同じか、又は、これよりも小さい係数値を決定し、係数値をリソース確保用プール114の保証値に加算して(ステップ1001)、リソース確保用プールの保証値を漸増させ、これをリソース制御部120に送信する。リソース制御部120は、保証値の差分(係数値)に相当するリソース量を追加でリソース確保用プール114に確保する。
この係数値は一定値であってもよいし、物理サーバの切迫度、すなわち、空きリソース量(図4)に応じて、リソース確保部104が都度算出するものであってもよい。
リソース確保部104は、仮想サーバリソーステーブル(図3)のリソース確保用プールに対する確保リソース量205に係数値に相当するリソース量を加算し、加算後の値が要求リソース量(確保予定リソース量208の値)に到達したか否かを判定する(ステップ1002)。
この判定を否定すると、その後一定時間経過した後(ステップ1003)、ステップ1001に戻り、リソース確保部104は、リソース制御部120に、係数値に相当するリソース量を追加確保する要求を送信する。
リソース確保部104が、ステップ1001〜ステップ1003を繰り返し実行することにより、リソース確保用プール114に、物理サーバにデプロイしようとしている仮想サーバの要求リソース量を継続的に確保することができる。
なお、リソース確保部104が、これら処理を所定回数実施しても、確保リソース量が要求リソース量に到達しない場合には、管理者は、仮想サーバにリソースを確保できない警告をユーザに対して通知する。
図8及び図9のフローチャートの結果、必要リソース量が確保されたリソース確保用プール114が決まると、配置決定部111は、仮想サーバの稼働開始時までにリソース確保用プール114が存在する特定物理サーバに仮想サーバをデプロイすることを決定する。
このデプロイの過程で、特定物理サーバのリソース制御部120は、リソース確保用プール114内に仮想サーバ113を格納して、リソース確保用プール114の確保済みリソース領域を仮想サーバ113に割当てる。この後、仮想サーバ113をリソース確保用プール114外に解放することによって、リソース確保用プール114のリソース量が仮想サーバ113に移譲される。リソース確保用プール114におけるリソース量の減少、仮想サーバのリソース量の増加は、図2のテーブルに登録される。
なお、リソース確保部104は、仮想サーバを物理サーバにデプロイする日時から、リソース確保用プールの確保済みリソース量のサンプリング間隔を調整してもよい。また、管理サーバ100は、仮想サーバを物理サーバにデプロイする日時が近付いた際サンプリング間隔を短くして、リソースを積極的に取得するようにしてもよい。
図10は、リソース割当部116のリソース割当て処理の事例であって、仮想サーバ113が行う業務システムの優先度に応じて、仮想サーバにリソース確保用プール114からリソースを配分する処理を示すフローチャートである。
リソース割当部116は、同一のリソース確保用プール114からの複数の仮想サーバへのリソース割当て、すなわち、複数の仮想サーバ113間でのリソースの競合を検知する(1101)。
次いで、リソース割当部116は、図4の業務テーブルを参照して、複数の仮想サーバが競合したリソースを利用して実行する業務システムを特定する(ステップ1102)。
次いで、リソース割当部116は、業務システムの優先度(図4:302)を取得して(ステップ1103)、優先度に応じて、複数の仮想サーバ間で、リソース確保用プールのリソース量を按分する(ステップ1104)。例えば、優先度が高い業務システムの仮想サーバのリソース確保用プールから順番に、要求されたリソース量を配分する。
次いで、リソース割当部116は、按分したリソース量の割当に関する要求を仮想サーバがデプロイされている物理サーバのリソース制御部120に送信して、複数の業務システム(仮想サーバ)それぞれの必要リソース量をリソース確保用プール114から配分する(ステップ1105)。
図11は、リソース割当部116のリソース割当て処理の事例であって、仮想サーバ113が実行する業務システムのシステム構成に応じて、リソースをリソース確保用プールから仮想サーバに配分する処理を示すフローチャートである。業務システムのシステム構成とは、図4の業務管理テーブルに示されるシステム要件306に係る管理情報である。
管理者は、複数の仮想サーバを計算機システムにデプロイしようとする際、複数の仮想サーバによって実現される業務システム要件、例えば、複数の仮想計算機からなるWeb3階層システムの業務システム要件を参照し、複数の仮想計算機のリソースを纏めて確保しようとする。
その際、管理者は、異なる物理サーバに複数の仮想サーバをデプロイするか、或いは同じ物理サーバに複数の仮想サーバをデプロイするかを決定し、さらに、複数の仮想計算機のリソースを同じリソース確保用プールから取得するか、異なるプールから取得するかを決定する。そこで、仮想サーバの業務システム要件に応じて、リソース確保用プールから複数の仮想サーバにリソースを配分する制御が必要となる。
リソース割当部116は、業務システムのシステム構成要件情報を取得する(ステップ1201)。次いで、リソース割当部116は、リソース確保用プール114に確保されたリソース量を、ステップ1201で取得したシステム構成情報の要件を満たすように複数の仮想サーバにリソースを配分し(ステップ1202)、配分した値に応じてリソース量を仮想サーバに割り当てる(ステップ1203)。
例えば、ハードウェア故障の影響を最小化して信頼性を向上するため複数の仮想サーバ113を別の管理対象サーバ101に配置するシステム構成を要件としてもよい。逆に、高速化を目的として複数の仮想サーバ113を同じ管理対象物理サーバ101に配置するシステム構成を要件としてもよい。この場合、メモリ情報を共有でき、ネットワーク通信をメモリコピーで実現できるため高速化を図ることができる。
図12は、リソース割当部116のリソース割当て処理であって、リソースの仮想サーバに対する割当をキューによって管理する処理のフローチャートである。リソース割当要求をキューイングするキューを内部的に管理しているリソース割当部116がリソース割当てキューから割当て要求を取り出し(ステップ1301)、取り出した割当て要求のリソース量を有するリソース確保用プール114を特定する(ステップ1302)。
次いで、リソース割当部116は、仮想サーバリソーステーブル200で管理する情報のうち、特定したリソース確保用プール114に相当するレコードの確保リソース量欄205と確保予定リソース量欄208の値から割当て要求量(予約値)を減算する(ステップ1303)。さらに、リソース割当部116は、プール制御部106を通して、特定したリソース確保用プール114の保証値に割当て要求量(予約値)分減算した値を設定する。
次いで、リソース割当部116は、特定したリソース確保用プール114から割当て要求されたリソース量(予約値)を要求に対応する仮想サーバに割当てる(ステップ1304)。
図13は、リソース割当部116のリソース割当て処理の具体例であって、リソース確保用プール114から確保したリソース量を仮想サーバ113へ引き継ぐための処理を説明するフローチャートである。
この引き継ぎは、リソース確保用プール114に仮想サーバ113を格納し、次いで、この格納を解放する過程で実行される。
リソース割当部116は、物理サーバに新たにデプロイしようしている仮想サーバ(A)に対応する、確保したリソース量を割り当てるリソース確保用プール(C)を対応テーブル400から特定する(ステップ1401)。
次に、リソース割当部116は、リソース確保用プール(C)の予約値に仮想サーバ(A)の割当て要求リソース量(D)を加算する(ステップ1402)。リソース割当部116は、リソース確保用プール(C)に仮想サーバ(A)を配置する(ステップ1403)。
次いで、リソース割当部116は、仮想サーバ(A)の保証値に割当て要求リソース量(D)分の値を加算する(ステップ1404)。さらに、リソース割当部116は、リソース確保用プール(C)から仮想サーバ(A)を取り出し(ステップ1405)、リソース割当部116は、リソース確保用プール(C)の保証値から仮想サーバ(A)の割当て要求量(D)分を減算する(ステップ1406)。
リソース制御部120は、リソース割当部116からの要求によって、リソース確保用プール(C)から仮想サーバ(A)に移譲される保証されたリソース割当てをリソース確保用プール(C)から仮想サーバ(A)に変更する。リソース確保用プール(C)及び仮想サーバ(A)のリソース量の変動は、リソース割当部116によってリソース管理テーブル200に登録される。
なお、リソース確保用プールから仮想サーバへのリソースの引き継ぎを、リソース割当部116が、両者を同期させて、リソース確保用プール114の予約値を減らしながら、仮想サーバ113の保証値を増やして、リソース確保用プールから放出されリソースを仮想サーバがそのまま確保できるようにしてもよい。
図14は、リソース確保用プール114に、仮想サーバに必要なリソース量を確保できるか否かを、リソース確保処理の実行前に検証するためのフローチャートである。
リソース確保部104が、リソース確保用プール114に、閾値(図8)を超えるリソース量を確保しようとする際、図9のフローチャートをシミュレートする。
そのために、リソース確保部104が、リソース確保用プールに対するリソースの確保要求を検出すると(ステップ1501)、物理サーバリソーステーブル400(図5)を継続的に参照して、物理サーバの空きリソース量403を監視する(ステップ1502)。
物理サーバの空きリソース量の傾向から、リソース確保部104は、リソース確保用プール114に対する継続的なリソース量の確保の処理の過程における一回当たりのリソース量の増分(図9)を見積り、リソース確保用プール114の将来のリソース量の増加傾向を予測する(ステップ1503)。
なお、ここでは物理サーバの空きリソース量の傾向から確保リソース量の増分を見積もっているが、代わりに、実際に数回あるいは一定試行期間の間、リソース確保処理を試行的に行い、そこで確保できた値から将来的に確保可能なリソース量を見積もってもよい。
リソース確保部104は、予測結果に基づいて、リソース確保用プール114の予約値として設定された要求リソース量を、仮想サーバの起動予定日時までに確保できるか否かを判定する(ステップ1504)。
リソース確保部104が、ソース量の継続的な確保量を許容範囲内で増加させても、予定時日時までに割当て要求リソース量を確保できない、と判定すると、リソース確保部104は管理端末に警告メッセージを表示する(ステップ1505)。管理者はこの警告表示を受けて、ユーザに仮想サーバの起動開始の延期、仮想サーバの保証値の縮減を求めることができる。ユーザからの修正依頼に基づいて、管理サーバ100は、図14のフローチャートを再度実行し、管理者は、ステップ1504の肯定判定を確認した後、リソース確保用プールへの必要リソース量の確保を実際に開始すればよい。
図15は、仮想サーバ113を別の管理対象物理サーバ101に移動する要求を処理するためのフローチャートである。プール生成部107は、管理対象物理サーバ(D)へ仮想サーバ(A)を移動する要求を管理端末102から受信すると(ステップ1408)、対応テーブル500を参照して、仮想サーバ(A)に関連付けられたリソース確保用プールCを特定する(ステップ1409)。
次いで、リソース生成部107は、管理対象物理サーバ(D)にリソース確保用プール(C)の予約値に基づく予約値を設定した新たなリソース確保用プール(E)を生成する(ステップ1410)。
さらに、リソース生成部107は、管理対象物理サーバ(D)に仮想サーバ(A)を移動し(ステップ1411)、リソース確保用プール(C)を削除する(ステップ1412)。
さらに、プール生成部107は、仮想サーバ(A)に対する対応付けをリソース確保用プール(C)からリソース確保用プール(E)に変更し(ステップ1413)、変更内容を対応テーブルに登録する。
次いで、リソース確保部104は、リソース確保用プール(E)の予約値に相当するリソース量を仮想サーバ(A)に引き継ぐ処理を実行する(ステップ1414)。
図16は、仮想サーバ113の削除処理を実施するフローチャートである。プール生成部107が仮想サーバ(A)を削除する要求を管理端末102から受信すると(ステップ1415)、仮想サーバ(A)に対応するリソース確保用プール(F)を特定する(ステップ1416)。
次いで、プール生成部107は、仮想サーバ(A)を削除し、さらに、仮想サーバに対応するリソース確保用プール(F)を削除する(ステップ1417)。プール生成部107は、対応テーブル500から仮想サーバ(A)とリソース確保用プール(F)の対応を削除する。
なお、プール生成部107は、図3のテーブルの確保用フラグ206を参照して、後述のように仮想サーバが業務システムの仮想サーバへのリソース割当用のものである(フラグ;true)場合には、この仮想サーバを削除しない。
図17は、物理サーバを省電力モードにする際に、物理サーバから仮想サーバを退避させる際のフローチャートである。管理サーバ100が、管理端末102から、計算機システムに対する省電力モードへの移行要求があったことを検出すると(ステップ2400)、リソース管理部103は、複数の管理対象物理サーバのうち全ての仮想サーバを他の物理サーバに退避するのに適した物理サーバ(A)を特定する(ステップ2401)。このような物理サーバの一例としては、最も稼働率が少ない物理サーバがある。
次いで、リソース管理部103は、物理サーバ(A)の仮想サーバ(B)に対応するリソース確保用プール(C)を、対応テーブル500(図6)を参照して特定する(ステップ2402)。
次いで、リソース管理部103は、物理サーバ(A)の全リソース量分の予約値をリソース確保用プール(C)に設定し(ステップ2403)、リソース確保用プール(C)にこの予約値を、設定可能かどうかを判定する(ステップ2404)。
ステップ2404において、リソース確保部103は、予約値と閾値とを比較し、予約値が閾値以下の場合には一度に全予約値分の保証値をリソース確保用プールに設定できると判定し、一方、予約値が閾値を超えると判定すると、予約値分の保証値を一度にリソース確保用プール(C)に設定できないと判定して、リソース確保用プール(C)の保証値を物理サーバ(A)の全リソース量分に至るまで徐々に上げる(ステップ2405)。なお、リソース確保部103は、物理サーバ(A)から退避されるべき仮想サーバ(B)に対する保証値を削除する。
リソース管理部103が、一度に予約値をリソース確保用プール(C)に設定した場合や、ステップ2406を実行して、最終的に予約値がリソース確保用プール(C)に設定されることによって、仮想サーバ(B)からリソース量が、リソース確保用プール(C)に回収されて、その結果、物理サーバ(A)上で稼働する仮想サーバが無くなったことを検出すると(ステップ2406)、管理サーバ100は、物理サーバ(A)を省電力モード(シャットダウンなど)に移行させる(ステップ2407)。なお、リソース管理部103は、仮想サーバリソーステーブル200を参照し、物理サーバ(A)には、実割当リソース量203を有する仮想サーバが存在しないこと確認することによって、ステップ2406を達成することができる。
図17のフローチャートを実行することによって、管理サーバ100は、仮想サーバ(B)を他の物理サーバに集約し、かつ、物理サーバ(A)をリソースが使用されない未使用状態に積極的に移行させることができるために、物理サーバ(A)を省電力状態に変更することができる。
なお、仮想サーバ(B)からリソース確保用プール(C)にリソースの回収を行うことなく、仮想サーバ(B)を物理サーバ(A)から他の物理サーバに集約しようとすると、計算機システムに適用される負荷平準化プログラムなどにより、仮想サーバ(B)が移動元物理サーバ(A)と移動先の他の物理サーバとを行き来する「ピンポン現象」が生じてしまう。
仮想サーバ(B)の移動元物理サーバ(A)において、そのリソースがリソース確保用プール(C)に回収されることによって、負荷平準化プログラムが稼働している環境下でも既述の「ピンポン現象」を防止することができる。
次に、管理対象物理サーバ101における、リソース確保用プール114と仮想サーバ113の構成に関する他の実施形態について説明する。既述の実施形態(図1)では、仮想サーバ100が、仮想サーバ113にリソース確保用プール114からリソースを割り当てると、仮想サーバ113をプール114外に解放するが、図18の実施形態のものは、プール114内に仮想サーバ113を配置することを維持した形態を採用している。
この形態では、リソース確保用プール114への仮想サーバ113の割当てが維持されているために、仮想サーバ113の電源が遮断されている間も、仮想サーバ113はリソース確保用プール114のリソースを占有することができる。
図19は、仮想サーバ113とリソース確保用プール114との対応関係について、さらに他の実施形態に係る計算機システムのブロック図である。図1の実施形態の計算機システムは、物理サーバ101において、物理サーバ101にデプロイされた複数の仮想サーバ113が同じリソース確保用プール114を共有するものであったが、図19の実施形態に係るものは、一つの仮想サーバ113が一つのプール114を占有しているために、仮想サーバ113がプール114の外に設定されていても、他の仮想サーバとの間でリソースの競合が発生しない。
図20は本発明に係る計算機システムの更に他の実施形態に係るブロック図であって、複数の管理対象サーバ101のリソース確保用プールをクラスタ化し、クラスタ化されたリソース確保用プール114から仮想サーバにリソースを割り当てる実施形態である。リソース確保用プール114は、複数の管理対象サーバ101を横断して設定されている。
図20の実施形態によれば、複数の管理対象サーバ101間で仮想サーバ113が動的に移動するような環境であっても、複数の管理対象サーバ101を一つの単位としてリソースを確保できる。デプロイ先の物理サーバを特定せず、ある複数の管理対象サーバ101からなるグループに属するいずれかの管理対象サーバ101上にリソースを確保したい場合に有効である。
図21は、本発明に係る計算機システムの更に他の実施形態に係る計算機システムのブロック図であって、管理対象物理計算機101が、リソース確保用プール114に代えて、仮想サーバ113自身がリソースを自発的に確保する機能を備えるものである。
仮想サーバ113は負荷を自発的に生成させる負荷生成部117を備えている。負荷生成部117は、管理サーバ100からの要求を受けて、擬似的に負荷を生成し、擬似的な負荷に基づいてリソースを確保する。負荷生成部117の実体は、例えば、ループ状のプログラムであり、仮想サーバ113のCPUが継続的、あるいは一時的に、このプログラムを実行してCPUの使用率を増加させる。リソース制御部120は、仮想サーバのCPU使用率から負荷状態の増加を判定し、リソースを仮想サーバに割当てる。
リソースプールという概念がない仮想化環境であっても、本実施形態により、リソース確保を実現できる。
図22は、本発明に係る計算機システムの更に他の実施形態に係る計算機システムのブロック図であって、物理サーバ101は、負荷を擬似的に発生する負荷生成部117を有し、擬似的に発生させた負荷によって確保したリソースを自身では利用せず、他の仮想サーバにアサインするだけの仮想サーバ118と、リソースの割当てを受けて業務システムを実現する仮想サーバ113とを区別した形態を備えるものである。業務用仮想サーバ113と、リソース確保用仮想サーバ118とは対応付けられて対応テーブル500に登録される。
リソース確保部104は、リソース確保用仮想サーバ118から業務システム用仮想サーバ113にリソースを引き継がせる際、両者の仮想サーバ間でリソースの増減を同期させ、すなわち、前者の仮想サーバが負荷生成量を徐々に減少させながら一旦確保したリソースを徐々に放出するようにし、その放出分のリソース量を、後者の仮想サーバが保証値を徐々に増加させることによって確保できるようにすればよい。
なお、リソース確保用サーバ118はプールの一例として見ることもできる。リソースプールという概念がない仮想化環境であっても、本実施形態により、リソース確保を実現できる。また、リソース確保専用の仮想サーバはデフォルトで、物理サーバにデプロイされていてもよい。
図23は、本発明に係る計算機システムの更に他の実施形態に係るブロック図であって、管理サーバ100からのネットワーク115が直接、リソース確保用仮想サーバ118の負荷生成部117に接続する構成に係るものである。
ここで、リソース確保用仮想サーバ118は、他の管理対象サーバ101に動的に移動しないよう、固定化させておく必要がある。一方、仮想サーバ113は、管理対象サーバ101との関係を固定化させておく必要はない。
リソース制御部120と管理サーバとが直接ネットワーク115を介して接続されていなくてもよい。図23の実施形態によれば、管理対象サーバ101ごとに一つの負荷生成部117を備えればよい。負荷生成部117を備えない仮想サーバ113を管理対象サーバ101上に稼働させることができるため、業務システムが稼働する仮想サーバ113上では負荷生成部117を動作させないことにより負荷生成部117と業務システムとの競合を防止できる。
また、仮想サーバ113上に業務システムに不要なプログラムを配備しないことで、仮想サーバ113の退避・リストアを容易にすることができる。さらに、管理サーバ100上から負荷生成部117に処理を要求するために必要となるリソース確保用仮想サーバ118への認証情報が必要となるところ、管理対象サーバ101の台数分の認証情報があれば足りる点で管理情報が少なくて済む。また、リソースプールという概念がない仮想化環境であっても、本実施形態により、リソース確保を実現できる。
図24は、本発明に係る計算機システムの更に他の実施形態に係るブロック図であって、管理サーバ100がネットワーク115を介して直接、仮想サーバ113の負荷生成部117に接続する構成に係るものである。
図24の実施形態では、仮想サーバ113と管理対象サーバ101との関係を固定化させておく必要はない。仮想サーバ113を動的に管理対象サーバ101間で移動させてもよい。この場合、複数の管理対象サーバ101のいずれかで要求したリソースを確保することになる。例えば、仮想サーバ113に設定されたIPアドレスベースで管理サーバ100が仮想サーバ113を管理していれば、ある仮想サーバ113が第1の管理対象サーバから第2の管理対象サーバに移動したとしても、継続して負荷生成部に負荷を与え続けることができ、リソース確保処理を継続できる。すなわち、管理対象サーバ101の負荷平準化プログラムを利用して、仮想サーバ113を動的に再配置させながら、リソース確保することができる。
図24の実施形態によれば、管理サーバ100は、管理対象サーバ101と仮想サーバ113の関係を管理しなくてもよいため、管理情報を少なくすることができる。また、リソースプールという概念がない仮想化環境であっても、本実施形態により、リソース確保を実現できる。
100 管理サーバ
101 管理対象物理サーバ
113 仮想サーバ
114 リソース確保用プール
120 リソース制御部

Claims (11)

  1. 複数の物理計算機と、
    前記複数の物理計算機を管理する管理計算機と、を備える計算機システムであって、
    前記複数の物理計算機は、それぞれ、
    仮想計算機を生成するプログラムを記憶するメモリと、
    前記プログラムを実行して前記仮想計算機を生成し、
    生成した仮想計算機にリソースを割り当てて、当該仮想計算機を稼働させる第1のコントローラと、を有し、
    前記管理計算機は、
    前記仮想計算機に対する前記リソースの割当てを管理する第2のコントローラを備え、
    前記第2のコントローラは、
    前記仮想計算機の必要リソース量を一度に確保できる物理計算機があれば、当該物理計算機を前記仮想計算機に配置し、
    前記仮想計算機の必要リソース量を一度に確保できる物理計算機がなければ、前記必要リソース量より少ないリソース量を徐々に増加させてリソース確保しながら、前記仮想計算機の稼働開始までに、前記必要リソース量を確保できる物理計算機を決定し、
    当該物理計算機に前記仮想計算機を配置し、
    当該仮想計算機が配置された物理計算機の前記第1のコントローラは、前記必要リソース量を前記配置された仮想計算機に割当てることにより当該仮想計算機を稼働させる、計算機システム。
  2. 前記複数の物理計算機のそれぞれは、前記仮想計算機に割当てるリソースを確保するプールを備え、
    前記第1のコントローラは、当該プールから前記仮想計算機へ前記必要リソース量を割当てる、請求項1記載の計算機システム。
  3. 前記第2のコントローラは、
    前記プールに前記必要リソース量に相当するパラメータを設定し、
    前記パラメータに基づいて前記必要リソース量を前記プールに確保できるか否かを判定し、
    当該判定結果に基づいて、前記必要リソース量を確保できるプールを有する物理計算機に、前記仮想計算機を配置する、
    請求項記載の計算機システム。
  4. 前記第2のコントローラは、
    前記パラメータと閾値とを比較し、
    前記パラメータが前記閾値より小さいと判定した場合、前記必要リソース量を前記複数の物理計算機の少なくとも一つの前記プールに一度に確保し、
    前記パラメータが前記閾値より大きいと判定した場合、前記必要リソース量を前記複数の物理計算機の少なくとも一つの前記プールに継続的に確保し、
    前記必要リソース量が確保できたプールを有する物理計算機に前記仮想計算機を配置先する、
    請求項記載の計算機システム。
  5. 前記第2のコントローラは、
    前記必要リソース量を一度に確保できる物理計算機がなければ、前記パラメータを徐々に増加させながら前記プールに前記リソースを徐々に確保する、請求項記載の計算機システム。
  6. 前記第2のコントローラは、
    前記プールから複数の仮想計算機に前記リソースを割当てる際、各仮想計算機が実行する業務システムの優先度に応じて、前記プールから前記リソースを前記複数の仮想計算機に配分する、
    請求項記載の計算機システム。
  7. 前記第2のコントローラは、
    前記プールから複数の仮想計算機に前記リソースを割当てる際、各仮想計算機が実行する業務システムのシステム構成に応じて、前記プールから前記リソースを前記複数の仮想計算機に配分する、
    請求項記載の計算機システム。
  8. 前記第2のコントローラは、
    前記プールのリソース量の増加傾向を予測し、
    前記予測結果に基づいて、仮想計算機の稼働が開始するまでに、前記プールに前記必要リソース量を確保できるか否かを判定し、
    判定結果を管理者に対して出力する、
    請求項記載の計算機システム。
  9. 仮想計算機を稼働する物理計算機と、仮想計算機に対する物理計算機のリソースの割当てを管理する管理計算機と、を備える計算機システムの制御方法であって、
    前記管理計算機が、
    前記仮想計算機に保証するリソース量を一度に確保できると判定する物理計算機があれば、当該物理計算機に前記仮想計算機を配置し、
    前記保証するリソース量を一度に確保できないと判定する場合には、前記仮想計算機の起動開始までに、前記仮想計算機に保証するリソース量を徐々に増加させて継続的にリソース確保できるか否かを判定し、
    この判定を肯定すると、前記確保したリソースの合計量を、前記仮想計算機に割当てて、当該仮想計算機を前記物理計算機に配置する、
    計算機システムの制御方法。
  10. 仮想計算機を生成し、生成した仮想計算機にリソースを割り当てて、当該仮想計算機を稼働させる、複数の物理計算機の管理計算機であって、
    前記仮想計算機に対する前記リソースの割当てを管理するコントローラを備え、
    前記コントローラは、
    前記仮想計算機の必要リソース量を一度に確保できる物理計算機があれば、当該物理計算機に前記仮想計算機を配置し、
    前記必要リソース量を一度に確保できる物理計算機がなければ、前記必要リソース量もより少ないリソースを徐々に増加させてリソース確保しながら、前記仮想計算機の稼働開始までに、前記必要リソース量の確保を達成できる物理計算機を決定し、
    当該物理計算機に前記仮想計算機を配置し、
    当該仮想計算機が配置された物理計算機に、前記必要リソース量を前記配置された仮想計算機に割当てて当該仮想計算機を稼働させるようにした、
    管理計算機。
  11. 仮想計算機と、
    リソースを確保するプールと、を備え、
    前記プールから前記確保されたリソースを前記仮想計算機に割当て、
    前記仮想計算機に前記割当てられたリソースに基づいて業務システムを実行させるコントローラを有する物理サーバであって、
    前記コントローラは、
    前記必要リソース量が閾値より小さい場合、前記必要リソース量を前記プールに一度に確保し、
    前記必要リソース量が閾値より大きい場合、前記必要リソース量を徐々に増加させて前記仮想計算機の稼働開始までに、当該仮想計算機の必要リソース量を前記プールに継続的に確保し、
    当該プールから確保された必要リソース量を前記仮想計算機に割当てる、
    物理サーバ。
JP2010198766A 2010-09-06 2010-09-06 計算機システム、及び、計算機システムの制御方法 Expired - Fee Related JP5417287B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010198766A JP5417287B2 (ja) 2010-09-06 2010-09-06 計算機システム、及び、計算機システムの制御方法
US13/820,638 US9201695B2 (en) 2010-09-06 2011-01-28 Computer system and control method for acquiring required resources
PCT/JP2011/000499 WO2012032679A1 (ja) 2010-09-06 2011-01-28 計算機システム、及び、計算機システムの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010198766A JP5417287B2 (ja) 2010-09-06 2010-09-06 計算機システム、及び、計算機システムの制御方法

Publications (2)

Publication Number Publication Date
JP2012058815A JP2012058815A (ja) 2012-03-22
JP5417287B2 true JP5417287B2 (ja) 2014-02-12

Family

ID=45810293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010198766A Expired - Fee Related JP5417287B2 (ja) 2010-09-06 2010-09-06 計算機システム、及び、計算機システムの制御方法

Country Status (3)

Country Link
US (1) US9201695B2 (ja)
JP (1) JP5417287B2 (ja)
WO (1) WO2012032679A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5626023B2 (ja) * 2011-03-02 2014-11-19 日本電気株式会社 リソース管理システム、リソース管理方法およびリソース管理プログラム
JP5910215B2 (ja) * 2012-03-21 2016-04-27 富士通株式会社 管理装置の制御プログラム、制御方法及び管理装置
WO2013146537A1 (ja) * 2012-03-26 2013-10-03 日本電気株式会社 ストレージシステム及びこれの制御方法
JP6159402B2 (ja) * 2012-08-31 2017-07-05 華為技術有限公司Huawei Technologies Co.,Ltd. 中央処理装置のリソース割当方法及び計算ノード
US9691039B2 (en) * 2012-09-26 2017-06-27 Dell Products L.P. Smart ordering system for proactive mitigation of system scarcity in a cloud or data center environment
JP5991482B2 (ja) * 2012-11-14 2016-09-14 コニカミノルタ株式会社 画像形成装置およびその制御方法
US9223598B1 (en) * 2012-11-26 2015-12-29 Parallels IP Holdings GmbH Displaying guest operating system statistics in host task manager
US9069594B1 (en) * 2012-12-27 2015-06-30 Emc Corporation Burst buffer appliance comprising multiple virtual machines
US9984206B2 (en) * 2013-03-14 2018-05-29 Volcano Corporation System and method for medical resource scheduling in a distributed medical system
KR20150083713A (ko) * 2014-01-10 2015-07-20 삼성전자주식회사 자원 관리를 위한 전자 장치 및 방법
US9690608B2 (en) * 2014-06-12 2017-06-27 Vmware, Inc. Method and system for managing hosts that run virtual machines within a cluster
JP2016006608A (ja) * 2014-06-20 2016-01-14 住友電気工業株式会社 管理方法、仮想マシン、管理サーバ、管理システム、及びコンピュータプログラム
US10897616B2 (en) 2014-12-08 2021-01-19 Harmonic, Inc. Dynamic allocation of CPU cycles vis-a-vis virtual machines in video stream processing
JP6394455B2 (ja) 2015-03-24 2018-09-26 富士通株式会社 情報処理システム、管理装置およびプログラム
JP6550945B2 (ja) * 2015-06-10 2019-07-31 富士通株式会社 判定制御プログラム、判定制御方法及び仮想マシン管理装置
TWI592874B (zh) * 2015-06-17 2017-07-21 康齊科技股份有限公司 網路伺服系統
US9760398B1 (en) * 2015-06-29 2017-09-12 Amazon Technologies, Inc. Automatic placement of virtual machine instances
EP3142012B1 (en) * 2015-09-11 2018-10-24 Harmonic Inc. Method for determining a computing capacity of one of a physical or a virtual machine
US11650848B2 (en) * 2016-01-21 2023-05-16 Suse Llc Allocating resources for network function virtualization
EP3246100A1 (en) * 2016-05-19 2017-11-22 Siemens Aktiengesellschaft Allocating the running of recognition services in a logistical automation system
JP6595952B2 (ja) * 2016-06-14 2019-10-23 日本電信電話株式会社 リソース割り当てシステム、および、リソース割り当て方法
US11195100B2 (en) * 2016-08-17 2021-12-07 International Business Machines Corporation Determining applications based on interactions of different electronic devices
JP6511023B2 (ja) * 2016-08-22 2019-05-08 日本電信電話株式会社 仮想マシン管理装置およびデプロイ可否判断方法
US10762086B2 (en) 2016-09-01 2020-09-01 Amazon Technologies, Inc. Tracking query execution status for selectively routing queries
JP6461224B2 (ja) * 2017-04-06 2019-01-30 華為技術有限公司Huawei Technologies Co.,Ltd. 中央処理装置のリソース割当方法及び計算ノード
US10333987B2 (en) 2017-05-18 2019-06-25 Bank Of America Corporation Security enhancement tool for a target computer system operating within a complex web of interconnected systems
JPWO2020066962A1 (ja) * 2018-09-25 2021-08-30 日本電気株式会社 設計管理装置、その制御方法、プログラム、及び、管理システム
US11442763B2 (en) * 2019-04-26 2022-09-13 Dell Products L.P. Virtual machine deployment system using configurable communication couplings
US20230071047A1 (en) * 2021-09-08 2023-03-09 Microstrategy Incorporated Systems and methods for virtual machine resource distribution

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8234650B1 (en) * 1999-08-23 2012-07-31 Oracle America, Inc. Approach for allocating resources to an apparatus
WO2003009144A1 (en) * 2001-07-19 2003-01-30 Wind River Systems, Inc. Memory management system
US7158972B2 (en) * 2001-12-11 2007-01-02 Sun Microsystems, Inc. Methods and apparatus for managing multiple user systems
US7962545B2 (en) * 2002-12-27 2011-06-14 Intel Corporation Dynamic service registry for virtual machines
US7350186B2 (en) 2003-03-10 2008-03-25 International Business Machines Corporation Methods and apparatus for managing computing deployment in presence of variable workload
US20050149940A1 (en) * 2003-12-31 2005-07-07 Sychron Inc. System Providing Methodology for Policy-Based Resource Allocation
JP2005309644A (ja) 2004-04-20 2005-11-04 Hitachi Ltd リソース制御方法及びそのシステム
WO2005116828A2 (en) * 2004-05-21 2005-12-08 Computer Associates Think, Inc. Method and apparatus for dynamic memory resource management
US20070271560A1 (en) * 2006-05-18 2007-11-22 Microsoft Corporation Deploying virtual machine to host based on workload characterizations
US8336046B2 (en) * 2006-12-29 2012-12-18 Intel Corporation Dynamic VM cloning on request from application based on mapping of virtual hardware configuration to the identified physical hardware resources
US8065676B1 (en) * 2007-04-24 2011-11-22 Hewlett-Packard Development Company, L.P. Automated provisioning of virtual machines for a virtual machine buffer pool and production pool
JP2009159087A (ja) * 2007-12-25 2009-07-16 Sharp Corp アクセス制御装置
JP2009265778A (ja) * 2008-04-22 2009-11-12 Dino Co Ltd 仮想化サーバ
US8422448B2 (en) * 2010-08-09 2013-04-16 Alcatel Lucent Group call control in a wireless broadband communication network

Also Published As

Publication number Publication date
US9201695B2 (en) 2015-12-01
US20130160014A1 (en) 2013-06-20
WO2012032679A1 (ja) 2012-03-15
JP2012058815A (ja) 2012-03-22

Similar Documents

Publication Publication Date Title
JP5417287B2 (ja) 計算機システム、及び、計算機システムの制御方法
US10719343B2 (en) Optimizing virtual machines placement in cloud computing environments
US9405563B2 (en) Resource management method and apparatus for virtual machine system, and virtual machine system
US8307369B2 (en) Power control method for virtual machine and virtual computer system
US9304803B2 (en) Cooperative application workload scheduling for a consolidated virtual environment
JP6219512B2 (ja) 仮想ハドゥープマネジャ
US9396026B2 (en) Allocating a task to a computer based on determined resources
JP5157717B2 (ja) 仮想バッテリを備えた仮想マシンシステムおよび仮想バッテリを備えた仮想マシンシステム用プログラム
US9588789B2 (en) Management apparatus and workload distribution management method
US20160239322A1 (en) Computer system and control method for computer system
US8332611B2 (en) Method and system for managing memory
JP5165960B2 (ja) データ処理システムにおけるリソース共有とアプリケーション待ち時間のバランシング方法
US20170017511A1 (en) Method for memory management in virtual machines, and corresponding system and computer program product
US20140245298A1 (en) Adaptive Task Scheduling of Hadoop in a Virtualized Environment
US20060136761A1 (en) System, method and program to automatically adjust allocation of computer resources
JP6069515B2 (ja) 計算機システムおよび計算機システムのメモリ割当調整方法
JP2011198332A (ja) 仮想マシン管理プログラム及び仮想マシン管理装置
JP2004302937A (ja) プログラム配置方法及びその実施システム並びにその処理プログラム
JP2010211644A (ja) メモリ消費電力削減システム、方法及びプログラム
US20200409806A1 (en) Virtual-machine-specific failover protection
CN114546587A (zh) 一种在线图像识别服务的扩缩容方法及相关装置
CN115102851B (zh) 一种面向hpc与ai融合计算的融合平台及其资源管理方法
KR102014246B1 (ko) 리소스 통합관리를 위한 메소스 처리 장치 및 방법
WO2013095083A1 (en) A method and system of extending computing grid resources
CN111143037A (zh) 一种虚拟机资源分配方法、设备、系统及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131118

R150 Certificate of patent or registration of utility model

Ref document number: 5417287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees