JP2011221581A - 計算機システムの管理方法、計算機システム管理端末および計算機管理システム - Google Patents

計算機システムの管理方法、計算機システム管理端末および計算機管理システム Download PDF

Info

Publication number
JP2011221581A
JP2011221581A JP2010086432A JP2010086432A JP2011221581A JP 2011221581 A JP2011221581 A JP 2011221581A JP 2010086432 A JP2010086432 A JP 2010086432A JP 2010086432 A JP2010086432 A JP 2010086432A JP 2011221581 A JP2011221581 A JP 2011221581A
Authority
JP
Japan
Prior art keywords
server
candidate
virtual
virtual server
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010086432A
Other languages
English (en)
Inventor
Tadamichi Sakata
匡通 坂田
Yukio Ogawa
祐紀雄 小川
Osamu Takada
治 高田
Minoru Koizumi
稔 小泉
Hiroshi Saito
洋 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010086432A priority Critical patent/JP2011221581A/ja
Publication of JP2011221581A publication Critical patent/JP2011221581A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】業務プログラム間の通信を考慮して、システム全体として通信量や消費電力を低減する技術を提供できるようにすること。
【解決手段】複数のサーバにより複数の仮想サーバが実行される計算機システムにおいて、仮想サーバ間の通信量を計測し、通信量と通信経路にあるネットワーク装置の利用コストとに応じて平均消費コストを算出し、上記仮想サーバを他のサーバに割り当てた場合の平均消費コストを算出し、平均消費コストが下がる他のサーバに上記仮想サーバを再割当する。
【選択図】図1

Description

本発明は、サブシステム間の通信量に応じシステムを効率的に管理する技術に関する。
複数のサーバがネットワークにより接続され、1つ以上の業務が稼動する計算機システムでは、仮想化技術により、複数の異なる業務プログラムやデータを、複数の物理的なサーバに効率的に配備して、サーバの利用効率を高めることが可能となっている。
特許文献1では、計算機システムが消費する電力を低減することを目的とし、計算機システムを構成する各サーバの電力特性などを計測し、所定の条件で業務プログラムをサーバ間で移動することで計算機システムが消費する電力量の低減を実現している。
また、特許文献2では、業務プログラムやデータを、エンドユーザからネットワーク経路において近い計算機システムにコピーすることで、エンドユーザからのレスポンスの向上と通信量の低減を実現している。
特開2007−310791号公報 特開2009−157768号公報
特許文献1に記載の技術では、サーバ上の業務プログラムを、より少数のサーバに移動し、それにより利用しなくなったサーバの電源をオフにすることで消費電力量の総和を低減している。しかし、サーバの消費電力量だけを基に業務プログラムを移動しているため、関連する業務プログラムがネットワーク経路において離れたサーバに移動されてしまうことがあり、複数の業務プログラム間で大量の通信が発生するような業務システムの場合、通信にかかる消費電力量が低減されず、計算機システム全体の消費電力量が増加してしまうことがある。
特許文献2に記載の技術では、複数の業務プログラム間での通信には着目しておらず、複数の業務プログラムが協働して1つの業務を提供する業務システムとして稼動しているような場合には、業務プログラム間の通信が増加してしまい、システム全体として効率化がされないことがある。
本発明は、このような背景を鑑みてなされたものであり、業務プログラム間の通信を考慮して、システム全体として通信量や消費電力を低減する技術を提供することを目的とする。
上述の目的を達成するための本発明のうち主たる発明は、ネットワーク装置を介して接続される複数のサーバにより複数の仮想サーバが実行される計算機システムにおいて、前記仮想サーバの前記サーバへの割当を行う管理装置であって、前記仮想サーバが割り当てられている前記サーバを記憶する割当情報と、前記サーバが提供可能なリソース量を特定するサーバリソース空き情報と、前記仮想サーバの実行に必要なリソース量と、前記サーバ間での通信時に経由する前記ネットワーク装置を特定する構成情報と、前記ネットワーク装置毎に単位通信量あたりの利用コストを特定するコスト情報と、前記仮想サーバ間の平均通信量ならびに前記利用コストおよび前記平均通信量に応じて算出される平均消費コストを特定するネットワーク利用情報と、を記憶する記憶部と、前記仮想サーバの前記サーバへの割当を行うインフラ制御管理部と、を備え、前記インフラ制御管理部は、再割当を行う前記仮想サーバである候補仮想サーバを選択し、選択した前記仮想サーバに対応する前記ネットワーク利用情報の前記平均消費コストを集計して前記平均消費コストの現在値を算出し、再割当を行う前記仮想サーバである候補仮想サーバを選択し、前記候補仮想サーバの実行に必要な前記リソース量を前記記憶部から取得し、取得した前記必要なリソース量を提供可能な前記サーバである候補サーバを前記サーバリソース空き情報から特定し、特定した前記候補サーバのそれぞれについて、前記候補仮想サーバとは異なる他の前記仮想サーバが割り当てられている前記サーバを前記割当情報から特定し、特定した前記サーバと前記候補サーバとの間の通信において経由する前記ネットワーク装置を前記構成情報から特定し、特定した前記ネットワーク装置に対応する前記コスト情報により特定される前記利用コストと、前記ネットワーク利用情報から特定される前記候補仮想サーバおよび前記他の仮想サーバの間の前記平均通信量とに応じて、前記候補サーバに前記候補仮想サーバを再割当した場合の前記平均消費コストを算出し、前記候補サーバ毎に前記平均消費コストを集計して前記平均消費コストの予測値を算出し、前記現在値よりも小さい前記予測値に対応する前記候補サーバに前記候補仮想サーバを再割当することとする。
計算機管理システムの概略図。 各種装置の具体的な配置構成の一例を示す図。 コンピュータの概略図。 サーバソフトウェア機能モジュールの概略図。 管理用サーバソフトウェア機能モジュール概略図。 契約テーブルの概略図。 サーバリソーステーブルの概略図。 リソース割当テーブルの概略図。 サーバリソース空き情報テーブルの概略図。 構成情報テーブルの概略図。 ネットワーク利用情報テーブルの概略図。 管理用端末および管理用サーバでの処理を示すフローチャート。 消費コスト一覧を表示する画面の一例。 最適化案リストの一例。 平均消費コストを計算する処理を示すフローチャート。 最適化案リストを表示する画面の一例。 計算機管理システムの概略図。 構成情報テーブルの概略図。 管理用サーバソフトウェア機能モジュール概略図。 計算機管理システムの概略図。 保守ポリシ設定画面の一例。 保守ポリシテーブルの概略図。 管理用端末および管理用サーバでの処理を示すフローチャート。
図1は、本発明の第一の実施形態である計算機管理システムの概略図である。データセンタ1−1、・・・、1−p(pは各々のデータセンタを識別するためのインデックスであって、2以上の自然数であるものとする。また、各々のデータセンタを特に区別しない場合には、データセンタ1という。図1の例では単一のデータセンタ1のみが示されている。)には、管理用サーバ200と、管理用端末300と、ラック10−1,・・・,10−l(lは各々のラックを識別するためのインデックスであって、2以上の自然数であるものとする。各々のラックを特に区別しない場合にはラック10という。)に設置されたサーバ100−1,・・・,100−m(mは2以上の自然数であるものとする。また、各々を特に区別しない場合にはサーバ100という。)と、ラック10内に設置されたラック設置スイッチ20−1,・・・,20−n(nは各々のラック設置スイッチを識別するためのインデックスであって、2以上の自然数であるものとする。各々のラック設置スイッチを特に区別しない場合にはラック設置スイッチ20という。)と、複数のラック設置スイッチを集約するセグメント用スイッチ30−1,・・・,30−i(iは各々のセグメント用スイッチを識別するためのインデックスであって、2以上の自然数であるものとする。各々のセグメント用スイッチを特に区別しない場合には、セグメント用スイッチ30という。)と、複数セグメント用スイッチを集約するとともに広域網3に接続するコア用スイッチ(ルータを含む。)40−1,・・・,40−j(jは各々のコア用スイッチを識別するためのインデックスであって、2以上の自然数であるものとする。各々のコア用スイッチを特に区別しない場合には、コア用スイッチ40という。)と、管理用スイッチ50と、が設置されている。本実施形態の計算機管理システムにおいて、管理用サーバ200では業務プログラムが実行されないものとし、管理用サーバ200は、効率化の対象外となる。また、業務とは、ある入力に対して処理を行い、出力を返すプログラムの総称を言うものとする。計算機管理システムにおいて実行されるオペレーティングシステムなどにプログラム自身は業務に含まれないこととする。
管理用サーバ200、管理用端末300、ラック10、ラック設置スイッチ20、セグメント用スイッチ30、コア用スイッチ40、管理用スイッチ50は、LAN(Local Area Network)を介して相互に情報を送受信することができるようにされており、さらに、コア用スイッチ40を介して、広域網3に接続することができるようにされている。ただし、管理用サーバ200、管理用端末300はVPN(Virtual Private Network)などにより秘匿された通信環境により安全を確保した上で、データセンタ1の外部に配置されても良い。
ユーザ端末2−1,・・・,2−k(kは2以上の自然数であるものとする。各々を特に区別しない場合にはユーザ端末2という。)は、各々の拠点に配置されており、広域網3に接続することができるようにされている。
図2は、上記図1に示す計算機管理システムにおいて、各種装置および仮想サーバ110、ソフトウェアスイッチ130を配備した具体例を示す図である。以下の説明においては、本実施形態の計算機管理システムの構成は図2に表示されているようになっているものとする。
図3は、コンピュータ900の概略図を示す図である。サーバ100、管理用サーバ200、管理用端末300、ラック設置スイッチ20、セグメント用スイッチ30、コア接続用スイッチ40、ユーザ端末3はそれぞれ、図3に示すコンピュータ900により実現される。コンピュータ900は、CPU(Central Processing Unit)901と、メモリ902と、HDD(Hard Disk Drive)等の外部記憶装置903と、CD(Compact Disk)やDVD(Digital Versatile Disk)等の可搬性を有する記憶媒体904に対して情報を読み書きする読書装置905と、キーボードやマウスなどの入力装置906と、ディスプレイなどの出力装置907と、通信ネットワークに接続するためのNIC(Network Interface Card)等の通信装置908とを備えている。読書装置905が、記憶媒体904に記憶されている各種のプログラムをメモリ902や外部記憶装置903に読み出し、読み出されたプログラムをCPU901が実行することにより後述する各種の機能が実現される。なお、通信装置908を介してネットワークから、プログラムを外部記憶装置903やメモリ902にダウンロードするようにしてもよい。
図4はサーバ100上のソフトウェア機能モジュールの概略図である。図示するように、サーバ100は、仮想サーバ110−1,・・・,110−o(oは各々の仮想サーバを識別するためのインデックスであって、2以上の自然数であるものとする。各々のラックを特に区別しない場合には、仮想サーバ110という。)と、仮想サーバ実行部120と、ソフトウェアスイッチ130と、計測部140と、を備える。本実施形態では、サーバ100において記憶媒体904から読み出されるプログラムには、システムプログラム91、仮想サーバプログラム92、スイッチプログラム93、業務プログラム94があるものとする。
仮想サーバ実行部120は、仮想サーバプログラム92を起動することにより複数の仮想サーバ110を実行し、サーバ100上のCPU901、メモリ902、記憶装置903などの物理リソースを効率的に使用するための実行部である。仮想サーバ実行部120は、CPU901がシステムプログラム91を実行することにより実現される。システムプログラム91や仮想サーバプログラム92は、例えば既に知られているMicrosoft社のHyperVisor製品などで実現されている。
仮想サーバ110は業務プログラム94を実行することにより各種の業務を行うための実行部である。
ソフトウェアスイッチ130は仮想サーバ110に対してサーバ100上でスイッチ機能を提供する。ソフトウェアスイッチ130はCPU901がスイッチプログラム93を実行することにより実現される。ソフトウェアスイッチ130は、論理的に仮想サーバ実行部120上で実行される仮想サーバ110に接続され、さらにサーバ100を構成する通信インタフェース904を介してラック設置スイッチ20に接続される。ソフトウェアスイッチ130は基本的なスイッチ装置の機能をサーバ100上で実現する実行部であり、既に知られている方法により実現可能である。
計測部140は、ソフトウェアスイッチ130またはサーバ100上で実行されるオペレーティングシステム(不図示)によるネットワークI/Oが処理するパケット(例えばイーサネット(登録商標)のフレーム)のヘッダ部および/またはパケットに含まれるIPパケットを解析し、その宛先と送信元および通信量を計測する。さらに計測部132は、他のサーバ100または当該他のサーバ100上に配備された仮想サーバ110との間の通信において、どのスイッチやルータを経由して至ったのかを示す通信経路情報を取得する。通信経路情報は、既に知られているPingやEthernetOAM等の方法により計測することができる。
図5は管理用サーバ200のソフトウェア機能モジュール概略図である。図示するように、管理用サーバ200は、インフラ制御管理部210と、記憶部230と、を備える。なお、管理用サーバ200において、図3に示すサーバ100と同様のハードウェア構成を備えているものとし、記憶媒体904には、インフラ制御プログラム21が記録されているものとする。
記憶部230は、契約テーブル231と、サーバリソーステーブル232と、リソース割当テーブル233と、サーバリソース空き情報テーブル234と、構成情報テーブル235と、ネットワーク利用情報テーブル236と、を備える。記憶部230は、例えば、メモリ902や記憶装置903が提供する記憶領域として実現される。
契約テーブル231には、データセンタ1を運営するデータセンタ事業者(以下、DC事業者と呼ぶ。)から、一つまたは複数の仮想サーバ110を借り受け、当該仮想サーバ110上に業務システムを構築し、業務システムを運用する業務管理者に関する情報およびその契約を一意に識別するための契約IDが記憶される。例えば、本実施形態においては、図6(契約テーブル231aの概略図)に示すような契約テーブル231aが記憶される。
契約テーブル231aは、契約ID欄231bと、電話番号231cと、メールアドレス231dと、を有する。
契約ID欄231bには、契約を一意に識別するための識別情報である契約IDが格納される。
電話番号欄231cには、管理者に連絡するための電話番号情報が格納される。
メールアドレス欄231dには、管理者に連絡するためのメールアドレス情報が格納される。
サーバリソーステーブル232には、データセンタ1が保持し管理しているサーバ100の性能情報が格納される。例えば、本実施形態においては、図7(サーバリソーステーブル232aの概略図)に示すようなサーバリソーステーブル232aが記憶される。
サーバリソーステーブル232aは、物理サーバID欄232bと、CPU速度欄232cと、CPUコア数欄232dと、メモリ欄232eと、HDD欄232fと、ネットワークI/O欄232gと、積載ラック欄ID232hと、仮想スイッチID欄232iと、を有する。
物理サーバID欄232bには、サーバ100を一意に識別するためのIDが格納される。
CPU速度欄232cには、当該サーバ100の装備するCPUのクロックスピード情報が格納される。
CPUコア数欄232dには、当該サーバ100の装備するCPUのコア数が格納される。
メモリ欄232eには、当該サーバ100の装備するメモリの容量情報が格納される。
HDD欄232fには、当該サーバ100の装備する外部記憶装置の容量情報が格納される。
ネットワークI/O欄232gには、当該サーバ100の装備するネットワークI/Oの速度情報が格納される。
積載ラックID欄232hは、当該サーバ100が積載されているラックを一意に識別するための情報が格納される。
仮想スイッチID欄232iは、当該サーバ100において仮想サーバ110が、他の仮想サーバやユーザ端末2、管理用端末300などとの間で通信をするために最初にアクセスするスイッチを一意に識別するための識別情報が格納される。本実施例では、サーバ100毎に少なくとも1つの仮想スイッチ130が提供され、仮想サーバ110は最初に仮想スイッチ130を通過して通信を行うものとする。なお、本実施形態では、各サーバ100には1つの仮想スイッチ130のみが提供されるものとするが、複数の仮想スイッチ130が提供されるようにしてもよい、その場合、仮想スイッチID欄232iには、提供されている複数の仮想スイッチ130の識別情報をコロン記号「:」によりつなげて格納するようにすることができる。
図5に戻り、リソース割当テーブル233には、DC事業者が管理しているサーバリソースを仮想サーバ110として、業務システムを運営する業務システム事業者に対して貸し出した際の、貸し出し状況を管理するための情報が記憶される。例えば、本実施形態においては、図8(リソース割当テーブル233aの概略図)に示すようなリソース割当テーブル233aが記憶される。
リソース割当テーブル233aは、仮想サーバID欄233bと、契約ID233cと、収容物理サーバID欄233dと、CPUコア数欄233eと、メモリ欄233fと、HDD欄233gと、ネットワークI/O欄233hと、収容スイッチID欄233iと、を有する。
仮想サーバID欄233bには、業務システム事業者に対して貸し出した仮想サーバ110を一意に識別するための識別情報である仮想サーバIDが格納される。
契約ID欄233cには、業務システム事業者への仮想サーバの貸し出し契約を一意に識別するための識別情報である契約IDが格納される。
収容物理サーバID欄233dには、業務システム事業者に対して貸し出した仮想サーバ110を配備したサーバ100を一意に識別するための識別情報が格納される。
CPUコア数欄233eには、当該サーバ100の装備するCPUのコアのうち、当該仮想サーバ110に対して割当てたコアの数の情報が格納される。
メモリ欄232fには、当該サーバ100の装備するメモリのうち、当該仮想サーバ110に対して割当てたメモリの容量情報が格納される。
HDD欄233gには、当該サーバ100の装備する外部記憶装置のうち、当該仮想サーバ110に対して割当てた外部記憶装置の容量情報が格納される。
ネットワークI/O欄233hには、当該サーバ100の装備するネットワークI/Oのうち、当該仮想サーバ110に対して割当てたネットワークI/Oの速度情報が格納される。
収納スイッチID欄233iは、当該仮想サーバ110に対して論理ネットワーク上の収容関係となるよう割当てたスイッチを一意に識別するための識別情報が格納される。本実施例では、仮想サーバ110が配備されているサーバ100において提供されている仮想スイッチ130の識別情報が格納される。なお、仮想スイッチ130を用いない場合には、サーバ100と直接接続関係にあるラック設置スイッチ20が仮想サーバ110に対して論理ネットワーク上の収容関係となるため、ラック設置スイッチ20を一意に識別するための識別情報が格納されるようにすることもできる。
図5に戻り、サーバリソース空き情報テーブル234には、各サーバ100の空きリソース情報が格納される。例えば、本実施形態においては、図9(サーバリソース空き情報テーブル234aの概略図)に示すようなサーバリソース空き情報テーブル234aが記憶される。
サーバリソース空き情報テーブル234aは、物理サーバID欄234bと、CPUコア数欄234cと、メモリ欄234dと、HDD欄234eと、を有する。
物理サーバID欄234bには、サーバ100を一意に識別するための識別情報が格納される。
CPUコア数欄234cには、当該サーバの持つCPUコア数のうち、現時点において仮想サーバ110に割り当て可能なCPUコア数の情報が格納される。
メモリ欄234dには、当該サーバの持つメモリのうち、現時点において仮想サーバ110に割り当て可能なメモリ容量の情報が格納される。
HDD欄234eには、当該サーバの持つ外部記憶装置のうち、現時点において仮想サーバ110に割り当て可能な記憶容量の情報が格納される。
図5に戻り、構成情報テーブル235には、データセンタ1に設置された各種スイッチの接続関係およびそのスイッチの利用コスト情報が格納される。例えば、本実施形態においては、図10(構成情報テーブル235aの概略図)に示すような構成情報テーブル235aが記憶される。
構成情報テーブル235aは、スイッチID欄235bと、接続上位スイッチID欄235cと、接続同位スイッチID欄235dと、利用コスト欄235eと、を有する。
スイッチID欄235bには、データセンタ1に設置された全てのスイッチ(物理的なスイッチおよび仮想的なスイッチの両方を含む。)を一意に識別するための識別情報が格納される。本実施形態において、前記全てのスイッチとは、図1に記載のラック設置スイッチ20と、セグメント用スイッチ30と、コア接続用スイッチ40と、図4に記載のソフトウェアスイッチ(図2に示す仮想スイッチ130)と、をさす。また、本実施形態において、既に知られている方法により、各種スイッチはツリー状に階層的に接続されると同時に、セグメント用スイッチ30およびコア接続用スイッチ40では必要に応じて同位のスイッチ間でも接続されることにより、全てのサーバ100間での通信を効率的に実現しているものとする。
接続上位スイッチID欄235cには、前記スイッチID欄235bに記載のIDで識別されるスイッチが、前記ツリー状に接続された上位の階層のスイッチを一意に識別する識別情報が格納される。ここで、一般的にスイッチやスイッチ間を結ぶケーブルの障害時に通信を継続するために、複数の上位階層のスイッチとの間で接続関係を確保し、冗長構成を組むことがある。そこで、一つの接続上位スイッチID欄235cには複数の上位の階層のスイッチを識別するために、複数の識別情報を格納できるものとする。その際、複数の識別情報はコロン記号(「:」)によりつなげて格納されるものとし、その中で先頭に記載された識別情報により特定されるスイッチがマスタスイッチとして通常時に使用されるものとする。
接続同位スイッチID欄235dには、前記スイッチID欄235bに記載のIDで識別されるスイッチが、同位の階層のスイッチと接続されている場合に、接続されているスイッチを識別するための識別情報が格納される。ここで、格納される同位のスイッチを識別するための識別情報は複数であってもよく、複数の識別情報はコロン記号(「:」)によりつなげて格納されるものとする。
利用コスト欄235eには、前記スイッチID欄235bに記載のIDで識別されるスイッチを用いてデータ転送を行う際にかかる単位通信量(例えばギガバイト)あたりの平均コストが格納される。ここで、一般的に各階層に使用されるスイッチは求められる性能や信頼性、機能などに応じて価格が異なる。また、一般的に上位の階層のスイッチは高い性能や信頼性が求められるため、価格が高価であることが多い。また、スイッチを用いてデータ転送を行う場合には必ず電力消費が必要である。そこで、本実施形態において平均コストとは、データ転送にかかる消費電力や、スイッチ装置自体の価格をポート数で割った値などの指標に基づき、DC事業者が事前に定めた値であるものとする。なお、平均コストは、上述した消費電力やスイッチ装置の価格以外にも、通信スピードや使用年数など、各種の指標に基づいて決定することもできる。また、DC事業者が運営費用などを考慮して平均コストを恣意的に設定するようにしてもよい。
図5に戻り、ネットワーク利用情報テーブル236には、前記業務システム事業者に対して貸し出した複数の仮想サーバ110間の通信量およびその消費したコスト情報が格納される。例えば、本実施形態においては、図11(ネットワーク利用情報テーブル236aの概略図)に示すようなネットワーク利用情報テーブル236aが記憶される。なお、ネットワーク利用情報テーブル236は、業務システム事業者毎に生成されるものとする。つまり、契約ID毎に、リソース割当テーブル233aから仮想サーバIDを抽出し、抽出した仮想サーバIDに含まれる2つの仮想サーバIDの組合せの全てについて、ネットワーク利用情報テーブル236が作成される。
ネットワーク利用情報テーブル236aは、リンクID欄236bと、仮想サーバID欄236cと、関連仮想サーバID欄236dと、平均通信量欄236eと、リンクコスト欄236fと、平均消費コスト欄236gと、を有する。
リンクID欄236bには、2つの仮想サーバ110間の通信路を一意に識別するための識別情報が格納される。本実施形態では、スイッチが複数のスイッチに接続されることがあり、この場合仮想サーバ110のペア間を接続する通信路も複数存在することになるが、仮想サーバ110ペア毎に通信経路は一意に決まるものとする。つまり、本実施形態では、各スイッチは、宛先および送信元の仮想サーバ110に対応付けて、パケットを転送する先となるスイッチを設定可能であるものとする。
仮想サーバID欄236cには、前記リンクID欄236bで識別される通信路における2つの仮想サーバ110のうちの一方を識別するための識別情報が格納され、関連仮想サーバID欄236dには、もう一方を識別するための識別情報が格納される。
平均通信量236eは、前記リンクID欄236bで識別される通信路における2つの仮想サーバ110間の平均通信量が格納される。本実施形態では、1日(24時間)あたりの通信量が平均通信量として格納されるものとする。平均通信量は、前記サーバ100内の計測部140が計測した情報により算出するものとする。
リンクコスト欄236fには、前記リンクID欄236bで識別される通信路において、単位通信量あたりにかかるコスト(以下、「リンクコスト」という。)が格納される。本実施形態では、リンクコストは、仮想サーバ110間の通信を行うための経路上にあるスイッチの利用コスト235eの総和である。なお、仮想サーバ110間の経路は、前記サーバ100内の計測部140において計測されるものとする。
平均消費コスト欄236gには、通信量に応じたリンクコスト(以下、「平均消費コスト」という。)が格納される。平均消費コストは、前記平均通信量欄236eに格納される通信量と、前記リンクコスト欄236fに格納されるリンクコストとの積により算出したものである。
図5に戻り、インフラ制御管理部210は、DC事業者のシステム管理者が、データセンタ1内のスイッチおよびサーバ100を効率的に管理するための実行部である。インフラ制御管理部210は、読書装置905が記憶媒体904からインフラ制御プログラム21をメモリ902や外部記憶装置903に読み出し、読み出したインフラ制御プログラム21をCPU901が実行することにより実現される。インフラ制御管理部210は、統合リソース管理部211と、サーバ管理部212と、ネットワーク管理部213とを備えている。
統合リソース管理部211は、業務システム管理者からの仮想サーバ110貸し出し要求に応じて、サーバおよびネットワークのリソースの中から最適な空きリソースを抽出し、割当てや設定を行う。また、DC事業者のシステム管理者の要求に応じて、リソース利用状況のレポートおよび最適化の実行を行う。
サーバ管理部212は、前記記憶部230内のサーバリソーステーブル232の管理、および、仮想サーバ実行部120に対して仮想サーバ110の生成や削除といった管理命令を実行する。
ネットワーク管理部213は、前記記憶部230内の構成情報テーブル235およびネットワーク利用情報テーブルの管理、および、各種スイッチへの設定、および、前記サーバ100内の計測部140に対して計測要求を行う。
なお、上述したサーバ100、200、スイッチ20、30、40、50、端末3、300の機能の各々は、1つの装置上に構築せずに、複数の装置に各処理部を分散させて実現してもよい。また、該機能の各々は、複数の企業が提供してもよい。
図12は、DC事業者のシステム管理者(以降、インフラ管理者と呼ぶ)が、管理者用サーバを用いてデータセンタ1の各種サーバ、スイッチの最適化を実施する処理を示すフローチャートである。
まず、インフラ管理者が管理者端末200を操作して、管理者用サーバ200に対して契約IDを指定して消費コストを要求すると(S11)、管理者用サーバ200は、指定された契約IDに対応する仮想サーバIDのリストをリソース割当テーブル233から検索し、仮想サーバID欄236cに設定されている仮想サーバIDと関連仮想サーバID欄236dに設定されている仮想サーバIDとの両方が上記リソース割当テーブル233から検索した仮想サーバIDのリストに含まれているレコードをネットワーク利用情報テーブル236から検索し、仮想サーバ110毎に、仮想サーバIDが仮想サーバID欄236cまたは関連仮想サーバID236dに格納されているレコードの平均消費コストを合計し、ネットワーク利用情報テーブル236と、仮想サーバ毎の平均消費コストの合計とに基づいて消費コスト一覧画面1000を生成し、管理用端末の画面に表示する(S12)。なお、ネットワーク利用情報テーブル236に記載の各種情報は、業務システム事業者に対して仮想サーバ110を貸し出したと同時に、計測部140により計測され、定期的(例えば1時間毎)にネットワーク管理部213により集計および更新されているものとする。
前記ステップS12にて管理用端末に表示された消費コスト一覧画面1000の一例を図13に示す。消費コスト一覧画面1000は、契約選択欄1001、契約選択実行ボタン1002、検索結果欄1003、契約ID欄1004、総消費コスト欄1005、仮想サーバ毎消費状況テーブル欄1006、最適化案作成実行ボタン1007から構成される。
契約選択欄1001は、消費コストを表示する契約を選択するための選択欄であり、契約選択実行ボタン1002を押下すると検索結果欄1003に検索結果が表示される。
契約ID欄1004は、表示している検索結果の契約IDが表示される。
総消費コスト欄1005は、契約により業務システム事業者に貸し出した全ての仮想サーバ110の消費コストをネットワーク利用情報テーブル236aの平均消費コスト欄236gの総和を計算した結果が表示される。
仮想サーバ毎消費状況テーブル欄1006は、前記ネットワーク利用情報テーブル236aのリンクコスト欄236fおよび平均消費コスト欄236gが表示される。
最適化案作成実行ボタン1007はインフラ管理者が、本消費コスト一覧画面1000を見て、当該検索した業務システム事業者に貸し出した仮想サーバ110の最適化が必要と判断した際に押下される。
図12に戻り、インフラ管理者は表示された消費コスト一覧画面1000を見て、最適化が必要と判断した場合、最適化案作成実行ボタン1007を押下し、管理者端末300は、最適化案作成要求を管理用サーバ200に送信する(S13)。最適化案作成要求を受信した管理用サーバ200は、最適化案リスト1400を生成する。図14は、最適化案リスト1400の構成例を示す図である。最適化案リスト1400には、最適化案1401が含まれ、最適化案1400には、後述する最適化に際して配備先の変更された仮想サーバ110と物理サーバの変更とを含む構成変更履歴1402と、その変更を行った時点における、ネットワーク利用情報テーブル236a、サーバリソース空き情報テーブル234a、リソース割当テーブル233aが含まれる。管理用サーバ200は、現状のネットワーク利用情報テーブル236a、サーバリソース空き情報テーブル234aおよびリソース割当テーブル233aと、空の構成変更履歴1402とを含む最適化案1401を最適化案リスト1400に追加する(S14)。
管理用サーバ200は、ネットワーク利用情報テーブル236aから仮想サーバID欄236cまたは関連仮想サーバID欄236dに設定されている仮想サーバID毎に、平均消費コスト欄236gに設定されている平均消費コストを合計しておく。管理用サーバ200は、合計値の高い順に次の仮想サーバ110を一つ選択し(S15)、最適化案リスト1400に含まれている最適化案1401を順に選択する(S16)。
管理用サーバ200は、選択された最適化案1401に含まれるサーバリソース空き情報テーブル234aを参照し、当該選択された仮想サーバ110に必要なリソースを可能な一つまたは複数のサーバ100のリストを検索する(S17)。管理用サーバ200は、例えば、リソース割当テーブル233から、上記選択された仮想サーバ110の仮想サーバIDに対応するCPUコア数欄233e、メモリ欄233fおよびHDD欄233gに設定されている、仮想サーバ110に必要なコアの数、メモリの容量および外部記憶装置の容量を取得し、上記選択した最適化案1401に含まれているサーバリソース空き情報テーブル234のCPUコア数欄234c、メモリ欄234d、HDD欄234eに設定されているコアの数、メモリの容量および外部記憶装置の容量のそれぞれが、上記必要なコアの数、メモリの容量および外部記憶装置の容量のそれぞれ以上である物理サーバIDが示すサーバ100を検索することができる。
管理用サーバ200は、検索した一つまたは複数のサーバ100について、仮想サーバ110を移動した場合の、仮想サーバ110についての平均消費コストの合計値を計算し、最も平均消費コストが低いサーバ100を選択する(S18)。図15は、サーバ100に仮想サーバ110を割り当てた場合の平均消費コストを計算する処理の一例を示す図である。管理用サーバ200は、上記検索した一つまたは複数のサーバ100のそれぞれについて図15に示す処理により平均消費コストの合計値を算出する。管理用サーバは、他の物理サーバに配備された際の仮想サーバ110から最上位のスイッチ(図1、2の例ではコア接続用スイッチ40である。)までに通過するスイッチのリスト(スイッチリスト)を空に初期化し(S1501)、サーバリソーステーブル232から上記選択した物理サーバに対応する仮想スイッチIDを取得してIDとする(S1501)。管理用サーバ200は、IDをスイッチリストの最後尾に追加し(S1503)、構成情報テーブル235からIDがスイッチID欄235bに設定されている接続上位スイッチID欄235cに含まれるマスタスイッチのスイッチIDを読み出してIDとして(S1504)、ステップS1503からの処理を繰り返す。
マスタスイッチのスイッチIDが構成情報テーブル235から読み出せなかった場合(S1505:N)、管理用サーバ200は、ネットワーク利用情報テーブル236から仮想サーバ110を示す仮想サーバIDに対応する、仮想サーバID欄236c又は関連仮想サーバID欄236dに設定されている次の仮想サーバIDが示す仮想サーバ110(以下、「相手サーバ」という。)を選択する(S1506)。
次の相手サーバが存在する場合(S1507:Y)、管理用サーバ200は、リンクコストに0を設定し(S1508)、最適化案1401に含まれているリソース割当テーブル233aから相手サーバIDに対応する収容スイッチID欄233aに設定されているスイッチIDを読み出してID2とする(S1509)。
ID2がスイッチリストに含まれていなければ(S1510:N)、管理用サーバ200は、構成情報テーブル235からID2に対応する利用コストを取得し(S1511)、取得した利用コストをリンクコストに加算し(S1512)、構成情報テーブル235からID2がスイッチID欄235bに設定されている接続上位スイッチID欄235cに含まれるマスタスイッチのスイッチIDを読み出してID2として(S1513)、ステップS1510からの処理を繰り返す。
ID2がスイッチリストに含まれている場合(S1510:Y)、管理用サーバ200は、スイッチリストの先頭から順に次のIDを取り出し(S1514)、取り出したIDに対応する利用コストを構成情報テーブル235から読み出し(S1515)、読み出した利用コストをリンクコストに加算する(S1516)。管理用サーバ200は、IDがID2に一致しなければ(S1517)、ステップS1514からの処理を繰り返す。
IDがID2に一致すれば(S1517:Y)、管理用サーバ200は、上記選択した仮想サーバ110を示す仮想サーバIDと相手サーバIDとに対応する平均通信量を最適化案1410に含まれるネットワーク利用情報テーブル236aから取得し、取得した平均通信量を、上記算出したリンクコストに乗じて平均消費コストを算出し(1518)、ステップS1506からの処理を繰り返す。
以上のようにして、管理用サーバ200は、選択した物理サーバに仮想サーバ110を再配備した場合における仮想サーバ110の平均消費コストを算出することができる。
そして、ステップS16にて選択された最適化案(以下、「旧最適化案」という。)に含まれるネットワーク利用情報テーブル236aにおける仮想サーバ110に対応する平均消費コストの合計値よりも、上記図15の処理により算出された平均消費コストの合計値の方が小さい場合(S19:Y)、管理用サーバ200は、旧最適化案1401に含まれているリソース割当テーブル233aから仮想サーバ110に対応する物理サーバID(以下、「元物理サーバID」という。)を取得し、仮想サーバ110を示す仮想サーバIDと、元物理サーバIDおよび前記ステップS18にて選択されたサーバ100を示す物理サーバID(以下、「新物理サーバID」という。)と、を含む構成変更履歴1402と、旧最適化案1401に含まれるネットワーク利用情報テーブル236a、サーバリソース空き情報テーブル234aおよびリソース割当テーブル233aを含む新しい最適化案1401(以下、「新最適化案」という。)を生成する。管理用サーバ200は、旧最適化案1401に含まれるリソース割当テーブル233aから仮想サーバ110を示すサーバIDに対応するCPUコア数、メモリの容量、外部記憶装置の容量を取得し、取得したCPUコア数、メモリの容量、外部記憶装置の容量を、新最適化案1401に含まれるサーバリソース空き情報テーブル234aの元物理サーバIDに対応するCPUコア数、メモリの容量および外部記憶装置の容量にそれぞれ加算し、新最適化案1401に含まれるサーバリソース空き情報テーブル234aの新物理サーバIDに対応するCPUコア数、メモリの容量および外部記憶装置の容量からそれぞれ減算し、新最適化案1401に含まれるリソース割当テーブル233aの仮想サーバIDに対応する収容物理サーバID欄233dに新物理サーバIDを設定し、収容スイッチID欄233iには、新物理サーバIDに対応するスイッチIDをサーバリソーステーブル232から取得して設定する。管理用サーバ200は、新最適化案1401を最適化案リスト1400に追加する(S20)。なお、ステップS16にて選択された旧最適化案よりも平均消費コストが小さくならない場合(S19:N)は、何もしない。
次に、管理サーバ200は、最適化案リスト1400に含まれる全ての最適化案1401を選択したか否かを判定し、選択完了していない場合(S21:N)、前記ステップS16に戻り、次の最適化案1401を選択して以降のステップを実施する。全ての最適化案1401を選択完了している場合(S21:Y)は、管理サーバ200は、さらに全ての仮想サーバ110を選択完了したか否かを判断し、選択完了していない場合(S22:N)は、前記ステップS15に戻り、次の仮想サーバ110を選択して以降のステップを実施する。全ての仮想サーバ110を選択完了している場合(S22:Y)は、管理サーバ200は、最適化案リスト1400から前記ステップS14にて作成した、最初に追加された最適化案1401を除いた最適化案のリストを、管理用端末300の画面に表示する(S23)。
図16に、作成された最適化案リストを表示した最適化案リスト画面1101の一例を示す。最適化案リスト画面1101は、最適化案番号欄1102、契約ID欄1103、総消費コスト欄1104、構成変更詳細欄1105、変更後消費コスト詳細欄1106、最適化実行ボタン1107から構成される。ただし、最適化案がない場合は「最適化案なし」と表示されるものとする。
最適化案番号欄1102は、生成した最適化案を識別するための識別情報である。
契約ID欄1103は、表示している最適化案の対象である契約IDが表示される。
総消費コスト欄1104は、前記変更前の平均消費コストの合計値である総消費コストおよび最適化案に係る平均消費コストの合計値である想定総消費コストが表示される。
構成変更詳細欄1105は、仮想サーバ110の移行に関する情報として、最適化案に含まれる構成変更履歴1402に基づいて、当該仮想サーバ110のサーバID、配備するサーバ100の変更および/または収容スイッチの変更内容が表示される。収容スイッチの変更内容は、例えば、構成変更履歴1402の物理サーバ変更欄に設定されている物理サーバIDに対応する仮想スイッチIDをサーバリソーステーブル232から読み出すことにより表示することができる。
変更後消費コスト詳細欄1106は、前記変更前の仮想サーバ毎消費状況1006の情報および最適化案について算出された仮想サーバ110毎の平均消費コストである仮想サーバ毎消費コストが表示される。
図12に戻り、インフラ管理者は表示された最適化案リスト画面1101を見て、最適化案の中から最も良い案(通常は総消費コスト1104が最も低減している案)を選択し、最適化実行ボタン1107を押下し、管理用サーバ200に対して最適化を要求する(S24)。最適化要求を受信した管理用サーバ200の統合リソース管理部211では、サーバ管理部212に対して仮想サーバ110の移行を命令し、さらにネットワーク管理部に対してスイッチの設定変更を命令し、移行および設定変更が完了後、リソース割当テーブル233a、サーバリソース空き情報テーブル234a、構成情報テーブル235a、ネットワーク利用情報テーブル236aを必要に応じて更新する(S25)。
さらに、管理用サーバ200は管理用端末の画面および/またはメールなどの通信手段を用いてインフラ管理者に実行結果を通知する(S26)。
以上に示したように、本実施形態の計算機管理システムによれば、2つの仮想サーバ110間での通信量に応じたスイッチの利用コスト(平均消費コスト)を下げるように、仮想サーバ110の配備先を変更するシミュレーションを行い、その結果を最適化案として提示することができる。また、提示された最適化案をインフラ管理者が選択することにより、平均消費コストが下がるように容易に仮想サーバ110の配備先を変更することができる。また、最適化案を作成することにより、管理用サーバ200は、想定総消費コストが最も小さい最適化案を選択し、最適化案に応じた仮想サーバ110の配備先を変更することを自動的に行うようにすることもできる。これにより、多数のサーバ100上の仮想サーバ110を複数の業務システムに対して割り当てるデータセンタ1において、仮想サーバ110を配備した後に仮想サーバ110の増減等によりネットワークの利用効率が低下してしまった場合でも、スイッチの通信量やスイッチの利用コストに応じて、ネットワークの利用効率を向上することが可能となる。
次に、本発明の第二の実施形態について説明する。本発明の第一の実施形態では単一のデータセンタ1内に設置されたサーバ100、各種スイッチ20,30,40,50を管理対象としていた。しかし、複数拠点にある複数のデータセンタ1−1、・・・1−p内に設置されている大規模なサーバ100、各種スイッチ20,30,40,50を一元的に管理し、さらに効率的かつ大規模にデータセンタ事業を行う場合もある。また、複数のDC事業者が協業し、相互にサーバ100リソースを貸与する場合もある。そのような事業形態の場合、例えばあるデータセンタ1−1で空きサーバ100がなくなり、さらに業務システム事業者よりサーバの貸し出し要求を受けた場合には、広域網3を介したDC事業者1−2の空きサーバ100を利用する場合もある。その際も、業務システム事業者は仮想サーバ110のみにアクセスするため、サーバ100がどこのデータセンタ1にあるのかは意識しない。
しかし、広域網は一般的に通信事業者などの設備のため使用料が高価となり、通信コストがかかる。そこで本発明の第二の実施形態では、広域網3を介して接続された複数のデータセンタ1に設置されたサーバ100および各種スイッチを相互に利用し、効率的かつ大規模にデータセンタ事業を行う場合において、ネットワーク利用効率を向上することを目的とし、広域網3−1、・・・、3−qのそれぞれを一つのスイッチ(以降、広域スイッチと呼ぶ)として、他のスイッチと同様に処理することで、複数のデータセンタ1−1、・・・1−pに跨って業務システムが構成される場合でもネットワークリソースの最適化を実現する。
図17は、本発明の第二の実施形態である計算機システムの概略図である。前記第一の実施形態における図1に記載の計算機システム概略図との違いは、図示するように、データセンタ1−1、・・・、1−p(pは各々のデータセンタを識別するためのインデックスであって2以上の自然数であるものとする。また、各々のデータセンタを特に区別しない場合には、データセンタ1という。)が複数の広域網3−1,・・・,3−q(qは各々の広域網を識別するためのインデックスであって2以上の自然数であるものとする。また、各々の広域網を特に区別しない場合には、広域網3という。)によって相互に接続されている点である。
図18に、本発明の第二の実施形態における構成情報テーブル235fの概略図を示す。第二の実施形態に係る構成情報テーブル235fの構成は、図10に示した第一の実施形態に係る構成情報テーブル235aと同様に、スイッチID欄235g、接続上位スイッチID欄235h、接続同位スイッチID欄235i、利用コスト235jであるが、スイッチID欄235gおよび接続上位スイッチID欄235hおよび接続同位スイッチID欄235iには、広域網を識別する識別情報をスイッチIDとみなし、広域スイッチIDとして格納可能とした(図中のスイッチID欄235gおよび接続上位スイッチID欄235hに設定されている値wan1、wan2が広域網3−1や広域網3−2を示す広域スイッチIDである。)。上述したように広域網3を利用する通信コストが高いことが想定されるため、図18の例では、広域網3についての利用コスト(wan1、wan2に対応する利用コスト)は他のスイッチの利用コストに比べて高く設定されている。
また、サーバ100の計測部140において、複数のデータセンタ1に配備された仮想サーバ110間の通信量を計測し、ネットワーク利用情報テーブル236の平均通信量236eに計測結果を格納し、さらに利用コスト235jと通信経路よりリンクコスト236fを計算する際には、広域網3の利用コスト235jを含めて計算を行う。
また、前記本発明の第一の実施形態の図12にて示した処理を示すフローチャートの処理ステップの中で、ステップS18において移動後の平均消費コストを計算する際には、広域網3を含む利用コスト235jにより計算を行う。
以上のように、本発明の第二の実施形態によれば、業務システムへ割り当てられる複数の仮想サーバ110が複数のデータセンタに設置されている複数のサーバ100に跨って割当られるときにも、広域網3を一つの広域スイッチとして扱うことで、第一の実施形態と同様の処理によりネットワークリソースの利用効率の最適化を実現することができる。
次に、本発明の第三の実施形態について説明する。本発明の第一の実施形態では、ネットワークリソースの利用効率化のため、インフラ管理者の要求に応じて仮想サーバ110を別のサーバ100に移動した。しかし、既に知られている方法により仮想サーバ110を別のサーバ100に移動する場合には、移動の際に仮想サーバを一時的に停止する必要があり、他の仮想サーバ110やユーザ端末2との通信に瞬断(例えば数秒程度)が発生する恐れがある。
例えば、セッションを持たないで、静的コンテンツのみを扱うWebサーバなどは、複数台のWebサーバでのクラスタ構成を組み易く、瞬断が発生した場合でも負荷分散装置等により他のWebサーバに通信を振り分けることで業務システムとしてのサービスを継続して提供することが可能である。しかし、マスタのデータベースサーバやファイルサーバなどは完全にクラスタ構成を組み事が一般的に困難であり、業務システムによっては数秒程度の瞬断であっても大きな損害を受ける可能性がある。通信の瞬断による影響度は業務システムが提供するサービスの性質やシステムの構成、日時などによって異なるため、業務システムへの影響度を考慮した上で適切な方法、タイミングで最適化を実施する必要がある。そこで本発明の第三の実施形態では、瞬断の影響度を考慮し、適切な方法および適切なタイミングで最適化を実施する。
ここで、本実施形態において、瞬断の影響度とは仮想サーバの上に構築された業務システムの機能コンポーネントがどの程度の時間の停止に耐えられるかを指すものとする。また、適切な方法とは、前記第一の実施形態に記載の、仮想サーバ110の別のサーバ100への移行による最適化方法(以降、移行最適化方法と呼ぶ。)に加えて、通信経路の変更による最適化方法(以降、経路最適化方法と呼ぶ。)を選択肢として追加し、前記瞬断の影響度に応じて2つの方法を使い分けることを指すものとする。各スイッチは複数のスイッチと接続されることが可能であり、このスイッチの物理的接続構成によっては、論理的に通信経路を切り替えること(ルーティング)で仮想サーバ110間の通信に係る利用コストを改善できる可能性がある。また、一般にネットワーク機器の設定変更はミリ秒単位の時間であるのに対して仮想サーバ110を他の物理サーバに再配備する時間は数秒単位であるため、スイッチの経路を変更する場合は、仮想サーバ110を再配備する場合に比べてかかる時間が短い。そこで、瞬断の影響度が大きい仮想サーバ110については、他の物理サーバに再配備せず、スイッチのルーティングにより利用コストを下げることも考慮する。また、適切なタイミングとは、業務システムにとって都合のよい時間帯を指すものとする。
図19は本発明の第三の実施形態における計算機管理システムの概略図である。図示するように、第一の実施形態における計算機管理システムに加えて、業務システム管理者向け管理用端末400−1、・・・、400−r(rは各々の業務システム管理者向け管理用端末を識別するためのインデックスであって2以上の自然数であるものとする。また、各々の業務システム管理者向け管理用端末を特に区別しない場合には、業務システム管理者向け管理用端末400という。)が広域網3に接続されている。業務システム管理者は、VPNなどの安全が確保された通信手段を用いて、業務システム管理者向け管理用端末400より管理用サーバ200と通信を行い、後述する保守ポリシ等の設定や管理を行う。
図20は本発明の第三の実施形態における管理用サーバ200のソフトウェア機能モジュール概略図である。図示するように、第一の実施形態におけるインフラ制御管理部210と、記憶部230と、に加えて業務管理者用インタフェース部220と、を備える。また、記憶部230には、さらに保守ポリシテーブル237が追加されている。
業務管理者用インタフェース部220には、さらに保守ポリシ管理部221と、通知部222と、の2つの実行部から構成されている。
保守ポリシ管理部221は、業務システム事業者のシステム管理者に対して、仮想サーバ110が対応可能な瞬断の影響度に関する情報(以下、保守ポリシ情報という。)を設定するための保守ポリシ設定画面1201を提供する。
図21に保守ポリシ設定画面1201の一例を示す。保守ポリシ設定画面1201は、設定済み保守ポリシテーブル1202、仮想サーバ欄1203、事前確認欄1204、瞬断対応レベル欄1205、保守希望時間帯欄1206、削除ボタン欄1207、保守ポリシ追加欄1210、仮想サーバ選択フォーム1211、事前確認要否選択フォーム1212、瞬断対応レベル指定フォーム1213、保守希望時間帯指定フォーム1214、保守ポリシ追加ボタン1215、から構成される。
仮想サーバ欄1203は、保守ポリシの適用対象となる仮想サーバ110を識別するための情報が表示されており、仮想サーバIDや仮想サーバに付けた名称が表示される。
事前確認欄1204は、保守を実施する前に事前連絡が必要か否かの情報が「要」「不要」の文字列にて表示されている。
瞬断対応レベル欄1205には、仮想サーバ110が対応可能な瞬断の影響度(以下、瞬断対応レベルという。)が表示される。本実施形態では、瞬断対応レベルは「1秒以内」または「5秒以内」のいずれかであるものとする。
保守希望時間帯欄1206には、瞬断が発生する保守作業をどの時間帯に実施してよいかを示す、保守可能希望時間帯が表示される。
削除ボタン欄1207は、当該保守ポリシ情報の削除を、管理サーバ200に対して要求するボタンである。
保守ポリシ追加欄1210は保守ポリシ情報を追加するための入力/選択フォームおよび追加ボタンからなる。
仮想サーバ選択フォーム1211は業務システム事業者が契約している仮想サーバ110を選択するための選択フォームである。
事前確認要否選択フォーム1212は保守を実施する前に事前連絡が必要か否かを選択するための選択フォームである。
瞬断対応レベル指定フォーム1213は、瞬断対応レベルを選択するフォームである。
保守希望時間帯指定フォーム1214は、瞬断が発生する保守作業をどの時間帯に実施してよいかを指定するフォームである。
保守ポリシ追加ボタン1215は、当該保守ポリシの追加を、管理サーバ200に対して要求するボタンである。
図20に戻り、保守ポリシ管理部221は、業務システム管理者向け管理用端末400において、前記図21に記載の保守ポリシ設定画面を通じて追加または削除要求を受信すると、保守ポリシ管理テーブル237に保守ポリシ情報の追加または削除を行う。例えば、本実施形態においては、図22(保守ポリシ管理テーブル237aの概略図)に示すような保守ポリシ管理テーブル237aが記憶される。
保守ポリシ管理テーブル237aは、ポリシID欄237bと、仮想サーバID欄237cと、事前通知欄237dと、瞬断対応レベル欄237eと、保守希望時間帯欄237fと、を有する。
ポリシID欄237bには、保守ポリシ情報を一意に識別するための識別情報であるポリシIDが格納される。
仮想サーバID欄237cには、ポリシを適用する対象の仮想サーバ110を一意に識別するための識別情報である仮想サーバIDが格納される。
事前通知欄237dには、保守を実施する前に事前連絡が必要か否かの情報が「要」「不要」の文字列にて格納されている。
瞬断対応レベル欄237eには、瞬断対応レベルが表示される。
保守希望時間帯欄237fには、瞬断が発生する保守作業をどの時間帯に実施してよいかを示す、保守可能希望時間帯が格納される。
通信部222は、業務システム事業者のシステム管理者に対して、保守ポリシ情報などを通知するためのインタフェース部である。
図23は、インフラ管理者が、管理者用サーバを用いてデータセンタ1の各種サーバ、スイッチの最適化を実施する処理を示すフローチャートである。以降、前記第一の実施形態におけるフローチャート(図12)の処理ステップと異なる処理ステップを中心に説明する。
まず前処理として、構成情報テーブル235は、契約ID単位(言い換えると業務システム単位)に別々に用意してあるものとする。これは、本実施形態では通信経路変更による最適化の方法を追加するが、通信経路の変更は他の業務システムにも影響を及ぼす恐れがある。そこで仮想LAN(以降、VLANと呼ぶ)やVRF(Virtual Routing and Forwarding)により物理的な通信路を論理的に分離し、分離した論理的な通信路毎にルーティングを行うことで他の業務システムに経路変更の影響を及ぼすことを防ぐことができる。本実施形態では、VLANおよびVRFを用いることを前提とし、構成情報テーブル235を業務システム単位でのルーティング情報として別々に用意しておくものとする。また、第三の実施形態では、最適化案1400には、契約ID別の構成情報テーブル235aも含まれるものとする。
前記第一の実施形態におけるフローチャート(図12)の処理ステップS14において実施した、最適化案1401を格納する最適化案リスト1400の生成、および現状のネットワーク利用情報テーブル236a、現状のサーバリソース空き情報テーブル234a、リソース割当テーブル233aおよび現状の構成情報テーブル235aと、空の構成変更履歴1402とを含む第1の最適化案1401を最適化案リスト1400に追加する処理に加え、本実施形態では当該業務システム向けに事前に作成してある構成情報テーブルを最適化案に追加しておく(S40)。
次に、管理用サーバ200は、図12のステップS15と同様の処理により、ネットワーク利用情報テーブル236aの平均消費コスト236gの高い順に仮想サーバ110を選択するとともに、当該仮想サーバ110の保守ポリシを保守ポリシテーブル237aより検索しておく(S41)。
次に、管理用サーバ200は、前記第一の実施形態のステップS16と同様の処理により、前記最適化案リストより最適化案を順に選択する(S16)。
次に、管理用サーバ200は、前記ステップS41にて検索した保守ポリシの瞬断対応レベルに応じて対策方法を選択する。本実施形態において対策方法とは移行最適化方法および経路最適化方法のいずれかを指すものとし、瞬断対応レベルが「1秒以内」の場合は経路最適化方法を選択し、瞬断対応レベルが「5秒以内」の場合は移行最適化方法および経路最適化方法の両方を選択する。
次に、管理用サーバ200は、選択された対策方法において、可能な構成案を作成する。より具体的には、管理用サーバ200は、対策方法として「移行最適化方法」が選択された場合は、仮想サーバ110を他のサーバ100に再配備することを示す構成案を作成するとともに、図12のステップS17と同様の方法により再配備先のサーバ100の候補を決定する。また、対策方法として「経路最適化方法」が選択された場合、管理サーバ200は、スイッチの接続先をマスタからスレーブに切り替えることを示す構成案を作成するとともに、前記処理ステップS40において格納した構成情報テーブル235aにおいて、接続上位スイッチID235cが冗長構成により複数選択可能なスイッチを切り替え対象となるスイッチの候補として検索する。これは、例えばスパーニングツリーにおいて冗長化されているスイッチの接続構成において、停止しているポートを活性化し、活性化されているポートを停止することで障害時に経路を切り替える機能などを利用して、能動的に経路を切り替えることを想定している。
次に、仮想サーバ110を他のサーバ100に再配備する最適化案1401に係る作成した複数の構成変更案のそれぞれについて、変更後の平均消費コストの見積もりを計算する。すなわち、管理用サーバ200は、仮想サーバ110を再配備する構成案については、図12のステップS18と同様に、物理サーバ毎に図15に示す処理により平均消費コストを計算し、スイッチを切り替える構成案については、マスタスイッチとスレーブスイッチとを切り替えた構成案情報テーブル235aを用いて図15に示す処理により平均消費コストを計算する。そして、算出された平均消費コストのうち、最も平均消費コストが低い構成案を選択する(S44)。
そして、ステップS16にて選択された旧最適化案に含まれるネットワーク利用情報テーブル236aにおける仮想サーバ110に対応する平均消費コストの合計値よりも、選択した構成案について算出された平均消費コストの合計値の方が小さい場合(S19:Y)、スイッチを切り替えた構成情報テーブル235aと、図12のステップS20と同様にして変更されたサーバリソース空き情報テーブル234aおよびリソース割当テーブル233aとを含む新最適化案を作成して最適化案リスト1400に追加する(S45)。なお、スイッチを切り替えて経路を変更する場合の構成案については、構成変更履歴1402には、スイッチをマスタスイッチからスレーブスイッチに切り替えたことを示す情報が物理サーバ変更欄に登録されるものとする。旧最適化案よりも平均消費コストが小さくならない場合(S19でNo)は、何もしない。
以降の処理ステップS21からS22までは前記第1の実施形態における図12の処理ステップと同様である。
次に、インフラ管理者によって選択された最適化案に応じて、仮想サーバ110の再配備が発生する場合は、管理用サーバ200は、保守ポリシテーブル237から当該仮想サーバ110に対応する保守ポリシ情報を全て検索する。また、経路変更の構成案に係る最適化案が選択された場合は、管理用サーバ200は、当該業務システムに対して割り当てている全ての仮想サーバ110に影響があると考えられるので、全ての仮想サーバ110の保守ポリシを検索する。そして、検索した保守ポリシの保守希望時間帯237fの論理和により実行可能な保守時間帯を算出し、事前通知欄237dにより通知の要否を決定する。そして、インフラ管理者に対して結果を表示する(S46)。
次に、インフラ管理者は表示された最適化案リスト画面1101を見て、最適化案の中から最も良い案(通常は総消費コスト1104が最も低減している案)を選択する。管理用サーバ200は、事前通知欄237dに「要」が設定されている場合は契約情報テーブル231に記載の連絡手段により業務システム管理者に対して通知を行う。その際、保守を実行する仮想サーバIDおよび時間帯を合わせて通知する(S47)。ここで、実行可能な保守時間帯が無い場合は、管理用サーバ200は、中止するかその旨を業務システム管理者に対して問い合わせてもよい。
次に、最適化実行ボタン1107を押下し、管理用サーバ200に対して最適化を要求する(S24)。
最適化要求を受信した管理用サーバ200の統合リソース管理部211では、前記ステップS46にて決定したスケジュールに合わせてサーバ管理部212に対して仮想サーバ110の移行を命令し、さらにネットワーク管理部に対してスイッチの設定変更を命令し、移行および設定変更が完了後、リソース割当テーブル233a、サーバリソース空き情報テーブル234a、構成情報テーブル235a、ネットワーク利用情報テーブル236aを必要に応じて更新する(S48)。なお、管理用サーバ200は、最適化の要求を受信した時が保守時間帯外であった場合には、保守時間帯の開始時刻になるまで仮想サーバ110の再配備を待つようにしてもよい。
さらに、管理用サーバ200は管理用端末の画面および/またはメールなどの通信手段を用いてインフラ管理者に実行結果を通知する(S26)。
以上のように、本発明の第三の実施形態によれば、構成変更により発生する瞬断の影響度を加味して、最適な方法、最適なタイミングで最適化を実行することにより、業務システムへの影響を抑えながらシステムの最適化を実現することができる。
なお、本実施形態では、サーバ100毎に仮想スイッチ130が設けられるものとしたが、これに限らず、仮想サーバ110が直接ラック設置スイッチ20やセグメント用スイッチ30などにアクセスするようにしてもよい。
また、本実施形態では、CPU、メモリの容量、外部記憶装置の容量に応じて、仮想サーバ110がサーバ100において実行できるか否かを判断するものとしたが、例えば、ネットワークI/Oの速度情報など、サーバ100のリソースに関する各種の情報に基づいて判断するようにしてもよい。
また、本実施形態では、平均消費コストの多い順に全ての仮想サーバ110を選択して再配備した場合の平均消費コストを算出するようにしたが、平均消費コストの多い順に所定数の仮想サーバ110のみについて、例えば図12のステップS16−S21の処理を行うようにしてもよい。また、システム管理者から指定された仮想サーバ110や、ランダムに選択した仮想サーバ110、ユーザからのリクエストに対応するレスポンスタイムの遅い仮想サーバ110のみについて、上記処理を行うようにしてもよい。
また、本実施形態では、管理用端末300と管理用サーバ200とは別の装置であるものとしたが、1台のコンピュータにおいて管理用端末300と管理用サーバ200との両方の機能を備えるようにしてもよい。また、1つまたは複数のサーバ100に管理用サーバ200などの機能を持たせるようにしてもよい。
また、第三の実施形態では、瞬断対応レベルは「1秒未満」または「5秒未満」のいずれかであるものとしたが、これに限らず、例えば、瞬断対応レベルとして、仮想サーバ100を停止可能な最大時間を設定するようにすることもできる。
以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。
1 データセンタ
2 ユーザ端末
3 広域網
10 ラック
20 ラック設置スイッチ
30 セグメント用スイッチ
40 コア接続用スイッチ
50 管理用スイッチ
100 サーバ
110 仮想サーバ
120 仮想サーバ実行部
130 ソフトウェアスイッチ
140 計測部
200 管理用サーバ
210 インフラ制御管理部
220 業務管理者用インタフェース部
230 記憶部
300 管理用端末
400 業務システム管理者向け管理用端末
900 コンピュータ
901 CPU
902 メモリ
903 外部記憶装置
904 記憶媒体
905 読取装置
906 入力装置
907 出力装置
908 通信装置

Claims (13)

  1. ネットワーク装置を介して接続される複数のサーバにより複数の仮想サーバが実行される計算機システムにおいて、前記仮想サーバの前記サーバへの割当を行う管理装置であって、
    前記仮想サーバが割り当てられている前記サーバを記憶する割当情報と、
    前記サーバが提供可能なリソース量を特定するサーバリソース空き情報と、
    前記仮想サーバの実行に必要なリソース量と、
    前記サーバ間での通信時に経由する前記ネットワーク装置を特定する構成情報と、
    前記ネットワーク装置毎に単位通信量あたりの利用コストを特定するコスト情報と、
    前記仮想サーバ間の平均通信量ならびに前記利用コストおよび前記平均通信量に応じて算出される平均消費コストを特定するネットワーク利用情報と、を記憶する記憶部と、
    前記仮想サーバの前記サーバへの割当を行うインフラ制御管理部と、を備え、
    前記インフラ制御管理部は、
    再割当を行う前記仮想サーバである候補仮想サーバを選択し、
    選択した前記仮想サーバに対応する前記ネットワーク利用情報の前記平均消費コストを集計して前記平均消費コストの現在値を算出し、
    再割当を行う前記仮想サーバである候補仮想サーバを選択し、
    前記候補仮想サーバの実行に必要な前記リソース量を前記記憶部から取得し、
    取得した前記必要なリソース量を提供可能な前記サーバである候補サーバを前記サーバリソース空き情報から特定し、
    特定した前記候補サーバのそれぞれについて、前記候補仮想サーバとは異なる他の前記仮想サーバが割り当てられている前記サーバを前記割当情報から特定し、特定した前記サーバと前記候補サーバとの間の通信において経由する前記ネットワーク装置を前記構成情報から特定し、特定した前記ネットワーク装置に対応する前記コスト情報により特定される前記利用コストと、前記ネットワーク利用情報から特定される前記候補仮想サーバおよび前記他の仮想サーバの間の前記平均通信量とに応じて、前記候補サーバに前記候補仮想サーバを再割当した場合の前記平均消費コストを算出し、
    前記候補サーバ毎に前記平均消費コストを集計して前記平均消費コストの予測値を算出し、
    前記現在値よりも小さい前記予測値に対応する前記候補サーバに前記候補仮想サーバを再割当すること、
    を特徴とする計算機システム管理装置。
  2. 請求項1に記載の計算機システム管理装置であって、
    前記インフラ制御管理部は、前記予測値と、当該平均消費コストに対応する前記候補サーバを示す情報とを出力し、出力した前記候補サーバのうちの一つの指定を受け付け、受け付けた前記候補サーバに前記候補仮想サーバを再割当すること、
    を特徴とする計算機システム管理装置。
  3. 請求項1に記載の計算機システム管理装置であって、
    前記利用コストは、前記ネットワーク装置毎のデータ転送にかかる消費電力および前記ネットワーク装置の価格の少なくともいずれかをポート数で割った値に基づき決定した値であること、
    を特徴とする計算機システム管理装置。
  4. 請求項3に記載の計算機システム管理装置であって、
    前記仮想サーバ間の前記平均消費コストは、前記仮想サーバ間の通信経路上の前記ネットワーク装置の前記利用コストの総和であるリンクコストと、当該仮想サーバ間の平均通信量との積であること、
    を特徴とする計算機システム管理装置。
  5. 請求項4に記載の計算機システム管理装置であって、
    前記複数のサーバは広域網により接続された複数拠点に設置されている場合に、
    前記記憶部は、前記広域網を一つの前記ネットワーク装置として、前記広域網に対応する前記利用コストを特定する前記コスト情報を記憶し、
    前記前記インフラ制御管理部は、前記広域網を通過する前記仮想サーバ間の通信に係る前記リンクコストおよび前記平均消費コストを計算すること、
    を特徴とする計算機システム管理装置。
  6. 請求項1に記載の計算機システム管理装置であって、
    前記リソース量は、CPUのコアの数、メモリの容量および外部記憶装置の容量の少なくともいずれかを含み、
    前記インフラ制御管理部は、前記仮想サーバを第1の前記サーバから第2の前記サーバに再割当した場合、前記第1のサーバに対応する前記リソース量に前記仮想サーバに必要な前記リソース量を加算し、前記第2のサーバに対応する前記リソース量から前記必要なリソース量を減算すること、
    を特徴とする計算機システム管理装置。
  7. 請求項1に記載の計算機システム管理装置であって、
    前記ネットワーク装置はツリー構造を形成するように接続され、前記サーバは前記ツリー構造のリーフに該当する前記ネットワーク装置に直接接続され、
    前記構成情報には、前記サーバに直接接続されている前記ネットワーク装置を特定する前記サーバ毎の情報と、前記ネットワーク装置の上位に接続される他の前記ネットワーク装置を特定する前記ネットワーク装置毎の情報とを含むこと、
    を特徴とする計算機システム管理装置。
  8. 請求項1に記載の計算機システム管理装置であって、
    前記インフラ制御管理部は、
    前記ネットワーク利用情報の前記平均消費コストを前記仮想サーバ毎に集計し、
    集計した前記平均消費コストの多い順に前記仮想サーバを前記候補仮想サーバとして選択し、
    前記候補仮想サーバのそれぞれについて、前記候補サーバを特定し、前記候補サーバについての前記予測値を算出し、前記現在地よりも小さい前記予測値に対応する前記候補サーバに前記候補仮想サーバを再割当していくこと、
    を特徴とする計算機システム管理装置。
  9. 請求項8に記載の計算機システム管理装置であって、
    前記インフラ制御管理部は、
    前記記憶部に記憶されている前記ネットワーク利用情報、前記サーバリソース空き情報および前記割当情報を含む情報である最適化案を作成し、作成した前記最適化案をリストに追加し、
    前記候補仮想サーバのそれぞれについて、前記候補サーバを特定し、前記リストに含まれている前記最適化案のそれぞれについて前記最適化案に含まれている前記ネットワーク利用情報、前記サーバリソース空き情報および前記割当情報を用いて前記候補サーバについての前記予測値を算出し、前記現在地よりも小さい前記予測値に対応する前記候補サーバを特定し、特定した前記候補サーバに前記候補仮想サーバを再割当した場合の前記ネットワーク利用情報、前記サーバリソース空き情報および前記割当情報と、前記候補仮想サーバおよび前記候補サーバを特定する情報とを含む前記最適化案を作成して前記リストに追加していき、
    前記リストに含まれている前記最適化案のうち先頭のものを除いて出力し、出力した前記最適化案の一つの選択を受け付け、受け付けた前記最適化案から特定される前記候補仮想サーバを、受け付けた前記最適化案から特定される前記候補サーバに再割当すること、
    を特徴とする計算機システム管理装置。
  10. 請求項1に記載の計算機システム管理装置であって、
    前記インフラ制御管理部は、
    前記候補サーバと前記他の仮想サーバに対応する前記サーバとの間に設定可能な通信経路のそれぞれについてさらに、前記通信経路に存在する前記ネットワーク装置を前記構成情報から特定し、特定した前記ネットワーク装置に対応する前記コスト情報により特定される前記利用コストと、前記ネットワーク利用情報から特定される前記候補仮想サーバおよび前記他の仮想サーバの間の前記平均通信量とに応じて前記平均消費コストを算出し、最小の前記平均消費コストおよび当該最小の平均消費コストに対応する前記通信経路である最小経路を選択し、
    前記候補サーバ毎に、前記平均消費コストを集計して第1の前記予測値を算出するとともに、前記最小の平均消費コストを集計して第2の前記予測値を算出し、
    前記現在地よりも小さい前記第1または第2の予測値を特定し、
    前記第1の予測値を特定した場合、前記第1の予測値に対応する前記候補サーバに前記候補仮想サーバを再割当し、
    前記第2の予測値を特定した場合、前記第2の予測値に対応する前記候補サーバと、前記候補仮想サーバに対応する前記サーバとの間の通信経路が前記最小経路となるように前記計算機システムを設定すること、
    を特徴とする計算機システム管理装置。
  11. 請求項1に記載の計算機システム管理装置であって、
    前記記憶部はさらに、前記仮想サーバの再割当を許可するか否かを示す情報を含む保守ポリシ情報を記憶し、
    前記インフラ制御管理部は、前記保守ポリシ情報に再割当を許可しない旨を示す情報が含まれている場合、前記候補サーバと前記他の仮想サーバに対応する前記サーバとの間の通信経路を変更したときに経由する前記ネットワーク装置を前記構成情報から特定し、特定した前記ネットワーク装置に対応する前記コスト情報により特定される前記利用コストと、前記ネットワーク利用情報から特定される前記候補仮想サーバおよび前記他の仮想サーバの間の前記平均通信量とに応じて、前記平均消費コストの予測値を算出すること、
    を特徴とする計算機システム管理装置。
  12. ネットワーク装置を介して接続される複数のサーバと、前記複数のサーバにより実行される複数の仮想サーバと、前記仮想サーバの前記サーバへの割当の管理を行う計算機システム管理装置と、を含んで構成される計算機管理システムであって、
    前記計算機システム管理装置は、
    前記仮想サーバが割り当てられている前記サーバを記憶する割当情報と、
    前記サーバが提供可能なリソース量を特定するサーバリソース空き情報と、
    前記仮想サーバの実行に必要なリソース量と、
    前記サーバ間での通信時に経由する前記ネットワーク装置を特定する構成情報と、
    前記ネットワーク装置毎に単位通信量あたりの利用コストを特定するコスト情報と、
    前記仮想サーバ間の平均通信量ならびに前記利用コストおよび前記平均通信量に応じた平均消費コストを特定するネットワーク利用情報と、を記憶する記憶部と、
    前記仮想サーバの前記サーバへの割り当てを行うインフラ制御管理部と、を備え、
    前記インフラ制御管理部は、
    再割当を行う前記仮想サーバである候補仮想サーバを選択し、
    選択した前記仮想サーバに対応する前記ネットワーク利用情報の平均消費コストを集計して前記平均消費コストの現在値を算出し、
    再割当を行う前記仮想サーバである候補仮想サーバを選択し、
    前記候補仮想サーバの実行に必要な前記リソース量を前記記憶部から取得し、
    取得した前記必要なリソース量を提供可能な前記サーバである候補サーバを前記サーバリソース空き情報から特定し、
    特定した前記候補サーバのそれぞれについて、前記候補仮想サーバとは異なる他の前記仮想サーバが割り当てられている前記サーバを前記割当情報から特定し、特定した前記サーバと前記候補サーバとの間の通信において経由する前記ネットワーク装置を前記構成情報から特定し、特定した前記ネットワーク装置に対応する前記コスト情報により特定される前記利用コストと、前記ネットワーク利用情報から特定される前記候補仮想サーバおよび前記他の仮想サーバの間の前記平均通信量とに応じて、前記候補サーバに前記候補仮想サーバを再割当した場合の前記平均消費コストを算出し、
    前記候補サーバ毎に前記平均消費コストを集計して前記平均消費コストの予測値を算出し、
    前記現在値よりも小さい前記予測値に対応する前記候補サーバに前記候補仮想サーバを再割当すること、
    を特徴とする計算機管理システム。
  13. ネットワーク装置を介して接続される複数のサーバにより複数の仮想サーバが実行される業務システムにおいて、前記仮想サーバの前記サーバへの割当の管理を行う計算機システム管理方法であって、
    計算機システム管理装置は、
    前記仮想サーバが割り当てられている前記サーバを記憶する割当情報と、
    前記サーバが提供可能なリソース量を特定するサーバリソース空き情報と、
    前記仮想サーバの実行に必要なリソース量と、
    前記サーバ間での通信時に経由する前記ネットワーク装置を特定する構成情報と、
    前記ネットワーク装置毎に単位通信量あたりの利用コストを特定するコスト情報と、
    前記仮想サーバ間の平均通信量ならびに前記利用コストおよび前記平均通信量に応じた平均消費コストを特定するネットワーク利用情報と、を記憶する記憶部と、
    前記仮想サーバの前記サーバへの割り当てを行うインフラ制御管理部と、を備え、
    前記インフラ制御管理部が、
    再割当を行う前記仮想サーバである候補仮想サーバを選択し、
    選択した前記仮想サーバに対応する前記ネットワーク利用情報の平均消費コストを集計して前記平均消費コストの現在値を算出し、
    再割当を行う前記仮想サーバである候補仮想サーバを選択し、
    前記候補仮想サーバの実行に必要な前記リソース量を前記記憶部から取得し、
    取得した前記必要なリソース量を提供可能な前記サーバである候補サーバを前記サーバリソース空き情報から特定し、
    特定した前記候補サーバのそれぞれについて、前記候補仮想サーバとは異なる他の前記仮想サーバが割り当てられている前記サーバを前記割当情報から特定し、特定した前記サーバと前記候補サーバとの間の通信において経由する前記ネットワーク装置を前記構成情報から特定し、特定した前記ネットワーク装置に対応する前記コスト情報により特定される前記利用コストと、前記ネットワーク利用情報から特定される前記候補仮想サーバおよび前記他の仮想サーバの間の前記平均通信量とに応じて、前記候補サーバに前記候補仮想サーバを再割当した場合の前記平均消費コストを算出し、
    前記候補サーバ毎に前記平均消費コストを集計して前記平均消費コストの予測値を算出し、
    前記現在値よりも小さい前記予測値に対応する前記候補サーバに前記候補仮想サーバを再割当すること、
    を特徴とする計算機システム管理方法。
JP2010086432A 2010-04-02 2010-04-02 計算機システムの管理方法、計算機システム管理端末および計算機管理システム Pending JP2011221581A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010086432A JP2011221581A (ja) 2010-04-02 2010-04-02 計算機システムの管理方法、計算機システム管理端末および計算機管理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010086432A JP2011221581A (ja) 2010-04-02 2010-04-02 計算機システムの管理方法、計算機システム管理端末および計算機管理システム

Publications (1)

Publication Number Publication Date
JP2011221581A true JP2011221581A (ja) 2011-11-04

Family

ID=45038535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010086432A Pending JP2011221581A (ja) 2010-04-02 2010-04-02 計算機システムの管理方法、計算機システム管理端末および計算機管理システム

Country Status (1)

Country Link
JP (1) JP2011221581A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013247410A (ja) * 2012-05-23 2013-12-09 Ntt Docomo Inc ネットワーク管理装置、通信システムおよびネットワーク管理方法
JP2013250832A (ja) * 2012-06-01 2013-12-12 Daiwa Securities Group Inc データセンタ,コンピュータ資源共有方法,及びコンピュータ資源共有プログラム
JP5377775B1 (ja) * 2012-09-21 2013-12-25 株式会社東芝 システム管理装置、ネットワークシステム、システム管理方法およびプログラム
JP2014032674A (ja) * 2012-08-06 2014-02-20 Hon Hai Precision Industry Co Ltd 仮想マシンのリソース配置システム及びその方法
JP5575953B1 (ja) * 2013-06-07 2014-08-20 日本電信電話株式会社 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム
JP2014153897A (ja) * 2013-02-08 2014-08-25 Hitachi Ltd 計算機システム及びリソース管理装置並びにリソース管理方法
JP2014182544A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 監視装置,情報処理システム,監視方法および監視プログラム
JP2015090693A (ja) * 2013-11-07 2015-05-11 富士通株式会社 分散配備装置、分散配備方法、および分散配備プログラム
JP2015225560A (ja) * 2014-05-29 2015-12-14 日本電信電話株式会社 仮想マシン配置装置、仮想マシン配置方法、および、仮想マシン配置プログラム
US9391916B2 (en) 2012-10-22 2016-07-12 Fujitsu Limited Resource management system, resource management method, and computer product
JP2017028548A (ja) * 2015-07-23 2017-02-02 日本電信電話株式会社 物理リソース割当装置、物理リソース割当方法、及びプログラム
JP2017146685A (ja) * 2016-02-16 2017-08-24 日本電信電話株式会社 分散システム、および、メッセージ転送方法
JP2018036947A (ja) * 2016-09-01 2018-03-08 日本電信電話株式会社 分散処理システム、分散処理方法および分散処理プログラム
JP2020087007A (ja) * 2018-11-27 2020-06-04 株式会社日立製作所 クラウドサービスの設定装置、システムおよび設定方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013247410A (ja) * 2012-05-23 2013-12-09 Ntt Docomo Inc ネットワーク管理装置、通信システムおよびネットワーク管理方法
JP2013250832A (ja) * 2012-06-01 2013-12-12 Daiwa Securities Group Inc データセンタ,コンピュータ資源共有方法,及びコンピュータ資源共有プログラム
JP2014032674A (ja) * 2012-08-06 2014-02-20 Hon Hai Precision Industry Co Ltd 仮想マシンのリソース配置システム及びその方法
JP5377775B1 (ja) * 2012-09-21 2013-12-25 株式会社東芝 システム管理装置、ネットワークシステム、システム管理方法およびプログラム
WO2014045413A1 (ja) * 2012-09-21 2014-03-27 株式会社東芝 システム管理装置、ネットワークシステム、システム管理方法およびプログラム
US9148355B2 (en) 2012-09-21 2015-09-29 Kabushiki Kaisha Toshiba System management device, network system, system management method, and program
US9391916B2 (en) 2012-10-22 2016-07-12 Fujitsu Limited Resource management system, resource management method, and computer product
JP2014153897A (ja) * 2013-02-08 2014-08-25 Hitachi Ltd 計算機システム及びリソース管理装置並びにリソース管理方法
JP2014182544A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 監視装置,情報処理システム,監視方法および監視プログラム
JP5575953B1 (ja) * 2013-06-07 2014-08-20 日本電信電話株式会社 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム
JP2015090693A (ja) * 2013-11-07 2015-05-11 富士通株式会社 分散配備装置、分散配備方法、および分散配備プログラム
JP2015225560A (ja) * 2014-05-29 2015-12-14 日本電信電話株式会社 仮想マシン配置装置、仮想マシン配置方法、および、仮想マシン配置プログラム
JP2017028548A (ja) * 2015-07-23 2017-02-02 日本電信電話株式会社 物理リソース割当装置、物理リソース割当方法、及びプログラム
JP2017146685A (ja) * 2016-02-16 2017-08-24 日本電信電話株式会社 分散システム、および、メッセージ転送方法
JP2018036947A (ja) * 2016-09-01 2018-03-08 日本電信電話株式会社 分散処理システム、分散処理方法および分散処理プログラム
JP2020087007A (ja) * 2018-11-27 2020-06-04 株式会社日立製作所 クラウドサービスの設定装置、システムおよび設定方法

Similar Documents

Publication Publication Date Title
JP2011221581A (ja) 計算機システムの管理方法、計算機システム管理端末および計算機管理システム
EP3216194B1 (en) Network function virtualization service chaining
US10218536B1 (en) Configuring and managing virtual grids
CN107181808B (zh) 一种私有云系统及运行方法
CA2697540C (en) Executing programs based on user-specified constraints
Mandal et al. Greening the cloud using renewable-energy-aware service migration
JP6079226B2 (ja) 情報処理装置、サーバ管理方法およびサーバ管理プログラム
JP2010250778A (ja) コンピュータリソース提供システム、コンピュータリソース提供方法およびリソース取引プログラム
US9286170B2 (en) Preventing extreme coresidency hazards in cloud computing
Guo et al. Temperature-aware virtual data center embedding to avoid hot spots in data centers
Alashaikh et al. A survey on the use of preferences for virtual machine placement in cloud data centers
Attaoui et al. Multi-criteria virtual machine placement in cloud computing environments: a literature review
JP2018201129A (ja) システム管理装置、システム管理方法及びプログラム
JP5364070B2 (ja) 仮想サーバ管理装置
JP2016116184A (ja) 網監視装置および仮想ネットワーク管理方法
Abdelaal et al. High availability deployment of virtual network function forwarding graph in cloud computing environments
RU2702050C2 (ru) Управление иерархической подпиской
Narayanan et al. Right-sizing geo-distributed data centers for availability and latency
JP2013041515A (ja) 仮想データセンタシステム
Tselios et al. Cloud for multimedia applications and services over heterogeneous networks ensuring QoE
US11431553B2 (en) Remote control planes with automated failover
Zhang et al. A unified algorithm for virtual desktops placement in distributed cloud computing
Wei et al. AIMING: Resource Allocation with Latency Awareness for Federated‐Cloud Applications
Kumar et al. SERVmegh: Framework for green cloud
Wang et al. Frequency-adaptive VDC embedding to minimize energy consumption of data centers