JP5006280B2 - ネットワーク運用管理方法および装置 - Google Patents

ネットワーク運用管理方法および装置 Download PDF

Info

Publication number
JP5006280B2
JP5006280B2 JP2008185995A JP2008185995A JP5006280B2 JP 5006280 B2 JP5006280 B2 JP 5006280B2 JP 2008185995 A JP2008185995 A JP 2008185995A JP 2008185995 A JP2008185995 A JP 2008185995A JP 5006280 B2 JP5006280 B2 JP 5006280B2
Authority
JP
Japan
Prior art keywords
physical
server
virtual server
virtual
servers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008185995A
Other languages
English (en)
Other versions
JP2010026699A5 (ja
JP2010026699A (ja
Inventor
大輔 荒井
貴仁 吉原
彰 井戸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2008185995A priority Critical patent/JP5006280B2/ja
Priority to US12/502,563 priority patent/US8103778B2/en
Publication of JP2010026699A publication Critical patent/JP2010026699A/ja
Publication of JP2010026699A5 publication Critical patent/JP2010026699A5/ja
Application granted granted Critical
Publication of JP5006280B2 publication Critical patent/JP5006280B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、複数の物理サーバのそれぞれを論理的に少なくとも一台の仮想サーバとして動作させ、物理サーバ間で仮想サーバを移動させることにより各物理サーバに配置される仮想サーバを動的に変更するネットワークの運用管理方法および装置に関する。
ネットワーク人口の増加や動画像配信など各種通信サービスの普及により、インターネット内のトラヒック量が将来的に急激に増大することが予想される。図9は、経済産業大臣主催で開催された「グリーンITイニシアティブ会議(第1回)」で示されたトラヒック量および消費電力量の推計であり、2025年には2006年との比較でトラヒック量が190倍になると推定される。また、トラヒック量の増大にともない、それを処理するサーバやルータなどのIT機器も増加する傾向にあり、その電力消費量も2025年には2006年との比較で5倍になると推定される。
このような背景、およびコスト削減や企業の社会的責任による企業価値の向上の観点から、サーバやルータなどの運用効率を最大化し、限られた資源で最大限のパフォーマンスを引き出す運用技術が今後ますます重要となる。
一方、複数の物理サーバのそれぞれを論理的に少なくとも一台のサーバ(仮想サーバ)として動作させことにより、物理サーバのコンピュータ資源(物理リソース)を有効に活用する仮想化技術が知られている。
非特許文献1、2には、このような仮想化技術を利用して、NW機器やサーバの運用を効率化する技術が開示されている。非特許文献1に開示されたVMware ESX(登録商標)は、物理サーバのプロセッサ、メモリ、ストレージおよびネットワーク帯域などの物理リソースを分割して複数の仮想サーバを構築する技術であり、このVMware ESX(登録商標)によれば、複数の仮想サーバが同一の物理サーバ上で物理リソースを共有して同時に動作できるようになる。
また、特許文献1および非特許文献3,4には、このような仮想化技術を応用して、(1)各仮想サーバへの物理リソースの割り当て、および(2)各仮想サーバを動作させる物理サーバ、を各仮想サーバの利用状況に応じて動的に変更することで更に運用の効率化を図る技術が開示されている。
図10,11は、従来の仮想化技術を利用した運用最適化方法を模式的に示したブロック図であり、データセンタDCには、ルータR1およびスイッチSW1,SW2,SW3を介してネットワークに接続された2つのネットワークセグメントNS1(192.168.1.0/24),NS2(192.168.2.0/24)が存在し、第1ネットワークセグメントNS1には4つの物理サーバPS1,PS2,PS3,PS4が接続され、第2ネットワークセグメントNS2にも4つの物理サーバPS5,PS6,PS7,PS8が接続されている。
従来技術では、複数の物理サーバが論理グループに束ねられ、各論理グループ内で、(1)仮想サーバへの物理リソースの割り当て、および(2)仮想サーバを動作させる物理サーバ、の動的変更が行われる。ここでは、論理グループがリソースプールRPと呼ばれている。一般的に、仮想サーバは自身が動作する物理サーバの動的変更後も同じアドレスを使用し続ける必要があるため、同一のネットワークセグメントに接続された物理サーバは同一のリソースプールRPに束ねられる。図10,11の例では、ネットワークセグメントNS1に接続された物理サーバ群がリソースプールRP1に束ねられ、ネットワークセグメントNS2に接続された物理サーバ群がリソースプールRP2に束ねられる。
各物理サーバPS1〜PS8には、仮想化プラットフォームとしてVMware ESX(登録商標)が実装されており、各物理サーバの物理リソース(プロセッサ、メモリ、ストレージ、ネットワークリソースなど)は、仮想的に分割されて各仮想サーバに割り当てられている。
このような構成において、例えば昼間や就業時間内のように仮想サーバの使用率が比較的高い時間帯では、図10に示したように全ての物理サーバPS1〜PS8を稼働させ、各種のアプリケーションAppが、各物理サーバPS上で動作する複数の仮想サーバのOS上で分散的に実行される。これに対して、アクセス数の少ない夜間や就業時間外になると、例えば図11に示したように、第1リソースプールRP1では、2つの物理サーバPS3,PS4上で動作していた3つの仮想サーバが他の2つの物理サーバPS1,PS2に集約され、2つの物理サーバPS3,PS4が電源オフの状態または電力消費量の少ない休止状態とされる。
同様に、第2リソースプールRP2でも、2つの物理サーバPS7,PS8上で動作していた3つの仮想サーバが他の2つの物理サーバPS5,PS6に集約され、2つの物理サーバPS7,PS8が電源オフの状態または休止状態とされる。
特開2007-310791号公報 VMware: http://www.vmware.com/ Xen: http://www.xen.org/ 畑崎 恵介, 高本 良史, "サーバ仮想化を用いたシステムの省電力ポリシー運用技術," 電子情報通信学会技術研究報告 コンピュータシステム研究会 CPSY2006-44 Vol.106, No.436, pp. 37-42, Dec. 2006. VMware Distributed Power Management(DPM)
しかしながら、上記した従来技術では、ネットワークセグメントが異なる(すなわち、リソースプールが異なる)物理サーバ間で仮想サーバを移動させることができないので、十分な効率化が難しいという問題があった。
例えば、図11に示した従来技術のように、各仮想サーバを各物理サーバへ配置すれば、物理サーバPS3,PS4,PS7,PS8を停止させることができるので、ある程度の省電力は達成できる。しかしながら、データセンタDCの総消費電力は、物理サーバの消費電力のみならず、空調設備や照明設備、さらには各物理サーバの経路を切り替えるスイッチSW等の消費電力にも大きく依存する。したがって、例えば図12に示したように、リソースプールRP1,RP2が異なる部屋に設置されている場合には、一方の部屋1に配置されている物理サーバへ全ての仮想サーバを配置できれば、他方の部屋2に配置されている全ての物理サーバPSおよびそのスイッチSWを停止できるのみならず、部屋2の空調や照明も停止できるようになる。
しかしながら、上記した従来技術では各リソースプールに束ねられる物理サーバのグループ分けを動的に変更することができなかったので、前記図12に関して説明したように、仮想サーバがネットワークセグメントを超えて物理サーバ間を移動する再配置による更なる省力化が難しかった。
本発明の目的は、上記した従来技術の課題を解決し、仮想サーバがネットワークセグメントを超えて物理サーバ間を移動できるようにすることで、効率的な省電力を可能にするネットワークの運用管理方法および装置を提供することにある。
上記の目的を達成するために、本発明は、複数の物理サーバのそれぞれを論理的に少なくとも一台の仮想サーバとして動作させ、各仮想サーバを、そのリソース使用量に基づいて物理サーバ間で動的に移動させるネットワークの運用管理装置において、各物理サーバに配置されている各仮想サーバのリソース使用量を検知する手段と、各仮想サーバの必要リソース量を前記ソース量に基づいて算出する手段と、各仮想サーバに前記必要ソース量が割り当てられるように、各仮想サーバの必要リソース量および各物理サーバの物理リソースに基づいて、各物理サーバへの各仮想サーバの配置を設計する手段と、各仮想サーバのネットワークセグメントが再配置後も変更されないように、仮想サーバが移動する先の物理サーバのネットワークセグメントを論理的に変更する手段と、再配置の設計結果に基づいて、各物理サーバへ各仮想サーバを再配置する手段とを具備したことを特徴とする。
本発明によれば、各仮想サーバを動作させる物理サーバを利用状況に応じて動的に変更するのと連動して、各仮想サーバが移動する先の物理サーバのネットワークセグメントを論理的に変更できるので、仮想サーバはネットワークセグメントを超えて物理サーバ間を移動できるようになる。したがって、例えば空調設備や照明設備が共通の物理サーバへ優先的に仮想サーバを配置したり、あるいは共通のネットワーク機器に接続されている物理サーバへ優先的に仮想サーバを配置したりすれば、効率的な省力化が可能になる。
以下、図面を参照して本発明の最良の実施形態について詳細に説明する。図1は、本発明のネットワーク運用管理方法が適用されるネットワークの構成を示したブロック図であり、データセンタDCには、ルータR1およびスイッチSW1,SW2,SW3を介して接続された2つのネットワークセグメントNS1(192.168.1.0/24),NS2(192.168.2.0/24)が存在する。前記ルータR1には、本発明に係るネットワーク(NW)運用管理装置(サーバ)1が接続されている。
本実施形態では、前記ルータR1およびスイッチSW1,SW2,SW3がVLAN(Virtual LAN)機能をサポートし、前記NW運用管理サーバ1からの指示で、当該ネットワークの物理的な接続形態と論理的な接続形態とを分離し、仮想サーバが移動する先の物理サーバのネットワークセグメントを、物理的な接続変更を伴わずに論理的に変更することを可能にしている。
図1において、第1ネットワークセグメントNS1の第1リソースプールRP1には4つの物理サーバPS1,PS2,PS3,PS4が束ねられ、第2ネットワークセグメントNS2のリソースプールRP2にも4つの物理サーバPS5,PS6,PS7,PS8が束ねられている。各物理サーバPS1〜PS8には、前記VMware ESX(登録商標)に代表される仮想化プラットフォーム(仮想化レイヤ)が実装されており、各物理サーバPSのプロセッサ、メモリ、ストレージおよびネットワーク帯域等の物理リソースは、分割されて複数の仮想サーバVSに割り当てられる。
ここでは、物理サーバPS1,PS2にそれぞれ一つの仮想サーバVS1,VS2が配置され、物理サーバPS3に2つの仮想サーバVS3,VS4が配置され、物理サーバPS4,SP5,PS6にそれぞれ一つの仮想サーバVS5,VS6,VS7が配置され、物理サーバPS7に2つの仮想サーバVS8,VS9が配置され、物理サーバPS10に一つの仮想サーバVS10が配置されている。
図2は、前記NW運用管理サーバ1の主要部の構成を示したブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。
リソース使用量検知部10は、各物理サーバPSに配置されている各仮想サーバVSの実際のリソース使用量を検知する。必要リソース量算出部11は、各仮想サーバVSの必要リソース量を前記リソース使用量に基づいて算出する。物理サーバ管理部12は、各物理サーバPSの物理リソースおよび優先度を管理する。
再配置設計部13は、全ての仮想サーバVSに対して必要リソース量が割り当てられるように、各仮想サーバVSの必要リソース量、ならびに各物理サーバPSの物理リソースおよび優先度に基づいて、各物理サーバPSへの仮想サーバVSの再配置を設計する。
すなわち、前記再配置設計部13による各物理サーバへの仮想サーバの再配置設計は、各物理サーバのネットワークセグメントを考慮することなく、例えば必要リソース量算出部11により算出された各仮想サーバVSの必要リソース量の和が、再配置後も移動先の物理サーバの物理リソースを超えないように、各物理サーバの優先度に従って割り当てることにより行われる。
グルーピング部14は、前記再配置設計部13による設計通りに各仮想サーバを再配置する。グルーピング部14はさらに、設計通りの再配置のためには仮想サーバVSがネットワークセグメントNSを超えて物理サーバPS間を移動する必要がある場合に、ルータRやスイッチSW1,SW2,SW3のVLAN設定を変更すことで、各物理サーバPSのネットワークセグメントNSを変更する。
NW機器管理部16は、ネットワークのトポロジを管理する。起動停止制御部17は、再配置により仮想サーバVSが配置されなくなる物理サーバPSを停止させる一方、再配置により仮想サーバVSが配置されることになる物理サーバPSを新たに起動する。前記起動停止制御部17はさらに、前記再配置により停止される物理サーバPSのみに接続されているネットワーク機器を停止させる一方、前記再配置により起動される物理サーバPSに接続されている停止中のネットワーク機器を再起動する。
次いで、図3のフローチャートを参照して本実施形態の動作を詳細に説明する。ここでは初めに、図1に示したように各仮想サーバVSが各物理サーバPSに配置されている状態から、図8に示したように各仮想サーバVSが一部の物理サーバPSに再配置される場合の動作を説明し、次いで、図8の状態から再び図1の状態に再配置される場合の動作を説明する。
ステップS1では、前記リソース使用量検知部10により、各物理サーバPS上の全ての仮想サーバVS1〜VS10から、現在のリソース使用量が取得される。本実施形態では、各仮想サーバVSにおけるプロセッサ、メモリ、HDDおよびネットワーク帯域などのリソース使用量が検知される。ステップS2では、前記必要リソース量算出部11において、前記リソース使用量検知部10により取得された各仮想サーバVSの現在のリソース使用量に、再配置実行後のリソース使用量の増加に備えた余剰割当率が乗じられて、再配置後の各仮想サーバVSの必要リソース量が算出される。本実施形態では、余剰割当率として、例えば1.0以上の係数が用いられる。
ステップS3では、全ての仮想サーバVSに、その必要リソース量が割り当てられるように、前記再配置設計部13において、各仮想サーバVSの必要リソース量ならびに各物理サーバPSの物理リソースおよび優先度に基づいて、各物理サーバPSへの各仮想サーバVSの配置が設計される。
本実施形態では、(1)仮想サーバVSの必要リソース量の合計が配置先の物理サーバPSの物理リソースを超えず、(2)稼働する物理サーバ数が最小となり、(3)優先度の高い物理サーバへ仮想サーバが優先的に配置され、かつ(4)異なるリソースプールに束ねられた物理サーバ上で動作していた仮想サーバは同じ物理サーバに配置しない、という条件下で配置が設計される。
なお、前記条件(1)は、例えば物理サーバPSに実装されているHDDの容量が1テラバイトであれば、当該物理サーバPSに配置される全ての仮想サーバのHDD必要リソース量の合計が1テラバイト以下となるように配置が設計されることを意味する。前記条件(3)に関して、本実施形態ではスイッチSW1に接続されている4つの物理サーバPS1,PS2,PS3,PS4の優先度が他の物理サーバの優先度よりも高く設定されている。前記条件(4)は、例えば図1を例にして説明すれば、仮想サーバVS5が配置されている物理サーバPS4のリソースプールRP1と、仮想サーバVS6が配置されている物理サーバPS5のリソースプールRP2とは異なるので、仮想サーバVS5,VS6は同一の物理サーバに再配置しないことを意味する。
ここでは、図4に一覧表示したように、優先順位の高い4つの物理サーバPS1,PS2,PS3,PS4が稼働を継続され、残り4つの物理サーバPS5,PS6,PS7,PS8が稼働を停止され、物理サーバPS1には3つの仮想サーバVS1,VS2,VS3が配置され、物理サーバPS2には2つの仮想サーバVS4,VS5が配置され、物理サーバPS3には3つの仮想サーバVS6,VS7,VS8が配置され、物理サーバPS4には2つの仮想サーバVS9,VS10が配置されるように設計されたものとして説明を続ける。
なお、後にステップS7,S15の「グループ分け変更」で詳述するように、本実施形態では、第2リソースールRP2に束ねられている物理サーバPS5,PS6,PS7,PS8に配置されている仮想サーバVS6,VS7,VS8,VS9,VS10を、第1リソースプルプールRP1に束ねられている物理サーバPS3,PS4に配置できるようにするために、各仮想サーバを動作させる物理サーバを利用状況に応じて動的に変更するのと連動して、ルータRやスイッチSW1,SW2,SW3のVLAN設定を変更することにより、物理サーバPS3,PS4の接続先が物理サーバPS5,PS6,PS7,PS8と同じネットワークセグメントに動的に変更される。
図3へ戻り、ステップS4では、稼働する物理サーバPSの台数が仮想サーバの再配置後に増加するか否かが判定され、ここでは、稼働する物理サーバPSが8台から4台に減少するのでステップS5へ進む。ステップS5では、リソースプールRPの一つが今回の注目リソースプールとして選択される。ここでは、初めに第1リソースプールRP1が選択されたものとして説明を続ける。
ステップS6では、仮想サーバの再配置後に注目リソースプール(第1リソースプールRP1)に束ねられる全ての物理サーバPSが、既に第一リソースプールRP1に束ねられているか否かが判定される。ここでは、再配置後の第1リソースプールRP1に束ねられる2つの物理サーバPS1,PS2が既に第一リソースプールRP1に束ねられているのでステップS8へ進む。ステップS8では、前記再配置部15により、注目リソースプール(第1リソースプールRP1)内で仮想サーバの再配置が行われる。
図5は、ステップS8で仮想サーバVSが再配置された直後の配置状態を示した図であり、第1リソースプールRP1では、物理サーバPS1に3つの仮想サーバVS1,VS2,VS3が配置され、物理サーバPS2には2つの仮想サーバVS4,VS5が配置され、物理サーバPS3,PS4には仮想サーバが配置されていない。
図3へ戻り、ステップS9では、未だ注目していないリソースプールが存在するか否かが判定され、ここでは第2リソースプールRP2が存在するので、前記ステップS5へ戻って第2リソースプールRP2が注目リソースプールとして選択される。
ステップS6では、仮想サーバの再配置後に注目リソースプール(第2リソースプールRP2)に束ねられる全ての物理サーバPSが、既に第2リソースプールRP2に束ねられているか否かが判定される。ここでは、再配置後の第2リソースプールRP2に束ねられる2つの物理サーバPS3,PS4が未だ第2リソースプールRP2に束ねられていないのでステップS7へ進む。ステップS7では、第2リソースプールRP2に束ねられていない2つの物理サーバPS3,PS4が第2リソースプールRP2に束ねられるように、前記グルーピング部14によりルータRおよびスイッチSW1,SW2,SW3の設定が変更され、2つの物理サーバPS3、PS4が物理サーバPS5,PS6,PS7,PS8と同じネットワークセグメントに接続される。また、2つの物理サーバPS3,PS4のアドレスも、必要に応じて物理サーバPS5,PS6,PS7,PS8と同じネットワークセグメントのものに変更される。
図6は、ステップS7でグループ分けが変更された直後の割当状態を示した図であり、それまで第1リソースプールRP1に束ねられていた2つの物理サーバPS3,PS4が第2リソースプールRP2に束ねられている。
図3へ戻り、ステップS8では、前記再配置部15により、今回の注目リソースプール(第2リソースプールRP2)内で仮想サーバが再配置される。図7は、ステップS8で再配置が行われた直後の配置状態を示した図であり、第2リソースプールRP2では、物理サーバPS3に3つの仮想サーバVS6,VS7,VS8が再配置され、物理サーバPS4に2つの仮想サーバVS9,VS10が配置され、物理サーバPS5,PS6,PS7,PS8には仮想サーバが配置されていない。
図3へ戻り、ステップS10では、前記起動停止制御部17により、前記仮想サーバの再配置および物理サーバのグループ変更により使用されなくなるネットワーク機器、すなわち4台の物理サーバPS5,PS6,PS7,PS8およびスイッチSW2が停止される。本実施形態では、各ネットワーク機器の電源がオフにされるか、あるいはスリープモード等の省電力モードへ移行される。図8は、当該時点での仮想サーバVSの配置状態および各機器の稼働状態を模式的に示したブロック図であり、データセンタDCではネットワークが停止されている。
このように、本実施形態によれば、各仮想サーバを動作させる物理サーバを利用状況に応じて動的に変更するのと連動して、仮想サーバVSが移動する先の物理サーバPSのネットワークセグメントを変更できるので、仮想サーバVSはネットワークセグメントを超えて物理サーバPS間を移動できるようになる。したがって、空調設備や照明設備が共通の物理サーバPSへ優先的に仮想サーバVSを配置したり、あるいは共通のネットワーク機器に接続されている物理サーバPSへ優先的に仮想サーバVSを配置したりすれば、効率的な省力化が可能になる。
すなわち、図7,8に示した例であれば、物理サーバPS1,PS2,PS3,PS4の設置されている部屋1の空調設備や照明設備のみを稼働させ、物理サーバPS5,PS6,PS7,PS8の設置されている部屋2の空調設備や照明設備を停止させれば、効率的な省力化が可能になる。
次いで、図8に示した配置/稼働状態から図1に示した配置/稼働状態へ移行する際の動作を、図3のフローチャートに沿って詳細に説明する。
ステップS1からステップS3では、前記と同様の処理が実行されて図1の再配置が設計される。ステップS4では、稼働する物理サーバPSの台数が仮想サーバの再配置後に増加するか否かが判定される。ここでは、稼働する物理サーバPSが4台から8台に増加するのでステップS12へ進む。ステップS12では、使用を開始される機器が起動される。ここでは、停止中の物理サーバPS5、PS6、PS7、PS8およびスイッチSW2が、前記起動停止制御部17により起動される。
ステップS13では、リソースプールRPの一つが今回の注目リソースプールとして選択される。ここでは、前記物理サーバPSが減少する場合とは逆順で、第2リソースプールRP2が今回の注目リソースプールとして選択される。ステップS14では、仮想サーバVSの再配置後に今回の注目リソースプール(第2リソースプールRP2)に束ねられる全ての物理サーバPSが、既に第2リソースプールRP2に束ねられているか否かが判定される。ここでは、再配置後に第2リソースプールRP2に束ねられる4つの物理サーバPS5,PS6,PS7,PS8が未だ束ねられていないのでステップS15へ進む。
ステップS15では、起動された4つの物理サーバPS5,PS6,PS7,PS8が第2リソースプールRP2に束ねられるように、前記グルーピング部14によりルータR1およびスイッチSW1,SW2,SW3の設定が変更される。また、4つの物理サーバPS5,PS6,PS7,PS8のアドレスも、必要に応じて物理サーバPS3,PS4と同じネットワークセグメントのものに変更される。これにより、仮想サーバの配置/稼働状態は、前記図7に示した通りになる。
ステップS16では、前記再配置部15により、今回の注目リソースプール(第2リソースプールRP2)内で仮想サーバが再配置される。すなわち、物理サーバPS3,PS4では仮想サーバが全て移動され、物理サーバPS5,PS6には、それぞれ仮想サーバVS6,VS7が配置され、物理サーバPS7には2つの仮想サーバVS8,VS9が配置され、物理サーバPS8には仮想サーバVS10が配置される。これにより、仮想サーバの配置は前記図6に示した通りになる。
ステップS17では、未だ注目していないリソースプールが存在するか否かが判定され、ここでは第1リソースプールRP1が存在するので、前記ステップS13へ戻って第1リソースプールRP1が注目リソースプールとして選択される。
ステップS14では、仮想サーバの再配置後に今回の注目リソースプール(第1リソースプールRP1)に束ねられる全ての物理サーバPSが、既に第1リソースプールRP1に束ねられているか否かが判定される。ここでは、再配置後に第1リソースプールRP1に束ねられる4つの物理サーバPS1,PS2,PS3,PS4のうち、2つの物理サーバPS3,PS4が未だ束ねられていないのでステップS15へ進む。ステップS15では、第2リソースプールRP2に束ねられている2つの物理サーバPS3、PS4が第1リソースプールRP1に束ねられるように、前記グルーピング部14によりルータRおよびスイッチSW1,SW2,SW3の設定が変更される。また、2つの物理サーバPS3,PS4のアドレスも、必要に応じて物理サーバPS1,PS2と同じネットワークセグメントのものに変更される。これにより、仮想サーバの配置/稼働状態は、前記図5に示した通りになる。
ステップS16では、前記再配置部15により、今回の注目リソースプール(第1リソースプールRP1)内で仮想サーバが再配置される。すなわち、物理サーバPS1,PS2には、それぞれ仮想サーバVS1,VS2が配置され、物理サーバPS3には2つの仮想サーバVS3,VS4が配置され、物理サーバPS4には仮想サーバVS5が配置される。これにより、仮想サーバの配置/稼働状態は、前記図1に示した通りになる。
本発明が適用されるネットワークの構成を模式的に示したブロック図である。 ネットワーク運用管理サーバの主要部の構成を示したブロック図である。 本発明の一実施形態の動作を示したフローチャートである。 再配置の設計結果の一例を一覧表示した図である。 ステップS8,S16で仮想サーバが再配置された直後の状態を模式的に示したブロック図である。 ステップS7,S15で物理サーバのグループ分けが変更された直後の状態を模式的に示したブロック図である。 ステップS8,S16で仮想サーバが再配置された直後の状態を模式的に示したブロック図である。 ステップS10で機器を停止させた直後の状態を模式的に示したブロック図である。 トラヒック量および消費電力量の推計を示した図である。 従来の仮想化技術を利用した運用最適化方法を模式的に示したブロック図である。 従来の仮想化技術を利用した運用最適化方法を模式的に示したブロック図である。 理想的な運用最適化方法の一例を模式的に示したブロック図である。
符号の説明
10…リソース使用量検知部,11…必要リソース量算出部,12…物理サーバ管理部,13…再配置設計部,14…グルーピング部,15…再配置部,16…NW機器管理部,17…起動停止制御部

Claims (6)

  1. 複数の物理サーバのそれぞれを論理的に少なくとも一台の仮想サーバとして動作させ、物理サーバ間で仮想サーバを移動させることにより各物理サーバに配置される仮想サーバを動的に変更するネットワークの運用管理装置において、
    各物理サーバに配置されている各仮想サーバのリソース使用量を検知するリソース使用量検知手段と、
    各仮想サーバの必要リソース量を前記リソース使用量に基づいて算出する必要リソース量算出手段と、
    各仮想サーバにその必要ソース量が割り当てられるように、各仮想サーバの必要リソース量および各物理サーバの物理リソースに基づいて、各物理サーバへの各仮想サーバの再配置を設計する再配置設計手段と、
    各仮想サーバのネットワークセグメントが再配置後も変更されないように、仮想サーバが移動する先の物理サーバのネットワークセグメントを論理的に変更するグルーピング手段と、
    前記再配置の設計結果に基づいて、各物理サーバへ各仮想サーバを再配置する再配置手段とを具備したことを特徴とするネットワークの運用管理装置。
  2. 仮想サーバが配置されなくなった物理サーバを停止させる手段をさらに含むことを特徴とする請求項1に記載のネットワークの運用管理装置。
  3. 前記停止される物理サーバのみと接続されているネットワーク機器を停止させる手段をさらに含むことを特徴とする請求項2に記載のネットワークの運用管理装置。
  4. 仮想サーバが配置されることになった物理サーバを起動する手段をさらに含むことを特徴とする請求項1に記載のネットワークの運用管理装置。
  5. 前記起動される物理サーバと接続されている停止中のネットワーク機器を起動する手段をさらに含むことを特徴とする請求項4に記載のネットワークの運用管理装置。
  6. 複数の物理サーバのそれぞれを論理的に少なくとも一台の仮想サーバとして動作させ、各仮想サーバを、そのリソース使用量に基づいて物理サーバ間で動的に移動させるネットワークの運用管理方法において、
    各物理サーバに配置されている各仮想サーバのリソース使用量を検知する手順と、
    各仮想サーバの必要リソース量を前記リソース使用量に基づいて算出する手順と、
    各仮想サーバにその必要ソース量が割り当てられるように、各仮想サーバの必要リソース量および各物理サーバの物理リソースに基づいて、各物理サーバへの各仮想サーバの再配置を設計する手順と、
    各仮想サーバのネットワークセグメントが再配置後も変更されないように、仮想サーバが移動する先の物理サーバのネットワークセグメントを論理的に変更する手順と、
    前記再配置の設計結果に基づいて、各物理サーバへ各仮想サーバを再配置する手順とを具備したことを特徴とするネットワークの運用管理方法。
JP2008185995A 2008-07-17 2008-07-17 ネットワーク運用管理方法および装置 Expired - Fee Related JP5006280B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008185995A JP5006280B2 (ja) 2008-07-17 2008-07-17 ネットワーク運用管理方法および装置
US12/502,563 US8103778B2 (en) 2008-07-17 2009-07-14 Network operations management method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008185995A JP5006280B2 (ja) 2008-07-17 2008-07-17 ネットワーク運用管理方法および装置

Publications (3)

Publication Number Publication Date
JP2010026699A JP2010026699A (ja) 2010-02-04
JP2010026699A5 JP2010026699A5 (ja) 2011-03-17
JP5006280B2 true JP5006280B2 (ja) 2012-08-22

Family

ID=41531255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008185995A Expired - Fee Related JP5006280B2 (ja) 2008-07-17 2008-07-17 ネットワーク運用管理方法および装置

Country Status (2)

Country Link
US (1) US8103778B2 (ja)
JP (1) JP5006280B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5206750B2 (ja) * 2010-08-09 2013-06-12 サンケン電気株式会社 電源装置およびプログラム
JP5476261B2 (ja) 2010-09-14 2014-04-23 株式会社日立製作所 マルチテナント型情報処理システム、管理サーバ及び構成管理方法
US8954962B2 (en) * 2010-09-22 2015-02-10 Juniper Networks, Inc. Automatically reconfiguring physical switches to be in synchronization with changes made to associated virtual system
JP5720324B2 (ja) * 2011-03-11 2015-05-20 日本電気株式会社 シンクライアント環境提供システム、サーバ、シンクライアント環境管理方法、及びシンクライアント環境管理プログラム
JP5664376B2 (ja) * 2011-03-17 2015-02-04 日本電気株式会社 仮想計算機割り当てシステム、及び仮想計算機割り当て方法
JP5691062B2 (ja) 2011-04-04 2015-04-01 株式会社日立製作所 仮想計算機の制御方法及び管理計算機
JP5370946B2 (ja) * 2011-04-15 2013-12-18 株式会社日立製作所 リソース管理方法及び計算機システム
WO2012164624A1 (ja) * 2011-06-01 2012-12-06 株式会社日立製作所 仮想マシンのリソース管理装置及び管理方法
JP5707239B2 (ja) * 2011-06-02 2015-04-22 株式会社日立製作所 マルチテナント型情報処理システム、管理サーバ及び構成管理方法
US9792419B2 (en) * 2011-08-11 2017-10-17 Alcatel-Lucent Usa Inc. Starvationless kernel-aware distributed scheduling of software licenses
US20130050246A1 (en) * 2011-08-22 2013-02-28 Timothy G. Barry Methods and apparatus to monitor computing resources
JP5836042B2 (ja) * 2011-10-04 2015-12-24 株式会社日立製作所 管理サーバプログラム
JP5768651B2 (ja) 2011-10-21 2015-08-26 富士通株式会社 通信装置、通信方法、および、通信プログラム
EP2974134A4 (en) * 2013-03-15 2016-08-03 Hewlett Packard Development Co ENERGY-BASED NETWORK RESTRUCTURING
JP6020273B2 (ja) * 2013-03-19 2016-11-02 富士通株式会社 監視装置,情報処理システム,監視方法および監視プログラム
US9998531B2 (en) * 2013-09-18 2018-06-12 International Business Machines Corporation Computer-based, balanced provisioning and optimization of data transfer resources for products and services
GB2518894A (en) 2013-10-07 2015-04-08 Ibm A method and a system for operating programs on a computer cluster
CN104219096B (zh) * 2014-09-05 2018-03-20 东软集团股份有限公司 一种资源重配置方法及装置
WO2016121879A1 (ja) * 2015-01-29 2016-08-04 日本電気株式会社 仮想化制御装置、配置先選択方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7577722B1 (en) * 2002-04-05 2009-08-18 Vmware, Inc. Provisioning of computer systems using virtual machines
JP3861087B2 (ja) * 2003-10-08 2006-12-20 株式会社エヌ・ティ・ティ・データ 仮想マシン管理装置及びプログラム
JP4800837B2 (ja) * 2006-05-22 2011-10-26 株式会社日立製作所 計算機システム、その消費電力低減方法、及びそのプログラム
JP5317010B2 (ja) * 2006-11-24 2013-10-16 日本電気株式会社 仮想マシン配置システム、仮想マシン配置方法、プログラム、仮想マシン管理装置およびサーバ装置
US7801994B2 (en) * 2007-11-29 2010-09-21 Hitachi, Ltd. Method and apparatus for locating candidate data centers for application migration
US8013859B2 (en) * 2008-03-20 2011-09-06 Vmware, Inc. Graphical display for illustrating effectiveness of resource management and resource balancing

Also Published As

Publication number Publication date
US8103778B2 (en) 2012-01-24
JP2010026699A (ja) 2010-02-04
US20100017517A1 (en) 2010-01-21

Similar Documents

Publication Publication Date Title
JP5006280B2 (ja) ネットワーク運用管理方法および装置
JP5840548B2 (ja) データセンタ内のリソースの使用効率を改善するための方法及び装置
US8924534B2 (en) Resource optimization and monitoring in virtualized infrastructure
JP5137709B2 (ja) アプリケーションマイグレーションのための候補データセンタを見つける方法および装置[0001]
US8914513B2 (en) Hierarchical defragmentation of resources in data centers
EP2304565B1 (en) Method and system for power management in a virtual machine environment withouth disrupting network connectivity
US8082400B1 (en) Partitioning a memory pool among plural computing nodes
US8745237B2 (en) Mapping of queues for virtual machines
JP2012094119A (ja) 仮想マシン間の通信
JP6190969B2 (ja) マルチテナントリソース調停方法
US9477286B2 (en) Energy allocation to groups of virtual machines
KR101694518B1 (ko) 가상 노드 배치 관리 시스템 및 방법
WO2013029487A1 (zh) 一种资源分配方法及资源管理平台
US9705741B2 (en) Dynamically allocating network addresses
US20110307716A1 (en) Global control policy manager
WO2014026374A1 (zh) 服务器系统、管理方法及设备
WO2014101086A1 (zh) 存储空间的处理方法、装置及非易失性计算机可读存储介质
US20140237088A1 (en) Managing imaging of computing devices
JP2010286923A (ja) キャッシュ制御装置及び方法
Ch et al. Energy efficient VM scheduling and routing in multi-tenant cloud data center
WO2016082078A1 (zh) 路径管理的系统、装置和方法
US11301278B2 (en) Packet handling based on multiprocessor architecture configuration
JP2018516410A (ja) ストレージデバイスを管理するための方法および装置
CN102546347B (zh) 基于proc技术的虚拟串口热插拔的实现方法及系统
Shelar et al. Autonomic and energy-aware resource allocation for efficient management of cloud data centre

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120502

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120524

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees