JP2008210001A - サーバ移行計画作成システム、サーバ移行計画作成方法 - Google Patents

サーバ移行計画作成システム、サーバ移行計画作成方法 Download PDF

Info

Publication number
JP2008210001A
JP2008210001A JP2007043787A JP2007043787A JP2008210001A JP 2008210001 A JP2008210001 A JP 2008210001A JP 2007043787 A JP2007043787 A JP 2007043787A JP 2007043787 A JP2007043787 A JP 2007043787A JP 2008210001 A JP2008210001 A JP 2008210001A
Authority
JP
Japan
Prior art keywords
migration
server
servers
migration destination
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007043787A
Other languages
English (en)
Other versions
JP4853717B2 (ja
Inventor
Ikudai Ajiro
育大 網代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007043787A priority Critical patent/JP4853717B2/ja
Priority to US12/022,397 priority patent/US7743148B2/en
Publication of JP2008210001A publication Critical patent/JP2008210001A/ja
Application granted granted Critical
Publication of JP4853717B2 publication Critical patent/JP4853717B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0889Techniques to speed-up the configuration process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • H04L41/0897Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities by horizontal or vertical scaling of resources, or by migrating entities, e.g. virtual resources or entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/20Arrangements for monitoring or testing data switching networks the monitoring system or the monitored elements being virtualised, abstracted or software-defined entities, e.g. SDN or NFV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • H04L41/0826Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • H04L41/0833Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network energy consumption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer And Data Communications (AREA)

Abstract

【課題】サーバ移行に際し、好適な移行計画を作成すること。
【解決手段】移行計画作成システム1は、記憶装置3とプロセッサ2を備える。記憶装置3には、移行元サーバのそれぞれの資源使用量を示すデータDSと、移行先サーバのそれぞれの資源容量を示すデータDDとが格納される。プロセッサ2は、資源使用量の降順で移行元サーバを1つずつ選択し、また、移行先サーバのうちいずれかを選択する。プロセッサ2は、選択された移行元サーバの資源使用量と選択された移行先サーバの資源容量の残量を比較する。資源使用量が残量より大きい場合、プロセッサ2は、別の移行先サーバを選択した後、上記比較を再度行う。資源使用量が残量以下の場合、プロセッサ2は、選択された移行元サーバを選択された移行先サーバに割り当てる。
【選択図】図4

Description

本発明は、サーバ移行のための技術に関する。特に、本発明は、サーバの移行計画を作成するためのシステム、方法及びプログラムに関する。
VMwareやXenといった仮想化ソフトウェアを用いた仮想化技術によって、1台の物理サーバを複数の仮想サーバとして稼働させることができる。その結果、状況に応じてサーバ運用を効率化することが容易になってきている(特許文献1参照)。また、仮想化技術によって、サーバの移行を簡単に行うことも可能となってきている。サーバ移行とは、例えば次のようなものである。
図1は、サーバ移行の一例としての「サーバ統合」を概念的に示している。図1において、既存の5台の物理サーバM1〜M5で運用が行われているとする。これら物理サーバM1〜M5による処理が、3台の高性能の物理サーバM6〜M8に集約されるとする。例えば、物理サーバM1及びM2が、物理サーバM6上で動作する仮想サーバVM1及びVM2にそれぞれ置き換えられる。また、物理サーバM3が、物理サーバM7上で動作する仮想サーバVM3に置き換えられる。更に、物理サーバM4及びM5が、物理サーバM8上で動作する仮想サーバVM4及びVM5にそれぞれ置き換えられる。図1で示された例では、5台の物理サーバM1〜M5が「移行元サーバ群」であり、3台の物理サーバM6〜M8が「移行先サーバ群」である。このようなサーバ統合は、サーバ台数の削減を通じて占有面積や電力使用量を削減し、運用管理コストの削減に大きく貢献する。
図2は、サーバ移行の他の例としての「サーバ組替」を概念的に示している。図2において、物理サーバM1〜M3上で動作する仮想サーバVM1〜VM5で運用が行われているとする。処理量の多い昼間、仮想サーバVM1、VM2は物理サーバM1上に構築され、仮想サーバVM3、VM4は物理サーバM2上に構築され、仮想サーバVM5は物理サーバM3上に構築される。一方、処理量の少ない夜間、仮想サーバVM1、VM2、VM4は物理サーバM1上に構築され、仮想サーバVM3、VM5は物理サーバM2上に構築され、物理サーバM3は使用されない。このように、状況に応じてサーバ台数が削減され、運用管理コストが削減される。図2で示された例では、昼間あるいは夜間の仮想サーバVM1〜VM5が「移行元サーバ群」であり、物理サーバM1〜M3が「移行先サーバ群」である。
以上に説明されたように、サーバ移行は、運用管理コストの観点から重要である。そのサーバ移行においては、移行後のサーバ台数を見積もるとともに、各移行元サーバをどの移行先サーバに割り当てるかを示す「移行計画」を策定する必要がある。その移行計画が満たすべき基本点な条件は、計算機資源(リソース)の包含関係である。すなわち、ある移行先サーバに割り当てられる移行元サーバの「資源使用量」の合計は、その移行先サーバの「資源容量」を超えてはならない。ここで、計算機資源とは、CPUのほか、ディスクやメモリ、ネットワーク等を指す。
一方、コストの観点からは、移行後のサーバ台数がより少なくなるような移行計画が好適である。容量が一定の容器に様々なサイズの品物を詰めるとき、その品物の集合に対して必要となる容器の最小の個数を見つける問題は、一般に「ビンパッキング問題」と呼ばれている。そのビンパッキング問題に関して、現実的な時間内に最適解を見つけることは極めて難しいことが知られている。近似的な解法アルゴリズムとしては、「First−Fit減少(FFD)アルゴリズム」などが知られている(非特許文献1参照)。
特許文献2には、並列計算機の負荷分散方法が記載されている。その並列計算機は、複数の計算機から構成されており、複数の構成プログラムから構成される並列プログラムを実行する。複数の構成プログラムが複数の計算機に割り当てられる際、構成プログラム自身が計算機にかける負荷が考慮され、負荷分散が行われる。具体的には、履歴採取プログラムが、各構成プログラムの資源使用率を採取する。更に、スケジューラが、各計算機の現在の資源使用率を参照し、資源使用率の大きい構成プログラムを、現在の資源使用率の小さい計算機に割り当てる。すなわち、スケジューラは、負荷の高い処理を、余力の大きな計算機に割り当てる。
特開2005−115653号公報 特開平10−27167号公報 B.コルテ,J.フィーゲン著,浅野孝夫他訳,「組合せ最適化 理論とアルゴリズム」,シュプリンガー・フェアラーク東京,2005年11月3日,pp.470−472.
本発明の1つの目的は、適切な範囲内のサーバ台数へのサーバ移行計画を機械的に作成することができる技術を提供することにある。
また、既存のビンパッキング問題では、容器のサイズはすべて一定である。しかしながら、実際のサーバ移行処理においては、資源容量の異なる複数の移行先サーバが用いられることが多い。従って、本発明の他の目的は、移行先サーバの資源容量が互いに異なる場合でも移行計画を作成することができる技術を提供することにある。
更に、実際のサーバ移行処理においては、移行元サーバの移行先サーバに対する割当に関して、様々な制約(以下、「割当制約」と参照される)が与えられる場合がある。割当制約の例としては、「ある移行元サーバを特定の移行先サーバに移行する」、「ある2つの移行元サーバを同じ移行先サーバに移行してはならない」などが挙げられる。しかしながら、上述のFFDアルゴリズムは、このような割当制約に対する処理をサポートしていない。従って、本発明の更に他の目的は、与えられる割当制約を扱うことができ、その割当制約に適合する移行計画を作成することができる技術を提供することにある。
以下に、[発明を実施するための最良の形態]で使用される番号・符号を用いて、[課題を解決するための手段]を説明する。これらの番号・符号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]との対応関係を明らかにするために括弧付きで付加されたものである。ただし、それらの番号・符号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。
本発明によれば、サーバ移行技術が提供される。具体的には、m台の移行元サーバ(100−0〜100−(m−1):mは2以上の整数)から少なくともN台の移行先サーバ(200−0〜200−(N−1):Nは1以上の整数)へのサーバ移行の計画を作成する技術が提供される。N台の移行先サーバ(200−0〜200−(N−1))の資源容量はそれぞれ異なっていてもよい。
本発明の第1の観点において、サーバ移行計画システム(1)が提供される。その移行計画作成システム(1)は、記憶装置(3)とプロセッサ(2)を備える。記憶装置(3)には、移行元サーバ(i:0〜(m−1))のそれぞれの資源使用量(W(i))を示す第1データ(DS)と、移行先サーバ(j:0〜(N−1))のそれぞれの資源容量(U(j))を示す第2データ(DD)とが格納される。プロセッサ(2)は、第1データ(DS)及び第2データ(DD)に基づいて、それぞれの移行元サーバ(i)の移行先(A(i))を移行先サーバ(j)のいずれかに割り当てる。
より詳細には、プロセッサ(2)は、次のパッキング処理を行う。すなわち、プロセッサ(2)は、資源使用量(W(i))の降順(k)で移行元サーバ(i)を1つずつ選択する。また、プロセッサ(2)は、移行先サーバ(j)のうちいずれかを選択する。そして、プロセッサ(2)は、選択された移行元サーバ(S(k))の資源使用量である対象使用量(W(S(k)))と選択された移行先サーバの資源容量の残量(U(j)−X(j))との比較を行う。対象使用量(W(S(k)))が残量(U(j)−X(j))より大きい場合、プロセッサ(2)は、別の移行先サーバ(j)を選択した後、上記比較を再度行う。一方、対象使用量(W(S(k)))が残量(U(j)−X(j))以下の場合、プロセッサ(2)は、選択された移行元サーバ(S(k))を選択された移行先サーバ(j)に割り当てる。また、対象使用量(W(S(k)))がN台の移行先サーバ(j)のいずれの残量(U(j)−X(j))より大きい場合、プロセッサ(2)は、選択された移行元サーバ(S(k))を、N台の移行先サーバ(200−0〜200−(N−1))とは異なり且つ所定の資源容量(U)を有する移行先サーバ(200−X)に割り当てる。
上記パッキング処理において、好適には、プロセッサ(2)は、N台の移行先サーバから比較の対象を、資源容量(U(j))の昇順で選択する。
記憶装置(3)には更に、移行元サーバ(i)と移行先サーバ(j)との間の割当関係(A(i)=j)に関する割当制約を示す第3データ(CON)が格納されてもよい。その場合、プロセッサ(2)は、第1データ(DS)、第2データ(DD)及び第3データ(CON)に基づいて、上記割当制約が満たされるように、それぞれの移行元サーバ(i)の移行先(A(i))を移行先サーバ(j)のいずれかに割り当てる。
本発明の第2の観点において、移行計画作成方法が提供される。その移行計画作成方法は、(A)移行元サーバ(i:0〜(m−1))のそれぞれの資源使用量(W(i))を示す第1データ(DS)を、記憶装置(3)から読み込むステップと、(B)移行先サーバ(j:0〜(N−1))のそれぞれの資源容量(U(j))を示す第2データ(DD)を、記憶装置(3)から読み込むステップと、(C)第1データ(DS)及び第2データ(DD)に基づいて、それぞれの移行元サーバ(i)の移行先(A(i))を移行先サーバ(j)のいずれかに割り当てるステップと、を有する。
上記(C)ステップは、(C1)資源使用量(W(i))の降順(k)で移行元サーバ(i)を1つずつ選択し、また、移行先サーバ(j)のうちいずれかを選択するステップと、(C2)選択された移行元サーバ(S(k))の資源使用量である対象使用量(W(S(k)))と選択された移行先サーバ(j)の資源容量の残量(U(j)−X(j))との比較を行うステップと、(C3)対象使用量(W(S(k)))が残量(U(j)−X(j))より大きい場合、別の移行先サーバ(j)を選択した後、上記(C2)ステップを再度行うステップと、(C4)対象使用量(W(S(k)))が残量(U(j)−X(j))以下の場合、選択された移行元サーバ(S(k))を選択された移行先サーバ(j)に割り当てるステップと、を含む。上記(C)ステップは更に、(C5)対象使用量(W(S(k)))がN台の移行先サーバ(j)のいずれの残量(U(j)−X(j))より大きい場合、選択された移行元サーバ(S(k))を、N台の移行先サーバ(200−0〜200−(N−1))とは異なり且つ所定の資源容量(U)を有する移行先サーバ(200−X)に割り当てるステップを含んでもよい。
本発明に係る移行計画作成方法は、更に、(D)移行元サーバ(i)と移行先サーバ(j)との間の割当関係(A(i)=j)に関する割当制約を示す第3データ(CON)を、記憶装置(3)から読み込むステップを有してもよい。その場合、上記(C)ステップにおいては、読み込まれた割当制約が満たされるように、それぞれの移行元サーバ(i)の移行先(A(i))が移行先サーバ(j)のいずれかに割り当てられる。
本発明の第3の観点において、移行計画作成プログラム(10)が提供される。その移行計画作成プログラム(10)は、上述の移行計画作成方法をコンピュータに実行させる。
本発明によれば、適切な範囲内のサーバ台数へのサーバ移行計画を機械的に作成することが可能となる。特に、移行先サーバの資源容量が互いに異なる場合でも、好適な移行計画を機械的に作成することが可能となる。その結果、システム設計者にかかる負担が軽減され、また、サーバ移行に要する時間が削減される。あるいは、移行後のサーバ台数が少なくなるような移行計画を作成することが可能となる。その結果、サーバの運用管理コストが削減される。あるいは、本発明によれば、与えられた割当制約に適合する好適な移行計画を作成することが可能となる。
添付図面を参照して、本発明の実施の形態に係るサーバ移行技術を説明する。
図3は、サーバの移行を概念的に示している。移行元のサーバ群は、m台のサーバ100−0〜100−(m−1)から構成されている。mは2以上の整数である。これら移行元サーバ100の移行先として、N台のサーバ200−0〜200−(N−1)が用いられる予定であるとする。Nは1以上の整数であり、mより小さいことが好適である。例えば、mは5であり、Nは2である。但し、N台の移行先サーバ200では不十分な場合、それらとは別のサーバ200−Xが追加されるとする。つまり、m台の移行元サーバ100は、少なくともN台の移行先サーバ200に移行される。
各サーバは、実マシンであってもよいし、仮想化技術に基づいて構築される仮想マシンであってもよい。各サーバは、CPU、ディスク、メモリ、ネットワーク等の計算機資源(リソース)を使用する。従って、各移行元サーバ100に関して、その移行元サーバ100が使用していた計算機資源の量を示す「資源使用量」を定義することができる。一方、各移行先サーバ200に関して、その移行先サーバ200が使用可能な計算機資源の量(許容量)を示す「資源容量」を定義することができる。
資源使用量の一例として、CPU使用量が挙げられる。そのCPU使用量は、“CPUの相対性能値”と“CPU使用率”との積で与えられる。例えば、ある移行元サーバ100が、相対性能値80のCPUを搭載しており、CPU使用率60%を上限として稼動していた場合、当該移行元サーバ100の資源使用量は48(=80×0.60)である。移行先サーバ200の資源容量も同様に定義され得る。例えば、相対性能値120のCPUを備える移行先サーバ200を用い、CPU使用率75%を上限として運用を行う予定の場合、当該移行先サーバ200の資源容量は90(=120×0.75)となる。
図3に示されるように、移行元サーバ100のそれぞれには、ID番号として整数i(=0〜(m−1))が付与されている。それら移行元サーバiの資源使用量は、W(i)で表されており、図3の例ではW(0)=17、W(1)=23、W(2)=19、W(3)=11、W(4)=14である。同様に、移行先サーバ200のそれぞれには、ID番号として整数j(=0〜(N−1))が付与されている。それら移行先サーバjの資源容量はU(j)で表されており、図3の例ではU(0)=50、U(1)=35である。尚、追加用のサーバ200−Xの資源容量Uは、デフォルト値40である。
サーバ移行に際しては、移行元サーバ100のそれぞれをどの移行先サーバ200に割り当てるかを示す「移行計画」を策定する必要がある。すなわち、ID番号iとID番号jとの対応関係(A(i)=j)を決定する必要がある。移行計画が満たすべき基本点な条件は、上述の計算機資源の包含関係である。すなわち、ある移行先サーバjに割り当てられる移行元サーバiの資源使用量W(i)の合計は、その移行先サーバjの資源容量U(j)を超えてはならない。更に、コストの観点からは、移行後のサーバ台数n(nはN以上の整数)がより少なくなるような移行計画が好適である。このような条件を満たすような好適な移行計画を作成すること、すなわち、好適な対応関係A(i)=j)を決定することが、本発明の目的の1つである。
図4は、移行計画を作成するための移行計画作成システム1の一例を示している。移行計画作成システム1は、コンピュータシステムであり、例えば管理サーバ上に構築される。この移行計画作成システム1は、プロセッサ2、記憶装置3、入力装置4、出力装置5、ネットワークインタフェース8、メディアドライブ9を備えている。プロセッサ2はCPUを含み、各種処理を行い、また、各装置や各デバイスの動作を制御する。記憶装置3として、RAMやハードディスクが例示される。入力装置4として、キーボードやマウスが例示される。出力装置5は、表示装置6やプリンタ7を含んでいる。ユーザは、表示装置6に表示される情報を参照しながら、入力装置4を用いて各種データやコマンドを入力することができる。
記憶装置3には、移行元運用データDS、移行先容量データDD、割当制約データCONが格納される。それらデータは、入力装置4により入力されてもよいし、ネットワークインタフェース8を介して提供されてもよい。または、それらデータは、コンピュータ読み取り可能な記録媒体に記録され、メディアドライブ9によって読み込まれてもよい。
移行元運用データDSは、移行元サーバ100のそれぞれの資源使用量を示すデータである。図5は、移行元運用データDSの一例を示している。図5に示されるように、移行元運用データDSは、移行元サーバiとその資源使用量W(i)との対応を示している。資源使用量W(i)は、例えば、過去の運用実績や予測値に基づいて得られる。
移行先容量データDDは、移行先サーバ200のそれぞれの資源容量を示すデータである。図6は、移行先容量データDDの一例を示している。図6に示されるように、移行先容量データDDは、移行先サーバjとその資源容量U(j)との対応、及び資源容量のデフォルト値Uを示している。デフォルト値U(=40)は、場合によって追加されるサーバ200−Xの資源容量である。これら資源容量U(j)及びUは、移行先サーバ200の性能に基づいて得られる。また、図6に示されるように、それら資源容量U(j)、Uは、互いに異なる値とすることができる。
割当制約データCONは、移行元サーバiと移行先サーバjとの間の割当関係(A(i)=j)に関する「割当制約」を示すデータである。割当制約の例としては、「ある移行元サーバを特定の移行先サーバに移行する」、「ある2つの移行元サーバを同じ移行先サーバに移行してはならない」などが挙げられる。詳細は、後述される。
再度図4を参照して、記憶装置3には更に、移行計画データPLANが格納される。この移行計画データPLANは、移行計画作成システム1によって作成される「移行計画」を示すデータである。
記憶装置3には更に、移行計画作成プログラム10が格納される。この移行計画作成プログラム10は、プロセッサ2によって実行されるソフトウェアである。移行計画作成プログラム10は、例えば、コンピュータ読み取り可能な記録媒体に記録されており、メディアドライブ9によって読み込まれる。あるいは、移行計画作成プログラム10は、ネットワークインタフェース8を介して提供されてもよい。
プロセッサ2は、移行計画作成プログラム10を実行することによって、本発明に係る移行計画作成処理を実現する。つまり、プロセッサ2は、記憶装置3から各種データDS,DD,CONを読み出し、それらデータに基づいて、移行元サーバiのそれぞれの移行先A(i)を移行先サーバjのいずれかに割り当てる。その結果、移行計画データPLANが作成される。移行計画データPLANは、決定された割当関係(A(i)=j)、必要な移行先サーバの台数n、各移行先サーバでの資源使用量の予測値などを示す。その移行計画データPLANは、出力装置5によって外部に出力される。
以下、本発明に係る移行計画作成処理の様々な形態を詳しく説明する。その説明においては、図3〜図6で示されたケースが、例として用いられる。
1.第1の実施の形態
図7は、移行計画作成処理の第1の実施の形態を示している。本実施の形態では、プロセッサ2と移行計画作成プログラム10との協働により、資源使用量入力モジュール11、資源容量入力モジュール12、移行元ソートモジュール13、パッキングモジュール14、及び出力モジュール15が提供される。図8は、これらモジュールにより実現される処理フローを示している。図7及び図8を参照して、移行計画作成処理を俯瞰する。
ステップS11:
資源使用量入力モジュール11は、記憶装置3から移行元運用データDSを読み出す。その移行元運用データDSは、移行元サーバiのそれぞれの資源使用量(17、23、19、11、14)を示している。資源使用量入力モジュール11は、それら資源使用量を変数W(i)にそれぞれ格納する。
ステップS12:
資源容量入力モジュール12は、記憶装置3から移行先容量データDDを読み出す。その移行先容量データDDは、移行先サーバjのそれぞれの資源容量(50、35)とデフォルト値(40)を示している。資源容量入力モジュール12は、それら資源容量及びデフォルト値を、変数U(j)及び変数Uに格納する。更に、資源容量入力モジュール12は、移行先サーバjのそれぞれに関して変数X(j)を定義する。この変数X(j)は、移行先サーバjに割り当てられた移行元サーバiの資源使用量W(i)の合計値を示す。つまり、変数X(j)は、移行先サーバjの資源使用量の予測値を示す。現段階では、変数X(j)は全て0に初期設定される。以下、変数X(j)は、資源割当量X(j)と参照される。
ステップS13:
移行元ソートモジュール13は、移行元サーバiを、資源使用量W(i)の大きい順(降順)にソートする。更に、移行元ソートモジュール13は、ソート結果を配列Sに格納する。配列Sの各要素はS(k)で表されるとする(k=0〜m−1)。このとき、要素S(0)は、資源使用量W(i)が最大の移行元サーバのID番号iを示し、要素S(m−1)は、資源使用量W(i)が最小の移行元サーバのID番号iを示す。本例の場合、S=[1,2,0,4,3]、W(S(0))=23,W(S(1))=19,W(S(2))=17,W(S(3))=14,W(S(4))=11である。後に説明されるように、配列S=[1,2,0,4,3]は、割当処理の順番を意味している。
ステップS14:
パッキングモジュール14は、資源使用量W(i)、配列S、資源容量U(j)、U、及び資源割当量X(j)を用いて、「パッキング処理」を行う。このパッキング処理において、パッキングモジュール14は、移行元サーバiのそれぞれの移行先A(i)を移行先サーバjのいずれかに割り当てる。その結果、割当関係(A(i)=j)、移行先サーバの必要台数n、最終的な資源割当量X(j)が決定される。
ステップS15:
出力モジュール15は、作成された移行計画データPLANを記憶装置3に格納し、また、出力装置5に出力する。
次に、上述のパッキング処理(ステップS14)を更に詳しく説明する。図9は、本実施の形態におけるパッキング処理を示すフローチャートである。また、図10は、移行計画の作成例を示す概念図である。図10に示されるように、配列Sの要素を表すパラメータkは資源使用量W(i)の大きさの順番を示しており、k=0,1,2,3,4はそれぞれi=1,2,0,4,3に対応している。
まず、必要サーバ台数を示すパラメータnが1に初期設定される。また、上記パラメータkが0に初期設定される(ステップS101)。このパラメータkは、次に示されるループ処理のカウンタとして用いられ、初期値0から1ずつ増加していく。1回のループ処理では、S(k)で与えられるID番号の移行元サーバiが、いずれかの移行先サーバjに割り当てられる。全ての移行元サーバiに関する割当処理が終了すれば(ステップS102;No)、ループ処理は終了し、ステップS14が完了する。
パラメータkが初期値0から1ずつ増加するため、割当処理の対象は、ID番号i=1,2,0,4,3の順番で変化していく。すなわち、資源使用量W(i)の大きい順(降順)で、移行元サーバiが1つずつ割当処理の対象として選択される。資源使用量W(i)の降順で割当処理を行うことにより、全ての移行元サーバiをより少数の移行先サーバjに割り当てることができる。これは、ビンパッキング問題におけるヒューリスティクス(まず大きな物を配置して、小さな物は空きの部分に配置した方が、容器の数を少なくできる)に基づいている。
(1回目のループ処理:k=0、i=S(0)=1)
まず、移行先サーバ(j=0)が選択される(ステップS103)。このとき、jはnより小さいので(ステップS104;Yes)、処理はステップS108に進む。
ステップS108において、資源容量U(j)が、資源割当量X(j)と資源使用量W(i)との和と比較される。これは、選択された移行元サーバiの資源使用量W(i)と、選択された移行先サーバjの資源容量の残量(=U(j)−X(j))との比較を意味する。以下、この比較対象の資源使用量W(i)を、対象使用量W(i)と参照する場合もある。現在のループ処理では、対象使用量(W(1)=23)と残量(U(0)−X(0)=50)との比較が行われる。
対象使用量が残量以下であるため(ステップS108;Yes)、ステップS110が実行される。ステップS110において、選択中の移行元サーバ(i=1)が、選択中の移行先サーバ(j=0)に割り当てられる。すなわち、割当関係A(1)=0が決定する。同時に、資源割当量X(0)に対象使用量W(1)が加算される。図10中の符号#が付与されたボックスは、各ループ処理の結果を示している。現在のループ処理の結果は、符合#1が付与されたボックス中に示されている。その後、パラメータkがインクリメントされ、次の移行元サーバS(1)が選択される(ステップS111)。
(2回目のループ処理:k=1、i=S(1)=2)
移行先サーバ(j=0)が再度選択される(ステップS103)。1回目と同様に処理が進み、移行元サーバ(i=2)が移行先サーバ(j=0)に割り当てられる(ステップS110)。すなわち、割当関係A(2)=0が決定し、資源割当量X(0)は42(=23+19)となる(図10中の#2参照)。そして、次の移行元サーバS(2)が選択される(ステップS111)。
(3回目のループ処理:k=2、i=S(2)=0)
移行先サーバ(j=0)が再度選択される(ステップS103)。比較処理(ステップS108)において、対象使用量(W(0)=17)は、残量(U(0)−X(0)=50−42)よりも大きい(ステップS108;No)。その場合、パラメータjに1が加算される(ステップS109)。すなわち、次の移行先サーバ(j=1)が選択される。このように、パラメータjは、ループ処理の度に初期化され、必要に応じて1ずつ増加していく。結果として、比較処理の対象となる移行先サーバjは、N台の移行先サーバから毎回同じ順番で選択されることになる。
新たな移行先サーバ(j=1)が選択されたので、必要台数nに1が加算される(ステップS104;No、ステップS105)。結果として、必要台数nは2になる。このとき、使用予定の2台の移行先サーバは未だ不足していない(ステップS106;No)。従って、処理はステップS108に進む。
比較処理(ステップS108)において、対象使用量(W(0)=17)は、残量(U(1)−X(1)=35)以下である(ステップS108;Yes)。従って、移行元サーバ(i=0)が移行先サーバ(j=1)に割り当てられる(ステップS110)。すなわち、割当関係A(0)=1が決定し、資源割当量X(1)に対象使用量W(0)が加算される(図10中の#3参照)。そして、次の移行元サーバS(3)が選択される(ステップS111)。
(4回目のループ処理:k=3、i=S(3)=4)
3回目と同様に、移行先サーバ(j=0)が選択された後、次の移行先サーバ(j=1)が選択される。必要台数nは既に2になっているので(ステップS104;Yes)、ステップS105は実行されず、処理はステップS108に進む。その結果、移行元サーバ(i=4)が移行先サーバ(j=1)に割り当てられる(ステップS110)。すなわち、割当関係A(4)=1が決定し、資源割当量X(1)は31(=17+14)となる(図10中の#4参照)。そして、次の移行元サーバS(4)が選択される(ステップS111)。
(5回目のループ処理:k=4、i=S(4)=3)
4回目と同様に、移行先サーバ(j=0)が選択された後、次の移行先サーバ(j=1)が選択される。比較処理(ステップS108)において、対象使用量(W(3)=11)は、残量(U(1)−X(1)=35−31)よりも大きい(ステップS108;No)。従って、パラメータjに更に1が加算され、パラメータjは2となる(ステップS109)。
このように、対象使用量W(3)は、使用予定の2台の移行先サーバのいずれの残量よりも大きくなっている。その場合、必要台数nに更に1が加算される(ステップS104;No、ステップS105)。必要台数nは3になるので、使用予定の2台の移行先サーバでは不十分である(ステップS106;Yes)。従って、所定の資源容量Uを有する移行先サーバ200−Xが、移行先サーバ(j=2)として追加される(ステップS107)。移行先サーバ(j=2)の資源容量U(2)は、デフォルト値U(=40)に設定される。また、資源割当量X(2)は、初期値0に設定される。
その後、処理はステップS110に進み、移行元サーバ(i=3)は追加された移行先サーバ(j=2)に割り当てられる。すなわち、割当関係A(3)=2が決定し、資源割当量X(2)に対象使用量W(3)が加算される(図10中の#5参照)。
その後、ステップS111において、パラメータkは5になる。これは、全ての移行元サーバに関する割当処理が終了したことを意味する(ステップS102;No)、従って、ループ処理は終了し、パッキング処理(ステップS14)が完了する。結果として、図10に示されるように、割当関係「A(0)=1、A(1)=0、A(2)=0、A(3)=2、A(4)=1」が決定する。移行先サーバの必要台数nは3である。移行先サーバで予定される資源使用量は、X(0)=42、X(1)=31、X(2)=11である。
以上に説明されたように、本実施の形態によれば、適切な範囲内のサーバ台数へのサーバ移行計画を機械的に作成することが可能となる。特に、移行先サーバjの資源容量U(j)が互いに異なる場合でも、好適なサーバ移行計画を機械的に作成することが可能となる。その結果、システム設計者にかかる負担が軽減され、また、サーバ移行に要する時間が削減される。
追加的な効果として次のものも得られる。移行先サーバの予定台数Nを予め正確に設定しておくことは、一般的に難しい。設定される予定台数Nが多すぎると、N台の移行先サーバの処理能力が無駄に余ってしまう可能性がある。それは、移行後のサーバ台数の徒な増加を意味する。逆に、設定される予定台数Nが少なすぎると、全ての移行元サーバを受け入れることが不可能になる。しかしながら、本実施の形態によれば、予定台数Nを、最初は少なめに設定することができる。それは、N台の移行先サーバのいずれの残量も不足した場合には、自動的に、新たな移行先サーバ200−Xが移行計画に組み込まれるからである(ステップS106,S107)。状況に応じて新たな移行先サーバが自動的に追加されるため、上述の無駄が排除される。このことも、移行後のサーバ台数nの削減に寄与する。
2.第2の実施の形態
図11は、移行計画作成処理の第2の実施の形態を示している。本実施の形態によれば、第1の実施の形態と比較して、新たに移行先ソートモジュール23が提供される。また、パッキングモジュール14の代わりにパッキングモジュール24が提供される。図12は、これらモジュールにより実現される処理フローを示している。第1の実施の形態と同じ構成及び処理には、同じ符号及びステップ番号が付され、重複する説明は適宜省略される。
ステップS23:
移行先ソートモジュール23は、資源容量入力モジュール12から資源容量U(j)及び資源割当量X(j)を受け取る。そして、移行先ソートモジュール23は、移行先サーバjを、資源の残量(U(j)−X(j))の小さい順(昇順)にソートする。この段階では、資源割当量X(j)は0に初期化されているため、資源の残量(空き容量)は資源容量U(j)に相当する。更に、移行先ソートモジュール23は、ソート結果を配列Tに格納する。配列Tの各要素はT(l)で表されるとする(l=0〜N−1)。このとき、要素T(0)は、資源容量U(j)が最小の移行先サーバのID番号jを示し、要素T(N−1)は、資源容量U(j)が最大の移行先サーバのID番号jを示す。本例の場合、T=[1,0]であり、U(T(0))=35,U(T(1))=50である。
ステップS24:
パッキングモジュール24は、資源使用量W(i)、配列S、資源容量U(j)、U、資源割当量X(j)、及び配列Tを用いて、「パッキング処理」を行う。図13は、本実施の形態におけるパッキング処理(ステップS24)を示すフローチャートであり、既出の図9に対応している。図13で示されるステップS201〜S211は、それぞれ、図9で示されたステップS101〜S111と同様である。
但し、パラメータjの代わりに、配列Tの要素を表すパラメータlが用いられている。つまり、毎ループ処理において、パラメータjが0、1・・・と増加する代わりに、パラメータlが0、1・・・と増加する。その結果、第1の実施の形態と異なり、比較処理の対象が、移行先サーバ(j=T(0)=1)、移行先サーバ(j=T(1)=0)の順番で変化することになる。これは、資源容量U(j)の小さい順(昇順)で、N台の移行先サーバから、比較処理の対象となる移行先サーバjが選択されることを意味する。その他の処理は、第1の実施の形態と同様である。
図14は、既出の図10に対応しており、本実施の形態における移行計画の作成例を示している。図10と同様に、符号#が付与されたボックスは、各ループ処理の結果を示している。図14に示されるように、パッキング処理の結果、割当関係「A(0)=0、A(1)=1、A(2)=0、A(3)=1、A(4)=0」が決定する。移行先サーバの必要台数nは2である。移行先サーバで予定される資源使用量は、X(0)=50、X(1)=34である。
第1の実施の形態と比較して、必要台数nが3から2に減少しており、割当効率が向上している。これは、配列Tを用い、比較処理の対象を資源容量U(j)の昇順で選択することにより得られる効果である。つまり、資源使用量W(i)のより大きな移行元サーバiを、資源容量U(j)のより小さな移行先サーバjに割り当てる方が、効率がよい。これは、負荷の高い処理を容量の小さい計算機に割り当てることに相当しており、特許文献2に記載された手法とは逆である。本実施の形態によれば、第1の実施の形態と同様の効果が得られ、更に、より効率的なサーバ移行を実現することが可能となる。その結果、運用管理コストが更に削減される。
3.第3の実施の形態
図15は、移行計画作成処理の第3の実施の形態を示している。本実施の形態によれば、第1の実施の形態と比較して、新たに割当制約入力モジュール31及び事前割当モジュール32が提供される。また、パッキングモジュール14の代わりにパッキングモジュール34が提供される。図16は、これらモジュールにより実現される処理フローを示している。第1の実施の形態と同じ構成及び処理には、同じ符号及びステップ番号が付され、重複する説明は適宜省略される。
ステップS31:
割当制約入力モジュール31は、記憶装置3から割当制約データCONを読み出す。割当制約データCONは、移行元サーバiと移行先サーバjとの間の割当関係(A(i)=j)に関する割当制約を示している。割当制約は、サーバ移行計画において既に決まっている決定事項である。例えば、割当制約は、ある移行元サーバiの特定の移行先サーバjへの割り当てを指定する。そのような割当制約は、以下「移行先固定制約CON1」と参照される。移行先固定制約の例として、移行元サーバ(i=4)の移行先サーバ(j=0)への割り当てが既に決まっているとする(A(4)=0)。
ステップS32:
事前割当モジュール32は、資源使用量W(i)、移行先固定制約CON1、資源容量U(j)、資源割当量X(j)を受け取る。事前割当モジュール32は、移行先固定制約CON1に従って、移行元サーバ(i=4)を移行先サーバ(j=0)に割り当てる(A(4)=0))。更に、事前割当モジュール32は、移行先サーバ(j=0)の資源割当量X(0)を更新する。つまり、事前割当モジュール32は、資源割当量X(0)に、移行元サーバ(i=4)の資源使用量(W(4)=14)を加算する。これは、移行先サーバ(j=0)の資源の残量(U(0)−X(0))から、資源使用量(W(4)=14)が減算されることを意味する。
ステップS34:
事前割当処理(ステップS32)の後、パッキングモジュール34は、資源使用量W(i)、配列S、資源容量U(j)、U、資源割当量X(j)、割当関係A(i)を用いて、「パッキング処理」を行う。パッキング処理の開始時、移行先サーバ(j=0)の資源割当量X(0)は既に“14”であり、割当関係A(4)=0は既に決定していることに留意されたい。
図17は、本実施の形態におけるパッキング処理(ステップS34)を示すフローチャートであり、既出の図9に対応している。本実施の形態によれば、第1の実施の形態と比較して、ループ処理の前にステップS301が追加されている。ステップS301において、割当関係A(S(k))が決定か未定かの判定が行われる。未定の場合(ステップS301;Yes)、ループ処理が実行される。一方、決定の場合(ステップS301;No)、ステップS111が実行され、次の移行元サーバS(k)が選択される。すなわち、ループ処理や比較処理はスキップされる。その他の処理は、第1の実施の形態と同様である。
図18は、既出の図10に対応しており、本実施の形態における移行計画の作成例を示している。図10と同様に、符号#が付与されたボックスは、各ループ処理の結果を示している。割当関係A(4)=0は固定されている。図18に示されるように、パッキング処理の結果、割当関係「A(0)=2、A(1)=0、A(2)=1、A(3)=0、A(4)=0」が決定する。移行先サーバの必要台数nは3である。移行先サーバで予定される資源使用量は、X(0)=48、X(1)=19、X(2)=17である。
以上に説明されたように、本実施の形態に係る移行計画作成システム1は、与えられる割当制約を扱うことができる。その割当制約が満たされるように、移行元サーバiが移行先サーバjに割り当てられる。本実施の形態によれば、第1の実施の形態で得られる効果に加えて、与えられた割当制約に適合する好適な移行計画を作成することが可能となる。
4.第4の実施の形態
第4の実施の形態は、既出の第2の実施の形態と第3の実施の形態の組み合わせに相当する。図19は、移行計画作成処理の第4の実施の形態を示している。本実施の形態によれば、第3の実施の形態と比較して、新たに移行先ソートモジュール43が提供される。また、パッキングモジュール34の代わりにパッキングモジュール44が提供される。図20は、これらモジュールにより実現される処理フローを示している。既出の実施の形態と同じ構成及び処理には、同じ符号及びステップ番号が付され、重複する説明は適宜省略される。
ステップS43:
移行先ソートモジュール43は、事前割当モジュール32から資源容量U(j)及び資源割当量X(j)を受け取る。移行先固定制約CON1が“A(4)=0”を示している場合、事前割当処理(ステップS32)により、資源割当量X(0)は既に“14”となっている。移行先ソートモジュール43は、移行先サーバjを、資源の残量(U(j)−X(j))の小さい順(昇順)にソートする。更に、移行先ソートモジュール43は、ソート結果を配列Tに格納する。本例の場合、移行先サーバ(j=0)の残量は“36”であり、移行先サーバ(j=1)の残量は“35”であるため、T=[1,0]である。
ステップS44:
パッキングモジュール44は、資源使用量W(i)、配列S、資源容量U(j)、U、資源割当量X(j)、配列T、及び割当関係A(i)を用いて、「パッキング処理」を行う。
図21は、本実施の形態におけるパッキング処理(ステップS44)を示すフローチャートであり、既出の図13に対応している。本実施の形態によれば、第2の実施の形態と比較して、ループ処理の前にステップS401が追加されている。ステップS401において、割当関係A(S(k))が決定か未定かの判定が行われる。未定の場合(ステップS401;Yes)、ループ処理が実行される。一方、決定の場合(ステップS401;No)、ステップS211が実行され、次の移行元サーバS(k)が選択される。すなわち、ループ処理や比較処理はスキップされる。その他の処理は、第2の実施の形態と同様である。
図22は、既出の図18に対応しており、本実施の形態における移行計画の作成例を示している。符号#が付与されたボックスは、各ループ処理の結果を示している。図22に示されるように、パッキング処理の結果、割当関係「A(0)=0、A(1)=1、A(2)=0、A(3)=1、A(4)=0」が決定する。移行先サーバの必要台数nは2である。移行先サーバで予定される資源使用量は、X(0)=50、X(1)=34である。
第3の実施の形態と比較して、必要台数nが3から2に減少しており、割当効率が向上している。これは、配列Tを用い、比較処理の対象を資源容量U(j)の昇順で選択することにより得られる効果である。本実施の形態によれば、第3の実施の形態と同様の効果が得られ、更に、より効率的なサーバ移行を実現することが可能となる。その結果、運用管理コストが更に削減される。
5.第5の実施の形態
第5の実施の形態において、移行先固定制約CON1とは別の割当制約に対する処理が説明される。例えば、ある移行元サーバ(i=g)と別の移行元サーバ(i=h)とがある同じ移行先サーバに割り当てられるという制約(A(g)=A(h))が考えられる。そのような割当制約は、以下「移行先等価制約CON2」と参照される。例えば、移行先等価制約CON2は、移行元サーバ(i=0)と移行元サーバ(i=1)の同じ移行先への割り当てを指定する(A(0)=A(1))。
図23は、移行計画作成処理の第5の実施の形態を示している。本実施の形態によれば、第4の実施の形態と比較して、新たに使用量加算モジュール52及び割当調整モジュール55が提供される。また、パッキングモジュール44の代わりにパッキングモジュール54が提供される。図24は、これらモジュールにより実現される処理フローを示している。第4の実施の形態と同じ構成及び処理には、同じ符号及びステップ番号が付され、重複する説明は適宜省略される。
ステップS31:
割当制約データCONは、上述の移行先固定制約CON1(A(4)=0)に加えて、移行先等価制約CON2(A(0)=A(1))を示しているとする。
ステップS52:
使用量加算モジュール52は、資源使用量入力モジュール11から資源使用量W(i)を受け取り、割当制約入力モジュール31から移行先等価制約CON2を受け取る。そして、使用量加算モジュール52は、移行先等価制約CON2に従って、資源使用量W(i)に変更を加える。具体的には、使用量加算モジュール52は、移行先等価制約CON2で指定されている移行元サーバ群の資源使用量を全て足し合わせ、一時的に1つにまとめる。本例の場合、使用量加算モジュール52は、移行元サーバ(i=0)の資源使用量W(0)を“W(0)+W(1)=40”に設定し、移行元サーバ(i=1)の資源使用量W(1)を“0”に設定する。
ステップS13:
移行元ソートモジュール13は、使用量加算モジュール52から変更後の資源使用量W(i)を受け取り、移行元サーバiを資源使用量W(i)の降順でソートする。本例の場合、資源使用量W(0)が最大になっており、資源使用量W(1)が最小になっているため、S=[0,2,4,3,1]となる。
ステップS54:
パッキングモジュール54は、資源使用量W(i)、配列S、資源容量U(j)、U、資源割当量X(j)、配列T、及び割当関係A(i)を用いて、「パッキング処理」を行う。処理フローは、第4の実施の形態と同じである(図21,ステップS44参照)。
図25は、既出の図22に対応しており、本実施の形態における移行計画の作成例を示している。符号#が付与されたボックスは、各ループ処理の結果を示している。図25に示されるように、パッキング処理の結果、割当関係「A(0)=2、A(1)=1、A(2)=1、A(3)=1、A(4)=0」が一旦決定する。移行先サーバの必要台数nは3である。移行先サーバで予定される資源使用量は、X(0)=14、X(1)=30、X(2)=40である。
ステップS55:
パッキング処理の最中には移行先等価制約CON2は考慮されないため、パッキング処理の結果得られる割当関係A(i)が移行先等価制約CON2を満たすとは限らない。実際に、図25に示される例では、A(0)とA(1)が一致していない。そのような場合、割当調整モジュール55が割当関係A(i)を調整する。
図23に示されるように、割当調整モジュール55は、割当関係A(i)と移行先等価制約CON2を受け取る。そして、割当調整モジュール55は、移行先等価制約CON2で指定されている移行元サーバ群の移行先を揃える。本例の場合、割当調整モジュール55は、移行先等価制約CON2(A(0)=A(1))に従って、“A(1)=1”を“A(1)=2=A(0)”に修正する(図25参照)。その結果、移行先等価制約CON2が満たされる。移行元サーバ(i=1)の資源使用量W(1)は移行元サーバ(i=0)に最初に統合されているため、この修正に伴って資源割当量X(j)を更新する必要はない。
以上に説明されたように、本実施の形態によれば、割当制約が満たされるように、移行元サーバiが移行先サーバjに割り当てられる。すなわち、与えられた割当制約に適合する好適な移行計画を作成することが可能となる。
尚、本実施の形態において、移行先ソートモジュール43は使用されなくてもよい。その場合、ステップS43は省略され、また、パッキング処理(ステップS54)は第3の実施の形態と同じになる(図17,ステップS34参照)。また、移行先固定制約CON1は指定されなくてもよい。その場合、事前割当モジュール32は使用されず、ステップS32は省略される。パッキング処理(ステップS54)は、第1の実施の形態(図9,ステップS14参照)あるいは第2の実施の形態(図13,ステップS24参照)と同じになる。
6.第6の実施の形態
第6の実施の形態において、更に別の割当制約に対する処理が説明される。本実施の形態で扱われる割当制約は、否定形式の割当制約である。例えば、割当制約は、ある移行元サーバiが特定の移行先サーバjの割り当てられることを禁止する(A(i)≠j)。そのような割当制約は、以下「移行先否定制約CON3」と参照される。あるいは、否定的な割当制約は、ある移行元サーバ(i=g)と別の移行元サーバ(i=h)とがある同じ移行先サーバに割り当てられることを禁止する(A(g)≠A(h))。そのような割当制約は、以下「移行先不等制約CON3」と参照される。このような否定形式の割当制約CON3は、パッキング処理の前に取り扱うことはできず、パッキング処理の最中に考慮する必要がある。
図26は、移行計画作成処理の第6の実施の形態を示している。本実施の形態によれば、既出の実施の形態におけるパッキングモジュールの代わりに、パッキングモジュール64が提供される。このパッキングモジュール64は、移行先否定制約CON3及び/又は移行先不等制約CON3を参照しながら、パッキング処理を実行する。パッキング処理以外は、既出の実施の形態と同じであり、重複する説明は適宜省略される。例えば、図24中のステップS54が、本実施の形態に係るパッキングモジュール64が実行するパッキング処理(ステップS64)で置き換えられる。
図27は、本実施の形態におけるパッキング処理(ステップS64)を示すフローチャートである。本実施の形態によれば、ループ処理の最中にステップS601が追加されている。ステップS601において、選択中のパラメータk,l(すなわちi,j)から得られる割当関係A(S(k))=T(l)が、割当制約CON3に整合しているか否かの判定が行われる。整合の場合(ステップS601;Yes)、既出の実施の形態と同じ処理が実行される。一方、不整合の場合(ステップS601;No)、比較処理(ステップS208)はスキップされ、次の移行先サーバjが選択される(ステップS209)。すなわち、選択中の移行元サーバiや選択中の移行先サーバjが割当制約CON3に違反する場合、別の移行先サーバjが新たに選択される。その他の処理は、既出の実施の形態と同様である。
図28は、本実施の形態における移行計画の作成例を示している。割当制約として、移行先固定制約A(4)=0に加えて、移行先否定制約A(1)≠1及び移行先不等制約A(2)≠A(3)が与えられたとする。符号#が付与されたボックスは、各ループ処理の結果を示している。図28に示されるように、パッキング処理の結果、割当関係「A(0)=2、A(1)=0、A(2)=1、A(3)=0、A(4)=0」が決定する。移行先サーバの必要台数nは3である。移行先サーバで予定される資源使用量は、X(0)=48、X(1)=19、X(2)=17である。
以上に説明されたように、本実施の形態によれば、否定形式の割当制約が満たされるように、移行元サーバiが移行先サーバjに割り当てられる。すなわち、与えられた割当制約に適合する好適な移行計画を作成することが可能となる。
図1は、サーバ移行の一例を示す概念図である。 図2は、サーバ移行の他の例を示す概念図である。 図3は、本発明の実施の形態に係るサーバの移行を示す概念図である。 図4は、本発明の実施の形態に係る移行計画作成システムの構成例を示すブロック図である。 図5は、移行元運用データの一例を示すテーブルである。 図6は、移行先容量データの一例を示すテーブルである。 図7は、第1の実施の形態に係る移行計画作成システムの構成及び処理を示すブロック図である。 図8は、第1の実施の形態に係る移行計画作成方法を示すフローチャートである。 図9は、第1の実施の形態におけるパッキング処理を示すフローチャートである。 図10は、第1の実施の形態における移行計画の作成例を示す概念図である。 図11は、第2の実施の形態に係る移行計画作成システムの構成及び処理を示すブロック図である。 図12は、第2の実施の形態に係る移行計画作成方法を示すフローチャートである。 図13は、第2の実施の形態におけるパッキング処理を示すフローチャートである。 図14は、第2の実施の形態における移行計画の作成例を示す概念図である。 図15は、第3の実施の形態に係る移行計画作成システムの構成及び処理を示すブロック図である。 図16は、第3の実施の形態に係る移行計画作成方法を示すフローチャートである。 図17は、第3の実施の形態におけるパッキング処理を示すフローチャートである。 図18は、第3の実施の形態における移行計画の作成例を示す概念図である。 図19は、第4の実施の形態に係る移行計画作成システムの構成及び処理を示すブロック図である。 図20は、第4の実施の形態に係る移行計画作成方法を示すフローチャートである。 図21は、第4の実施の形態におけるパッキング処理を示すフローチャートである。 図22は、第4の実施の形態における移行計画の作成例を示す概念図である。 図23は、第5の実施の形態に係る移行計画作成システムの構成及び処理を示すブロック図である。 図24は、第5の実施の形態に係る移行計画作成方法を示すフローチャートである。 図25は、第5の実施の形態における移行計画の作成例を示す概念図である。 図26は、第6の実施の形態に係る移行計画作成システムの構成及び処理を示すブロック図である。 図27は、第6の実施の形態におけるパッキング処理を示すフローチャートである。 図28は、第6の実施の形態における移行計画の作成例を示す概念図である。
符号の説明
1 移行計画作成システム
2 プロセッサ
3 記憶装置
4 入力装置
5 出力装置
6 表示装置
7 プリンタ
8 ネットワークインタフェース
9 メディアドライブ
10 移行計画作成プログラム
11 資源使用量入力モジュール
12 資源容量入力モジュール
13 移行元ソートモジュール
14,24,34,44,54,64 パッキングモジュール
23,43 移行先ソートモジュール
31 割当制約入力モジュール
32 事前割当モジュール
52 使用量加算モジュール
55 割当調整モジュール
100 移行元サーバ
200 移行先サーバ
DS 移行元運用データ
DD 移行先容量データ
CON 割当制約データ
CON1 移行先固定制約
CON2 移行先等価制約
CON3 否定的制約
PLAN 移行計画データ

Claims (18)

  1. m台の移行元サーバ(mは2以上の整数)から少なくともN台の移行先サーバ(Nは1以上の整数)へのサーバ移行の計画を作成する移行計画作成システムであって、
    前記移行元サーバのそれぞれの資源使用量を示す第1データと、前記移行先サーバのそれぞれの資源容量を示す第2データとが格納される記憶装置と、
    前記第1データ及び前記第2データに基づいて、前記それぞれの移行元サーバの移行先を前記移行先サーバのいずれかに割り当てるプロセッサと
    を備え、
    前記プロセッサは、パッキング処理において、前記資源使用量の降順で前記移行元サーバを1つずつ選択し、前記移行先サーバのうちいずれかを選択し、前記選択された移行元サーバの前記資源使用量である対象使用量と前記選択された移行先サーバの前記資源容量の残量との比較を行い、
    前記対象使用量が前記残量より大きい場合、前記プロセッサは、前記選択された移行先サーバとは別の移行先サーバを選択した後、前記比較を再度行い、
    前記対象使用量が前記残量以下の場合、前記プロセッサは、前記選択された移行元サーバを前記選択された移行先サーバに割り当てる
    移行計画作成システム。
  2. 請求項1に記載の移行計画作成システムであって、
    前記プロセッサは、前記N台の移行先サーバから前記比較の対象を、前記資源容量の昇順で選択する
    移行計画作成システム。
  3. 請求項1又は2に記載の移行計画作成システムであって、
    前記対象使用量が前記N台の移行先サーバのいずれの前記残量より大きい場合、前記プロセッサは、前記選択された移行元サーバを、前記N台の移行先サーバとは異なる移行先サーバに割り当てる
    移行計画作成システム。
  4. 請求項1乃至3のいずれかに記載の移行計画作成システムであって、
    前記N台の移行先サーバの前記資源容量はそれぞれ異なっている
    移行計画作成システム。
  5. 請求項1乃至4のいずれかに記載の移行計画作成システムであって、
    前記記憶装置には更に、前記移行元サーバと前記移行先サーバとの間の割当関係に関する制約を示す第3データが格納され、
    前記プロセッサは、前記第1〜第3データに基づいて、前記制約が満たされるように、前記それぞれの移行元サーバの移行先を前記移行先サーバのいずれかに割り当てる
    移行計画作成システム。
  6. 請求項5に記載の移行計画作成システムであって、
    前記m台の移行元サーバは、第1移行元サーバを含み、
    前記N台の移行先サーバは、第1移行先サーバを含み、
    前記制約は、前記第1移行元サーバの前記第1移行先サーバへの割り当てを指定する
    移行計画作成システム。
  7. 請求項6に記載の移行計画作成システムであって、
    前記プロセッサは、前記第1移行元サーバを前記第1移行先サーバに割り当て、前記第1移行元サーバの前記資源使用量を前記第1移行先サーバの前記残量から減算した後に、前記パッキング処理を開始し、
    前記パッキング処理において、前記プロセッサは、前記第1移行元サーバに関する前記比較をスキップする
    移行計画作成システム。
  8. 請求項5に記載の移行計画作成システムであって、
    前記m台の移行元サーバは、第1移行元サーバと第2移行元サーバを含み、
    前記制約は、前記第1移行元サーバ及び前記第2移行先サーバの同じ移行先サーバへの割り当てを指定する
    移行計画作成システム。
  9. 請求項8に記載の移行計画作成システムであって、
    前記第1データが示す前記第1移行元サーバ及び前記第2移行元サーバの前記資源使用量は、それぞれ第1資源使用量及び第2資源使用量であり、
    前記プロセッサは、前記第1移行元サーバの前記資源使用量を前記第1資源使用量と前記第2資源使用量の和に設定し、前記第2移行元サーバの前記資源使用量を0に設定した後に、前記パッキング処理を開始し、
    前記パッキング処理後、前記プロセッサは、前記第1移行元サーバと前記第2移行元サーバの移行先を前記同じ移行先サーバに揃える
    移行計画作成システム。
  10. 請求項5に記載の移行計画作成システムであって、
    前記m台の移行元サーバは、第1移行元サーバを含み、
    前記N台の移行先サーバは、第1移行先サーバを含み、
    前記制約は、前記第1移行元サーバの前記第1移行先サーバへの割り当てを禁止する
    移行計画作成システム。
  11. 請求項5に記載の移行計画作成システムであって、
    前記m台の移行元サーバは、第1移行元サーバと第2移行元サーバを含み、
    前記制約は、前記第1移行元サーバ及び前記第2移行先サーバの同じ移行先サーバへの割り当てを禁止する
    移行計画作成システム。
  12. 請求項10又は11に記載の移行計画作成システムであって、
    前記パッキング処理において、前記選択された移行元サーバと前記選択された移行先サーバが前記制約に違反する場合、前記プロセッサは、前記比較をスキップし、前記選択された移行先サーバとは別の移行先サーバを選択する
    移行計画作成システム。
  13. m台の移行元サーバ(mは2以上の整数)から少なくともN台の移行先サーバ(Nは1以上の整数)へのサーバ移行の計画を作成する移行計画作成方法であって、
    (A)前記移行元サーバのそれぞれの資源使用量を示す第1データを、記憶装置から読み込むステップと、
    (B)前記移行先サーバのそれぞれの資源容量を示す第2データを、記憶装置から読み込むステップと、
    (C)前記第1データ及び前記第2データに基づいて、前記それぞれの移行元サーバの移行先を前記移行先サーバのいずれかに割り当てるステップと
    を有し、
    前記(C)ステップは、
    (C1)前記資源使用量の降順で前記移行元サーバを1つずつ選択し、また、前記移行先サーバのうちいずれかを選択するステップと、
    (C2)前記選択された移行元サーバの前記資源使用量である対象使用量と前記選択された移行先サーバの前記資源容量の残量との比較を行うステップと、
    (C3)前記対象使用量が前記残量より大きい場合、前記選択された移行先サーバとは別の移行先サーバを選択した後、前記(C2)ステップを再度行うステップと、
    (C4)前記対象使用量が前記残量以下の場合、前記選択された移行元サーバを前記選択された移行先サーバに割り当てるステップと
    を含む
    移行計画作成方法。
  14. 請求項13に記載の移行計画作成方法であって、
    前記(C)ステップは更に、(C5)前記対象使用量が前記N台の移行先サーバのいずれの前記残量より大きい場合、前記選択された移行元サーバを、前記N台の移行先サーバとは異なる移行先サーバに割り当てるステップを含む
    移行計画作成方法。
  15. 請求項13又は14に記載の移行計画作成方法であって、
    前記(C)ステップにおいて、前記N台の移行先サーバのうち、前記比較の対象は前記資源容量の昇順で選択される
    移行計画作成方法。
  16. 請求項13乃至15のいずれかに記載の移行計画作成方法であって、
    前記N台の移行先サーバの前記資源容量はそれぞれ異なっている
    移行計画作成方法。
  17. 請求項13乃至16のいずれかに記載の移行計画作成方法であって、
    更に、(D)前記移行元サーバと前記移行先サーバとの間の割当関係に関する制約を示す第3データを、記憶装置から読み込むステップを有し、
    前記(C)ステップにおいて、前記制約が満たされるように、前記それぞれの移行元サーバの移行先が前記移行先サーバのいずれかに割り当てられる
    移行計画作成方法。
  18. 請求項13乃至17のいずれかに記載の移行計画作成方法をコンピュータに実行させるための移行計画作成プログラム。
JP2007043787A 2007-02-23 2007-02-23 サーバ移行計画作成システム、サーバ移行計画作成方法 Expired - Fee Related JP4853717B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007043787A JP4853717B2 (ja) 2007-02-23 2007-02-23 サーバ移行計画作成システム、サーバ移行計画作成方法
US12/022,397 US7743148B2 (en) 2007-02-23 2008-01-30 Server migration planning system and server migration planning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007043787A JP4853717B2 (ja) 2007-02-23 2007-02-23 サーバ移行計画作成システム、サーバ移行計画作成方法

Publications (2)

Publication Number Publication Date
JP2008210001A true JP2008210001A (ja) 2008-09-11
JP4853717B2 JP4853717B2 (ja) 2012-01-11

Family

ID=39717192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007043787A Expired - Fee Related JP4853717B2 (ja) 2007-02-23 2007-02-23 サーバ移行計画作成システム、サーバ移行計画作成方法

Country Status (2)

Country Link
US (1) US7743148B2 (ja)
JP (1) JP4853717B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010044131A1 (ja) * 2008-10-13 2010-04-22 三菱電機株式会社 リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法
WO2014125818A1 (ja) * 2013-02-18 2014-08-21 日本電気株式会社 仮想マシンの割当処理を行う情報処理装置及び仮想マシン割当方法
JP2016512001A (ja) * 2013-06-24 2016-04-21 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. ソフトウェア・デファインド・フレキシブル・グリッド光伝達網における、クラウドサービスの組込みためのコンピュート後ネットワーク負荷分散手順
KR101820269B1 (ko) 2017-07-21 2018-01-18 건국대학교 산학협력단 마이그레이션 방법 및 시스템
JP2018160197A (ja) * 2017-03-24 2018-10-11 東日本旅客鉄道株式会社 情報処理装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970905B2 (en) * 2008-07-03 2011-06-28 International Business Machines Corporation Method, system and computer program product for server selection, application placement and consolidation planning of information technology systems
US8214829B2 (en) * 2009-01-15 2012-07-03 International Business Machines Corporation Techniques for placing applications in heterogeneous virtualized systems while minimizing power and migration cost
US20110061050A1 (en) * 2009-09-04 2011-03-10 Sahita Ravi L Methods and systems to provide platform extensions for trusted virtual machines
US8700752B2 (en) * 2009-11-03 2014-04-15 International Business Machines Corporation Optimized efficient LPAR capacity consolidation
WO2011075145A1 (en) * 2009-12-18 2011-06-23 Hewlett-Packard Development Company, L.P. Server migration method
US9141919B2 (en) 2010-02-26 2015-09-22 International Business Machines Corporation System and method for object migration using waves
DE102012217202B4 (de) 2011-10-12 2020-06-18 International Business Machines Corporation Verfahren und System zum Optimieren des Platzierens virtueller Maschinen in Cloud-Computing-Umgebungen
US9244718B2 (en) 2012-09-19 2016-01-26 Nec Corporation Virtual machine resource allocation based on connection time coverage exceeding a minimum threshold
CN104461728B (zh) * 2013-09-18 2019-06-14 Sap欧洲公司 迁移事件调度管理的计算机系统、介质和方法
US20160191365A1 (en) * 2014-12-31 2016-06-30 Singlehop, Llc Data center migration tracking tool
CN115238902A (zh) * 2021-04-23 2022-10-25 伊姆西Ip控股有限责任公司 用于管理机器学习模型的方法、设备和计算机程序产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324361A (ja) * 1992-05-15 1993-12-07 Fujitsu Ltd 仮想計算機システムのcpu制御方式
JPH09179667A (ja) * 1995-12-21 1997-07-11 Hitachi Ltd 情報処理装置
JP2004192612A (ja) * 2002-12-09 2004-07-08 Internatl Business Mach Corp <Ibm> 区分化されたデータ処理システムにおける電力節減
JP2006508445A (ja) * 2002-11-27 2006-03-09 インターナショナル・ビジネス・マシーンズ・コーポレーション アプリケーション固有の冗長特性に基づく自動電力制御ポリシー
WO2006044701A1 (en) * 2004-10-15 2006-04-27 Emc Corporation Configuring, monitoring and/or managing resource groups including a virtual machine

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027167A (ja) 1996-07-12 1998-01-27 Hitachi Ltd 並列計算機の負荷分散方法
JPH10161987A (ja) 1996-11-27 1998-06-19 Toshiba Corp コンピュータシステムにおける負荷分散方法および負荷分散処理システム
JPH1124949A (ja) 1997-07-04 1999-01-29 Toshiba Corp 並列処理制御装置
JP4433560B2 (ja) * 2000-04-11 2010-03-17 ソニー株式会社 端末装置、情報処理方法
JP2002108839A (ja) 2000-09-28 2002-04-12 Mitsubishi Electric Corp 通信ネットワークシステム、ジョブ割当方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3646787B2 (ja) 2001-08-01 2005-05-11 日本電気株式会社 負荷分散機能を有するネットワーク中継装置、ネットワーク中継装置の負荷分散方法、及びプログラム
JP2003316635A (ja) * 2002-04-26 2003-11-07 Hitachi Ltd データのバックアップ方法及びそのプログラム
JP4712283B2 (ja) 2003-03-14 2011-06-29 株式会社日本総合研究所 データ管理システム、バッチ制御システム、及びバッチ制御プログラム
JP3861087B2 (ja) 2003-10-08 2006-12-20 株式会社エヌ・ティ・ティ・データ 仮想マシン管理装置及びプログラム
JP4299651B2 (ja) 2003-12-12 2009-07-22 株式会社野村総合研究所 分散処理システム
JP2006092053A (ja) 2004-09-22 2006-04-06 Nec Corp システム使用率管理装置及びそれに用いるシステム使用率管理方法並びにそのプログラム
JP2006113827A (ja) 2004-10-15 2006-04-27 Hitachi Ltd Cpu余裕管理とトランザクション優先度による負荷分散方法
JP4377369B2 (ja) 2005-11-09 2009-12-02 株式会社日立製作所 リソース割当調停装置およびリソース割当調停方法
JP4927412B2 (ja) * 2006-02-10 2012-05-09 株式会社日立製作所 記憶制御方法及びその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324361A (ja) * 1992-05-15 1993-12-07 Fujitsu Ltd 仮想計算機システムのcpu制御方式
JPH09179667A (ja) * 1995-12-21 1997-07-11 Hitachi Ltd 情報処理装置
JP2006508445A (ja) * 2002-11-27 2006-03-09 インターナショナル・ビジネス・マシーンズ・コーポレーション アプリケーション固有の冗長特性に基づく自動電力制御ポリシー
JP2004192612A (ja) * 2002-12-09 2004-07-08 Internatl Business Mach Corp <Ibm> 区分化されたデータ処理システムにおける電力節減
WO2006044701A1 (en) * 2004-10-15 2006-04-27 Emc Corporation Configuring, monitoring and/or managing resource groups including a virtual machine
JP2008517382A (ja) * 2004-10-15 2008-05-22 イーエムシー コーポレイション 仮想マシンを含む資源グループの構成、監視、および/または管理

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010044131A1 (ja) * 2008-10-13 2010-04-22 三菱電機株式会社 リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法
JP5121936B2 (ja) * 2008-10-13 2013-01-16 三菱電機株式会社 リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法
US8452875B2 (en) 2008-10-13 2013-05-28 Mitsubishi Electric Corporation Resource allocation apparatus, resource allocation program and recording media, and resource allocation method
WO2014125818A1 (ja) * 2013-02-18 2014-08-21 日本電気株式会社 仮想マシンの割当処理を行う情報処理装置及び仮想マシン割当方法
JP2016512001A (ja) * 2013-06-24 2016-04-21 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. ソフトウェア・デファインド・フレキシブル・グリッド光伝達網における、クラウドサービスの組込みためのコンピュート後ネットワーク負荷分散手順
JP2018160197A (ja) * 2017-03-24 2018-10-11 東日本旅客鉄道株式会社 情報処理装置
KR101820269B1 (ko) 2017-07-21 2018-01-18 건국대학교 산학협력단 마이그레이션 방법 및 시스템

Also Published As

Publication number Publication date
JP4853717B2 (ja) 2012-01-11
US20080209043A1 (en) 2008-08-28
US7743148B2 (en) 2010-06-22

Similar Documents

Publication Publication Date Title
JP4853717B2 (ja) サーバ移行計画作成システム、サーバ移行計画作成方法
JPWO2009037915A1 (ja) サーバ組替支援システム、サーバ組替支援方法
Liu et al. Multi-objective scheduling of scientific workflows in multisite clouds
CN102929701B (zh) 一种批量虚拟机的调度方法及装置
Gupta et al. A two stage heuristic algorithm for solving the server consolidation problem with item-item and bin-item incompatibility constraints
JP4185103B2 (ja) 実行可能プログラムをスケジューリングするためのシステム及び方法
US20130339956A1 (en) Computer system and optimal arrangement method of virtual machine in computer system
JP6741941B2 (ja) 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置
CN103729246B (zh) 一种任务调度方法和装置
JP5121936B2 (ja) リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法
JP2010287255A (ja) 情報処理装置及び情報処理システム
Tan et al. Novel genetic algorithm with dual chromosome representation for resource allocation in container-based clouds
JP2008140046A (ja) 画像処理装置、画像処理プログラム
JPH07121377A (ja) 資源割付装置
WO2021202011A1 (en) Partitioning for an execution pipeline
Ramezani et al. A multi-objective load balancing system for cloud environments
Nagendram et al. Efficient resource scheduling in data centers using MRIS
CN108427602B (zh) 一种分布式计算任务的协同调度方法及装置
Khojasteh Toussi et al. EDQWS: an enhanced divide and conquer algorithm for workflow scheduling in cloud
CN115599512A (zh) 在图形处理单元上调度作业
Mahmoud et al. An efficient load balancing technique for task scheduling in heterogeneous cloud environment
Tariq et al. Directed acyclic graph based task scheduling algorithm for heterogeneous systems
CN110750330A (zh) 一种虚拟机创建方法、系统、电子设备及存储介质
CN108108242B (zh) 基于大数据的存储层智能分发控制方法
CN108268316A (zh) 作业调度的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4853717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees