JP2013171355A - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP2013171355A
JP2013171355A JP2012033526A JP2012033526A JP2013171355A JP 2013171355 A JP2013171355 A JP 2013171355A JP 2012033526 A JP2012033526 A JP 2012033526A JP 2012033526 A JP2012033526 A JP 2012033526A JP 2013171355 A JP2013171355 A JP 2013171355A
Authority
JP
Japan
Prior art keywords
resource
user
server device
terminal
virtual machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012033526A
Other languages
English (en)
Other versions
JP5961402B2 (ja
Inventor
Le Thanh Man Cao
レタンマン カオ
Makoto Kayashima
信 萱島
Hiromi Isogawa
弘実 礒川
Koji Hamada
浩次 濱田
Koki Takemura
幸記 竹村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012033526A priority Critical patent/JP5961402B2/ja
Priority to CN201310051147.9A priority patent/CN103257899B/zh
Publication of JP2013171355A publication Critical patent/JP2013171355A/ja
Application granted granted Critical
Publication of JP5961402B2 publication Critical patent/JP5961402B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】
仮想計算機の資源を再配分するためには、仮想計算機の再起動、一定時間のサービス停止、一定時間のネットワーク帯域占有などという支障(以下、副作用と呼ぶ)をユーザへもたらすことがある。しかし、ユーザが副作用を詳細に把握できる上でVMの資源の配分を行うことができなかった。
【解決手段】
仮想計算機、仮想化サーバおよび仮想化サーバを結ぶネットワーク資源を監視し、仮想計算機の資源再配分の副作用を計算する機能を備えた管理サーバを設ける。仮想計算機の資源再配分を行う前には管理サーバが副作用をユーザへ提示しユーザの了承を得る仕組みを実現する。
【選択図】図1

Description

本明細書で開示される主題は、仮想計算機の資源配分方法及び装置に関する。
計算機の物理資源を複数の論理資源に見せる仮想化ソフトウェアにより、一台の計算機上に複数の仮想計算機(以下、VMという)を稼動させることができるようになった。また、仮想化ソフトウェアがハードウェアの特性を吸収するため、VMは計算機のハードウェアの特性に依存せず、VMのハードウェア間の移動が容易である。以下、仮想化ソフトウェアを導入し、複数のVMを動作させる計算機をサーバと呼ぶ。
VMに、ユーザの作業領域であるデスクトップを構築するためのOS(基本ソフトウェア)を導入し、ユーザが遠隔操作でVMを利用するという、デスクトップ仮想化の技術が発展してきた。デスクトップをVMで実現することにより、導入・運用・保守コストの削減が可能となる。また、データ・アプリケーションをデータセンタで一箇所にまとめることで、セキュリティの面でも有利となる。
仮想計算機が利用できるハードウェアの資源(CPU処理時間、メモリ量、ディスクアクセス帯域、ネットワーク帯域など)は仮想化ソフトウェアが決定する。配分された資源が不足する場合、仮想計算機の性能が低下する。例えば、仮想計算機上にデスクトップを構成する仮想化デスクトップの場合、CPUの資源が不足すると仮想化デスクトップのユーザの操作に対する反応が遅くなり、ユーザの利用感が低下する。そこで、仮想計算機に配分した資源に不足が生じた場合、ユーザが資源再配分を希望するとすばやく資源を追加配分する仕組みが必要となる。しかし、コスト削減のため、ユーザが資源再配分を特に希望しない場合、仮想計算に不要な資源を追加配分しないことが好ましい。
従来技術(特許文献1)では、ユーザは、最もユーザが日常的に(平均的に)必要とする計算機の処理能力(計算機性能レベル)を予めシステム側に設定(登録)して、自身に割り当てられる個別仮想計算機の資源配分を設定しておき、ユーザが設定した計算機の処理能力(日常的に使用する処理能力(計算機性能レベル))を一時的に上回る、あるいは、下回る処理能力を必要とする場合には、システムに対して資源配分の一時的変更を要求するようにする。ユーザは日常的に必要とする資源を配分された個別仮想計算機によるサービスに対する対価を支払い、ユーザが設定した計算機の処理能力(日常的に使用する処理能力)を一時的に上回る、あるいは、下回る処理能力を必要とした場合には、通常の対価に上乗せし、あるいは、通常の対価を低減して対価を支払うことにより所望のサービスを受ける。
特開2011-170679号公報(段落0047)
しかし、仮想計算機の資源を再配分するためには、仮想計算機の再起動、一定時間のサービス停止、さらに、仮想計算機を他のサーバ装置へ移動する場合の一定時間のネットワーク帯域占有、などの支障(以下、副作用と呼ぶ)をユーザへもたらすことがある。しかし、ユーザが事前に副作用を把握し、了承した上でVMの資源の配分を行う仕組みがなく、不利益をもたらすことがあった。
仮想計算機の資源を再配分するためでなく、単に他のサーバ装置へ移動する場合であっても同様の課題がある。
本明細書で開示されるのは、あるサーバ装置で動作する仮想計算機への資源の再配分を行う場合、または、資源の再配分もしくはその他の目的のために、他のサーバ装置へ仮想計算機を移動する場合、の副作用を、事前にユーザへ提示する技術である。
具体的には、仮想計算機および仮想計算機を結ぶネットワーク資源を監視し、仮想計算機の資源再配分の副作用を計算する機能を備えた管理サーバを設け、管理サーバが、仮想計算機の資源再配分を行う前に、副作用を事前にユーザへ提示しユーザの了承を得る仕組みを備える資源配分方法が開示される。
より具体的な態様として開示されるのは、第1の仮想計算機が動作する第1のサーバ装置と、一つ以上の他のサーバ装置と、管理サーバ装置と、第1の端末とがネットワークを介して接続される計算機システムであって、
管理サーバ装置は、
第1の仮想計算機のユーザが使用する第1の端末から、第1の仮想計算機への資源の再配分要求を受け付け、
要求された資源の再配分による副作用を計算し、
計算した副作用の情報を、第1の端末に送信して、ユーザへ提示させ、
第1の端末から、ユーザが第1の端末へ入力した、副作用に対する了承を受信した場合に、
要求された資源の再配分を開始することを特徴とするものである。
さらに、管理サーバ装置は、副作用として、
第1の仮想計算機を第1のサーバ装置から他のサーバ装置へ移動する際の、仮想ディスク転送に伴うネットワークを介した通信の速度低下、移動に伴う第1の仮想計算機の応答速度の低下、資源の再配分により第1の仮想計算機の再起動が必要になること、のいずれか一つ以上、を計算することが開示される。
さらに、第1の端末は、
画面上に、仮想計算機の資源再配分を要求するボタンを表示し、
ユーザによるボタンの押下操作に応じて、資源の再配分要求を管理サーバ装置へ送信することが開示される。
さらに、管理サーバ装置は、
資源の再配分要求を受け付けた場合、
第1の仮想計算機による第1のサーバ装置の資源利用状況を調べ、
資源の種類のいずれか一つがあらかじめ定めた閾値を超えていなければ、資源の再配分要求を拒否する応答を、第1の端末へ送信することが開示される。
さらに、管理サーバ装置は、
第1の仮想計算機の資源利用状況を調べ、資源の種類のいずれか一つがあらかじめ定めた閾値を超えている場合に、第1の仮想計算機の移動先となる他のサーバ装置の有無、または、第1のサーバ装置上で動作する他の仮想計算機を移動中でないか、を調べ、
他のサーバ装置が無い場合、または、他の仮想計算機の移動中である場合に、資源の再配分要求を拒否する応答を、第1の端末へ送信することが開示される。
また、他の態様として開示されるのは、第1の仮想計算機が動作する第1のサーバ装置と、一つ以上の他のサーバ装置と、管理サーバ装置と、第1の端末とがネットワーク,を介して接続される計算機システムであって、
管理サーバ装置は、
第1の仮想計算機による第1のサーバ装置の資源利用率を調べ、
資源の種類のいずれか一つ以上があらかじめ定めた閾値を超えている場合に、資源の再配分による副作用を計算し、
計算した副作用の情報を伴う資源の再配分の提案を、第1の端末に送信して、ユーザへ提示させ、
第1の端末から、ユーザが第1の端末へ入力した、副作用に対する了承を受信した場合に、提案した資源の再配分を開始することを特徴とするものである。
さらに、第1のサーバ装置上で、第1の仮想計算機以外の仮想計算機が一つ以上動作している場合に、管理サーバ装置は、
各々の仮想計算機による第1のサーバ装置の資源利用率を調べ、
資源の種類のいずれか一つ以上があらかじめ定めた閾値を超えている仮想計算機が複数存在する場合、の複数仮想計算機の間に優先順位を付けて、
優先順位に従って、副作用の計算と、資源の再配分の提案と、を実施することが開示される。
また、さらに他の態様として開示されるのは、第1の仮想計算機が動作する第1のサーバ装置と、一つ以上の他のサーバ装置と、管理サーバ装置と、第1の端末とがネットワーク,を介して接続される計算機システムであって、
管理サーバ装置は、
第1のサーバ装置で動作する第1の仮想計算機が利用する資源を調べ、
第1の仮想計算機を他のサーバ装置へ移動可能な場合、移動による副作用を計算し、
計算した副作用の情報を伴う移動の提案を、第1の端末に送信して、ユーザへ提示させ、
第1の端末から、ユーザが第1の端末へ入力した、副作用に対する了承を受信した場合に、提案した移動を行うことを特徴とするものである。
開示によれば、仮想計算機の資源再配分による副作用を、ユーザが資源再配分実行前に把握することができる。
実施例1のシステム構成全体を表す図である。 実施例におけるサーバ102の内部構成を例示する図である。 実施例におけるVM設定情報241の内部構成を例示する図である。 実施例における資源配分部111の内部構成を例示する図である。 実施例における資源状況DB401の内部構成を例示する図である。 実施例におけるネットワーク経路DB402の内部構成を例示する図である。 実施例における配分閾値表403の内部構成を例示する図である。 実施例における配分記録DB404の内部構成を例示する図である。 実施例における副作用計算DB408の内部構成を例示する図である。 実施例における配分要求対応部405の動作シーケンスを例示するフローチャートである。 実施例における配分提案部406の動作シーケンスを例示するフローチャートである。 実施例における資源配分エージェント151の表示画面を例示する図である。 実施例におけるシステム動作開始の動作シーケンスを例示するシーケンス図である。 実施例におけるシステム動作終了の動作シーケンスを例示するシーケンス図である。 実施例におけるユーザから資源再配分要求が来た時の動作シーケンスを例示するシーケンス図である。 実施例における複数のユーザから資源再配分要求が来た時の動作シーケンスを例示するシーケンス図である。 実施例におけるサーバ負荷が高い時の配分提案の動作シーケンスを例示するシーケンス図である。 実施例におけるVMを一カ所にまとめる動作シーケンスを例示するシーケンス図である。
以下、実施例を、図面を用いて説明する
本実施例では仮想計算機(VM)にユーザの作業環境であるデスクトップを構築し、仮想化デスクトップとして利用する際のVMの資源配分方法の例を説明する。
図1は実施例1のシステム構成を表すものである。本システムは、VMを動作させる複数台のサーバおよびVMの資源を監視、管理する一台の管理サーバを含んで構成される仮想化基盤と、この仮想化基盤上のVMへリモート接続し、VMを遠隔操作する複数台の端末を含んで構成される。端末は広範囲のネットワーク(WAN)を経由して、小範囲ネットワーク(LAN)へ接続し、小範囲ネットワークに接続する仮想化基盤に接続する。本システムの一つの例は、企業のデータセンタにおける仮想化デスクトップを集中管理する基盤と仮想化デスクトップを利用するための端末システムである。この場合、小範囲ネットワーク(LAN)はデータセンタ内のローカルネットワークとなる。
本実施例のシステムについて詳細に説明する。本実施例のシステムは管理サーバ101、サーバ102に代表されるサーバ装置群、端末141に代表される端末群および前記の三者が互いに通信するためのLAN132およびWAN131というネットワークを含んで構成される。また、本システムのユーザとして端末141を利用するユーザ1、端末142を利用するユーザ2、端末143を利用するユーザ3がいる。サーバ102に代表されるサーバ装置群はVMを動作させるための装置である。管理サーバはVMの動作制御、資源配分を管理するための装置である。端末は、ユーザがVMに接続して利用するための装置である。
図2はサーバ102の内部構成を例示するものである。サーバ102はメモリ201、プロセッサ202、固定ディスク203および通信ハードウェア204を含んで構成される計算機上に実現することができる。
プロセッサ(CPU)202はデータを処理するための計算機能を持つハードウェアである。最近のプロセッサは、データ処理命令を実行する部分や処理結果を一時的に保存しておく部分などからなる一組のハードウェアであるCPUコアを一つ以上含むことがある。それぞれのCPUコアは独立して動作することができるため、CPUコア数が多いことはCPU性能の向上につながる。図2に示すプロセッサ202はコア251、コア252、コア253、コア254という4組のCPUコアからなるプロセッサである。
通信ハードウェア204はNIC(ネットワークインタフェースカード)など、ネットワーク通信のためのデバイスである。固定ディスク203はデータやデータ処理ソフトウェア(プログラム)を格納する不揮発性記憶媒体(例えば磁気ディスク、フラッシュメモリなど)である。メモリ201はプログラムを実行する際にプロセッサ202が利用する記憶媒体であり、揮発性であっても良い。
固定ディスク203には、OS(オペレーティングシステム)231と資源監視エージェント114と仮想化ソフト113とVM121の仮想固定ディスクであるVHD211、VM122の仮想固定ディスクであるVHD212、VM123の仮想固定ディスクであるVHD213と、VM設定情報241が格納されている。VM設定情報241に関しては後述する。
OS231は通信ハードウェア204の制御やメモリ201の管理をし、仮想化ソフト113や資源監視エージェント114をメモリ201に展開し、実行する機能を備える。
仮想化ソフト113は、サーバ102上に仮想計算機および仮想化デスクトップを実現するいわゆる仮想化機能を備えたソフトウェアである。仮想化ソフト113が後述のVM設定情報241を参考し、VMにハードウェア資源を配分し、動作させる。なお、仮想化ソフト113は、ほかのサーバのソフトウェアから命令を受けて、その命令によりVMの新規作成、起動、終了、ほかのサーバへの移動などの機能を備える。また、資源監視エージェント114は、仮想化ソフト113上動作するVMおよびサーバ103の資源利用率(CPUのコア毎の利用率、メモリ利用率、固定ディスク(HDD)アクセス帯域の利用率、ネットワーク帯域の利用率)に関する情報を収集し、収集した情報をほかのソフトウェアへ送信する機能を備えるソフトウェアである。ほかのサーバはサーバ103と同じ構成である。ただし、サーバごとに処理速度や収容できるVM数が異なることもある。
上記ソフトウェアは、プロセッサ202により実行され、上記および以下に説明する機能を実現する。
図3はVM設定情報241の内部構造を例示するものである。VM設定情報241は仮想化ソフト113がVMを起動する時に、それぞれのVMに配分する資源量を示すデータである。まず、ID301の列にはサーバ102上で稼働しているVMのIDを記載する。プロセッサ302はそれぞれのVMが利用するCPUコア数を示す。ディスクアクセス帯域303はそれぞれのVMが利用するディスクアクセス帯域を示す。この項目に“共有”が記載される場合は、各VMに個別に帯域が割り当てられず、すべてのVMが一つの通信経路を共有することを意味する。最後に、ネットワーク帯域305はそれぞれのVMが利用するネットワークインタフェースの最大通信帯域を示す。この項目に“共有”が記載される場合は、各VMに個別に専用の帯域が割り当てられず、すべてのVMが一つの通信経路を共有することを意味する。
管理サーバ101はサーバ群の中のVMの資源配分を管理するためのネットワーク通信が可能な装置である。管理サーバ101は、資源配分部111を含んで構成される。資源配分部111の構成に関しては後述する。
端末の例として端末141について説明する。端末141の中には資源配分エージェント151とVM接続部161が配置される。なお、VM接続部161はサーバ102などのサーバ上のVMに接続してVMの画面を端末141の画面で表示する、いわゆる画面転送ソフトウェアである。資源配分エージェント151については後述する。ほかの端末は端末141と同じ構成である。ただし、端末ごとに処理速度や表示画面のサイズが異なることもある。
上記管理サーバ101と端末141他の、各処理部や以下に説明する機能も、プロセッサと、記憶装置を備える計算機において、記憶装置に格納されたそれぞれを実現するプログラムをプロセッサが実行することにより実現することができる。
図4は資源配分部111の詳細な機能構成を例示する。資源配分部111は資源状況DB401、ネットワーク経路DB402、配分閾値表403、配分記録DB404、副作用計算DB408、配分要求対応部405、配分提案部406およびVM片寄部407を含んで構成する。以下それぞれの要素について説明する。
図5は資源状況DB401の構成を例示するものである。資源状況DB401は仮想化基盤上の各サーバおよびVMの資源の利用状況を保存するデータベースである。サーバ501の列は仮想化基盤の中のサーバのマシン名を記録する。CPU利用率502はそれぞれのサーバ上動作しているVMの利用しているCPUコアの利用率および仮想化ソフト自身のCPUコア利用率を記録する。ディスクアクセス帯域利用率503はそれぞれのサーバ上動作しているVMの占有するディスクアクセス帯域および仮想化ソフト自身が占有するディスクアクセス帯域を記録する。メモリ利用率504はそれぞれのサーバ上動作しているVMが割り当てられたメモリの利用率および仮想化ソフト自身が利用しているメモリ領域の利用率を記録する。ネットワーク帯域利用率505はそれぞれのサーバ上動作しているVMの占有するネットワーク帯域および仮想化ソフト自身が占有するネットワーク帯域を記録する。
図6はネットワーク経路DB402の構成を例示するものである。ネットワーク経路DB402は本システムの仮想化基盤の各サーバの間のネットワーク経路を記憶するデータベースである。ネットワーク経路601は始点のサーバと終点のサーバで構成される各ネットワーク経路を記載する。ネットワーク装置602はそれぞれのネットワーク経路が通過するネットワーク装置(ルータまたはハブ)の一覧を記録する。
図7は配分閾値表403の構成を例示するものである。配分閾値表403は各ハードウェア資源に対して、推奨する最大利用率を記録する表である。VMのある資源の利用率がこの最大利用率を超えた場合、VMの性能へ影響が与える可能性があるため資源の再配分を行った方がよいという意味を持つデータである。資源の種類701は各ハードウェアの資源の種類を記録する。閾値702はそれぞれの資源に対して推奨する最大利用率を記録する。
図8は配分記録DB404の構成を例示するものである。配分記録DB404は本システムで実施中または実施済みのVMの資源配分を記録するデータベースである。ID801の列は資源配分対象のVMのIDを記録する。配分前のサーバ802は、配分対象のVMが配分前に稼働したサーバのIDを記録する。配分後のサーバ103は配分対象のVMが配分後に稼働したサーバのIDを記録する。配分開始時刻804は配分が開始した時刻を記録する。配分終了時刻805は配分が終了した場合、その終了時刻を記録し、配分が終了していない場合はその終了予定時刻を記録するものである。
図9は副作用計算DB408の構成を例示するものである。副作用計算DB408はVMの資源配分に伴うデータ転送作業やソフトウェア設定変更作業など、およびそれらの作業のユーザへの影響を記録するデータベースである。まず、作業ID1101は資源配分に必要となる作業項目の区別番号である。作業1102は作業の内容の説明となる。ユーザへの影響1103はそれぞれの作業が資源配分対象となるVMのユーザへの影響を記載する。計算方法1104はそれぞれの作業の所有時間または所有時間の計算方法を記載する。
図10は配分要求対応部405の動作手順を例示するフローチャートである。配分要求対応部405はユーザからVMの資源配分要求が来た時に対応する機能である。配分要求対応部405は管理サーバ101が稼働している間には常時稼働する。
ステップ901において、ユーザからの資源配分の要求を待つ。ユーザからの資源配分要求を受け付けた場合、ステップ902でまず資源配分を要求したユーザが利用中のVM(以下配分対象VMと呼ぶ)の資源状況を資源状況DB206で確認し、配分対象のVMの各資源の中では配分閾値表403に示された閾値を超えた資源があるかどうかを確認する。利用率が閾値を超えた資源がない場合は、ステップ9010で配分拒否という結果をユーザに返答して、ステップ901に戻る。配分拒否の表示方法については後述する。
一方、利用率が閾値を超え不足している資源(以下、不足資源と呼ぶ)がある場合、資源不足を解消するためにステップ903以降で再配分を検討する。不足資源は複数があってもよい。
ステップ903では、資源状況DB206の中から、ステップ902で特定した資源不足を解消する資源を提供できるサーバ(以下、配分用のサーバと呼ぶ)を探し、いずれか一つを選択する。
ステップ903において、配分用のサーバは、次の条件(1)、(2)、(3)をすべて満たすサーバとしてもよい。
(1)不足資源の資源利用率はA%以下のサーバであること。A%は10%としてもよい。なお、不足資源が複数存在する時はそれぞれの資源について利用率がA%以下という条件を設けてもよい。また、不足資源が複数存在する時は一部の資源について利用率がA%以下という条件を設けてもよい。
(2)配分対象のVMの稼働中のサーバからのネットワーク経路は、すでに実施中別のVMの配分用に使われるネットワーク経路と重ならないこと。
(3)上記の条件(1)と(2)を満たしたサーバのうち、配分対象のVMの稼働中のサーバからのネットワーク経路の利用するネットワーク装置(ルータやハブなど)の数が最小であること。
上記のように、本実施例においてステップ902で、資源配分を要求がある時に、該当VMのどの資源が不足しているか判定する。
ステップ904では、ステップ903において再配分用のサーバが見付からなかった場合は配分不可という結果をステップ905でユーザに返答し、ステップ901に戻る。配分不可の表示方法については後述する。一方、ステップ903で配分用のサーバが見付かった場合、ステップ906で配分を行う場合の副作用を計算する。
ステップ907では副作用をユーザへ提示し、ステップ908でユーザの了承があるかを確認する。ユーザが了承した場合はステップ909で資源再配分を実施する。ユーザが了承しない場合はステップ901に戻る。
ステップ906、ステップ907の詳細については後述する。
上記のように、本実施例においては上記の条件(1)、(2)、(3)を満たさない場合、つまり、
配分用の資源を確保できるサーバがない、または資源配分のためのデータ転送が別の資源配分のデータ転送とネットワーク上またはサーバ上ぶつかる可能性がある場合は配分要求に対応しない。
図11は配分提案部406の動作手順を例示するフローチャートである。配分提案部406はB分間隔で定期的にOS231に呼び出されて実行するソフトウェアである。Bは10としてもよい。一回の実行の手順は次のようになる。
まず、ステップ1001において、配分記録DB404で実施中の資源配分があるかどうかを確認する。実行中の資源配分がある場合は終了する。
次に、ステップ1002において、資源状況DB401を参照し、配分閾値表403に記載されるいずれか一つ以上の閾値を超える資源を持つVM(以下資源不足のVMと呼ぶ)があるかどうかを確認する。また、使用率が閾値を超えた資源を不足資源と呼ぶ。資源不足のVMがない場合、配分提案部406は終了する。資源不足のVMが一つ又は複数ある場合、配分提案部406はステップ1003において資源不足のVMのグループの中で順番を決定する。
ステップ1003の処理内容について後述する。
ステップ1004では、ステップ1003において決められた順番で順位の高いVMを選んでステップ1005において選んだVMの不足資源を配分する際の副作用を計算する。
ステップ1006において、ステップ1005で計算した副作用をユーザへ提示し、選んだVMのユーザの了承を求める。
ステップ1005の処理は後述するステップ903および後述するステップ906である。次に、ステップ1007において、ユーザが資源配分を了承した場合は配分を実施、終了する。一方、選んだVMのユーザが配分を了承しない場合はステップ1009において、選んだVMを資源不足VMのグループから外し、資源不足VMのグループにVMが残っている場合はステップ1004に戻り、そうでない場合は終了し、B分後にまたステップ1001から実施する。
ステップ1003の処理は以下となる。資源不足のVMのグループの中で優先順位を決める基準として、以下の基準(1)を利用する。
(1)不足資源の利用率が高いVMほど優先順位が高い。
なお、上述の基準(1)の代わりに、下記の基準(2),基準(3)のいずれかを利用してもよい。
(2)資源再配分に伴うネットワークを使った転送するデータ容量が少ないVMほど優先順位が高い。
(3)組織の中の職位が低いユーザのVMほど優先順位が高い。
(4)システム利用額が低いプランを利用するユーザのVMほど優先順位が高い。
上記のように、本実施例においては資源不足のVMが複数ある場合、管理サーバが資源配資源利用率の高いVMの間に優先順位を付けてその順位で配置提案をユーザへ提示する。
ステップ906の詳細処理は以下となる。まず、資源配分対象のVMの現在稼働中のサーバがステップ903で選定したサーバと異なった場合は、配分対象のVMをステップ903で選定したサーバに移動するための作業を副作用計算DB408より選択し、それに対応する計算方法でそれぞれの作業の所有時間を計算する。なお、作業ID1の転送時間の計算において、仮想ディスクサイズはVHD211などのファイルの容量であり、転送レート(Transmit_speed)は次の式で計算してもよい。
Transmit_speed=Max_speed/VM_number
ここでMax_speedは再配分対象のVMが稼働中のサーバのネットワークインタフェースの最大通信速度で、VM_numberは再配分対象のVMと同じサーバで稼働しているVM総数である。また、作業ID2の転送時間の計算において、転送レートも上記のTransmit_speedの計算式を利用してもよい。
上記のように、本実施例においてはVMの資源配分時に配分作業がもたらすネットワーク占有、ディスクアクセス帯域占有、VM操作反応の鈍化などという副作用を計算する。
VM片寄部407は稼働中のVMを一カ所にまとめて、不要なサーバの電源をオフにして仮想化基盤の消費電力を抑える処理の流れを例示するものである。VM片寄部407の詳細処理について後述する。
図12は資源配分エージェント151の表示画面を示す。資源配分エージェント151はネットワーク経由で管理サーバ101の資源配分部111と通信し、資源配分部111からの提示情報をユーザへ表示し、また、資源配分部111へユーザの選択に関する情報を転送する役割を果たすソフトウェアである。
資源配分エージェント151は端末141の中で動作し、画面1201を表示する。
画面1201の中のボタン1221はユーザがVMの資源配分を要求する際に押すボタンである。
画面1202は配分要求対応部405がステップ910において配分要求を拒否する場合、資源配分エージェント151がユーザに表示する画面である。
画面1203は配分要求対応部405がステップ905において配分ができない場合、資源配分エージェント151がユーザへ表示する画面である。
また、画面1024は配分要求対応部405がステップ907において計算した副作用を資源配分エージェント151に送った際に、資源配分エージェント151がユーザへ表示する画面である。画面1024は、資源再配分の効果を表示する表示エリア1211と資源再配分の影響を表示する表示範囲1212を含めている。資源再配分の効果とは再配分後の資源状況を示すものである。また資源再配分の影響とは、配分要求対応部405がステップ906において計算した結果を表示するものである。
最後に、画面1205は資源配分実施中に資源配分エージェント151がユーザへ提示する画面である。画面1205中の矢印1221は資源配分の進捗状況を示すものである。
図13は本実施例のシステムの動作開始手順を例示するものである。まず、システム管理者がステップ1301において管理サーバを起動し、また、ステップ1302においてサーバ102、103、104を起動する。
ステップ1303において、管理サーバが資源配分部111を起動する。
ステップ1304においてサーバ102は仮想化ソフト113をメモリ上に展開し、仮想化ソフト113がさらにVM設定情報241を読み取り、VM設定情報241に基づきVM121、VM122およびVM123にハードウェアの資源を配分し、動作させる。
ステップ1305において、各サーバ102、103、104は資源監視エージェント114を起動する。資源監視エージェント114はC分ごとに一回等定期的に資源配分部111の中の資源状況DB401の情報を更新する(ステップ1306で更新作業開始)。Cの値は1としてもよい。
ステップ1306において、仮想化基盤の起動が完了となる。
次にユーザが仮想化基盤の利用開始手順について説明する。
ステップ1307において、ユーザ1が端末141を起動し、ステップ1308ではユーザ1が端末141を利用してVM121に接続し、VM121の画面操作を開始する。
ステップ1309は資源配分エージェント151の起動であり、端末141がステップ1308と同じタイミングで実施する作業である。これでユーザ1がVM121の画面操作のための作業が完了する。
ステップ1210はユーザ2およびユーザ3がそれぞれVM122、VM123に接続して操作を開始する。最終的に、ステップ1211では、ユーザ1、ユーザ2、ユーザ3がVM121、VM122、VM123をそれぞれ利用する。なお、VM121、VM122、VM123はサーバ102で稼働する。これは本実施例のシステムの正常な利用状況である。
図14は本実施例のシステムの動作終了手順を例示するものである。
ステップ1400において、ユーザ1、ユーザ2、ユーザ3がVM121、VM122、VM123をそれぞれ利用する。なお、VM121、VM122、VM123はサーバ102で稼働している。そこで、まず、ユーザ1が作業終了するとする。
ステップ1401でユーザ1がVM121の電源をオフにする。次に、ステップ1402において、ユーザ1が端末141の電源をオフにする。また、ステップ1403において、ユーザ2およびユーザ3もそれぞれVM122、VM123の電源をオフに、端末142、端末143の電源をオフにする。
ステップ1404において、システム管理者はVMが稼働しないサーバ102およびその他のサーバ(103、104)の電源をオフにする。また、管理者がステップ1405において管理サーバ101の電源をオフにする。これで本実施例のシステムが動作停止する。
図15は本実施例のシステムにおいて、ユーザからVMの資源配分要求が発生した場合の動作手順を例示するものである。まず、ステップ1500において、ユーザ1、ユーザ2、ユーザ3がVM121、VM122、VM123をそれぞれ利用する。なお、VM121、VM122、VM123はサーバ102で稼働しているとする。
そこで、ステップ1501において、サーバ102のCPUコア1およびコア2の利用率が90%に上昇したとする。このCPUの高負荷はユーザ1およびユーザ2のVMの操作感覚へ影響を与える。ユーザ1が、ステップ1505において、業務に支障を感じ、ステップ1506において、資源配分エージェント151の画面1201のボタン1221に押すことで、VM121への資源の再配分を要求する。
一方、ユーザ2は業務に支障を感じず、そのままVM122の操作を続行する(ステップ1504)。以下はユーザ1の資源配分要求に対する対応の一連の動作について説明する。
まず、配分要求対応部405がユーザ1の要求を受け付け、ステップ1527では前述のステップ902からステップ906まで実施し、資源の再配分による副作用を計算する。
そして、ステップ1507では、ステップ906で計算した副作用の情報を端末141の資源配分エージェント151に送信し、資源配分エージェント151は副作用の情報を用いて画面1204を生成し、端末141へ表示し、ユーザ1の資源再配分による副作用に対する了承を求める。
ステップ1508において、ユーザ1が資源再配分による副作用に対する了承を、端末141に入力したとする。すると、ステップ1509において、配分要求対応部405が画面1205を利用してディスク転送の開始をユーザへ通知する。
ステップ1510において、サーバ102がVM121の仮想ディスクVHD211をサーバ103へ移動する。
ステップ1531では、ユーザ1がVHD211の移動中VM121を操作することが可能だが、ネットワーク通信およびディスクの入出力の性能が低下する。
ステップ1511において、配分要求対応部405がユーザへVM移動開始を通知する。通知方法は資源配分エージェントの画面1205の矢印1221を作業内容の”VMの移動”のところに移動することである。
ステップ1512において、サーバ102がVM121をサーバ103にVMを移動させる。この例ではサーバ102がVMを停止させずに移動させる方法を採用するとする。また、サーバ102はVM121のVM設定情報241もサーバ103へ転送する。VM移動の間はステップ1513においてユーザのVM操作が停止になることがある。
ステップ1514において、サーバ移動完了後、サーバ103がVM121のVM設定情報のプロセッサ302の値を1コアから2コアへ変更する。次に、ステップ1515において配分要求対応部405が画面1205の矢印1221を作業内容の”再起動”のところに移動し、再起動をユーザへ通知する。そして、ステップ1516においてサーバ103がVMを再起動し、資源配分結果を適用する。ユーザ1はステップ1517でVM121の再起動を待ち、ステップ1518においてVM121に再接続し、ステップ1519においてCPUコア数が2つになったVM121の環境を利用する。
上記のように、本実施例においては資源再配分を実施する前に、資源配分の副作用を計算し(ステップ1527)ユーザへ提示する(ステップ1507)。ユーザの了承を得た際に(ステップ1508)資源配分を実行する。
また、本実施例においては端末の中に資源配分要求の画面が装置され、ユーザが資源配分を要求する際にはこの画面上のボタン(ボタン1221)を押すことで、資源配分要求を送ることができる。
図16は実施例のシステムにおいて、複数のユーザから資源再配分要求が来た時の処理の流れを例示するものである。まず、ステップ1600において、ユーザ1、ユーザ2、ユーザ3がVM121、VM122、VM123をそれぞれ利用する。なお、VM121、VM122、VM123はサーバ102で稼働するとする。
そこで、ステップ1601において、サーバ102のCPUコア1およびコア2の利用率が90%に上昇したとする。このCPUの高負荷はユーザ1およびユーザ2のVMの操作感へ影響を与える。そして、ユーザ1の方が業務に支障を感じて、ステップ1605において、資源配分を要求する。すると、ステップ1606において、配分要求対応部405がユーザ1の資源配分要求対応を開始する。
ステップ1606からステップ1611までの間は、配分要求対応部405が前述のステップ1507からステップ1518までの一連の処理を行う。しかし、この場合、ユーザ2も業務に支障を感じ、ステップ1608に画面1201のボタン1221を押し、資源配分要求を配分要求対応部405へ送る。
この場合、配分要求対応部405がステップ1606において、ユーザ2の要求を処理する。具体的に、ステップ1609において、前述のステップ902から906までの流れで処理する。しかし、この場合、配分記録DB404にはVM122と同じサーバ上で稼働しているVM121の資源配分の実施中の記録があるため、ステップ904の選択では選択結果が”NO”となり、ステップ905が実行される。そのため、ステップ1610において、配分要求対応部405が資源監視エージェント114を介してユーザ2に画面1203を提示する。
図17は実施例のシステムにおいて、VMの資源利用率が高いが、ユーザから資源再配分要求がない時の処理の流れを例示するものである。まず、ステップ1700において、ユーザ1、ユーザ2、ユーザ3がVM121、VM122、VM123をそれぞれ利用する。なお、VM121、VM122、VM123は、一つのサーバ102で稼働するとする。
そこで、ステップ1701において、サーバ102のCPUコア1およびコア2の利用率がそれぞれ92%と90%に上昇したとする。このCPUの高負荷はユーザ1およびユーザ2のVMの操作感へ影響を与える。しかし、この場合、ユーザ1、ユーザ2両者とも資源再配分要求を出さずにいた。そこで、ステップ1707において、配分提案部406がVM121およびVM122の高いCPU利用率を検出したとする。すると配分提案部406は前述のステップ1003からの処理を実行する。この場合、ステップ1003においての資源不足VMグループがVM121とVM122となる。
ステップ1004においての順位決定では、VM121の方はCPU利用率が高いためステップ1004においてVM121が選ばれる。そして、配分提案部406がステップ1006においてVM121のCPUコアを追加時の副作用を計算する。
ステップ1710において配分提案部406がステップ1006で計算した副作用を、画面1204を用いてユーザに提示する。
ステップ1710において、ユーザ1がこの再配分の提案を拒否する。すると、配分提案部406がステップ1009でVM121を資源不足VMグループから外し、ステップ1004に戻る。そして、ステップ1771では、配分提案部406が資源不足VMグループに残っているVM122を選んで、副作用を計算しステップ1712でユーザ2へ提示する。
ステップ1713において、ユーザ2が資源再配分を了承する。するとステップ1714においてVM122のCPUのコア数追加作業が行われる。
上記のように、本実施例においてはVMの資源利用率が高いが、ユーザから資源再配分要求がない時、管理サーバが資源利用率の高いVMのユーザに対して資源再配分の提案を実施する。
図18は実施例のシステムにおいて、稼働中のVMを一カ所にまとめて(一ヶ所にまとめることを片寄せと称する)、不要なサーバの電源をオフにして仮想化基盤の消費電力を抑える処理の流れを例示するものである。
まず、VM片寄部407はステップ1800において常時各サーバ上のVMが利用するCPU利用率502、ディスクアクセス帯域利用率503、メモリ利用率504およびネットワーク帯域利用率505を監視し、片寄せできるサーバがあるかを確認する。片寄せできるサーバがあるかを確認するために、次の方法を採用してもよい。
VM片寄部407は以下の条件(1)、(2)、(3)、(4)、(5)をすべて満たす二つのサーバX、Yがあるかを確認する。条件(1)、(2)、(3)、(4)、(5)をすべて満たす二つのサーバX、Yがある場合、サーバX上のVMをサーバYへの片寄せを行う。
(1)サーバX上一つのVMだけが稼働している。サーバY上は一つ以上のVMが稼働している。
(2)サーバX上稼働しているVMが利用するCPUコア数がサーバY上の利用率が0%のコア数よりも少ないは又は等しい。また、サーバXおよびサーバY上の各CPUコアの利用率はCPUの閾値702を超えない。
(3)サーバX上のVMのメモリ利用率とサーバYのメモリ利用率の総和がメモリ帯域の閾値702を超えない。
(4)サーバX上のVMのディスクアクセス帯域利用率とサーバYのディスクアクセス帯域利用率の総和がディスクアクセス帯域の閾値702を超えない。
(5)サーバX上のVMのネットワーク帯域利用率とサーバYのネットワーク帯域利用率の総和がネットワーク帯域の閾値702を超えない。
上述の(1)、(2)、(3)、(4)、(5)をすべて満たす二つのサーバX、Yがある場合、サーバX上のVMをサーバYに移動してもサーバYの資源利用率が閾値を超えないことになり、片寄せが可能になる。なお、一つのサーバXに対して、複数のサーバYが存在する時、もっともCPUの利用率が少ないサーバYを選択してもよい。
なお、図18に示す例では、ステップ1801において、ユーザ1、ユーザ2、ユーザ3がVM121、VM122、VM123をそれぞれ利用する。なお、VM121、VM122、VM123はサーバ102で稼働するとする。またサーバ104もステップ1802において一つ以上のVMを実行している。
ステップ1803においてユーザ1がVM121の電源をオフにし、そしてステップ1804においてユーザ2が端末141の電源をオフにする。そして、ステップ1805おいてユーザ2がVM122電源をオフにし、そしてステップ1806おいてユーザ2が端末142の電源をオフにする。ステップ1806の時点でサーバ102上に動作するのはVM123だけとなっている。
そこで、ステップ1807において、ステップ1800に記述した検出方法でVM片寄部407はサーバ102からサーバ104へVMを片寄できると検出したとする。ステップ1808において、VM片寄部407は移動対象のVMとして、サーバ102の中のVM123を選択し、サーバ102からサーバ104へ移動する時の副作用計算をステップ1809で行う。
ステップ1809の処理内容はステップ1005の副作用計算と同じである。そこで、ステップ1810においてVM片寄部407がユーザ3へサーバ移動の提案を行う。この場合、VM片寄部47がユーザ3へ画面1204を提示する。
ステップ1811において、ユーザがVMのサーバ移動を了承する。すると、ステップ1812において、サーバ102がVM123をサーバ103へ移動する。
ステップ1812の処理はステップ1507からステップ1512までの処理と同じである。VM123がサーバ104へ移動した後に、ステップ1814ではサーバ104がVM123を動作させる。
ステップ1813において、サーバ102上のVMがなくなったため、管理者がサーバ102の電源をオフにする。
上記のように、本実施例においてはユーザの了解を確認した上で管理サーバが動作中のVMを一カ所に片寄せて、VMがなくなったサーバの電源をオフにし、サーバの消費電力を抑えることができる。
なお、本実施例において資源再配分の履歴(配分記録DB404)を参考に、システムが起動時のVMの配置を決定してもよい。例えば、資源再配分の回数が多いVMを同じサーバ上に再配置するまたは均等に各サーバへ配置してもよい。
なお、上記の実施例は例示に過ぎず、上述の開示に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例において、必ずしも説明したすべての構成を備える必要はない。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。また、上記の各構成、機能等は、CPUがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、データベースなどの情報は、メモリやHDDなどの記憶装置またはICカード、SDカード、DVDなどの記憶媒体に置くことができる。
101:管理サーバ
102:仮想化サーバ
103:仮想化サーバ
104:仮想化サーバ
121:仮想計算機
113:仮想化ソフト
114:資源監視エージェント
131:小範囲ネットワーク(LAN)
112:広範囲ネットワーク(WAN)
141:端末
151:資源配置エージェント
161:VM接続部

Claims (8)

  1. 第1の仮想計算機が動作する第1のサーバ装置と、一つ以上の他のサーバ装置と、管理サーバ装置と、第1の端末とがネットワークを介して接続される計算機システムにおいて、
    前記管理サーバ装置は、
    前記第1の仮想計算機のユーザが使用する第1の端末から、前記第1の仮想計算機への資源の再配分要求を受け付け、
    要求された資源の再配分による副作用を計算し、
    計算した前記副作用の情報を、前記第1の端末に送信して、前記ユーザへ提示させ、
    前記第1の端末から、前記ユーザが前記第1の端末へ入力した、前記副作用に対する了承を受信した場合に、
    要求された前記資源の再配分を開始する
    ことを特徴とする計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記管理サーバ装置は、前記副作用として、
    前記第1の仮想計算機を前記第1のサーバ装置から前記他のサーバ装置へ移動する際の、仮想ディスク転送に伴う前記ネットワークを介した通信の速度低下、前記移動に伴う前記第1の仮想計算機の応答速度の低下、前記資源の再配分により前記第1の仮想計算機の再起動が必要になること、のいずれか一つ以上、を計算する
    前記仮想計算機の配分作業がもたらす影響は
    ことを特徴とする計算機システム。
  3. 請求項1または2に記載の計算機システムであって、
    前記第1の端末は、
    前記画面上に、前記仮想計算機の資源再配分を要求するボタンを表示し、
    前記ユーザによる前記ボタンの押下操作に応じて、前記資源の再配分要求を前記管理サーバ装置へ送信する
    ことを特徴とする計算機システム。
  4. 請求項3に記載の計算機システムであって、
    前記管理サーバ装置は、
    前記資源の再配分要求を受け付けた場合、
    前記第1の仮想計算機による前記第1のサーバ装置の資源利用状況を調べ、
    前記資源の種類のいずれか一つがあらかじめ定めた閾値を超えていなければ、前記資源の再配分要求を拒否する応答を、前記第1の端末へ送信する
    ことを特徴とする計算機システム。
  5. 請求項4に記載の計算機システムであって、
    前記管理サーバ装置は、
    前記第1の仮想計算機の資源利用状況を調べ、前記資源の種類のいずれか一つがあらかじめ定めた閾値を超えている場合に、前記第1の仮想計算機の移動先となる他のサーバ装置の有無、または、前記第1のサーバ装置上で動作する他の仮想計算機を移動中でないか、を調べ、
    前記他のサーバ装置が無い場合、または、他の仮想計算機の移動中である場合に、前記資源の再配分要求を拒否する応答を、前記第1の端末へ送信する
    ことを特徴とする計算機システム。
  6. 第1の仮想計算機が動作する第1のサーバ装置と、一つ以上の他のサーバ装置と、管理サーバ装置と、第1の端末とがネットワーク,を介して接続される計算機システムにおいて、
    前記管理サーバ装置は、
    前記第1の仮想計算機による前記第1のサーバ装置の資源利用率を調べ、
    前記資源の種類のいずれか一つ以上があらかじめ定めた閾値を超えている場合に、前記資源の再配分による副作用を計算し、
    前記計算した前記副作用の情報を伴う前記資源の再配分の提案を、前記第1の端末に送信して、前記ユーザへ提示させ、
    前記第1の端末から、前記ユーザが前記第1の端末へ入力した、前記副作用に対する了承を受信した場合に、提案した前記資源の再配分を開始する
    ことを特徴とする計算機システム。
  7. 請求項6に記載の計算機システムであって、
    前記第1のサーバ装置上で、前記第1の仮想計算機以外の仮想計算機が一つ以上動作している場合に、前記管理サーバ装置は、
    各々の前記仮想計算機による前記第1のサーバ装置の資源利用率を調べ、
    前記資源の種類のいずれか一つ以上があらかじめ定めた閾値を超えている前記仮想計算機が複数存在する場合、前記の複数仮想計算機の間に優先順位を付けて、
    前記優先順位に従って、前記副作用の計算と、前記資源の再配分の提案と、を実施する
    ことを特徴とする計算機システム。
  8. 第1の仮想計算機が動作する第1のサーバ装置と、一つ以上の他のサーバ装置と、管理サーバ装置と、第1の端末とがネットワーク,を介して接続される計算機システムにおいて、
    前記管理サーバ装置は、
    前記第1のサーバ装置で動作する前記第1の仮想計算機が利用する資源を調べ、
    前記第1の仮想計算機を他のサーバ装置へ移動可能な場合、前記移動による副作用を計算し、
    前記計算した前記副作用の情報を伴う前記移動の提案を、前記第1の端末に送信して、前記ユーザへ提示させ、
    前記第1の端末から、前記ユーザが前記第1の端末へ入力した、前記副作用に対する了承を受信した場合に、提案した前記移動を行う
    ことを特徴とする計算機システム。
JP2012033526A 2012-02-20 2012-02-20 計算機システム Expired - Fee Related JP5961402B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012033526A JP5961402B2 (ja) 2012-02-20 2012-02-20 計算機システム
CN201310051147.9A CN103257899B (zh) 2012-02-20 2013-02-16 计算机系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012033526A JP5961402B2 (ja) 2012-02-20 2012-02-20 計算機システム

Publications (2)

Publication Number Publication Date
JP2013171355A true JP2013171355A (ja) 2013-09-02
JP5961402B2 JP5961402B2 (ja) 2016-08-02

Family

ID=48961834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012033526A Expired - Fee Related JP5961402B2 (ja) 2012-02-20 2012-02-20 計算機システム

Country Status (2)

Country Link
JP (1) JP5961402B2 (ja)
CN (1) CN103257899B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162147A (ja) * 2014-02-28 2015-09-07 日本電信電話株式会社 ネットワーク機能仮想化基盤管理システム及びネットワーク機能仮想化基盤管理方法
JP2019061359A (ja) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 プログラム及び情報処理装置
JP2020119564A (ja) * 2019-01-23 2020-08-06 三星電子株式会社Samsung Electronics Co.,Ltd. 多重経路ニューラルネットワーク及びそのレイヤにリソースを割り当てる方法並びに多重経路ニューラルネットワークアナライザ

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302648A (zh) * 2015-11-30 2016-02-03 马鞍山市示范生产力促进中心有限公司 一种对虚拟计算机资源再分配的计算机系统
DE102016209872A1 (de) 2016-06-06 2017-12-07 Continental Automotive Gmbh Fahrzeugbordnetz mit Wechselrichter, Energiespeicher, elektrischer Maschine und Wechselstrom-Übertragungsanschluss
DE102016209898A1 (de) 2016-06-06 2017-12-07 Continental Automotive Gmbh Fahrzeugbordnetz mit Wechselrichter, Energiespeicher, elektrischer Maschine und Gleichstrom-Übertragungsanschluss

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212811A (ja) * 1998-01-30 1999-08-06 Hitachi Ltd ファイル容量事前予測型バッチジョブ実行制御方法
JP2007272297A (ja) * 2006-03-30 2007-10-18 Nec Corp オンデマンドクライアントサービスシステム、その管理方法、及びプログラム
JP2009223517A (ja) * 2008-03-14 2009-10-01 Fujitsu Ltd 情報処理システム、情報処理方法及びコンピュータプログラム
JP2011090704A (ja) * 2010-12-17 2011-05-06 Hitachi Ltd 計算機システム、その消費電力低減方法、及びそのプログラム
JP2011134024A (ja) * 2009-12-23 2011-07-07 Fujitsu Ltd 計算機システム、情報処理装置、仮想計算機運用方法及びプログラム
JP2011170679A (ja) * 2010-02-19 2011-09-01 Runcom Systems Inc 仮想計算機システムおよびその資源配分制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8156490B2 (en) * 2004-05-08 2012-04-10 International Business Machines Corporation Dynamic migration of virtual machine computer programs upon satisfaction of conditions
US8095929B1 (en) * 2007-04-16 2012-01-10 Vmware, Inc. Method and system for determining a cost-benefit metric for potential virtual machine migrations
US8310595B2 (en) * 2008-04-21 2012-11-13 Cisco Technology, Inc. Phase determination for resampling video
JP5454135B2 (ja) * 2009-12-25 2014-03-26 富士通株式会社 仮想マシン移動制御装置、仮想マシン移動制御方法および仮想マシン移動制御プログラム
CN101938416B (zh) * 2010-09-01 2012-08-08 华南理工大学 一种基于动态重配置虚拟资源的云计算资源调度方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212811A (ja) * 1998-01-30 1999-08-06 Hitachi Ltd ファイル容量事前予測型バッチジョブ実行制御方法
JP2007272297A (ja) * 2006-03-30 2007-10-18 Nec Corp オンデマンドクライアントサービスシステム、その管理方法、及びプログラム
JP2009223517A (ja) * 2008-03-14 2009-10-01 Fujitsu Ltd 情報処理システム、情報処理方法及びコンピュータプログラム
JP2011134024A (ja) * 2009-12-23 2011-07-07 Fujitsu Ltd 計算機システム、情報処理装置、仮想計算機運用方法及びプログラム
JP2011170679A (ja) * 2010-02-19 2011-09-01 Runcom Systems Inc 仮想計算機システムおよびその資源配分制御方法
JP2011090704A (ja) * 2010-12-17 2011-05-06 Hitachi Ltd 計算機システム、その消費電力低減方法、及びそのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162147A (ja) * 2014-02-28 2015-09-07 日本電信電話株式会社 ネットワーク機能仮想化基盤管理システム及びネットワーク機能仮想化基盤管理方法
JP2019061359A (ja) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 プログラム及び情報処理装置
JP2020119564A (ja) * 2019-01-23 2020-08-06 三星電子株式会社Samsung Electronics Co.,Ltd. 多重経路ニューラルネットワーク及びそのレイヤにリソースを割り当てる方法並びに多重経路ニューラルネットワークアナライザ

Also Published As

Publication number Publication date
CN103257899A (zh) 2013-08-21
CN103257899B (zh) 2016-11-02
JP5961402B2 (ja) 2016-08-02

Similar Documents

Publication Publication Date Title
US11768695B2 (en) Methods and apparatus to deploy a hybrid workload domain
US10659318B2 (en) Methods and apparatus related to management of unit-based virtual resources within a data center environment
US9183016B2 (en) Adaptive task scheduling of Hadoop in a virtualized environment
US8701108B2 (en) Apparatus and method for controlling live-migrations of a plurality of virtual machines
JP5961402B2 (ja) 計算機システム
US10628273B2 (en) Node system, server apparatus, scaling control method, and program
US8843772B2 (en) Systems and methods for dynamic power allocation in an information handling system environment
CN104508634B (zh) 虚拟机的动态资源分配
JP2001331333A (ja) 計算機システム及び計算機システムの制御方法
US20150312167A1 (en) Maximizing server utilization within a datacenter
WO2012056596A1 (ja) 計算機システム及び処理制御方法
US20170017511A1 (en) Method for memory management in virtual machines, and corresponding system and computer program product
WO2019218708A1 (zh) 一种任务处理方法及处理装置、计算机系统
JP2005216151A (ja) 資源運用管理システム及び資源運用管理方法
JP2009169672A (ja) 資源割当てシステム、資源割当て方法及びプログラム
US20100042723A1 (en) Method and system for managing load in a network
US9635102B2 (en) Broker module for managing and monitoring resources between internet service providers
CN112052072B (zh) 一种虚拟机的调度策略及超融合系统
KR20200080458A (ko) 클라우드 멀티-클러스터 장치
CN113886089A (zh) 一种任务处理方法、装置、系统、设备及介质
KR20170055180A (ko) 멀티 운영시스템을 지닌 전자장치 및 이의 동적 메모리 관리 방법
CN112235373A (zh) 基于应用ai的云桌面调度系统及其调度方法
JP5151509B2 (ja) 仮想マシンシステム及びそれに用いる仮想マシン分散方法
CN105208111B (zh) 一种信息处理的方法及物理机
US8589551B2 (en) Multiprocessor computer and network computing system processing use and provision of hardware resource via a network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R151 Written notification of patent or utility model registration

Ref document number: 5961402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees