JP2019022057A - 仮想サーバ構成変更方法および仮想サーバ構成変更システム - Google Patents
仮想サーバ構成変更方法および仮想サーバ構成変更システム Download PDFInfo
- Publication number
- JP2019022057A JP2019022057A JP2017138315A JP2017138315A JP2019022057A JP 2019022057 A JP2019022057 A JP 2019022057A JP 2017138315 A JP2017138315 A JP 2017138315A JP 2017138315 A JP2017138315 A JP 2017138315A JP 2019022057 A JP2019022057 A JP 2019022057A
- Authority
- JP
- Japan
- Prior art keywords
- computer
- virtual
- terminal
- resource management
- management unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
【課題】移動するクライアント端末に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から、常に通信遅延が小さいコンピュータを選択して、サービス中に高速にVMを移動できる仮想サーバ構成変更方法を提供する。【解決手段】複数のコンピュータ5および、各コンピュータ5上に仮想マシン6を生成して起動させる仮想リソース管理部1を含む仮想サーバ構成変更システムSは、クライアント端末7のIPアドレスを監視する。仮想リソース管理部1は、クライアント端末7のアドレスの変更に伴い、クライアント端末7がサービスを受ける仮想マシン6とこのクライアント端末7との間の通信遅延が閾値を超えたならば、このクライアント端末7との通信遅延が閾値以下のコンピュータ5に対して仮想マシン6の生成および起動を指示し、このコンピュータ5上に生成された仮想マシン6のアドレスをこのクライアント端末7に通知する。【選択図】図1
Description
本発明は、仮想サーバ編成方法および仮想サーバ構成変更システムに関する。
《サーバ仮想化技術》
近年のクラウドコンピューティングによるサービスでは、集約効率を高めるために仮想化技術を用いることが一般的である。仮想化技術は、アプリケーションサービスの実行環境を仮想マシン単位で扱うことで、異なるコンピュータリソース上に簡易かつ短時間でサービス環境を展開することを可能にする。仮想マシンの生成、削除等、仮想リソース管理を担うソフトウェア(仮想リソース管理部)として、OpenStack(非特許文献1参照)が注目されている。
以降、仮想マシンをVM(Virtual Machine)とも記載する。
近年のクラウドコンピューティングによるサービスでは、集約効率を高めるために仮想化技術を用いることが一般的である。仮想化技術は、アプリケーションサービスの実行環境を仮想マシン単位で扱うことで、異なるコンピュータリソース上に簡易かつ短時間でサービス環境を展開することを可能にする。仮想マシンの生成、削除等、仮想リソース管理を担うソフトウェア(仮想リソース管理部)として、OpenStack(非特許文献1参照)が注目されている。
以降、仮想マシンをVM(Virtual Machine)とも記載する。
クラウドコンピューティングによる仮想サーバ編成システムの構成を考える。
図6は、比較例に係る仮想サーバ編成システムS1の構成例を示す機能ブロック図である。
図6は、比較例に係る仮想サーバ編成システムS1の構成例を示す機能ブロック図である。
仮想サーバ編成システムS1は、仮想リソース管理部1、コンピュータ5a〜5d、クライアント端末7a〜7dから構成される。
コンピュータ5aはVM6aとVM6bを具現化し、コンピュータ5bはVM6cとVM6dを具現化する。コンピュータ5cはVM6eとVM6fを具現化し、コンピュータ5dはVM6gとVM6hを具現化する。
以降、コンピュータ5a〜5dを単にコンピュータ5、VM6a〜6hを単にVM6と記載することもある。
コンピュータ5aはVM6aとVM6bを具現化し、コンピュータ5bはVM6cとVM6dを具現化する。コンピュータ5cはVM6eとVM6fを具現化し、コンピュータ5dはVM6gとVM6hを具現化する。
以降、コンピュータ5a〜5dを単にコンピュータ5、VM6a〜6hを単にVM6と記載することもある。
仮想リソース管理部1は、OpenStackに代表される仮想リソース管理ソフトウェアであり、例えばコンピュータ5上のVM6を一元管理する。仮想サーバ編成システムS1は、サービスアプリケーションをVM6という単位で、それぞれのコンピュータ5に配備する構成をとる。それぞれのコンピュータ5で実行されるサービスは、各クライアント端末7と、一対一または一対多で結びつく。
クライアント端末7aは、同じロケーション9aにあるコンピュータ5a上のVM6bにアクセスし、サービスの提供を受けている。クライアント端末7bは、同じロケーション9bにあるコンピュータ5b上のVM6dにアクセスし、サービスの提供を受けている。クライアント端末7c,7dは、同じロケーション9cにあるコンピュータ5c上のVM6fにアクセスし、サービスの提供を受けている。
クライアント端末7aは、同じロケーション9aにあるコンピュータ5a上のVM6bにアクセスし、サービスの提供を受けている。クライアント端末7bは、同じロケーション9bにあるコンピュータ5b上のVM6dにアクセスし、サービスの提供を受けている。クライアント端末7c,7dは、同じロケーション9cにあるコンピュータ5c上のVM6fにアクセスし、サービスの提供を受けている。
図7は、比較例に係る仮想サーバ編成システムS1における、仮想マシンの生成指示からクライアント端末7aによるサービスアクセスまでの流れを示したシーケンス図である。
比較例の仮想サーバ編成システムS1においては、クライアント端末7の信号は全て、一箇所のデータセンタサーバに集約して処理される。そのため、サービス開始時にあらかじめ予測需要分のVM6をデータセンタ内のサーバに配備しておくことが一般的である。
ここでは、仮想リソース管理部1がコンピュータ#1(コンピュータ5a)とコンピュータ#2(コンピュータ5b)とコンピュータ#3(コンピュータ5c)の3台を管理している場合を考える。
比較例の仮想サーバ編成システムS1においては、クライアント端末7の信号は全て、一箇所のデータセンタサーバに集約して処理される。そのため、サービス開始時にあらかじめ予測需要分のVM6をデータセンタ内のサーバに配備しておくことが一般的である。
ここでは、仮想リソース管理部1がコンピュータ#1(コンピュータ5a)とコンピュータ#2(コンピュータ5b)とコンピュータ#3(コンピュータ5c)の3台を管理している場合を考える。
まず、サービスプロバイダ8は仮想リソース管理部1に対して、コンピュータ5aにVM6を生成するよう指示を出す(ステップS70)。指示を受けた仮想リソース管理部1はコンピュータ5aにVM6を生成して起動する(ステップS71)。生成と起動が完了したVM6は、起動した旨を仮想リソース管理部1に返信する(ステップS72)。これを受けて、仮想リソース管理部1は、コンピュータ5a上で生成と起動の完了したVM6のIPアドレスを、サービスプロバイダ8に返信する(ステップS73)。
次に、サービスプロバイダ8は仮想リソース管理部1に対して、コンピュータ5bにVM6を生成するよう指示を出す(ステップS74)。指示を受けた仮想リソース管理部1はコンピュータ5bにVM6を生成して起動する(ステップS75)。生成と起動が完了したVM6は、起動した旨を仮想リソース管理部1に返信する(ステップS76)。これを受けて、仮想リソース管理部1は、コンピュータ5b上で生成と起動の完了したVM6のIPアドレスを、サービスプロバイダ8に返信する(ステップS77)。
次に、サービスプロバイダ8は仮想リソース管理部1に対して、コンピュータ5cにVM6を生成するよう指示を出す(ステップS78)。指示を受けた仮想リソース管理部1はコンピュータ5cにVM6を生成して起動する(ステップS79)。生成と起動が完了したVM6は、起動した旨を仮想リソース管理部1に返信する(ステップS80)。これを受けて、仮想リソース管理部1は、コンピュータ5c上で生成と起動の完了したVM6のIPアドレスを、サービスプロバイダ8に返信する(ステップS81)。
仮想リソース管理部1の管理する全てのコンピュータ5にVM6を生成した後に、サービスプロバイダ8は、サービス宛先IPの通知を行う(ステップS82)。すなわち、サービスプロバイダ8は、クライアント端末7aと同じロケーション9aにあるコンピュータ5a上のVM6のIPアドレスを、クライアント端末7にサービス宛先IPとして通知する。
通知を受けたクライアント端末7aは通知されたサービス宛先IPにアクセスし、コンピュータ5a上のVM6で実行されているサービスを利用する(ステップS83)。
通知を受けたクライアント端末7aは通知されたサービス宛先IPにアクセスし、コンピュータ5a上のVM6で実行されているサービスを利用する(ステップS83)。
このように、比較例の仮想サーバ編成システムS1においては、サービス開始時にあらかじめ、サービスプロバイダ8が一括してVM6の生成指示を出しておく。
OpenStack Project、"OpenStack Open Source Cloud Computing Software"、[online]、[平成29年6月16日検索]、インターネット<URL:http://www.openstack.org/>
European Telecommunications Standards Institute(ETSI)、"ETSI - Multi-access Edge Computing"、[online]、[平成29年7月4日検索]、インターネット<URL:http://www.etsi.org/technologies-clusters/technologies/mobile-edge-computing/>
《エッジコンピューティング》
近年、IoT(Internet of Things)の普及に伴い、センシングや物理的なインタラクションを行うために、大容量のデータ処理や高いリアルタイム性を必要とするサービスの増加が予想される。
このようなサービスを実現するために、エッジコンピューティングが提唱されている(非特許文献2参照)。エッジコンピューティングとは、ネットワーク周縁へ計算処理リソース(エッジサーバ)を分散配置する手法である。エッジコンピューティングは、クライアント端末近傍のコンピュータでサービス処理を行い、通信距離を短縮することで、通信トラヒックを最適化し、アプリケーション処理の低遅延化を実現できる。
近年、IoT(Internet of Things)の普及に伴い、センシングや物理的なインタラクションを行うために、大容量のデータ処理や高いリアルタイム性を必要とするサービスの増加が予想される。
このようなサービスを実現するために、エッジコンピューティングが提唱されている(非特許文献2参照)。エッジコンピューティングとは、ネットワーク周縁へ計算処理リソース(エッジサーバ)を分散配置する手法である。エッジコンピューティングは、クライアント端末近傍のコンピュータでサービス処理を行い、通信距離を短縮することで、通信トラヒックを最適化し、アプリケーション処理の低遅延化を実現できる。
IoTサービスのクライアント端末として想定されるスマートフォンやウェアラブル端末は、所有者の移動にしたがって物理的な位置や接続するネットワークが変化する。このような環境における、通信トラヒックの最適化を妨げる要素には、クライアント端末とサービス処理を行うコンピュータとの通信距離の変動はもちろん、接続先の各ネットワークの状況等も考えられる。よって、サービス処理に最適なコンピュータとは、クライアント端末の近傍にあるというだけでなく、クライアント端末との通信遅延が最小になるコンピュータである。
以上により、エッジコンピューティングの仮想化を実現するには、クライアント端末の移動に伴って、サービス実行環境である仮想マシンを、通信遅延が最小のコンピュータに適宜移動させることが必要である。
以上により、エッジコンピューティングの仮想化を実現するには、クライアント端末の移動に伴って、サービス実行環境である仮想マシンを、通信遅延が最小のコンピュータに適宜移動させることが必要である。
《エッジコンピューティングの仮想化技術実装》
エッジコンピューティングをサーバ仮想化技術で実現することを考える。図6の比較例では、広域ネットワーク上に複数存在するコンピュータをOpenStackに代表される仮想リソース管理ソフトウェアで一元管理している。比較例では更に、サービスアプリケーションを仮想マシン単位で、それぞれのコンピュータに配備している。それぞれのコンピュータで実行されるサービスは、クライアントと一対一または一対多で結びついている。
エッジコンピューティングをサーバ仮想化技術で実現することを考える。図6の比較例では、広域ネットワーク上に複数存在するコンピュータをOpenStackに代表される仮想リソース管理ソフトウェアで一元管理している。比較例では更に、サービスアプリケーションを仮想マシン単位で、それぞれのコンピュータに配備している。それぞれのコンピュータで実行されるサービスは、クライアントと一対一または一対多で結びついている。
ここで、既存の仮想リソース管理ソフトウェアによる管理とは異なる本構成の要件を以下に示す。
エッジコンピューティングの対極の手法であるクラウドコンピューティングでは、広域ネットワーク上のクライアントの信号は全て一箇所のデータセンタサーバに集約して処理される。そのためクラウドコンピューティングでは、サービス開始時にあらかじめ予測需要分の仮想マシンをデータセンタ内のサーバに配備しておくことが一般的である(図7参照)。
エッジコンピューティングの対極の手法であるクラウドコンピューティングでは、広域ネットワーク上のクライアントの信号は全て一箇所のデータセンタサーバに集約して処理される。そのためクラウドコンピューティングでは、サービス開始時にあらかじめ予測需要分の仮想マシンをデータセンタ内のサーバに配備しておくことが一般的である(図7参照)。
これに対して、エッジコンピューティングでは、クライアント端末の近傍のコンピュータでサービス処理を行う必要がある。そのため、エッジコンピューティングでは、クライアント端末のロケーションごとに仮想マシンを割り当てることが前提となる。ロケーションごとのサービス需要をとらえて適切に仮想マシンを配備しないと、需要がないコンピュータに仮想マシンを配備してコンピュータリソースを無駄に消費してしまうか、または、クライアントからの遅延が大きいコンピュータでサービスを実行してしまう。このように、エッジコンピューティングを仮想リソース管理ソフトウェアで実装するには、需要に応じた必要最小限の仮想マシンを適切なコンピュータへ適切なタイミングで配備することが求められる。
ところが、OpenStackに代表される既存の仮想リソース管理ソフトウェアの多くは、データセンタという限定された環境にあるコンピュータのみを対象としている。このような既存の仮想リソース管理ソフトウェアは、広域ネットワーク上に散在するコンピュータに対して、その遅延や帯域といったネットワーク条件を考慮して仮想マシンを生成させることができない。したがって、クライアント端末が移動し、近傍のコンピュータが変更された場合であっても、そのことを検知してサービス実行環境を新たに近傍となったコンピュータへ移動することができない。
また、仮想マシンを異なるコンピュータに再生成してサービス実行環境を移動しようとする際に、広域ネットワークを対象とすると、仮想リソース管理機能部とコンピュータ間のネットワークの実効帯域が小さく、仮想マシン生成に必要なイメージファイルの転送に非常に長い時間を要してしまうおそれがあり、問題となる。
また、仮想マシンを異なるコンピュータに再生成してサービス実行環境を移動しようとする際に、広域ネットワークを対象とすると、仮想リソース管理機能部とコンピュータ間のネットワークの実効帯域が小さく、仮想マシン生成に必要なイメージファイルの転送に非常に長い時間を要してしまうおそれがあり、問題となる。
本発明はこのような点を鑑みてなされたものであり、移動するクライアント端末に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から通信遅延が小さいコンピュータを選択して、サービス中に高速に仮想マシンを移動することを課題とする。
前記した課題を解決するため、請求項1に記載の発明は、
複数のコンピュータおよび、各前記コンピュータ上に仮想マシンを生成して起動させる仮想リソース管理部を含む仮想サーバ編成システムが実行する仮想サーバ編成変更方法であって、
端末のIPアドレスを監視し
前記仮想リソース管理部は、前記端末のアドレスの変更に伴い、前記端末がサービスを受ける仮想マシンと当該端末との間の通信遅延が閾値を超えたならば、当該端末のとの間の通信遅延が閾値以下の新たなコンピュータに対して仮想マシンの生成および起動を指示し、
前記新たなコンピュータ上に生成された仮想マシンのアドレスを前記端末に通知する、
ことを特徴とする仮想サーバ構成変更方法とした。
複数のコンピュータおよび、各前記コンピュータ上に仮想マシンを生成して起動させる仮想リソース管理部を含む仮想サーバ編成システムが実行する仮想サーバ編成変更方法であって、
端末のIPアドレスを監視し
前記仮想リソース管理部は、前記端末のアドレスの変更に伴い、前記端末がサービスを受ける仮想マシンと当該端末との間の通信遅延が閾値を超えたならば、当該端末のとの間の通信遅延が閾値以下の新たなコンピュータに対して仮想マシンの生成および起動を指示し、
前記新たなコンピュータ上に生成された仮想マシンのアドレスを前記端末に通知する、
ことを特徴とする仮想サーバ構成変更方法とした。
このようにすることで、移動するクライアント端末に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から、常に通信遅延が小さいコンピュータを選択して、サービス中に高速に仮想マシンを移動できる。
前記した課題を解決するため、請求項2に記載の発明は、
前記仮想リソース管理部は、前記端末にサービスを提供する仮想マシンのイメージファイルを、前記新たなコンピュータに対して転送する、
ことを特徴とする請求項1に記載の仮想サーバ構成変更方法とした。
前記仮想リソース管理部は、前記端末にサービスを提供する仮想マシンのイメージファイルを、前記新たなコンピュータに対して転送する、
ことを特徴とする請求項1に記載の仮想サーバ構成変更方法とした。
このようにすることで、仮想リソース管理部が保持する仮想マシンのイメージファイルを、端末との通信遅延が所定値よりも小さいコンピュータに転送することができる。
前記した課題を解決するため、請求項3に記載の発明は、
前記仮想リソース管理部は、前記端末にサービスを提供する仮想マシンのイメージファイルを有するコンピュータのうち、前記新たなコンピュータに対する実効速度が最も高いものを選択し、
前記イメージファイルを前記新たなコンピュータに対して転送する、
ことを特徴とする請求項2に記載の仮想サーバ構成変更方法とした。
前記仮想リソース管理部は、前記端末にサービスを提供する仮想マシンのイメージファイルを有するコンピュータのうち、前記新たなコンピュータに対する実効速度が最も高いものを選択し、
前記イメージファイルを前記新たなコンピュータに対して転送する、
ことを特徴とする請求項2に記載の仮想サーバ構成変更方法とした。
このようにすることで、仮想マシンのイメージファイルを保持する複数のコンピュータおよび仮想リソース管理部から、イメージファイルの転送元として最適な装置を特定することができる。
前記した課題を解決するため、請求項4に記載の発明は、
各前記コンピュータが保持する仮想マシンのイメージファイル情報のリストに基づき、前記新たなコンピュータに対してイメージファイルを転送するコンピュータを特定する、
ことを特徴とする請求項2または3に記載の仮想サーバ構成変更方法とした。
各前記コンピュータが保持する仮想マシンのイメージファイル情報のリストに基づき、前記新たなコンピュータに対してイメージファイルを転送するコンピュータを特定する、
ことを特徴とする請求項2または3に記載の仮想サーバ構成変更方法とした。
前記した課題を解決するため、請求項5に記載の発明は、
前記端末がサービスを受ける仮想マシンを具現化するコンピュータから前記端末へpingを送信して通信遅延を測定する、
ことを特徴とする請求項1に記載の仮想サーバ構成変更方法とした。
前記端末がサービスを受ける仮想マシンを具現化するコンピュータから前記端末へpingを送信して通信遅延を測定する、
ことを特徴とする請求項1に記載の仮想サーバ構成変更方法とした。
このようにすることで、サービスを受ける仮想マシンを具現化するコンピュータと端末との間の通信遅延をping送信によって測定することができる。
前記した課題を解決するため、請求項6に記載の発明は、
複数のコンピュータと、
端末のIPアドレスを監視するクライアント監視部と、
前記クライアント監視部がいずれかの端末のアドレス変更を検知し、前記端末がサービスを受ける仮想マシンと当該端末との間の通信遅延が閾値を超えたならば、当該端末との間の通信遅延が閾値以下の新たなコンピュータに対して仮想マシンの生成および起動を指示する仮想リソース管理部と、
前記仮想リソース管理部によって生成された仮想マシンのアドレスを前記端末に通知するサービスIPアドレス通知部と、
ことを特徴とする仮想サーバ構成変更システムとした。
複数のコンピュータと、
端末のIPアドレスを監視するクライアント監視部と、
前記クライアント監視部がいずれかの端末のアドレス変更を検知し、前記端末がサービスを受ける仮想マシンと当該端末との間の通信遅延が閾値を超えたならば、当該端末との間の通信遅延が閾値以下の新たなコンピュータに対して仮想マシンの生成および起動を指示する仮想リソース管理部と、
前記仮想リソース管理部によって生成された仮想マシンのアドレスを前記端末に通知するサービスIPアドレス通知部と、
ことを特徴とする仮想サーバ構成変更システムとした。
このようにすることで、移動するクライアント端末に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から、常に通信遅延が小さいコンピュータを選択して、サービス中に高速に仮想マシンを移動できる。
前記した課題を解決するため、請求項7に記載の発明は、
前記仮想リソース管理部および各前記コンピュータは、前記端末にサービスを提供する仮想マシンのイメージファイルを転送するファイル転送部を含む、
ことを特徴とする請求項6に記載の仮想サーバ構成変更システムとした。
前記仮想リソース管理部および各前記コンピュータは、前記端末にサービスを提供する仮想マシンのイメージファイルを転送するファイル転送部を含む、
ことを特徴とする請求項6に記載の仮想サーバ構成変更システムとした。
このようにすることで、仮想リソース管理部および各コンピュータが保持する仮想マシンのイメージファイルを、端末との通信遅延が所定値よりも小さいコンピュータに転送することができる。
前記した課題を解決するため、請求項8に記載の発明は、
各前記コンピュータが保持する仮想マシンのイメージファイルの情報が格納されたリストを含み、
前記仮想リソース管理部は、前記リストによって特定された各前記コンピュータおよび当該仮想リソース管理部のファイル転送部に対し、前記端末との間の通信遅延が閾値以下の新たなコンピュータに対する所定時間のファイル転送を行わせて転送速度が最も速い装置を特定し、当該装置から前記新たなコンピュータに対して、前記イメージファイルを転送する、
ことを特徴とする請求項6に記載の仮想サーバ構成変更システムとした。
各前記コンピュータが保持する仮想マシンのイメージファイルの情報が格納されたリストを含み、
前記仮想リソース管理部は、前記リストによって特定された各前記コンピュータおよび当該仮想リソース管理部のファイル転送部に対し、前記端末との間の通信遅延が閾値以下の新たなコンピュータに対する所定時間のファイル転送を行わせて転送速度が最も速い装置を特定し、当該装置から前記新たなコンピュータに対して、前記イメージファイルを転送する、
ことを特徴とする請求項6に記載の仮想サーバ構成変更システムとした。
このようにすることで、仮想マシンのイメージファイルを保持する複数のコンピュータから、イメージファイルの転送元として最適なコンピュータを特定することができる。
本発明によれば、移動するクライアント端末に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から通信遅延が小さいコンピュータを選択し、サービス中に高速に仮想マシンを移動できる。
次に、本発明を実施するための形態(以下、「本実施形態」と称する。)における仮想サーバ構成変更システムSについて説明する。
本実施形態では、クライアント端末のIPアドレスの変化を監視することで通信遅延の変化を検知する。IPアドレスの変化は、必ずしも位置の変化とは対応しないが、通信遅延の変化に大きく影響するLTE(Long Term Evolution)からWifi(登録商標)などへのアクセス手段の変更を扱うことができる。従って、IPアドレスの変化を監視することで、クライアント端末からコンピュータへの通信遅延の変化を検出できる。
なお、本実施形態では、サーバ側に状態データを一切持たないステートレスのサービスを暗に想定している。これにより、サーバ側である仮想マシンを自由に移動可能としている。本実施形態では、アプリケーションの性質に応じて、例えば、アプリケーションによるデータ同期や、外部サーバによる一元管理などにより、データの一貫性を保持している。
本実施形態では、クライアント端末のIPアドレスの変化を監視することで通信遅延の変化を検知する。IPアドレスの変化は、必ずしも位置の変化とは対応しないが、通信遅延の変化に大きく影響するLTE(Long Term Evolution)からWifi(登録商標)などへのアクセス手段の変更を扱うことができる。従って、IPアドレスの変化を監視することで、クライアント端末からコンピュータへの通信遅延の変化を検出できる。
なお、本実施形態では、サーバ側に状態データを一切持たないステートレスのサービスを暗に想定している。これにより、サーバ側である仮想マシンを自由に移動可能としている。本実施形態では、アプリケーションの性質に応じて、例えば、アプリケーションによるデータ同期や、外部サーバによる一元管理などにより、データの一貫性を保持している。
図1は本実施形態に係る仮想サーバ構成変更システムSの構成例を示す機能ブロック図である。
仮想サーバ構成変更システムSは、広域ネットワーク上の仮想リソース管理部1、クライアント監視部2、VMイメージファイルリスト3を備える。また、コンピュータIPアドレスリスト4、コンピュータ5a〜5d、クライアント端末7a〜7dも備える。
以降、コンピュータ5a〜5dを単にコンピュータ5、クライアント端末7a〜7dを単にクライアント端末7と記載することもある。
仮想サーバ構成変更システムSは、広域ネットワーク上の仮想リソース管理部1、クライアント監視部2、VMイメージファイルリスト3を備える。また、コンピュータIPアドレスリスト4、コンピュータ5a〜5d、クライアント端末7a〜7dも備える。
以降、コンピュータ5a〜5dを単にコンピュータ5、クライアント端末7a〜7dを単にクライアント端末7と記載することもある。
仮想リソース管理部1は、ファイル転送部11とサービスIPアドレス通知部12を備える。
クライアント端末7は、クライアント監視部2は仮想リソース監視部と連携する。また、VMイメージファイルリスト3とコンピュータIPアドレスリスト4は仮想リソース管理部1から参照できる。
クライアント端末7は、クライアント監視部2は仮想リソース監視部と連携する。また、VMイメージファイルリスト3とコンピュータIPアドレスリスト4は仮想リソース管理部1から参照できる。
各コンピュータ5は、遅延測定部51とファイル転送部52を備える。
なお、遅延測定部51とファイル転送部52は仮想リソース管理部1が管理する各コンピュータ5上に配備する必要があるが、クライアント監視部2については実装形態を問わない。クライアント監視部2はコンピュータ5上に仮想マシンとして実装してもよいし、外部の別コンピュータ上に実装してもよい。
なお、遅延測定部51とファイル転送部52は仮想リソース管理部1が管理する各コンピュータ5上に配備する必要があるが、クライアント監視部2については実装形態を問わない。クライアント監視部2はコンピュータ5上に仮想マシンとして実装してもよいし、外部の別コンピュータ上に実装してもよい。
コンピュータ5aはVM6aとVM6bを具現化し、コンピュータ5bはVM6cとVM6dを具現化し、コンピュータ5cはVM6eとVM6fを具現化し、コンピュータ5dはVM6gとVM6hを具現化する。
以降、VM6a〜6hを単にVM6と記載することもある。
以降、VM6a〜6hを単にVM6と記載することもある。
仮想リソース管理部1はコンピュータ5上のVM6を管理する。
クライアント端末7aは、同じロケーション9aにあるコンピュータ5a上のVM6bにアクセスし、サービスの提供を受けている。クライアント端末7bは、同じロケーション9bにあるコンピュータ5b上のVM6dにアクセスし、サービスの提供を受けている。クライアント端末7c,7dは、同じロケーション9cにあるコンピュータ5c上のVM6fにアクセスし、サービスの提供を受けている。
このように、それぞれのVM6で実行されるサービスは、クライアント端末7と一対一で結びついてもよいし、一対多で結びついてもよい。
クライアント端末7aは、同じロケーション9aにあるコンピュータ5a上のVM6bにアクセスし、サービスの提供を受けている。クライアント端末7bは、同じロケーション9bにあるコンピュータ5b上のVM6dにアクセスし、サービスの提供を受けている。クライアント端末7c,7dは、同じロケーション9cにあるコンピュータ5c上のVM6fにアクセスし、サービスの提供を受けている。
このように、それぞれのVM6で実行されるサービスは、クライアント端末7と一対一で結びついてもよいし、一対多で結びついてもよい。
図2は本実施形態に係る仮想サーバ構成変更システムSにおける、クライアント端末7のIPアドレス変更から、クライアント端末7に新サービスアドレスが通知されるまでの流れを示したフローチャートである。
以下の手順により、クライアント端末7の移動に追従して、クライアント端末7の近傍のコンピュータ5にVM6を配備することができる。
以下の手順により、クライアント端末7の移動に追従して、クライアント端末7の近傍のコンピュータ5にVM6を配備することができる。
クライアント監視部2は、クライアント端末7のIPアドレスを一定周期で監視している。クライアント監視部2(監視手段)の具体的な動作は、基地局(不図示)が一定周期でクライアント端末7と通信してもよく、クライアント端末7が一定周期で基地局(不図示)と通信してもよく、限定されない。クライアント監視部2(監視手段)の具体的な動作については、図4のステップS31において説明する。
監視の結果、IPアドレスに変更がなければ、クライアント監視部2は再びクライアント端末7の監視に戻る(ステップS10:No)。
監視の結果、IPアドレスに変更がなければ、クライアント監視部2は再びクライアント端末7の監視に戻る(ステップS10:No)。
監視の結果、クライアント端末7のIPアドレスに変更があったならば(ステップS10:Yes)、仮想リソース管理部1は、このクライアント端末7にサービスを提供しているコンピュータ5に対して、このクライアント端末7との間の通信遅延を測定する命令を送信する。
コンピュータ5とクライアント端末7との間の通信遅延が許容値(閾値)以下であれば(ステップS11:Yes)、クライアント監視部2は、再びクライアント端末7の監視に戻る(ステップS10)。
コンピュータ5とクライアント端末7との間の通信遅延が許容値(閾値)以下であれば(ステップS11:Yes)、クライアント監視部2は、再びクライアント端末7の監視に戻る(ステップS10)。
コンピュータ5とクライアント端末7との間の通信遅延が許容値(閾値)を超えていた場合(ステップS11:No)、広域ネットワークを探索して通信遅延が許容値以下のコンピュータ5を新たに選択する(ステップS12)。
本実施形態では、ステップS12における探索の手段は問わない。ここでは仮想リソース管理部1が、各コンピュータ5に通信遅延を測定する命令を送信し、各コンピュータ5とクライアント端末7との間の通信遅延を測定している。しかし、これに限られず、例えば仮想リソース管理部1が、各クライアント端末7について低遅延が期待できるコンピュータ5の候補リストを備え、候補リスト上のコンピュータ5を順次選択してもよい。探索手段の具体的な動作は、図4のステップS42〜S53において説明する。
本実施形態では、ステップS12における探索の手段は問わない。ここでは仮想リソース管理部1が、各コンピュータ5に通信遅延を測定する命令を送信し、各コンピュータ5とクライアント端末7との間の通信遅延を測定している。しかし、これに限られず、例えば仮想リソース管理部1が、各クライアント端末7について低遅延が期待できるコンピュータ5の候補リストを備え、候補リスト上のコンピュータ5を順次選択してもよい。探索手段の具体的な動作は、図4のステップS42〜S53において説明する。
ステップS13において、仮想リソース管理部1は、このクライアント端末7にサービスを提供するVM6を生成して起動するために選択した新たなコンピュータ5が、このVM6のイメージファイルを保持しているかどうかを確認する。この新たなコンピュータ5がVM6のイメージファイルを保持していた場合(ステップS13:Yes)、保持しているイメージファイルでVM6を起動する(ステップS19)。
このクライアント端末7にサービスを提供するVM6を生成して起動するために選択した新たなコンピュータ5が、このVM6のイメージファイルを保持していなかったならば(ステップS13:No)、仮想リソース管理部1は、このVM6のイメージファイルを保持しているコンピュータ5の中から、選択した新たなコンピュータ5への転送速度が最も速いものを探索する。
クライアント端末7にサービスを提供するVM6のイメージファイルは、少なくとも仮想リソース管理部1と、クライアント端末7にサービスを提供していたコンピュータ5に保持されている。更に、過去に同じサービスを提供したことがあるコンピュータ5にも保持されている。仮想リソース管理部1および各コンピュータ5が保持するVM6のイメージファイルのリストは、VMイメージファイルリスト3で管理されている。VMイメージファイルリスト3については、図3において説明する。
以降、クライアント端末7にサービスを提供するVM6のイメージファイルを保持している仮想リソース管理部1およびコンピュータ5を、VMイメージファイル保持コンピュータと記載することもある。
クライアント端末7にサービスを提供するVM6のイメージファイルは、少なくとも仮想リソース管理部1と、クライアント端末7にサービスを提供していたコンピュータ5に保持されている。更に、過去に同じサービスを提供したことがあるコンピュータ5にも保持されている。仮想リソース管理部1および各コンピュータ5が保持するVM6のイメージファイルのリストは、VMイメージファイルリスト3で管理されている。VMイメージファイルリスト3については、図3において説明する。
以降、クライアント端末7にサービスを提供するVM6のイメージファイルを保持している仮想リソース管理部1およびコンピュータ5を、VMイメージファイル保持コンピュータと記載することもある。
探索にあたって、仮想リソース管理部1は、全てのVMイメージファイル保持コンピュータに対して、クライアント端末7aとの間の転送速度を計測させる(ステップS14〜S16)。
転送速度の計測としては、例えば、一般的なダウンロード測定方法が採用できる。仮想リソース管理部1のファイル転送部11、および各コンピュータ5のファイル転送部52から数秒程度の所定時間のファイル転送を行うことで、転送されたファイル容量から転送速度を試算することができる。
転送速度の測定が完了したならば(ステップS15)、仮想リソース管理部1は、次のVMイメージファイル保持コンピュータの測定に移行する。以降、全てのVMイメージファイル保持コンピュータの測定が完了するまで測定処理を繰り返す(ステップS16)。
転送速度の計測としては、例えば、一般的なダウンロード測定方法が採用できる。仮想リソース管理部1のファイル転送部11、および各コンピュータ5のファイル転送部52から数秒程度の所定時間のファイル転送を行うことで、転送されたファイル容量から転送速度を試算することができる。
転送速度の測定が完了したならば(ステップS15)、仮想リソース管理部1は、次のVMイメージファイル保持コンピュータの測定に移行する。以降、全てのVMイメージファイル保持コンピュータの測定が完了するまで測定処理を繰り返す(ステップS16)。
転送速度の測定が完了したならば、仮想リソース管理部1は、測定結果を比較し、VMイメージファイル保持コンピュータの中から転送速度が最も速い装置を特定する(ステップS17)。
このようにすることで、VM6のイメージファイルを保持する複数の装置から、イメージファイルの転送元として最適な装置を特定することができる。
このようにすることで、VM6のイメージファイルを保持する複数の装置から、イメージファイルの転送元として最適な装置を特定することができる。
特定された装置が仮想リソース管理部1であればファイル転送部11が、選択した新たなコンピュータ5に、クライアント端末7にサービスを提供するVM6のイメージファイルを転送する(ステップS18)。このようにすることで、仮想リソース管理部1が保持するVM6のイメージファイルを、クライアント端末7との通信遅延が所定値よりも小さいコンピュータ5に転送することができる。
特定された装置がコンピュータ5であればファイル転送部52が、選択した新たなコンピュータ5に、クライアント端末7にサービスを提供するVM6のイメージファイルを転送する(ステップS18)。
このようにすることで、移動するクライアント端末7に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から、常に通信遅延が小さいコンピュータ5を選択して、サービス中に高速にVM6を移動できる。
特定された装置がコンピュータ5であればファイル転送部52が、選択した新たなコンピュータ5に、クライアント端末7にサービスを提供するVM6のイメージファイルを転送する(ステップS18)。
このようにすることで、移動するクライアント端末7に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から、常に通信遅延が小さいコンピュータ5を選択して、サービス中に高速にVM6を移動できる。
なお、この転送処理には競合制御を実施する。例えば、後発で他のクライアント端末7のIPアドレスが変化し、かつ通信遅延が許容値を超えたために、VM6のイメージファイルを転送する場合を考える。このとき、ステップS18でイメージファイルを転送している最中のコンピュータ5は、VMイメージファイル保持コンピュータのリストから除かれる。転送の競合により転送速度が低下し、VMイメージファイルの転送に長時間を要してしまう事態を回避するためである。
転送が完了したなら、新たなコンピュータ5で転送したVM6を生成して起動する(ステップS19)。
VM6の生成と起動とが完了したなら、サービスIPアドレス通知部12は、クライアント端末7に、このVM6のIPアドレスをサービスアドレスとして通知する(ステップS20)。サービスIPアドレス通知部12は、通知のためにWeb上にサービスアドレスを掲載してもよく、更にメールでサービスアドレス送信してもよい。このクライアント端末7は、サービス中にサービスの宛先IPアドレス通知を受け取って、接続先を変更する機能を有するものとする。
VM6の生成と起動とが完了したなら、サービスIPアドレス通知部12は、クライアント端末7に、このVM6のIPアドレスをサービスアドレスとして通知する(ステップS20)。サービスIPアドレス通知部12は、通知のためにWeb上にサービスアドレスを掲載してもよく、更にメールでサービスアドレス送信してもよい。このクライアント端末7は、サービス中にサービスの宛先IPアドレス通知を受け取って、接続先を変更する機能を有するものとする。
以上により、移動するクライアント端末7に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から、常に通信遅延が小さいコンピュータ5を選択して、サービス中に高速にVM6を移動できる。
図3は、本実施形態に係るVMイメージファイルリスト3のテーブルの一例である。
本実施形態では、コンピュータ名と保持VMイメージファイルのリストを関連付けて記憶している。
コンピュータ#1が保持するVMイメージファイルのリストは「VM#A」と「VM#B」である。コンピュータ#2が保持するVMイメージファイルのリストは「VM#B」と「VM#C」である。コンピュータ#3が保持するVMイメージファイルは「VM#C」である。
仮想リソース管理部1は、当該テーブルから所望のVMイメージファイルを保持するコンピュータ5のリストを取得し、これらコンピュータ5に転送速度の測定指示を送信する。このようにすることで、仮想マシンのイメージファイルを保持する複数のコンピュータおよび仮想リソース管理部のうち、イメージファイルの転送元として最適な装置を特定することができる。
本実施形態では、コンピュータ名と保持VMイメージファイルのリストを関連付けて記憶している。
コンピュータ#1が保持するVMイメージファイルのリストは「VM#A」と「VM#B」である。コンピュータ#2が保持するVMイメージファイルのリストは「VM#B」と「VM#C」である。コンピュータ#3が保持するVMイメージファイルは「VM#C」である。
仮想リソース管理部1は、当該テーブルから所望のVMイメージファイルを保持するコンピュータ5のリストを取得し、これらコンピュータ5に転送速度の測定指示を送信する。このようにすることで、仮想マシンのイメージファイルを保持する複数のコンピュータおよび仮想リソース管理部のうち、イメージファイルの転送元として最適な装置を特定することができる。
図4は、本実施形態に係る仮想サーバ構成変更システムSにおける、クライアント端末7aのIPアドレス変更から、新たなコンピュータ5の選択までの流れを示したシーケンス図である。
ここでは、仮想リソース管理部1がコンピュータ#1(コンピュータ5a)、コンピュータ#2(コンピュータ5b)、コンピュータ#3(コンピュータ5c)を管理していた場合を考える。また、VM6を再生成する新たなコンピュータ5は、仮想リソース管理部1が、各コンピュータ5に通信遅延の測定命令を送信し、各コンピュータ5とクライアント端末7aとの間の通信遅延を比較することで選択するものとする。
ここでは、仮想リソース管理部1がコンピュータ#1(コンピュータ5a)、コンピュータ#2(コンピュータ5b)、コンピュータ#3(コンピュータ5c)を管理していた場合を考える。また、VM6を再生成する新たなコンピュータ5は、仮想リソース管理部1が、各コンピュータ5に通信遅延の測定命令を送信し、各コンピュータ5とクライアント端末7aとの間の通信遅延を比較することで選択するものとする。
クライアント端末7aは、コンピュータ5a(コンピュータ#1)上のVM6にアクセスし、サービスを享受している(ステップS30)。
クライアント端末7aのIPアドレス変化の監視手段は複数存在するが、ここでは、クライアント端末7aが定期的にクライアント監視部2にIPアドレスを送信することで、監視を実現している(ステップS31,S40)。
クライアント端末7aのIPアドレス変化の監視手段は複数存在するが、ここでは、クライアント端末7aが定期的にクライアント監視部2にIPアドレスを送信することで、監視を実現している(ステップS31,S40)。
ここで、クライアント端末7aのIPアドレスに変化があったものとする(ステップS32)。その後、クライアント端末7aは、定期的な送信タイミングにおいて、IPアドレスをクライアント監視部2に送信する(ステップS40)。
クライアント監視部2は、ステップS31に送信されたIPアドレスと、ステップS40に送信されたIPアドレスを比較し、これらが異なることからクライアント端末7aのIPアドレスが変化したと判断する。クライアント監視部2は、仮想リソース管理部1にクライアント端末7のIPアドレスに変更があった旨を送信する(ステップS41)。
IPアドレス変更を受けて、仮想リソース管理部1は、各コンピュータ5とクライアント端末7aとの間の通信遅延を取得する。以下にその詳細を述べる。
クライアント監視部2は、ステップS31に送信されたIPアドレスと、ステップS40に送信されたIPアドレスを比較し、これらが異なることからクライアント端末7aのIPアドレスが変化したと判断する。クライアント監視部2は、仮想リソース管理部1にクライアント端末7のIPアドレスに変更があった旨を送信する(ステップS41)。
IPアドレス変更を受けて、仮想リソース管理部1は、各コンピュータ5とクライアント端末7aとの間の通信遅延を取得する。以下にその詳細を述べる。
まず、仮想リソース管理部1は、クライアント端末7aにサービスを供給しているコンピュータ5aとクライアント端末7aとの間の通信遅延を測定させる。
仮想リソース管理部1は、コンピュータ5aの遅延測定部51に通信遅延の測定命令を送信する(ステップS42)。コンピュータ5aの遅延測定部51はクライアント端末7aにpingを送信し(ステップS43)、クライアント端末7aはpingに応答する(ステップS44)。コンピュータ5aの遅延測定部51は、ping送信から応答受信までに要した時間を通信遅延として仮想リソース管理部1に通知する(ステップS45)。
仮想リソース管理部1は、コンピュータ5aの遅延測定部51に通信遅延の測定命令を送信する(ステップS42)。コンピュータ5aの遅延測定部51はクライアント端末7aにpingを送信し(ステップS43)、クライアント端末7aはpingに応答する(ステップS44)。コンピュータ5aの遅延測定部51は、ping送信から応答受信までに要した時間を通信遅延として仮想リソース管理部1に通知する(ステップS45)。
ここで、コンピュータ5aとクライアント端末7aとの間の通信遅延が許容値を超えていたので、仮想リソース管理部1は、他のコンピュータ5b,5cとクライアント端末7a間の通信遅延を測定する。
仮想リソース管理部1は、コンピュータ5bの遅延測定部51に通信遅延の測定命令を送信する(ステップS46)。コンピュータ5bの遅延測定部51は、クライアント端末7aにpingを送信し(ステップS47)、クライアント端末7aはpingに応答する(ステップS48)。コンピュータ5bの遅延測定部51は、ping送信から応答受信までに要した時間を通信遅延として仮想リソース管理部1に通知する(ステップS49)。
仮想リソース管理部1は、コンピュータ5bの遅延測定部51に通信遅延の測定命令を送信する(ステップS46)。コンピュータ5bの遅延測定部51は、クライアント端末7aにpingを送信し(ステップS47)、クライアント端末7aはpingに応答する(ステップS48)。コンピュータ5bの遅延測定部51は、ping送信から応答受信までに要した時間を通信遅延として仮想リソース管理部1に通知する(ステップS49)。
次に、仮想リソース管理部1は、コンピュータ5cの遅延測定部51に通信遅延の測定命令を送信する(ステップS50)。コンピュータ5cの遅延測定部51は、クライアント端末7aにpingを送信し(ステップS51)、クライアント端末7aはpingに応答する(ステップS52)。コンピュータ5cの遅延測定部51は、ping送信から応答受信までに要した時間を通信遅延として仮想リソース管理部1に通知する(ステップS53)。
このようにすることで、サービスを受けるVM6を具現化するコンピュータ5とクライアント端末7との間の通信遅延をping送信によって測定することができる。全てのコンピュータ5の通信遅延の測定が完了したなら、仮想リソース管理部1は、通信遅延が最小となるコンピュータ5を新たに選択する。
図5は、本実施形態に係る仮想サーバ構成変更システムSにおける、転送速度測定から新サービスIPアドレスの通知までの流れを示したシーケンス図である。
ここでは、このクライアント端末7にサービスを提供しているVM6のイメージファイルを仮想リソース管理部1とコンピュータ#1(コンピュータ5a)が保持しており、選択された新たなコンピュータがコンピュータ#2(コンピュータ5b)であった場合を考える。
ここでは、このクライアント端末7にサービスを提供しているVM6のイメージファイルを仮想リソース管理部1とコンピュータ#1(コンピュータ5a)が保持しており、選択された新たなコンピュータがコンピュータ#2(コンピュータ5b)であった場合を考える。
まず、仮想リソース管理部1は、ファイル転送部11からコンピュータ5bに所定時間のファイル転送を行い、コンピュータ5bとの間の転送速度を測定する(ステップS54)。ここで所定時間とは、例えば数秒間であるが、これに限定されない。
次に、仮想リソース管理部1は、コンピュータ5aに転送速度の測定指示を送信する(ステップS55)。コンピュータ5aは、ファイル転送部52からコンピュータ5bに所定時間のファイル転送を行い、コンピュータ5bとの間の転送速度を測定する(ステップS56)。コンピュータ5aは測定した転送速度を仮想リソース管理部1に返信する(ステップS57)。
仮想リソース管理部1は、転送速度の測定結果を比較し、コンピュータ5bへの転送速度が最も速い装置を特定する。ここでは、コンピュータ5aが最速だった場合を考える。
次に、仮想リソース管理部1は、コンピュータ5aに転送速度の測定指示を送信する(ステップS55)。コンピュータ5aは、ファイル転送部52からコンピュータ5bに所定時間のファイル転送を行い、コンピュータ5bとの間の転送速度を測定する(ステップS56)。コンピュータ5aは測定した転送速度を仮想リソース管理部1に返信する(ステップS57)。
仮想リソース管理部1は、転送速度の測定結果を比較し、コンピュータ5bへの転送速度が最も速い装置を特定する。ここでは、コンピュータ5aが最速だった場合を考える。
仮想リソース管理部1はコンピュータ5aにVMイメージ転送指示を送信する(ステップS58)。
この指示を受けて、コンピュータ5aは、ファイル転送部52からコンピュータ5bにVMイメージを転送する(ステップS59)。転送が完了したなら、コンピュータ5bは転送完了の旨をコンピュータ5aに応答する(ステップS60)。コンピュータ5aは、仮想リソース管理部1に転送完了の旨を応答する(ステップS61)。
この指示を受けて、コンピュータ5aは、ファイル転送部52からコンピュータ5bにVMイメージを転送する(ステップS59)。転送が完了したなら、コンピュータ5bは転送完了の旨をコンピュータ5aに応答する(ステップS60)。コンピュータ5aは、仮想リソース管理部1に転送完了の旨を応答する(ステップS61)。
コンピュータ5aの転送完了を受けて、仮想リソース管理部1は、コンピュータ5bにVM起動指示を送信する(ステップS62)。コンピュータ5bは、VM6を生成して起動する。コンピュータ5b上で生成されて起動されたVM6は、起動された旨を仮想リソース管理部1に返信する(ステップS63)。
ステップS54〜S62の処理により、移動するクライアント端末7に対して、広域ネットワーク上に複数存在するコンピュータリソースの中から、常に通信遅延が小さいコンピュータ5を選択して、サービス中に高速にVM6を移動できる。
VM6の起動完了を受けて、仮想リソース管理部1は、起動したVM6のIPアドレスをサービスアドレスとして、サービスIPアドレス通知部12に送信する(ステップS64)。
サービスIPアドレス通知部12はサービスアドレスをクライアント端末7に通知する(ステップS65)。クライアント端末7は、サービスアドレスにアクセスし、コンピュータ5bからサービスの提供を受ける(ステップS66)。
サービスIPアドレス通知部12はサービスアドレスをクライアント端末7に通知する(ステップS65)。クライアント端末7は、サービスアドレスにアクセスし、コンピュータ5bからサービスの提供を受ける(ステップS66)。
図4と図5の動作により、コンピュータ5a上で動作していたVM6を、コンピュータ5b上に移動させることができる。クライアント端末7は、近傍のコンピュータ5b上のVM6によるサービスを享受することができる。
本実施形態によれば、特殊なハードウェアが不要であり、ソフトウェアの機能だけで実装が可能である。
本実施形態によれば、特殊なハードウェアが不要であり、ソフトウェアの機能だけで実装が可能である。
実施形態は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、前記した機構や構成は説明上必要と考えられるものを示しており、製品上必ずしも全ての機構や構成を示しているとは限らない。
また、前記した機構や構成は説明上必要と考えられるものを示しており、製品上必ずしも全ての機構や構成を示しているとは限らない。
S 仮想サーバ構成変更システム
S1 仮想サーバ編成システム
1 仮想リソース管理部
11 ファイル転送部
12 サービスIPアドレス通知部
2 クライアント監視部
3 VMイメージファイルリスト
4 コンピュータIPアドレスリスト
5a,5b,5c,5d コンピュータ
51 遅延測定部
52 ファイル転送部
6a,6b,6c,6d,6e,6f,6g,6h VM(仮想マシン)
7a,7b,7c,7d クライアント端末(端末)
9a,9b,9c ロケーション
S1 仮想サーバ編成システム
1 仮想リソース管理部
11 ファイル転送部
12 サービスIPアドレス通知部
2 クライアント監視部
3 VMイメージファイルリスト
4 コンピュータIPアドレスリスト
5a,5b,5c,5d コンピュータ
51 遅延測定部
52 ファイル転送部
6a,6b,6c,6d,6e,6f,6g,6h VM(仮想マシン)
7a,7b,7c,7d クライアント端末(端末)
9a,9b,9c ロケーション
Claims (8)
- 複数のコンピュータおよび、各前記コンピュータ上に仮想マシンを生成して起動させる仮想リソース管理部を含む仮想サーバ編成システムが実行する仮想サーバ編成変更方法であって、
端末のIPアドレスを監視し
前記仮想リソース管理部は、前記端末のアドレスの変更に伴い、前記端末がサービスを受ける仮想マシンと当該端末との間の通信遅延が閾値を超えたならば、当該端末のとの間の通信遅延が閾値以下の新たなコンピュータに対して仮想マシンの生成および起動を指示し、
前記新たなコンピュータ上に生成された仮想マシンのアドレスを前記端末に通知する、
ことを特徴とする仮想サーバ構成変更方法。 - 前記仮想リソース管理部は、前記端末にサービスを提供する仮想マシンのイメージファイルを、前記新たなコンピュータに対して転送する、
ことを特徴とする請求項1に記載の仮想サーバ構成変更方法。 - 前記仮想リソース管理部は、前記端末にサービスを提供する仮想マシンのイメージファイルを有するコンピュータのうち、前記新たなコンピュータに対する実効速度が最も高いものを選択し、
前記イメージファイルを前記新たなコンピュータに対して転送する、
ことを特徴とする請求項2に記載の仮想サーバ構成変更方法。 - 各前記コンピュータが保持する仮想マシンのイメージファイル情報のリストに基づき、前記新たなコンピュータに対してイメージファイルを転送するコンピュータを特定する、
ことを特徴とする請求項2または3に記載の仮想サーバ構成変更方法。 - 前記端末がサービスを受ける仮想マシンを具現化するコンピュータから前記端末へpingを送信して通信遅延を測定する、
ことを特徴とする請求項1に記載の仮想サーバ構成変更方法。 - 複数のコンピュータと、
端末のIPアドレスを監視するクライアント監視部と、
前記クライアント監視部がいずれかの端末のアドレス変更を検知し、前記端末がサービスを受ける仮想マシンと当該端末との間の通信遅延が閾値を超えたならば、当該端末との間の通信遅延が閾値以下の新たなコンピュータに対して仮想マシンの生成および起動を指示する仮想リソース管理部と、
前記仮想リソース管理部によって生成された仮想マシンのアドレスを前記端末に通知するサービスIPアドレス通知部と、
ことを特徴とする仮想サーバ構成変更システム。 - 前記仮想リソース管理部および各前記コンピュータは、前記端末にサービスを提供する仮想マシンのイメージファイルを転送するファイル転送部を含む、
ことを特徴とする請求項6に記載の仮想サーバ構成変更システム。 - 各前記コンピュータが保持する仮想マシンのイメージファイルの情報が格納されたリストを含み、
前記仮想リソース管理部は、前記リストによって特定された各前記コンピュータおよび当該仮想リソース管理部のファイル転送部に対し、前記端末との間の通信遅延が閾値以下の新たなコンピュータに対する所定時間のファイル転送を行わせて転送速度が最も速い装置を特定し、当該装置から前記新たなコンピュータに対して、前記イメージファイルを転送する、
ことを特徴とする請求項6に記載の仮想サーバ構成変更システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017138315A JP6744260B2 (ja) | 2017-07-14 | 2017-07-14 | 仮想サーバ構成変更方法および仮想サーバ構成変更システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017138315A JP6744260B2 (ja) | 2017-07-14 | 2017-07-14 | 仮想サーバ構成変更方法および仮想サーバ構成変更システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019022057A true JP2019022057A (ja) | 2019-02-07 |
JP6744260B2 JP6744260B2 (ja) | 2020-08-19 |
Family
ID=65354539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017138315A Active JP6744260B2 (ja) | 2017-07-14 | 2017-07-14 | 仮想サーバ構成変更方法および仮想サーバ構成変更システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6744260B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022502898A (ja) * | 2018-09-20 | 2022-01-11 | ルノー エス.ア.エス.Renault S.A.S. | データ処理周辺サーバを再割り当てするための方法 |
JP2022550714A (ja) * | 2019-09-23 | 2022-12-05 | 中国科学院声学研究所 | 分散型サービスに要求応答の正確な通信遅延保証を提供するシステム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009252075A (ja) * | 2008-04-09 | 2009-10-29 | Intec Netcore Inc | サービス提供システム及びそれを構成するユーザ収容装置 |
JP2012022555A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Systems & Services Ltd | サーバ構成管理システム |
JP2013149076A (ja) * | 2012-01-19 | 2013-08-01 | Nippon Telegr & Teleph Corp <Ntt> | 通信制御システム、クライアント装置、サーバ装置、通信制御方法、及び通信制御プログラム |
JP2013196287A (ja) * | 2012-03-19 | 2013-09-30 | Oki Electric Ind Co Ltd | 仮想マシン制御装置及びプログラム |
JP2014056335A (ja) * | 2012-09-11 | 2014-03-27 | Nec Commun Syst Ltd | 仮想マシン配置システム及び仮想マシン配置方法、並びにコンピュータ・プログラム |
JP2017111623A (ja) * | 2015-12-16 | 2017-06-22 | 日本電気株式会社 | クラウドサービスシステムと制御装置と方法並びにプログラム |
JP2018110359A (ja) * | 2017-01-06 | 2018-07-12 | 富士通株式会社 | 仮想マシン管理プログラム、仮想マシン管理装置および仮想マシン管理方法 |
-
2017
- 2017-07-14 JP JP2017138315A patent/JP6744260B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009252075A (ja) * | 2008-04-09 | 2009-10-29 | Intec Netcore Inc | サービス提供システム及びそれを構成するユーザ収容装置 |
JP2012022555A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Systems & Services Ltd | サーバ構成管理システム |
JP2013149076A (ja) * | 2012-01-19 | 2013-08-01 | Nippon Telegr & Teleph Corp <Ntt> | 通信制御システム、クライアント装置、サーバ装置、通信制御方法、及び通信制御プログラム |
JP2013196287A (ja) * | 2012-03-19 | 2013-09-30 | Oki Electric Ind Co Ltd | 仮想マシン制御装置及びプログラム |
JP2014056335A (ja) * | 2012-09-11 | 2014-03-27 | Nec Commun Syst Ltd | 仮想マシン配置システム及び仮想マシン配置方法、並びにコンピュータ・プログラム |
JP2017111623A (ja) * | 2015-12-16 | 2017-06-22 | 日本電気株式会社 | クラウドサービスシステムと制御装置と方法並びにプログラム |
JP2018110359A (ja) * | 2017-01-06 | 2018-07-12 | 富士通株式会社 | 仮想マシン管理プログラム、仮想マシン管理装置および仮想マシン管理方法 |
Non-Patent Citations (2)
Title |
---|
永渕 幸雄 YUKIO NAGAFUCHI: "仮想DC環境におけるユーザ平均遅延削減方式の評価 Evaluation of user average delay reducing method i", 電子情報通信学会技術研究報告 VOL.113 NO.502 IEICE TECHNICAL REPORT, JPN6020026275, 20 March 2014 (2014-03-20), JP, pages 185 - 190, ISSN: 0004310826 * |
藤本 大地 DAICHI FUJIMOTO: "ネットワーク遅延情報に基づく動的VMライブマイグレーション支援システムの開発 Development of a Dynam", 電子情報通信学会技術研究報告 VOL.116 NO.491 IEICE TECHNICAL REPORT, JPN6020026277, 24 February 2017 (2017-02-24), JP, pages 129 - 134, ISSN: 0004310827 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022502898A (ja) * | 2018-09-20 | 2022-01-11 | ルノー エス.ア.エス.Renault S.A.S. | データ処理周辺サーバを再割り当てするための方法 |
JP2022550714A (ja) * | 2019-09-23 | 2022-12-05 | 中国科学院声学研究所 | 分散型サービスに要求応答の正確な通信遅延保証を提供するシステム |
JP7345645B2 (ja) | 2019-09-23 | 2023-09-15 | 中国科学院声学研究所 | 分散型サービスに要求応答の正確な通信遅延保証を提供するシステム |
Also Published As
Publication number | Publication date |
---|---|
JP6744260B2 (ja) | 2020-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7272736B2 (ja) | サービス加入方法、当該方法を実行するためのチップ、情報伝達装置およびプログラム、並びにネットワーク機能ネットワーク要素 | |
EP3296870A1 (en) | Cdn-based content management system | |
US10623286B2 (en) | Anchor mobility in wireless networks | |
KR102499219B1 (ko) | 동적 네트워크 인터페이스를 사용하는 상호운용가능 클라우드 기반 미디어 처리 | |
JP2018523932A (ja) | 負荷バランシングコンピュータデバイス、システム、および方法 | |
JP2018509838A (ja) | ネットワーク管理 | |
US9392081B2 (en) | Method and device for sending requests | |
Ksentini et al. | A LISP-based implementation of follow me cloud | |
CN109155939B (zh) | 一种负载迁移方法、装置及系统 | |
US20230079314A1 (en) | Service server switching control method and apparatus, electronic device, and storage medium | |
CN106686676B (zh) | 一种会话切换的方法、设备及系统 | |
WO2019154283A1 (zh) | 一种业务迁移的方法及装置 | |
US20230078344A1 (en) | Switching control method and apparatus for service server, electronic device, and storage medium | |
Buyakar et al. | Prototyping and load balancing the service based architecture of 5G core using NFV | |
JP6176734B2 (ja) | 仮想マシンの配置決定装置、その方法およびプログラム | |
JP6744260B2 (ja) | 仮想サーバ構成変更方法および仮想サーバ構成変更システム | |
CN106688243B (zh) | 装置对装置内容提供方法 | |
CN114513770B (zh) | 部署应用的方法、系统和介质 | |
JP2019022078A (ja) | 仮想サーバ編成方法および仮想サーバ編成システム | |
JP2021503747A (ja) | カップリングリダイレクト方法および装置 | |
JP2015153330A (ja) | 仮想マシン配置システム及び方法 | |
US20190245747A1 (en) | Software defined network (sdn) information distribution across an sdn data-plane | |
Abid et al. | Virtual machines' load-balancing in inter-clouds | |
JP2017004050A (ja) | キュー管理方法、キュー管理プログラム及びキュー管理装置 | |
Mendoza et al. | SDNaaS: Software-Defined Networking as an IXP Service |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6744260 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |