JP2019139533A - 配置構成装置、および、配置構成方法 - Google Patents

配置構成装置、および、配置構成方法 Download PDF

Info

Publication number
JP2019139533A
JP2019139533A JP2018022689A JP2018022689A JP2019139533A JP 2019139533 A JP2019139533 A JP 2019139533A JP 2018022689 A JP2018022689 A JP 2018022689A JP 2018022689 A JP2018022689 A JP 2018022689A JP 2019139533 A JP2019139533 A JP 2019139533A
Authority
JP
Japan
Prior art keywords
resource
placement
destination
arrangement
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018022689A
Other languages
English (en)
Inventor
浩亮 坂田
Hiroaki Sakata
浩亮 坂田
求 中島
Motomu Nakajima
求 中島
裕司 副島
Yuji Soejima
裕司 副島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018022689A priority Critical patent/JP2019139533A/ja
Priority to PCT/JP2019/004801 priority patent/WO2019159875A1/ja
Publication of JP2019139533A publication Critical patent/JP2019139533A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]

Abstract

【課題】仮想化技術で構築されたサービスに対して、動作上の物理リソースに問題が発生しても、サービスの中断時間を短縮すること。【解決手段】サービス管理装置1は、リソースデータ管理部13のリソースデータをもとに、VMの使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した候補集合に属する1つのエリアを配置先エリアとし、抽出した候補集合に属する1つ以上のエリアを予備配置先エリアとする配置先計算部14と、配置先計算部14の計算結果に従って、VMを配置先エリアの配置先リソースに配置するとともに予備配置先エリアにVMの予備配置先リソースを確保し、その配置後の配置先リソースの故障発生時には、配置先リソースから予備配置先リソースにVMを再配置する配置制御部16とを有する。【選択図】図4

Description

本発明は、配置構成装置、および、配置構成方法に関する。
1台の物理マシン上に、複数の仮想マシン(VM:Virtual Machine)を動作させることにより、物理マシンの細かい設定作業の負担を軽減させるとともに、マシン構成を柔軟に変更できる。このようなサーバ仮想化技術と同様に、ネットワーク機能も物理デバイスに依存しないように仮想化する試みが行われている。
SDN(Software-Defined Networking)は、ソフトウェア技術によりネットワークを仮想化する技術であり、VMに相当するような仮想化されたネットワーク機能は、VNF(Virtualized Network Function)と呼ばれる。これにより、ネットワークの運用管理を効率化することができる。
特許文献1には、VNFをネットワークサービスとして管理する装置が記載されている。この装置は、複数のオペレータから非同期にネットワークサービスが生成要求されるときに、ネットワークサービスを動作させるリソースを複数のオペレータに重複して割り当てることを回避するように調停する。
特開2017−143452号公報
SDNの浸透により、データセンタやクラウドなどでもVNFの採用が増えている。このような商用利用においては、仮想技術であっても、従来の物理リソースを提供するときと同等のSLA(Service Level Agreement)が求められることもある。例えば、物理リソースに故障が発生したとしても、その復旧するまでにサービスを中断する時間の許容時間がSLAとして求められる。
一方、特許文献1などの従来の仮想化技術では、リソースの利用効率を最適化するなどの故障が発生しない状況での配置最適化は行われていた。しかし、故障が発生してから復旧するまでの中断時間を最小化するという観点での最適化は考慮されていない。
以下、図11〜図16を参照して、サービスの中断時間のSLAを満たすときの問題を詳細に説明する。以下では、SLAを遵守する対象の仮想化技術をVMとして例示するが、VNFの場合も同様である。
図11は、各エリアに割り当てられているVMを示す説明図である。
「配置先エリア」とは、VMが配置される先のエリアである。例えば、VM1の配置先エリアは「エリアA」であり、VM3の配置先エリアは「エリアB」である。
「配置先リソース」とは、配置先エリア内で配置されたVMが動作のために使用する計算機資源や通信資源である。例えば、VM1の配置先リソースは、エリアA内に存在する物理サーバの計算機資源と、その物理サーバに接続されるネットワークの通信資源である。
図12は、図11の状態からVMの再配置先を空ける処理を示す説明図である。
エリアB内のVM3の配置先リソースに故障が発生したとする(×印)。エリアCはエリアB内の配置先リソースと同等の配置先リソースを提供できるが、エリアDは同等の配置先リソースを提供できないとする。
このとき、エリアCで稼働中のVM5をエリアDに再配置することで、エリアC内の配置先リソースを空けておく。
図13は、図11の状態から再配置先として空いたリソースにVMを再配置する処理を示す説明図である。
エリアB内のVM3は、図12で配置先リソースを空けておいたエリアC内に再配置される。これにより、VM3はエリアBで配置先リソースに故障が発生した後でも、エリアCで復旧して稼働を再開することができる。
しかし、故障が発生した後に再配置先を準備するような事後的な対応では、VM3の中断期間が長期化してしまうので、VM3の復旧時間の観点でのSLAを満たさなくなってしまう。
図14は、使用リソース要件を区別して、各エリアに割り当てられているVMを示す説明図である。
「使用リソース要件」は、VMごとに定められており、VMが実行するのに要するリソースの種類や分量を示す。例えば、図14では細線で囲まれたVM(VM1,VM3)は、少ないリソースでも動作する第1使用リソース要件が定められている。一方、太線で囲まれたVM(VM2,VM4)は、細線で囲まれたVMよりも多いリソースで動作する第2使用リソース要件が定められている。
「提供可能リソース」は、各エリアがVMを動作させるために提供することができるリソースである。
例えば、第1使用リソース要件を満たすが第2使用リソース要件を満たさない程度の提供可能リソースを有するエリアXは、細線で囲まれている。一方、第1使用リソース要件も第2使用リソース要件も満たす程度の提供可能リソースを有するエリアYは、太線で囲まれている。
図15は、図14の状態から使用リソース要件が低いVMを再配置したときの説明図である。VM1は第1使用リソース要件(少ないリソース)で動作するので、提供可能リソースも少ない予備配置先エリア=エリアX内に再配置される。
図16は、図14の状態から使用リソース要件が高いVMを再配置したときの説明図である。VM2は第2使用リソース要件(多いリソース)で動作するので、提供可能リソースも多い予備配置先エリア=エリアY内に再配置される。
このように、図14〜図16では使用リソース要件を考慮して予備配置先エリアを決定する必要がある。つまり、故障が発生した後に再配置先を用意するときに、使用リソース要件も考慮する場合にはさらに中断時間が長期化してしまう。
そこで、本発明は、仮想化技術で構築されたサービスに対して、動作上の物理リソースに問題が発生しても、サービスの中断時間を短縮することを、主な課題とする。
前記課題を解決するために、本発明の配置構成装置は、以下の特徴を有する。
本発明は、使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付ける配置対象受付部と、
前記仮想機能部の配置先の候補となる各エリアから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理するリソースデータ管理部と、
前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した前記候補集合に属する1つのエリアを配置先エリアとし、抽出した前記候補集合に属する1つ以上のエリアを予備配置先エリアとした配置構成データを計算する配置先計算部と、
前記配置構成データに従って、前記仮想機能部を前記配置先エリアの配置先リソースに配置するとともに前記予備配置先エリアに前記仮想機能部の予備配置先リソースを確保し、
その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御する配置制御部とを有することを特徴とする。
これにより、故障発生の前でも故障発生の後でも、使用リソース要件を満たすリソース上で仮想機能部を稼働させることができる。そして、あらかじめ仮想機能部の再配置先としての予備配置先リソースが、故障発生前に用意されている。よって、故障発生時には、仮想機能部の再配置先を検索する処理を省略し、ただちに仮想機能部を予備配置先リソースに再配置させることで、仮想機能部が提供するサービスの中断時間を短縮することができる。
本発明は、前記配置先計算部が、前記候補集合から提供可能リソースが最も少ないエリアを前記仮想機能部の前記配置先エリアとして選択し、前記候補集合から前記予備配置先エリアを選択するための所定のポリシに合致するエリアを前記仮想機能部の前記予備配置先エリアとして選択することを特徴とする。
これにより、1つのエリアに仮想機能部が集中して配置されるので、リソースの利用効率を高めることができる。なお、他の配置済みの仮想機能部にリソースを使用されることで、残った提供可能リソースが少ないエリアほど、多くの仮想機能部が配置済みである傾向にある。
本発明は、前記配置先計算部が、前記所定のポリシに従って、前記配置先エリアと同じエリアを前記予備配置先エリアとして選択し、
前記配置制御部が、前記配置先エリア内の故障した前記配置先リソースと同じエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする。
これにより、他のエリアでは満たせないような厳しい使用リソース要件が指定された仮想機能部であっても、その厳しい使用リソース要件を満たす程度に提供可能なリソースが豊富なエリア内に集中して、仮想機能部を配置および再配置することができる。
本発明は、前記配置先計算部が、前記所定のポリシに従って、前記配置先エリアと異なるエリアを前記予備配置先エリアとして選択し、
前記配置制御部が、前記配置先エリア内の故障した前記配置先リソースと異なるエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする。
これにより、配置先エリアだけでなく他のエリアまで予備配置先エリアの選択肢が広がることで、保有するすべてのサーバリソースを有効に活用して予備配置先エリアを確保できる。
本発明は、前記配置先計算部が、前記所定のポリシに従って、配置対象の前記仮想機能部とは別の前記仮想機能部がすでに稼働しているエリアを、配置対象の前記仮想機能部における前記予備配置先エリアとして選択することを特徴とする。
これにより、稼働中の仮想機能部と、別の仮想機能部用の予備配置先リソースとが同じエリア内に混在する。よって、予備配置先リソースだけしか存在しないエリアが減ることで、遊休状態のリソースを過剰に常時備えておくような非効率なリソース運用を減らすことができる。
本発明は、前記配置対象受付部が、すでに配置された前記仮想機能部についての前記使用リソース要件が変更された旨を受け付けると、変更後の前記使用リソース要件に基づいて、前記配置構成データを前記配置先計算部に再計算させるとともに、その再計算された前記配置構成データに基づいて、前記仮想機能部の前記配置先リソースおよび前記予備配置先リソースを更新するように前記配置制御部に制御させることを特徴とする。
これにより、使用リソース要件が低い状態で配置された仮想機能部に対して、新たに事業間の契約により使用リソース要件を引き上げるような、変化するSLAに応じた柔軟なネットワーク運用が可能となる。
本発明によれば、仮想化技術で構築されたサービスに対して、動作上の物理リソースに問題が発生しても、サービスの中断時間を短縮することができる。
本実施形態に係わる各エリアに割り当てられている配置先リソースおよび予備配置先リソースを示す説明図である。 本実施形態に係わる図1の状態から配置先リソース上のVM1を予備配置先リソースに再配置する処理を示す説明図である。 本実施形態に係わる図1の状態から予備配置先リソースの再計算処理を示す説明図である。 本実施形態に係わるリソース管理システムの構成図である。 本実施形態に係わる配置先計算部の処理を示す説明図である。 本実施形態に係わる配置構成データ管理部の一例を示すテーブルである。 本実施形態に係わるリソース管理システムの処理を示すシーケンス図である。 各エリアに割り当てられているVMを示す説明図である。 図8の状態からVM上のリソースに故障が発生したときの説明図である。 図9の状態から再配置先としたエリアXが利用不可能である状況を示す説明図である。 各エリアに割り当てられているVMを示す説明図である。 図11の状態からVMの再配置先を空ける処理を示す説明図である。 図11の状態から再配置先として空いたリソースにVMを再配置する処理を示す説明図である。 使用リソース要件を区別して、各エリアに割り当てられているVMを示す説明図である。 図14の状態から使用リソース要件が低いVMを再配置したときの説明図である。 図14の状態から使用リソース要件が高いVMを再配置したときの説明図である。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。
まず、本発明の概要について、図1〜図3を参照して説明する。
図1は、各エリアに割り当てられている配置先リソースおよび予備配置先リソースを示す説明図である。
「予備配置先エリア」とは、配置先エリア内で配置されたVMが故障発生などにより稼働が困難になったときに、新たな配置先エリアとなるように故障発生前に指定されたエリア(避難場所)である。
「予備配置先リソース」とは、故障発生後に再配置されたVMが使用するために、予備配置先エリア内に確保されたリソースである。例えば、図1では、図14と同様に、使用リソース要件が高いVM3,4と、予備配置先リソースが多い予備配置先エリア=エリアDとを太線で囲んでいる。なお、使用リソース要件は、例えば、SLAで規定された要件である。
ここで、本実施形態では、故障が発生する前のVMの配置段階において、配置対象のVMごとに新規の配置先リソースと、将来の故障に備えて再配置するときの予備配置先リソースとを組み合わせて確保しておくように配置構成することを、主な特徴とする。
例えば、VM1の配置先リソースは配置先エリア=エリアAに用意されるとともに、そのVM1の予備配置先リソースは予備配置先エリア=エリアBに用意される。同様に、VM2の予備配置先リソースもエリアBに用意されるので、エリアBには、VM1とVM2それぞれの予備配置先リソースが用意される(図では「VM1&2」と表記)。
一方、使用リソース要件が高いVM3,4の予備配置先エリアは、予備配置先リソースが多いエリアDである(図では「VM3&4」と表記)。つまり、VMの使用リソース要件を考慮して、配置先エリアだけでなく予備配置先エリアについても決定される。
図2は、図1の状態から配置先リソース上のVM1を予備配置先リソースに再配置する処理を示す説明図である。VM1の配置先エリアで配置先リソースに故障が発生すると、図1であらかじめ用意しておいた予備配置先エリアにVM1を迅速に再配置できる。
つまり、故障した後に予備配置先リソースを探索するような図11〜図13の方式に比べ、故障する前に予備配置先リソースを確保しておく図1〜図3の方式は、サービスの中断時間を短縮することができる。
図3は、図1の状態から予備配置先リソースの再計算処理を示す説明図である。図1の細線で囲まれたVM2は使用リソース要件が低かったが、図3において太線で囲まれたVM2は使用リソース要件が高いものに変更されたとする。
このように、使用リソース要件がVMの配置後に変更されたとしても、予備配置先リソースをエリアBからエリアDに変更するように(図では「VM2&3&4」と表記)、配置構成を柔軟に再計算することもできる。
図4は、リソース管理システムの構成図である。リソース管理システムは、NW管理システム21と、NW収集システム22と、NW制御システム23と、リソース提供システム24と、サービス管理装置(配置構成装置)1とがネットワークで接続されて構成される。NWはネットワークの略である。
サービス管理装置1は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
リソース提供システム24は、サービスを提供するために、図1〜図3で説明したVMや、VNFなどの仮想機能部を動作させるためのリソース(配置先リソース、予備配置先リソース)を提供する計算機環境(物理サーバ、物理ネットワークデバイス)である。1つ以上の物理サーバは、1つのエリアとしてグループ化されている。
NW収集システム22は、リソース提供システム24の各リソースに対して、提供可能リソースを測定する。提供可能リソースは、以下に例示するスペックを1つまたは複数組み合わせたものである。
・CPUのスペック(コア数、クロック数などの計算能力)
・メモリのスペック(転送速度、記憶容量など)
・ネットワークのスペック(通信帯域、遅延、パケットロス率などのネットワークの品質指標)
NW制御システム23は、リソース提供システム24の各リソースに対して、図1〜図3に例示したような配置構成データを反映させることで、配置先リソースに仮想機能部を配置し、予備配置先リソースに仮想機能部の再配置先を確保する。
NW管理システム21は、サービス管理装置1を介してリソース提供システム24への各種要求を管理者に入力させるためのシステムである。各種要求とは、例えば、仮想機能部を新規に配置させるための配置要求や、すでに配置された仮想機能部を故障時に再配置させるための再配置要求である。
以上説明したNW管理システム21、NW収集システム22、および、NW制御システム23は、リソース提供システム24の設定や管理を自動化するためのオーケストレータとして動作する。
サービス管理装置1は、配置対象受付部11と、配置構成データ管理部12と、リソースデータ管理部13と、配置先計算部14と、ポリシデータ管理部15と、配置制御部16とを含めて構成される。
配置対象受付部11は、配置対象である仮想機能部(VM、VNF)について、その使用リソース要件を含めた配置要求を受け付ける(図3で示した使用リソース要件の変更要求も受け付ける)。なお、使用リソース要件は、NW収集システム22が収集する提供可能リソースとして前記した各種のスペックを用いて表現され、例えば、VMのカタログやVNFのカタログ内のパラメータとして通知される。
リソースデータ管理部13は、NW収集システム22が収集したリソース提供システム24の各提供可能リソースを管理する。
配置先計算部14は、配置対象受付部11が受け付けた使用リソース要件と、リソースデータ管理部13が管理する提供可能リソースとを照合することで、使用リソース要件を提供可能な配置先エリアと予備配置先エリアとを配置構成データとして計算する。
配置構成データ管理部12は、配置先計算部14の計算結果である配置構成データを管理する。
配置制御部16は、リソースデータ管理部13が管理する配置構成データに従って、配置先リソースおよび予備配置先リソースをNW制御システム23に制御させる。
ポリシデータ管理部15は、配置先計算部14の計算に用いられる各種ポリシ(エリア選択ポリシ、リソース確保ポリシ)を、NW管理システム21を介して管理者から受け付けて保持する。エリア選択ポリシは図6で後記し、以下はリソース確保ポリシを説明する。
同じ予備配置先エリアに複数のVMの予備配置先リソースが確保されていた場合、予備配置先エリアに確保される予備配置先リソースの総量は、例えば、以下のリソース確保ポリシに従って計算される。例えば、同じ予備配置先エリアに、第1VM用の予備配置先リソース=3M([bps]の通信帯域)と、第2VM用の予備配置先リソース=2Mとが確保されていたとする。
(1)リソース確保ポリシ=「リソース効率優先」の場合、予備配置先リソースの総量=max(3,2)=3Mとする(関数maxは引数の最大値を返す)。これにより、同じ予備配置先エリア内に確保された予備配置先リソースのうち、いずれか1つのVMが故障しても、そのVMについて確実に復旧することができる。
(2)リソース確保ポリシ=「耐障害性優先」の場合、予備配置先リソースの総量=groupmax({3,2},1)+groupmax({3,2},2)=5Mとする。関数groupmax(M,N)はM集合のうち、N番目に大きい数を抽出する。
これにより、甚大災害時などのN重故障が発生した場合でも、同じ予備配置先エリア内に予備配置先リソースを確保しておいたN個のVMを、同時に回復させることができる。なお、前記の「予備配置先リソースの総量」の式は、「予備配置先リソースの総量=groupmax(M,1)+groupmax(M,2)+…+groupmax(M,N)」と一般化できる。
図5は、配置先計算部14の処理を示す説明図である。前記したように、配置先計算部14は、使用リソース要件を提供可能な配置先エリアと予備配置先エリアとを配置構成データとして計算する。このため、配置先計算部14は、使用リソース要件を提供可能なエリアの集合を候補集合として抽出しておく。
例えば、提供可能リソース=3MのエリアAと、提供可能リソース=2MのエリアBと、提供可能リソース=10MのエリアCとがリソースデータ管理部13に登録されている。そして、配置対象受付部11は、使用リソース要件=2MのVM1と、使用リソース要件=5MのVM2とを配置要求として受け付けたとする。
配置先計算部14は、VM1については2M以上の提供可能リソースを有するエリアA,B,Cを候補集合とする。一方、配置先計算部14は、VM2については5M以上の提供可能リソースを有するエリアCだけを候補集合とする。このように、配置先計算部14は、VMやVNFごとの使用リソース要件と、エリアごとの(またはエリア内の物理サーバごとの)提供可能リソースとを通信品質などのスペック情報でマッチングする。
図6は、配置構成データ管理部12の一例を示すテーブルである。配置先計算部14は、図5で説明したようにエリアの候補集合から、配置先エリアと予備配置先エリアとを選択した配置構成データを作成する。
VM1については3つのエリアA,B,Cをメンバとする候補集合から、配置先エリア=エリアAと、予備配置先エリア=エリアBとが選択されている。VM2については、4つのエリアA,B,Cをメンバとする候補集合から、配置先エリア=エリアAと、予備配置先エリア=エリアB,Cとが選択されている。
なお、選択する予備配置先エリアの数は、管理者が指定した冗長度によって決定される。例えば、冗長度が2の場合には、2つのエリア(=1つの配置先エリア+1つの予備配置先エリア)とし、冗長度が3の場合には、3つのエリア(=1つの配置先エリア+2つの予備配置先エリア)とする。
また、VM4のように、そもそも候補集合のメンバが1つのエリアしか存在しないときには配置先エリアだけ決定する。
ここで、ポリシデータ管理部15に格納される「エリア選択ポリシ」とは、候補集合からどのように配置先エリアや予備配置先エリアを選択するかを決定するためのポリシである。以下にエリア選択ポリシを例示する。
(ポリシ1)候補集合から提供可能リソースが最も少ない配置先エリアを選択し、その配置先エリアを除外して、提供可能リソースが少ない順に1つ以上の予備配置先エリアを選択する。これにより、特定のエリアにVMが集中して配置されるので、通常時には使用されない提供可能リソースを過剰に常時備えておくような非効率なリソース運用を減らすことができる。
(ポリシ2)予備配置先エリアと配置先エリアとを同じエリアとして選択する。つまり、配置先リソースの物理サーバと、予備配置先リソースの物理サーバとは同じエリアに属する。
(ポリシ3)予備配置先エリアと配置先エリアとを異なるエリアとして選択する。
(ポリシ4)他のVMがすでに稼働しているエリア(他のVMにとっての配置先エリア)と同じエリアを、今回の候補集合から予備配置先エリアとして選択する。
(ポリシ5)候補集合から消費電力が少ない提供可能リソースを有するエリアを優先的に選択する。
図7は、リソース管理システムの処理を示すシーケンス図である。
まず、S11〜S17では、1つめのVM−Aについての配置処理を説明する。
S11において、配置対象受付部11は、VM−Aの配置要求をNW管理システム21から受け付ける。この配置要求には、配置対象であるVM−Aの使用リソース要件が「通信帯域を3M[bps]使用する」ことがVNFカタログ内のパラメータとして記載されている。
なお、図7では、使用リソース要件の一例として通信帯域だけを用いたが、これは説明をわかりやすくするために簡素化しただけであり、使用リソース要件が通信帯域という1つのスペックだけに限定したものではない。NW収集システム22が収集する提供可能リソースとして説明したように、使用リソース要件も、CPUのスペック、メモリのスペック、ネットワークのスペックを単体で、または、複数種類のスペックを組み合わせて表現される。
S12〜S14において、リソースデータ管理部13は、S11のVM−Aの配置先を探すために、NW収集システム22を介して各エリアA〜Cのサーバに対して提供可能リソースを要求する。
各サーバは、自身の提供可能リソース(現時点でのスペックの測定結果など)をリソースデータ管理部13に応答する。ここでは、エリアAの提供可能リソースが10M(S12)、エリアBの提供可能リソースが5M(S13)、エリアCの提供可能リソースが1M(S14)であったとする。
S15において、配置先計算部14は、S12〜S14で応答された各提供可能リソースが、VM−Aの(S11の)使用リソース要件を満たしているか否かを判定する。ここでは、3M以上のリソースを有するエリアA,Bは使用リソース要件を満たし、エリアCは使用リソース要件を満たさないと判断された。
そして、配置先計算部14は、VM−Aの候補集合から、提供可能リソースが1番少ない配置先エリア=エリアBと、提供可能リソースが2番目に少ない予備配置先エリア=エリアAとを選択する旨の配置構成データを作成する。
S16において、配置制御部16は、配置構成データに従って、配置先リソース=3M分を使用するVM−AをエリアBに配置し(S16)、VM−Aの予備配置先リソース=3M分をエリアAに確保する。
次に、S21〜S27では、2つめのVM−Bについての配置処理を説明する。
S21において、配置対象受付部11は、VM−Bの配置要求をNW管理システム21から受け付ける。この配置要求には、配置対象であるVM−Bの使用リソース要件が「通信帯域を1M[bps]使用する」ことがVNFカタログ内のパラメータとして記載されている。
S22〜S24において、リソースデータ管理部13は、S21のVM−Bの配置先を探すために、NW収集システム22を介して各エリアA〜Cのサーバに対して提供可能リソースを要求する。各サーバは、自身の提供可能リソースをリソースデータ管理部13に応答する。
エリアAの提供可能リソースは、S12では10Mであったが、S17で確保された予備配置先リソース=3M分だけ減少した結果、S22では7Mとして応答される。
エリアBの提供可能リソースは、S13では5Mであったが、S16で使用された配置先リソース=3M分だけ減少した結果、S23では2Mとして応答される。
エリアCの提供可能リソースは、S14と同様に、S24でも1Mとして応答される。
S25において、配置先計算部14は、S22〜S24で応答された各提供可能リソースが、VM−Bの(S21の)使用リソース要件を満たしているか否かを判定する。ここでは、1M以上のリソースを有するすべてのエリアA,B,Cが使用リソース要件を満たす。
そして、配置先計算部14は、VM−Bの候補集合から、提供可能リソースが1番少ない配置先エリア=エリアCと、提供可能リソースが2番目に少ない予備配置先エリア=エリアBとを選択する旨の配置構成データを作成する。
配置制御部16は、この配置構成データに従って、エリアCの配置先リソースにVM−Bを配置し(S26)、エリアBにVM−Bの予備配置先リソースを確保する(S27)。
ここで、エリアBのサーバに故障が発生したとする(S30)。この故障によりエリアBでの以降のVMの稼働が困難となる。そこで、エリアBのサーバは、自身で稼働させていたVMを他のエリアに退避(再配置)させる。S16で配置されたVM−Aが該当するので、エリアBのサーバは、配置制御部16からの制御指示に従い、S17で確保された予備配置先エリア=エリアAの予備配置先リソースであるサーバに、VM−Aを再配置する(S31)。
このように、あらかじめVMごとに配置先リソースと予備配置先リソースとの組み合わせが対応づけられて用意されており、使用リソース要件を満たす予備配置先エリアが故障発生前にあらかじめ確保されている。これにより、配置先リソースで故障が発生したVMは、予備配置先リソースへの再配置が迅速に実行されるので、SLAに定義された故障回復時間を満たすことができる。
つまり、現状の設備リソース利用状況から最適配置構成にするまでのVMの再配置処理を事前に準備しておくことで、故障後の復旧にかかる時間を削減でき、故障によるサービス遮断時間を短縮できる。
ところで、S32では、故障したエリアBのサーバ上にVM−Bの予備配置先リソースが存在していた場合である。この場合、VM−Bは現時点ではエリアCの配置先リソースで稼働しており(S26)、エリアBの故障の直接の被害は受けていない。しかし、将来的にエリアCでも故障が発生したときには、VM−Bの予備配置先リソースが存在しないことになる。
よって、S32のような場合では、配置先計算部14は、配置構成データを再計算した結果としてVM−Bの新たな予備配置先エリア=エリアAを求め、故障したエリアBの予備配置先リソースを、稼働中のエリアAの予備配置先リソースへと変更することが望ましい。
以上説明した本実施形態では、配置先計算部14は、使用リソース要件を提供可能なエリアの集合を候補集合として抽出しておく(図5)。そして、配置先計算部14は、候補集合のエリアから、配置先エリアと予備配置先エリアとを組み合わせて選択する(図6)。
これにより、配置先リソースが故障した場合でも、使用リソース要件を満たす別の予備配置先リソースがすでに用意されているので、迅速にVMやVNFを再配置することで、サービスの中断時間を短縮化できる。
前記の実施形態では、リソース提供システム24の「エリア」に着目して、配置先計算部14が作成する配置構成データ(配置先エリアと予備配置先エリア)について説明した。以下では、他の実施形態として、リソース提供システム24が提供する個々の「サーバ」に着目して、配置先計算部14が作成する配置構成データについて説明する。この説明では、以下のように読み替える。
・「エリアの候補集合」を「サーバの候補集合」に読み替える。サーバの候補集合とは、配置対象受付部11が受け付けた配置対象の仮想機能部の使用リソース要件を満たす、リソース提供システム24のサーバの集合である。
・「配置先エリア」を「配置先サーバ」に読み替える。配置先サーバとは、配置先計算部14が作成する配置構成データにおいて、配置対象の仮想機能部の配置先となるサーバである。
・「予備配置先エリア」を「予備配置先サーバ」に読み替える。予備配置先サーバとは、配置先計算部14が作成する配置構成データにおいて、配置先サーバの故障時において再配置先となるサーバである。
例えば、図7のS11〜S17の各処理は、前記の読み替えにより、以下のように置き換わる。
S11において、配置対象受付部11は、使用リソース要件が規定された配置対象の仮想機能部を、配置要求として受け付ける。
S12〜S14において、リソースデータ管理部13は、S11で受け付けた仮想機能部の配置先を探すために、NW収集システム22を介してリソース提供システム24の各サーバに対して提供可能リソースを要求する。
S15において、配置先計算部14は、S12〜S14で応答された各サーバの提供可能リソースが、S11の使用リソース要件を満たすようなサーバの集合を、候補集合として抽出する。
そして、配置先計算部14は、抽出されたサーバの候補集合から、例えば、提供可能リソースが1番少ない配置先サーバと、提供可能リソースが2番目に少ない予備配置先サーバとを選択する旨の配置構成データを作成する。
配置制御部16は、S11で受け付けた仮想機能部をS15の配置先サーバの配置先リソースに配置し(S16)、その予備配置先リソースをS15の予備配置先サーバに確保する(S17)。
以下では、比較例として、物理層の実装としてホットスペアによる冗長化技術を例示する。中断時間を最小化するという観点では、ホットスペアも同等の効果を得ることができる。しかし、サービス中断時間のSLAに合わせてホットスペアのための予備設備を構築するには、設備の導入費用や維持費用などのコストがかかってしまう。なお、物理マシン上の仮想マシンに対してホットスペアを用意するのは、その物理マシン1台を対象とするだけで済む。しかし、物理ネットワーク上の仮想ネットワーク機能に対しては、エンドツーエンドで広範囲にホットスペアを用意することとなり、大きなコストがかかる。
図8は、各エリアに割り当てられているVMを示す説明図である。エリアXには、現時点ではどのVMも割り当てられておらず、ホットスペアとして用意されている。
図9は、図8の状態からVM上のリソースに故障が発生したときの説明図である。エリアB内のVM3に故障が発生したとする(×印)。そこで、エリアXにVM3を再配置しようとする。
図10は、図9の状態から再配置先としたエリアXが利用不可能である状況を示す説明図である。エリアX内にホットスペアとして用意していた物理サーバが実は壊れていたということも起こりうる。なぜなら、ホットスペアでは通常時には動作を行わないため、休眠状態が長くなってしまい、稼働チェックが疎かになることもあるためである。
一方、本実施形態においては、図7のS12〜S14などでNW収集システム22が実際に提供可能リソースを収集することで、予備配置先リソースの稼働状況も随時チェックされる。これにより、動作可能な予備配置先リソースを用意できる。
さらに、本実施形態のサービス管理装置1では、図3に示したように、使用リソース要件の変更にも柔軟に対応可能である。一方で、ホットスペアではハードウェアリソースとして冗長化を行うため、使用リソース要件の変更が発生したときには、冗長化構成を再構築するために大きなコストがかかってしまう。
なお、本実施形態においては、本発明に係る配置構成データとして、図1に示す4つのVMと、4つのエリアとで説明したが、これらの個数や構成に限定されない。また、本発明では、一般的なコンピュータのハードウェア資源を、サービス管理装置1の各手段として動作させるプログラムによって実現することができる。そして、このプログラムは、通信回線を介して配布したり、CD−ROM等の記録媒体に記録して配布したりすることも可能である。
1 サービス管理装置(配置構成装置)
11 配置対象受付部
12 配置構成データ管理部
13 リソースデータ管理部
14 配置先計算部
15 ポリシデータ管理部
16 配置制御部
21 NW管理システム
22 NW収集システム
23 NW制御システム
24 リソース提供システム

Claims (8)

  1. 使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付ける配置対象受付部と、
    前記仮想機能部の配置先の候補となる各エリアから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理するリソースデータ管理部と、
    前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した前記候補集合に属する1つのエリアを配置先エリアとし、抽出した前記候補集合に属する1つ以上のエリアを予備配置先エリアとした配置構成データを計算する配置先計算部と、
    前記配置構成データに従って、前記仮想機能部を前記配置先エリアの配置先リソースに配置するとともに前記予備配置先エリアに前記仮想機能部の予備配置先リソースを確保し、
    その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御する配置制御部とを有することを特徴とする
    配置構成装置。
  2. 前記配置先計算部は、前記候補集合から提供可能リソースが最も少ないエリアを前記仮想機能部の前記配置先エリアとして選択し、前記候補集合から前記予備配置先エリアを選択するための所定のポリシに合致するエリアを前記仮想機能部の前記予備配置先エリアとして選択することを特徴とする
    請求項1に記載の配置構成装置。
  3. 前記配置先計算部は、前記所定のポリシに従って、前記配置先エリアと同じエリアを前記予備配置先エリアとして選択し、
    前記配置制御部は、前記配置先エリア内の故障した前記配置先リソースと同じエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする
    請求項2に記載の配置構成装置。
  4. 前記配置先計算部は、前記所定のポリシに従って、前記配置先エリアと異なるエリアを前記予備配置先エリアとして選択し、
    前記配置制御部は、前記配置先エリア内の故障した前記配置先リソースと異なるエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする
    請求項2に記載の配置構成装置。
  5. 前記配置先計算部は、前記所定のポリシに従って、配置対象の前記仮想機能部とは別の前記仮想機能部がすでに稼働しているエリアを、配置対象の前記仮想機能部における前記予備配置先エリアとして選択することを特徴とする
    請求項2に記載の配置構成装置。
  6. 前記配置対象受付部は、すでに配置された前記仮想機能部についての前記使用リソース要件が変更された旨を受け付けると、変更後の前記使用リソース要件に基づいて、前記配置構成データを前記配置先計算部に再計算させるとともに、その再計算された前記配置構成データに基づいて、前記仮想機能部の前記配置先リソースおよび前記予備配置先リソースを更新するように前記配置制御部に制御させることを特徴とする
    請求項1に記載の配置構成装置。
  7. 使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付ける配置対象受付部と、
    前記仮想機能部の配置先の候補となる各サーバから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理するリソースデータ管理部と、
    前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすサーバの候補集合を抽出し、その抽出した前記候補集合に属する1つのサーバを配置先サーバとし、抽出した前記候補集合に属する1つ以上のサーバを予備配置先サーバとした配置構成データを計算する配置先計算部と、
    前記配置構成データに従って、前記仮想機能部を前記配置先サーバの配置先リソースに配置するとともに前記予備配置先サーバに前記仮想機能部の予備配置先リソースを確保し、
    その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御する配置制御部とを有することを特徴とする
    配置構成装置。
  8. 配置対象受付部と、リソースデータ管理部と、配置先計算部と、配置制御部とを有する配置構成装置により実行される配置構成方法であって、
    前記配置対象受付部は、使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付け、
    前記リソースデータ管理部は、前記仮想機能部の配置先の候補となる各エリアから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理し、
    前記配置先計算部は、前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した前記候補集合に属する1つのエリアを配置先エリアとし、抽出した前記候補集合に属する1つ以上のエリアを予備配置先エリアとした配置構成データを計算し、
    前記配置制御部は、
    前記配置構成データに従って、前記仮想機能部を前記配置先エリアの配置先リソースに配置するとともに前記予備配置先エリアに前記仮想機能部の予備配置先リソースを確保し、
    その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御することを特徴とする
    配置構成方法。
JP2018022689A 2018-02-13 2018-02-13 配置構成装置、および、配置構成方法 Pending JP2019139533A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018022689A JP2019139533A (ja) 2018-02-13 2018-02-13 配置構成装置、および、配置構成方法
PCT/JP2019/004801 WO2019159875A1 (ja) 2018-02-13 2019-02-12 配置構成装置、および、配置構成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018022689A JP2019139533A (ja) 2018-02-13 2018-02-13 配置構成装置、および、配置構成方法

Publications (1)

Publication Number Publication Date
JP2019139533A true JP2019139533A (ja) 2019-08-22

Family

ID=67618531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018022689A Pending JP2019139533A (ja) 2018-02-13 2018-02-13 配置構成装置、および、配置構成方法

Country Status (2)

Country Link
JP (1) JP2019139533A (ja)
WO (1) WO2019159875A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045790A (zh) * 2019-12-13 2020-04-21 北京奇艺世纪科技有限公司 虚拟机部署方法及装置
WO2023187980A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 アプリケーション配信装置、アプリケーション配信方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5872433B2 (ja) * 2012-10-04 2016-03-01 日本電信電話株式会社 仮想マシン配置装置および仮想マシン配置方法
JP2016171411A (ja) * 2015-03-12 2016-09-23 株式会社日立製作所 統合制御システム及びネットワークとデータセンタの制御方法
JP2016192086A (ja) * 2015-03-31 2016-11-10 みずほ情報総研株式会社 リソース管理システム及びリソース管理方法
JP6431454B2 (ja) * 2015-07-30 2018-11-28 日本電信電話株式会社 クラスタ内リソース管理システム、クラスタ内リソース管理方法、管理サーバ及びプログラム
JP2017156894A (ja) * 2016-02-29 2017-09-07 富士通株式会社 仮想マシン管理装置、システム、および仮想マシン管理方法
JP6705320B2 (ja) * 2016-07-19 2020-06-03 富士通株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
WO2019159875A1 (ja) 2019-08-22

Similar Documents

Publication Publication Date Title
US10628273B2 (en) Node system, server apparatus, scaling control method, and program
US9569245B2 (en) System and method for controlling virtual-machine migrations based on processor usage rates and traffic amounts
JP6197100B2 (ja) 仮想化資源管理ノード及び仮想マシン移行方法
US10572290B2 (en) Method and apparatus for allocating a physical resource to a virtual machine
JP4519098B2 (ja) 計算機の管理方法、計算機システム、及び管理プログラム
JP6729399B2 (ja) システム、仮想化制御装置、仮想化制御装置の制御方法及びプログラム
CN101118521B (zh) 跨越多个逻辑分区分布虚拟输入/输出操作的系统和方法
US11169840B2 (en) High availability for virtual network functions
US10911529B2 (en) Independent groups of virtual network function components
US10942759B2 (en) Seamless virtual standard switch to virtual distributed switch migration for hyper-converged infrastructure
WO2016030973A1 (ja) マルチテナントリソース調停方法
EP3280094B1 (en) Disaster recovery method, device, and system
CN111399970A (zh) 一种预留资源管理方法、装置和存储介质
WO2019159875A1 (ja) 配置構成装置、および、配置構成方法
JP6010975B2 (ja) ジョブ管理装置、ジョブ管理方法、及びプログラム
CN114003350B (zh) 超融合系统的数据分配方法和系统
JP5702747B2 (ja) サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム
WO2016121879A1 (ja) 仮想化制御装置、配置先選択方法及びプログラム
CN108737144B (zh) 资源管理的方法和设备
WO2017098591A1 (ja) 計算機及びストレージ装置を有するシステム、及びシステムの制御方法
JP5732893B2 (ja) リソース管理装置
WO2016188135A1 (zh) 集群路由器cpu资源的配置方法及集群路由器
JP2016004433A (ja) 仮想機器管理装置、仮想機器管理方法及び仮想機器管理プログラム
JP2017215872A (ja) バックアップ制御サーバ、およびサービス制御サーバのアプリケーションデータバックアップ方法
US20150324416A1 (en) Management apparatus and management system