JP6724651B2 - サーバ装置及び仮想通信構築方法 - Google Patents

サーバ装置及び仮想通信構築方法 Download PDF

Info

Publication number
JP6724651B2
JP6724651B2 JP2016163089A JP2016163089A JP6724651B2 JP 6724651 B2 JP6724651 B2 JP 6724651B2 JP 2016163089 A JP2016163089 A JP 2016163089A JP 2016163089 A JP2016163089 A JP 2016163089A JP 6724651 B2 JP6724651 B2 JP 6724651B2
Authority
JP
Japan
Prior art keywords
vnf
virtual communication
communication function
virtual
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016163089A
Other languages
English (en)
Other versions
JP2018032953A (ja
Inventor
慎也 加納
慎也 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016163089A priority Critical patent/JP6724651B2/ja
Priority to US15/677,394 priority patent/US20180063001A1/en
Publication of JP2018032953A publication Critical patent/JP2018032953A/ja
Application granted granted Critical
Publication of JP6724651B2 publication Critical patent/JP6724651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/125Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • H04L41/0897Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities by horizontal or vertical scaling of resources, or by migrating entities, e.g. virtual resources or entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • H04L41/122Discovery or management of network topologies of virtualised topologies, e.g. software-defined networks [SDN] or network function virtualisation [NFV]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/24Multipath

Description

本発明は、サーバ装置及び仮想通信構築方法に関する。
最近のネットワークでは、拠点から外部のサイト、又は、拠点から他の拠点にアクセスする際に、要求に応じてFW(FireWall)やProxy等のNW(NetWork)機能を通信経路上に仮想的に配置してパケットを転送するサービスチェインシステムがある。仮想的なNW機能を経由する通信経路をサービスチェインという。
従来、NW機能は、NWサーバ等の物理NW装置で機能していた。しかしながら、近年の汎用サーバの性能向上によって汎用サーバ上のソフトウェア処理でもNW機能が機能できる。従って、汎用サーバの仮想化環境の仮想マシン上でNW機能のプログラムを動作させる形態でNW機能の運用を開始している。尚、仮想マシン上で動作するNWに関するソフトウェア処理を仮想NW機能(Virtual Network Function:VNF)という。
しかしながら、データ転送等のNW関連の処理が物理NW装置から汎用サーバ上のソフトウェア処理のVNFに運用形態が移行した結果、データ転送の処理性能が低下する事態が生じている。そこで、複数のプログラムを並列に実行し、複数のサーバ上に仮想マシンを並列動作してスケールアウトすることで、データ転送の負荷を分散し、データ転送の処理性能を改善している。
図14は、サービスチェインの配置構成の一例を示す説明図である。図14に示すサービスチェイン200は、例えば、FW201A、IDS(Intrusive Detection System)201B及びProxy201C等の各VNF201を配置している。更に、サービスチェイン200は、各VNF201の前段にトラヒック負荷を分散するLB(Load Balancer)202を仮想的に配置している。LB202は、次段に配置する各VNF201への負荷を分配する。その結果、各VNF201の転送処理の負荷を分配することで、ソフトウェア化による処理性能の低下を抑制している。
特開2015−154325号公報 特開2016−46603号公報 国際公開第2014/208661号
しかしながら、サービスチェイン200を構成するVNF201では、VNF201毎にLB202を要し、LB202を通過する毎に転送遅延が生じる。しかも、サービスチェイン200は、多数のLB202を要するため、汎用サーバ上の仮想領域のリソースが使われることになる。
一つの側面では、転送遅延を抑制できるサーバ装置及び仮想通信構築方法を提供することを目的とする。
一つの態様のサーバ装置は、第1の決定部と、第2の決定部と、第3の決定部と、設定部とを有する。第1の決定部は、複数段配置された仮想通信機能群のうちの最前段の仮想通信機能群の前段に配置され、かつ、前記最前段の仮想通信機能群内の仮想通信機能にトラヒックを分散する仮想分散機能を決定する。第2の決定部は、前記最前段の仮想通信機能群内の各仮想通信機能から前記複数段配置された仮想通信機能群のうちの終端の仮想通信機能群内の各仮想通信機能までの転送経路を決定する。第3の決定部は、前記第2の決定部で決定された前記転送経路ごとのトラフィック量に基づき、前記最前段の仮想通信機能群内の各仮想通信機能に対する前記仮想分散機能の前記トラヒックの分配割合を決定する。設定部は、前記第2の決定部で決定された転送経路を前記各仮想通信機能に設定すると共に、前記第3の決定部で決定された前記仮想分散機能の前記分配割合を前記仮想分散機能に設定する。
一つの側面として、転送遅延を抑制できる。
図1は、サービスチェインシステムの一例を示す説明図である。 図2は、管理サーバのハードウェア構成の一例を示す説明図である。 図3は、サービスチェインの一例を示す説明図である。 図4は、第1のサービスチェイン構築処理に関わる管理サーバの処理動作の一例を示すフローチャートである。 図5は、図3に示すサービスチェインの集約LBのトラヒック分散方法の一例を示す説明図である。 図6は、実施例1のサービスチェインの一例を示す説明図である。 図7は、実施例1の管理サーバのプロセッサの機能構成の一例を示す説明図である。 図8は、第2の区間内の終端宛先の一例を示す説明図である。 図9は、第2の区間内の各VNFの転送経路の一例を示す説明図である。 図10は、第2の区間内の各VNFの転送経路の負荷割合の一例を示す説明図である。 図11は、LBGWの分配割合の一例を示す説明図である。 図12は、第2のサービスチェイン構築処理に関わる管理サーバの処理動作の一例を示すフローチャートである。 図13は、サービスチェイン構築プログラムを実行する情報処理装置の一例を示す説明図である。 図14は、サービスチェインの配置構成の一例を示す説明図である。
以下、図面に基づいて、本願の開示するサーバ装置及び仮想通信構築方法の実施例を詳細に説明する。尚、本実施例により、開示技術が限定されるものではない。また、以下に示す実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。
図1は、サービスチェインシステム1の一例を示す説明図である。図1に示すサービスチェインシステム1は、キャリアNW2と、管理サーバ3と、端末装置4とを有する。キャリアNW2は、例えば、企業の本社、支社や海外拠点等の拠点2Aと接続するNWである。キャリアNW2は、例えば、複数の汎用サーバ2Bで構成し、各汎用サーバ2Bのリソース領域にある仮想領域で稼働する仮想NW11と、その仮想NW11上に配置した複数のVNF12とを有する。管理サーバ3は、拠点2A間で通信するサービスチェインを仮想領域に確立する。
VNF12は、例えば、Webキャッシュ12A、パケットモニタリング12B、FW12C、高速WAN12D、アドレス変換部12E、VPN12F、IDSやProxy等の仮想NW機能である。Webキャッシュ12Aは、図示せぬWebサーバとのキャッシュデータを格納するNW機能である。パケットモニタリング12Bは、通信経路上のパケットの状態を監視するNW機能である。FW12Cは、不正アクセスを防止するNW機能である。高速WAN12Dは、高速WAN等のNW機能である。アドレス変換部12Eは、アドレスを変換するNW機能である。VPN12Fは仮想専用線等のNW機能である。IDSは、外部からの不正侵入を検知するNW機能である。Proxyは、代理サーバのNW機能である。VNF12は、汎用サーバ2B上の仮想領域に仮想的に配置した仮想通信機能である。
管理サーバ3は、端末装置4からサービスチェインの構成要求に応じて、キャリアNW2内の各汎用サーバ2Bの仮想領域上に所望の仮想NW11及びVNF12を配置するサーバ装置である。端末装置4は、例えば、FW4A、高速WAN4BやVPN4C等を経由して管理サーバ3と接続し、管理サーバ3に対してサービスチェインの構成要求を指示する、例えば、システム管理者等の端末装置である。尚、構成要求は、パケット転送の通信経路上に1台若しくは複数台のVNF12の配置を要求するコマンドである。また、構成要求は、VNF12及びLB13のインスタンス数を指定する場合の他に、VNF12のインスタンス数のみを指定する場合もある。また、構成要求には、例えば、サービスチェインの要求品質を指定する場合もある。管理サーバ3は、要求品質を指定した構成要求を検出した場合、構成要求で指定された所望の機能や負荷状況からVNF12やLB13のインスタンス数を決定する。
図2は、管理サーバ3のハードウェア構成の一例を示す説明図である。図2に示す管理サーバ3は、例えば、NWサーバとしての専用コンピュータや、汎用コンピュータに相当する。管理サーバ3は、NWインタフェース31と、入力装置32と、出力装置33と、補助記憶装置34と、主記憶装置35と、プロセッサ36とを有する。NWインタフェース31は、キャリアNW2と接続すると共に、VNF12と接続する通信インタフェースである。尚、NWインタフェース31は、例えば、有線又は無線の通信を司る通信インタフェースである。NWインタフェース31は、例えば、NIC(Network Interface Card)やLAN(Local Area Network)カード等の通信カードである。
入力装置32は、各種情報を入力する、例えば、キーボードやマウス等のポインティングデバイス等の入力インタフェースである。出力装置33は、各種情報を出力する、例えば、音声出力装置や表示装置等の出力インタフェースである。補助記憶装置34は、例えば、各種プログラムや、プロセッサ36が使用するデータ等の各種情報を記憶する、例えば、EPROM(Erasable Programmable ROM)、又はハードディスクドライブ(Hard Disc Drive)等の不揮発性のメモリである。更に、補助記憶装置34は、例えば、オペレーティングシステム(OS)や、その他様々なアプリケーションプログラムを保持する領域である。
主記憶装置35は、各種情報、例えば、補助記憶装置34に格納されているプログラムをロードする領域や作業領域を提供する、例えば、RAM(Random Access Memory)等の半導体メモリである。プロセッサ36は、管理サーバ3全体を制御する、例えば、CPU(Central Processing Unit)等の制御部である。プロセッサ36は、補助記憶装置34又は可搬記録媒体に保持されたOSや様々なアプリケーションプログラムを主記憶装置35にロードして実行することで各種処理機能を実行する。プロセッサ36は、1個に限定されるものではなく、複数個設けても良い。
図3は、サービスチェインの一例を示す説明図である。図3に示すサービスチェインは、複数のVNF群と、LB群とを有する。複数のVNF群は、VNF#1と、VNF#2と、VNF#3とを順次配置する。VNF#1は、例えば、FW1〜FW4である。VNF#2は、例えば、IDS1〜IDS3である。VNF#3は、例えば、Proxy1〜Proxy3である。LB群は、LB1及びLB2を有する。
プロセッサ36は、構成要求を検出すると、構成要求内で指定する各VNF群20内のVNF12のインスタンス数に基づき、所定順序の内、最前段のVNF群20、すなわちVNF#1の前段に配置する集約LB13Aの数を決定する。尚、所定順序は、例えば、前段からVNF#1(FW)、VNF#2(IDS)及びVNF#3(Proxy)の順に配置する順序とする。
プロセッサ36は、構成要求を検出すると、構成要求に基づき、VNF群20へのトラヒックを分配するLB13の特性の内、上位レイヤ「L4レベル」のLB群21(VNF#3に対するLB(L4))を特定する。尚、L4レベル(TCPセッション)単位の分配処理は、L3レベル(IP)単位の分配処理も実行できる。プロセッサ36は、上位レイヤ「L4レベル」の分配処理を実行するLB群21の内、LBインスタンス数が最大数となるLB13(すなわちVNF#3に対するLB(L4))を特定し、そのLBインスタンス数を集約LB13Aのインスタンス数と決定する。すなわち、プロセッサ36は、VNF#3のLBインスタンス数はL4レベルLBの2個であるため、そのL4レベルLBの2個を集約LB13Aとして決定する。尚、L4レベルのVNF群20を特定する理由は、L4レベル(TCPセッション)単位の処理でL3レベル(IP)単位の処理も実行できるためである。
更に、プロセッサ36は、VNF#1、VNF#2及びVNF#3の配置順序としてトポロジ構成を決定する。プロセッサ36は、図3に示すようにサービスチェインの最前段にVNF#1、VNF#1の次段にVNF#2、VNF#2の次段にVNF#3を配置し、更に、最前段のVNF#1の前段に集約LB13Aを配置するトポロジ構成を決定する。尚、トポロジ構成は、最前段に集約LB13A内のLB1及びLB2、次段にVNF#1内のFW1〜FW4、その次段にVNF#2内のIDS1〜IDS3、その次段にVNF#3内のProxy1〜Proxy3を配置する構成である。
プロセッサ36は、集約LB13Aから複数のVNF群20の内、終端のVNF群20内の各VNF12までの負荷が分散する、集約LB13Aの負荷の分配割合及びVNF12の負荷割合を決定する。プロセッサ36は、複数のVNF群20の内、終端となるVNF群20内のVNF12を決定すると共に、集約LB13Aから各終端のVNF12までの最適経路を決定する。
プロセッサ36は、集約LB13AがL4レベルのLBであるため、集約LB13AからL4レベルが終端となる終端のVNF12として、例えば、VNF#3のProxy1〜Proxy3と決定する。集約LB13Aの「LB1」は、Proxy1〜Proxy3の3本の経路を決定する。更に、集約LB13Aの「LB2」も、Proxy1〜Proxy3の3本の経路を決定する。集約LB13Aの「LB1」及び「LB2」は、終端のVNF12の台数分、トラヒックを分散できる終端型のLBである。例えば、LB1は、終端のVNF12がProxy1〜Proxy3の3台のため、トラヒックを3経路に分散できる。
プロセッサ36は、集約LB13Aの「LB1」から終端VNF12、すなわちProxy1〜Proxy3までの3経路で、例えば、ダイクストラ法等の最短経路コスト法において計算済み経路上のリンクコストを高くして最短経路計算を行う。プロセッサ36は、LB1から終端VNF12までの3経路の最短経路計算で、VNF#1及びVNF#2を経由する経路が分散した最適経路R1、R3及びR5を決定する。プロセッサ36は、集約LB13Aの「LB2」から終端VNF、すなわちProxy1〜Proxy3までの3経路で、最短経路コスト法の利用とリンクコスト加算を行う。そして、プロセッサ36は、その計算によってVNF#1及びVNF#2を経由する経路が分散した最適経路R2、R4及びR6を決定する。
プロセッサ36は、各最適経路R1〜R6に配置するVNF群20の内、VNF12のインスタンス数が最大数のVNF群20の各VNF12の負荷量が均等に分散するように、集約LB13Aから各最前段のVNF12への負荷の分配割合を決定する。プロセッサ36は、VNF#1〜VNF#3の内、最大個数のVNF12、すなわちVNF#1(FW1〜FW4)を特定する。プロセッサ36は、6本の最適経路の内、VNF#1のFW1〜FW4の負荷量が均等になるように集約LB13A「LB1」及び「LB2」からVNF#1内のFW1〜FW4に分配する分配割合を算出する。例えば、サービスチェイン全体の負荷量を「1」とした場合、LB1からFW1への分配割合は1/4、LB1からFW2への分配割合は1/8、LB1からFW3への分配割合は1/8となる。更に、LB2からFW4への分配割合は1/4、LB2からFW2への分配割合は1/8、LB2からFW3への分配割合は1/8となる。その結果、FW1〜FW4は、各々、1/4の負荷量が均等に割り当てられることになる。
プロセッサ36は、最適経路毎に各VNF12への負荷量の負荷割合が最適となるように各VNF12から次段のVNF12への負荷割合を算出する。プロセッサ36は、集約LB13Aの「LB1」及び「LB2」から各VNF#1内の各FW1〜FW4の負荷の分配割合を決定した後、先に決定した最適経路R1〜R6上の転送経路を決定すると共に、その転送経路上の各VNF12への分配割合を決定する。転送経路は、最適経路の内、VNF12が次段のVNF12にパケットを転送する経路である。
集約LB13Aの「LB1」の転送経路は、Proxy1宛のパケットをFW1に転送する経路、Proxy2宛のパケットをFW2に転送する経路、Proxy3宛のパケットをFW3に転送する経路となる。集約LB13Aの「LB2」の転送経路は、Proxy1宛のパケットをFW2に転送する経路、Proxy2宛のパケットをFW3に転送する経路、Proxy3宛のパケットをFW4に転送する経路となる。
更に、FW1の転送経路は、Proxy1宛のパケットをIDS1に転送する経路となる。FW2の転送経路は、Proxy1宛のパケットをIDS1に転送する経路及び、Proxy2宛のパケットをIDS2に転送する経路となる。FW3の転送経路は、Proxy2宛のパケットをIDS2に転送する経路及び、Proxy3宛のパケットをIDS3に転送する経路となる。FW4の転送経路は、Proxy3宛のパケットをIDS3に転送する経路となる。
更に、IDS1の転送経路は、Proxy1宛のパケットをProxy1に転送する経路となる。IDS2の転送経路は、Proxy2宛のパケットをProxy2に転送する経路となる。IDS3の転送経路は、Proxy3宛のパケットをProxy3に転送する経路となる。更に、プロセッサは、各転送経路の各VNF12の負荷量が最適となるように各VNF12の負荷割合を決定する。尚、各VNF12の負荷割合は、例えば、Weighted Round Robin方式やWeighted HASH振り分け方式等で算出する。
プロセッサ36は、VNF#1からVNF#2までの転送経路毎に負荷割合を決定する。例えば、FW1からIDS1への転送経路の負荷割合は2/8、FW2からIDS1への転送経路の負荷割合は1/8、FW2からIDS2への転送経路の負荷割合は1/8となる。更に、FW3からIDS2への転送経路の負荷割合は1/8、FW3からIDS3への転送経路の負荷割合は1/8、FW4からIDS3への転送経路の負荷割合は2/8となる。
更に、プロセッサ36は、VNF#2からVNF#3までの転送経路毎に負荷割合を決定する。例えば、IDS1からProxy1への転送経路の負荷割合は3/8、IDS2からProxy2への転送経路の負荷割合は2/8、IDS3からProxy3への転送経路の負荷割合は3/8となる。尚、説明の便宜上、VNF#2からVNF#3までの転送経路の負荷割合は、例えば、3/8、2/8及び3/8としたが、転送経路毎に負荷割合を均等になるように調整しても良い。
プロセッサ36は、集約LB13A及びVNF12の数、最適経路R1〜R6及び転送経路に基づき、集約LB13A及びVNF12を汎用サーバ2B等の仮想領域に配置して機能を起動させる。プロセッサ36は、決定した集約LB13Aの分配割合を配置された集約LB13Aに設定する。プロセッサ36は、決定した各VNF12の負荷割合を配置されたVNF12に設定する。その結果、仮想環境下で構成要求のサービスチェインを構築できる。
管理サーバ3は、集約LB13A、集約LB13Aから終端VNF12までの最適経路、集約LB13Aの分配割合及び各VNF12の負荷割合に基づき、キャリアNW2上の指定の汎用サーバ2Bの仮想領域に、構成要求のサービスチェインを構築する。
次にサービスチェインシステム1について説明する。図4は、第1のサービスチェイン構築処理に関わる管理サーバ3の処理動作の一例を示すフローチャートである。
図4において管理サーバ3内のプロセッサ36は、端末装置4から構成要求を受信したか否かを判定する(ステップS11)。プロセッサ36は、構成要求を受信した場合(ステップS11肯定)、構成要求内のVNF群20内のVNF12のインスタンス数及びVNF群20毎のLB13のインスタンス数に基づき、集約LB13Aの数を決定する(ステップS12)。尚、プロセッサ36は、構成要求内の上位レベルのVNF群20の内、そのVNF12のインスタンス数が最大数のVNF群20を特定し、特定されたVNF群20のLBインスタンス数を集約LB13Aの数と決定する。更に、プロセッサ36は、構成要求内のVNF群20に基づき、図3に示すように、集約LB13A、VNF群20のトポロジ構成を決定する(ステップS13)。
プロセッサ36は、複数のVNF群20の内、終端となるVNF群20内のVNF12を決定すると共に、集約LB13Aから各終端のVNF群20までの最適経路を決定する(ステップS14)。プロセッサ36は、各最適経路に配置するVNF群20の内、最大数のVNF群20の各VNF12のトラヒック量(負荷量)を均等にすべく、集約LB13Aから各最前段のVNF群20の各VNF12への分配割合を算出して決定する(ステップS15)。
更に、プロセッサ36は、最適経路毎の集約LB13A及びVNF12毎の転送経路及び負荷割合を決定する(ステップS16)。更に、プロセッサ36は、集約LB13A、VNF12、最適経路及び転送経路に基づき、集約LB13A及びVNF12を汎用サーバ2B上の仮想領域に配置して、その機能を起動する(ステップS17)。更に、プロセッサ36は、集約LB13Aの分散割合を仮想領域上の集約LB13Aに設定すると共に、各VNF12の負荷割合を仮想領域上の各VNF12に設定し(ステップS18)、図4に示す処理動作を終了する。その結果、構成要求に応じたサービスチェインを仮想領域上に配置できる。
上記例では、サービスチェインの最前段に複数の集約LB13Aを配置し、集約LB13Aから終端のVNF12までの負荷量が均等になるように集約LB13Aの分配割合及び各VNF12の負荷割合を決定する。その結果、LB13の数を少なくすることで転送遅延を抑制できると共に、有限な仮想領域の資源を節減できる。
しかしながら、サービスチェインに使用する集約LB13は、受信したトラヒックを複数の終端宛先にトラヒックを分散する終端型LBである。図5は、終端型LB13Bの動作の一例を示す説明図である。図5に示す終端型LB13Bは、FW1〜FW3の前段に配置され、FW1〜3の後段にProxy1〜2を配置した場合、受信トラヒックの終端宛先である終端VNF数、すなわちProxy1〜2の2台であるため、受信トラヒックを2箇所に分散できる。すなわち、終端型LB13Bは、後段に複数のVNF12を増設した場合でも、そのVNF12の増加数に関係なく、受信トラヒックの終端宛先である終端VNF12の台数しか負荷を分散できない。従って、終端型LB13Bは、後段に終端VNF12、例えば、FWの台数を増設した場合でもFWの台数しか負荷を分散できない。
そこで、このような事態に対処すべく、サービスチェインの集約LB13にLBGWを採用した場合の実施の形態につき、実施例1として以下に説明する。尚、サービスチェインシステム1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。
LBGW15は、受信トラヒックの終端宛先に関係なく、後段のVNF群20内の各VNF12に受信トラヒックを中継できる中継型LBである。
図6は、実施例1のサービスチェインの一例を示す説明図である。図6に示すサービスチェインは、複数のVNF群20と、LBGW群15とを有する。複数のVNF群20は、VNF#1と、VNF#2と、VNF#3とを順次配置する。VNF#1は、例えば、FW1〜FW4である。VNF#2は、例えば、IDS1〜IDS3である。VNF#3は、例えば、Proxy1〜Proxy2である。LBGW群15は、LBGW1及びLBGW2の集約LBGW15Aを有する。
図7は、実施例1の管理サーバ3のプロセッサ36の機能構成の一例を示す説明図である。プロセッサ36は、補助記憶装置34に格納されたプログラムを読み出し、読み出したプログラムを実行することで、機能構成として、第1の決定部41と、第2の決定部42と、第3の決定部43と、設定部44とを有する。
第1の決定部41は、構成要求を検出すると、構成要求内で指定する各VNF群20内のVNF12のインスタンス数に基づき、所定順序の内、最前段のVNF群20、すなわちVNF#1の前段に配置する集約LBGW15Aの数を決定する。尚、所定順序は、例えば、前段からVNF#1(FW)、VNF#2(IDS)及びVNF#3(Proxy)の順に配置する順序とする。
第1の決定部41は、例えば、VNF#1のLBインスタンス数がL4レベルLBの4個であるため、そのL4レベルLBの2個を集約LBGW15Aとして決定する。更に、第1の決定部41は、VNF#1、VNF#2及びVNF#3の配置順序としてトポロジ構成を決定する。第1の決定部41は、図6に示すようにサービスチェインの最前段にVNF#1、VNF#1の次段にVNF#2、VNF#2の次段にVNF#3を配置し、更に、最前段のVNF#1の前段に集約LBGW15Aを配置するトポロジ構成を決定する。トポロジ構成は、最前段に集約LBGW15A内のLBGW1及びLBGW2、次段にVNF#1内のFW1〜FW4、その次段にVNF#2内のIDS1〜IDS3、その次段にVNF#3内のProxy1〜Proxy2を配置する構成である。第2の決定部42は、集約LBGW15AとVNF#1との間の第1の区間51と、VNF#1とVNF#3との間の第2の区間52とに区分する。
第2の決定部42は、第2の区間52内の最前段のVNF#1から複数のVNF群20の内、終端のVNF群20内の各VNF12までのトラヒック量を分散する、VNF#1内の各VNF12の負荷の分配割合及びVNF12の負荷割合を決定する。第2の決定部42は、最前段のVNF#1内のFW1〜FW4から終端のVNF#3の各Proxy1〜Proxy2までの負荷を分散する、FW1〜FW4の負荷の分配割合及びVNF#2及び#3内の各VNF12の負荷割合を決定する。第2の決定部42は、第4の決定部42Aと、第5の決定部42Bと、第6の決定部42Cとを有する。
図8は、第2の区間52内の終端宛先の一例を示す説明図である。第4の決定部42Aは、複数のVNF群20の内、終端となるVNF群20内のVNF12を決定すると共に、最前段のVNF#1のVNF12から各終端のVNF12までの最適経路を決定する。第4の決定部42Aは、図8に示すように、第2の区間52内のVNF#1内のFW1〜FW4から終端となる終端のVNF12として、例えば、VNF#3のProxy1〜Proxy2を決定する。FW1は、Proxy1〜Proxy2の2本の経路を決定する。FW2は、Proxy1〜Proxy2の2本の経路を決定する。FW3は、Proxy1〜Proxy2の2本の経路を決定する。FW4は、Proxy1〜Proxy2の2本の経路を決定する。すなわち、FW1〜FW4は、Proxy1宛及びProxy2宛の経路として合計8経路となる。
図9は、第2の区間52内の各VNF12の転送経路の一例を示す説明図である。第4の決定部42Aは、最前段のVNF#1内のFW1〜FW4から終端VNF12、すなわちProxy1〜Proxy2までの2経路で、例えば、ダイクストラ法等の最短経路コスト法において計算済み経路上のリンクコストを高くして最短経路計算を行う。そして、第4の決定部42Aは、その計算によって、VNF#2を経由する経路が分散した最適経路として決定する。第4の決定部42Aは、最前段のVNF#1内のFW1〜FW4から終端VNF12、すなわちProxy1〜Proxy2までの2経路で、最短経路コスト法の利用とリンクコスト加算を行うことによってVNF#2を経由する経路が分散した最適経路として決定する。
第5の決定部42Bは、各最適経路に配置するVNF群20の内、特定のVNF群20、例えば、VNF#2内の各VNF12の負荷量が均等に分散するように、VNF#1内の各VNF12から次段のVNF#2のVNF12への負荷の分配割合を決定する。
図10は、第2の区間52内の各VNF12の転送経路の負荷割合の一例を示す説明図である。第5の決定部42Bは、8本の最適経路の内、VNF#2のIDS1〜IDS3の負荷量が均等になるようにFW1〜FW4からVNF#2内のIDS1〜IDS3に分配する分配割合を算出する。例えば、FW1からIDS1へのProxy1宛の分配割合は1/6、FW1からIDS2へのProxy2宛の分配割合は1/9となる。また、FW2からIDS1へのProxy1宛の分配割合は1/6、FW2からIDS2へのProxy2宛の分配割合は1/9となる。FW3からIDS2へのProxy1宛の分配割合は1/9、FW3からIDS3へのProxy2宛の分配割合は1/9となる。また、FW4からIDS1へのProxy1宛の分配割合は1/9、FW2からIDS2へのProxy2宛の分配割合は1/9となる。その結果、IDS1〜IDS3の負荷割合は、各々、1/3となる。
第6の決定部42Cは、最適経路毎に各VNF12への負荷量の負荷割合が最適となるように各VNF12から次段のVNF12への負荷割合を算出する。第6の決定部42Cは、第2の区間52内のVNF#1から各VNF#2内の各IDS1〜IDS3の負荷の分配割合を決定した後、先に決定した最適経路上の転送経路を決定すると共に、その転送経路上の各VNF12への分配割合を決定する。転送経路は、最適経路の内、VNF12が次段のVNF12にパケットを転送する経路である。
図11は、LBGWの分配割合の一例を示す説明図である。第3の決定部43は、第2の区間52内の最前段のVNF#1のFW1〜FW4の負荷量の分配割合に応じて各LBGW1〜LBGW2の分配割合を決定する。図11に示すLBGW1の転送経路は、例えば、Proxy1宛のパケットをFW1〜FW4に転送する経路、Proxy2宛のパケットをFW1〜FW4に転送する経路となる。LBGW2の転送経路は、例えば、Proxy1宛のパケットをFW1〜FW4に転送する経路、Proxy2宛のパケットをFW1〜FW4に転送する経路となる。
第3の決定部43は、LBGW1及びLBGW2に対して、Proxy1宛のパケットの3/8をFW1に中継、Proxy1宛のパケットの3/8をFW2に中継、Proxy1宛のパケットの2/8をFW3に中継、Proxy1宛のパケットの2/8をFW4に中継と決定する。第3の決定部43は、LBGW1及びLBGW2に対して、Proxy2宛のパケットの1/4をFW1に中継、Proxy2宛のパケットの1/4をFW2に中継、Proxy2宛のパケットの1/4をFW3に中継、Proxy2宛のパケットの1/4をFW4に中継と決定する。
LBGW1及びLBGW2の分配設定は、Proxy1宛のパケットの3/8をFW1に中継、Proxy1宛のパケットの3/8をFW2に中継、Proxy1宛のパケットの2/8をFW3に中継、Proxy1宛のパケットの2/8をFW4に中継となる。更に、LBGW1及びLBGW2の分配設定は、LBGW1及びLBGW2に対して、Proxy2宛のパケットの1/4をFW1に中継、Proxy2宛のパケットの1/4をFW2に中継、Proxy2宛のパケットの1/4をFW3に中継、Proxy2宛のパケットの1/4をFW4に中継となる。
更に、FW1の転送経路は、Proxy1宛のパケットをIDS1に転送及び、Proxy2宛のパケットをIDS2に転送する経路となる。FW2の転送経路は、Proxy1宛のパケットをIDS1に転送する経路及び、Proxy2宛のパケットをIDS2に転送する経路となる。FW3の転送経路は、Proxy1宛のパケットをIDS2に転送及び、Proxy2宛のパケットをIDS3に転送する経路となる。FW4の転送経路は、Proxy1宛のパケットをIDS3に転送する経路及びProxy2宛のパケットをIDS3に転送する経路となる。
更に、IDS1の転送経路は、Proxy1宛のパケットをProxy1に転送する経路となる。IDS2の転送経路は、Proxy1宛のパケットをProxy1に転送する経路及びProxy2宛のパケットをProxy2に転送する経路となる。IDS3の転送経路は、Proxy2宛のパケットをProxy2に転送する経路となる。
更に、第6の決定部42Cは、各転送経路の各VNF12の負荷量が最適となるように各VNF12の負荷割合を決定する。尚、各VNF12の負荷割合は、例えば、Weighted Round Robin方式やWeighted HASH振り分け方式等で算出する。
設定部44は、配置部44Aと、割合設定部44Bとを有する。配置部44Aは、集約LBGW15A及びVNF12の数、集約LBGW15A及びVNF12の転送経路に基づき、集約LBGW15A及びVNF12を汎用サーバ2B等の仮想領域に配置して機能を起動させる。
割合設定部44Bは、第3の決定部43で決定した集約LBGW15Aの分配割合を配置された集約LBGW15Aに設定する。割合設定部44Bは、第5の決定部42B及び第6の決定部42Cで決定した各VNF12の負荷割合を配置されたVNF12に設定する。その結果、仮想環境下で構成要求のサービスチェインを構築できる。
管理サーバ3は、集約LBGW15A及びVNF12毎の転送経路、集約LBGW15Aの分配割合及び各VNF12の負荷割合に基づき、キャリアNW2上の指定の汎用サーバ2Bの仮想領域に、構成要求のサービスチェインを構築する。
次に実施例1のサービスチェインシステム1の動作について説明する。図12は、第2のサービスチェイン構築処理に関わる管理サーバ3内の処理動作の一例を示すフローチャートである。図12に示す第2のサービスチェイン構築処理は、端末装置4からの構成要求に応じて、最前段のVNF群20の直前に集約LBGW15Aを配置したサービスチェインを仮想領域上に構築する処理である。
図12において管理サーバ3内のプロセッサ36内の第1の決定部41は、端末装置4から構成要求を受信したか否かを判定する(ステップS21)。第1の決定部41は、構成要求を受信した場合(ステップS21肯定)、構成要求内のVNF群20内のVNF12のインスタンス数及びVNF群20毎のLBGW15のインスタンス数に基づき、集約LBGW15Aの数を決定する(ステップS22)。尚、第1の決定部41は、例えば、構成要求内の上位レベルのVNF群20の内、そのVNF12のインスタンス数が最大数のVNF群20を特定し、特定されたVNF群20のLBインスタンス数を集約LBGW15Aの数と決定する。更に、第1の決定部41は、構成要求内のVNF群20に基づき、集約LBGW15A、VNF群20のトポロジ構成を決定する(ステップS23)。
第1の決定部41は、トポロジ構成のサービスチェインを第1の区間51及び第2の区間52に区分する(ステップS24)。尚、第1の区間51は、集約LBGW15Aと最前段のVNF群#1との間の区間、第2の区間52は、最前段のVNF群#1と終端のVNF群#3との間の区間である。第4の決定部42Aは、第2の区間52内の最前段のVNF群#1の宛先となる終端VNF12までの全経路の始点及び終点を決定する(ステップS25)。尚、第4の決定部42Aは、第2の区間52内のFW1〜FW4の終端宛先となるProxy1〜Proxy2宛までの各経路の始点及び終点を決定する。
第5の決定部42Bは、第4の決定部42Aで決定した最前段のVNF群20から終端VNF12までの全経路を分散する転送経路を決定する(ステップS26)。第6の決定部42Cは、負荷分散対象のVNF群20を特定する(ステップS27)。尚、負荷分散対象のVNF群20は、例えば、VNF#2のIDS1〜IDS3とする。
第6の決定部42Cは、第5の決定部42Bで決定した最前段のVNF群20から終端VNF12までの全経路の内、負荷分散対象のVNF群20内の各VNF12の負荷量が均等になるように最前段のVNF群20内の各VNF12の転送経路の負荷割合を決定する(ステップS28)。尚、第6の決定部42Cは、第2の区間52内のVNF#1内の各FW1〜FW4の転送経路の負荷割合を決定する。第6の決定部42Cは、VNF#1内のFW1〜FW4の転送経路の負荷割合に基づき、各VNF12の転送経路の負荷割合を決定する(ステップS29)。
第3の決定部43は、VNF#1内の各FW1〜FW4の転送経路の負荷割合に基づき、集約LBGW15Aの分配割合を決定する(ステップS30)。配置部44Aは、集約LBGW15A及びVNF12の転送経路に基づき、集約LBGW15A及びVNF12を汎用サーバ2B上の仮想領域に配置して、その機能を起動する(ステップS31)。
そして、割合設定部44Bは、第3の決定部43で決定した集約LBGW15Aの分配割合を仮想領域上の集約LBGW15Aに設定すると共に、第6の決定部42Cで決定した各VNF12の負荷割合を仮想領域上の各VNF12に設定する(ステップS32)。割合設定部44Bは、図12に示す処理動作を終了する。その結果、構成要求に応じたサービスチェインを仮想領域上に配置できる。
上記実施例1の管理サーバ3は、サービスチェインの最前段のVNF群20の直前に複数の集約LBGW15Aを配置し、最前段のVNF群20から終端のVNF12までの負荷量が均等になるように最前段のVNF群20の負荷割合を決定する。更に、管理サーバ3は、最前段のVNF群20の負荷割合に基づき、集約LBGW15Aの分配割合を算出し、集約LBGW15Aの分配割合を集約LBGW15Aに設定すると共に、各VNF12の負荷割合を各VNF12に設定する。その結果、集約LBGW15Aの数を少なくすることで転送遅延を抑制できると共に、有限な仮想領域の資源を節減できることは勿論のこと、集約LBGW15A以降のVNF12の台数を増設した場合でもVNF12の増設に反映した負荷を分散できる。
尚、上記実施例では、構成要求のフォーマットとしてVNF群20及びVNF群20に使用する集約LBGW15Aの情報を含む場合を例示したが、VNF群20毎に使用する集約LBGW15Aが1台の場合、使用する集約LBGW15Aの情報を含めなくても良い。その結果、構成要求の容量をコンパクト化できる。
管理サーバ3は、仮想領域上にVNF群20を複数段に配置する際に指定するVNF群20毎のLBインスタンス数に基づき、最前段のVNF群20(VNF#1)の前段に配置する集約LBGW15Aの数を決定する。その結果、管理サーバ3は、サービスチェインを構築する際に要する最小限の集約LBGW15Aの数を決定できる。
管理サーバ3は、構成要求で指定された各VNF群20の任意の機能特性、例えば、L4レベルのVNF群20を特定し、特定されたVNF群20内のLBインスタンス数に応じて、集約LBGW15Aの数を決定する。その結果、管理サーバ3は、サービスチェインを構築する際に、任意の機能特性に適した最小限の集約LBGW15Aの数を決定できる。
管理サーバ3は、構成要求で指定された各VNF群20の任意の機能特性、例えば、L4レベルのVNF群20を特定する。更に、管理サーバ3は、特定されたVNF群20の内、VNF12の数が最大数のVNF群20を特定する。更に、管理サーバ3は、特定されたVNF群20のLBインスタンス数に応じて集約LBGW15Aの数を決定する。その結果、管理サーバ3は、サービスチェインを構築する際に、任意の機能特性の最大数のVNF12を収容したVNF群20に適し、かつ、最小限の集約LBGW15Aの数を決定できる。
管理サーバ3は、構成要求で指定された各VNF群20の内、上位レイヤ特性、例えばL4レベルのVNF群20を特定し、特定されたVNF群20内のLBインスタンス数に応じて、集約LBGW15Aの数を決定する。その結果、管理サーバ3は、サービスチェインを構築する際に、上位レイヤ特性のVNF12を収容したVNF群20に適し、かつ、最小限の集約LBGW15Aの数を決定できる。
管理サーバ3は、構成要求で指定されたVNF群20毎のVNF12の数に基づき、複数のVNF群20の内、上位レイヤ特性のVNF群20を特定する。更に、特定されたVNF群20内のLBインスタンス数に応じて、集約LBGW15Aの数を決定すると共に、指定されたLBの数を削除する。
尚、上記実施例では、構成要求で指定されたLBインスタンス数に応じて集約LBGW15Aの数を決定した。しかしながら、構成要求にLBインスタンス数が含まれていなくても良い。この場合、管理サーバ3は、構成要求で指定されたVNF群20のVNF12のインスタンス数に基づき、VNF群20毎に必要となる処理性能を算出しそれを処理するために必要なLBインスタンス数を算出する。そして、管理サーバ3は、自分で算出したVNF群20毎のLBインスタンス数に基づき集約LBGW15Aの数を決定しても良い。
また、上記実施例の第1の決定部41は、構成要求を検出すると、構成要求内の上位レイヤであるL4レベルのVNF群20を特定し、特定したVNF群20の内、そのVNF12のインスタンス数が最大数のVNF群20を特定する。そして、第1の決定部41は、特定したVNF群20内のLBインスタンス数に応じて集約LBGW15Aの数を決定した。しかしながら、これらに限定されるものではない。
上記実施例では、第2の区間52内の最前段のVNF群20の最適経路を決定し、最前段のVNF群20内の各VNF12の負荷割合を算出した。しかしながら、最前段のVNF群20内の各VNF12の負荷割合を算出した後、最前段のVNF群20から終端VNF12までの最適経路を決定しても良い。
上記実施例では、集約LBGW15Aの分配割合を算出した後、各最適経路のVNF12毎の負荷割合を算出した。しかしながら、最適経路のVNF12毎の負荷割合を算出した後、集約LBGW15Aの分配割合を算出しても良く、特定アルゴリズムを用いて最適経路のVNF12毎の負荷割合及び集約LBGW15Aの分配割合を同時に算出しても良い。
上記実施例では、構成要求で指定された複数のVNF群20の内、機能特性、例えば、L4レベルのVNF群20のLBインスタンス数で集約LBGW15Aの数を決定した。しかしながら、機能特性として、例えば、送信元アドレスのハッシュ計算で分散する計算機能を使用するVNF群20を特定し、その特定されたVNF群20のLBインスタンス数で集約LBGW15Aの数を決定しても良い。
上記実施例では、構成要求で指定された各VNF群20のLBインスタンス数で最前段のLB13に集約し、最前段のLBインスタンス数を算出しても良い。また、最前段の集約LBGW15Aと、この集約LBGW15Aに接続する次段のVNF12と、そのVNF12のインスタンス数を指定する構成要求でも良い。
実施例では、集約LBGW15Aの最前段のVNF群20から終端VNF12までの経路を算出後、第2の区間52内の負荷分散対象のVNF群20内の各VNF12の負荷を均等にすべく、各VNF12の負荷割合及び集約LBGW15Aの分配割合を算出した。しかしながら、第2の区間52内の負荷分散対象のVNF群20内のVNF12に限定されるものではなく、第2の区間52内の全てのVNF群20の全VNF12の負荷を均等にすべく、各VNF12の負荷割合及び集約LBGW15Aの分配割合を算出しても良い。また、管理サーバ3は、各VNF12の転送経路を決定した後、各VNF12の負荷割合を算出したが、VNF12毎の転送経路及び負荷割合を同時に算出しても良い。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
更に、各装置で行われる各種処理機能は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等上で、その全部又は任意の一部を実行するようにしても良い。また、各種処理機能は、CPU等で解析実行するプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしても良い。
各種情報を記憶する領域は、例えば、ROM(Read Only Memory)や、SDRAM(Synchronous Dynamic Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)やNVRAM(Non Volatile Random Access Memory)等のRAM(Random Access Memory)で構成しても良い。
ところで、本実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータ内のCPU等のプロセッサで実行させることによって実現できる。そこで、以下では、上記実施例と同様の機能を有するプログラムを実行する情報処理装置100の一例を説明する。図13は、サービスチェイン構築プログラムを実行する情報処理装置100の一例を示す説明図である。
図13に示すサービスチェイン構築プログラムを実行する情報処理装置100は、通信部110と、HDD(Hard Disc Drive)120と、ROM130と、RAM140と、CPU150とを有する。通信部110、HDD120、ROM130、RAM140及びCPU150は、バス160を介して接続される。通信部110は、図示せぬ他の情報処理装置と接続し、他の情報処理装置と通信する。そして、情報処理装置100は、他の情報処理装置と通信し、他の情報処理装置内の仮想領域上に仮想通信機能群を複数段に配置してサービスチェインを構成する。
そして、ROM130には、上記実施例と同様の機能を発揮するサービスチェイン構築プログラムが予め記憶されている。ROM130は、サービスチェイン構築プログラムとして第1の決定プログラム130A、第2の決定プログラム130B、第3の決定プログラム130C及び設定プログラム130Dが記憶されている。尚、ROM130ではなく、図示せぬドライブでコンピュータ読取可能な記録媒体にサービスチェイン構築プログラムが記録されていても良い。また、記録媒体としては、例えば、CD−ROM、DVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ等でも良い。
そして、CPU150は、第1の決定プログラム130AをROM130から読み出し、RAM140上で第1の決定プロセス140Aとして機能させる。更に、CPU150は、第2の決定プログラム130BをROM130から読み出し、RAM140上で第2の決定プロセス140Bとして機能させる。更に、CPU150は、第3の決定プログラム130CをROM130から読み出し、RAM140上で第3の決定プロセス140Cとして機能させる。更に、CPU150は、設定プログラム130DをROM130から読み出し、RAM140上で設定プロセス140Dとして機能させる。
CPU150は、複数段配置された仮想通信機能群のうちの最前段の仮想通信機能群の前段に配置され、かつ、前記最前段の仮想通信機能群内の仮想通信機能にトラヒックを分散する仮想分散機能を決定する。CPU150は、前記最前段の仮想通信機能群内の各仮想通信機能から前記複数段配置された仮想通信機能群のうちの終端の仮想通信機能群内の各仮想通信機能までの転送経路を決定する。CPU150は、決定された前記転送経路ごとのトラヒック量に基づき、前記最前段の仮想通信機能群内の各仮想通信機能に対する前記仮想分散機能の前記トラヒックの分配割合を決定する。CPU150は、決定された前記転送経路を前記各仮想通信機能に設定すると共に、決定された前記仮想分散機能の前記分配割合を前記仮想分散機能に設定する。その結果、仮想分散機能の後段に仮想通信機能を増設した場合でも、仮想通信機能増加による負荷分散を反映できる。
1 サービスチェインシステム
2B 汎用サーバ
3 管理サーバ
12 VNF
15 LBGW
15A 集約LBGW
41 第1の決定部
42 第2の決定部
42A 第4の決定部
42B 第5の決定部
42C 第6の決定部
43 第3の決定部
44 設定部
44A 配置部
44B 割合設定部

Claims (3)

  1. 複数段配置された仮想通信機能群のうちの最前段の仮想通信機能群の前段に配置され、かつ、前記最前段の仮想通信機能群内の仮想通信機能にトラヒックを分散する仮想分散機能を決定する第1の決定部と、
    前記最前段の仮想通信機能群内の各仮想通信機能から前記複数段配置された仮想通信機能群のうちの終端の仮想通信機能群内の各仮想通信機能までの転送経路を決定する第2の決定部と、
    前記第2の決定部で決定された前記転送経路ごとのトラフィック量に基づき、前記最前段の仮想通信機能群内の各仮想通信機能に対する前記仮想分散機能の前記トラヒックの分配割合を決定する第3の決定部と、
    前記第2の決定部で決定された転送経路を前記各仮想通信機能に設定すると共に、前記第3の決定部で決定された前記仮想分散機能の前記分配割合を前記仮想分散機能に設定する設定部とを有し、
    前記第2の決定部は、
    各転送経路に配置する前記仮想通信機能群の内、特定の仮想通信機能群内の各仮想通信機能のトラヒック量が均等になるように、前記最前段の仮想通信機能群内の各仮想通信機能のトラヒック量を決定する第4の決定部と、
    前記第4の決定部で決定された前記最前段の仮想通信機能群内の各仮想通信機能の前記トラヒック量に基づき、前記転送経路毎に配置する各仮想通信機能の前記トラヒック量を決定する第5の決定部と
    を有し、
    前記設定部は、
    前記第3の決定部で決定された前記分配割合を前記仮想分散機能に設定すると共に、前記第4の決定部及び前記第5の決定部で決定された前記仮想通信機能群内の前記仮想通信機能毎の前記トラヒック量を前記各仮想通信機能に設定する割合設定部を有することを特徴とするサーバ装置。
  2. 前記第2の決定部は、
    前記終端の仮想通信機能群内の仮想通信機能を決定すると共に、前記仮想分散機能から各終端の仮想通信機能までの最適経路上の前記仮想通信機能毎の前記転送経路を決定する第の決定部を有し、
    前記設定部は、
    前記第1の決定部で決定された前記仮想分散機能の数及び前記第の決定部で決定された前記転送経路に基づき、前記仮想分散機能及び前記各仮想通信機能配置する配置部を有することを特徴とする請求項1に記載のサーバ装置。
  3. 複数段配置された仮想通信機能群のうちの最前段の仮想通信機能群の前段に配置され、かつ、前記最前段の仮想通信機能群内の仮想通信機能にトラヒックを分散する仮想分散機能を決定し、
    前記最前段の仮想通信機能群内の各仮想通信機能から前記複数段配置された仮想通信機能群のうちの終端の仮想通信機能群内の各仮想通信機能までの転送経路を決定し、
    各転送経路に配置する前記仮想通信機能群の内、特定の仮想通信機能群内の各仮想通信機能のトラヒック量が均等になるように、前記最前段の仮想通信機能群内の各仮想通信機能のトラヒック量を決定し、決定された前記最前段の仮想通信機能群内の各仮想通信機能の前記トラヒック量に基づき、前記転送経路毎に配置する各仮想通信機能の前記トラヒック量を決定し、
    決定された前記転送経路ごとのトラヒック量に基づき、前記最前段の仮想通信機能群内の各仮想通信機能に対する前記仮想分散機能の前記トラヒックの分配割合を決定し、
    決定された前記転送経路を前記各仮想通信機能に設定すると共に、決定された前記仮想分散機能の前記分配割合を前記仮想分散機能に設定すると共に、決定された前記仮想通信機能群内の前記仮想通信機能毎の前記トラヒック量を前記各仮想通信機能に設定する
    処理を実行することを特徴とする仮想通信構築方法。
JP2016163089A 2016-08-23 2016-08-23 サーバ装置及び仮想通信構築方法 Active JP6724651B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016163089A JP6724651B2 (ja) 2016-08-23 2016-08-23 サーバ装置及び仮想通信構築方法
US15/677,394 US20180063001A1 (en) 2016-08-23 2017-08-15 Server apparatus and virtual communication construction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016163089A JP6724651B2 (ja) 2016-08-23 2016-08-23 サーバ装置及び仮想通信構築方法

Publications (2)

Publication Number Publication Date
JP2018032953A JP2018032953A (ja) 2018-03-01
JP6724651B2 true JP6724651B2 (ja) 2020-07-15

Family

ID=61240811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016163089A Active JP6724651B2 (ja) 2016-08-23 2016-08-23 サーバ装置及び仮想通信構築方法

Country Status (2)

Country Link
US (1) US20180063001A1 (ja)
JP (1) JP6724651B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6944156B2 (ja) * 2018-09-21 2021-10-06 日本電信電話株式会社 オーケストレータ装置、プログラム、情報処理システム、及び制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2849064B1 (en) * 2013-09-13 2016-12-14 NTT DOCOMO, Inc. Method and apparatus for network virtualization
US9634936B2 (en) * 2014-06-30 2017-04-25 Juniper Networks, Inc. Service chaining across multiple networks
US20170019303A1 (en) * 2015-07-14 2017-01-19 Microsoft Technology Licensing, Llc Service Chains for Network Services

Also Published As

Publication number Publication date
JP2018032953A (ja) 2018-03-01
US20180063001A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
US10129152B2 (en) Setting method, server device and service chain system
US7492708B2 (en) Traffic balancing apparatus and method, and network forwarding apparatus and method using the same
US9762494B1 (en) Flow distribution table for packet flow load balancing
EP3586494B1 (en) Load balancing in distributed computing systems
US10389634B2 (en) Multiple active L3 gateways for logical networks
US9294408B1 (en) One-to-many stateless load balancing
EP2845372B1 (en) Two level packet distribution with stateless first level packet distribution to a group of servers and stateful second level packet distribution to a server within the group
US20190007322A1 (en) Virtual network device and related method
US20170019303A1 (en) Service Chains for Network Services
US20130227108A1 (en) Balancing of Forwarding and Address Resolution in Overlay Networks
CN110417924B (zh) 分布式设备中的报文处理方法和分布式设备
US20120023231A1 (en) Network system, control method for the same, and controller
US10498634B2 (en) Packet processing method and system, and device
Eramo et al. Computing and bandwidth resource allocation in multi-provider NFV environment
WO2012006894A1 (zh) 流业务负载分担方法和处理方法以及相应的设备和系统
JP2018518925A (ja) パケット転送
US20170134340A1 (en) Network resource sharing for routing and forwarding information
JP2018515050A (ja) パケット転送
JP6724651B2 (ja) サーバ装置及び仮想通信構築方法
JP6717122B2 (ja) サービスチェイン構築方法及びサーバ装置
US20180165114A1 (en) Control device and control method
JP6772751B2 (ja) 設定方法及びサーバ装置
CN114827015B (zh) 一种数据转发方法和虚拟化云网络架构
CN115208770A (zh) 用于实现网络规划的方法、设备和计算机可读介质
US9363102B1 (en) Methods and apparatus for implementing anycast flow stickiness in stateful sessions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6724651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150