JP2018064251A - 設定方法及びサーバ装置 - Google Patents

設定方法及びサーバ装置 Download PDF

Info

Publication number
JP2018064251A
JP2018064251A JP2016203114A JP2016203114A JP2018064251A JP 2018064251 A JP2018064251 A JP 2018064251A JP 2016203114 A JP2016203114 A JP 2016203114A JP 2016203114 A JP2016203114 A JP 2016203114A JP 2018064251 A JP2018064251 A JP 2018064251A
Authority
JP
Japan
Prior art keywords
vnf
virtual machine
traffic
path
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016203114A
Other languages
English (en)
Other versions
JP6772751B2 (ja
Inventor
慎也 加納
Shinya Kano
慎也 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016203114A priority Critical patent/JP6772751B2/ja
Priority to US15/727,821 priority patent/US10802859B2/en
Publication of JP2018064251A publication Critical patent/JP2018064251A/ja
Application granted granted Critical
Publication of JP6772751B2 publication Critical patent/JP6772751B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • H04L45/036Updating the topology between route computation elements, e.g. between OpenFlow controllers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/02Network architectures or network communication protocols for network security for separating internal from external traffic, e.g. firewalls
    • H04L63/0272Virtual private networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/46Interconnection of networks
    • H04L12/4641Virtual LANs, VLANs, e.g. virtual private networks [VPN]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • H04L45/036Updating the topology between route computation elements, e.g. between OpenFlow controllers
    • H04L45/037Routes obligatorily traversing service-related nodes
    • H04L45/0377Routes obligatorily traversing service-related nodes for service chaining

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】サービスチェインの設定変更完了までの時間差による仮想通信機能のトラヒック廃棄を回避できるサーバ装置等を提供する。【解決手段】サーバ装置は、特定部と、抽出部と、設定部とを有する。特定部は、複数段に配置された通信機能を実現する仮想マシン群の中からパケットを終端する終端型の仮想マシンを特定する。抽出部は、前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、前記終端型の仮想マシン宛のトラヒックを出力する出力先の仮想マシンを含む予備の通信経路を抽出する。設定部は、前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、抽出された前記予備の通信経路を設定する。【選択図】図6

Description

本発明は、設定方法及びサーバ装置に関する。
最近のネットワークでは、拠点から外部のサイト、又は、拠点から他の拠点にアクセスする際に、要求に応じてFW(FireWall)やProxy等のNW(NetWork)機能を通信経路上に仮想的に配置してトラヒックを転送するサービスチェインシステムがある。仮想的なNW機能を経由する通信経路をサービスチェインという。
従来、NW機能は、NWサーバ等の物理NW装置で機能していた。しかしながら、近年の汎用サーバの性能向上によって汎用サーバ上のソフトウェア処理でもNW機能が実現できるようになった。従って、汎用サーバの仮想化環境の仮想マシン上でNW機能のプログラムを動作させる形態でNW機能の運用を開始している。尚、仮想マシン上で動作するNWに関するソフトウェア処理を仮想NW機能(Virtual Network Function:VNF)という。
しかしながら、データ転送等のNW関連の処理が物理NW装置から汎用サーバ上のソフトウェア処理のVNFに運用形態が移行した結果、データ転送の処理性能が低下する事態が生じている。そこで、複数のプログラムを並列に実行し、複数のサーバ上に仮想マシンを並列動作することで、データ転送の負荷を分散し、データ転送の処理性能を改善している。
図13は、サービスチェインの配置構成の一例を示す説明図である。図13に示すサービスチェイン200は、例えば、FW201A、IDS(Intrusive Detection System)201B及びProxy201C等の各VNF201を配置している。更に、サービスチェイン200は、各VNF201の前段にトラヒックを分散するLB(Load Balancer)202を仮想的に配置している。LB202は、次段に配置する各VNF201にトラヒックを分配する。その結果、各VNF201の転送処理の負荷を分配することで、ソフトウェア化による処理性能の低下を抑制している。
特開2015−154325号公報 特開2016−46736号公報 国際公開第2011/118585号 特開2016−92530号公報
サービスチェイン200では、VNF201の負荷変化に応じてVNF201を追加するスケールアウトや、VNF201を削除するスケールイン等の設定変更が生じた場合、各VNF201の設定変更が完了するまでにVNF201間で時間差が生じる。その結果、設定変更完了までの時間差によってVNF201でトラヒック廃棄が生じる。
一つの側面では、サービスチェインの設定変更完了までの時間差によるトラヒック廃棄を回避できる設定方法及びサーバ装置を提供することを目的とする。
一つの態様の方法は、複数段に配置された通信機能を実現する仮想マシン群の中からパケットを終端する終端型の仮想マシンを特定する。更に、前記終端型の仮想マシンにトラヒックを中継する仮想マシン毎に、前記終端型の仮想マシン宛のトラヒックを出力する出力先の仮想マシンを含む予備の通信経路を抽出する。更に、前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、抽出された前記予備の通信経路を設定する。
一つの側面として、サービスチェインの設定変更完了までの時間差によるトラヒック廃棄を回避できる。
図1は、サービスチェインシステムの一例を示す説明図である。 図2は、管理サーバのハードウェア構成の一例を示す説明図である。 図3は、サービスチェインの配置構成の一例を示す説明図である。 図4は、サービスチェイン構築処理に関わる管理サーバの処理動作の一例を示すフローチャートである。 図5は、本実施例のサービスチェインの配置構成の一例を示す説明図である。 図6は、本実施例の管理サーバのプロセッサの機能構成の一例を示す説明図である。 図7は、FW1E追加前の運用中設定情報及び予備設定情報の一例を示す説明図である。 図8は、FW1E追加後のサービスチェインの配置構成の一例を示す説明図である。 図9は、FW1E追加後の運用中設定情報及び予備設定情報の一例を示す説明図である。 図10は、予備設定処理に関わる管理サーバ内のプロセッサの処理動作の一例を示すフローチャートである。 図11は、転送処理に関わる各VNFの処理動作の一例を示すフローチャートである。 図12は、設定プログラムを実行する情報処理装置の一例を示す説明図である。 図13は、サービスチェインの配置構成の一例を示す説明図である。
以下、図面に基づいて、本願の開示する設定方法及びサーバ装置の実施例を詳細に説明する。尚、本実施例により、開示技術が限定されるものではない。また、以下に示す実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。
図1は、サービスチェインシステム1の一例を示す説明図である。図1に示すサービスチェインシステム1は、キャリアNW2と、管理サーバ3と、端末装置4とを有する。キャリアNW2は、例えば、企業の本社、支社や海外拠点等の拠点2Aと接続するNWである。キャリアNW2は、例えば、複数の汎用サーバ2Bで構成し、各汎用サーバ2Bのリソース領域にある仮想領域で稼働する仮想NW11と、その仮想NW11上に配置した複数のVNF12とを有する。管理サーバ3は、拠点2A間で通信するサービスチェインを仮想領域に確立する。
VNF12は、例えば、Webキャッシュ12A、パケットモニタリング12B、FW12C、高速WAN12D、アドレス変換部12E、VPN12F、IDSやProxy等の仮想NW機能である。Webキャッシュ12Aは、図示せぬWebサーバとのキャッシュデータを格納するNW機能である。パケットモニタリング12Bは、通信経路上のパケットの状態を監視するNW機能である。FW12Cは、不正アクセスを防止するNW機能である。高速WAN12Dは、高速WAN等のNW機能である。アドレス変換部12Eは、アドレスを変換するNW機能である。VPN12Fは仮想専用線等のNW機能である。IDSは、外部からの不正侵入を検知するNW機能である。Proxyは、代理サーバのNW機能である。VNF12は、汎用サーバ2B上の仮想領域に仮想的に配置した通信機能を実現する仮想マシンである。
管理サーバ3は、端末装置4からサービスチェインの構成要求に応じて、キャリアNW2内の各汎用サーバ2Bの仮想領域上に所望の仮想NW11及びVNF12を配置するサーバ装置である。端末装置4は、例えば、FW4A、高速WAN4BやVPN4C等を経由して管理サーバ3と接続し、管理サーバ3に対してサービスチェインの構成要求を指示する、例えば、システム管理者等の端末装置である。尚、構成要求は、トラヒック転送の通信経路上に1台若しくは複数台のVNF12の配置を要求するコマンドである。また、構成要求は、VNF12及びLB13のインスタンス数を指定する場合の他に、VNF12のインスタンス数のみを指定する場合もある。また、構成要求には、例えば、サービスチェインの要求品質を指定する場合もある。管理サーバ3は、要求品質を指定した構成要求を検出した場合、構成要求で指定された所望の機能や負荷状況からVNF12やLB13のインスタンス数を決定する。LB13は、負荷の分散機能を実現する分散型の仮想マシンである。
図2は、管理サーバ3のハードウェア構成の一例を示す説明図である。図2に示す管理サーバ3は、例えば、NWサーバとしての専用コンピュータや、汎用コンピュータに相当する。管理サーバ3は、NWインタフェース31と、入力装置32と、出力装置33と、補助記憶装置34と、主記憶装置35と、プロセッサ36とを有する。NWインタフェース31は、キャリアNW2と接続すると共に、VNF12と接続する通信インタフェースである。尚、NWインタフェース31は、例えば、有線又は無線の通信を司る通信インタフェースである。NWインタフェース31は、例えば、NIC(Network Interface Card)やLAN(Local Area Network)カード等の通信カードである。
入力装置32は、各種情報を入力する、例えば、キーボードやマウス等のポインティングデバイス等の入力インタフェースである。出力装置33は、各種情報を出力する、例えば、音声出力装置や表示装置等の出力インタフェースである。補助記憶装置34は、例えば、各種プログラムや、プロセッサ36が使用するデータ等の各種情報を記憶する、例えば、EPROM(Erasable Programmable ROM)、又はハードディスクドライブ(Hard Disc Drive)等の不揮発性のメモリである。更に、補助記憶装置34は、例えば、オペレーティングシステム(OS)や、その他様々なアプリケーションプログラムを保持する領域である。
主記憶装置35は、各種情報、例えば、補助記憶装置34に格納されているプログラムをロードする領域や作業領域を提供する、例えば、RAM(Random Access Memory)等の半導体メモリである。プロセッサ36は、管理サーバ3全体を制御する、例えば、CPU(Central Processing Unit)等の制御部である。プロセッサ36は、補助記憶装置34又は可搬記録媒体に保持されたOSや様々なアプリケーションプログラムを主記憶装置35にロードして実行することで各種処理機能を実行する。プロセッサ36は、1個に限定されるものではなく、複数個設けても良い。
図3は、サービスチェイン20の配置構成の一例を示す説明図である。図3に示すサービスチェイン20は、複数のVNF群21と、LB群22とを有する。複数のVNF群21は、VNF#1と、VNF#2と、VNF#3とを所定順序に配置する。VNF#1は、例えば、FW1A〜FW1Dを有する。VNF#2は、例えば、IDS1A〜IDS1Cを有する。VNF#3は、例えば、Proxy1A〜Proxy1Cを有する。LB群22は、例えば、LB1A及びLB1Bを有する。
プロセッサ36は、構成要求を検出すると、構成要求内で指定する各VNF群21内のVNF12のインスタンス数に基づき、所定順序の内、最前段のVNF群21、すなわちVNF#1の前段に配置する集約LB13Aの数を決定する。尚、所定順序は、例えば、前段からVNF#1(FW)、VNF#2(IDS)及びVNF#3(Proxy)の順に配置する順序とする。
プロセッサ36は、構成要求を検出すると、構成要求に基づき、VNF群21へのトラヒックを分配するLB13の特性の内、上位レイヤ「L4レベル」のLB群22(VNF#3に対するLB13(L4))を特定する。尚、L4レベル(TCPセッション)単位の分配処理は、L3レベル(IP)単位の分配処理も実行できる。プロセッサ36は、上位レイヤ「L4レベル」の分配処理を実行するLB群22の内、LBインスタンス数が最大数となるLB13を特定し、そのLBインスタンス数を集約LB13Aのインスタンス数と決定する。例えば、プロセッサ36は、VNF#3のLBインスタンス数がL4レベルLBの2個の場合、そのL4レベルLBの2個を集約LB13Aの数として決定する。尚、L4レベルのVNF群21を特定する理由は、L4レベル(TCPセッション)単位の処理でL3レベル(IP)単位の処理も実行できるためである。
更に、プロセッサ36は、VNF#1、VNF#2及びVNF#3の配置順序としてトポロジ構成を決定する。プロセッサ36は、図3に示すようにサービスチェイン20の最前段にVNF#1、VNF#1の次段にVNF#2、VNF#2の次段にVNF#3を配置し、更に、最前段のVNF#1の前段に集約LB13Aを配置するトポロジ構成を決定する。尚、トポロジ構成は、最前段に集約LB13A内のLB1A及びLB1B、次段にVNF#1内のFW1A〜FW1D、その次段にVNF#2内のIDS1A〜IDS1C、その次段にVNF#3内のProxy1A〜Proxy1Cを配置する構成である。
プロセッサ36は、集約LB13Aから複数のVNF群21の内、終端のVNF群21内の各VNF12までのトラヒックが分散する、集約LB13Aのトラヒック量の分配割合及びVNF12のトラヒック割合を決定する。プロセッサ36は、複数のVNF群21の内、終端となるVNF群21内のVNF12を決定すると共に、集約LB13Aから各終端のVNF12までの最適経路を決定する。
プロセッサ36は、集約LB13AがL4レベルのLBであるため、集約LB13AからL4レベルが終端となる終端のVNF群21として、例えば、VNF#3のProxy1A〜Proxy1Cと決定する。集約LB13Aの「LB1A」は、Proxy1A〜Proxy1Cの3本の経路を決定する。更に、集約LB13Aの「LB1B」も、Proxy1A〜Proxy1Cの3本の経路を決定する。集約LB13Aの「LB1A」及び「LB1B」は、終端のVNF12の台数分、トラヒックを分散できる終端型のLBである。例えば、LB1Aは、終端のVNF群21がProxy1A〜Proxy1Cの3台のため、トラヒックを3経路に分散できる。
プロセッサ36は、集約LB13Aの「LB1A」から終端のVNF12、すなわちProxy1A〜Proxy1Cまでの3経路で、例えば、ダイクストラ法等の最短経路コスト法において計算済み経路上のリンクコストを高くして最短経路計算を行う。プロセッサ36は、LB1Aから終端のVNF12までの3経路の最短経路計算で、VNF#1及びVNF#2を経由する経路が分散した最適経路R1、R3及びR5を決定する。プロセッサ36は、集約LB13Aの「LB1B」から終端のVNF12、すなわちProxy1A〜Proxy1Cまでの3経路で、最短経路コスト法の利用とリンクコスト加算を行う。そして、プロセッサ36は、その計算によってVNF#1及びVNF#2を経由する経路が分散した最適経路R2、R4及びR6を決定する。
プロセッサ36は、各最適経路R1〜R6に配置するVNF群21の内、VNF12のインスタンス数が最大数のVNF群21の各VNF12のトラヒック量が均等に分散すべく、集約LB13Aから各最前段のVNF12へのトラヒック量の分配割合を決定する。プロセッサ36は、VNF#1〜VNF#3の内、最大個数のVNF12、すなわちVNF#1(FW1A〜FW1D)を特定する。プロセッサ36は、6本の最適経路の内、VNF#1のFW1A〜FW1Dのトラヒック量が均等になるように集約LB13A「LB1A」及び「LB1B」からVNF#1内のFW1A〜FW1Dに分配する分配割合を算出する。サービスチェイン20全体のトラヒック量を1とした場合、LB1AからFW1Aへの分配割合は全体トラヒック量の1/4、LB1AからFW1Bへの分配割合は全体トラヒック量の1/8、LB1AからFW1Cへの分配割合は全体トラヒック量の1/8となる。更に、LB1BからFW1Dへの分配割合は全体トラヒック量の1/4、LB1BからFW1Bへの分配割合は全体トラヒック量の1/8、LB1BからFW1Cへの分配割合は全体トラヒック量の1/8となる。その結果、FW1A〜FW1Dは、各々、1/4のトラヒック量が均等に割り当てられることになる。
プロセッサ36は、最適経路毎に各VNF12へのトラヒック量のトラヒック割合が最適となるように各VNF12から次段のVNF12へのトラヒック割合を算出する。プロセッサ36は、集約LB13AのLB1A及びLB1Bから各VNF#1内の各FW1A〜FW1Dのトラヒック量の分配割合を決定した後、先に決定した最適経路R1〜R6上の転送経路を決定する。更に、プロセッサ36は、その転送経路上の各VNF12への分配割合を決定する。転送経路は、最適経路の内、VNF12が次段のVNF12にトラヒックを転送する経路である。
集約LB13AのLB1Aの転送経路は、Proxy1A宛のトラヒックをFW1Aに転送する経路、Proxy1B宛のトラヒックをFW1Bに転送する経路、Proxy1C宛のトラヒックをFW1Cに転送する経路となる。集約LB13AのLB1Bの転送経路は、Proxy1A宛のトラヒックをFW1Bに転送する経路、Proxy1B宛のトラヒックをFW1Cに転送する経路、Proxy1C宛のトラヒックをFW1Dに転送する経路となる。
更に、FW1Aの転送経路は、Proxy1A宛のトラヒックをIDS1Aに転送する経路となる。FW1Bの転送経路は、Proxy1A宛のトラヒックをIDS1Aに転送する経路及び、Proxy1B宛のトラヒックをIDS1Bに転送する経路となる。FW1Cの転送経路は、Proxy1B宛のトラヒックをIDS1Bに転送する経路及び、Proxy1C宛のトラヒックをIDS1Cに転送する経路となる。FW1Dの転送経路は、Proxy1C宛のトラヒックをIDS1Cに転送する経路となる。
更に、IDS1Aの転送経路は、Proxy1A宛のトラヒックをProxy1Aに転送する経路となる。IDS1Aの転送経路は、Proxy1B宛のトラヒックをProxy1Bに転送する経路となる。IDS1Cの転送経路は、Proxy1C宛のトラヒックをProxy1Cに転送する経路となる。更に、プロセッサは、各転送経路の各VNF12のトラヒック量が最適となるように各VNF12のトラヒック割合を決定する。尚、各VNF12のトラヒック割合は、例えば、Weighted Round Robin方式やWeighted HASH振り分け方式等で算出する。
プロセッサ36は、VNF#1からVNF#2までの転送経路毎にトラヒック割合を決定する。FW1AからIDS1Aへの転送経路のトラヒック割合は全体トラヒック量の2/8、FW1BからIDS1Aへの転送経路のトラヒック割合は全体トラヒック量の1/8、FW1BからIDS1Bへの転送経路のトラヒック割合は全体トラヒック量の1/8となる。FW1CからIDS1Bへの転送経路のトラヒック割合は全体トラヒック量の1/8、FW1CからIDS1Cへの転送経路のトラヒック割合は全体トラヒック量の1/8、FW1DからIDS1Cへの転送経路のトラヒック割合は全体トラヒック量の2/8となる。
更に、プロセッサ36は、VNF#2からVNF#3までの転送経路毎にトラヒック割合を決定する。例えば、IDS1AからProxy1Aへの転送経路のトラヒック割合は3/8、IDS1BからProxy1Bへの転送経路のトラヒック割合は2/8、IDS1CからProxy1Cへの転送経路のトラヒック割合は3/8となる。尚、説明の便宜上、VNF#2からVNF#3までの転送経路のトラヒック割合は、例えば、3/8、2/8及び3/8としたが、転送経路毎にトラヒック割合を均等になるように調整しても良い。
プロセッサ36は、集約LB13A及びVNF12の数、最適経路R1〜R6及び転送経路に基づき、集約LB13A及びVNF12を汎用サーバ2B等の仮想領域に配置して機能を起動させる。プロセッサ36は、決定した集約LB13Aの分配割合を配置された集約LB13Aに設定する。プロセッサ36は、決定した各VNF12のトラヒック割合を配置されたVNF12に設定する。その結果、仮想環境下で構成要求のサービスチェイン20を構築できる。
管理サーバ3は、集約LB13A、集約LB13Aから終端VNF12までの最適経路、集約LB13Aの分配割合及び各VNF12のトラヒック割合に基づき、キャリアNW2上の指定の汎用サーバ2Bの仮想領域に構成要求のサービスチェイン20を構築する。
次にサービスチェインシステム1について説明する。図4は、サービスチェイン構築処理に関わる管理サーバ3の処理動作の一例を示すフローチャートである。図4において管理サーバ3内のプロセッサ36は、端末装置4から構成要求を受信したか否かを判定する(ステップS11)。プロセッサ36は、構成要求を受信した場合(ステップS11肯定)、構成要求内のVNF群21内のVNF12のインスタンス数及びVNF群21毎のLB13のインスタンス数に基づき、集約LB13Aの数を決定する(ステップS12)。尚、プロセッサ36は、構成要求内の上位レベルのVNF群21の内、例えば、VNF12のインスタンス数が最大数のVNF群21を特定し、特定されたVNF群21のLBインスタンス数を集約LB13Aの数と決定する。更に、プロセッサ36は、構成要求内のVNF群21に基づき、図3に示すように、集約LB13Aの集約LB群22及びVNF群21のトポロジ構成を決定する(ステップS13)。
プロセッサ36は、サービスチェイン20の最前段の集約LB群22のトラヒック割合(送信量)を決定する(ステップS14)。尚、集約LB群22のトラヒック割合(送信量)は、図3に示すように、LB1Aが全体トラヒック量の1/2及びLB1Bが全体トラヒック量の1/2を送信することになる。プロセッサ36は、最前段の集約LB群22の終端宛先となる終端のVNF群21を特定する(ステップS15)。尚、終端のVNF群21は、例えば、図3に示すVNF#3に相当し、終端のVNF12はProxy1A〜Proxy1Cとなる。
プロセッサ36は、集約LB群22と終端のVNF群21との間の全経路が分散する転送経路を決定する(ステップS16)。尚、全経路は、図3に示すように、LB1AとProxy1Aとの間、LB1AとProxy1Bとの間、LB1AとProxy1Cとの間、LB1BとProxy1Aとの間、LB1BとProxy1Bとの間、LB1BとProxy1Cとの間の転送経路となる。プロセッサ36は、各転送経路のトラヒック割合を決定する(ステップS17)。
プロセッサ36は、集約LB群22及び転送経路のトラヒック割合に基づき、終端のVNF群21内の各VNF12のトラヒック割合(受信量)を決定する(ステップS18)。尚、終端のVNF群21はVNF#3のため、Proxy1Aは全体トラヒック量の3/8、Proxy1Bは全体トラヒック量の2/8、Proxy1Cは全体トラヒック量の3/8を受信することになる。
そして、プロセッサ36は、集約LB群22の分配割合を決定する(ステップS19)。更に、プロセッサ36は、集約LB群22及びVNF群21の転送経路及びトラヒック割合を決定した後(ステップS20)、集約LB群22及びVNF群21を汎用サーバ2B上の仮想領域に配置して、その機能を起動する(ステップS21)。更に、プロセッサ36は、集約LB群22の分配割合を仮想領域上の集約LB13Aに設定すると共に、VNF群21のトラヒック割合を仮想領域上の各VNF12に設定し(ステップS22)、図4に示す処理動作を終了する。その結果、構成要求に応じたサービスチェイン20を仮想領域上に配置できる。プロセッサ36は、構成要求を受信しなかった場合(ステップS11否定)、図4に示す処理動作を終了する。
上記例では、サービスチェイン20の最前段に複数の集約LB13Aを配置し、集約LB13Aから終端のVNF群21までのトラヒック量が均等になるように集約LB群22の分配割合及び各VNF12のトラヒック割合を決定する。その結果、LB13の数を少なくすることで転送遅延を抑制できると共に、有限な仮想領域の資源を節減できる。
しかしながら、サービスチェイン20内でVNF12を追加するスケールアウトや、VNF12を削除するスケールインが生じた場合でも、VNF12の前段に配置する集約LB群22の分配割合、各VNF12のトラヒック割合や転送経路を変更する必要がある。例えば、図3に示すサービスチェイン20内のVNF#1にFW1Eを追加する場合、LB1A及びLB1Bの分配割合、FW1C〜FW1Eの転送経路等を変更する必要がある。例えば、FW1Dでログ出力等の処理を実行して同時に設定変更ができず、FW1Dの設定変更が遅れ、LB1Bでの設定変更が先行したとする。この際、LB1Bで分配したProxy1B宛のトラヒックがFW1Dに到着したとしても、FW1DはProxy2B宛のトラヒックの転送経路が登録されていないため、そのトラヒックを廃棄することになる。その結果、複数のVNF12の設定変更を同期させることが困難であるため、全ての設定変更が完了するまでには時間差が生じ、各VNF12でトラヒック廃棄による通信断が生じる。また、設定変更完了の時間差によるトラヒック廃棄を回避すべく、複数の経路を1経路ずつ順番に設定変更するMake Before Break方法で経路変更することも考えられる。しかしながら、サービスチェイン内の経路構成が複雑になると、全ての経路の設定変更を完了するまでに多大な時間を要する。
そこで、このような事態に対処すべく、サービスチェイン20内でスケールアウトやスケールインが生じた場合でも通信断を抑制しながらスケールアウト及びスケールインに対応できるサービスチェインシステム1の実施の形態について説明する。尚、上記例のサービスチェインシステム1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。
図5は、本実施例のサービスチェイン20Aの配置構成の一例を示す説明図である。図5に示すサービスチェイン20Aは、VNF#1〜VNF#3の複数のVNF群21と、複数のVNF群21の内、最前段のVNF#1の前段に配置された集約LB群22とを有する。VNF#1は、例えば、FW1A〜FW1Dを有する。VNF#2は、例えば、IDS1A〜IDS1Cを有する。VNF#3は、例えば、Proxy1A〜Proxy1Cを有する。尚、VNF#3は、終端のVNF群21である。集約LB群22はL4終端型LB13A、VNF#3はL3終端型VNF12、VNF#1及びVNF#2はL3中継型VNF12である。
図6は、本実施例の管理サーバ3内のプロセッサ36の機能構成の一例を示す説明図である。図6に示すプロセッサ36は、第1の決定部41と、第2の決定部42と、第3の決定部43と、設定部44と、第1の特定部45と、第2の特定部46と、抽出部47と、比較部48とを有する。補助記憶装置34には、設定方法に関わる処理プログラムが記憶されているものとする。プロセッサ36は、設定方法に関わる処理プログラムを補助記憶装置34から読み出す。そして、プロセッサ36は、読み出した処理プログラムに基づき、プロセッサ36上で第1の決定部41、第2の決定部42、第3の決定部43、設定部44、第1の特定部45、第2の特定部46、抽出部47及び比較部48を機能として実行する。第1の決定部41は、構成要求に応じてサービスチェイン20Aの集約LB群22の数及びトポロジ構成を決定する。
第2の決定部42は、サービスチェイン20Aのトポロジ構成から終端のVNF群21及び集約LB群22を特定し、集約LB群22及びVNF群21内の転送経路及びトラヒック割合を決定する。集約LB群22及びVNF群21の転送経路のトラヒック割合は、転送経路上のVNF群21で平均化できるトラヒック量である。
第3の決定部43は、集約LB群22及びVNF群21の転送経路及びトラヒック割合に基づき、集約LB群22の分配割合、VNF群21内の転送経路及びトラヒック割合を決定する。設定部44は、トポロジ構成に基づき、仮想領域上にVNF群21及び集約LB群22を配置して起動し、配置されたVNF群21及び集約LB群22に転送経路及びトラヒック割合を設定する。設定部44は、配置部44Aと、割合設定部44Bとを有する。配置部44Aは、トポロジ構成に基づき、仮想領域上にVNF群21及び集約LB群22を配置して起動する。割合設定部44Bは、配置されたVNF群21及び集約LB群22に転送経路及びトラヒック割合を設定する。
第1の特定部45は、サービスチェイン20Aのトポロジ構成から終端のVNF群21を特定する。尚、終端のVNF群21は、例えば、図5に示すL3終端型VNF12のProxy1A〜Proxy1C等のVNF#3である。第2の特定部46は、サービスチェイン20Bのトポロジ構成に基づき、集約LB群22から終端のVNF群21の各終端のVNF12までの転送経路上で終端VNF12宛のトラヒックを中継する各VNF12を特定する。尚、終端のVNF12は、例えば、図5に示すProxy1A〜Proxy1C、転送経路上の各VNF12は、例えば、LB1A、LB1B、FW1A〜FW1D及びIDS1A〜IDS1C等である。
抽出部47は、トポロジ構成に基づき、転送経路上のVNF12毎に、終端VNF12宛のトラヒックを出力する次段の出力先VNF12を抽出する。抽出部47は、転送経路上のVNF12毎に終端VNF12までの経路が最短等の最適経路となる転送経路の出力先VNF12を抽出する。抽出部47は、例えば、FW1Aに着目した場合、Proxy1A宛のトラヒックを転送する出力先VNF12としてIDS1A、Proxy1B宛トラヒックを転送する出力先VNF12としてIDS1Bを抽出する。更に、抽出部47は、Proxy1C宛のトラヒックを転送する出力先VNF12としてIDS1Cを抽出する。また、抽出部47は、例えば、FW1Cに着目した場合、Proxy1A宛のトラヒックを転送する出力先VNF12としてIDS1A、Proxy1B宛のトラヒックを転送する出力先VNF12としてIDS1Bを抽出する。更に、抽出部47は、Proxy1C宛のトラヒックを転送する出力先VNF12としてIDS1Cを抽出する。また、抽出部47は、例えば、IDS1Cに着目した場合、Proxy1A宛のトラヒックを転送する出力先VNF12としてProxy1A、Proxy1B宛のトラヒックを転送する出力先VNF12としてProxy1Bを抽出する。更に、抽出部47は、Proxy1C宛のトラヒックを転送する出力先VNF12としてProxy1Cを抽出する。抽出部47は、終端VNF12宛のトラヒックを中継する転送経路上のVNF12毎に、全ての終端VNF12宛のトラヒックを転送する予備の出力先VNF12を含む予備の転送経路を予備メモリ52に登録する。
主記憶装置35は、運用中メモリ51と、予備メモリ52とを有する。運用中メモリ51は、サービスチェイン20A内のVNF12毎に終端VNF12宛のトラヒックを転送する運用中の出力先VNF12を含む運用中の転送経路を登録する。これに対して、予備メモリ52は、VNF12毎に予備の転送先VNF12を含む予備の転送経路を登録する。
比較部48は、抽出部47にて抽出されたVNF12毎に終端VNF12宛のトラヒックを転送する予備の出力先VNF12を含む予備の転送経路を予備メモリ52に登録した後、予備メモリ52及び運用中メモリ51内のVNF12毎の転送経路同士を比較する。比較部48は、その比較結果に基づき、予備メモリ52内に運用中の転送経路が存在する場合、その運用中の転送経路の終端VNF12宛の出力先VNF12を削除する。その結果、予備メモリ52には、VNF12毎に運用中の転送経路を除く、予備の転送経路を登録している。
設定部44は、予備メモリ52に登録中の転送経路上のVNF12毎の予備の転送経路を該当VNF12に設定する。その結果、終端VNF12宛のトラヒックを中継する転送経路上のVNF12は、予備の転送経路が設定された場合でも、受信トラヒックの宛先が運用中の転送経路に該当する場合、その受信トラヒックを運用中の転送経路に関わる出力先VNF12に転送する。また、転送経路上のVNF12は、受信トラヒックの宛先が運用中の転送経路に該当しない場合でも、その宛先が予備の転送経路に該当する場合、その受信トラヒックを予備の転送経路に関わる出力先VNF12に転送する。つまり、VNF12は、運用中の転送経路の他に予備の転送経路も設定しているため、全ての終端VNF12宛のトラヒックの到達性を保証していることになる。
例えば、FW1Aの運用中の転送経路は、Proxy1A宛のトラヒックを出力先VNF12としてIDS1Aに転送する経路とする。更に、FW1Aの予備の転送経路は、Proxy1B宛のトラヒックを出力先VNF12としてIDS1Bに転送する経路、Proxy1C宛のトラヒックをIDS1Cに転送する経路とする。この際、FW1Aは、Proxy1A宛のトラヒックを受信した場合、Proxy1A宛のトラヒックを運用中の転送経路に関わる出力先VNF12であるIDS1Aに転送する。また、FW1Aは、Proxy1B宛のトラヒックを受信した場合、Proxy1B宛のトラヒックを予備の転送経路に関わる出力先VNF12であるIDS1Bに転送する。また、FW1Aは、Proxy1C宛のトラヒックを受信した場合、Proxy1C宛のトラヒックを予備の転送経路に関わる出力先VNF12であるIDS1Cに転送する。FW1Aでは、運用中の転送経路は勿論のこと、予備の転送経路も使用可能にし、全てのProxy1A〜Proxy1C宛のトラヒック転送を保証できるため、設定変更完了までの時間差によるトラヒック廃棄を回避できる。
また、FW1Cの運用中の転送経路は、Proxy1B宛のトラヒックを出力先VNF12となるIDS1Bに転送する経路と、Proxy1C宛のトラヒックを出力先VNF12となるIDS1Cに転送する経路とする。更に、FW1Cの予備の転送経路は、Proxy1A宛のトラヒックを出力先VNF12としてIDS1Aに転送する経路とする。この際、FW1Cは、Proxy1B宛のトラヒックを受信した場合、Proxy1B宛のトラヒックを運用中の転送経路に関わる出力先VNF12であるIDS1Bに転送する。また、FW1Cは、Proxy1A宛のトラヒックを受信した場合、Proxy1A宛のトラヒックを予備の転送経路に関わる出力先VNF12であるIDS1Aに転送する。FW1Cでも、運用中の転送経路は勿論のこと、予備の転送経路も使用可能にし、全てのProxy1A〜Proxy1C宛のトラヒック転送を保証できるため、設定変更完了までの時間差によるトラヒック廃棄を回避できる。
図7は、FW1E追加前の運用中設定情報及び予備設定情報の一例を示す説明図である。尚、説明の便宜上、図7に示す運用中設定情報及び予備設定情報は、図5に示すFW1E追加前のサービスチェインシステム20Aの運用中設定情報及び予備設定情報である。
図7に示す運用中設定情報は、LB1A及びLB1Bの運用中の分配割合と、LB1A及びLB1B、FW1A〜FW1D、IDS1A〜IDS1Cの運用中の転送経路とを有する。尚、運用中設定情報は、運用中メモリ51に記憶されるものとする。LB1Aの運用中の分配割合は、全体トラヒック量の2/8、つまり、LB1Aが受信するトラヒック量の2/4をProxy1A宛のFW1Aに転送することになる。LB1Aの運用中の分配割合は、全体トラヒック量の1/8、つまり、LB1Aが受信するトラヒック量の1/4をProxy1B宛のFW1Bに転送することになる。更に、LB1Aの運用中の分配割合は、全体トラヒック量の1/8、つまり、LB1Aが受信するトラヒック量の1/4をProxy1C宛のFW1Cに転送することになる。
LB1Bの運用中の分配割合は、全体トラヒック量の1/8、つまり、LB1Bが受信するトラヒック量の1/4をProxy1A宛のFW1Bに転送することになる。LB1Bの運用中の分配割合は、全体トラヒック量の1/8、つまり、LB1Bが受信するトラヒック量の1/4をProxy1B宛のFW1Cに転送することになる。更に、LB1Bの運用中の分配割合は、全体トラヒック量の2/8、つまり、LB1Bが受信するトラヒック量の2/4をProxy1C宛のトラヒックをFW1Dに転送することになる。
LB1Aの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてFW1Aに転送する経路と、Proxy1B宛のトラヒックを運用中の出力先VNF12としてFW1Bに転送する経路とを有する。更に、LB1Aの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてFW1Cに転送する経路を有する。
LB1Bの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてFW1Bに転送する経路と、Proxy1B宛のトラヒックを運用中の出力先VNF12としてFW1Cに転送する経路とを有する。LB1Bの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてFW1Dに転送する経路を有する。
FW1Aの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてIDS1Aに転送する経路を有する。FW1Bの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてIDS1Aに転送する経路と、Proxy1B宛のトラヒックを運用中の出力先VNF12としてIDS1Bに転送する経路とを有する。FW1Cの運用中の転送経路は、Proxy1B宛のトラヒックを運用中の出力先VNF12としてIDS1Bに転送する経路と、Proxy1C宛のトラヒックを運用中の出力先VNF12としてIDS1Cに転送する経路とを有する。FW1Dの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてIDS1Cに転送する経路を有する。尚、FW1Eの運用中の転送経路は、FW1Eの追加前の状態であるため、「なし」である。
IDS1Aの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてProxy1Aに転送する経路を有する。IDS1Bの運用中の転送経路は、Proxy1B宛のトラヒックを運用中の出力先VNF12としてProxy1Bに転送する経路を有する。IDS1Cの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてProxy1Cに転送する経路を有する。
また、図7に示す予備設定情報は、LB1A及びLB1B、FW1A〜FW1E及びIDS1A〜IDS1Cの予備の転送経路を有する。尚、予備設定情報は、予備メモリ52に記憶されているものとする。LB1A及びLB1Bの予備の転送経路は、運用中の出力先VNF12と同一であるため、削除されている。FW1Aの予備の転送経路は、Proxy1B宛のトラヒックを予備の出力先VNF12としてIDS1Bに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、FW1Aの運用中の転送経路は、Proxy1A宛のトラヒックをIDS1Aに転送する経路であるため、FW1Aの予備の転送経路から削除している。
FW1Bの予備の転送経路は、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路を有する。尚、FW1Bの運用中の転送経路は、Proxy1A宛のトラヒックをIDS1A経由で送信する経路及び、Proxy1B宛のトラヒックをIDS1Bに転送する経路であるため、FW1Bの予備の転送経路から削除している。FW1Cの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてIDS1Aに転送する経路を有する。尚、FW1Cの運用中の転送経路は、Proxy1B宛のトラヒックをIDS1Bに転送する経路及び、Proxy1C宛のトラヒックをIDS1Cに転送する経路であるため、FW1Cの予備の転送経路から削除している。FW1Dの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてIDS1Aに転送する経路と、Proxy1B宛のトラヒックを予備の出力先VNF12としてIDS1Bに転送する経路とを有する。尚、FW1Dの運用中の転送経路は、Proxy1C宛のトラヒックをIDS1Cに転送する経路であるため、FW1Cの予備の転送経路から削除している。FW1Eの予備の転送経路は、FW1Eの追加前の状態であるため、「なし」とする。
IDS1Aの予備の転送経路は、Proxy1B宛のトラヒックを予備の出力先VNF12としてIDS1Bに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、IDS1Aの運用中の転送経路は、Proxy1A宛のトラヒックをIDS1Aに転送する経路であるため、IDS1Aの予備の転送経路から削除している。IDS1Bの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてIDS1Aに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、IDS1Bの運用中の転送経路は、Proxy1B宛のトラヒックをIDS1Bに転送する経路であるため、IDS1Bの予備の転送経路から削除している。IDS1Cの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてProxy1Aに転送する経路と、Proxy1B宛のトラヒックを予備の出力先VNF12としてProxy1Bに転送する経路とを有する。尚、IDS1Cの運用中の転送経路は、Proxy1C宛のトラヒックをISD1Cに転送する経路であるため、IDS1Cの予備の転送経路から削除している。
管理サーバ3は、例えば、サービスチェイン20A内のVNF#1内の負荷増加を検出した場合、VNF#1にFW1Eを追加するスケールアウトを実行する。図8は、FW1E追加後のサービスチェイン20Bの配置構成の一例を示す説明図である。尚、図5に示すサービスチェイン20Aと同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。
管理サーバ3内のプロセッサ36は、FW1E追加の構成要求を検出した場合、図4に示すサービスチェイン構築処理を実行する。その結果、FW1E追加後の運用中設定情報及び予備設定情報を運用中メモリ51及び予備メモリ52に更新することになる。図9は、FW1E追加後の運用中設定情報及び予備設定情報の一例を示す説明図である。
図9に示す運用中設定情報のLB1Aの運用中の分配割合は、全体トラヒック量の2/10、つまり、LB1Aが受信するトラヒック量の2/5をProxy1A宛のFW1Aに転送することになる。LB1Aの運用中の分配割合は、全体トラヒック量の2/10、つまり、LB1Aが受信するトラヒック量の2/5をProxy1B宛のFW1Bに転送することになる。更に、LB1Aの運用中の分配割合は、全体トラヒック量の1/10、つまり、LB1Aが受信するトラヒック量の1/5をProxy1C宛のFW1Cに転送することになる。
LB1Bの運用中の分配割合は、全体トラヒック量の1/10、つまり、LB1Bが受信するトラヒック量の1/5をProxy1A宛のFW1Cに転送することになる。LB1Bの運用中の分配割合は、全体トラヒック量の2/10、つまり、LB1Bが受信するトラヒック量の2/5をProxy1B宛のFW1Dに転送することになる。更に、LB1Bの運用中の分配割合は、全体トラヒック量の2/10、つまり、LB1Bが受信するトラヒック量の2/5をProxy1C宛のFW1Eに転送することになる。
LB1Aの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてFW1Aに転送する経路と、Proxy1B宛のトラヒックを運用中の出力先VNF12としてFW1Bに転送する経路とを有する。更に、LB1Aの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてFW1Cに転送する経路を有する。
LB1Bの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてFW1Cに転送する経路と、Proxy1B宛のトラヒックを運用中の出力先VNF12としてFW1Dに転送する経路とを有する。LB1Bの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてFW1Eに転送する経路を有する。
FW1Aの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてIDS1Aに転送する経路を有する。FW1Bの運用中の転送経路は、Proxy1B宛のトラヒックを運用中の出力先VNF12としてIDS1Bに転送する経路を有する。FW1Cの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてIDS1Aに転送する経路と、Proxy1C宛のトラヒックを運用中の出力先VNF12としてIDS1Cに転送する経路とを有する。FW1Dの運用中の転送経路は、Proxy1B宛のトラヒックを運用中の出力先VNF12としてIDS1Bに転送する経路を有する。FW1Eの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてIDS1Cに転送する経路を有する。
IDS1Aの運用中の転送経路は、Proxy1A宛のトラヒックを運用中の出力先VNF12としてProxy1Aに転送する経路を有する。IDS1Bの運用中の転送経路は、Proxy1B宛のトラヒックを運用中の出力先VNF12としてProxy1Bに転送する経路を有する。IDS1Cの運用中の転送経路は、Proxy1C宛のトラヒックを運用中の出力先VNF12としてProxy1Cに転送する経路を有する。
また、図9に示す予備設定情報のLB1A及びLB1Bの予備の転送経路は、運用中の出力先VNF12と同一であるため、削除されている。
FW1Aの予備の転送経路は、Proxy1B宛のトラヒックを予備の出力先VNF12としてIDS1Bに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、FW1Aの運用中の転送経路は、Proxy1A宛のトラヒックをIDS1Aに転送する経路であるため、FW1Aの予備の転送経路から削除している。
FW1Bの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてIDS1Aに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、FW1Bの運用中の転送経路は、Proxy1B宛のトラヒックをIDS1Bに転送する経路であるため、FW1Bの予備の転送経路から削除している。FW1Cの予備の転送経路は、Proxy1B宛のトラヒックを予備の出力先VNF12としてIDS1Bに転送する経路を有する。尚、FW1Cの運用中の転送経路は、Proxy1A宛のトラヒックをIDS1Aに転送する経路及び、Proxy1C宛のトラヒックをIDS1Cに転送する経路であるため、FW1Cの予備の転送経路から削除している。FW1Dの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてIDS1Aに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、FW1Dの運用中の転送経路は、Proxy1B宛のトラヒックをIDS1Bに転送する経路であるため、FW1Dの予備の転送経路から削除している。FW1Eの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてIDS1Aに転送する経路と、Proxy1B宛のトラヒックを予備の出力先VNF12としてIDS1Bに転送する経路とを有する。尚、FW1Eの運用中の転送経路は、Proxy1C宛のトラヒックをIDS1Cに転送する経路であるため、FW1Cの予備の転送経路から削除している。
IDS1Aの予備の転送経路は、Proxy1B宛のトラヒックを予備の出力先VNF12としてIDS1Bに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、IDS1Aの運用中の転送経路は、Proxy1A宛のトラヒックをIDS1Aに転送する経路であるため、IDS1Aの予備の転送経路から削除している。IDS1Bの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてIDS1Aに転送する経路と、Proxy1C宛のトラヒックを予備の出力先VNF12としてIDS1Cに転送する経路とを有する。尚、IDS1Bの運用中の転送経路は、Proxy1B宛のトラヒックをIDS1Bに転送する経路であるため、IDS1Bの予備の転送経路から削除している。IDS1Cの予備の転送経路は、Proxy1A宛のトラヒックを予備の出力先VNF12としてProxy1Aに転送する経路と、Proxy1B宛のトラヒックを予備の出力先VNF12としてProxy1Bに転送する経路とを有する。尚、IDS1Cの運用中の転送経路は、Proxy1C宛のトラヒックをISD1Cに転送する経路であるため、IDS1Cの予備の転送経路から削除している。
次に本実施例のサービスチェインシステム1の動作について説明する。管理サーバ3は、例えば、図5に示すサービスチェイン20AのVNF#1の負荷増加を検出した場合、図6に示すサービスチェイン20Bを再構築する。管理サーバ3は、図5に示すサービスチェイン20Aのサービスチェイン構築処理を実行した際に図7に示す運用中設定情報を運用メモリ51に登録している。更に、管理サーバ3は、サービスチェイン構築処理実行後に予備設定処理を実行して予備設定情報を予備メモリ52に登録している。
図10は、予備設定処理に関わる管理サーバ3内のプロセッサ36の処理動作の一例を示すフローチャートである。図10においてプロセッサ36内の第1の特定部45は、サービスチェイン20Bから終端VNF群を特定したか否かを判定する(ステップS31)。尚、終端VNF群は、図5に示すサービスチェイン20Aの場合、Proxy1A〜Proxy1CのVNF#3である。
プロセッサ36内の第2の特定部46は、終端VNF群を特定した場合(ステップS31肯定)、サービスチェインから終端VNF群までの経路上のVNF12を特定する(ステップS32)。尚、終端VNF群までの経路上のVNF12は、図5に示すサービスチェイン20Aの場合、集約LB群22からProxy1A〜Proxy1Cまでのトラヒックを中継する経路上のVNF12である。その経路上のVNF12は、例えば、LB1A、LB1B、FW1A〜FW1D、IDS1A〜IDS1Cである。
プロセッサ36内の抽出部47は、経路上のVNF12毎に終端VNF12宛の出力先VNF12を含む転送経路を抽出する(ステップS33)。尚、終端VNF12は、図5に示すサービスチェイン20Aの場合、Proxy1A〜Proxy1Cである。抽出部47は、例えば、FW1Bに着目した場合、Proxy1A宛のトラヒックをIDS1Aに転送する転送経路及び、Proxy1B宛のトラヒックをIDS1Bに転送する転送経路を抽出する。更に、抽出部47は、Proxy1C宛のトラヒックをIDS1Cに転送する転送経路を抽出する。
抽出部47は、経路上のVNF12毎に抽出した転送経路を予備メモリ52に登録する(ステップS34)。プロセッサ36内の比較部48は、終端VNF12宛のトラヒックを中継する経路上のVNF12を指定し(ステップS35)、指定VNF12毎に、運用中メモリ51及び予備メモリ52に記憶中の転送経路同士を比較する(ステップS36)。尚、転送経路同士の比較とは、指定VNF12毎に、運用中メモリ51に記憶中の転送経路と予備メモリ52に記憶中の転送経路とを比較する処理である。
比較部48は、比較結果に基づき、指定VNF12の運用中の転送経路が予備メモリ52内にあるか否かを判定する(ステップS37)。比較部48は、指定VNF12の運用中の転送経路が予備メモリ52内にある場合(ステップS37肯定)、その指定VNF12の運用中の転送経路を予備メモリ52から削除する(ステップS38)。例えば、図7に示す予備設定情報のFW1Aに着目した場合、運用中の転送経路はProxy1A宛のトラヒックをFW1Aに転送する経路となる。
そして、プロセッサ36内の設定部44は、指定VNF12に予備メモリ52内に指定VNF12対応の予備の転送経路を設定し(ステップS39)、未指定のVNF12があるか否かを判定する(ステップS40)。設定部44は、未指定のVNF12がない場合(ステップS40否定)、図10に示す処理動作を終了する。
比較部48は、未指定のVNF12がある場合(ステップS40肯定)、経路上のVNF12から未指定のVNF12を指定すべく、ステップS35に移行する。第1の特定部45は、サービスチェインから終端VNF群を特定できなかった場合(ステップS31否定)、図10に示す処理動作を終了する。設定部44は、指定VNF12の運用中の転送経路が予備メモリ52内にない場合(ステップS37否定)、予備メモリ52内の予備の転送経路を指定VNF12に設定すべく、ステップS39に移行する。
予備設定処理を実行したプロセッサ36は、終端VNF12宛のトラヒックを中継する経路上のVNF12毎に終端VNF12宛の出力先VNF12を含む予備の転送経路を予備メモリ51に登録し、その予備の転送経路を経路上のVNF12毎に設定する。その結果、経路上のVNF12は、サービスチェインの構成が変更された場合でも、全ての終端VNF12宛の転送経路が確保できているため、設定変更完了までの時間差によるトラヒック廃棄を回避できる。
管理サーバ3は、サービスチェイン変更の構成要求を検出した場合、サービスチェイン構築処理を実行する。この際、管理サーバ3は、サービスチェイン上に配置された集約LB群22及びVNF群21に転送経路及びトラヒック割合を設定することになる。更に、管理サーバ3は、VNF群21及び集約LB群22の転送経路及びトラヒック割合の設定変更が完了するまでに運用中の転送経路及び予備の転送経路を使用できるため、トラヒック廃棄を回避できる。
管理サーバ3は、図5に示すサービスチェイン20Aから図8に示すサービスチェイン20Bに変更する際、その設定変更が完了するまで、図7に示すFW1E追加前の運用中の転送経路及び予備の転送経路を使用することになる。
次に設定変更開始から設定変更が完了するまでのサービスチェインの経路上のVNF12の動作について説明する。図11は、転送処理に関わる各VNF12の処理動作の一例を示すフローチャートである。図11においてVNF12は、設定変更を検出したか否かを判定する(ステップS51)。尚、設定変更は、例えば、サービスチェインのスケールアウト(VNF追加)やスケールイン(VNF削除)等の設定変更である。
VNF12は、設定変更を検出しなかった場合(ステップS51否定)、トラヒックを受信したか否かを判定する(ステップS52)。VNF12は、トラヒックを受信した場合(ステップS52肯定)、受信トラヒックの宛先に応じた運用中の転送経路があるか否かを判定する(ステップS53)。
VNF12は、受信トラヒックの宛先に応じた運用中の転送経路がある場合(ステップS53肯定)、受信トラヒックを運用中の出力先VNF12に転送し(ステップS54)、図11に示す処理動作を終了する。尚、運用中の出力先VNF12は、現在運用中の転送経路の終端VNF12宛の出力先VNF12である。VNF12は、受信トラヒックの宛先に応じた運用中の転送経路がない場合(ステップS53否定)、受信トラヒックを廃棄し(ステップS55)、図11に示す処理動作を終了する。
VNF12は、トラヒックを受信しなかった場合(ステップS52否定)、図11に示す処理動作を終了する。VNF12は、設定変更を検出した場合(ステップS51肯定)、トラヒックを受信したか否かを判定する(ステップS56)。VNF12は、トラヒックを受信した場合(ステップS56肯定)、受信トラヒックの宛先に応じた運用中の転送経路があるか否かを判定する(ステップS57)。
VNF12は、受信トラヒックの宛先に応じた運用中の転送経路がある場合(ステップS57肯定)、その受信トラヒックを運用中の出力VNF12に転送し(ステップS58)、図11に示す処理動作を終了する。
VNF12は、トラヒックを受信しなかった場合(ステップS56否定)、図11に示す処理動作を終了する。VNF12は、受信トラヒックの宛先に応じた運用中の転送経路がない場合(ステップS57否定)、受信トラヒックの宛先に応じた予備の転送経路があるか否かを判定する(ステップS59)。
VNF12は、受信トラヒックの宛先に応じた予備の転送経路がある場合(ステップS59肯定)、受信トラヒックを予備の出力先VNF12に転送し(ステップS60)、図11に示す処理動作を終了する。尚、予備の出力先VNF12は、予備の転送経路の終端VNF12宛の出力先VNF12である。その結果、VNF12は、受信トラヒックの宛先に応じた予備の出力先VNF12に受信トラヒックを転送するため、トラヒック廃棄を回避できる。
VNF12は、受信トラヒックの宛先に応じた予備の転送経路がない場合(ステップS59否定)、受信トラヒックを廃棄し(ステップS61)、図11に示す処理動作を終了する。
図11に示す転送処理を実行するVNF12は、設定変更中に、受信トラヒックの宛先に応じた運用中の転送経路がある場合、受信トラヒックを運用中の出力先VNF12に転送する。その結果、VNF12は、設定変更中でも、受信トラヒックの宛先が運用中の転送経路に該当する場合、その受信トラヒックを転送できる。
VNF12は、設定変更中に、受信トラヒックの宛先に応じた運用中の転送経路がない場合でも、宛先に応じた予備の転送経路がある場合、受信トラヒックを予備の出力先VNF12に転送する。その結果、VNF12は、設定変更中でも、設定変更完了までの時間差によるトラヒック廃棄を回避できる。
本実施例の管理サーバ3は、仮想領域上に複数段に配置されたVNF群21から終端型のVNF群21を特定する。更に、管理サーバ3は、終端型のVNF群21にトラヒックを中継するVNF群21内のVNF12毎に、終端型VNF群21内の各終端型VNF12宛のトラヒックを出力する出力先のVNF12の予備の転送経路を抽出する。管理サーバ3は、終端型のVNF群21にトラヒックを中継するVNF12毎に終端型のVNF12宛の出力先のVNF12を予備の転送経路として設定する。その結果、各VNF12は、サービスチェインの構成が変更した場合でも、運用中の転送経路の他に、予備の転送経路も使用できるため、VNF12毎の設定変更完了までの時間差によるトラヒック廃棄を回避できる。
管理サーバ3は、仮想領域上にVNF群21を複数段に配置する際に複数段のうちの最前段のVNF群21の前段に配置する集約LB13Aを決定する。管理サーバ3は、集約LB13Aから複数段のVNF群12のうちの終端型のVNF群21内の各終端VNF12までの負荷に基づいて、運用の通信経路を決定する。管理サーバ3は、決定された運用の通信経路を仮想領域上に配置された集約LB13A及び各VNF12に設定する。その結果、LBの台数を減らすことで転送遅延を抑制できる。
管理サーバ3内の抽出部47は、集約LB13Aと終端型のVNF群21との間で終端型のVNF群21にトラヒックを中継するVNF12毎に、終端型のVNF12宛のトラヒックを出力する出力先のVNF12を抽出する。その結果、管理サーバ3は、VNF12毎に予備の転送経路を取得できる。
管理サーバ3内の比較部48は、終端型のVNF群21にトラヒックを中継するVNF12毎に、終端型のVNF12宛のトラヒックを出力する出力先のVNF12を抽出した後、抽出された出力先のVNF12の内、運用中の転送経路に関わる出力先のVNF12を削除する。その結果、管理サーバ3は、予備メモリ52内に重複した転送経路の登録を防止できる。
管理サーバ3は、例えば、図5に示すサービスチェイン20A内にFW1Eを追加するスケールアウトの構成要求を検出した場合、図7に示すFW1E追加前のVNF12毎の予備の転送経路又は運用中の転送経路を使用して受信トラヒックを転送した。その結果、VNF12は、スケールアウトの設定変更が生じた場合でも、設定変更の時間差によるトラヒック廃棄を回避できる。これに対して、管理サーバ3は、図8に示すサービスチェイン20B内のFW1Eを削除してサービスチェイン20Aに変更するスケールインの構成要求を検出したとする。管理サーバ3は、スケールインの設定変更が生じた場合でも、図9に示すFW1E追加後のVNF12毎の予備の転送経路又は運用中の転送経路を使用して受信トラヒックを転送できる。その結果、VNF12は、スケールインの設定変更が生じた場合でも、設定変更の時間差によるトラヒック廃棄を回避できる。
上記実施例では、図4に示すサービスチェイン構築処理を実行した後、図10に示す予備設定処理を実行したが、サービスチェイン構築処理と並列して予備設定処理を実行しても良く、適宜変更可能である。
図10に示す予備設定処理では、ステップS38にて指定VNF12の運用中の転送経路を予備メモリ52から削除したが、予備メモリ52内に運用中の転送経路を削除しなくても良く、適宜変更可能である。
予備設定処理では、ステップS35にて経路上のVNF12を指定し、指定VNF12毎に転送経路同士の比較を実行したが、個別にVNF12を指定するのではなく、一括でVNF12を指定して転送経路同士の比較処理を一括で実行しても良い。
図5に示すサービスチェイン20Aでは、VNF#1〜VNF#3の3段に配置する構成としたが、これに限定されるものではなく、適宜変更可能である。
サービスチェイン20Aでは、最終段のVNF#3のProxy1A〜Proxy1Cを終端VNF12としたが、最後段に限定されるものではなく、例えば、サービスチェインを第1のVNF群21から第10のVNF群21までの10段構成としても良い。しかも、集約LB群22から第10のVNF群21までの10段構成とし、例えば、第3のVNF群21及び第10のVNF群21を終端のVNF群21とする。この場合、管理サーバ3は、集約LB群22と第3のVNF群21との間のVNF12毎に第3のVNF群21内の各終端VNF12宛の予備の転送経路を抽出し、その抽出した予備の転送経路を予備メモリ52に登録する。その結果、集約LB群22と第3のVNF群21との間の第3のVNF群21内の終端VNF12宛のトラヒックを中継する経路上のVNF12は、運用中及び予備の転送経路を使用して設定変更の時間差によるトラヒック廃棄を回避できる。
また、第3のVNF群21と第10のVNF群21との間のVNF12毎に第10のVNF群21内の各終端VNF12宛の予備の転送経路を抽出し、抽出した予備の転送経路を予備メモリ52に登録する。その結果、第3のVNF群21と第10のVNF群21との間の第10のVNF群21内の終端VNF12宛のトラヒックを中継する経路上のVNF12は、運用中及び予備の転送経路を使用して設定変更の時間差によるトラヒック廃棄を回避できる。
上記実施例のサービスチェイン20Aでは、最前段に集約LB群22を配置する構成としたが、最前段に加えて、途中に集約LB群22を配置しても良く、適宜変更可能である。
実施例では、サービスチェイン内の負荷分散対象のVNF群21内の各VNF12のトラヒック量を均等にすべく、各VNF12のトラヒック割合及び集約LB13Aの分配割合を算出した。しかしながら、負荷分散対象のVNF群21内のVNF12に限定されるものではなく、サービスチェイン内の全てのVNF群21の全VNF12の負荷を均等にすべく、各VNF12のトラヒック割合及び集約LB13Aの分配割合を算出しても良い。また、管理サーバ3は、各VNF12の転送経路を決定した後、各VNF12のトラヒック割合を算出したが、VNF12毎の転送経路及びトラヒック割合を同時に算出しても良い。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
更に、各装置で行われる各種処理機能は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等上で、その全部又は任意の一部を実行するようにしても良い。また、各種処理機能は、CPU等で解析実行するプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしても良い。
各種情報を記憶する領域は、例えば、ROM(Read Only Memory)や、SDRAM(Synchronous Dynamic Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)やNVRAM(Non Volatile Random Access Memory)等のRAM(Random Access Memory)で構成しても良い。
ところで、本実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータ内のCPU等のプロセッサで実行させることによって実現できる。そこで、以下では、上記実施例と同様の機能を有するプログラムを実行する情報処理装置100の一例を説明する。図12は、設定プログラムを実行する情報処理装置100の一例を示す説明図である。
図12に示す設定プログラムを実行する情報処理装置100は、通信部110と、HDD(Hard Disc Drive)120と、ROM130と、RAM140と、CPU150とを有する。通信部110、HDD120、ROM130、RAM140及びCPU150は、バス160を介して接続される。通信部110は、図示せぬ他の情報処理装置と接続し、他の情報処理装置と通信する。そして、情報処理装置100は、他の情報処理装置と通信し、他の情報処理装置内の仮想領域上に仮想通信機能群を複数段に配置してサービスチェインを構成する。
そして、ROM130には、上記実施例と同様の機能を発揮する管理プログラムが予め記憶されている。ROM130は、設定プログラムとして特定プログラム130A、抽出プログラム130B及び設定プログラム130Cが記憶されている。尚、ROM130ではなく、図示せぬドライブでコンピュータ読取可能な記録媒体に管理プログラムが記録されていても良い。また、記録媒体としては、例えば、CD−ROM、DVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ等でも良い。
そして、CPU150は、特定プログラム130AをROM130から読み出し、RAM140上で特定プロセス140Aとして機能させる。更に、CPU150は、抽出プログラム130BをROM130から読み出し、RAM140上で抽出プロセス140Bとして機能させる。更に、CPU150は、設定プログラム130CをROM130から読み出し、RAM140上で設定プロセス140Cとして機能させる。
CPU150は、複数段に配置された通信機能を実現する仮想マシン群の中からパケットを終端する終端型の仮想マシンを特定する。CPU150は、終端型の仮想マシンにトラヒックを中継する仮想マシン毎に、終端型の仮想マシン宛のトラヒックを出力する出力先の仮想マシンを含む予備の通信経路を抽出する。CPU150は、終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、抽出された前記予備の通信経路を設定する。その結果、サービスチェインの設定変更完了までの時間差による仮想通信機能のトラヒック廃棄を回避できる。
3 管理サーバ
20A、20B サービスチェイン
44 設定部
45 第1の特定部
46 第2の特定部
47 抽出部
48 比較部
VNF#1〜VNF#3 VNF群
LB1A、LB1B 集約LB群

Claims (6)

  1. 複数段に配置された通信機能を実現する仮想マシン群の中からパケットを終端する終端型の仮想マシンを特定し、
    前記終端型の仮想マシンにトラヒックを中継する仮想マシン毎に、前記終端型の仮想マシン宛のトラヒックを出力する出力先の仮想マシンを含む予備の通信経路を抽出し、
    前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、抽出された前記予備の通信経路を設定する
    処理を実行することを特徴とする設定方法。
  2. 前記仮想マシン群を複数段に配置する際に前記複数段のうちの最前段の仮想マシン群の前段に配置する分散機能を実現する分散型の仮想マシンを決定し、
    前記分散型の仮想マシンから前記終端型の仮想マシンまでの負荷に基づいて、運用の通信経路を決定し、
    決定された前記運用の通信経路上に配置された前記分散型の仮想マシン及び前記各仮想マシンに設定する
    処理を更に実行することを特徴とする請求項1に記載の設定方法。
  3. 前記抽出する処理として、
    前記分散型の仮想マシンと前記終端型の仮想マシンとの間で前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、前記予備の通信経路を抽出することを特徴とする請求項2に記載の設定方法。
  4. 前記抽出する処理として、
    前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、前記予備の通信経路を抽出した後、抽出された前記予備の通信経路の内、前記運用の通信経路を削除することを特徴とする請求項2に記載の設定方法。
  5. 前記特定する処理として、
    前記仮想マシン群の構成変更を検出した場合に、前記仮想マシン群の中から前記終端型の仮想マシンを特定することを特徴とする請求項1に記載の設定方法。
  6. 複数段に配置された通信機能を実現する仮想マシン群の中からパケットを終端する終端型の仮想マシンを特定する特定部と、
    前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、前記終端型の仮想マシン宛のトラヒックを出力する出力先の仮想マシンを含む予備の通信経路を抽出する抽出部と、
    前記終端型の仮想マシンにトラヒックを中継する前記仮想マシン毎に、抽出された前記予備の通信経路を設定する設定部と
    を有することを特徴とするサーバ装置。
JP2016203114A 2016-10-14 2016-10-14 設定方法及びサーバ装置 Active JP6772751B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016203114A JP6772751B2 (ja) 2016-10-14 2016-10-14 設定方法及びサーバ装置
US15/727,821 US10802859B2 (en) 2016-10-14 2017-10-09 Setting method for server apparatus and server apparatus for load balancing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203114A JP6772751B2 (ja) 2016-10-14 2016-10-14 設定方法及びサーバ装置

Publications (2)

Publication Number Publication Date
JP2018064251A true JP2018064251A (ja) 2018-04-19
JP6772751B2 JP6772751B2 (ja) 2020-10-21

Family

ID=61904617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203114A Active JP6772751B2 (ja) 2016-10-14 2016-10-14 設定方法及びサーバ装置

Country Status (2)

Country Link
US (1) US10802859B2 (ja)
JP (1) JP6772751B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020040256A1 (ja) * 2018-08-24 2020-02-27 日本電信電話株式会社 管理システム及び管理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10826797B2 (en) * 2017-12-15 2020-11-03 Foundation Of Soongsil University Industry Cooperation System and method for processing network packets based on NFV for ensuring high availability

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013065477A1 (ja) * 2011-11-01 2013-05-10 株式会社日立製作所 通信システム
JP2015154325A (ja) * 2014-02-17 2015-08-24 日本電信電話株式会社 装置選択ネットワークシステム、装置選択サーバおよびプログラム
US20150381478A1 (en) * 2014-06-27 2015-12-31 Futurewei Technologies, Inc. Proxy for port to service instance mapping
JP2016046736A (ja) * 2014-08-25 2016-04-04 日本電信電話株式会社 サービスチェイニングシステム、サービスチェイニングフォワーダ装置、及びサービスチェイニング方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4209758B2 (ja) * 2003-11-20 2009-01-14 富士通株式会社 迂回通信経路設計方法
JP4508984B2 (ja) * 2005-08-26 2010-07-21 富士通株式会社 複数エリアに分割されるネットワークにおけるパス設定方法及び通信装置
US7793101B2 (en) * 2006-10-19 2010-09-07 Novell, Inc. Verifiable virtualized storage port assignments for virtual machines
CN102792645B (zh) 2010-03-24 2016-02-03 日本电气株式会社 信息系统、控制设备以及管理虚拟网络的方法
JP5776600B2 (ja) * 2011-09-05 2015-09-09 富士通株式会社 データ中継装置、データ中継プログラムおよびデータ中継方法
US8966479B2 (en) * 2012-02-10 2015-02-24 Vmware, Inc. Application-specific data in-flight services along a communication path selected based on a DIF services policy associated with a VM
US9178715B2 (en) * 2012-10-01 2015-11-03 International Business Machines Corporation Providing services to virtual overlay network traffic
US9304878B2 (en) * 2012-10-11 2016-04-05 Vmware, Inc. Providing multiple IO paths in a virtualized environment to support for high availability of virtual machines
US9806979B1 (en) * 2013-12-19 2017-10-31 Amdocs Software Systems Limited System, method, and computer program for optimizing a chain of virtual network functions in a network based on network function virtualization (NFV)
CN105379191B (zh) * 2014-01-29 2019-08-06 华为技术有限公司 虚拟网络功能的升级方法和网络功能虚拟化编排器
US9501307B2 (en) * 2014-09-26 2016-11-22 Comcast Cable Communications, Llc Systems and methods for providing availability to resources
JP6507572B2 (ja) 2014-10-31 2019-05-08 富士通株式会社 管理サーバの経路制御方法、および管理サーバ
US9985877B2 (en) * 2015-05-28 2018-05-29 Avago Technologies General Ip (Singapore) Pte. Ltd. Customer premises equipment virtualization
EP3148125A1 (en) * 2015-09-25 2017-03-29 Fujitsu Limited Setting method, server device and service chain system
US10148564B2 (en) * 2016-09-30 2018-12-04 Juniper Networks, Inc. Multiple paths computation for label switched paths

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013065477A1 (ja) * 2011-11-01 2013-05-10 株式会社日立製作所 通信システム
JP2015154325A (ja) * 2014-02-17 2015-08-24 日本電信電話株式会社 装置選択ネットワークシステム、装置選択サーバおよびプログラム
US20150381478A1 (en) * 2014-06-27 2015-12-31 Futurewei Technologies, Inc. Proxy for port to service instance mapping
JP2016046736A (ja) * 2014-08-25 2016-04-04 日本電信電話株式会社 サービスチェイニングシステム、サービスチェイニングフォワーダ装置、及びサービスチェイニング方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
加納 慎也 SHINYA KANO: "GMPLSアーキテクチャによる光網の高速障害復旧方式 Fast Fault Recovery Method for Optical Network", 電子情報通信学会技術研究報告 VOL.103 NO.67 IEICE TECHNICAL REPORT, vol. 第103巻, JPN6020019284, 15 May 2003 (2003-05-15), JP, ISSN: 0004336828 *
西島 孝通 TAKAMICHI NISHIJIMA: "LB集約を用いたNFVスケーラブルサービスチェインの試作開発", 電子情報通信学会2016年総合大会講演論文集 通信2 PROCEEDINGS OF THE 2016 IEICE GENERAL CONFEREN, JPN6020019286, 1 March 2016 (2016-03-01), ISSN: 0004336829 *
西島 孝通 TAKAMICHI NISHIJIMA: "仮想リソース消費を削減するNFVスケーラブルサービスチェイン方式の提案 Proposal for NFV scalable se", 電子情報通信学会技術研究報告 VOL.115 NO.404 IEICE TECHNICAL REPORT, vol. 第115巻, JPN6020019287, JP, ISSN: 0004336830 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020040256A1 (ja) * 2018-08-24 2020-02-27 日本電信電話株式会社 管理システム及び管理方法

Also Published As

Publication number Publication date
US10802859B2 (en) 2020-10-13
JP6772751B2 (ja) 2020-10-21
US20180107504A1 (en) 2018-04-19

Similar Documents

Publication Publication Date Title
US10129152B2 (en) Setting method, server device and service chain system
US11843657B2 (en) Distributed load balancer
US9762494B1 (en) Flow distribution table for packet flow load balancing
EP2845372B1 (en) Two level packet distribution with stateless first level packet distribution to a group of servers and stateful second level packet distribution to a server within the group
US9929945B2 (en) Highly available service chains for network services
JP6030807B2 (ja) 分散型ロードバランサでの接続公開
JP6169251B2 (ja) 分散型ロードバランサにおける非対称パケットフロー
US8432791B1 (en) Network route injections
US20170019303A1 (en) Service Chains for Network Services
US10505977B2 (en) Diffusing denial-of-service attacks by using virtual machines
US7492708B2 (en) Traffic balancing apparatus and method, and network forwarding apparatus and method using the same
US20160028855A1 (en) Systems and methods for application specific load balancing
US20160218960A1 (en) Multipath bandwidth usage
JP6772751B2 (ja) 設定方法及びサーバ装置
US20180165114A1 (en) Control device and control method
JP6717122B2 (ja) サービスチェイン構築方法及びサーバ装置
JP6724651B2 (ja) サーバ装置及び仮想通信構築方法
JP2017063409A (ja) 設定方法、サーバ装置及びサービスチェインシステム
US11128695B1 (en) Traffic load balancing between a plurality of points of presence of a cloud computing infrastructure
US11546251B2 (en) System and method for securing communication between devices on a network with multiple access points
US20210211381A1 (en) Communication method and related device
CN113315711A (zh) 一种表项更新方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6772751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150