JPWO2015141337A1 - 受信パケット分散方法、キュー選択器、パケット処理装置、プログラム、およびネットワークインタフェースカード - Google Patents

受信パケット分散方法、キュー選択器、パケット処理装置、プログラム、およびネットワークインタフェースカード Download PDF

Info

Publication number
JPWO2015141337A1
JPWO2015141337A1 JP2016508595A JP2016508595A JPWO2015141337A1 JP WO2015141337 A1 JPWO2015141337 A1 JP WO2015141337A1 JP 2016508595 A JP2016508595 A JP 2016508595A JP 2016508595 A JP2016508595 A JP 2016508595A JP WO2015141337 A1 JPWO2015141337 A1 JP WO2015141337A1
Authority
JP
Japan
Prior art keywords
queue
packet
cpu
received packet
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016508595A
Other languages
English (en)
Inventor
修一 佐伯
修一 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2015141337A1 publication Critical patent/JPWO2015141337A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • G06F13/12Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/22Parsing or analysis of headers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/46Interconnection of networks
    • H04L12/4641Virtual LANs, VLANs, e.g. virtual private networks [VPN]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Information Transfer Systems (AREA)

Abstract

CPUコア数に応じてユーザデータパケットの処理能力をスケールさせるために、キュー選択器は、ユーザデータパケットを受信パケットとして受信する受信手段と、受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、抽出したユーザIPアドレスのハッシュ値を計算し、ハッシュ値に基づいて、受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、CPU使用率に基づいて、選択したキュー番号を、受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、決定したキュー番号のキューに受信パケットを格納する格納手段と、を備える。

Description

本発明は、携帯端末からのユーザデータパケットを受信して処理するパケット処理装置に関し、特に、外部から入力されるユーザデータパケットを、バーチャルマシンに割り当てられた複数のCPU(central processing unit)コアへ適切に分散する受信パケット分散方法、キュー選択器、パケット処理装置、および記録媒体に関する。
近年、LTE(Long Term Evolution)等を収容するEPC(Evolved Packet Core)等のモバイルネットワークを、NFV(Network Functions Virtualization)等で仮想化することが検討されている。この場合、携帯端末からのユーザデータパケットを受信して処理するデータブレーンパケット処理装置は、バーチャルマシン上で実現される。
ここで、NFVとは、ネットワークを制御する通信機器の機能をソフトウェアとして実装し、汎用サーバの仮想化されたOS(operating system)上で実行する方式をいう。
EPCでは、3GPP(3rd Generation Partnership Project)で規定されている既存2G/3G網を収容しつつ、新たなLTEアクセス網を収容する能力を持つ。EPCは、さらにはWLAN(wireless Local Area Network)やWiMAX(Worldwide Interoperability for Microwave Access)、3GPP2などのnon−3GPPアクセスを含めた多様なアクセスネットワークを収容することができる。EPCは、MME(Mobility Management Entity)、S−GW(Serving Gateway)、P−GW(Packet data network gateway)から構成され、さらには、S−GW/P−GWの統合型のゲートウェイも提供可能である。
ここで、MMEとは、LTE端末の位置登録や着信時の端末呼び出し処理、無線基地局間ハンドオーバといったモビリティ管理を行うノードである。S−GWは、LTEおよび3Gシステムへアクセスを行う携帯端末の音声やパケットなどのユーザデータを処理するノードである。P−GWは、コアネットワークとIMS(IP Multimedia Subsystem)あるいは外部パケット網とのインタフェースを持つノードである。なお、IMSは、マルチメディアアプリケーションをIP(internet protocol)で実現するためのサブシステムである。
NFVの仮想化においては、図1に示される矩形で囲んだ部分である、LTE基地局を収容するモバイルコアネットワーク装置(EPC)の、モビリティ制御などを担うMME、加入者情報を管理するHSS(Home Subscriber Server)、ポリシーによって通信機能を制御するPCRF(Policy and Charging Pules Function)、パケットを伝送するS/P−GWの機能を、オールインワンで汎用IA(Intel Architecture)サーバの仮想化基盤上で実現する。
尚、IAサーバとは、通常のパーソナルコンピュータと同様のアーキテクチャをベースに、IntelのIA−32またはIA−64系のCPU(central processing unit)や、AMD(Advanced Micro Devices,Inc.)などのインテル互換CPUを搭載したサーバのことである。IAサーバはPCサーバとも呼ばれる。PCサーバは、パーソナルコンピュータ(PC)を基本に設計・製造されたサーバである。
なお、図1において、eNB(evolved NodeB)は、LTEにおける無線基地局(e−NodeB)である。また、図中の携帯端末は、いわゆるガラパゴス携帯、スマートフォン、タブレット端末を想定している。
前述したように、NFVは、専用ハードウェアで実現されていたモバイルコア等のネットワークを汎用サーバのソフトウェアで実現できることを目的としている。データプレーンパケット処理装置は、汎用サーバに搭載されたマルチコアCPU上で仮想化されたバーチャルマシン上のソフトフェアとして実現される。マルチコアCPUは、複数のCPUコアを備える。
マルチコアCPU上で、データプレーンパケット処理装置の処理能力を向上させるためには、複数のCPUコアでパケット処理動作を行い、さらにそのCPUコア数に応じて性能をスケールさせる必要がある。
使用するCPUコア数に応じた性能スケールをソフトウェア処理で実現するには、通常、次の方法が採用される。まず、汎用サーバにおけるパケット受信部であるNIC(Network Interface Card)から、バーチャルマシン上の受信専用CPUコアにてパケットを刈り取る。次に、そのパケットを各CPUコア(パケット処理コア)に振り分ける。そして、それらのパケットを受け取った各々のCPUコア(パケット処理コア)にてパケット処理する。
ここで、性能を向上させるためには、外部から入力されるユーザデータパケット(受信パケット)を、バーチャルマシンに割り当てられた複数のCPUコアへ適切に配分(分散)することが必要である。
このような受信パケットを分散する方法に関する先行技術(関連技術)は、従来から種々知られている。
例えば、特開2010−226275号公報(特許文献1)は、マルチコアプロセッサを利用してパケットを処理する際、マルチコアプロセッサのリソースを有効利用できるようにした、「通信装置」を開示している。
この特許文献1に開示された通信装置では、複数のマルチコアプロセッサ部の内のどのマルチコアプロセッサ部へデータパケットを出力するべきかを決定する場合、IPデータパケットの「あて先IPアドレス」、「ソースIPアドレス」、「プロトコル番号」などの情報からハッシュ関数を用いて算出した値をもとに、出力先のマルチコアプロセッサ部を決定する方式を採用している。マルチコアプロセッサ部の内部には複数のコアが配置されている。各コアはそれぞれ複数のスレッドを同時に実行できる構成となっている。受信コントロール部は、新規に受信したデータパケットをメインメモリにストアすると共に、ワークコントロール部に対して上記データパケットの処理をワークという形で受け渡し、ワークに対するスレッドの割り当てを依頼する機能を有する。
また、特開2011−077746号公報(特許文献2)は、各コアがパケットを最大限に並列処理可能な、「ネットワーク中継装置」を開示している。
特許文献2に開示されたネットワーク中継装置は、受信待ちキューと、下位フロー識別部と、上位フロー識別待ちキューと、転送処理待ちキューと、上位フロー識別/転送処理部と、送信待ちキューとから構成されている。ネットワーク中継装置がパケットを受信したとき、受信待ちキューにパケットを一時的に保持する。下位フロー識別部は受信待ちキューからパケットを1つ取り出し、例えばIPヘッダの送信元IPアドレスや宛先IPアドレスなどのヘッダ情報を用いてハッシュ関数を計算し、計算したハッシュ関数により、下位フロー毎に上位フロー識別待ちキューにパケットを振り分ける。上位フロー識別/転送処理部は、上位フロー識別処理を転送処理の2つの処理を1つのコア上同居させた処理部である。本実施例においてマルチコアCPUを用いたが、複数のCPUを用いて実施してもよい。
さらに、特開2009−239374号公報(特許文献3)は、複数の仮想計算機におけるVNIC(Virtual Network Interface Card)のパケット送信遅延を少なくする、「仮想計算機システム」を開示している。
特許文献3に開示された仮想計算機システムにおいて、複数の仮想計算機と物理NICとは共通バスにより相互接続されている。これら仮想計算機の各々は仮想ネットワークインタフェースカード(VNIC)を有している。物理ネットワークインタフェースカード(物理NIC)は、共通バスに接続されてVNICにより共有(共用)されている。物理NICは、ネットワークから受信したパケットについて受信した順番で処理を行う。ネットワークからネットワークI/Fが、受信バケット番号1(以下単に番号1と称す)の受信パケットデータを受信すると、受信バッファにこの受信パケットデータを格納する。受信バッファは、格納された番号1の受信パケットデータから受信対象のIPアドレスデータを抜き出し、この受信パケットのIPアドレスに対応する受信キューを選択する。
さらにまた、特開2011−141587号公報(特許文献4)は、ネットワークにアップロードした単一の情報量の多いデータに対して、応答時間を短縮する、「分散処理システム」を開示している。
特許文献4に開示された分散処理システムは、受付応答装置と、分断統合装置と、複数の処理装置と、1つ以上のキュー監視装置と、を含んで構成される。受付応答装置は、ユーザ端末からネットワークを介してデータ(アップロードデータ)を受信する。分断統合装置は、受付応報装置が受け付けたデータを取得して、そのデータを分断して断片データを生成し、さらに処理された断片データを統合する。複数の処理装置は、断片データを取得し、データ処理を行う。1つ以上のキュー監視装置は、分断統合装置から出力された断片データを取得してキューとして記憶し、処理装置からの要求により断片データを処理装置に送信する。処理装置は、キュー管理装置から断片データを取得し、その取得した断片データに対し所定のデータ処理を実行する。この処理装置は、キュー選択部と、断片データ取得部と、データ処理部と、断片データ結果出力部とを含んで構成される。キュー選択部は、断片データの取得元となるキュー管理装置を選択する。このときのキュー管理装置の選択は、例えば、ラウンドロビン法等の分散アルゴリズムを用いて行われる。断片データ取得部は、キュー選択ぶにより選択されたキュー管理装置に、断片データの取得要求を送信し、キュー管理装置から断片データを取得する。
特開2010−226275号公報([0013]、[0015] 特開2011−077746号公報([0013]、[0015]、[0023]、[0024]) 特開2009−239374号公報(図1、図9、[0025]、[0069]、[0070]) 特開2011−141587号公報(図1、[0031]−[0033]、[0055]−[0057])
汎用サーバをNFVにて仮想化し、それ上のバーチャルマシンにてユーザデータ処理装置を構成する場合、スループット性能に課題がある。その理由は、ネットワーク専用ハードウェアで構成されたユーザデータ処理装置と異なり、全ての機能をソフトウェアで実現するためである。
例えば、バーチャルマシンにて構成したユーザデータ処理装置は、SRIOV(Single Root I/O Virtualization)のような汎用機能を使い、VF(Virtual Function)パススルー機能を使うことで、Guset OS(バーチャルマシン)側からホストOSを経由せず直接NIC経由で外部との通信が可能となる。このため、ホストOS側との通信に必要なオーバーヘッドを排除することができ、性能を向上させることができる。しかしながら、外部から入力されるユーザパケットデータをバーチャルマシンに割り当てられた複数のCPUコアへ適切に分配できなければ、CPUコア数に応じて性能がスケールできない課題がある。何故ならば、特定のCPUコアに処理負荷が偏り、全てのCPUコアリソースを使い切ることができないからである。CPUコアが1つであれば、問題がないが、マルチコアプロセッサ上でCPUコア数に比例して性能を向上させることができない。
関連技術では、複数のCPUコアとして、複数のパケット処理コアとは別に受信専用コアを配備し、例えば、上記特許文献4に開示されているように、本受信専用コアで各パケット処理コアにラウンドロビンロジック等で受信パケットを分配することで分散することが可能である。しかしながら、受信されるパケット長等のぱらつきにより、特定のパケット処理コアにロングパケットあるいはショートパケットが集中的に分配される可能性がある。パケットサイズにより1パケットあたりのCPUコアの負荷は変動する。そのため、CPUコア負荷の観点からは、結果として偏りが発生し、CPUコア数に比例して性能スケールさせることができない。その結果、処理能力を最大化することはできない。
また、受信専用コアによる分配ロジックを変更し、これらの課題を解決しようとすることも考えられる。しかしながら、この場合、分配ロジックが複雑になるため分配能力が低下し、分散可能となるCPUコア(パケット処理コア)の数が減少し、スケールできるCPUコア数が制限される。その結果として、マルチコアプロセッサ上での性能を最大化できない課題がある。
ラウンドロビンのような単純なロジックでも、パケットを受信し、転送先のCPUコア(パケット処理コア)を決定し、パケットを転送する処理が発生する。そのため、転送先のCPUコア(パケット処理コア)が増えた場合、パケット転送の際に発生する各CPUコア(パケット処理コア)間の排他制御が増大し、受信専用コアがボトルネックとなり、性能スケールできない課題がある。
また、EPC等のモバイルネットワークで使用されるユーザデータは、GTP(General Tunnel Protocol)でカプセル化され、ノード装置間通信用のノードIPアドレスが付与され、このノードIPアドレスを使って通信される。このノードIPアドレスは、パケットを受信する装置としては全て同じ送信先IPアドレスになる。汎用NICに実装されているRSS(Receive Side Scaling)機能を使い、NIC側でIPアドレスに従って、分散させることは可能である。しかしながら、EPC等のモバイルネットワークで使用するノードIPアドレスは、パケット処理装置としては同じ値になるため、事実上分散させることはできない課題がある。
さらに、分散させたいユーザIPアドレスはカプセル化されたパケットのペイロード中に存在するため、汎用NICに具備されているRSS機能ではユーザIPアドレスを参照できない課題がある。
以上を纏めると、関連のNFV等の技術を使った仮想化環境上で構成される、パケット処理装置における受信パケットの負荷分散方法には、次のような課題がある。
第1の課題は、関連技術の装置では、受信専用コアとしてCPUコアリソースを占有し、さらにパケット処理コアと受信専用コアとの間のパケット授受によるオーバーヘッドにより、1CPUコアあたりのパケット処理性能が劣化することである。その理由は、次の通りである。SRIOV等の機能を使いNIC上に複数のVFを構築した場合、VF上の受信パケットキューは1つしか構成できない。そのため、この受信パケットをNICの受信パケットキューから刈り取る受信専用コアを配備しなければならない。
第2の課題は、携帯端末単位でのパケットの分散ができず、特定の受信パケットキューあるいはパケット処理コアに負荷が集中してしまい、パケット処理するCPUコアを増やしても、CPUコア数に応じてパケット処理性能がスケールできないことである。その理由は、次の通りである。NIC上のPF(Physical Function)機能と同様にVF上で複数の受信パケットキューを構築し、RSS機能により各受信パケットキューにパケットを分散することができるNICカードが実現できたとする。その場合でも、EPC等のモバイルネットワークにおけるユーザパケットデータは、GTPにてカプセル化される。そのため、携帯端末のIPアドレスはペイロード中に格納され、パケットのヘッダに付与されるIPアドレスは、EPC内部の各ノード間で送受信するためのノードIPアドレスである。その結果、標準的にNICに具備されているRSS機能では、このノードIPアドレスに基づいてしか、NICの各受信パケットキューに受信パケットを分散させることが出来ない。
第3の課題は、ユーザの利用形態あるいはアプリケーションの特性に応じて、各パケット処理コアの負荷は平滑化することができず、パケット処理するCPUコアの数を増やしても、CPUコア数に応じてパケット処理性能がスケールできないことである。その理由は、次の通りである。携帯端末のユーザIPアドレスベースでのパケット分散ができたとしても、ユーザパケットデータ長は一定ではなく、ユーザ毎あるいはアプリケーション毎にパケット長が異なる。その結果、処理するパケットデータの長が異なると、CPUコアの負荷もパケット毎に変動する。
なお、特許文献1は、単に、IPデータパケットの情報からハッシュ関数を用いて算出した値をもとに、出力先のマルチコアプロセッサ部を決定する、技術的思想を開示しているに過ぎない。
特許文献2は、単に、パケットを受信したとき、受信待ちキューにパケットを一時的に保持し、受信待ちキューからパケットを1つ取り出し、取り出したパケットのIPヘッダのヘッダ情報を用いてハッシュ関数を計算し、計算したハッシュ値により、下位フロー毎に上位フロー識別待ちキューにパケットを振り分け、上位フロー識別待ちキューにあるパケットを刈り取って、上位フロー識別処理を行う、技術的思想を開示しているに過ぎない。
特許文献3は、単に、受信パケットデータから受信対象のIPアドレスデータを抜き出し、この受信パケットのIPアドレスに対応する受信キューを選択する、技術的思想を開示しているに過ぎない。
特許文献4は、前述したように、単に、キュー管理装置の選択を、ラウンドロビン法等の分散アルゴリズムを用いて行う、技術的思想を開示しているに過ぎない。
本発明の目的は、CPUコア数に応じてユーザデータパケットの処理能力をスケールさせることができる、受信パケット分散方法、キュー選択器、パケット処理装置、および記録媒体を提供することにある。
本発明の一形態は、携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散する受信パケット分散方法であって、前記ユーザデータパケットを前記受信パケットとして受信し、前記受信パケットのペイロードに位置するユーザIPアドレスを抽出し、該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択し、前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定し、該決定したキュー番号のキューに前記受信パケットを格納すること、を特徴とする。
本発明によれば、CPUコア数に応じてユーザデータパケットの処理能力をスケールさせることができる。
図1は、モバイルネットワークをNFVで仮想化する例を説明する図である。
図2は、本発明の第1の実施例に係るパケット処理装置の構成を示すブロック図である。
図3は、図2に示したパケット処理御装置に使用される、判定デーブルの一例を示す図である。
図4は、図2に示したパケット処理御装置に使用される、キュー選択器の構成を示すブロック図である。
図5は、図2に示したパケット処理御装置に使用される、キュー選択器の動作を説明するためのフローチャートである。
[関連技術]
本発明の理解を容易にするために、以下では本発明に関連する技術について説明する。
前述したように、LTE(Long Term Evolution)等を収容するEPC(Evolved Packet Core)等のモバイルネットワークをNFV(Network Functions Virtualization)等で仮想化することがある。この場合、携帯端末からのユーザデータパケットを処理するデータブレーンパケット処理装置は、バーチャルマシン上で実現される。
NFVは、専用ハードウェアで実現されていたモバイルコア等のネットワークを汎用サーバのソフトウェアで実現できることを目的としている。データプレーンパケット処理装置は、汎用サーバに搭載されたマルチコアCPU上で仮想化されたバーチャルマシン上のソフトフェアとして実現される。マルチコアCPUは、複数のCPUコアを備える。
マルチコアCPU上で、データプレーンパケット処理装置の処理能力を向上させるためには、複数のCPUコアでパケット処理動作を行い、さらにそのCPUコア数に応じて性能をスケールさせる必要がある。
使用するCPUコア数に応じた性能スケールをソフトウェア処理で実現するには、通常、次の方法が採用される。まず、汎用サーバにおけるパケット受信部であるNICから、バーチャルマシン上の受信専用コアにてパケットを刈り取る。次に、そのパケットを各CPUコア(パケット処理コア)に振り分ける。そして、それらのパケットを受け取った各々のCPUコア(パケット処理コア)にてパケット処理する。
しかしながらこの方法では、CPUコアをスケールさせる前に比べて、受信専用コアのCPUリソースを余計に消費し、また、分散させるCPUコアの数が増えた場合、受信専用コアがボトルネックとなり性能スケールができないという問題がある。
[実施の形態]
この問題を解決するために、本発明の実施形態では、図2に示すようなインテリジェントな機能を具備したネットワークインタフェースカード(NIC)11を使ったパケット処理装置10を構成する。
汎用サーバに挿入されたインテリジェントな機能を具備したNIC11で、ユーザデータパケットを受信すると、キュー選択器14は、パケットの振り分けを行い、各キュー15−0、・・・、15−mへパケットデータを積み込む。ここで、mは2以上の整数である。
この時、キュー選択器14は、判定テーブル13に従って、振り分け先を決定する。キュー選択器14は、判定テーブル13を参照して、第0乃至第mのCPUコア18−0、・・・、18−mから展開されるCPU使用率等に基づいて、適切なキューにパケットデータを振り分ける。
EPC等のモバイルコアネットワークでは、EPC等モバイルコアネットワーク装置間通信用のノードIPアドレスと、ユーザ毎に割り当てられるユーザIPアドレスと、の2種類のIPアドレスがある。ユーザデータパケットは、GTP(General Tunneling Protocol)にてカプセル化され、ノードIPアドレスが付与される。
汎用の物理NICでは、VF(Virtual Function)上のRSS(Receive Side Scaling)機能にてIPアドレスのハッシュ値を計算し、このハッシュ値に基づき分散を行うことが可能である。
しかしながら、EPC等のモバイルコアネットワークのユーザデータパケットは、通常、NICでは、ノードIPアドレスのハッシュ値に従ったパケット振り分けになる。このため、同一ネットワーク装置から送信される、あるいは同一ネットワーク装置に送信される、ユーザデータパケットを受信するケースにおいては、同一のCPUコアにユーザデータパケットが集中し、パケットの分散処理が期待通りに行われない。
ユーザIPアドレスは、パケットのペイロードに位置するため、汎用のNICのRSS機能では、ユーザIPアドレスのハッシュ値に従ったパケット振り分けができない。
そこで、本発明の実施形態では、判定テーブル13は、第0乃至第mのCPUコア18−0、・・・、18−mから展開された送信元ユーザIPアドレス、送信先ユーザIPアドレスに従って、振り分けるキュー15−0、・・・、15−mを決定したハッシュテーブルを作成する。
キュー選択器14は、受信したパケットのペイロード中に位置するユーザIPアドレスを抽出し、ハッシュ値を計算した後、判定テーブル13を参照し、受信したパケットを格納するキューを選択する。その後、キュー選択器14は、判定テーブル13におけるCPU使用率を参照する。選択したキューに割り当てられているCPUコアのCPU使用率が閾値以上の場合、キュー選択器14は、閾値以下のCPU使用率であるCPUコアの中で最も低いCPUコアに割り当てられるキューを決定する。
キュー選択器14は、決定したキューに受信パケットを格納する。全てのCPUコアのCPU使用率が閾値以上になった場合、キュー選択器14は、100%と古い閾値の間で新たな閾値を設定し、この新たな閾値に従って同様なキュー選択決定処理を行う。また、全てのCPUコア使用率が新たな閾値を超える場合、キュー選択器14は、同様に閾値の使用率100%に達するまで再設定を行い、これを繰り返す。
第0乃至第mのCPUコア18−0、・・・、18−mは、それぞれ、割り当てられているインテリジェントな機能を具備したNIC11上のキュー15−0、・・・、15−mをポーリングすることで、パケットを随時刈り取り、第0乃至第mのCPUコア18−0、・・・、18−mで引き取ったユーザデータパケットの処理を行う。
このように、本発明の実施形態では、インテリジェントな機能を具備したNIC11上に実装される判定テーブル13とキュー選択器14にて、各CPUコア18−0、・・・、18−mに受信したユーザデータパケットが分散され、各CPUコア18−0、・・・、18−mのCPUコアリソースが平滑化される。そのため、全てのCPUコアリソース使い切ることができ、CPUコア数に応じてユーザデータパケットの処理能力をスケールさせることが可能となる。
以下、図面を参照して、本発明の実施例とその動作について詳細に説明する。
図2は、本発明の第1の実施例に係るパケット処理装置10の構成を示すブロック図である。
パケット処理装置10は、インテリジェントな機能を具備したNIC11と、複数のパケット処理用バーチャルマシンとを備えている。図示の例では、複数のパケット処理用バーチャルマシンとして、第0のパケット処理用バーチャルマシン17−0乃至第nのパケット処理用バーチャルマシン(図示せず)の、合計(n+1)のパケット処理用バーチャルマシンを備えている。ここで、nは1以上の整数である。
図2において、インテリジェントな機能を具備したNIC11は、PF(Physical Function)16と、複数のVF(Virtual Function)12−0〜12−nとを具備する。PF16上には仮想的に複数のVF12−0〜12−nが構成され、各バーチャルマシン17−0・・・は各VF12−0〜12−nを使用してパケットを送受信することができる。本例では、複数のVFとして、第0のVF12−0乃至第nのVF12−nの、合計(n+1)個のVFを備えている。
第0乃至第nのVF12−0〜12−nの各々は、同じ構成をしている。したがって、以下では、第0のVF12−0を代表として説明し、他のVFについての説明を省略する。
第0のVF12−0は、判定テーブル13と、キュー選択器14と、複数のキュー15−0〜15−mとを備えている。図示の例では、複数のキューとして、第0のキュー15−0乃至第mのキュー15−mの、合計(m+1)個のキューを備えている。
一方、第0のパケット処理用バーチャネルマシン17−0は、複数のCPUコア18−0〜18−mを備えている。図示の例では、複数のCPUコアとして、第0のCPUコア18−0乃至第mのCPUコア18−mの、合計(m+1)個のCPUコアを備えている。
図2に示されるように、複数のキュー15−0〜15−mは、第0のパケット処理用バーチャルマシン17−0に割り当てられた複数のCPUコア18−0〜18−mにそれぞれ対応している。また、第0乃至第mのキュー15−0〜15−mには、それぞれ、#0〜#mのキュー番号が割り当てられている。
判定テーブル13は、図3に示されるように、複数のCPUコア18−0〜18−mごとにCPU使用率を格納する。図3に示す例では、第0のCPUコア18−0のCPU使用率は1%であり、第1のCPUコアのCPU使用率は20%であり、第mのCPUコア18−mのCPU使用率は5%である。
尚、判定テーブル13は、CPU使用率の他に、上述したような、複数のCPUコア18−0〜18−mから展開された送信元ユーザIPアドレス、送信先ユーザIPアドレスに従って、振り分けるキュー15−0〜15−mを決定したハッシュテーブルや、処理すべき対象となるユーザIPアドレス等の呼処理情報をも格納する。
本発明の実施形態によるパケット処理装置10は、インテリジェントな機能を有するNIC11内のキュー選択器14でユーザデータパケットを受信すると、後述のように、第0乃至第mのキュー15−0〜15−mのどのキューに受信パケットを格納すべきかを決定する。すなわち、キュー選択器14は、携帯端末からユーザデータパケットを受信パケットとして受信し、後述のように、複数のキュー15−0〜15−mへ、受信パケットを分配して格納する。
図4は、キュー選択器14の構成を示すブロック図である。キュー選択器14は、受信手段141と、抽出手段142と、計算・選択手段143と、決定手段144と、格納手段145とを備えている。
図5は、キュー選択器14の動作を説明するためのフローチャートである。
受信手段141は、ユーザデータパケットを受信パケットとして受信する(図5のステップS101)。抽出手段142は、受信パケットのペイロードに位置するユーザIPアドレスを抽出する(図5のステップS102)。計算・選択手段143は、抽出したユーザIPアドレスのハッシュ値を計算し、このハッシュ値に基づいて、受信データを格納すべきキューのキュー番号を選択する(図5のステップS103)。
決定手段144は、判定テーブル13を参照し(図5のステップS104)、CPU使用率に基づいて、後述のように、選択したキュー番号を、受信パケットを格納すべきキューのキュー番号とするか否かを決定する(図5のステップS105〜S109参照)。
格納手段145は、決定したキュー番号のキューに受信パケットを格納する(図5のステップS110)。
本実施形態では、このキューから受信パケットを刈り取ることによって、CPUコアの負荷分散を図っている。
次に、図5を参照して、決定手段144の動作について更に詳細に説明する。
ハッシュ値に基づくキュー番号を決定する前に、決定手段144は、判定テーブル13を参照し(ステップS104)、選択したキュー番号にアサインされたCPUコアの使用率が予め定められた閾値以下であることを確認した上で(ステップS105のYes)、キュー番号を決定する(ステップS106)。
ユーザIPアドレスに基づくハッシュ値により、受信パケットのキューへの分散を図っても、パケット長等のトラヒック特性等によりCPUコアの負荷は一様ではない。そのため、通常では、CPUコア毎に負荷の偏りが発生する。
判定テーブル13にてCPUコアのCPU使用率が閾値以上である場合(ステップS105のNo)、決定手段144は、閾値以下でもっとも使用率が低いCPUコアに割り当てられたキューのキュー番号を決定する(ステップS107のNo、ステップS109)。そして、格納手段145は、その決定したキュー番号のキューにその受信パケットを格納する(ステップS110)。
全てのCPUコアのCPU使用率が閾値以上の場合(ステップS107のYes)、決定手段144は、新たな閾値を決定(設定)し(ステップS108)、その新たな閾値に基づき同様の論理でキュー番号を決定する(ステップS107〜S109)。
尚、判定テーブル13には、パケット処理装置10のバーチャルマシン17−0に割り当てられた複数のCPUコア18−0〜18−mから定期的に送信される各CPUコアのCPU使用率の情報が格納される。
このようにして、本実施例では、各CPUコア18−0〜18−mの負荷を平滑化し、全てのCPUコアリソースを平等に使うことで、CPUコア数に応じ性能をスケールさせ、ハードウェアにおけるCPU性能の最大限に使用することができる。
図5を参照して、キュー選択器14の動作について説明する。
キュー選択器14は、ユーザデータパケットを受信パケットとして受信し(ステップS101)、受信パケット中のペイロード中に格納されているユーザIPアドレスを抽出し(ステップS102)、このIPアドレスのハッシュ値を計算することで格納すべきキューのキュー番号を選択する(ステップS103)。
キュー番号を決定する前に、キュー選択器14は、判定テーブル13を参照し(ステップS104)、この判定テーブル13に示される各CPUコアのCPU使用率の情報を参照し、閾値以下であることを確認し(ステップS105のYes)、閾値以下であればキュー番号を決定する(ステップS106)。
閾値以上であれば(ステップS105のNo)、キュー選択器14は、閾値以下で最もCPU使用率が低いCPUコアにアサインされたキューのキュー番号を選択し決定する(ステップS107のNo、ステップS109)。全てのCPUコアの使用率が閾値以上の場合(ステップS107のYes)、キュー選択器14は、再度新たな閾値を設定し(ステップS108)、同様の論理でキュー番号を決定する(ステップS107〜S109)。
各CPUコア18−0〜18−mは、対応するキュー15−0〜15−mに格納されたパケットを刈り取り、プロトコル処理等のパケット処理を行う。
以上説明したように、本発明の実施例においては、以下に記載するような効果を奏する。
第1の効果は、CPUコアリソースを使わずに受信パケットを分散でき、またパケットを分散する受信専用コア無しで受信パケットを分散することができ、CPUコアスケール時に受信専用コアのボトルネックを回避して、性能スケールが可能となることである。その理由は、NICカード上の判定テーブル13に対して、パケット処理装置10として割り当てられた各CPUコア18−0〜18−mのCPU使用率の情報、処理すべき対象となるユーザIPアドレス等の呼処理情報を随時登録し、この判定テーブル13に従って、NIC11で受信したパケット処理を行うCPUコアが担当すべきキューを決定するからである。
第2の効果は、携帯端末のユーザ単位に受信したパケットを各CPUコア18−0〜18−mに分散させ、各CPUコアの負荷を平準化することで、装置としてのパケット処理性能の最大化を実現できることである。その理由は、NIC11におけるキュー選択器14の機能にて受信パケットペイロードに位置するカプセル化されたユーザIPアドレスを検出し、判定テーブル13を参照し、このユーザIPアドレスのハッシュ値等に従って、受信パケットを格納するNIC上のキューを決定するからである。
第3の効果は、ユーザデータパケットのパケット長等のばらつきによるCPUコアの負荷の偏りを解消し、各CPUコアの負荷を平準化することで、装置としてのパケット処理性能の最大化を実現できることである。その理由は、各CPUコア18−0〜18−mから判定テーブル13にて集約されたダイナミックなCPU使用率に従い、CPU使用率がある一定以下のCPUコアを特定し、受信パケットを格納するNIC11上のキューを決定するからである。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散する方法であって、
前記ユーザデータパケットを前記受信パケットとして受信し、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出し、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択し、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定し、
該決定したキュー番号のキューに前記受信パケットを格納する、
受信パケット分散方法。
(付記2)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定することは、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記1に記載の受信パケット分散方法。
(付記3)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定することは、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記2に記載の受信パケット分散方法。
(付記4)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定することは、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記3に記載の受信パケット分散方法。
(付記5)
携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分配して格納するキュー選択器であって、
前記ユーザデータパケットを前記受信パケットとして受信する受信手段と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手段と、
を備えることを特徴とするキュー選択器。
(付記6)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定手段は、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記5に記載のキュー選択器。
(付記7)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定手段は、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記6に記載のキュー選択器。
(付記8)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定手段は、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記7に記載のキュー選択器。
(付記9)
携帯端末からのユーザデータパケットを受信パケットとして受信して処理するパケット処理装置であって、
それぞれキュー番号が割り当てられた複数のキューと、
該複数のキューにそれぞれ対応して、バーチャルマシンに割り当てられた複数のCPUコアと、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルと、
前記受信パケットを、前記判定テーブルを参照して、前記複数のキューの適切なキューに振り分けるキュー選択器と、
を備えることを特徴とするパケット処理装置。
(付記10)
前記キュー選択器は、
前記ユーザデータパケットを前記受信パケットとして受信する受信手段と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、
前記判定テーブルを参照し前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手段と、
を備える、付記9に記載のパケット処理装置。
(付記11)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定手段は、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記10に記載のパケット処理装置。
(付記12)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定手段は、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記11に記載のパケット処理装置。
(付記13)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定手段は、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記12に記載のパケット処理装置。
(付記14)
前記複数のCPUコアは、定期的に、それぞれのCPU使用率を前記判定テーブルに送信して格納する、付記10乃至13のいずれか1つに記載のパケット処理装置。
(付記15)
前記複数のCPUコアは、それぞれ、対応するキューに格納された受信パケットを刈り取り、パケット処理を行う、付記10乃至14のいずれか1つに記載のパケット処理装置。
(付記16)
コンピュータに、携帯端末からのユーザデータパケットを受信パケットとして受信させ、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記プログラムは前記コンピュータに、
前記ユーザデータパケットを前記受信パケットとして受信する受信手順と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手順と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手順と、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手順と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手順と、
を実行させる記録媒体。
(付記17)
携帯端末からのユーザデータパケットを受信パケットとして受信し、複数のバーチャルマシンの各々に割り当てられた複数のCPUコアへ、前記受信パケットを分散するネットワークインタフェースカード(NIC)であって、
前記ネットワークインタフェースカードは、複数のVF(Virtual Function)と一つのPF(Physical Function)とを具備し、前記PF上に仮想的に前記複数のVFが構成され、各バーチャルマシンは各VFを使用してパケットを送受信することができ、
各VFは、
前記複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューと、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルと、
前記受信パケットを、前記判定テーブルを参照して、前記複数のキューの適切なキューに振り分けるキュー選択器と、
を備えるネットワークインタフェースカード。
(付記18)
前記キュー選択器は、
前記ユーザデータパケットを前記受信パケットとして受信する受信手段と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、
前記判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手段と、
を備える、付記17に記載のネットワークインタフェースカード。
(付記19)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定手段は、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記18に記載のネットワークインタフェースカード。
(付記20)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定手段は、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記19に記載のネットワークインタフェースカード。
(付記21)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定手段は、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記20に記載のネットワークインタフェースカード。
10 パケット処理装置
11 インテリジェントな機能を具備したネットワークインタフェースカード(NIC)
12−0〜12−n VF(Virtual Function)
13 判定テーブル
14 キュー選択器
15−0〜15−m キュー
16 PF(Physical Function)
17−0 パケット処理用バーチャルマシン
18−0〜18−m CPUコア
この出願は、2014年3月19日に出願された日本出願特願2014−056036号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、携帯端末からのユーザデータパケットを受信して処理するパケット処理装置に関し、特に、外部から入力されるユーザデータパケットを、バーチャルマシンに割り当てられた複数のCPU(central processing unit)コアへ適切に分散する受信パケット分散方法、キュー選択器、パケット処理装置、および記録媒体に関する。
近年、LTE(Long Term Evolution)等を収容するEPC(Evolved Packet Core)等のモバイルネットワークを、NFV(Network Functions Virtualization)等で仮想化することが検討されている。この場合、携帯端末からのユーザデータパケットを受信して処理するデータブレーンパケット処理装置は、バーチャルマシン上で実現される。
ここで、NFVとは、ネットワークを制御する通信機器の機能をソフトウェアとして実装し、汎用サーバの仮想化されたOS(operating system)上で実行する方式をいう。
EPCでは、3GPP(3rd Generation Partnership Project)で規定されている既存2G/3G網を収容しつつ、新たなLTEアクセス網を収容する能力を持つ。EPCは、さらにはWLAN(wireless Local Area Network)やWiMAX(Worldwide Interoperability for Microwave Access)、3GPP2などのnon?3GPPアクセスを含めた多様なアクセスネットワークを収容することができる。EPCは、MME(Mobility Management Entity)、S?GW(Serving Gateway)、P?GW(Packet data network gateway)から構成され、さらには、S?GW/P?GWの統合型のゲートウェイも提供可能である。
ここで、MMEとは、LTE端末の位置登録や着信時の端末呼び出し処理、無線基地局間ハンドオーバといったモビリティ管理を行うノードである。S?GWは、LTEおよび3Gシステムへアクセスを行う携帯端末の音声やパケットなどのユーザデータを処理するノードである。P?GWは、コアネットワークとIMS(IP Multimedia Subsystem)あるいは外部パケット網とのインタフェースを持つノードである。なお、IMSは、マルチメディアアプリケーションをIP(internet protocol)で実現するためのサブシステムである。
NFVの仮想化においては、図1に示される矩形で囲んだ部分である、LTE基地局を収容するモバイルコアネットワーク装置(EPC)の、モビリティ制御などを担うMME、加入者情報を管理するHSS(Home Subscriber Server)、ポリシーによって通信機能を制御するPCRF(Policy and Charging Pules Function)、パケットを伝送するS/P?GWの機能を、オールインワンで汎用IA(Intel Architecture)サーバの仮想化基盤上で実現する。
尚、IAサーバとは、通常のパーソナルコンピュータと同様のアーキテクチャをベースに、IntelのIA−32またはIA−64系のCPU(central processing unit)や、AMD(Advanced Micro Devices,Inc.)などのインテル互換CPUを搭載したサーバのことである。IAサーバはPCサーバとも呼ばれる。PCサーバは、パーソナルコンピュータ(PC)を基本に設計・製造されたサーバである。
なお、図1において、eNB(evolved NodeB)は、LTEにおける無線基地局(e−NodeB)である。また、図中の携帯端末は、いわゆるガラパゴス携帯、スマートフォン、タブレット端末を想定している。
前述したように、NFVは、専用ハードウェアで実現されていたモバイルコア等のネットワークを汎用サーバのソフトウェアで実現できることを目的としている。データプレーンパケット処理装置は、汎用サーバに搭載されたマルチコアCPU上で仮想化されたバーチャルマシン上のソフトフェアとして実現される。マルチコアCPUは、複数のCPUコアを備える。
マルチコアCPU上で、データプレーンパケット処理装置の処理能力を向上させるためには、複数のCPUコアでパケット処理動作を行い、さらにそのCPUコア数に応じて性能をスケールさせる必要がある。
使用するCPUコア数に応じた性能スケールをソフトウェア処理で実現するには、通常、次の方法が採用される。まず、汎用サーバにおけるパケット受信部であるNIC(Network Interface Card)から、バーチャルマシン上の受信専用CPUコアにてパケットを刈り取る。次に、そのパケットを各CPUコア(パケット処理コア)に振り分ける。そして、それらのパケットを受け取った各々のCPUコア(パケット処理コア)にてパケット処理する。
ここで、性能を向上させるためには、外部から入力されるユーザデータパケット(受信パケット)を、バーチャルマシンに割り当てられた複数のCPUコアへ適切に配分(分散)することが必要である。
このような受信パケットを分散する方法に関する先行技術(関連技術)は、従来から種々知られている。
例えば、特開2010−226275号公報(特許文献1)は、マルチコアプロセッサを利用してパケットを処理する際、マルチコアプロセッサのリソースを有効利用できるようにした、「通信装置」を開示している。
この特許文献1に開示された通信装置では、複数のマルチコアプロセッサ部の内のどのマルチコアプロセッサ部へデータパケットを出力するべきかを決定する場合、IPデータパケットの「あて先IPアドレス」、「ソースIPアドレス」、「プロトコル番号」などの情報からハッシュ関数を用いて算出した値をもとに、出力先のマルチコアプロセッサ部を決定する方式を採用している。マルチコアプロセッサ部の内部には複数のコアが配置されている。各コアはそれぞれ複数のスレッドを同時に実行できる構成となっている。受信コントロール部は、新規に受信したデータパケットをメインメモリにストアすると共に、ワークコントロール部に対して上記データパケットの処理をワークという形で受け渡し、ワークに対するスレッドの割り当てを依頼する機能を有する。
また、特開2011−077746号公報(特許文献2)は、各コアがパケットを最大限に並列処理可能な、「ネットワーク中継装置」を開示している。
特許文献2に開示されたネットワーク中継装置は、受信待ちキューと、下位フロー識別部と、上位フロー識別待ちキューと、転送処理待ちキューと、上位フロー識別/転送処理部と、送信待ちキューとから構成されている。ネットワーク中継装置がパケットを受信したとき、受信待ちキューにパケットを一時的に保持する。下位フロー識別部は受信待ちキューからパケットを1つ取り出し、例えばIPヘッダの送信元IPアドレスや宛先IPアドレスなどのヘッダ情報を用いてハッシュ関数を計算し、計算したハッシュ関数により、下位フロー毎に上位フロー識別待ちキューにパケットを振り分ける。上位フロー識別/転送処理部は、上位フロー識別処理を転送処理の2つの処理を1つのコア上同居させた処理部である。本実施例においてマルチコアCPUを用いたが、複数のCPUを用いて実施してもよい。
さらに、特開2009−239374号公報(特許文献3)は、複数の仮想計算機におけるVNIC(Virtual Network Interface Card)のパケット送信遅延を少なくする、「仮想計算機システム」を開示している。
特許文献3に開示された仮想計算機システムにおいて、複数の仮想計算機と物理NICとは共通バスにより相互接続されている。これら仮想計算機の各々は仮想ネットワークインタフェースカード(VNIC)を有している。物理ネットワークインタフェースカード(物理NIC)は、共通バスに接続されてVNICにより共有(共用)されている。物理NICは、ネットワークから受信したパケットについて受信した順番で処理を行う。ネットワークからネットワークI/Fが、受信バケット番号1(以下単に番号1と称す)の受信パケットデータを受信すると、受信バッファにこの受信パケットデータを格納する。受信バッファは、格納された番号1の受信パケットデータから受信対象のIPアドレスデータを抜き出し、この受信パケットのIPアドレスに対応する受信キューを選択する。
さらにまた、特開2011−141587号公報(特許文献4)は、ネットワークにアップロードした単一の情報量の多いデータに対して、応答時間を短縮する、「分散処理システム」を開示している。
特許文献4に開示された分散処理システムは、受付応答装置と、分断統合装置と、複数の処理装置と、1つ以上のキュー監視装置と、を含んで構成される。受付応答装置は、ユーザ端末からネットワークを介してデータ(アップロードデータ)を受信する。分断統合装置は、受付応報装置が受け付けたデータを取得して、そのデータを分断して断片データを生成し、さらに処理された断片データを統合する。複数の処理装置は、断片データを取得し、データ処理を行う。1つ以上のキュー監視装置は、分断統合装置から出力された断片データを取得してキューとして記憶し、処理装置からの要求により断片データを処理装置に送信する。処理装置は、キュー管理装置から断片データを取得し、その取得した断片データに対し所定のデータ処理を実行する。この処理装置は、キュー選択部と、断片データ取得部と、データ処理部と、断片データ結果出力部とを含んで構成される。キュー選択部は、断片データの取得元となるキュー管理装置を選択する。このときのキュー管理装置の選択は、例えば、ラウンドロビン法等の分散アルゴリズムを用いて行われる。断片データ取得部は、キュー選択ぶにより選択されたキュー管理装置に、断片データの取得要求を送信し、キュー管理装置から断片データを取得する。
特開2010−226275号公報([0013]、[0015] 特開2011−077746号公報([0013]、[0015]、[0023]、[0024]) 特開2009−239374号公報(図1、図9、[0025]、[0069]、[0070]) 特開2011−141587号公報(図1、[0031]−[0033]、[0055]−[0057])
汎用サーバをNFVにて仮想化し、それ上のバーチャルマシンにてユーザデータ処理装置を構成する場合、スループット性能に課題がある。その理由は、ネットワーク専用ハードウェアで構成されたユーザデータ処理装置と異なり、全ての機能をソフトウェアで実現するためである。
例えば、バーチャルマシンにて構成したユーザデータ処理装置は、SRIOV(Single Root I/O Virtualization)のような汎用機能を使い、VF(Virtual Function)パススルー機能を使うことで、Guset OS(バーチャルマシン)側からホストOSを経由せず直接NIC経由で外部との通信が可能となる。このため、ホストOS側との通信に必要なオーバーヘッドを排除することができ、性能を向上させることができる。しかしながら、外部から入力されるユーザパケットデータをバーチャルマシンに割り当てられた複数のCPUコアへ適切に分配できなければ、CPUコア数に応じて性能がスケールできない課題がある。何故ならば、特定のCPUコアに処理負荷が偏り、全てのCPUコアリソースを使い切ることができないからである。CPUコアが1つであれば、問題がないが、マルチコアプロセッサ上でCPUコア数に比例して性能を向上させることができない。
関連技術では、複数のCPUコアとして、複数のパケット処理コアとは別に受信専用コアを配備し、例えば、上記特許文献4に開示されているように、本受信専用コアで各パケット処理コアにラウンドロビンロジック等で受信パケットを分配することで分散することが可能である。しかしながら、受信されるパケット長等のぱらつきにより、特定のパケット処理コアにロングパケットあるいはショートパケットが集中的に分配される可能性がある。パケットサイズにより1パケットあたりのCPUコアの負荷は変動する。そのため、CPUコア負荷の観点からは、結果として偏りが発生し、CPUコア数に比例して性能スケールさせることができない。その結果、処理能力を最大化することはできない。
また、受信専用コアによる分配ロジックを変更し、これらの課題を解決しようとすることも考えられる。しかしながら、この場合、分配ロジックが複雑になるため分配能力が低下し、分散可能となるCPUコア(パケット処理コア)の数が減少し、スケールできるCPUコア数が制限される。その結果として、マルチコアプロセッサ上での性能を最大化できない課題がある。
ラウンドロビンのような単純なロジックでも、パケットを受信し、転送先のCPUコア(パケット処理コア)を決定し、パケットを転送する処理が発生する。そのため、転送先のCPUコア(パケット処理コア)が増えた場合、パケット転送の際に発生する各CPUコア(パケット処理コア)間の排他制御が増大し、受信専用コアがボトルネックとなり、性能スケールできない課題がある。
また、EPC等のモバイルネットワークで使用されるユーザデータは、GTP(General Tunnel Protocol)でカプセル化され、ノード装置間通信用のノードIPアドレスが付与され、このノードIPアドレスを使って通信される。このノードIPアドレスは、パケットを受信する装置としては全て同じ送信先IPアドレスになる。汎用NICに実装されているRSS(Receive Side Scaling)機能を使い、NIC側でIPアドレスに従って、分散させることは可能である。しかしながら、EPC等のモバイルネットワークで使用するノードIPアドレスは、パケット処理装置としては同じ値になるため、事実上分散させることはできない課題がある。
さらに、分散させたいユーザIPアドレスはカプセル化されたパケットのペイロード中に存在するため、汎用NICに具備されているRSS機能ではユーザIPアドレスを参照できない課題がある。
以上を纏めると、関連のNFV等の技術を使った仮想化環境上で構成される、パケット処理装置における受信パケットの負荷分散方法には、次のような課題がある。
第1の課題は、関連技術の装置では、受信専用コアとしてCPUコアリソースを占有し、さらにパケット処理コアと受信専用コアとの間のパケット授受によるオーバーヘッドにより、1CPUコアあたりのパケット処理性能が劣化することである。その理由は、次の通りである。SRIOV等の機能を使いNIC上に複数のVFを構築した場合、VF上の受信パケットキューは1つしか構成できない。そのため、この受信パケットをNICの受信パケットキューから刈り取る受信専用コアを配備しなければならない。
第2の課題は、携帯端末単位でのパケットの分散ができず、特定の受信パケットキューあるいはパケット処理コアに負荷が集中してしまい、パケット処理するCPUコアを増やしても、CPUコア数に応じてパケット処理性能がスケールできないことである。その理由は、次の通りである。NIC上のPF(Physical Function)機能と同様にVF上で複数の受信パケットキューを構築し、RSS機能により各受信パケットキューにパケットを分散することができるNICカードが実現できたとする。その場合でも、EPC等のモバイルネットワークにおけるユーザパケットデータは、GTPにてカプセル化される。そのため、携帯端末のIPアドレスはペイロード中に格納され、パケットのヘッダに付与されるIPアドレスは、EPC内部の各ノード間で送受信するためのノードIPアドレスである。その結果、標準的にNICに具備されているRSS機能では、このノードIPアドレスに基づいてしか、NICの各受信パケットキューに受信パケットを分散させることが出来ない。
第3の課題は、ユーザの利用形態あるいはアプリケーションの特性に応じて、各パケット処理コアの負荷は平滑化することができず、パケット処理するCPUコアの数を増やしても、CPUコア数に応じてパケット処理性能がスケールできないことである。その理由は、次の通りである。携帯端末のユーザIPアドレスベースでのパケット分散ができたとしても、ユーザパケットデータ長は一定ではなく、ユーザ毎あるいはアプリケーション毎にパケット長が異なる。その結果、処理するパケットデータの長が異なると、CPUコアの負荷もパケット毎に変動する。
なお、特許文献1は、単に、IPデータパケットの情報からハッシュ関数を用いて算出した値をもとに、出力先のマルチコアプロセッサ部を決定する、技術的思想を開示しているに過ぎない。
特許文献2は、単に、パケットを受信したとき、受信待ちキューにパケットを一時的に保持し、受信待ちキューからパケットを1つ取り出し、取り出したパケットのIPヘッダのヘッダ情報を用いてハッシュ関数を計算し、計算したハッシュ値により、下位フロー毎に上位フロー識別待ちキューにパケットを振り分け、上位フロー識別待ちキューにあるパケットを刈り取って、上位フロー識別処理を行う、技術的思想を開示しているに過ぎない。
特許文献3は、単に、受信パケットデータから受信対象のIPアドレスデータを抜き出し、この受信パケットのIPアドレスに対応する受信キューを選択する、技術的思想を開示しているに過ぎない。
特許文献4は、前述したように、単に、キュー管理装置の選択を、ラウンドロビン法等の分散アルゴリズムを用いて行う、技術的思想を開示しているに過ぎない。
本発明の目的は、CPUコア数に応じてユーザデータパケットの処理能力をスケールさせることができる、受信パケット分散方法、キュー選択器、パケット処理装置、および記録媒体を提供することにある。
本発明の一形態は、携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散する受信パケット分散方法であって、前記ユーザデータパケットを前記受信パケットとして受信し、前記受信パケットのペイロードに位置するユーザIPアドレスを抽出し、該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択し、前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定し、該決定したキュー番号のキューに前記受信パケットを格納すること、を特徴とする。
本発明によれば、CPUコア数に応じてユーザデータパケットの処理能力をスケールさせることができる。
図1は、モバイルネットワークをNFVで仮想化する例を説明する図である。 図2は、本発明の第1の実施例に係るパケット処理装置の構成を示すブロック図である。 図3は、図2に示したパケット処理御装置に使用される、判定デーブルの一例を示す図である。 図4は、図2に示したパケット処理御装置に使用される、キュー選択器の構成を示すブロック図である。 図5は、図2に示したパケット処理御装置に使用される、キュー選択器の動作を説明するためのフローチャートである。
[関連技術]
本発明の理解を容易にするために、以下では本発明に関連する技術について説明する。
前述したように、LTE(Long Term Evolution)等を収容するEPC(Evolved Packet Core)等のモバイルネットワークをNFV(Network Functions Virtualization)等で仮想化することがある。この場合、携帯端末からのユーザデータパケットを処理するデータブレーンパケット処理装置は、バーチャルマシン上で実現される。
NFVは、専用ハードウェアで実現されていたモバイルコア等のネットワークを汎用サーバのソフトウェアで実現できることを目的としている。データプレーンパケット処理装置は、汎用サーバに搭載されたマルチコアCPU上で仮想化されたバーチャルマシン上のソフトフェアとして実現される。マルチコアCPUは、複数のCPUコアを備える。
マルチコアCPU上で、データプレーンパケット処理装置の処理能力を向上させるためには、複数のCPUコアでパケット処理動作を行い、さらにそのCPUコア数に応じて性能をスケールさせる必要がある。
使用するCPUコア数に応じた性能スケールをソフトウェア処理で実現するには、通常、次の方法が採用される。まず、汎用サーバにおけるパケット受信部であるNICから、バーチャルマシン上の受信専用コアにてパケットを刈り取る。次に、そのパケットを各CPUコア(パケット処理コア)に振り分ける。そして、それらのパケットを受け取った各々のCPUコア(パケット処理コア)にてパケット処理する。
しかしながらこの方法では、CPUコアをスケールさせる前に比べて、受信専用コアのCPUリソースを余計に消費し、また、分散させるCPUコアの数が増えた場合、受信専用コアがボトルネックとなり性能スケールができないという問題がある。
[実施の形態]
この問題を解決するために、本発明の実施形態では、図2に示すようなインテリジェントな機能を具備したネットワークインタフェースカード(NIC)11を使ったパケット処理装置10を構成する。
汎用サーバに挿入されたインテリジェントな機能を具備したNIC11で、ユーザデータパケットを受信すると、キュー選択器14は、パケットの振り分けを行い、各キュー15−0、・・・、15−mへパケットデータを積み込む。ここで、mは2以上の整数である。
この時、キュー選択器14は、判定テーブル13に従って、振り分け先を決定する。キュー選択器14は、判定テーブル13を参照して、第0乃至第mのCPUコア18−0、・・・、18−mから展開されるCPU使用率等に基づいて、適切なキューにパケットデータを振り分ける。
EPC等のモバイルコアネットワークでは、EPC等モバイルコアネットワーク装置間通信用のノードIPアドレスと、ユーザ毎に割り当てられるユーザIPアドレスと、の2種類のIPアドレスがある。ユーザデータパケットは、GTP(General Tunneling Protocol)にてカプセル化され、ノードIPアドレスが付与される。
汎用の物理NICでは、VF(Virtual Function)上のRSS(Receive Side Scaling)機能にてIPアドレスのハッシュ値を計算し、このハッシュ値に基づき分散を行うことが可能である。
しかしながら、EPC等のモバイルコアネットワークのユーザデータパケットは、通常、NICでは、ノードIPアドレスのハッシュ値に従ったパケット振り分けになる。このため、同一ネットワーク装置から送信される、あるいは同一ネットワーク装置に送信される、ユーザデータパケットを受信するケースにおいては、同一のCPUコアにユーザデータパケットが集中し、パケットの分散処理が期待通りに行われない。
ユーザIPアドレスは、パケットのペイロードに位置するため、汎用のNICのRSS機能では、ユーザIPアドレスのハッシュ値に従ったパケット振り分けができない。
そこで、本発明の実施形態では、判定テーブル13は、第0乃至第mのCPUコア18−0、・・・、18−mから展開された送信元ユーザIPアドレス、送信先ユーザIPアドレスに従って、振り分けるキュー15−0、・・・、15−mを決定したハッシュテーブルを作成する。
キュー選択器14は、受信したパケットのペイロード中に位置するユーザIPアドレスを抽出し、ハッシュ値を計算した後、判定テーブル13を参照し、受信したパケットを格納するキューを選択する。その後、キュー選択器14は、判定テーブル13におけるCPU使用率を参照する。選択したキューに割り当てられているCPUコアのCPU使用率が閾値以上の場合、キュー選択器14は、閾値以下のCPU使用率であるCPUコアの中で最も低いCPUコアに割り当てられるキューを決定する。
キュー選択器14は、決定したキューに受信パケットを格納する。全てのCPUコアのCPU使用率が閾値以上になった場合、キュー選択器14は、100%と古い閾値の間で新たな閾値を設定し、この新たな閾値に従って同様なキュー選択決定処理を行う。また、全てのCPUコア使用率が新たな閾値を超える場合、キュー選択器14は、同様に閾値の使用率100%に達するまで再設定を行い、これを繰り返す。
第0乃至第mのCPUコア18−0、・・・、18−mは、それぞれ、割り当てられているインテリジェントな機能を具備したNIC11上のキュー15−0、・・・、15−mをポーリングすることで、パケットを随時刈り取り、第0乃至第mのCPUコア18−0、・・・、18−mで引き取ったユーザデータパケットの処理を行う。
このように、本発明の実施形態では、インテリジェントな機能を具備したNIC11上に実装される判定テーブル13とキュー選択器14にて、各CPUコア18−0、・・・、18−mに受信したユーザデータパケットが分散され、各CPUコア18−0、・・・、18−mのCPUコアリソースが平滑化される。そのため、全てのCPUコアリソース使い切ることができ、CPUコア数に応じてユーザデータパケットの処理能力をスケールさせることが可能となる。
以下、図面を参照して、本発明の実施例とその動作について詳細に説明する。
[実施例1]
図2は、本発明の第1の実施例に係るパケット処理装置10の構成を示すブロック図である。
パケット処理装置10は、インテリジェントな機能を具備したNIC11と、複数のパケット処理用バーチャルマシンとを備えている。図示の例では、複数のパケット処理用バーチャルマシンとして、第0のパケット処理用バーチャルマシン17?0乃至第nのパケット処理用バーチャルマシン(図示せず)の、合計(n+1)のパケット処理用バーチャルマシンを備えている。ここで、nは1以上の整数である。
図2において、インテリジェントな機能を具備したNIC11は、PF(Physical Function)16と、複数のVF(Virtual Function)12−0〜12−nとを具備する。PF16上には仮想的に複数のVF12−0〜12−nが構成され、各バーチャルマシン17−0・・・は各VF12−0〜12−nを使用してパケットを送受信することができる。本例では、複数のVFとして、第0のVF12−0乃至第nのVF12−nの、合計(n+1)個のVFを備えている。
第0乃至第nのVF12−0〜12−nの各々は、同じ構成をしている。したがって、以下では、第0のVF12−0を代表として説明し、他のVFについての説明を省略する。
第0のVF12−0は、判定テーブル13と、キュー選択器14と、複数のキュー15−0〜15−mとを備えている。図示の例では、複数のキューとして、第0のキュー15−0乃至第mのキュー15−mの、合計(m+1)個のキューを備えている。
一方、第0のパケット処理用バーチャネルマシン17?0は、複数のCPUコア18−0〜18−mを備えている。図示の例では、複数のCPUコアとして、第0のCPUコア18−0乃至第mのCPUコア18−mの、合計(m+1)個のCPUコアを備えている。
図2に示されるように、複数のキュー15−0〜15−mは、第0のパケット処理用バーチャルマシン17−0に割り当てられた複数のCPUコア18−0〜18−mにそれぞれ対応している。また、第0乃至第mのキュー15−0〜15−mには、それぞれ、#0〜#mのキュー番号が割り当てられている。
判定テーブル13は、図3に示されるように、複数のCPUコア18−0〜18−mごとにCPU使用率を格納する。図3に示す例では、第0のCPUコア18−0のCPU使用率は1%であり、第1のCPUコアのCPU使用率は20%であり、第mのCPUコア18−mのCPU使用率は5%である。
尚、判定テーブル13は、CPU使用率の他に、上述したような、複数のCPUコア18−0〜18−mから展開された送信元ユーザIPアドレス、送信先ユーザIPアドレスに従って、振り分けるキュー15−0〜15−mを決定したハッシュテーブルや、処理すべき対象となるユーザIPアドレス等の呼処理情報をも格納する。
本発明の実施形態によるパケット処理装置10は、インテリジェントな機能を有するNIC11内のキュー選択器14でユーザデータパケットを受信すると、後述のように、第0乃至第mのキュー15−0〜15−mのどのキューに受信パケットを格納すべきかを決定する。すなわち、キュー選択器14は、携帯端末からユーザデータパケットを受信パケットとして受信し、後述のように、複数のキュー15−0〜15−mへ、受信パケットを分配して格納する。
図4は、キュー選択器14の構成を示すブロック図である。キュー選択器14は、受信手段141と、抽出手段142と、計算・選択手段143と、決定手段144と、格納手段145とを備えている。
図5は、キュー選択器14の動作を説明するためのフローチャートである。
受信手段141は、ユーザデータパケットを受信パケットとして受信する(図5のステップS101)。抽出手段142は、受信パケットのペイロードに位置するユーザIPアドレスを抽出する(図5のステップS102)。計算・選択手段143は、抽出したユーザIPアドレスのハッシュ値を計算し、このハッシュ値に基づいて、受信データを格納すべきキューのキュー番号を選択する(図5のステップS103)。
決定手段144は、判定テーブル13を参照し(図5のステップS104)、CPU使用率に基づいて、後述のように、選択したキュー番号を、受信パケットを格納すべきキューのキュー番号とするか否かを決定する(図5のステップS105〜S109参照)。
格納手段145は、決定したキュー番号のキューに受信パケットを格納する(図5のステップS110)。
本実施形態では、このキューから受信パケットを刈り取ることによって、CPUコアの負荷分散を図っている。
次に、図5を参照して、決定手段144の動作について更に詳細に説明する。
ハッシュ値に基づくキュー番号を決定する前に、決定手段144は、判定テーブル13を参照し(ステップS104)、選択したキュー番号にアサインされたCPUコアの使用率が予め定められた閾値以下であることを確認した上で(ステップS105のYes)、キュー番号を決定する(ステップS106)。
ユーザIPアドレスに基づくハッシュ値により、受信パケットのキューへの分散を図っても、パケット長等のトラヒック特性等によりCPUコアの負荷は一様ではない。そのため、通常では、CPUコア毎に負荷の偏りが発生する。
判定テーブル13にてCPUコアのCPU使用率が閾値以上である場合(ステップS105のNo)、決定手段144は、閾値以下でもっとも使用率が低いCPUコアに割り当てられたキューのキュー番号を決定する(ステップS107のNo、ステップS109)。そして、格納手段145は、その決定したキュー番号のキューにその受信パケットを格納する(ステップS110)。
全てのCPUコアのCPU使用率が閾値以上の場合(ステップS107のYes)、決定手段144は、新たな閾値を決定(設定)し(ステップS108)、その新たな閾値に基づき同様の論理でキュー番号を決定する(ステップS107〜S109)。
尚、判定テーブル13には、パケット処理装置10のバーチャルマシン17?0に割り当てられた複数のCPUコア18−0〜18−mから定期的に送信される各CPUコアのCPU使用率の情報が格納される。
このようにして、本実施例では、各CPUコア18−0〜18−mの負荷を平滑化し、全てのCPUコアリソースを平等に使うことで、CPUコア数に応じ性能をスケールさせ、ハードウェアにおけるCPU性能の最大限に使用することができる。
図5を参照して、キュー選択器14の動作について説明する。
キュー選択器14は、ユーザデータパケットを受信パケットとして受信し(ステップS101)、受信パケット中のペイロード中に格納されているユーザIPアドレスを抽出し(ステップS102)、このIPアドレスのハッシュ値を計算することで格納すべきキューのキュー番号を選択する(ステップS103)。
キュー番号を決定する前に、キュー選択器14は、判定テーブル13を参照し(ステップS104)、この判定テーブル13に示される各CPUコアのCPU使用率の情報を参照し、閾値以下であることを確認し(ステップS105のYes)、閾値以下であればキュー番号を決定する(ステップS106)。
閾値以上であれば(ステップS105のNo)、キュー選択器14は、閾値以下で最もCPU使用率が低いCPUコアにアサインされたキューのキュー番号を選択し決定する(ステップS107のNo、ステップS109)。全てのCPUコアの使用率が閾値以上の場合(ステップS107のYes)、キュー選択器14は、再度新たな閾値を設定し(ステップS108)、同様の論理でキュー番号を決定する(ステップS107〜S109)。
各CPUコア18−0〜18−mは、対応するキュー15−0〜15−mに格納されたパケットを刈り取り、プロトコル処理等のパケット処理を行う。
以上説明したように、本発明の実施例においては、以下に記載するような効果を奏する。
第1の効果は、CPUコアリソースを使わずに受信パケットを分散でき、またパケットを分散する受信専用コア無しで受信パケットを分散することができ、CPUコアスケール時に受信専用コアのボトルネックを回避して、性能スケールが可能となることである。その理由は、NICカード上の判定テーブル13に対して、パケット処理装置10として割り当てられた各CPUコア18−0〜18−mのCPU使用率の情報、処理すべき対象となるユーザIPアドレス等の呼処理情報を随時登録し、この判定テーブル13に従って、NIC11で受信したパケット処理を行うCPUコアが担当すべきキューを決定するからである。
第2の効果は、携帯端末のユーザ単位に受信したパケットを各CPUコア18−0〜18−mに分散させ、各CPUコアの負荷を平準化することで、装置としてのパケット処理性能の最大化を実現できることである。その理由は、NIC11におけるキュー選択器14の機能にて受信パケットペイロードに位置するカプセル化されたユーザIPアドレスを検出し、判定テーブル13を参照し、このユーザIPアドレスのハッシュ値等に従って、受信パケットを格納するNIC上のキューを決定するからである。
第3の効果は、ユーザデータパケットのパケット長等のばらつきによるCPUコアの負荷の偏りを解消し、各CPUコアの負荷を平準化することで、装置としてのパケット処理性能の最大化を実現できることである。その理由は、各CPUコア18−0〜18−mから判定テーブル13にて集約されたダイナミックなCPU使用率に従い、CPU使用率がある一定以下のCPUコアを特定し、受信パケットを格納するNIC11上のキューを決定するからである。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散する方法であって、
前記ユーザデータパケットを前記受信パケットとして受信し、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出し、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択し、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定し、
該決定したキュー番号のキューに前記受信パケットを格納する、
受信パケット分散方法。
(付記2)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定することは、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記1に記載の受信パケット分散方法。
(付記3)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定することは、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記2に記載の受信パケット分散方法。
(付記4)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定することは、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記3に記載の受信パケット分散方法。
(付記5)
携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分配して格納するキュー選択器であって、
前記ユーザデータパケットを前記受信パケットとして受信する受信手段と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手段と、
を備えることを特徴とするキュー選択器。
(付記6)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定手段は、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記5に記載のキュー選択器。
(付記7)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定手段は、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記6に記載のキュー選択器。
(付記8)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定手段は、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記7に記載のキュー選択器。
(付記9)
携帯端末からのユーザデータパケットを受信パケットとして受信して処理するパケット処理装置であって、
それぞれキュー番号が割り当てられた複数のキューと、
該複数のキューにそれぞれ対応して、バーチャルマシンに割り当てられた複数のCPUコアと、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルと、
前記受信パケットを、前記判定テーブルを参照して、前記複数のキューの適切なキューに振り分けるキュー選択器と、
を備えることを特徴とするパケット処理装置。
(付記10)
前記キュー選択器は、
前記ユーザデータパケットを前記受信パケットとして受信する受信手段と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、
前記判定テーブルを参照し前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手段と、
を備える、付記9に記載のパケット処理装置。
(付記11)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定手段は、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記10に記載のパケット処理装置。
(付記12)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定手段は、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記11に記載のパケット処理装置。
(付記13)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定手段は、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記12に記載のパケット処理装置。
(付記14)
前記複数のCPUコアは、定期的に、それぞれのCPU使用率を前記判定テーブルに送信して格納する、付記10乃至13のいずれか1つに記載のパケット処理装置。
(付記15)
前記複数のCPUコアは、それぞれ、対応するキューに格納された受信パケットを刈り取り、パケット処理を行う、付記10乃至14のいずれか1つに記載のパケット処理装置。
(付記16)
コンピュータに、携帯端末からのユーザデータパケットを受信パケットとして受信させ、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記プログラムは前記コンピュータに、
前記ユーザデータパケットを前記受信パケットとして受信する受信手順と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手順と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手順と、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手順と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手順と、
を実行させる記録媒体。
(付記17)
携帯端末からのユーザデータパケットを受信パケットとして受信し、複数のバーチャルマシンの各々に割り当てられた複数のCPUコアへ、前記受信パケットを分散するネットワークインタフェースカード(NIC)であって、
前記ネットワークインタフェースカードは、複数のVF(Virtual Function)と一つのPF(Physical Function)とを具備し、前記PF上に仮想的に前記複数のVFが構成され、各バーチャルマシンは各VFを使用してパケットを送受信することができ、
各VFは、
前記複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューと、
前記複数のCPUコア毎にCPU使用率を格納する判定テーブルと、
前記受信パケットを、前記判定テーブルを参照して、前記複数のキューの適切なキューに振り分けるキュー選択器と、
を備えるネットワークインタフェースカード。
(付記18)
前記キュー選択器は、
前記ユーザデータパケットを前記受信パケットとして受信する受信手段と、
前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、
該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、
前記判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、
該決定したキュー番号のキューに前記受信パケットを格納する格納手段と、
を備える、付記17に記載のネットワークインタフェースカード。
(付記19)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定手段は、当該選択したキュー番号を、前記決定したキュー番号として決定する、付記18に記載のネットワークインタフェースカード。
(付記20)
前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定手段は、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、付記19に記載のネットワークインタフェースカード。
(付記21)
全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定手段は、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、付記20に記載のネットワークインタフェースカード。
10 パケット処理装置
11 インテリジェントな機能を具備したネットワークインタフェースカード(NIC)
12−0〜12−n VF(Virtual Function)
13 判定テーブル
14 キュー選択器
15−0〜15−m キュー
16 PF(Physical Function)
17−0 パケット処理用バーチャルマシン
18−0〜18−m CPUコア
この出願は、2014年3月19日に出願された日本出願特願2014-056036号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (10)

  1. 携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散する方法であって、
    前記ユーザデータパケットを前記受信パケットとして受信し、
    前記受信パケットのペイロードに位置するユーザIPアドレスを抽出し、
    該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択し、
    前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定し、
    該決定したキュー番号のキューに前記受信パケットを格納する、
    受信パケット分散方法。
  2. 前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が予め定められた閾値以下である場合、前記決定することは、当該選択したキュー番号を、前記決定したキュー番号として決定する、請求項1に記載の受信パケット分散方法。
  3. 前記選択したキュー番号にアサインされた前記CPUコアのCPU使用率が前記閾値以上である場合、前記決定することは、前記閾値以下で最も使用率が低いCPUコアに割り当てられたキューのキュー番号を、前記決定したキュー番号として決定する、請求項2に記載の受信パケット分散方法。
  4. 全てのCPUコアのCPU使用率が前記閾値以上の場合、前記決定することは、新たな閾値を決定し、該新たな閾値に基づいて、前記受信パケットを格納すべきキューのキュー番号を決定する、請求項3に記載の受信パケット分散方法。
  5. 携帯端末からのユーザデータパケットを受信パケットとして受信し、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分配して格納するキュー選択器であって、
    前記ユーザデータパケットを前記受信パケットとして受信する受信手段と、
    前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手段と、
    該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手段と、
    前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手段と、
    該決定したキュー番号のキューに前記受信パケットを格納する格納手段と、
    を備えることを特徴とするキュー選択器。
  6. 携帯端末からのユーザデータパケットを受信パケットとして受信して処理するパケット処理装置であって、
    それぞれキュー番号が割り当てられた複数のキューと、
    該複数のキューにそれぞれ対応して、バーチャルマシンに割り当てられた複数のCPUコアと、
    前記複数のCPUコア毎にCPU使用率を格納する判定テーブルと、
    前記受信パケットを、前記判定テーブルを参照して、前記複数のキューの適切なキューに振り分けるキュー選択器と、
    を備えることを特徴とするパケット処理装置。
  7. 前記複数のCPUコアは、定期的に、それぞれのCPU使用率を前記判定テーブルに送信して格納する、請求項6に記載のパケット処理装置。
  8. 前記複数のCPUコアは、それぞれ、対応するキューに格納された受信パケットを刈り取り、パケット処理を行う、請求項6又は7に記載のパケット処理装置。
  9. コンピュータに、携帯端末からのユーザデータパケットを受信パケットとして受信させ、バーチャルマシンに割り当てられた複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューへ、前記受信パケットを分散させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記プログラムは前記コンピュータに、
    前記ユーザデータパケットを前記受信パケットとして受信する受信手順と、
    前記受信パケットのペイロードに位置するユーザIPアドレスを抽出する抽出手順と、
    該抽出したユーザIPアドレスのハッシュ値を計算し、該ハッシュ値に基づいて、前記受信パケットを格納すべきキューのキュー番号を選択する計算・選択手順と、
    前記複数のCPUコア毎にCPU使用率を格納する判定テーブルを参照し、前記CPU使用率に基づいて、前記選択したキュー番号を、前記受信パケットを格納すべきキューのキュー番号とするか否かを決定する決定手順と、
    該決定したキュー番号のキューに前記受信パケットを格納する格納手順と、
    を実行させる記録媒体。
  10. 携帯端末からのユーザデータパケットを受信パケットとして受信し、複数のバーチャルマシンの各々に割り当てられた複数のCPUコアへ、前記受信パケットを分散するネットワークインタフェースカード(NIC)であって、
    前記ネットワークインタフェースカードは、複数のVF(Virtual Function)と一つのPF(Physical Function)とを具備し、前記PF上に仮想的に前記複数のVFが構成され、各バーチャルマシンは各VFを使用してパケットを送受信することができ、
    各VFは、
    前記複数のCPUコアにそれぞれ対応し、かつそれぞれキュー番号が割り当てられた複数のキューと、
    前記複数のCPUコア毎にCPU使用率を格納する判定テーブルと、
    前記受信パケットを、前記判定テーブルを参照して、前記複数のキューの適切なキューに振り分けるキュー選択器と、
    を備えるネットワークインタフェースカード。
JP2016508595A 2014-03-19 2015-02-04 受信パケット分散方法、キュー選択器、パケット処理装置、プログラム、およびネットワークインタフェースカード Pending JPWO2015141337A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014056036 2014-03-19
JP2014056036 2014-03-19
PCT/JP2015/053718 WO2015141337A1 (ja) 2014-03-19 2015-02-04 受信パケット分散方法、キュー選択器、パケット処理装置、および記録媒体

Publications (1)

Publication Number Publication Date
JPWO2015141337A1 true JPWO2015141337A1 (ja) 2017-04-06

Family

ID=54144317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508595A Pending JPWO2015141337A1 (ja) 2014-03-19 2015-02-04 受信パケット分散方法、キュー選択器、パケット処理装置、プログラム、およびネットワークインタフェースカード

Country Status (5)

Country Link
US (1) US20170063979A1 (ja)
JP (1) JPWO2015141337A1 (ja)
CA (1) CA2938033A1 (ja)
RU (1) RU2643626C1 (ja)
WO (1) WO2015141337A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11201804435SA (en) * 2015-12-01 2018-06-28 Radiflow Ltd Network security agent
CN107846367B (zh) * 2016-09-20 2021-09-21 华为技术有限公司 一种数据传输方法及装置
CN107005495B (zh) 2017-01-20 2020-03-27 华为技术有限公司 用于转发数据包的方法、网卡、主机设备和计算机系统
US10498708B2 (en) * 2017-07-31 2019-12-03 Nicira, Inc. Scaling IPSEC processing on a virtual machine
US10986075B2 (en) * 2017-11-02 2021-04-20 Arista Networks, Inc. Distributing packets across processing cores
JP6959519B2 (ja) * 2017-11-06 2021-11-02 富士通株式会社 処理分散プログラム、処理分散装置及び処理分散方法
US11095617B2 (en) 2017-12-04 2021-08-17 Nicira, Inc. Scaling gateway to gateway traffic using flow hash
US10623372B2 (en) * 2017-12-06 2020-04-14 Nicira, Inc. Load balancing IPsec tunnel processing with extended Berkeley packet filter (eBPF)
US10701107B2 (en) * 2017-12-06 2020-06-30 Nicira, Inc. Deterministic load balancing of IPSec processing
US11646980B2 (en) * 2018-03-30 2023-05-09 Intel Corporation Technologies for packet forwarding on ingress queue overflow
US11347561B1 (en) 2018-04-30 2022-05-31 Vmware, Inc. Core to resource mapping and resource to core mapping
CN108847975B (zh) * 2018-06-12 2021-06-25 京信通信系统(中国)有限公司 基于nfv架构的通信方法、装置、计算机设备及介质
CN112840608A (zh) * 2018-10-22 2021-05-25 康普技术有限责任公司 用于长期演进演进节点b中的分组处理的负载测量和负载均衡
CN109672575B (zh) * 2019-01-30 2022-03-08 新华三技术有限公司合肥分公司 数据处理方法及电子设备
US11277343B2 (en) 2019-07-17 2022-03-15 Vmware, Inc. Using VTI teaming to achieve load balance and redundancy
US11336629B2 (en) * 2019-11-05 2022-05-17 Vmware, Inc. Deterministic load balancing of IPSec packet processing
US11509638B2 (en) 2019-12-16 2022-11-22 Vmware, Inc. Receive-side processing for encapsulated encrypted packets
CN111277514B (zh) * 2020-01-21 2023-07-18 新华三技术有限公司合肥分公司 一种报文队列分配方法、报文转发方法及相关装置
JP7491550B2 (ja) 2020-04-16 2024-05-28 日本電気株式会社 ユーザデータ処理装置、ネットワークインタフェース、及び方法
CN113176940A (zh) * 2021-03-29 2021-07-27 新华三信息安全技术有限公司 一种数据流分流方法、装置以及网络设备
CN113806083B (zh) * 2021-09-06 2023-07-25 杭州迪普科技股份有限公司 一种处理聚合流数据的方法和装置
US11863514B2 (en) 2022-01-14 2024-01-02 Vmware, Inc. Performance improvement of IPsec traffic using SA-groups and mixed-mode SAs
US11956213B2 (en) 2022-05-18 2024-04-09 VMware LLC Using firewall policies to map data messages to secure tunnels

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003103233A1 (ja) * 2002-05-31 2003-12-11 富士通株式会社 パケット中継装置、ネットワーク接続デバイス、パケット中継方法、記録媒体、プログラム
JP2007053564A (ja) * 2005-08-17 2007-03-01 Fujitsu Ltd ネットワークスイッチ装置
US20080101233A1 (en) * 2006-10-25 2008-05-01 The Governors Of The University Of Alberta Method and apparatus for load balancing internet traffic
JP2010160715A (ja) * 2009-01-09 2010-07-22 Toyota Motor Corp 車両用電子制御ユニット
JP2012088797A (ja) * 2010-10-15 2012-05-10 Kddi Corp サーバ負荷分散方式
JP2013034164A (ja) * 2011-01-26 2013-02-14 Alaxala Networks Corp 中継装置、中継方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9108107B2 (en) * 2002-12-10 2015-08-18 Sony Computer Entertainment America Llc Hosting and broadcasting virtual events using streaming interactive video
US7580356B1 (en) * 2005-06-24 2009-08-25 Packeteer, Inc. Method and system for dynamically capturing flow traffic data
JP5325731B2 (ja) * 2009-09-30 2013-10-23 株式会社日立製作所 ネットワーク中継装置
US8717916B2 (en) * 2011-03-28 2014-05-06 Citrix Systems, Inc. Systems and methods for learning MSS of services
US20130185430A1 (en) * 2012-01-18 2013-07-18 LineRate Systems, Inc. Multi-level hash tables for socket lookups
JP5891945B2 (ja) * 2012-05-23 2016-03-23 富士通株式会社 通信制御装置、及び通信制御方法
US8972602B2 (en) * 2012-06-15 2015-03-03 Citrix Systems, Inc. Systems and methods for using ECMP routes for traffic distribution
US9811340B2 (en) * 2012-06-18 2017-11-07 Intel Corporation Method and apparatus for reconstructing real program order of instructions in multi-strand out-of-order processor
JP5915406B2 (ja) * 2012-06-22 2016-05-11 富士通株式会社 携帯端末装置の制御方法、制御プログラム及び携帯端末装置
JP6209863B2 (ja) * 2013-05-27 2017-10-11 富士通株式会社 ストレージ制御装置、ストレージ制御方法およびストレージ制御プログラム
US9843540B2 (en) * 2013-08-26 2017-12-12 Vmware, Inc. Traffic and load aware dynamic queue management
US9363180B2 (en) * 2013-11-04 2016-06-07 Telefonkatiebolaget L M Ericsson (Publ) Service chaining in a cloud environment using Software Defined Networking
US9755981B2 (en) * 2014-03-11 2017-09-05 Vmware, Inc. Snooping forwarded packets by a virtual machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003103233A1 (ja) * 2002-05-31 2003-12-11 富士通株式会社 パケット中継装置、ネットワーク接続デバイス、パケット中継方法、記録媒体、プログラム
JP2007053564A (ja) * 2005-08-17 2007-03-01 Fujitsu Ltd ネットワークスイッチ装置
US20080101233A1 (en) * 2006-10-25 2008-05-01 The Governors Of The University Of Alberta Method and apparatus for load balancing internet traffic
JP2010160715A (ja) * 2009-01-09 2010-07-22 Toyota Motor Corp 車両用電子制御ユニット
JP2012088797A (ja) * 2010-10-15 2012-05-10 Kddi Corp サーバ負荷分散方式
JP2013034164A (ja) * 2011-01-26 2013-02-14 Alaxala Networks Corp 中継装置、中継方法

Also Published As

Publication number Publication date
CA2938033A1 (en) 2015-09-24
US20170063979A1 (en) 2017-03-02
WO2015141337A1 (ja) 2015-09-24
RU2643626C1 (ru) 2018-02-02

Similar Documents

Publication Publication Date Title
WO2015141337A1 (ja) 受信パケット分散方法、キュー選択器、パケット処理装置、および記録媒体
US20210368392A1 (en) Method and apparatus for load balancing ip address selection in a network environment
CN108694087A (zh) 用于最优系统级性能的网络接口卡中的动态负载均衡
US20150222515A1 (en) Management and orchestration server
KR101981334B1 (ko) 분산형 데이터 패킷 처리가 적용된 이동통신 시스템 및 방법
US9904566B2 (en) Selecting virtual machine placement by computing network link utilization and link variance
KR20200017589A (ko) 무선 통신 시스템에서 모바일 노드의 태스크를 오프로딩하기 위한 클라우드 서버 및 그의 동작 방법
CN112314033A (zh) 选择和管理网络切片
JP6503452B2 (ja) クラウドベースのアクセスネットワーク
CN112703774B (zh) 管理电信网络中的处理资源的方法和电信网络及存储介质
CN110521178B (zh) 一种分发数据的方法、装置和系统
CN107251486A (zh) 一种扩展联动的方法、装置及系统
WO2023005448A1 (zh) 无线资源利用率确定方法、装置、电子设备及存储介质
US11799794B2 (en) Selective compression of packet payload data in a 5G network
CN111371694B (zh) 一种分流方法、装置和系统、处理设备和存储介质
CN106685784A (zh) 虚拟化网络功能vnf实例的伸缩方法及装置
CN107318132B (zh) 一种采集系统中数据分发方法及装置
WO2013169422A1 (en) Communications management
CN112840608A (zh) 用于长期演进演进节点b中的分组处理的负载测量和负载均衡
CN111372277A (zh) 数据分发方法、装置及存储介质
JP2019149043A (ja) 見積り装置および見積り方法
WO2016206472A1 (zh) 一种mac流量调度方法、装置、基站和计算机可读存储介质
CN115885520A (zh) 数据处理装置、方法及程序
US11582155B2 (en) Communication control apparatus and communication control method
US9301200B1 (en) Managing deployment of a radio access technology

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180327