JP2009118106A - ネットワーク装置 - Google Patents
ネットワーク装置 Download PDFInfo
- Publication number
- JP2009118106A JP2009118106A JP2007288061A JP2007288061A JP2009118106A JP 2009118106 A JP2009118106 A JP 2009118106A JP 2007288061 A JP2007288061 A JP 2007288061A JP 2007288061 A JP2007288061 A JP 2007288061A JP 2009118106 A JP2009118106 A JP 2009118106A
- Authority
- JP
- Japan
- Prior art keywords
- transmission data
- cpu
- transmission
- processing
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Communication Control (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
【課題】CPUとネットワークデバイスとの間のパケット送受信処理の効率化を図り、より高速なデータ送信を実現するネットワーク装置を得ること。
【解決手段】本発明にかかるネットワーク装置は、複数のCPUおよびメモリを搭載し、外部装置宛の送信データおよび送信データの格納先情報を管理する機能を有するOS(10)と、格納先情報に基づいて、外部装置宛の送信データをDMA転送により取得し、DMA転送が完了した旨を示す通知をOS(10)へ発行するNIC(5)と、を備え、OS(10)では、第1のCPUが、送信データをメモリ内の未使用領域へ格納する処理および格納先情報をメモリ内に確保しておいた複数の情報管理領域の中のいずれか一つに格納する処理を実行し、第2のCPUが、NIC(5)から通知を受け取り、メモリ内の領域を解放する。
【選択図】 図1
【解決手段】本発明にかかるネットワーク装置は、複数のCPUおよびメモリを搭載し、外部装置宛の送信データおよび送信データの格納先情報を管理する機能を有するOS(10)と、格納先情報に基づいて、外部装置宛の送信データをDMA転送により取得し、DMA転送が完了した旨を示す通知をOS(10)へ発行するNIC(5)と、を備え、OS(10)では、第1のCPUが、送信データをメモリ内の未使用領域へ格納する処理および格納先情報をメモリ内に確保しておいた複数の情報管理領域の中のいずれか一つに格納する処理を実行し、第2のCPUが、NIC(5)から通知を受け取り、メモリ内の領域を解放する。
【選択図】 図1
Description
本発明は、マルチコア/マルチプロセッサ対応OSを搭載したマルチコア/マルチプロセッサ対応CPUおよび外部ネットワーク装置との接続のためのネットワークインタフェイスデバイスを備え、IPパケットに代表される通信パケットの転送や上位レイヤプロトコルの処理を上記OS上のアプリケーションにて実行するネットワーク装置に関する。
近年、インターネットを利用した通信サービスが次々と登場し、アクセス網およびコア網におけるIPトラヒック量は年々増加している。このIPトラヒック量の増加に伴って、イーサネット(登録商標)規格(IEEE(Institute of Electrical and Electronics Engineers)802.3)に代表される有線ネットワークや、WiMAX(Worldwide Interoperability for Microwave Access)(IEEE802.16)に代表される無線ネットワークにおいて、伝送帯域の高速化の検討が進められている。特に有線通信では、100Mbpsや1Gbps以上の10Gbpsのイーサネット(登録商標)規格が策定され、既に10Gbpsに対応したネットワークデバイスが製品化されている。
ところで、CPU(Central Processing Unit)もクロックアップ、マルチコアプロセッサ/マルチプロセッサによる高性能化が進んでいるが、OS(Operating System)を搭載したCPUおよびネットワークデバイスで構成される通信装置では、CPUとネットワークデバイスとの間のパケット送受信がボトルネックとなり、10Gbpsのような高速伝送帯域を収容することが困難である。
すなわち、汎用OSを搭載したCPUおよびネットワークデバイスで構成された従来の通信装置による送信処理では、上位レイヤによるデータ処理(メモリへの送信データ格納処理)が終了後、デバイスドライバは、送信データが格納された領域のアドレス情報を上位レイヤから受け取り、受け取ったアドレス情報をメモリ内に予め用意しておいた送信ディスクリプタへ格納する。ネットワークインタフェイスカード(以下、NICと呼ぶ)は、定期的に送信ディスクリプタにアドレス情報が格納されているかどうかを確認し、格納されている場合、その情報が示す領域から送信データをDMA(Direct Memory Access)転送して自身内のキューに取り込み、外部ネットワークへ送信する。DMA転送が完了すると、NICは、その旨を通知するための転送完了割込みをOSに対して通知する。OS側では、転送完了割込みを受け取ると、送信ディスクリプタ内のアドレス情報が示す領域(送信済みとなった送信データが格納されている領域)を解放する(図6参照)。そして、上位レイヤによるデータ処理(図6に示した上位処理に相当)およびそれに続く処理が実行される。
そのため、たとえば下記特許文献1では、複数の上位プロセスが相互に影響し合うことを防止し、処理の高速化を図っている。
しかしながら、上述した従来の送信処理では、データを連続して送信する場合、特定のデータを送信した後、それまで使用していた送信バッファの解放が完了するまでの間は次のデータに対する処理を開始できないため(図6参照)、処理遅延が発生してしまい、効率的な送信処理が実現できていない、という問題があった。
本発明は、上記に鑑みてなされたものであって、CPUとネットワークデバイスとの間のパケット送受信処理の効率化を図り、より高速なデータ送信を実現するネットワーク装置を得ることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、複数のCPUおよびメモリを搭載し、外部装置宛の送信データおよび当該送信データの格納先情報を管理する管理機能を有するデータ処理手段と、前記格納先情報に基づいて、前記データ処理手段が保持している外部装置宛の送信データをDMA転送により取得し、さらに、DMA転送が完了した旨を示す転送完了通知を前記データ処理手段へ発行するDMA処理手段と、を備え、前記データ処理手段では、前記複数のCPUの中の1つである第1のCPUが、前記管理機能として、送信データを前記メモリ内の未使用領域へ格納する処理および当該送信データの格納先情報を前記メモリ内に予め確保しておいた複数の情報管理領域の中のいずれか一つに格納する処理を実行し、また、前記第1のCPUとは異なる第2のCPUが、前記DMA処理手段から転送完了通知を受け取り、当該転送完了通知により特定される前記メモリ内の領域を解放することを特徴とする。
この発明によれば、送信データを共有メモリへ格納する処理と、データが読み出された後の共有メモリ内の領域を解放する処理とを異なるCPUに振り分けて並列に実行するようにしたので、従来発生していた解放処理にかかる処理遅延分だけ処理時間を短縮し、送信処理を高速化することができる、という効果を奏する。
以下に、本発明にかかるネットワーク装置の実施の形態を図面に基づいて詳細に説明する。なお、以下の実施の形態にて説明するネットワーク装置としては、OSを搭載したマルチコア/マルチプロセッサ対応CPUおよび外部ネットワーク装置との接続のためのネットワークインタフェイスデバイスで構成され、IPパケットに代表される通信パケットの転送や上位レイヤプロトコルの処理をOS上のアプリケーションにて実行するものを想定する。ただし、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
図1は、実施の形態1のネットワーク装置の機能ブロック構成の一例をパケット送信処理の流れとともに示す図である。このネットワーク装置は、データ格納処理実行手段に相当する上位レイヤ処理部1と、格納領域情報管理手段に相当する情報処理部2と、データ格納部3と、情報保持手段に相当する送信ディスクリプタ4−1および4−2と、NIC(Network Interface Card)5と、により構成される。なお、上位レイヤ処理部1および情報処理部2における処理は、OS10上のアプリケーションにより実行される。また、データ処理手段はOS10により実現される。
図1は、実施の形態1のネットワーク装置の機能ブロック構成の一例をパケット送信処理の流れとともに示す図である。このネットワーク装置は、データ格納処理実行手段に相当する上位レイヤ処理部1と、格納領域情報管理手段に相当する情報処理部2と、データ格納部3と、情報保持手段に相当する送信ディスクリプタ4−1および4−2と、NIC(Network Interface Card)5と、により構成される。なお、上位レイヤ処理部1および情報処理部2における処理は、OS10上のアプリケーションにより実行される。また、データ処理手段はOS10により実現される。
上位レイヤ処理部1は、データ送信時の上位レイヤ処理を行う。情報処理部2は、上位レイヤ処理部1から受け取ったメッセージブロックを予め指定された送信ディスクリプタ4−1または4−2へキューイングする。データ格納部3は、外部ネットワーク装置への送信データを格納する。なお、データ格納部3は送信データを格納するための複数の領域(送信バッファ)により構成される。送信ディスクリプタ4−1および4−2は、NIC5が自身内部のキューに送信データをDMA転送する際に必要な、OS内のデータ格納領域(上記送信バッファに相当)の情報(アドレス情報)を含んだメッセージブロックを保持しておく。NIC5は、外部ネットワークと接続する機能を有し、汎用ネットワークインタフェイスカードまたはASIC(Application Specific Integrated Circuit)/FPGA(Field Programmable Gate Array)/NPU(Network Processing Unit)等のパケット処理(主にMACレイヤ:Ethernet(登録商標)処理)を特化して行うハードウェアネットワークインタフェイスデバイスである。OS10は、マルチコア/マルチプロセッサ対応OSであり、同一メモリ空間上に複数のCPUを認識および使用可能となっている。
つづいて、上記構成のネットワーク装置によるデータ送信動作を図1および図2を参照しながら説明する。なお、実施の形態1のネットワーク装置におけるデータ送信動作に含まれる各処理を時系列的に示した図である。また、OS10は、メモリ領域内の特定の領域を割り当てて用意しておいた2つの送信ディスクリプタ(送信ディスクリプタ4−1,4−2)のうちのいずれか一つを予め選択し、DMA転送時に参照するためのディスクリプタ領域として設定(NIC5に対して通知)しておくものとする。ここでは、送信ディスクリプタ4−1を選択しておくものとして説明を行う。
送信データが発生した場合、まず、上位レイヤ処理部1は、データ格納部3の未使用領域(未使用の送信バッファ)を確保して、その領域へ送信データを格納し、さらに、送信データを格納した領域(格納先)のアドレス情報を含んだメッセージブロックを情報処理部2へ発行する。
つぎに、情報処理部2は、上位レイヤ処理部1から受け取ったメッセージブロックを、送信ディスクリプタ4−1または4−2へ格納する。なお、ここでは送信ディスクリプタ4−1へ格納するものとする。
以降、上位レイヤ処理部1は、送信データが発生した場合、それをデータ格納部3の未使用領域へ送信データを格納して格納先のアドレス情報を含んだメッセージブロックを情報処理部2へ発行する処理を実行し、情報処理部2は、受け取ったメッセージブロックを送信ディスクリプタへ格納する処理を繰り返す。
以上の処理を本実施の形態では、同一のCPU(図2に示した例ではCPU#0)が実行する。
一方、DMA処理手段としての機能を有するNIC5は、予め通知されていたディスクリプタ領域(ここでは送信ディスクリプタ4−1)の状態を定期的にポーリング(監視)し、メッセージブロックが格納されていることを検出した場合、そのメッセージブロックが示す領域から自身内のキュー(図示せず)へ送信データをDMA転送して取得し、さらに、外部ネットワーク装置へ送信する。なお、OSメモリ内のデータ格納領域(データ格納部3)から1回のDMA転送にて転送可能なフレーム数は、NIC5の仕様およびパラメータ設定に依存しており、複数のフレームをまとめてDMA転送することも可能である。
また、DMA転送が完了すると、NIC5は、OS10に対して、DMA転送が完了した旨を示す転送完了割込みを通知する。なお、転送完了割込みの通知に代えて、OS10がポーリングによりDMA転送が完了したことを検出するようにしてもよい。
OS10は、転送完了割込み通知を受け取った場合、DMA転送時にNIC5が参照するためのディスクリプタ領域を、それまで設定しておいた送信ディスクリプタ(この例では送信ディスクリプタ4−1)からもう一方の送信ディスクリプタ(送信ディスクリプタ4−2)へ変更する。すなわち、DMA転送時に参照するディスクリプタ領域を他方の送信ディスクリプタ(=送信ディスクリプタ4−2)に変更するようNIC5へ指示を出す。その後、NIC5は、指示されたディスクリプタ領域のポーリングを行い、メッセージブロックを検出した場合には、その内容が示す領域から送信データを取得し、DMA転送が完了した時点で、その旨を示す転送完了割込みを通知する。以降、同様の処理を繰り返す。
また、OS10は、ディスクリプタ領域の変更処理につづいて、データ格納部3内のDMA転送が終了したデータを格納していた領域(受け取った転送完了割込み通知に対応した送信バッファ)を解放する。
以上の転送完了割込み通知を受け取ってから送信バッファを解放するまでの処理を、上述した上位レイヤ処理などを実行するCPUとは異なる他のCPU(図2に示した例ではCPU#1)が実行する。
このように、本実施の形態のネットワーク装置では、送信データが格納されたメモリから外部の装置へ接続されたNICに対して送信データをDMA転送する場合、送信データをメモリへ格納する処理および格納先(送信バッファ)の情報をメモリ内の所定の領域へ格納する処理と、DMA転送が完了した旨を示す割込みが発生した場合に実行する、それまで使用していた送信バッファの解放処理を異なるCPUに割り当てて並列に実行するようにした。これにより、従来発生していた解放処理にかかる処理遅延分だけ処理時間を短縮でき、送信処理の高速化を実現できる。
実施の形態2.
つづいて、実施の形態2のネットワーク装置について説明する。実施の形態1のネットワーク装置では、送信データをデータ格納部3が有する送信バッファへ格納する処理とデータ送信完了後に送信バッファを解放する処理とを異なるCPUが実行する場合について示した(図1,図2参照)。これに対して、本実施の形態では、OS10が送信ディスクリプタを上位レイヤ処理部が割当てられているCPUと同じ数だけ用意し、送信データを送信バッファへ格納する処理および送信バッファを解放する処理を各CPUにおいて個別に実行する場合について説明する。
つづいて、実施の形態2のネットワーク装置について説明する。実施の形態1のネットワーク装置では、送信データをデータ格納部3が有する送信バッファへ格納する処理とデータ送信完了後に送信バッファを解放する処理とを異なるCPUが実行する場合について示した(図1,図2参照)。これに対して、本実施の形態では、OS10が送信ディスクリプタを上位レイヤ処理部が割当てられているCPUと同じ数だけ用意し、送信データを送信バッファへ格納する処理および送信バッファを解放する処理を各CPUにおいて個別に実行する場合について説明する。
図3は、実施の形態2のネットワーク装置の機能ブロック構成の一例をパケット送信処理の流れとともに示す図である。なお、上述した実施の形態1と同じ処理を行う構成については同一の符号を付してその説明を省略する。
図3に示したように、本実施の形態のネットワーク装置は、実施の形態1の上位レイヤ処理部1と同様の処理を実行する複数の上位レイヤ処理部1a,1b,1cと、実施の形態1の情報処理部2と同様の処理を実行する複数の情報処理部2a,2b,2cと、データ格納部3と、実施の形態1の送信ディスクリプタ4−1および4−2と同様の処理を実行する複数の送信ディスクリプタ4a,4b,4cと、NIC5と、振分け手段に相当する割込み振分け部6と、を備える。
各上位レイヤ処理部にはいずれか一つの情報処理部および送信ディスクリプタが予め対応付けられ、各情報処理部は、対応する上位レイヤ処理部から受け取ったメッセージブロックを自身に対応付けられた送信ディスクリプタへ格納する。図3では、上位レイヤ処理部、情報処理部および送信ディスクリプタの組み合わせ(以下、送信データ格納処理ブロックと呼ぶ)の数が3の場合の例について示しているが、3以外であってもよい。なお、各送信データ格納処理ブロックは、異なるCPUに割り当てられているものとする。また、互いに対応付けられた上位レイヤ処理部と情報処理部のペアがメモリ管理手段を構成する。すなわち、図3は、3つのメモリ管理手段を備えた場合の構成例を示している。
割込み振分け部6は、NIC5からの転送完了割込みを受け取り、それを各CPUへ振分ける。
つづいて、実施の形態2のネットワーク装置によるデータ送信動作を図3および図4を参照しながら説明する。なお、図4は、実施の形態2のネットワーク装置におけるデータ送信動作に含まれる各処理を時系列的に示した図である。
OS10は、複数の送信ディスクリプタのうちのいずれか一つを予め選択し、DMA転送時に参照するためのディスクリプタ領域として設定(NIC5に対して通知)しておくものとする。ここでは、送信ディスクリプタ4aを設定しておくものとする。そして、カーネル空間内に割込み振分け部6を用意し、転送完了割込みが発生した場合、割込み振分け部6は、転送完了割込みを受け取り、その通知先として送信データ格納処理ブロックのうちのいずれか一つを選択する。
各送信データ格納処理ブロックでは、送信データが発生した場合、上位レイヤ処理部がデータ格納部3の未使用領域(未使用の送信バッファ)を確保して当該領域へ送信データを格納し、さらに、送信データを格納した領域(格納先)のアドレス情報を含んだメッセージブロックを自身と対応付けられた情報処理部へ発行する。情報処理部は、受け取ったメッセージブロックを、自身と対応付けられた送信ディスクリプタへ格納する。
NIC5は、OS10から予め通知されていたディスクリプタ領域の状態を定期的にポーリング(監視)し、メッセージブロックが格納されていることを検出した場合、送信データをDMA転送にて取得し、外部ネットワーク装置へ送信する。また、DMA転送が完了すると、その旨を示す転送完了割込みをOS10に対して発行する。
OS10では、転送完了割込み通知を受け取った場合、割込み振分け部6が、受け取った割込み通知に対応したスレッド/CPUへ割り込みを通知し、さらに、DMA転送時にNIC5が参照するためのディスクリプタ領域を、それまで設定しておいた送信ディスクリプタ(この例では送信ディスクリプタ4a)から他の送信ディスクリプタへ変更する。
割込み振分け部6経由で転送完了割込みを受け取ったCPUの上位レイヤ処理部では、受け取った転送完了割込みに対応する領域(送信バッファ)を解放する。
以上の処理を、すべての送信ディスクリプタが空になるまで(データ格納部3に格納された送信データがなくなるまで)繰り返す(図4参照)。図4は、各CPUに対応した送信データ格納処理ブロックが送信データのデータ格納部3(送信バッファ)への格納処理(図示した上位処理に相当)およびメッセージブロックの格納処理(図示したアドレス情報格納処理に相当)を個別に実行し、その後NIC5から転送完了割込み通知を受け取った時点で割込み処理以降の処理(図示した割込み処理、変更処理(ディスクリプタ領域の変更処理)およびバッファ解放処理)を実行する様子を示している。
このように、本実施の形態では、上位レイヤ処理部、情報処理部および送信ディスクリプタにより構成されるブロック(送信データ格納処理ブロック)を複数設け、それらを互いに異なるCPUが管理することとした。また、割り込み振分け部がNICからの転送完了割込みを対応するCPUへ振分けることとした。すなわち、送信データが格納されたメモリから外部の装置へ接続されたNICに対して送信データをDMA転送する場合、送信データをメモリへ格納する処理、送信データの格納先情報をメモリ内の所定の領域へ格納する処理および送信バッファの解放処理を並列に実行することとした。これにより、従来発生していた解放処理にかかる処理遅延分だけ処理時間を短縮でき、送信処理の高速化を実現できる。
実施の形態3.
つづいて、実施の形態3のネットワーク装置について説明する。本実施の形態では、実施の形態2のネットワーク装置の変形例について説明する。具体的には、送信データに対する上位レイヤ処理の負荷を考慮し、各CPUにおける処理量を調整する機能を有するネットワーク装置について説明する。
つづいて、実施の形態3のネットワーク装置について説明する。本実施の形態では、実施の形態2のネットワーク装置の変形例について説明する。具体的には、送信データに対する上位レイヤ処理の負荷を考慮し、各CPUにおける処理量を調整する機能を有するネットワーク装置について説明する。
図5は、実施の形態3のネットワーク装置の機能ブロック構成の一例をパケット送信処理の流れとともに示す図である。このネットワーク装置は、実施の形態2のネットワーク装置(図3参照)に対して、パケット振分け部7を追加した構成をとる。パケット振分け部7以外の構成については、上述した実施の形態2のネットワーク装置と同様であるため同一の符号を付してその説明を省略する。なお、パケット振分け部7が決定手段を構成する。
パケット振分け部7は、送信パケット(送信データ)が発生した場合、当該パケットについての上位レイヤ処理部における処理時間を見積もり、見積もり結果および各CPUの負荷状態に基づいてパケット(送信データ)をいずれか一つのCPU(上位レイヤ処理部)へ渡す。具体的には、各CPUにおける負荷状態(処理量)が均等化されるようにパケットの振分先を決定する。なお、各CPUにおける処理能力が同じである場合には、処理時間の見積もりを省略し、その時点で最も負荷の低い(処理量が少ない)CPUに対応する上位レイヤ処理部へパケットを振分けるようにしてもよい。
上位レイヤ処理部へパケットが振分けられた後の処理は実施の形態2で示したとおりである。
このように、本実施の形態では、送信データが発生した場合、上位レイヤ処理に要する時間を考慮して、その送信データを渡す上位レイヤ処理部を決定することとした。これにより、実施の形態2で示した効果に加えて、特定のCPUにおける上位レイヤ処理負荷が高い場合、処理時間が長くなり、他のCPUにおける送信処理に遅延を生じさせることを防止することができる。すなわち、更なる高速化を実現できる。
以上のように、本発明は、OSを搭載したマルチコア/マルチプロセッサ対応CPUおよびネットワークインタフェイスデバイスを備えたネットワーク装置に有用であり、特に、高速なデータ送信処理が要求される通信ネットワークに好適に利用することができる。
1、1a、1b、1c 上位レイヤ処理部
2、2a、2b、2c 情報処理部
3 データ格納部
4−1、4−2、4a、4b、4c 送信ディスクリプタ
5 NIC(Network Interface Card)
6 割込み振分け部
7 パケット振分け部
2、2a、2b、2c 情報処理部
3 データ格納部
4−1、4−2、4a、4b、4c 送信ディスクリプタ
5 NIC(Network Interface Card)
6 割込み振分け部
7 パケット振分け部
Claims (4)
- 複数のCPUおよびメモリを搭載し、外部装置宛の送信データおよび当該送信データの格納先情報を管理する管理機能を有するデータ処理手段と、
前記格納先情報に基づいて、前記データ処理手段が保持している外部装置宛の送信データをDMA転送により取得し、さらに、DMA転送が完了した旨を示す転送完了通知を前記データ処理手段へ発行するDMA処理手段と、
を備え、
前記データ処理手段では、
前記複数のCPUの中の1つである第1のCPUが、前記管理機能として、送信データを前記メモリ内の未使用領域へ格納する処理および当該送信データの格納先情報を前記メモリ内に予め確保しておいた複数の情報管理領域の中のいずれか一つに格納する処理を実行し、
また、前記第1のCPUとは異なる第2のCPUが、前記DMA処理手段から転送完了通知を受け取り、当該転送完了通知により特定される前記メモリ内の領域を解放することを特徴とするネットワーク装置。 - 複数のCPUおよびメモリを搭載し、外部装置宛の送信データおよび当該送信データの格納先情報を管理するデータ処理手段と、
前記格納先情報に基づいて、前記データ処理手段が保持している外部装置宛の送信データをDMA転送により取得し、さらに、DMA転送が完了した旨を示す転送完了通知を前記データ処理手段へ発行するDMA処理手段と、
を備え、
前記データ処理手段は、
送信データおよび送信データの格納先情報を管理するための構成として、
送信データを前記メモリ内の未使用領域へ格納し、送信データの格納先情報を前記メモリ内に予め確保しておいた複数の情報管理領域の中のいずれか一つに格納し、さらに、前記DMA処理手段から転送完了通知を受け取り、当該転送完了通知により特定される前記メモリ内の領域を解放する複数のメモリ管理手段、
を備え、
各メモリ管理手段をそれぞれ異なるCPU上で実現することを特徴とするネットワーク装置。 - さらに、
送信データが発生した場合、その時点における各CPUの負荷状態に基づいて、当該送信データを管理するCPUを決定する決定手段、
を備えることを特徴とする請求項2に記載のネットワーク装置。 - 前記決定手段は、各CPUの負荷状態が均等化されるように、CPUを決定することを特徴とする請求項3に記載のネットワーク装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007288061A JP2009118106A (ja) | 2007-11-06 | 2007-11-06 | ネットワーク装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007288061A JP2009118106A (ja) | 2007-11-06 | 2007-11-06 | ネットワーク装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009118106A true JP2009118106A (ja) | 2009-05-28 |
Family
ID=40784749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007288061A Pending JP2009118106A (ja) | 2007-11-06 | 2007-11-06 | ネットワーク装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009118106A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102439983A (zh) * | 2011-10-27 | 2012-05-02 | 华为技术有限公司 | 一种数据快速分发方法和装置 |
CN103200085A (zh) * | 2013-04-16 | 2013-07-10 | 中航网信(北京)科技有限公司 | 一种实现vxlan报文线速收发的方法及系统 |
-
2007
- 2007-11-06 JP JP2007288061A patent/JP2009118106A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102439983A (zh) * | 2011-10-27 | 2012-05-02 | 华为技术有限公司 | 一种数据快速分发方法和装置 |
CN102439983B (zh) * | 2011-10-27 | 2014-04-16 | 华为技术有限公司 | 一种数据快速分发方法和装置 |
US9774651B2 (en) | 2011-10-27 | 2017-09-26 | Huawei Technologies Co., Ltd. | Method and apparatus for rapid data distribution |
CN103200085A (zh) * | 2013-04-16 | 2013-07-10 | 中航网信(北京)科技有限公司 | 一种实现vxlan报文线速收发的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10642777B2 (en) | System and method for maximizing bandwidth of PCI express peer-to-peer (P2P) connection | |
EP2928136B1 (en) | Host network accelerator for data center overlay network | |
US8867559B2 (en) | Managing starvation and congestion in a two-dimensional network having flow control | |
TWI543073B (zh) | 用於多晶片系統中的工作調度的方法和系統 | |
TWI416334B (zh) | 在匯流排上以封包形式傳送來自複數個客戶的資料傳送請求之方法、匯流排介面裝置及處理器 | |
US6934776B2 (en) | Methods and apparatus for determination of packet sizes when transferring packets via a network | |
Larsen et al. | Architectural breakdown of end-to-end latency in a TCP/IP network | |
JP6392745B2 (ja) | サーバノード相互接続デバイス及びサーバノード相互接続方法 | |
JP2008129767A (ja) | ネットワーク装置 | |
García-Dorado et al. | High-performance network traffic processing systems using commodity hardware | |
EP2755363B1 (en) | Data-fast-distribution method and device | |
TWI541649B (zh) | 用於多晶片系統的晶片間互連協定之系統與方法 | |
EP3563534B1 (en) | Transferring packets between virtual machines via a direct memory access device | |
US7860120B1 (en) | Network interface supporting of virtual paths for quality of service with dynamic buffer allocation | |
WO2023072065A1 (zh) | 数据处理方法、装置、电子设备和存储介质 | |
WO2008106879A1 (fr) | Procédé et dispositif de traitement de transfert de données | |
US9128771B1 (en) | System, method, and computer program product to distribute workload | |
JP2009118106A (ja) | ネットワーク装置 | |
CN111404986A (zh) | 数据传输处理方法、设备和存储介质 | |
JP2009116561A (ja) | データ転送システム | |
JP2008299439A (ja) | パケット処理装置 | |
KR20050080704A (ko) | 프로세서간 데이터 전송 장치 및 방법 | |
EP3977705B1 (en) | Streaming communication between devices | |
Paul et al. | Traffic capture beyond 10 Gbps: Linear scaling with multiple network interface cards on commodity servers | |
JP5772132B2 (ja) | データ転送装置、データ転送方法および情報処理装置 |