JP2018148455A - 情報処理装置及び方法 - Google Patents

情報処理装置及び方法 Download PDF

Info

Publication number
JP2018148455A
JP2018148455A JP2017043029A JP2017043029A JP2018148455A JP 2018148455 A JP2018148455 A JP 2018148455A JP 2017043029 A JP2017043029 A JP 2017043029A JP 2017043029 A JP2017043029 A JP 2017043029A JP 2018148455 A JP2018148455 A JP 2018148455A
Authority
JP
Japan
Prior art keywords
access
packet
core
storage device
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017043029A
Other languages
English (en)
Inventor
智洋 郡川
Tomohiro Korigawa
智洋 郡川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017043029A priority Critical patent/JP2018148455A/ja
Publication of JP2018148455A publication Critical patent/JP2018148455A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】高速なパケット処理が可能であり且つ汎用性の高い情報処理装置及び方法を提供する。【解決手段】マルチコアCPU100と、複数のブロック220に区画されているとともに前記マルチコアCPU100から各ブロック220への並列アクセスが可能に構成された記憶装置200との間に、トラヒックフロー振り分け部400を設ける。トラヒックフロー振り分け部400は、マルチコアCPU100の複数あるCPUコアとHMC200内の複数あるVault220の個々のアクセスに対して紐付けるロジックと、ネットワークからの入力トラヒックをパケットのヘッダ情報に基づきマルチコアCPU100のどのCPUコアに処理させるかを振り分けるロジックを設ける。【選択図】図2

Description

本発明は、通信ネットワークにおける大規模トラヒックフローを対象とするパケット処理を行う情報処理装置に関する。
近年、通信ネットワーク内には、従来のテキストデータや静止画像に加えストリーミングによる映像配信、ユーザの大容量のデータのダウンロード等のサービスが一般的になってきている。このため、ネットワーク内を流れるデータトラヒック量は、容量が年々拡大の一途をたどっている。特に、今後、映像や静止画像等の品質のさらなる向上や広帯域使用ユーザ数の増大が予想され、ネットワーク内でさらなるトラヒック増大が予想される。
このトラヒックの増大に対応するため、ルータ、スイッチ及びサーバ等各種ネットワーク内での通信処理システムや伝送系システムの性能向上が図られており、ユーザ側でより快適な広帯域データでの通信が可能となって来ている。通信事業者等のネットワーク内を流れるデータはIP(Internet Protocol)化されたパケットで転送され、ルータ、スイッチ及びサーバ等でパケット処理を行うことにより制御データやユーザデータが転送されるのが一般的である。これらを処理するCPU(Central Processing Unit)は、マルチコア化が進み、マルチスレッドでの処理技術が一般化しており、また、メインメモリとなる大容量のDRAM(Dynamic Random Access Memory)でDDR3(Double-Data-Rate3)DRAMやDDR4(Double-Data-Rate4)DRAMが現在主流となっている。なお、以下の説明では、DDR3 DRAMやDDR4 DRAMをDDRx DRAMと総称するものとする。
上記した今後のさらなるトラヒックの増大に対応してゆく場合、これらDDRx DRAMによるアーキテクチャでの処理性能には、システムが要求する処理性能でいずれ限界が生じてくるものと想定される。この性能限界に対して、メモリデバイスアーキテクチャを一新する革新的技術の一つであるHybrid Memory Cube(以下「HMC」と言う。)が2013年4月に仕様が開示され、既にスーパーコンピュータ等で実用化が開始されている。HMCは、3次元形状を持つ半導体の層が4〜8枚積層され、各層がシリコン貫通電極によって接続されている。その積層した縦の列を「Vault」と呼び、1つひとつのDRAMとして機能する。HMCは、例えば、DDR3と比較し15倍以上の高速アクセスを実現している。
HMCを適用した情報処理装置としては特許文献1に記載のものが知られている。特許文献1では、プロセッサとHMC間のメモリコントローラにおいて、プロセッサからのアクセス要求に対するHMC側の応答時間を算出し、所要時間を基にプロセッサ側からのアクセス要求に対するHMC側のアクセス経路を選択する方法を提案している。
また、HMCを適用したスーパーコンピュータとしては非特許文献1に記載のものが知られている。非特許文献1に記載のスーパーコンピュータでは、メモリにHMCを採用し、1ノードあたり480GB/sというメモリ帯域を実現している。
[従来技術]
通信事業者ネットワークにおける大規模トラヒックフローを対象とするパケット処理は、現在、ルータやスイッチ等の専用装置により実現している。汎用サーバでの高速パケット処理もある程度は、実現可能となって来ているが、通信事業者ネットワークにおけるような大規模トラヒックフローへの適用には、現行の汎用サーバアーキテクチャでは、メモリ性能がボトルネックとなる。現行の汎用サーバアーキテクチャとして図1に示すようなDDRx DRAMを使用したアーキテクチャが採用されている。
図1に従来技術の汎用サーバを適用したパケット処理装置構成を示す。メインメモリには、上記したようにDDRx DRAMを採用している。DDRx DRAMは、パケット処理においてパケットバッファ、アドレス検索テーブル等に使用される。CPUは、マルチコアCPUであり、複数のCPUコアで構成され、並列処理が可能となっている。また、マルチコアCPUは、各CPUコア内や各CPUコアで共通に使用する低容量で高速動作可能なキャッシュメモリを内蔵しており、キャッシュメモリに納まる範囲内の処理であれば高い処理性能を発揮する。しかしながら、これらキャッシュメモリは、容量が小さく容量不足によりメインメモリであるDDRx DRAM へのアクセスが頻発した場合、性能のボトルネックが生じる。これは、DDRx DRAMは、アクセス速度がキャッシュメモリと比較して遅いとともに、アクセスの並列度がないかもしくは並列度があっても低いため、複数のCPUコア側が同時に多くのアクセス要求を出す場合、DDRx DRAM側がアクセス中でビジー状態となり、CPUコア側で待ち合わせ状態となるためである。
また、パケット転送処理で特に処理時間を要する高速テーブル検索は、ルータ等に採用されている、テーブル検索特化の専用デバイスであり、高速動作可能なTernary Content Addressable Memory(以下「TCAM」と言う。)により実現されている。キャッシュメモリ同様、低容量である。さらには高消費電力であり、また高価であることが難点である。
特開2016‐076108号公報
"FUJITSU Supercomputer PRIMEHPC FX100", [online], [平成27年1月11日検索], インターネット<URL:http://www.fujitsu.com/jp/products/computing/servers/supercomputer/primehpc-fx100>
前述したように、将来的な巨大な大容量パケットトラヒックフローに対応してゆくためには、これら従来サーバアーキテクチャの延長によるパケット処理方式では、いずれは限界がくると想定される。これは、以下の問題による。
・DDRx DRAMを使用したアーキテクチャでは、メモリのアクセス並列度がないもしくは低いため、マルチコアの複数のCPUからDDRx DRAM へのアクセスが頻発した場合、DDRx DRAM側の同時アクセス可能な並列度がないもしくは低いため、アクセス待ち状態により性能のボトルネックが生じる。このような性能のボトルネックでは、特に、優先度の高いパケット処理への影響は大きくQoS(Quality of Service)遵守の観点からも重要な課題である。
・TCAMは、テーブル検索以外の用途には適用できないとともに、低容量であるとともに高消費電力であるため、汎用性が無くサーバのメインメモリとして利用できないことが課題である。
これらの問題を解決するためには、従来のサーバアーキテクチャでなく、新しいサーバアーキテクチャが必要となり、大容量のメモリでアクセス性能を飛躍的に高めるパケット処理装置の具体的な方式の考案が必要となってくる。
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、高速なパケット処理が可能であり且つ汎用性の高い情報処理装置及び方法を提供することにある。
上記目的を達成するために、本願発明に係る情報処理装置は、複数のコアを有する演算装置と、記憶装置と、前記演算装置による前記記憶装置へのアクセスを制御する制御装置とを備え、データ通信に係るパケットを処理する情報処理装置であって、前記記憶装置は、複数のブロックに区画されているとともに前記演算装置から各ブロックへの並列アクセスが可能に構成されており、前記制御装置は、外部から受信したパケットを前記演算装置の複数のコアの何れかに振り分ける振り分け手段と、前記演算装置のコアと前記記憶装置のブロックとを紐付けた対応情報を記憶する対応情報記憶手段と、前記演算装置のコアでのパケットの処理における前記記憶装置へのアクセスがあると、当該アクセスのアクセス元のコアを識別し、識別したコア及び前記対応情報に基づきアクセス先となる前記記憶装置のブロックを決定し、決定したブロックがアクセス先となるよう前記アクセスを制御するアクセス制御手段とを備えたことを特徴とする。
また、本願発明に係る情報処理方法は、複数のコアを有する演算装置と、記憶装置と、前記演算装置による前記記憶装置へのアクセスを制御する制御装置とを備え、データ通信に係るパケットを処理する情報処理方法であって、前記記憶装置は、複数のブロックに区画されているとともに前記演算装置から各ブロックへの並列アクセスが可能に構成されており、前記制御装置の振り分け手段が、外部から受信したパケットを前記演算装置の複数のコアの何れかに振り分けるステップと、前記演算装置のコアが、振り分けられたパケットの処理において前記記憶装置へのアクセスを前記制御装置に対して行うステップと、前記制御装置のアクセス制御装置が、前記アクセスのアクセス元のコアを識別し、識別したコア、及び対応情報記憶手段に記憶されている前記演算装置のコアと前記記憶装置のブロックとを紐付けた対応情報に基づき、アクセス先となる前記記憶装置のブロックを決定し、決定したブロックがアクセス先となるよう前記アクセスを制御するステップと、を備えたことを特徴とする。
本発明によれば、マルチコア演算装置と記憶装置のもつ並列処理ポテンシャルを最大限に引き出することができるので、汎用的なデバイスのみを活用してサーバ上のパケット処理性能向上を図ることができる。また、マルチコア演算装置と記憶装置との間に設ける制御装置のロジック実装次第で、優先制御等の付加機能が実現可能となる。
従来の高速パケット処理方式を説明する図 本発明に係る情報処理装置の概略構成図 本発明に係る情報処理装置の構成図 高速パケット処理フロー例
本発明の一実施形態に係る情報処理装置及び方法について詳述する。まず本発明のポイントについて説明する。本発明のポイントは以下の5つである。
(1)大量のトラヒックフローを対象とするパケット処理実現手段として高性能と汎用性を両立したアーキテクチャを確立。
(2)パケット処理の並列処理適正(フロー毎に独立処理が可能)に着目したマルチコアCPUおよびHMCの制御方式を確立。
(3)前記(2)においては、従来の性能のボトルネックとなっていたメモリアクセス並列度のないもしくは低いDDRx DRAMメモリに替えて、アクセス並列度の高いHMCを適用し、マルチコアCPUとHMC間のアクセス制御用にパケット処理用HMCアクセス制御機能を設けることにより、トラヒックフローをマルチコアCPU・HMC間で振り分ける制御方式の確立。
(4)前記(3)におけるパケット処理用HMCアクセス制御機能の具体的な実現方式として、マルチコアCPUの複数あるCPUコアとHMC内の複数あるVaultの個々のアクセスに対して紐付けるロジックを設け、パケット処理時には、各CPUコアに対応するHMC内のVaultをアクセスする方式を確立。
(5)前記(3)におけるパケット処理用HMCアクセス制御機能部の周辺部に、マルチコアCPUの複数あるCPUコアについてもネットワークからの入力トラヒックをパケットのヘッダ情報に基づきマルチコアCPUのどのCPUコアに処理させるかを振り分けるロジックを設けることにより、パケットの優先制御処理等を効率よく実現する方式を確立。
HMCは、Vaultと呼ばれる複数のブロックに区画されているとともにマルチコアCPUから各Vaultへの並列アクセスが可能に構成されている。HMCは、データ記憶素子層である複数のDRAM層と、メモリコントロール機能を実装した層であるロジックベースとを、TSV(Through-Silicon Via/シリコン貫通電極)と呼ばれる層間接続導体により互いに接続するように積層したものである。HMCは、各データ記憶素子層を平面上において複数の区画に分割するとともに各データ記憶素子層の同一区画間を互いに接続することによりVaultが形成されている。
なお、本発明においては「パケット」とは、例えばIPパケットなどOSI(Open Systems Interconnection)参照モデルのレイヤー3のパケットを意味するものとする。
次に、本発明の情報処理装置及び方法の概念について図2を参照して説明する。図2は本発明に係る情報処理装置の概略構成図である。
本発明では、図2に示すような、メモリとして従来のDDRx DRAMでは有していない高いアクセス並列度をもつHybrid Memory Cube(HMC)を用い、マルチコアCPUとHMC間のアクセス制御用および一部パケット処理をField Programmable Gate Array(以下「FPGA」と言う。)等で実装するサーバアーキテクチャを提案する。これにより通信事業者ネットワークおけるパケット処理等の高いメモリアクセス性能が求められるアプリケーションにおいて高性能を実現することが可能となる。
図2において、マルチコアCPU100は、複数のCPUコアを有し、内部にキャッシュメモリを内蔵している。HMC200は、上述したロジックベース210と複数のVault220を有し、各Vault220は、並列アクセス可能である。図2では、パケット処理において、パケット処理プログラムをマルチコアCPU100側に接続するDRAM300内に設け、パケット処理時間に影響する検索テーブルやパケットバッファをHMC200内に設ける場合を示している。
本発明では、図2に示すように、上記のパケット処理において、マルチコアCPU100とHMC200間にトラヒックフロー振り分け部400を設け、アクセス制御用に以下の2つの機能を盛り込むことによりトラヒックフロー振り分け型CPU・メモリ制御方式を実現する。
1)マルチコアCPU100の複数あるCPUコアとHMC200内の複数あるVault220の個々のアクセスに対して紐付けるロジックを設ける。これによりパケット処理時には、各CPUコアに対応するHMC200内のVault220をアクセスする。
2)ネットワークからの入力トラヒックをパケットのヘッダ情報に基づきマルチコアCPU100のどのCPUコアに処理させるかを振り分けるロジックを設ける。
前記1)により、パケットトラヒックフロー数が増大し、キャッシュメモリでは対応できずにメインメモリアクセスとなった場合等でも、各CPUコアは、自コアに割り当てられたHMC200内のVault220のアクセスができ複数のCPUコアが同時に複数のVault220へのアクセスによる並列処理が可能となり、処理性能を高められる。
また、前記2)のパケットヘッダ情報やアドレス情報等に基づきマルチコアCPU100のどのCPUコアに処理させるかを振り分けることにより、パケットのQoS機能である優先制御処理等を効率よく実現できる。
以下、実施例に係る情報処理装置について図3を参照して説明する。図3に図2をベースにした高速パケット処理のためのトラヒックフロー振り分け型CPU・メモリ制御方式の構成図を示す。
図3において、情報処理装置は、マルチコアCPU100、トラヒックフロー振り分け部400及びHMC200の3つの主要部分から構成される。
マルチコアCPU100は、数個〜数十個のオーダの複数のCPUコア110を備えている。各CPUコア110は、Level1 Cache(L1)111と、Level2 Cache(L2)112を内蔵している。またマルチコアCPU100は、各CPUコア110で共有されるLast Level Cache(LLC)120を備えている。マルチコアCPU100には、DRAM300が接続されている。DRAM300には、例えばルーティングプログラムなどのパケット処理プログラムが記憶されている。
HMC200は、マルチコアCPU100側とのインタフェース部であるロジックベース210と、並列アクセスできる16個もしくは32個程度のVault220とを備えている。HMC200は、各Vault220に対応するアドレス領域を指定したアクセスを行うことにより、所望のVault220へのアクセスが可能となる。
このマルチコアCPU100とHMC200間に本発明のトラヒックフロー振り分け部400を設ける。またトラヒックフロー振り分け部400には、ネットワークからのパケットの入出力部であるNetwork Interface Card(以下「NIC」と言う。)500が接続されている。
トラヒックフロー振り分け部400は、FPGAで構成し、プログラム可能な論理コンポーネントを含んでいる。すなわち、トラヒックフロー振り分け部400は、論理コンポーネントとして、入力側のインタフェースとなるパケットパーサ410と、出力側のインタフェースとなるパケット出力部420と、パケットパーサ410からのヘッダ位置が特定されたパケットを解析して、複数あるCPUコア110の何れかに振り分けるパケットヘッダ情報解析・CPUコア振り分け判断部430及びパケットCPUコア振り分け部440と、複数あるCPUコア110側のマルチコアCPU100からHMC200をアクセス時のHMC200内のアクセス先のVaultを制御するHMCアクセス制御部450と、アクセス時にHMCアクセス制御部450が参照するCPUコア・Vault対応表460と、HMC200とのインタフェース部であるHMC Controller470とを備えている。
以下、図3の構成をもとに、パケット処理の流れについて図4の高速パケット処理フロー例にてパケットの入力からパケットの出力までについて説明する。なお、上記した図3のCPUコア・Vault対応表460には、CPUコア数とHMCのVault数に対応して、アクセスするCPUコアとVaultとの対応表を事前にプログラムしておく。
図4において高速パケット処理開始(ステップS1)し、NIC500でパケットを受信した場合(ステップS2のYes)、トラヒックフロー振り分け部400のパケットパーサ410にて入力パケットのヘッダ位置を特定し(ステップS3)、次にパケットヘッダ情報解析・CPUコア振り分け判断部430にてパケットのヘッダ情報(例えばアドレス内容等)から入力パケットを分類し、どのCPUコア110に振り分けるべきか判断する(ステップS4)。パケットCPUコア振り分け部440にて本判断情報をもとに入力パケットを各CPUコア110へ振り分ける(ステップS5)。振り分け法については、例えば図4では、アドレス内容によりパケット処理の高優先及び低優先の処理を行うCPUコアを各々複数台ずつ割り当て、振り分ける方法を示している。
振り分けられたパケットを受信した各CPUコア110では、必要なパケット処理を実施する(ステップS6)。ここで、パケット処理時に必要なメモリアクセス、例えば、テーブル検索やパケット加工等はすべてHMC200に対して行う。HMCアクセスが有る場合(ステップS7)、HMCアクセス制御部450にて、アクセス元CPUコア110からコア・Vault対応表460よりアクセス先Vaultを決定し、HMC Controller470によりアクセスする(ステップS8)。
コア・Vault対応表460には、CPUコアと当該CPUコアのアクセスするVaultの対応表が記述されている。HMCアクセス制御部450はこれを参照し、CPUコアからのメモリアクセス命令中のメモリアドレス(物理メモリアドレス)を指定されたアクセスVaultを示すHMCメモリアドレスに変換してVault220をアクセスし、アクセス結果をアクセス元CPU側にアクセスルートと同ルートで返送する(ステップS9)。
パケット処理が終了するまで必要に応じたHMC200へのアクセスが行われるが、パケット処理が終了(ステップS10)すると各CPUコア110では、パケット出力部420を経由してNIC500へパケット送信され(ステップS11)、受信から送信までの処理を終了する(ステップS12)。
本発明に係る情報処理装置によれば、マルチコアCPU100およびHMC200のもつ並列処理ポテンシャルを最大限に引き出することができるので、特定用途向けではない、汎用的なデバイスのみを活用してサーバ上のパケット処理性能向上を図ることができる。また、マルチコアCPU100およびHMC200間に設けるトラヒックフロー振り分け部400のロジック実装次第で、優先制御等の付加機能が実現可能となる。さらに、HMC200を採用しているので、消費電力削減、実装面積削減による低消費電力化、コンパクト化が可能となる。
以上本発明の一実施の形態について詳述したが本発明はこれに限定されるものではない。例えば、上記実施の形態では、記憶装置としてHMCを例示したが、複数のブロックに区画されているとともに各ブロックへの並列アクセスが可能であり、且つ、当該ブロックを指定したアクセスが可能なものであれば、他の記憶装置を用いてもよい。
また、上記実施の形態では、パケットのヘッダ情報のうちアドレス情報に基づきパケットの振り分けを行っていたが、他のヘッダ情報を用いてもよい。他のヘッダ情報としては、例えばトラフィッククラスやTOS(Type of Service)に格納されている、パケットの優先度などパケットの品質を決める情報などが挙げられる。また、上記実施の形態では、レイヤー3のパケットのヘッダ情報に基づきパケットの振り分けを行っていたが、当該パケットのコンテナに格納されている上位プロトコルのパケットに係るヘッダ情報やその他の情報に基づき振り分けを行ってもよい。さらに、これら複数の各種情報の任意の組み合わせに基づき振り分けを行ってもよい。
100…マルチコアCPU
110…CPUコア
200…HMC
210…ロジックベース
220…Vault
300…DRAM
400…トラヒックフロー振り分け部
410…パケットパーサ
420…パケット出力部
430…パケットヘッダ情報解析・CPUコア振り分け判断部
440…パケットCPUコア振り分け部
450…HMCアクセス制御部
460…コア・Vault対応表
470…HMC Controller

Claims (5)

  1. 複数のコアを有する演算装置と、記憶装置と、前記演算装置による前記記憶装置へのアクセスを制御する制御装置とを備え、データ通信に係るパケットを処理する情報処理装置であって、
    前記記憶装置は、複数のブロックに区画されているとともに前記演算装置から各ブロックへの並列アクセスが可能に構成されており、
    前記制御装置は、外部から受信したパケットを前記演算装置の複数のコアの何れかに振り分ける振り分け手段と、前記演算装置のコアと前記記憶装置のブロックとを紐付けた対応情報を記憶する対応情報記憶手段と、前記演算装置のコアでのパケットの処理における前記記憶装置へのアクセスがあると、当該アクセスのアクセス元のコアを識別し、識別したコア及び前記対応情報に基づきアクセス先となる前記記憶装置のブロックを決定し、決定したブロックがアクセス先となるよう前記アクセスを制御するアクセス制御手段とを備えた
    ことを特徴とする情報処理装置。
  2. 前記アクセス制御手段は、前記記憶装置へのアクセスに含まれるメモリアドレスを前記決定したブロックを示すアドレスに変換する
    ことを特徴とする請求項1記載の情報処理装置。
  3. 前記振り分け手段は、受信したパケットのヘッダ情報に基づき当該パケットを前記演算装置の複数のコアの何れかに振り分ける
    ことを特徴とする請求項1又は2何れか1項記載の情報処理装置。
  4. 前記記憶装置は、複数のデータ記憶素子層とメモリコントロール機能層とを互いに接続するように積層するとともに、各データ記憶素子層を平面上において複数の区画に分割するとともに各データ記憶素子層の同一区画間を互いに接続することによりブロックを形成した
    ことを特徴とする請求項1乃至3何れか1項記載の情報処理装置。
  5. 複数のコアを有する演算装置と、記憶装置と、前記演算装置による前記記憶装置へのアクセスを制御する制御装置とを備え、データ通信に係るパケットを処理する情報処理方法であって、
    前記記憶装置は、複数のブロックに区画されているとともに前記演算装置から各ブロックへの並列アクセスが可能に構成されており、
    前記制御装置の振り分け手段が、外部から受信したパケットを前記演算装置の複数のコアの何れかに振り分けるステップと、
    前記演算装置のコアが、振り分けられたパケットの処理において前記記憶装置へのアクセスを前記制御装置に対して行うステップと、
    前記制御装置のアクセス制御装置が、前記アクセスのアクセス元のコアを識別し、識別したコア、及び対応情報記憶手段に記憶されている前記演算装置のコアと前記記憶装置のブロックとを紐付けた対応情報に基づき、アクセス先となる前記記憶装置のブロックを決定し、決定したブロックがアクセス先となるよう前記アクセスを制御するステップと、を備えた
    ことを特徴とする情報処理方法。
JP2017043029A 2017-03-07 2017-03-07 情報処理装置及び方法 Pending JP2018148455A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017043029A JP2018148455A (ja) 2017-03-07 2017-03-07 情報処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017043029A JP2018148455A (ja) 2017-03-07 2017-03-07 情報処理装置及び方法

Publications (1)

Publication Number Publication Date
JP2018148455A true JP2018148455A (ja) 2018-09-20

Family

ID=63592462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017043029A Pending JP2018148455A (ja) 2017-03-07 2017-03-07 情報処理装置及び方法

Country Status (1)

Country Link
JP (1) JP2018148455A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111653317A (zh) * 2019-05-24 2020-09-11 北京哲源科技有限责任公司 基因比对加速装置、方法及系统
US11593151B2 (en) 2019-07-04 2023-02-28 Fujifilm Business Innovation Corp. Information processing apparatus and semiconductor device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277334A (ja) * 2008-04-14 2009-11-26 Hitachi Ltd 情報処理装置および半導体記憶装置
JP2014194671A (ja) * 2013-03-28 2014-10-09 Fujitsu Ltd 情報処理装置、情報処理装置の制御方法及び情報処理装置の制御プログラム
JP2015226327A (ja) * 2014-05-28 2015-12-14 エックスプライアント, インコーポレイテッド ネットワークスイッチにおける柔軟かつ効率的な解析の方法およびその装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277334A (ja) * 2008-04-14 2009-11-26 Hitachi Ltd 情報処理装置および半導体記憶装置
JP2014194671A (ja) * 2013-03-28 2014-10-09 Fujitsu Ltd 情報処理装置、情報処理装置の制御方法及び情報処理装置の制御プログラム
JP2015226327A (ja) * 2014-05-28 2015-12-14 エックスプライアント, インコーポレイテッド ネットワークスイッチにおける柔軟かつ効率的な解析の方法およびその装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111653317A (zh) * 2019-05-24 2020-09-11 北京哲源科技有限责任公司 基因比对加速装置、方法及系统
CN111653317B (zh) * 2019-05-24 2024-02-09 北京哲源科技有限责任公司 基因比对加速装置、方法及系统
US11593151B2 (en) 2019-07-04 2023-02-28 Fujifilm Business Innovation Corp. Information processing apparatus and semiconductor device

Similar Documents

Publication Publication Date Title
US11579788B2 (en) Technologies for providing shared memory for accelerator sleds
US20210289030A1 (en) Methods, systems and devices for parallel network interface data structures with differential data storage and processing service capabilities
JP6190754B2 (ja) ネットワークスイッチにおける集中型メモリプールを用いるテーブル検索のための装置および方法
US11240155B2 (en) Technologies for network device load balancers for accelerated functions as a service
US7287255B2 (en) System and method for dynamic ordering in a network processor
US20100036903A1 (en) Distributed load balancer
US8930595B2 (en) Memory switch for interconnecting server nodes
EP3657740B1 (en) Message forwarding
CN108353040A (zh) 用于分布式分组调度的系统和方法
US10248315B2 (en) Devices and methods for interconnecting server nodes
US20230275832A1 (en) Networking processor and network device
EP3531633B1 (en) Technologies for load balancing a network
JP2018148455A (ja) 情報処理装置及び方法
EP3974984A1 (en) Technologies for scaling inter-kernel technologies for accelerator device kernels
US10715437B2 (en) Deadline driven packet prioritization for IP networks
US8572349B2 (en) Processor with programmable configuration of logical-to-physical address translation on a per-client basis
Korikawa et al. Carrier-scale packet processing system using interleaved 3D-stacked DRAM
WO2016197607A1 (zh) 一种实现路由查找的方法及装置
JP2023504441A (ja) メモリファブリック物理レイヤインタフェースにわたるパケット転送を管理する装置及び方法
US9998403B2 (en) Most connection method for egress port selection in a high port count switch
Korikawa et al. Memory network architecture for packet processing in functions virtualization
JP2021018510A (ja) パケット処理装置及びそのメモリアクセス制御方法並びにプログラム
JP6991446B2 (ja) パケット処理装置及びそのメモリアクセス制御方法
CN117221212B (zh) 片上光网络低拥塞路由方法及相关设备
US20230019974A1 (en) Method and apparatus to detect network idleness in a network device to provide power savings in a data center

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200805