DE202017105777U1 - System for hardware-independent RDMA - Google Patents

System for hardware-independent RDMA Download PDF

Info

Publication number
DE202017105777U1
DE202017105777U1 DE202017105777.1U DE202017105777U DE202017105777U1 DE 202017105777 U1 DE202017105777 U1 DE 202017105777U1 DE 202017105777 U DE202017105777 U DE 202017105777U DE 202017105777 U1 DE202017105777 U1 DE 202017105777U1
Authority
DE
Germany
Prior art keywords
processing
packet
processing units
application
thread
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202017105777.1U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202017105777U1 publication Critical patent/DE202017105777U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/167Interprocessor communication using a common memory, e.g. mailbox
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • H04L47/2475Traffic characterised by specific attributes, e.g. priority or QoS for supporting traffic characterised by the type of applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/544Buffers; Shared memory; Pipes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • H04L41/0659Management of faults, events, alarms or notifications using network fault recovery by isolating or reconfiguring faulty entities
    • H04L41/0661Management of faults, events, alarms or notifications using network fault recovery by isolating or reconfiguring faulty entities by reconfiguring faulty entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0823Errors, e.g. transmission errors
    • H04L43/0829Packet loss
    • H04L43/0835One way packet loss
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/625Queue scheduling characterised by scheduling criteria for service slots or service orders
    • H04L47/6255Queue scheduling characterised by scheduling criteria for service slots or service orders queue load conditions, e.g. longest queue first

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Environmental & Geological Engineering (AREA)
  • Multi Processors (AREA)

Abstract

System, das umfasst:einen Arbeitsspeicher, der Paketverarbeitungsanweisungen speichert; undeine oder mehrere dedizierte Paketverarbeitungseinheiten in Verbindung mit dem Arbeitsspeicher und mit einer oder mehreren Anwendungsverarbeitungseinheiten, wobei die eine oder die mehreren dedizierten Paketverarbeitungseinheiten zum Ausführen der Paketverarbeitung dediziert sind, wobei jeder der einen oder mehreren dedizierten Paketverarbeitungseinheiten ein Verarbeitungs-Thread zugewiesen ist, wobei die eine oder die mehreren dedizierten Paketverarbeitungseinheiten konfiguriert sind zum:Empfangen eines Pakets von einer Anwendung, die in einer der Anwendungsverarbeitungseinheiten ausgeführt wird, in einem ersten Verarbeitungs-Thread;Verarbeiten durch Software definierter Behandlungsroutinenoperationen, die durch Befehle in dem empfangenen Paket initiiert werden, ohne die Operation an einen Anwendungs-Thread abzusenden, in dem ersten Verarbeitungs-Thread.A system comprising: a memory storing packet processing instructions; and one or more dedicated packet processing units in communication with the random access memory and with one or more application processing units, wherein the one or more dedicated packet processing units are dedicated to perform packet processing, wherein each of the one or more dedicated packet processing units is assigned a processing thread, the one or the plurality of dedicated packet processing units are configured to: receive a packet from an application executing in one of the application processing units in a first processing thread; processing by software defined handler operations initiated by instructions in the received packet without the operation to submit to an application thread in the first processing thread.

Description

HINTERGRUNDBACKGROUND

Einige Hochleistungscomputersysteme nutzen Netzschnittstellencontroller (NIC), die eine CPU-effiziente Kommunikation mit niedriger Latenzzeit zwischen Maschinen ermöglichen. Insbesondere ist die Remote-Direct-Memory-Access-Technologie (RDMA-Technologie) eine Technik, in der eine NIC-Hardwarevorrichtung ausreichend Funktionalität implementiert, um zu ermöglichen, dass eine Maschine auf den Arbeitsspeicher einer anderen Maschine effizient zugreift, ohne den Overhead von Universal-Softwarevernetzungsstapeln zu erleiden, die in zeitlich geteilt genutzten Hostprozessoren ausgeführt werden. NICs mit dieser Funktionalität werden gelegentlich als „Smart-NICs“ bezeichnet, da sie erheblich mehr Funktionalität als ein allgemeiner NIC implementieren, der einfach durch den Host erzeugte Pakete sendet und empfängt. Die Funktionen eines Smart-NIC enthalten einen zuverlässigen Transport in dem NIC sowie eine Folge von „Tätigkeiten“, die spezifische Funktionen wie etwa einen RDMA-Lesevorgang und einen RDMA-Schreibvorgang implementieren.Some high-performance computer systems use network interface controllers (NICs), which enable CPU-efficient communication with low latency between machines. In particular, Remote Direct Memory Access (RDMA) technology is a technique in which a NIC hardware device implements sufficient functionality to allow one machine to efficiently access the memory of another machine without the overhead of Suffer from universal software networking stacks running in shared host processors. NICs with this functionality are sometimes referred to as "smart NICs" because they implement much more functionality than a generic NIC that simply sends and receives packets generated by the host. The functions of a smart NIC include reliable transport in the NIC as well as a series of "activities" that implement specific functions such as an RDMA read and an RDMA write.

Universal-Hostvernetzungsstapel, die in herkömmlichen NICs ausgeführt werden, sind nicht in der Lage, dieselben Sicherheiten niedriger Latenzzeit wie dedizierte hardwaregestützte Smart-NICs sicherzustellen. Zunächst sind Kernel-gestützte Vernetzungsstapel hauptsächlich dafür ausgelegt, Kerne mit anderen Anwendungen und Diensten zeitlich zu multiplexieren. Wegen der Unterbrechungsbehandlung und Kontextumschaltung mit nicht vorhersagbaren Scheduler-Verzögerungen führt die zeitmultiplexierte Nutzung eines Prozessors unvermeidlich zu einer Latenzzeitauswirkung. Zweitens müssen zeitmultiplexiert genutzte Vernetzungsstapel unter Verwendung eines Betriebssystemaufrufs aufgerufen werden, was ein nicht trivialer Overhead ist. Drittens implementieren herkömmliche Hostvernetzungsstapel keine Tätigkeiten, um gut definierte Funktionen wie etwa RDMA-Lesevorgang und RDMA-Schreibvorgang inline mit dem Transport auszuführen. Stattdessen müssen sie eine ankommende Anforderung an einen Anwendungs-Thread absetzen, wobei die Aktion des Absetzens eines Anwendungs-Threads einen erheblichen CPU-Overhead und eine erhebliche CPU-Latenzzeit hervorruft.Universal host networking stacks running on legacy NICs are unable to provide the same low-latency credentials as dedicated hardware-enabled smart NICs. First, kernel-based networking stacks are primarily designed to time-multiplex the cores with other applications and services. Because of interrupt handling and context switching with unpredictable scheduler delays, time-division multiplexed use of a processor inevitably results in a latency impact. Second, time-multiplexed networking stacks must be invoked using an operating system call, which is a non-trivial overhead. Third, conventional host networking stacks do not implement activities to perform well-defined functions such as RDMA read and RDMA write inline with the transport. Instead, they must make an incoming request to an application thread, and the action of dropping an application thread causes significant CPU overhead and significant CPU latency.

Hardwaregestützte Smart-NICs haben mehrere Probleme. Zunächst sind sie unflexibel gegen Änderung. Es ist entweder schwierig oder unmöglich, den NIC mit neuen Tätigkeiten, neuen Überlastabwehralgorithmen oder mit Fehlerbehebungen zu erweitern. Zweitens haben hardwaregestützte Smart-NICs häufig andere Anforderungen an die umgebenden Systeme, wie etwa, dass sie eine verlustfreie Netz-Fabric erfordern.Hardware-based Smart NICs have several issues. First, they are inflexible against change. It is either difficult or impossible to extend the NIC with new activities, new overload defense algorithms, or bug fixes. Second, hardware-based smart NICs often have different requirements for the surrounding systems, such as requiring a lossless network fabric.

In Übereinstimmung mit den Anforderungen des Gebrauchsmustergesetzes durch das Gebrauchsmuster zu schützen und Gegenstand des Gebrauchsmusters sind nur Vorrichtungen, wie sie in den beigefügten Ansprüchen definiert sind, aber keine Verfahren. Falls die Beschreibung auf Verfahren Bezug nimmt, dienen diese Bezugnahmen lediglich zur Veranschaulichung der Vorrichtung oder Vorrichtungen, für die mit den beigefügten Ansprüchen Schutz begehrt wird.In accordance with the requirements of the utility model law to protect the utility model and subject of the utility model are only devices as defined in the appended claims, but no method. Where the description refers to methods, these references are merely illustrative of the device or devices for which protection is sought from the appended claims.

ZUSAMMENFASSUNGSUMMARY

Die vorliegende Offenbarung schafft ein Computersystem, das eine oder mehrere Verarbeitungseinheiten Paketsoftware widmet, wobei andere Verarbeitungseinheiten gleichzeitig Anwendungssoftware ausführen. In einigen Beispielen verwendet das System dynamische Lastinformationen, um die Anzahl der Verarbeitungseinheiten, die für die Paketverarbeitung dediziert sind, dynamisch zu erhöhen und zu verringern. Das System kann Signale wie etwa Warteschlangenlänge, Warteschlangeneinreihungs-Latenzzeit und Anteil der Belegt-Verarbeitungsschleifen verwenden, um Überlastbedingungen zu detektieren. Ferner kann das System einen Mechanismus zum Herstellen gemeinsam genutzter Arbeitsspeichergebiete zum Zusammenwirken mit anderen Anwendungen enthalten. Die Mechanismen für gemeinsam genutzten Arbeitsspeicher schaffen eine Abstraktion eines Pro-Anwendungs-„Befehls“ und von Pro-Anwendungs-„Fertigstellungswarteschlangen“. Das System kann Pro-Anwendungs-Befehlswarteschlangen abfragen, um die Ankunft neuer Anforderungen zu detektieren. Außerdem stellt der Mechanismus die Detektion eines Anwendungsabschlusses sowie eine Fähigkeit für eine Anwendung, Abschnitte ihres Adressenraums für den Empfang und für die Sendung von Daten freizulegen, bereit. In einigen Beispielen enthält das System ferner eine Grundstruktur, um durch Software definierte Behandlungsroutinen wie etwa „Tätigkeiten“ inline mit Threads, die Paketverarbeitungs- und Transportsoftware ausführen, auszuführen. Die Behandlungsroutinen können RDMA-Fähigkeiten implementieren. Ferner kann das System eine Paketerfassung, Paketverarbeitung, eine Verarbeitung durch Software definierter Behandlungsroutinen und zuverlässige Transportoperation, alle innerhalb desselben Threads, implementieren.The present disclosure provides a computer system that devotes one or more processing units to package software, with other processing units simultaneously executing application software. In some examples, the system uses dynamic load information to dynamically increase and decrease the number of processing units dedicated to packet processing. The system may use signals such as queue length, queue enqueue latency and share of busy processing loops to detect overload conditions. Further, the system may include a mechanism for establishing shared memory areas to interact with other applications. The shared memory mechanisms create an abstraction of a per-application "command" and per-application "completion queues". The system can query pro-application command queues to detect the arrival of new requests. In addition, the mechanism provides detection of application termination as well as an ability for an application to expose portions of its address space for receipt and transmission of data. In some examples, the system further includes a framework for executing software-defined handlers, such as "tasks" in-line with threads executing packet processing and transport software. The handlers can implement RDMA capabilities. Further, the system may implement packet capture, packet processing, software-defined handler processing, and reliable transport operation, all within the same thread.

Ein Aspekt der Offenbarung schafft ein System, das einen Arbeitsspeicher, der Paketverarbeitungsanweisungen speichert, und eine oder mehrere dedizierte Paketverarbeitungseinheiten in Verbindung mit dem Arbeitsspeicher und mit einer oder mehreren Anwendungsverarbeitungseinheiten enthält. Die eine oder die mehreren dedizierten Paketverarbeitungseinheiten sind zum Ausführen der Paketverarbeitung dediziert und jeder der einen oder mehreren dedizierten Paketverarbeitungseinheiten ist ein Verarbeitungs-Thread zugewiesen. Die eine oder die mehreren dedizierten Paketverarbeitungseinheiten sind zum Empfangen eines Pakets von einer Anwendung, die in einer der Anwendungsverarbeitungseinheiten ausgeführt wird, in einem ersten Verarbeitungs-Thread und zum Verarbeiten durch Software definierter Behandlungsroutinenoperationen, die durch Befehle in dem empfangenen Paket initiiert werden, ohne die Operation an einen Anwendungs-Thread abzusenden, in dem ersten Verarbeitungs-Thread konfiguriert. In einigen Beispielen sind der eine oder die mehreren Prozessoren ferner zum Ausführen eines Transports für die empfangenen Pakete und zum Ausführen eines Transports für verarbeitete Pakete, die gesendet werden sollen, konfiguriert, wobei das Ausführen der Transporte in dem ersten Verarbeitungs-Thread ausgeführt wird. Der Transport kann mit der einen oder den mehreren Anwendungsverarbeitungseinheiten ohne Kontextumschaltung oder Systemaufrufe über eine Schnittstelle verbunden sein. Ferner können der eine oder die mehreren Prozessoren zum Abfragen einer oder mehrerer Befehlswarteschlangen, wobei jede Befehlswarteschlange spezifisch für eine Anwendung ist, wobei das empfangene Paket von der einen oder den mehreren Befehlswarteschlangen ausgespeichert wird, und zum Eingeben von Fertigstellungen in eine Fertigstellungswarteschlange konfiguriert sein. Die Befehls- und die Fertigstellungswarteschlangen können in einem gemeinsam genutzten Arbeitsspeicher enthalten sein, wobei der gemeinsam genutzte Arbeitsspeicher zwischen der einen oder den mehreren Verarbeitungseinheiten und einer zweiten Verarbeitungseinheit, die spezifisch für die Anwendung ist, gemeinsam genutzt wird. Die eine oder die mehreren dedizierten Paketverarbeitungseinheiten können Verarbeitungskerne eines Mehrkernprozessors sein. In einigen Beispielen liegt ein solcher Mehrkernprozessor in einem Netzschnittstellencontroller (NIC), der über eine Schnittstelle mit einer Engine verbunden ist, die einen Arbeitsspeicher enthält, der die zugewiesenen Threads speichert.One aspect of the disclosure provides a system that stores a memory that stores packet processing instructions and one or more dedicated packet processing units in conjunction with the memory and with one or more application processing units contains. The one or more dedicated packet processing units are dedicated to performing packet processing, and each of the one or more dedicated packet processing units is assigned a processing thread. The one or more dedicated packet processing units are for receiving a packet from an application executing in one of the application processing units in a first processing thread and for processing by software-defined handler operations initiated by instructions in the received packet without Send operation to an application thread configured in the first processing thread. In some examples, the one or more processors are further configured to perform a transport for the received packets and to perform a transport for processed packets to be sent, wherein the carrying out of the transports is performed in the first processing thread. The transport may be connected to the one or more application processing units without context switching or system calls via an interface. Furthermore, the one or more processors may be configured to query one or more command queues, each command queue being specific to an application, the received packet being staged by the one or more command queues, and configured to enter completions into a completion queue. The command and completion queues may be included in a shared memory where the shared memory is shared between the one or more processing units and a second processing unit specific to the application. The one or more dedicated packet processing units may be processing cores of a multi-core processor. In some examples, such a multi-core processor resides in a network interface controller (NIC) interfaced with an engine that includes a memory that stores the assigned threads.

In einem anderen Aspekt der Offenbarung wird ein System geschaffen, das einen oder mehrere Arbeitsspeicher, eine erste Menge von Verarbeitungseinheiten in Verbindung mit dem einen oder den mehreren Arbeitsspeichern, wobei die erste Menge von Verarbeitungseinheiten dafür konfiguriert sind, ausschließlich die Paketverarbeitung auszuführen, und eine zweite Menge von Verarbeitungseinheiten in Verbindung mit dem einen oder den mehreren Arbeitsspeichern und mit der ersten Menge von Verarbeitungseinheiten, wobei die zweite Menge von Verarbeitungseinheiten dafür konfiguriert sind, ausschließlich Anwendungen auszuführen, enthält. Jeder der ersten Verarbeitungseinheiten ist ein Verarbeitungs-Thread zugewiesen, wobei der Verarbeitungs-Thread durch eine der ersten Verarbeitungseinheiten ausführbar ist, um empfangene Pakete zu verarbeiten, für die empfangenen Pakete einen Transport auszuführen, durch Software definierte Behandlungsroutinenoperationen zu verarbeiten und für zu sendende Pakete einen Transport auszuführen. Ferner kann das System zwischen der ersten Menge von Verarbeitungseinheiten und der zweiten Menge von Verarbeitungseinheiten einen gemeinsam genutzten Arbeitsspeicher wie etwa gemeinsam genutzte Arbeitsspeicherringe enthalten. In einigen Beispielen steht jede der zweiten Menge von Verarbeitungseinheiten über eine getrennte Menge gemeinsam genutzter Arbeitsspeicherringe in Verbindung, wobei die Menge Senderinge und Empfangsringe umfasst. Ferner kann der gemeinsam genutzte Arbeitsspeicher wenigstens eine Befehlswarteschlange und wenigstens eine Fertigstellungswarteschlange enthalten. Die erste Menge von Verarbeitungseinheiten können dafür konfiguriert sein, Befehlswarteschlangen für jede Anwendung abzufragen und Fertigstellungen nach Abschließen von Paketverarbeitungsoperationen in die Fertigstellungswarteschlangen einzugeben.In another aspect of the disclosure, a system is provided that includes one or more random access memories, a first set of processing units in communication with the one or more random access memories, wherein the first set of processing units are configured to execute exclusively the packet processing, and a second Amount of processing units associated with the one or more random access memories and with the first set of processing units, wherein the second set of processing units is configured to execute only applications. Each of the first processing units is assigned a processing thread, the processing thread being executable by one of the first processing units to process received packets, carry out a transport for the received packets, process software-defined handler operations, and one for packets to be sent Transport. Further, the system may include a shared memory such as shared memory rings between the first set of processing units and the second set of processing units. In some examples, each of the second set of processing units communicates via a separate set of shared memory rings, the set comprising transmitter rings and receive rings. Further, the shared memory may include at least one instruction queue and at least one completion queue. The first set of processing units may be configured to query instruction queues for each application and to enter completions after completion of packet processing operations in the completion queues.

In einem abermals anderen Aspekt der Offenbarung wird ein Verfahren geschaffen, das das Empfangen eines Pakets von einer Anwendung, die in einem zweiten Prozessor, der für die Anwendungsverarbeitung dediziert ist, ausgeführt wird, mit einem ersten Prozessor, der für das Ausführen der Paketverarbeitung und für das Ausführen eines ersten Verarbeitungs-Threads dediziert ist, und das Verarbeiten durch Software definierter Behandlungsroutinenoperationen, die durch Befehle in dem empfangenen Paket initiiert werden, ohne zusätzliche Threads aufzurufen, in dem ersten Verarbeitungs-Thread enthält. Ferner kann das Verfahren das Ausführen eines Transports für die empfangenen Pakete mit dem ersten Prozessor, der den ersten Verarbeitungs-Thread ausführt, und das Ausführen eines Transports für verarbeitete Pakete, die gesendet werden sollen, mit dem ersten Prozessor, der den ersten Verarbeitungs-Thread ausführt, enthalten.In yet another aspect of the disclosure, there is provided a method of receiving a packet from an application executing in a second processor dedicated for application processing, having a first processor operative to perform packet processing and for is dedicated to executing a first processing thread, and processing by software defined handler operations initiated by instructions in the received packet, without invoking additional threads, in the first processing thread. Further, the method may include performing a transport for the received packets with the first processor executing the first processing thread and performing a transport for processed packets to be sent with the first processor containing the first processing thread executes included.

Figurenlistelist of figures

  • 1 ist ein Blockschaltplan eines beispielhaften Systems in Übereinstimmung mit Aspekten der Offenbarung. 1 FIG. 10 is a block diagram of an exemplary system in accordance with aspects of the disclosure. FIG.
  • 2 ist ein Blockschaltplan einer beispielhaften Engine des Systems aus 1. 2 Figure 12 is a block diagram of an example engine of the system 1 ,
  • 3 ist eine schematische Darstellung, die eine Kommunikation unter Verwendung eines gemeinsam genutzten Arbeitsspeichers in Übereinstimmung mit Aspekten der Offenbarung darstellt. 3 FIG. 10 is a schematic diagram illustrating communications using shared memory in accordance with aspects of the disclosure. FIG.
  • 4 ist eine Funktionsdarstellung, die das Zugreifen auf Arbeitsspeicher in Übereinstimmung mit Aspekten der Offenbarung darstellt. 4 FIG. 13 is a functional diagram illustrating accessing memory in accordance with aspects of the disclosure. FIG.
  • 5 ist eine schematische Darstellung, die eine Kommunikation zwischen zwei beispielhaften Systemen in Übereinstimmung mit Aspekten der Offenbarung darstellt. 5 FIG. 10 is a schematic diagram illustrating communication between two exemplary systems in accordance with aspects of the disclosure. FIG.
  • 6 stellt ein beispielhaftes Paket in Übereinstimmung mit Aspekten der Offenbarung dar. 6 illustrates an exemplary package in accordance with aspects of the disclosure.
  • 7 ist ein Ablaufplan eines beispielhaften Verfahrens in Übereinstimmung mit Aspekten der Offenbarung. 7 FIG. 10 is a flowchart of an example method in accordance with aspects of the disclosure. FIG.
  • 8 stellt eine Verarbeitungsschleifenaufteilungs-Verarbeitungszeit unter Aktivitäten in Übereinstimmung mit Aspekten der Offenbarung dar. 8th illustrates a processing loop partition processing time among activities in accordance with aspects of the disclosure.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

ÜbersichtOverview

Die Offenbarung ist auf ein System gerichtet, das eine Mehrzahl von Prozessoren wie etwa Verarbeitungskernen enthält, wobei ein oder mehrere erste Prozessoren der Mehrzahl für Paketverarbeitungssoftware dediziert sind und wobei ein oder mehrere zweite Prozessoren der Mehrzahl für das Ausführen von Anwendungssoftware dediziert sind. Der eine oder die mehreren ersten Prozessoren, die für die Paketverarbeitung dediziert sind, können Universalkerne sein. Einer passenden Anzahl dedizierter Prozessoren werden ein oder mehrere Software-Threads zugewiesen. Jeder Verarbeitungs-Thread führt in einer Belegt-Verarbeitungsschleife die folgenden Aktionen, aber nicht notwendig in der spezifizierten Reihenfolge, aus: Verarbeiten ankommender Pakete, Ausführen eines zuverlässigen Transports für empfangene Pakete, Verarbeiten durch Software definierter Behandlungsroutinenoperationen (z. B. Tätigkeitsoperationen), Ausführen eines zuverlässigen Transports für Übertragungspakete, Abfragen von Befehlswarteschlangen für jede Anwendung. Somit fragt z. B. ein Thread wie etwa durch Beobachten eines Netzproblems (z. B. Signale für Stauung, Ausfälle, Verzögerung usw.), Ändern von Transportparametern in Ansprechen darauf und Benachrichtigen über irgendeinen Paketverlust in der Übertragung Empfangswarteschlangen (Rx-Warteschlangen) auf ankommende Pakete ab und führt er einen zuverlässigen Transport für die ankommenden Pakete von der Rx-Warteschlange aus. In einigen Beispielen könnte der Thread, der einen zuverlässigen Transport für ankommende Pakete von der Rx-Warteschlange ausführt, wie etwa über den Empfang eines NAK oder eines doppelten ACK eine erneute Sendung verlorengegangener Pakete auslösen. Das Ausführen des zuverlässigen Transports erzeugt Quittierungen und plant die Verarbeitung von Tätigkeitsoperationen. Zum Beispiel kann für jede Tätigkeitsoperation eine bestimmte Zustandsmaschine zum Verarbeiten dieser Tätigkeitsoperation ausgewählt werden. Das Ausführen der Tätigkeitsoperationen kann das Planen von Sendepaketen (Tx-Paketen) enthalten. Für die Tx-Pakete wird wie etwa durch das Erzeugen von Quittierungen und durch das erneute Senden verlorengegangener Pakete ebenfalls ein zuverlässiger Transport ausgeführt. Der Thread fragt für jede Anwendung, die mit dem NIC kommuniziert, eine oder mehrere Befehlswarteschlangen des gemeinsam genutzten Arbeitsspeichers z. B. auf zusätzliche zu verarbeitende Befehle ab. Während irgendeine dieser Aktionen ausgeführt wird, kann der Thread ebenfalls Fertigstellungen schreiben, um Anwendungen über eine fertiggestellte Arbeit zu benachrichtigen. Zum Beispiel kann die Zustandsmaschine Metadaten auf gemeinsam genutzte Arbeitsspeicherverbindungen schreiben, die unter dem dedizierten Prozessor und dem einen oder den mehreren zweiten Prozessoren gemeinsam genutzt werden.The disclosure is directed to a system including a plurality of processors, such as processing cores, wherein one or more first processors of the plurality are dedicated to packet processing software and wherein one or more second processors of the plurality are dedicated to executing application software. The one or more first processors dedicated to packet processing may be universal cores. A suitable number of dedicated processors are assigned one or more software threads. Each processing thread executes the following actions in a busy processing loop, but not necessarily in the specified order: processing incoming packets, performing a reliable transport for received packets, processing by software defined handler operations (e.g., task operations), executing reliable transport for transmission packets, command queue queries for each application. Thus, z. For example, a thread such as by monitoring a network problem (e.g., congestion, failure, delay, etc. signals), changing transport parameters in response thereto, and notifying any packet loss in the transmission, will send receive queues (Rx queues) to incoming packets and it performs a reliable transport for the incoming packets from the Rx queue. In some examples, the thread that performs reliable transport for inbound packets from the Rx queue, such as receiving a NAK or a duplicate ACK, could trigger retransmission of lost packets. Executing the reliable transport generates acknowledgments and schedules the processing of task operations. For example, for each operation operation, a particular state machine may be selected to process that operation. Executing the activity operations may include scheduling transmission packets (Tx packets). For the Tx packets, such as by generating acknowledgments and retransmitting lost packets, reliable transport is also performed. The thread asks one or more shared memory command queues for each application that communicates with the NIC. B. on additional to be processed commands. While any of these actions are being performed, the thread may also write completions to notify applications of a completed work. For example, the state machine may write metadata to shared memory connections that are shared among the dedicated processor and the one or more second processors.

Dadurch, dass in dedizierten Verarbeitungskernen ausgeführt wird, ist ein Kern stets zur sofortigen Verarbeitung ankommender Pakete verfügbar. Pakete können ohne Systemaufruf-Overhead und ohne Unterbrechungen zu dem Hardware-NIC gesendet und von ihm empfangen werden. Die Software-Threads können in einer privilegierten oder in einer unprivilegierten Betriebsart ausgeführt werden.By running in dedicated processing cores, a kernel is always available for immediate processing of incoming packets. Packets can be sent to and received from the hardware NIC without system call overhead and interrupts. The software threads can be executed in a privileged or in an unprivileged mode.

Zum Zusammenwirken zwischen dem NIC und Anwendungen können Befehls- und Fertigstellungswarteschlangen verwendet werden, wobei sie blockierungsfrei sein können. Eine Anwendung, die den NIC zu verwenden wünscht, baut durch Aufbauen einer Intra-Maschinenverbindung unter Verwendung eines vorhandenen Kommunikationsprimitivs wie etwa eines Unix-Domänen-Sockets oder ähnlichem über einen Anfangskanal eine Kommunikation mit dem NIC auf. Wenn dieser Anfangskanal aufgebaut worden ist, verwendet die Anwendung Betriebssystemmechanismen, um ein Gebiet des gemeinsam genutzten Arbeitsspeichers mit dem NIC aufzubauen.For interaction between the NIC and applications, command and completion queues may be used, and they may be non-blocking. An application wishing to use the NIC establishes communication with the NIC via an intra-machine connection using an existing communication primitive such as a Unix domain socket or the like via an initial channel. When this initial channel has been established, the application uses operating system mechanisms to build a shared memory area with the NIC.

Es wird eine Grundstruktur implementiert, um Tätigkeiten inline mit einem Transportverarbeitungs-Thread auszuführen. Die Grundstruktur ist mit Erweiterbarkeit ausgelegt, so dass Anwendungsentwickler ohne erhebliche Nacharbeit neue Tätigkeiten erzeugen können. Das Wire-Format enthält einen „Betriebscode“, um die auszuführende Tätigkeitsoperation zu spezifizieren.A basic structure is implemented to perform activities inline with a transport processing thread. The basic structure is designed with extensibility so that application developers can create new activities without significant rework. The wire format contains an "operation code" to specify the operation to be performed.

Beispielhafte SystemeExemplary systems

1 stellt ein System 100 dar, das Anwendungsprozessoren 110, 120 in Kommunikation mit einem NIC 150 über gemeinsam genutzten Arbeitsspeicher 132, 134 enthält. Das System 100 kann als ein System von Vorrichtungen auf einem Motherboard oder als irgendeine andere Konfiguration elektronisch gekoppelter Computervorrichtungen implementiert sein. Zum Beispiel kann das System eine Backplane, die Peripheriegeräte, eine Erweiterungskartenschnittstelle oder dergleichen miteinander verbindet, enthalten. Die Verbindung zwischen den Computervorrichtungen können festverdrahtete Verbindungen, drahtlose Verbindungen oder irgendein anderer Typ von Verbindungen sein. Als ein abermals anderes Beispiel kann das Computersystem 100 TCP/IP, 802.33, Ethernet, InfiniBand oder irgendeinen anderen Typ eines Netzes enthalten. 1 represents a system 100 the application processors 110 . 120 in communication with a NIC 150 about shared random access memory 132 . 134 contains. The system 100 can be implemented as a system of devices on a motherboard or as any other configuration of electronically coupled computing devices. For example, the system may include a backplane interconnecting peripherals, an expansion card interface, or the like. The connection between the computing devices may be hard-wired connections, wireless connections, or any other type of connection. As yet another example, the computer system 100 TCP / IP, 802.33, Ethernet, InfiniBand, or any other type of network.

Jeder Anwendungsprozessor 110, 120 kann für das Ausführen von Anwendungssoftware dediziert sein. Jeder Anwendungsprozessor 110, 120 kann eine oder mehrere Anwendungen ausführen und die Anwendungen, die in einem Prozessor ausgeführt werden, können von den Anwendungen, die in anderen Prozessoren ausgeführt werden, verschieden sein. Nur beispielhaft kann der Prozessor 110 eine Anwendung für entfernte Prozeduraufrufe (RPC) ausführen, während der Prozessor 120 eine Video-Streaming-Anwendung ausführt. Obgleich nur zwei Prozessoren 110, 120 gezeigt sind, ist festzustellen, dass irgendeine Anzahl von Prozessoren enthalten sein können und dass sie irgendeine Anzahl verschiedener Anwendungen ausführen können.Every application processor 110 . 120 may be dedicated to running application software. Every application processor 110 . 120 can run one or more applications and the applications running in one processor may be different from the applications running in other processors. For example only, the processor 110 run a remote procedure call (RPC) application while the processor is running 120 running a video streaming application. Although only two processors 110 . 120 It should be understood that any number of processors may be included and that they may carry any number of different applications.

Jede Anwendung kann eine zugeordnete Clientbibliothek 112, 122 besitzen. Die Clientbibliotheken 112, 122 können Code, z. B., damit die Anwendungen mit Anwendungsprogrammschnittstellen (APIs) zusammenwirken, enthalten. Die APIs können z. B. in den Arbeitsspeicher integrierte Speichersysteme, die RDMA, RPC oder irgendeinen anderen Typ einer API verwenden, sein.Each application can have an associated client library 112 . 122 have. The client libraries 112 . 122 can code, z. For example, for the applications to interact with application programming interfaces (APIs). The APIs can z. For example, in-memory storage systems that use RDMA, RPC, or any other type of API may be.

Der gemeinsam genutzte Arbeitsspeicher 132, 134 können z. B. gemeinsam genutzte Arbeitsspeicherringe oder irgendein anderer Arbeitsspeichertyp sein. Der gemeinsam genutzte Arbeitsspeicher 132, 134 kann auf dem Arbeitsspeicher beruhende Befehls- und Fertigstellungswarteschlangen bereitstellen. Der gemeinsam genutzte Arbeitsspeicher ist in Verbindung mit der folgenden 3 ausführlicher beschrieben. In einigen Beispielen ist der gemeinsam genutzte Arbeitsspeicher 132, 134 durch einen temporären Dateispeicher unterstützt. Darüber hinaus kann der gemeinsam genutzte Arbeitsspeicher 132, 134 Anwendungsdatennutzinformationen ausschließen. Stattdessen können Anwendungsdaten an den NIC 150 über Arbeitsspeicherregistrierung, gemeinsam genutzten Interprozessarbeitsspeicher, anonym unterstützten Heap-Arbeitsspeicher usw. an den NIC 150 übermittelt werden.The shared memory 132 . 134 can z. Shared memory rings or any other type of memory. The shared memory 132 . 134 can provide command-line and completion queues based on memory. The shared memory is in conjunction with the following 3 described in more detail. In some examples, the shared memory is 132 . 134 supported by a temporary file store. In addition, the shared memory 132 . 134 Exclude application data payloads. Instead, application data can be sent to the NIC 150 Memory registration, shared interprocess memory, anonymously supported heap memory, and so on, to the NIC 150 be transmitted.

Die Engine 145 kann eine Paketverarbeitungspipeline für eine bestimmte Funktion sein, die an einem reservierten Kern verankert ist. Die Engine 145 kann z. B. in einer Grundstruktur implementiert sein, die Hochleistungs-Paketverarbeitungsentitäten unterstützt. Die Engine 145 ist im Folgenden in Verbindung mit 2 weiter beschrieben.The engine 145 may be a packet processing pipeline for a particular function anchored to a reserved core. The engine 145 can z. In a framework supporting high performance packet processing entities. The engine 145 is in connection with 2 further described.

Die Engine 145 ist über eine Schnittstelle mit einem oder mehreren Eingabe/Ausgabe-Treibern (E/A-Treibern) 160, die Einrichtungen zum Zusammenwirken mit Hardwarekomponenten, zum Kommunizieren zwischen Threads und/oder zum Kommunizieren mit anderen Nutzerraumprozessoren bereitstellen, verbunden. Die E/A-Treiber 160 können sämtlich eine selbe vereinheitliche API implementieren. Obgleich mehrere E/A-Treiber 160 gezeigt sind, kann irgendeine Anzahl von E/A-Treibern enthalten sein. In einigen Beispielen kann die Anzahl der E/A-Treiber 160 einer Anzahl von Kernen in dem NIC 150 entsprechen.The engine 145 is interfaced to one or more input / output (I / O) drivers 160 which provide means for interfacing with hardware components, for communicating between threads, and / or for communicating with other user space processors. The I / O drivers 160 may all implement a same unified API. Although multiple I / O drivers 160 are shown, any number of I / O drivers may be included. In some examples, the number of I / O drivers 160 may be a number of cores in the NIC 150 correspond.

Die Engine 145 enthält einen oder mehrere Verarbeitungskerne, die jeweils einen dedizierten Thread besitzen. Der eine oder die mehreren Verarbeitungskerne können für die Paketverarbeitung dediziert sein. Die Verwendung dedizierter Kerne bietet mehrere Leistungsvorteile. Zum Beispiel sparen dedizierte Kerne erheblichen Overhead, der durch Zeitmultiplexierung eines Kerns erforderlich ist. Außerdem bieten dedizierte Kerne eine höhere Mikroarchitekturleistung, da Caches, Translation Lookaside Buffers (TLBs) und Zweigprädiktoren wärmer bleiben. Nochmals weiter vermeiden dedizierte Kerne einen erheblichen Synchronisations-Overhead, der gemeinsam genutzten Datenstrukturen und der Arbeitsverteilung zugeordnet ist.The engine 145 contains one or more processing cores, each with a dedicated thread. The one or more processing cores may be dedicated for packet processing. Using dedicated cores offers several performance benefits. For example, dedicated cores save significant overhead required by time-multiplexing a core. In addition, dedicated cores provide higher microarchitectural performance as caches, translation lookaside buffers (TLBs), and branch predictors remain warmer. Again, dedicated cores avoid significant synchronization overhead associated with shared data structures and work distribution.

2 stellt die Engine 145 detaillierter dar. Wie gezeigt ist, enthält die Engine 145 eine Sendewarteschlange (Tx-Warteschlange) 252, eine Empfangswarteschlange (Rx-Warteschlange) 254 und eine Mehrzahl von Verarbeitungskernen 270, 280, 290. Die Tx-Warteschlange 25 und die Rx-Warteschlange 254 können verwendet werden, um über den NIC Pakete an ein Netz zu senden und von ihm zu empfangen. Zum Beispiel können die Tx-Warteschlange 252 und die Rx-Warteschlange 254 Teil des E/A-Treibers 160 sein, der oben in Verbindung mit 1 verbunden ist. Ferner enthält die Engine 145 einen Arbeitsspeicher 260 und einen oder mehrere Prozessoren 210 in Verbindung mit dem Arbeitsspeicher 260. 2 puts the engine 145 As shown, the engine contains 145 a send queue (Tx queue) 252 , a receive queue (Rx queue) 254 and a plurality of processing cores 270 . 280 . 290 , The Tx queue 25 and the Rx queue 254 can be used to send and receive packets over the NIC to a network. For example, the Tx queue 252 and the Rx queue 254 Be part of the I / O driver 160 above in conjunction with 1 connected is. Furthermore, the engine contains 145 a working memory 260 and one or more processors 210 in connection with the working memory 260 ,

Der Arbeitsspeicher 260 speichert Informationen, auf die durch den Prozessor 210 zugegriffen werden kann, einschließlich Anweisungen 264, die durch den Prozessor 210 ausgeführt werden können. Außerdem enthält der Arbeitsspeicher Daten 262 enthalten, die durch den Prozessor ausgelesen, manipuliert oder gespeichert werden können. Der Arbeitsspeicher kann irgendein Typ, der Informationen speichern kann, auf die durch den Prozessor zugegriffen werden kann, wie etwa ein Festplattenlaufwerk, ein ROM, ein RAM, eine DVD, eine CD-ROM, ein schreibfähiger Arbeitsspeicher und ein Nur-Lese-Speicher, sein. Der Arbeitsspeicher 260 enthält Daten 262, die durch den Prozessor in Übereinstimmung mit den Anweisungen 264 ausgelesen, manipuliert oder gespeichert werden können. Obgleich das System und das Verfahren nicht durch irgendeine bestimmte Datenstruktur beschränkt sind, können die Daten z. B. in Computerregistern, in einer relationalen Datenbank als eine Tabelle mit mehreren verschiedenen Feldern und Datensätzen oder als XML-Dokumente gespeichert sein. Außerdem können die Daten in irgendeinem computerlesbaren Format wie etwa, aber nicht beschränkt auf, als Binärwerte, ASCII oder Unicode formatiert sein. Darüber hinaus können die Daten irgendwelche Informationen, die ausreichen, um die relevanten Informationen zu identifizieren, wie etwa Zahlen, Beschreibungstext, herstellerspezifische Codes, Zeiger, Bezugnahmen auf in anderen Arbeitsspeichern (einschließlich an anderen Netzorten) gespeicherte Daten oder Informationen, die durch eine Funktion verwendet werden, um relevante Daten zu berechnen, enthalten.The working memory 260 stores information by the processor 210 can be accessed, including instructions 264 that through the processor 210 can be executed. In addition, the memory contains data 262 which can be read out, manipulated or stored by the processor. Of the Memory may be any type that can store information that can be accessed by the processor, such as a hard disk drive, a ROM, a RAM, a DVD, a CD-ROM, a writable random access memory, and a read-only memory , The working memory 260 contains data 262 by the processor in accordance with the instructions 264 can be read out, manipulated or stored. Although the system and method are not limited by any particular data structure, the data may e.g. For example, in computer registers, in a relational database as a table with several different fields and records, or as XML documents. In addition, the data may be formatted in any computer-readable format such as, but not limited to, binary, ASCII, or Unicode. In addition, the data may contain any information sufficient to identify the relevant information, such as numbers, descriptive text, proprietary codes, pointers, references to data stored in other random access memory (including other network locations), or information used by a function are included to calculate relevant data.

Die Anweisungen 264 können irgendein Satz von Anweisungen sein, die durch den Prozessor direkt (wie etwa Maschinencode) oder indirekt (wie etwa Skripte) ausgeführt werden sollen. Diesbezüglich können die Begriffe „Anweisungen“, „Schritte“ und „Programme“ hier austauschbar verwendet sein. Die Anweisungen können zur direkten Verarbeitung durch den Prozessor im Objektcodeformat oder in irgendeiner anderen Computersprache, die Skripte oder Sammlungen unabhängiger Quellcodemodule, die bei Bedarf interpretiert oder im Voraus kompiliert werden können, gespeichert sein.The instructions 264 may be any set of instructions to be executed by the processor directly (such as machine code) or indirectly (such as scripts). In this regard, the terms "instructions", "steps" and "programs" may be used interchangeably herein. The instructions may be stored for direct processing by the processor in object code format or in any other computer language that may contain scripts or collections of independent source code modules that may be interpreted or compiled in advance as needed.

Der eine oder die mehreren Prozessoren 210 können ein kommerziell verfügbarer Mehrkernprozessor sein, der eine Mehrzahl von Verarbeitungseinheiten enthält. In Übereinstimmung mit anderen Beispielen können der eine oder die mehreren Prozessoren 210 eine Sammlung spezialisierter oder kommerziell verfügbarer einzelner Verarbeitungseinheiten wie etwa anwendungsspezifischer integrierter Schaltungen (ASICs), Mikroprozessoren, Zustandsmaschinen usw. sein. Obgleich die Mehrzahl der Verarbeitungskerne in der Weise gezeigt sind, dass sie innerhalb desselben Kastens der Engine 145 sind, ist festzustellen, dass die Kerne einzelne Verarbeitungskerne sein können, die in getrennten Vorrichtungen liegen. Zum Beispiel können die Kerne in einem NIC, in einer Beschleunigervorrichtung, unabhängig usw. liegen.The one or more processors 210 may be a commercially available multicore processor containing a plurality of processing units. In accordance with other examples, the one or more processors may 210 a collection of specialized or commercially available single processing units such as application specific integrated circuits (ASICs), microprocessors, state machines, etc. Although the majority of the processing cores are shown as being within the same box of the engine 145 It should be noted that the cores may be single cores of processing located in separate devices. For example, the cores may reside in a NIC, in an accelerator device, independently, and so on.

Jeder Kern 270, 280, 290 besitzt einen zugewiesenen Thread 275, 285, 295. Jeder Thread 275, 285, 295 führt in einer Belegt-Verarbeitungsschleife die folgenden Aktionen, jedoch nicht notwendig in der spezifizierten Reihenfolge aus: Verarbeiten ankommender Pakete, Ausführen eines zuverlässigen Transports für empfangene Pakete, Verarbeiten von Tätigkeitsoperationen, Ausführen eines zuverlässigen Transports für Sendepakete, Abfragen von Befehlswarteschlangen für jede Anwendung. Somit kann ein Thread, der eine Funktion wie etwa die Verarbeitung ankommender Pakete ausführt, ebenfalls eine Tätigkeitsoperation verarbeiten, ohne einen weiteren Thread zu bilden.Every core 270 . 280 . 290 owns an assigned thread 275 . 285 . 295 , Every thread 275 . 285 . 295 In a busy processing loop, performs the following actions, but not necessarily in the specified order: processing incoming packets, performing a reliable transport for received packets, processing task operations, performing reliable transport for transmit packets, querying command queues for each application. Thus, a thread performing a function, such as processing incoming packets, may also process an operation without forming another thread.

Die durch die Threads 275, 285, 295 verarbeiteten Operationen können irgendwelche logischen Aktionen sein, die mit fernen Betriebsmitteln zusammenwirken. Die Operationen können durch Befehle initiiert werden, obgleich nicht alle Befehle Operationen initiieren. Zum Beispiel können einige Befehle einen lokalen Zustand ändern. Obgleich Operationen mit einem Befehl beginnen, der eine Absicht eines Anwendungsnutzers ausdrückt, können die Operationen einen weiten Bereich von Betriebsmitteln einschließlich lokaler und ferner Zustandsnachführungsobjekte, Arbeitsspeicher, Wire-Nachrichten, Kommunikationskanäle, die Nachrichten übermitteln, und schließlich eine oder mehrere Fertigstellungen, die durch lokale und ferne Engines erzeugt werden, umfassen. Einige beispielhafte Operationen enthalten ferne Arbeitsspeicherzugriffslesevorgänge (RMA-Lesevorgänge) und Arbeitsspeicherzugriffsschreibvorgänge (RMA-Schreibvorgänge), Atomoperationen wie etwa Vergleichs- und Austauschoperationen (CAS-Operationen) und Abruf- und Hinzufügeoperationen oder Sende- und Empfangsoperationen.The through the threads 275 . 285 . 295 Processed operations may be any logical actions that interact with remote resources. The operations may be initiated by instructions, although not all instructions initiate operations. For example, some commands may change a local state. Although operations begin with an instruction that expresses an intent of an application user, the operations may include a wide range of resources including local and remote condition tracking objects, memory, wire messages, communication channels conveying messages, and finally one or more completions performed by local and remote engines are generated. Some example operations include remote memory access reads (RMA reads) and memory access writes (RMA writes), atomic operations such as compare and swap operations (CAS operations), and fetch and append operations or send and receive operations.

In Übereinstimmung mit einem Beispiel können dynamische Lastinformationen verwendet werden, um eine Anzahl von Verarbeitungseinheiten, die für die Paketverarbeitung dediziert sind, dynamisch zu erhöhen oder zu verringern. Zum Beispiel kann eine erste Anzahl von Kernen Prozesse ausführen, während die Engine 145 eine Last an der ersten Anzahl von Kernen überwacht. Das System kann Signale wie etwa Warteschlangenlänge, Warteschlangeneinreihungsverzögerung und Anteil der Belegt-Verarbeitungsschleifen verwenden, um Überlast-Lastbedingungen zu detektieren. Falls die Engine 145 detektiert, dass sich die Last einem Schwellenwert annähert oder ihn übersteigt, kann sie einen weiteren Kern zuordnen, um die Last zu teilen. Beim Zuordnen des weiteren Kerns kann eine weitere Engine erzeugt werden und kann ein Teil der Last der ersten Anzahl von Kernen in den weiteren Kern migriert werden. Umgekehrt kann bestimmt werden, dass für die Paketverarbeitung mehr Kerne als notwendig zugeordnet sind, falls die Engine detektiert, dass eine Last in einem oder in mehreren der ersten Anzahl von Kernen unter einem anderen Schwellenwert liegt. Dementsprechend kann die Zuordnung eines oder mehrerer der ersten Anzahl von Kernen aufgehoben werden und kann ihre Last auf einen der verbleibenden Kerne migriert oder unter mehreren der verbleibenden Kerne geteilt werden. Diesbezüglich werden Kerne über gröbere Zeitskalen als in vorhandenen Stapeln, die Unterbrechungen verwenden, dynamisch dediziert. Ferner können für ein Betriebsmittel keine weiteren Aufgaben geplant werden, wenn es für die Paketverarbeitung dediziert ist. Vielmehr wird der Kern für eine bekannte voranschreitende Zeitdauer exklusiv zugeordnet.In accordance with an example, dynamic load information may be used to dynamically increase or decrease a number of processing units dedicated for packet processing. For example, a first number of cores can execute processes while the engine 145 monitors a load on the first number of cores. The system may use signals such as queue length, queue enqueue delay, and busy processing loop fraction to detect overload load conditions. If the engine 145 detects that the load is approaching or exceeding a threshold, it may assign another core to share the load. In assigning the further core, a further engine can be generated and a part of the load of the first number of cores can be migrated into the further core. Conversely, it may be determined that more cores than necessary are allocated for packet processing if the engine detects that a load in one or more of the first number of cores is below a different threshold. Accordingly, the assignment of one or more several of the first number of cores can be detached and their load can be migrated to one of the remaining cores or shared among several of the remaining cores. In this regard, cores are dynamically dedicated over coarser timescales than in existing stacks that use interrupts. Furthermore, no other tasks can be scheduled for a resource if it is dedicated to packet processing. Rather, the kernel is assigned exclusively for a known, ongoing period of time.

Obgleich 2 den Prozessor 210 und den Arbeitsspeicher 260 als innerhalb desselben Blocks funktional darstellt, ist festzustellen, dass der Prozessor und der Arbeitsspeicher tatsächlich mehrere Prozessoren und Arbeitsspeicher umfassen können, die innerhalb desselben physikalischen Gehäuses liegen können oder nicht liegen können. Zum Beispiel können einige der Anweisungen und Daten in einer Wechsel-CD-ROM und andere innerhalb eines Nur-Lese-Computerchips gespeichert sein. Einige oder alle der Anweisungen und Daten können an einem Ort gespeichert sein, der von dem Prozessor 210 physikalisch fern ist, auf den er aber dennoch zugreifen kann. Ähnlich kann der Prozessor 210 tatsächlich eine Sammlung von Prozessoren umfassen, die parallel oder nicht parallel arbeiten können.Although 2 the processor 210 and the memory 260 As is functional within the same block, it will be appreciated that the processor and memory may actually include multiple processors and memory that may or may not reside within the same physical enclosure. For example, some of the instructions and data may be stored in a removable CD-ROM and others within a read-only computer chip. Some or all of the instructions and data may be stored in a location provided by the processor 210 is physically remote, but he can still access. Similarly, the processor 210 actually include a collection of processors that can work in parallel or not in parallel.

Obgleich 2 die Engine 145 als einen einzelnen Block zeigt, der seine eigenen Prozessoren und seinen eigenen Arbeitsspeicher enthält, können die hier beschriebenen Operationen darüber hinaus viele Computervorrichtungen, z. B. in der „Cloud“, umfassen. Zum Beispiel können verschiedene Operationen, die im Folgenden in der Weise beschrieben sind, dass sie eine einzelne Computervorrichtung umfassen, eine Mehrzahl von Computervorrichtungen wie etwa mehrere Prozessoren in einer Serverfarm mit Lastausgleich umfassen. Ähnlich können Arbeitsspeicherkomponenten an verschiedenen Orten verschiedene Abschnitte von Anweisungen 264 speichern und zusammen ein Medium zum Speichern der Anweisungen bilden. Verschiedene Operationen, die hier so beschrieben sind, dass sie durch eine Computervorrichtung ausgeführt werden, können durch eine virtuelle Maschine ausgeführt werden. Beispielhaft können die Anweisungen 264 spezifisch für einen ersten Servertyp sein, wobei die relevanten Operationen aber durch einen zweiten Servertyp, der einen Hypervisor ausführt, der den ersten Servertyp emuliert, ausgeführt werden. Außerdem können die Operationen durch einen Container, z. B. durch eine Computerumgebung, die sich nicht auf ein an spezifische Hardwaretypen gebundenes Betriebssystem stützt, ausgeführt werden.Although 2 the engine 145 In addition, as a single block containing its own processors and its own memory, the operations described herein may also involve many computer devices, e.g. In the "cloud". For example, various operations, which are described below as including a single computing device, may include a plurality of computing devices, such as multiple processors in a load balanced server farm. Similarly, memory components at different locations may have different portions of instructions 264 store and together form a medium for storing the instructions. Various operations described herein as being performed by a computing device may be performed by a virtual machine. The instructions can be exemplary 264 be specific to a first type of server, but the relevant operations are performed by a second type of server executing a hypervisor that emulates the first type of server. In addition, the operations by a container, for. By a computer environment that does not rely on an operating system tied to specific hardware types.

3 stellt detaillierter ein Beispiel des gemeinsam genutzten Arbeitsspeichers zwischen der Clientbibliothek 312 und der Engine 345 dar. Der gemeinsam genutzte Arbeitsspeicher enthält einen oder mehrere gemeinsam genutzte Arbeitsspeicherringe. Wie gezeigt ist, enthält der gemeinsam genutzte Arbeitsspeicher z. B. einen gemeinsam genutzten Tx-Arbeitsspeicherring 332 und einen gemeinsam genutzten Rx-Arbeitsspeicherring 334. In Übereinstimmung mit einigen Beispielen kann durch jede Clientbibliothek in der Mehrzahl ein getrenntes Paar gemeinsam genutzter Arbeitsspeicherringe verwendet werden, wo eine Mehrzahl von Clientbibliotheken mit der Engine 345 kommunizieren. 3 provides a more detailed example of the shared memory between the client library 312 and the engine 345 The shared memory contains one or more shared memory rings. As shown, the shared memory contains z. For example, a shared Tx memory ring 332 and a shared Rx memory ring 334 , In accordance with some examples, each client library in the plurality may use a separate pair of shared memory rings where a plurality of client libraries are connected to the engine 345 communicate.

Anfangs baut die Clientbibliothek 312 über einen Steuerebenen-Kommunikationskanal (CPCC) 314 eine Kommunikation mit der Engine 345 auf. Der CPCC 314 kann Betriebssystemdienste verwenden, die durch ein Betriebssystem bereitgestellt werden. Der CPCC 314 kann z. B. ein RPC-System sein. Der CPCC 314 kann auf einem Unix-Domänensocket oder auf einem anderen Interprozesskommunikationssystem (IPC-System) beruhen, das die Fähigkeit bereitstellt, Dateideskriptoren über den Socket zu übergeben. Dementsprechend kann der Arbeitsspeicher, z. B. durch Übergeben eines Dateideskriptors /tmpfs, unter Prozessoren gemeinsam genutzt werden. Wenn die Kommunikation zwischen der Clientbibliothek 312 und der Engine 345 über den CPCC 314 aufgebaut worden ist, kann der CPCC 314 verwendet werden, um die gemeinsam genutzten Arbeitsspeicherringe 332, 334 aufzubauen. Der CPCC 314 kann als ein langsamer Weg angesehen werden, während die gemeinsam genutzten Arbeitsspeicherringe 332, 334 als ein schneller Weg angesehen werden.Initially, the client library builds 312 via a control plane communication channel (CPCC) 314 a communication with the engine 345 on. The CPCC 314 can use operating system services provided by an operating system. The CPCC 314 can z. B. be an RPC system. The CPCC 314 may be based on a Unix domain socket or other interprocess communication system (IPC system) that provides the ability to pass file descriptors over the socket. Accordingly, the memory, for. By sharing a file descriptor / tmpfs among processors. If the communication between the client library 312 and the engine 345 via the CPCC 314 has been established, the CPCC 314 used to share the shared memory rings 332 . 334 build. The CPCC 314 can be considered as a slow path while the shared memory rings 332 . 334 be regarded as a fast way.

Der gemeinsam genutzte Tx-Arbeitsspeicherring 332 und der gemeinsam genutzte Rx-Arbeitsspeicherring 334 können gemeinsam genutzte Arbeitsspeicherringe sein. Der gemeinsam genutzte Tx-Arbeitsspeicherring 332 und der gemeinsam genutzte Rx-Arbeitsspeicherring 334 können durch einen vorübergehenden Dateispeicher-Arbeitsspeicher unterstützt werden. Zum Beispiel kann der gemeinsam genutzte Tx-Arbeitsspeicherring 332 durch einen temporären Dateispeicher 372 unterstützt werden, während der gemeinsam genutzte Rx-Arbeitsspeicherring 334 durch einen temporären Dateispeicher 374 unterstützt wird. In anderen Beispielen kann eine Sicherungsspeichereinheit sowohl den gemeinsam genutzten Tx-Arbeitsspeicherring 332 als auch den gemeinsam genutzten Rx-Arbeitsspeicherring 334 unterstützen.The shared Tx memory ring 332 and the shared Rx memory ring 334 can be shared memory rings. The shared Tx memory ring 332 and the shared Rx memory ring 334 can be supported by a temporary file memory memory. For example, the shared Tx memory ring 332 through a temporary file store 372 supported during the shared Rx memory ring 334 through a temporary file store 374 is supported. In other examples, a backup storage unit may include both the shared Tx memory ring 332 as well as the shared Rx memory ring 334 support.

Über die gemeinsam genutzten Arbeitsspeicherringe 332, 334 finden Datenwegoperationen statt. Die gemeinsam genutzten Arbeitsspeicherringe 332, 334 stellen arbeitsspeichergestützte Befehls- und Fertigstellungswarteschlangen bereit. Zum Beispiel kann der gemeinsam genutzte Tx-Arbeitsspeicherring 332 als eine Befehlswarteschlange dienen und kann der gemeinsam genutzte Rx-Arbeitsspeicherring 334 als eine Fertigstellungswarteschlange dienen. Der gemeinsam genutzte Tx-Arbeitsspeicherring 332 kann nur einen einzelnen Erzeuger-Thread unterstützen. Der gemeinsam genutzte Rx-Arbeitsspeicherring 334 kann nur einen einzelnen Verbraucher-Thread unterstützen. Die gemeinsam genutzten Arbeitsspeicherringe stellen für Clients einen blockierungsfreien Mechanismus bereit, um mit der Engine 345 zusammenzuwirken. Zwischen dem gemeinsam genutzten Tx-Arbeitsspeicherring 332 und dem gemeinsam genutzten Rx-Arbeitsspeicherring 334 ist keine Synchronisation erforderlich.About the shared memory rings 332 . 334 find data path operations. The shared memory rings 332 . 334 provide memory-based command and completion queues. For example, the shared Tx memory ring 332 serve as a command queue and can the shared Rx Memory ring 334 serve as a completion queue. The shared Tx memory ring 332 can only support a single producer thread. The shared Rx memory ring 334 can only support a single consumer thread. The shared memory rings provide clients with a non-blocking mechanism to interact with the engine 345 co. Between the shared Tx memory ring 332 and the shared Rx memory ring 334 no synchronization is required.

In Übereinstimmung mit einem Beispiel versucht sich die Clientbibliothek 312 über alle Container in einer Maschine mit einem gut bekannten Namen in einem globalen Namenraum zu verbinden. Als Teil eines Handshakes des CPCC 314 wird eine Client-API-Versionsnummer ausgetauscht. Die Engine 345 implementiert die API-Versionsnummer irgendwelcher Anwendungen in Verwendung.In accordance with an example, the client library tries 312 to connect across all containers in a machine with a well-known name in a global namespace. As part of a handshake of the CPCC 314 a client API version number is exchanged. The engine 345 implements the API version number of any applications in use.

In die gemeinsam genutzten Arbeitsspeicherringe können Nachrichten mit variabler Länge eingespeichert und aus ihnen ausgespeichert werden. Wie in 3 gezeigt ist, schreibt der Client in den gemeinsam genutzten Tx-Arbeitsspeicherring 332 z. B. Befehle, die durch die Engine 345 gelesen werden. Wenn die Engine 345 koordiniert mit dem NIC durch die Befehle initiierte Operationen ausführt, schreibt sie Fertigstellungen in die Fertigstellungswarteschlange in dem gemeinsam genutzten Rx-Arbeitsspeicherring 334.The shared memory rings can store messages of variable length and store them out of them. As in 3 is shown, the client writes to the shared Tx memory ring 332 z. For example, commands issued by the engine 345 to be read. If the engine 345 Coordinated with the NIC executing instructions initiated by the commands, it writes completions to the completion queue in the shared Rx memory ring 334 ,

In einigen Beispielen kann auf die Clientanwendung ein Gegendruck ausgeübt werden, wenn die Befehlswarteschlange voll wird. Zum Beispiel kann die Engine 345 belegt sein, wobei in diesem Fall gesperrt wird, dass der Client weitere Arbeit einspeichert. Falls die Clientanwendung aufhört, Fertigstellungen von der Engine 345 auszuspeichern, hält die Engine 345 das Ausspeichern weiterer Befehle von der Befehlswarteschlange an, bis in der Fertigstellungswarteschlange Platz verfügbar ist.In some examples, a backpressure may be applied to the client application when the command queue becomes full. For example, the engine 345 be occupied, in which case it is blocked that the client stores more work. If the client application stops, completions from the engine 345 Storing the engine stops 345 pending further commands from the command queue until space is available in the completion queue.

4 stellt ein Beispiel dafür dar, wie Clientanwendungen lokalen Arbeitsspeicher für die Engine, die in verschiedenen Prozessen ausgeführt wird, beschreiben. Gebiete wie etwa ein Gebiet 449 können verwendet werden, um Arbeitsspeicher in einem Adressenraum 447 der Engine 445 zu identifizieren. 4 provides an example of how client applications describe local memory for the engine running in different processes. Areas such as an area 449 can be used to allocate memory in an address space 447 the engine 445 to identify.

Die Engine 445 führt den lokalen Arbeitsspeicher über Gebietsobjekte nach, die ein Basiszeiger und eine Länge sein können. In einigen Beispielen können Anwendungen Gebiete dadurch erzeugen, dass sie gemeinsam genutzten Arbeitsspeicher 419 in einem Clientprozess zuordnen und daraufhin diesen Arbeitsspeicher in dem Engine-Prozess neu abbilden. In anderen Beispielen können Anwendungen vorhandenen Arbeitsspeicher bei der Engine 445 registrieren. Wenn der Client 410 ein oder mehrere Gebiete 449 aufgebaut hat, kann das Beschreiben des lokalen Arbeitsspeichers der Engine 445 eine Gebietsbehandlungszugriffsnummer und ein {Offset, Länge} innerhalb dieses Gebiets 449 erfordern. Virtuelle Adressen können über Prozessbegrenzungen ignoriert werden.The engine 445 Lists the local memory over area objects, which can be a base pointer and a length. In some examples, applications may create areas by sharing shared memory 419 in a client process and then re-map this memory in the engine process. In other examples, applications may have existing memory at the engine 445 to register. If the client 410 one or more areas 449 Describing the local memory of the engine 445 an area handling access number and an {offset, length} within that area 449 require. Virtual addresses can be ignored via process limits.

In Übereinstimmung mit einem Beispiel speichert der Client 410 einen Befehl in die Engine 445 ein und initiiert der Befehl Operationen wie etwa RMA-Lesevorgänge oder RMA-Schreibvorgänge, Atomoperationen oder Sende- und Empfangsoperationen. Der Befehl kann das Gebiet 449 des Arbeitsspeichers spezifizieren. Zum Beispiel spezifizieren RMA-Lesevorgänge und RMA-Schreibvorgänge sowohl ein fernes Gebiet des Arbeitsspeichers in einem Adressenraum 417 des Clients 410 als auch ein lokales Gebiet 449 des Arbeitsspeichers in dem Adressenraum 447 der Engine 445. Um zuzulassen, dass eine ferne Anwendung auf das Gebiet 449 zugreift, können an dem Arbeitsspeichergebiet 449 ein oder mehrere Fenster 475 angebracht sein, die explizit Zugriff auf diesen Arbeitsspeicher gewähren. Die Fenster 475 können ebenfalls verwendet werden, um eine feinkörnige Zugriffssteuerung zu managen. Falls eine Anwendung wünscht, dass eine ferne Anwendung in der Lage ist, einen Teil ihres lokalen Arbeitsspeichers zu lesen, erzeugt sie ein Fenster, das an ein zuvor erzeugtes Gebiet gebunden ist, und kündigt sie daraufhin diese Fensterzugriffsnummer für die ferne Anwendung an. Wenn ein Lesebefehl eingereicht wird, spezifiziert die ferne Anwendung ein lokales Gebiet und das zuvor angekündigte Fenster, und umgekehrt für einen Schreibbefehl.In accordance with an example, the client saves 410 a command in the engine 445 The command initiates and initiates operations such as RMA reads or RMA writes, atomic operations, or transmit and receive operations. The command can be the area 449 of the working memory. For example, RMA reads and RMA writes both specify a remote area of memory in an address space 417 of the client 410 as well as a local area 449 of the working memory in the address space 447 the engine 445 , To allow a remote application to the area 449 can access the working memory area 449 one or more windows 475 be appropriate to explicitly grant access to this memory. The window 475 can also be used to manage a fine-grained access control. If an application wishes a remote application to be able to read a portion of its local memory, it will create a window bound to a previously created area and then announce that window access number for the remote application. When a read command is submitted, the remote application specifies a local area and the previously advertised window, and vice versa for a write command.

In Übereinstimmung mit einem weiteren Beispiel ermöglichen „Sendevorgänge“, dass eine Anwendung unaufgefordert Daten von dem lokalen Arbeitsspeicher an einen durch die ferne Anwendung bereitgestellten Puffer sendet. Das Gebiet 449 wird verwendet, um den lokalen Arbeitsspeicher zu beschreiben, wobei aber keine Beschreibung des fernen Arbeitsspeichers notwendig ist. In einigen Beispielen kann ein Puffer-Pool den lokalen Empfangsarbeitsspeicher managen, was ermöglicht, dass beliebige ankommende Sendevorgänge denselben Pool von Puffern gemeinsam nutzen.In accordance with another example, "send operations" allow an application to send unsolicited data from local memory to a buffer provided by the remote application. The area 449 is used to describe the local memory, but no description of the remote memory is necessary. In some examples, a buffer pool may manage the local receive memory, allowing any incoming send share the same pool of buffers.

Zwischen zwei Clients kann eine bidirektionale Folge von Operationen ausgetauscht werden. Diese Folge von Operationen kann als ein Datenstrom bezeichnet werden. Wenn an die Engine 445 irgendeiner der oben diskutierten Befehle eingereicht wird, spezifiziert die Anwendung außerdem einen Datenstrom, an dem der Befehl ausgeführt werden sollte. Die Engine 445 kann interne Operationen erzeugen, um den Fortschritt jedes Befehls nachzuführen, und diese Operationen in ihren spezifizierten Datenstrom einreihen. Fertigstellungen an Datenströmen werden in der Befehlseinreichungsreihenfolge geliefert. Allerdings können die Wirkungen der Operationen, insbesondere für Mehrwegkommunikationen, nicht der Reihe nach auftreten. Zum Beispiel kann die Wirkung nachfolgender Schreibvorgänge in irgendeiner Reihenfolge, einschließlich verschachtelt, auftreten. Der Datenstrom kann jederzeit abgebrochen werden, was irgendeine Arbeit an diesem Datenstrom beendet, wobei Fehlerfertigstellungen für alle anstehende Arbeit geliefert werden.Between two clients a bidirectional sequence of operations can be exchanged. This sequence of operations may be referred to as a data stream. When to the engine 445 any of the commands discussed above, the application also specifies a data stream on which the command should be executed. The engine 445 can generate internal operations to track the progress of each instruction and those operations into its specified data stream classified. Completion of data streams are provided in the instruction submission order. However, the effects of the operations, especially for multipath communications, may not occur in turn. For example, the effect of subsequent writes may occur in any order, including nested. The data stream can be aborted at any time, ending any work on that data stream, providing error completions for all pending work.

Jedem Fenster 475 und Datenstrom kann eine Kennung wie etwa eine Farbe zugewiesen sein. Auf die Fenster 475 kann nur durch Datenströme mit gleicher Farbe zugegriffen werden. Farben werden lokal gespeichert und überprüft, was Spoofing verhindern kann. Eine ferne Engine 445 kann auf Fenster 475 nur über einen Datenstrom passender Farbe zugreifen. Datenströme können sowohl durch die Clientanwendung 410 als auch durch die Engine 445 zusammenwirkend erzeugt werden, so dass sämtlicher Zugriff auf Arbeitsspeicherfenster explizit gewährt werden sollte.Every window 475 and data stream may be assigned an identifier such as a color. On the windows 475 can only be accessed by data streams of the same color. Colors are stored and checked locally, which can prevent spoofing. A remote engine 445 can on windows 475 only access a stream of matching color. Data streams can be both through the client application 410 as well as through the engine 445 be generated cooperatively so that all access to memory windows should be explicitly granted.

5 stellt ein Beispiel der Kommunikation zwischen zwei Engines dar. Anwendungen können einen Verbindungsaufbauprozess über HTTP zu dem HTTP-Server der Anwendung beginnen. Eine lokale Engine exportiert eine Adresse an ihre Clients. Die Adresse kann ein Protokollpuffer sein, der einer fernen Engine sagt, wie sie sich mit der lokalen Engine zu verbinden hat. Um die lokale Engine mit der fernen Engine zu verbinden, können die Adressen ausgetauscht werden. Wie in 5 gezeigt ist, sendet z. B. ein Client eine Adresse der lokalen Engine an den Server, z. B. an den HTTP-Server. Der Server löst die empfangene Adresse auf und erhält eine Adresse für die ferne Engine. Der Server sendet die Adresse der fernen Engine an den Client, der die Adresse der fernen Engine auflöst. Dementsprechend wird zwischen der lokalen Engine und der fernen Engine eine bidirektionale Verbindung aufgebaut. 5 illustrates an example of communication between two engines. Applications can begin a connection setup process over HTTP to the application's HTTP server. A local engine exports an address to its clients. The address may be a log buffer that tells a remote engine how to connect to the local engine. To connect the local engine to the remote engine, the addresses can be exchanged. As in 5 is shown, sends z. For example, a client sends an address of the local engine to the server, e.g. To the HTTP server. The server resolves the received address and gets an address for the remote engine. The server sends the remote engine address to the client, which resolves the address of the remote engine. Accordingly, a bidirectional connection is established between the local engine and the remote engine.

Ein zuverlässiger ungeordneter Datagrammtransport zwischen zwei Engines kann als ein Netzfluss bezeichnet werden. Datenströme multiplexieren auf einen Netzfluss. Einem Netzfluss ist ein Stauungsfenster zugeordnet. Eine Viele-zu-viele-Karte zwischen Netzflüssen und Datenströmen kann als ein Flow Mapper bezeichnet werden. Der Flow Mapper ist für die Planung von Datenströmen auf Netzflüsse verantwortlich. Jeder Flow Mapper entspricht einer fernen Engine. Somit entspricht jeder Datenstrom über seine Adresse einem Flow Mapper. Jeder Flow Mapper besitzt ein oder mehrere Netzflüsse zu dieser fernen Engine. Wenn ein Netzfluss Gelegenheit hat, ein Paket zu senden, bittet er den Flow Mapper, der seinerseits Ströme wählt, um das Paket zu füllen. Kleine Nachrichten von mehreren Datenströmen werden auf denselben Fluss multiplexiert und können in einem einzelnen Paket gestapelt werden. Auf jeden Fluss können einschließlich auf der Sub-Paketebene mehrere Datenströme, einschließlich Datenströmen von verschiedenen Clients, multiplexiert werden.Reliable, unordered datagram transport between two engines can be referred to as a network flow. Data streams are multiplexed onto a network flow. A network flow is assigned a congestion window. A many-to-many map between network flows and data streams may be referred to as a flow mapper. The Flow Mapper is responsible for planning data flows on network flows. Each flow mapper corresponds to a remote engine. Thus every data stream via its address corresponds to a flow mapper. Each flow mapper has one or more network flows to this remote engine. When a network flow has an opportunity to send a packet, it asks the flow mapper, who in turn chooses streams to fill the packet. Small messages from multiple streams are multiplexed onto the same stream and can be stacked in a single packet. Multiple data streams, including data streams from different clients, can be multiplexed to each flow, including at the sub-packet level.

6 stellt ein beispielhaftes Paket 600 dar, das für ein parametrisches und zuverlässiges Transportprotokoll verwendet wird. Das Paket 600 enthält untere Schichten 602 wie etwa Anfangsblöcke, Traits 604, einen Wire Header 606 und Nutzinformationen 608. 6 represents an exemplary package 600 which is used for a parametric and reliable transport protocol. The package 600 contains lower layers 602 like starting blocks, traits 604 , a wire header 606 and payload 608 ,

Das Transportprotokoll ist eine Implementierung eines Netzflusses und stellt eine zuverlässige geordnete Lieferung beliebiger Datagramme bereit. Der parametrische Abschnitt des Transportprotokolls ist in 6 als „Traits“ bezeichnet. Eine spezifische Sammlung von Traits-Fällen definiert ein konkretes Wire-Format. Zum Beispiel kann eine konkrete Trait eine Stauungssteuerung, Zeitgebungsinformationen usw. sein. Das Wire-Format kann einen Operationscode enthalten, um zu spezifizieren, welche Tätigkeitsoperation ausgeführt werden soll. Das Paket kann auf der Grundlage der Traits geändert werden. Obgleich der Wire Header 606 und die Nutzinformationen 608 dieselben bleiben, können z. B. andere Anfangsblöcke in dem Paket in Abhängigkeit von den Traits geändert werden. IPv4-Traits stellen einen Ethernet/UDP/IPv4-Anfangsblock bereit. Das Transportprotokoll kann in jedem Paket eine Quittierung (ACK) enthalten, die alle Pakete bis zu einer laufenden Nummer quittiert. Wenn keine Arbeit verfügbar ist, kann es „Nop“-Pakete erzeugen, die nur eine ACK enthalten. Falls es ein Verwerfen detektiert, erzeugt es ein explizites NACK. Ferner unterstützt das Protokoll die Wegmigration. Falls es detektiert, dass ein aktueller Weg geeignet überfüllt ist, kann es in der Hoffnung, einen Fluss zu einem weniger überfüllten Weg zu verschieben, einen Quellnutzer-Datagrammprotokoll-Port (Quellnutzer-UDP-Port) ändern.The transport protocol is an implementation of network flow and provides reliable, orderly delivery of any datagrams. The parametric section of the transport protocol is in 6 referred to as "traits". A specific collection of traits cases defines a concrete wire format. For example, a concrete trait may be congestion control, timing information, and so forth. The wire format may include an operation code to specify which operation to perform. The package can be changed based on the traits. Although the wire header 606 and the payload 608 remain the same, z. For example, other headers in the packet may be changed depending on the traits. IPv4 traits provide an Ethernet / UDP / IPv4 header. The transport protocol can contain an acknowledgment (ACK) in each packet, which acknowledges all packets up to a consecutive number. If no work is available, it can generate "nop" packets that contain only one ACK. If it detects a discard, it generates an explicit NACK. The protocol also supports path migration. If it detects that a current way is properly crowded, it may change a source user datagram protocol port (source user UDP port) hoping to move a flow to a less crowded path.

Beispielhafte VerfahrenExemplary methods

7 bietet einen beispielhaften Ablaufplan, der ein Verfahren 700 zum Verarbeiten von Transaktionen unter Verwendung eines dedizierten Kerns für die Paketverarbeitung darstellt. Das Verfahren 700 kann z. B. durch ein als eine Engine bezeichnetes System, das einen NIC mit mehreren Verarbeitungskernen aufweist, die über eine Schnittstelle mit einer Paketverarbeitungspipeline verbunden sind, ausgeführt werden. Ferner kann die Engine einen oder mehrere Prozessoren enthalten, die zum Ausführen der Paketverarbeitung programmiert sind. Selbstverständlich brauchen die in den folgenden Verfahren enthaltenen Operationen nicht in der genau beschriebenen Reihenfolge ausgeführt zu werden. Vielmehr können verschiedene Operationen in einer anderen Reihenfolge oder gleichzeitig behandelt werden und können Operationen hinzugefügt oder weggelassen werden. 7 provides an exemplary schedule, a procedure 700 for processing transactions using a dedicated kernel for packet processing. The procedure 700 can z. By a system called an engine having a NIC with multiple processing cores connected to a packet processing pipeline via an interface. Further, the engine may include one or more processors programmed to perform the packet processing. Of course, the operations included in the following procedures need not be performed in the order described. Rather, different operations can be handled in a different order or simultaneously and Operations can be added or omitted.

Im Block 705 fragt das Paket Befehlswarteschlangen auf Pakete ab. Jede Befehlswarteschlange kann spezifisch für eine Anwendung sein, die in einer getrennten dedizierten Verarbeitungseinheit ausgeführt wird. Die Befehlswarteschlangen können z. B. in einem gemeinsam genutzten Arbeitsspeicher zwischen dem NIC/der Engine und der getrennten dedizierten Verarbeitungseinheit für die Anwendung enthalten sein.In the block 705 the packet queries command queues for packets. Each command queue may be specific to an application executing in a separate dedicated processing unit. The command queues may e.g. In a shared memory between the NIC / Engine and the separate dedicated processing unit for the application.

Im Block 710 empfängt das System ein Paket von der Anwendungsverarbeitungseinheit. Zum Beispiel speichert das System das Paket von der Befehlswarteschlange aus.In the block 710 the system receives a packet from the application processing unit. For example, the system will save the packet from the command queue.

Im Block 715 verarbeitet das System das empfangene Paket. Zum Beispiel erfasst die Engine, was in dem Paket enthalten ist, und interpretiert es.In the block 715 the system processes the received package. For example, the engine detects what is in the package and interprets it.

Im Block 720 führt das System einen zuverlässigen Transport für das empfangene Paket aus. Zum Beispiel kann das empfangene Paket ein wie oben in Verbindung mit 6 beschriebenes Format aufweisen. In dem Paket kann eine Quittierung enthalten sein. Dementsprechend bestätigt das System, ob das Paket empfangen wurde. Falls das Paket nicht empfangen wurde, kann eine Negativquittierung gesendet werden, so dass das Paket erneut gesendet werden kann oder auf andere Weise erneut versucht werden kann, das Paket zu empfangen.In the block 720 The system performs a reliable transport for the received packet. For example, the received packet may be one as described above 6 have described format. The package may contain an acknowledgment. Accordingly, the system confirms whether the packet has been received. If the packet has not been received, a negative acknowledgment may be sent so that the packet can be resent or otherwise retried to receive the packet.

Im Block 725 wird eine durch Software definierte Behandlungsroutine inline mit einem selben Thread, in dem das Paket empfangen und verarbeitet wurde, verarbeitet. Das empfangene Paket kann z. B. einen Operationscode enthalten, der eine auszuführende Tätigkeit spezifiziert. Anstatt einen neuen Thread aufzuwecken, um die Tätigkeit auszuführen, wird sie in demselben Thread ausgeführt.In the block 725 a software-defined handler is processed inline with a same thread in which the packet was received and processed. The received package can z. B. contain an operation code that specifies an activity to be performed. Instead of waking up a new thread to perform the activity, it will run in the same thread.

Im Block 730 führt das System einen zuverlässigen Transport für gesendete Pakete aus. Zum Beispiel transportiert das System das verarbeitete Paket zu der Anwendungsverarbeitungseinheit oder zu anderen Vorrichtungen in dem Netz zurück.In the block 730 The system performs reliable transport for sent packets. For example, the system transports the processed packet back to the application processing unit or to other devices in the network.

Im Block 735 schreibt das System Fertigstellungen in eine Fertigstellungswarteschlange. Die Fertigstellungswarteschlange kann in dem gemeinsam genutzten Arbeitsspeicher zwischen dem Anwendungsprozessor und der Engine/dem NIC enthalten sein. Zum Beispiel kann auf die Fertigstellungswarteschlange durch den Anwendungsprozessor zugegriffen werden, um zu bestimmen, welche Tasks fertiggestellt worden sind. Ferner kann der Anwendungsprozessor die Befehlswarteschlange und die Fertigstellungswarteschlange in Ansprechen auf das Lesen von Fertigstellungen aktualisieren. Zum Beispiel kann der Anwendungsprozessor die Fertigstellung aus der Fertigstellungswarteschlange und den entsprechenden Befehl aus der Befehlswarteschlange löschen, wenn der Anwendungsprozessor liest, dass in eine Fertigstellung eingetreten worden ist.In the block 735 the system writes completions to a completion queue. The completion queue may be included in the shared memory between the application processor and the engine / NIC. For example, the completion queue may be accessed by the application processor to determine which tasks have been completed. Further, the application processor may update the command queue and the completion queue in response to the read completions. For example, the application processor may clear completion from the completion queue and the corresponding command from the command queue when the application processor reads that completion has occurred.

Jede der obigen Tasks kann in demselben Verarbeitungs-Thread ausgeführt werden. Zum Beispiel können solche Operationen im Gegensatz dazu, dass ein neuer Thread aufgeweckt wird, um eine bestimmte Operation auszuführen, in demselben Thread wie die anderen ausgeführt werden.Any of the above tasks can be performed in the same processing thread. For example, unlike a new thread being woken up to perform a particular operation, such operations may be performed in the same thread as the others.

Da das hier beschriebene System und die hier beschriebenen Verfahren einen „Smart“-NIC unter Verwendung von Universalcomputervorrichtungen emulieren, bieten diese Systeme und Verfahren erhebliche Kosteneinsparungen. Zum Beispiel kann vorhandene Hardware aktualisiert werden, anstatt große Mengen an Hardware zu ersetzen. Darüber hinaus sollten dadurch, dass es dedizierte Verarbeitungskerne für die Paketverarbeitung gibt, immer Betriebsmittel für ankommende Befehle verfügbar sein. In einigen Beispielen können unter erheblichen Lasten zusätzliche Verarbeitungskerne beauftragt werden. Zum Beispiel können zusätzlichen Prozessoren Threads zugewiesen werden, um Prozesse wie etwa die in Verbindung mit 7 Beschriebenen auszuführen, falls die Befehlswarteschlange gefüllt wird.Since the system described herein and the methods described herein emulate a "smart" NIC using general-purpose computing devices, these systems and methods provide significant cost savings. For example, existing hardware can be updated rather than replacing large amounts of hardware. Moreover, by having dedicated processing cores for packet processing, resources for incoming instructions should always be available. In some examples, additional processing cores may be mandated under significant loads. For example, additional processors may be assigned threads to perform processes such as those associated with 7 Described to execute if the command queue is filled.

8 stellt eine Verarbeitungsschleife dar, die Verarbeitungszeit unter Aktivitäten aufteilt. Eine Ausführungsschleife 810 teilt die Prozessorzeit zwischen Sendearbeit (Tx-Arbeit) 822, Empfangsarbeit (Rx-Arbeit) 824 und Befehlsarbeit 826. Die Tx-Arbeit 822 wird durch einen ersten Tx-Fluss 831 und durch einen zweiten Tx-Fluss 832 ausgeführt, obgleich festzustellen ist, dass in anderen Beispielen zusätzliche oder weniger Flüsse genutzt werden können. Der erste Tx-Fluss 831 bedient die durch Software definierten Verhandlungsroutinen 842, 844, während der zweite Tx-Fluss 832 die durch Software definierte Behandlungsroutine 846 bedient. Die Rx-Arbeit 824 wird durch einen ersten Rx-Fluss 833 und durch einen zweiten Rx-Fluss 834 ausgeführt, obgleich festzustellen ist, dass in anderen Beispielen zusätzliche Flüsse genutzt werden können. Die Befehlsarbeit wird durch Anwendungen 835, 836 erzeugt. In Übereinstimmung mit einem Beispiel führen die durch Software definierten Behandlungsroutinen 842, 846 Arbeit für die Client-Anwendung 835 aus, während die durch Software definierte Behandlungsroutine 844 Arbeit für die Client-Anwendung 836 ausführt. Diesbezüglich ist die Tx-Arbeit 822 in Bezug auf die durch Software definierten Behandlungsroutinen 842-846 allgemein fair. In einigen Beispielen stellt die Rx-Arbeit 842 Fairness in Übereinstimmung mit der Netznutzung bereit und stützt sich somit für die Fairness auf die Überlastabwehr und auf andere Rückkopplungsmechanismen. Die Befehlsarbeit 826 ist zu dem Client fair. Zum Beispiel empfängt jeder der mehreren Clients näherungsweise denselben Prozentsatz an Betriebsmitteln, falls mehrere Clients näherungsweise gleiche Mengen an Arbeit bereitstellen. 8th represents a processing loop that divides processing time among activities. An execution loop 810 divides the processor time between sending work (Tx work) 822 , Reception work (Rx work) 824 and command work 826 , The Tx work 822 is through a first Tx flow 831 and through a second Tx flow 832 although it will be appreciated that additional or fewer flows may be used in other examples. The first Tx-river 831 operates the negotiation routines defined by software 842 . 844 while the second Tx flow 832 the software-defined handler 846 served. The Rx work 824 is through a first Rx flow 833 and through a second Rx flow 834 although it will be appreciated that additional flows can be used in other examples. The command work is done by applications 835 . 836 generated. In accordance with an example, the software defined treatment routines 842 . 846 Work for the client application 835 while the software-defined handler 844 does work for the client application 836 performs. In this regard, the Tx work 822 in terms of software-defined treatment routines 842 - 846 generally fair. In some examples, Rx does work 842 Fairness in line with network usage, thus supporting fairness in terms of overload protection and other feedback mechanisms. The command work 826 is fair to the client. For example, each of the multiple clients receives approximately the same percentage of resources if multiple clients provide approximately equal amounts of work.

Da diese und andere Änderungen und Kombinationen der oben diskutierten Merkmale genutzt werden können, ohne von dem wie durch die Ansprüche definierten Gegenstand abzuweichen, ist die vorstehende Beschreibung beispielhafter Aspekte nur als Veranschaulichung anstatt als Beschränkung des wie durch die Ansprüche definierten Gegenstands zu nehmen. Selbstverständlich ist die Darstellung der hier gegebenen Beispiele (sowie Aussagen, die als „wie etwa“, „z. B.“, „enthaltend“ und dergleichen formuliert sind) nicht so zu interpretieren, dass sie den beanspruchten Gegenstand auf die spezifischen Beispiele beschränken; vielmehr sollen die Beispiele nur einige von vielen möglichen Aspekten darstellen.As these and other changes and combinations of the features discussed above may be utilized without departing from the subject matter as defined by the claims, the foregoing description of exemplary aspects is to be considered as illustrative rather than restrictive of the subject matter as defined by the claims. Of course, the illustration of the examples given herein (as well as statements formulated as "such as", "for example", "containing" and the like) should not be interpreted as limiting the claimed subject matter to the specific examples; rather, the examples are just a few of many possible aspects.

Claims (20)

System, das umfasst: einen Arbeitsspeicher, der Paketverarbeitungsanweisungen speichert; und eine oder mehrere dedizierte Paketverarbeitungseinheiten in Verbindung mit dem Arbeitsspeicher und mit einer oder mehreren Anwendungsverarbeitungseinheiten, wobei die eine oder die mehreren dedizierten Paketverarbeitungseinheiten zum Ausführen der Paketverarbeitung dediziert sind, wobei jeder der einen oder mehreren dedizierten Paketverarbeitungseinheiten ein Verarbeitungs-Thread zugewiesen ist, wobei die eine oder die mehreren dedizierten Paketverarbeitungseinheiten konfiguriert sind zum: Empfangen eines Pakets von einer Anwendung, die in einer der Anwendungsverarbeitungseinheiten ausgeführt wird, in einem ersten Verarbeitungs-Thread; Verarbeiten durch Software definierter Behandlungsroutinenoperationen, die durch Befehle in dem empfangenen Paket initiiert werden, ohne die Operation an einen Anwendungs-Thread abzusenden, in dem ersten Verarbeitungs-Thread.System comprising: a working memory storing packet processing instructions; and one or more dedicated packet processing units in communication with the random access memory and with one or more application processing units, wherein the one or more dedicated packet processing units are dedicated to perform the packet processing, wherein each of the one or more dedicated packet processing units is assigned a processing thread, the one or the multiple dedicated packet processing units are configured to: Receiving a packet from an application executing in one of the application processing units in a first processing thread; Processing by software defined handler operations initiated by instructions in the received packet, without dispatching the operation to an application thread, in the first processing thread. System nach Anspruch 1, wobei der eine oder die mehreren Prozessoren ferner konfiguriert sind zum: Ausführen eines Transports für die empfangenen Pakete; und Ausführen eines Transports für verarbeitete Pakete, die gesendet werden sollen; wobei das Ausführen der Transporte in dem ersten Verarbeitungs-Thread ausgeführt wird.System after Claim 1 wherein the one or more processors are further configured to: perform a transport for the received packets; and performing a transport for processed packets to be sent; wherein the carrying out of the transports is performed in the first processing thread. System nach Anspruch 2, wobei der Transport mit der einen oder den mehreren Anwendungsverarbeitungseinheiten ohne Kontextumschaltung oder Systemaufrufe über eine Schnittstelle verbunden ist.System after Claim 2 wherein the transport is interfaced with the one or more application processing units without context switching or system calls. System nach Anspruch 2 oder 3, wobei der eine oder die mehreren Prozessoren beim Ausführen des Transports für die empfangenen Pakete konfiguriert sind zum: Detektieren eines Netzproblems, Ändern von Transportparametern in Ansprechen auf das Detektieren eines Netzproblems, und Benachrichtigen über irgendwelche Pakete, die beim Transport verlorengegangen sind.System after Claim 2 or 3 wherein the one or more processors, when performing the transport for the received packets, are configured to: detect a network problem, change transport parameters in response to detecting a network problem, and notify of any packets lost during transport. System nach Anspruch 1, wobei der eine oder die mehreren Prozessoren ferner konfiguriert sind zum: Abfragen einer oder mehrerer Befehlswarteschlangen, wobei jede Befehlswarteschlange spezifisch für eine Anwendung ist, wobei das empfangene Paket von der einen oder den mehreren Befehlswarteschlangen ausgespeichert wird; und Eingeben von Fertigstellungen in eine Fertigstellungswarteschlange.System after Claim 1 wherein the one or more processors are further configured to: query one or more instruction queues, each instruction queue being specific to an application, wherein the received packet is paged out of the one or more instruction queues; and entering completions into a completion queue. System nach Anspruch 5, wobei die Befehls- und die Fertigstellungswarteschlangen in einem gemeinsam genutzten Arbeitsspeicher enthalten sind, wobei der gemeinsam genutzte Arbeitsspeicher zwischen der einen oder den mehreren Verarbeitungseinheiten und einer zweiten Verarbeitungseinheit, die spezifisch für die Anwendung ist, gemeinsam genutzt wird.System after Claim 5 wherein the command and completion queues are included in a shared memory, wherein the shared memory is shared between the one or more processing units and a second processing unit specific to the application. System nach einem der Ansprüche 1 bis 6, wobei die eine oder die mehreren dedizierten Paketverarbeitungseinheiten Verarbeitungskerne eines Mehrkernprozessors sind.System according to one of Claims 1 to 6 wherein the one or more dedicated packet processing units are processing cores of a multi-core processor. System nach einem der Ansprüche 1 bis 7, wobei der eine oder die mehreren Prozessoren ferner dafür konfiguriert sind, eine Anzahl der einen oder mehreren dedizierten Paketverarbeitungseinheiten dynamisch zu erhöhen oder zu verringern.System according to one of Claims 1 to 7 wherein the one or more processors are further configured to dynamically increase or decrease a number of the one or more dedicated packet processing units. System, das umfasst: einen oder mehrere Arbeitsspeicher; eine erste Menge von Verarbeitungseinheiten in Verbindung mit dem einen oder den mehreren Arbeitsspeichern, wobei die erste Menge von Verarbeitungseinheiten dafür konfiguriert sind, ausschließlich die Paketverarbeitung auszuführen; eine zweite Menge von Verarbeitungseinheiten in Verbindung mit dem einen oder den mehreren Arbeitsspeichern und mit der ersten Menge von Verarbeitungseinheiten, wobei die zweite Menge von Verarbeitungseinheiten dafür konfiguriert sind, ausschließlich Anwendungen auszuführen.System comprising: one or more working memory; a first set of processing units in communication with the one or more random access memories, wherein the first set of processing units are configured to execute only the packet processing; a second set of processing units in communication with the one or more random access memories and with the first set of processing units, wherein the second set of processing units are configured to execute applications exclusively. System nach Anspruch 9, wobei jeder der ersten Verarbeitungseinheiten ein Verarbeitungs-Thread zugewiesen ist, wobei der Verarbeitungs-Thread durch eine der ersten Verarbeitungseinheiten ausführbar ist, um: empfangene Pakete zu verarbeiten; für die empfangenen Pakete einen Transport auszuführen; durch Software definierte Behandlungsroutinenoperationen zu verarbeiten; und für zu sendende Pakete einen Transport auszuführen.System after Claim 9 . wherein each of the first processing units is assigned a processing thread, wherein the processing thread is executable by one of the first processing units to: process received packets; to carry out a transport for the received packets; processing software-defined handler operations; and to carry out a transport for packets to be sent. System nach Anspruch 9 oder 10, das ferner einen zwischen der ersten Menge von Verarbeitungseinheiten und der zweiten Menge von Verarbeitungseinheiten gemeinsam genutzten Arbeitsspeicher umfasst.System after Claim 9 or 10 further comprising a shared memory between the first set of processing units and the second set of processing units. System nach Anspruch 11, wobei der gemeinsam genutzte Arbeitsspeicher gemeinsam genutzte Arbeitsspeicherringe umfasst.System after Claim 11 where the shared memory includes shared memory rings. System nach Anspruch 12, wobei jede der zweiten Menge von Verarbeitungseinheiten über eine getrennte Menge gemeinsam genutzter Arbeitsspeicherringe in Verbindung steht, wobei die Menge Senderinge und Empfangsringe umfasst.System after Claim 12 wherein each of the second set of processing units communicates via a separate set of shared memory rings, the set comprising transmitter rings and receive rings. System nach einem der Ansprüche 11 bis 13, wobei der gemeinsam genutzte Arbeitsspeicher wenigstens eine Befehlswarteschlange und wenigstens eine Fertigstellungswarteschlange enthält.System according to one of Claims 11 to 13 wherein the shared memory includes at least one instruction queue and at least one completion queue. System nach Anspruch 14, wobei die erste Menge von Verarbeitungseinheiten konfiguriert sind zum: Abfragen von Befehlswarteschlangen für jede Anwendung; und Eingeben von Fertigstellungen in die Fertigstellungswarteschlangen nach Abschließen von Paketverarbeitungsoperationen.System after Claim 14 wherein the first set of processing units are configured to: query instruction queues for each application; and entering completions in the completion queues after completing packet processing operations. Computerlesbares Speichermedium, das Anweisungen umfasst, die, wenn sie ausgeführt werden, veranlassen, dass wenigstens ein Prozessor eines Computersystems Operationen ausführt, die umfassen: Empfangen eines Pakets von einer Anwendung, die in einem zweiten Prozessor, der für die Anwendungsverarbeitung dediziert ist, ausgeführt wird, mit einem ersten Prozessor, der für das Ausführen der Paketverarbeitung und für das Ausführen eines ersten Verarbeitungs-Threads dediziert ist; Verarbeiten durch Software definierter Behandlungsroutinenoperationen, die durch Befehle in dem empfangenen Paket initiiert werden, ohne zusätzliche Threads aufzurufen, in dem ersten Verarbeitungs-Thread.A computer-readable storage medium comprising instructions that, when executed, cause at least one processor of a computer system to perform operations that include: Receiving a packet from an application executing in a second processor dedicated for application processing with a first processor dedicated to performing packet processing and executing a first processing thread; Processing by software defined handler operations initiated by instructions in the received packet without invoking additional threads in the first processing thread. Computerlesbares Speichermedium nach Anspruch 16, wobei die Operationen ferner umfassen: Ausführen eines Transports für die empfangenen Pakete mit dem ersten Prozessor, der den ersten Verarbeitungs-Thread ausführt; und Ausführen eines Transports für verarbeitete Pakete, die gesendet werden sollen, mit dem ersten Prozessor, der den ersten Verarbeitungs-Thread ausführt.Computer readable storage medium after Claim 16 wherein the operations further comprise: performing a transport for the received packets with the first processor executing the first processing thread; and performing a transport for processed packets to be sent with the first processor executing the first processing thread. Computerlesbares Speichermedium nach Anspruch 17, wobei das Ausführen des Transports für die empfangenen Pakete umfasst: Detektieren eines Netzproblems, Ändern von Transportparametern in Ansprechen auf das Detektieren eines Netzproblems, und erneutes Senden irgendeines Pakets, das in der Übertragung verlorengegangen ist.Computer readable storage medium after Claim 17 wherein performing the transport for the received packets comprises: detecting a network problem, changing transport parameters in response to detecting a network problem, and retransmitting any packet lost in the transmission. Computerlesbares Speichermedium nach einem der Ansprüche 16 bis 18, wobei das Empfangen des Pakets umfasst: Abfragen einer oder mehrerer Befehlswarteschlangen in einem gemeinsam genutzten Arbeitsspeicher zwischen dem ersten Prozessor und dem zweiten Prozessor mit dem ersten Prozessor, der den ersten Verarbeitungs-Thread ausführt, wobei jede Befehlswarteschlange spezifisch für eine in dem zweiten Prozessor ausgeführte Anwendung ist; und Ausspeichern des Pakets aus der einen oder den mehreren Befehlswarteschlangen.Computer readable storage medium according to one of Claims 16 to 18 wherein receiving the packet comprises: querying one or more command queues in a shared memory between the first processor and the second processor with the first processor executing the first processing thread, each command queue specific to one executing in the second processor Application is; and removing the packet from the one or more command queues. Computerlesbares Speichermedium nach Anspruch 19, wobei die Operationen ferner das Eingeben von Fertigstellungen in eine Fertigstellungswarteschlange in dem gemeinsam genutzten Arbeitsspeicher umfassen.Computer readable storage medium after Claim 19 The operations further include entering completions into a completion queue in the shared memory.
DE202017105777.1U 2016-12-29 2017-09-22 System for hardware-independent RDMA Active DE202017105777U1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/393,529 2016-12-29
US15/393,529 US10541927B2 (en) 2016-12-29 2016-12-29 System and method for hardware-independent RDMA

Publications (1)

Publication Number Publication Date
DE202017105777U1 true DE202017105777U1 (en) 2018-04-05

Family

ID=60043327

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202017105777.1U Active DE202017105777U1 (en) 2016-12-29 2017-09-22 System for hardware-independent RDMA

Country Status (4)

Country Link
US (1) US10541927B2 (en)
EP (1) EP3563249A1 (en)
DE (1) DE202017105777U1 (en)
WO (1) WO2018125335A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190044860A1 (en) * 2018-06-18 2019-02-07 Intel Corporation Technologies for providing adaptive polling of packet queues
JP7251648B2 (en) * 2019-10-08 2023-04-04 日本電信電話株式会社 In-server delay control system, in-server delay control device, in-server delay control method and program
CN112087332B (en) * 2020-09-03 2022-06-21 哈尔滨工业大学 Virtual network performance optimization system under cloud edge cooperation
CN114520711B (en) * 2020-11-19 2024-05-03 迈络思科技有限公司 Selective retransmission of data packets
US11489775B1 (en) * 2021-05-10 2022-11-01 Citrix Systems, Inc. Vertical auto-scaling of a networking stack

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5063500A (en) 1988-09-29 1991-11-05 Ibm Corp. System for executing segments of application program concurrently/serially on different/same virtual machine
US5765011A (en) 1990-11-13 1998-06-09 International Business Machines Corporation Parallel processing system having a synchronous SIMD processing with processing elements emulating SIMD operation using individual instruction streams
US6904519B2 (en) 1998-06-12 2005-06-07 Microsoft Corporation Method and computer program product for offloading processing tasks from software to hardware
US7949766B2 (en) 2005-06-22 2011-05-24 Cisco Technology, Inc. Offload stack for network, block and file input and output
US20130086311A1 (en) * 2007-12-10 2013-04-04 Ming Huang METHOD OF DIRECT CONNECTING AHCI OR NVMe BASED SSD SYSTEM TO COMPUTER SYSTEM MEMORY BUS
US8286198B2 (en) * 2008-06-06 2012-10-09 Apple Inc. Application programming interfaces for data parallel computing on multiple processors
JPWO2010032533A1 (en) * 2008-09-19 2012-02-09 日本電気株式会社 Network protocol processing system and network protocol processing method
US9329912B2 (en) * 2012-07-13 2016-05-03 Freescale Semiconductor, Inc. Core-affine processing on symmetric multiprocessing systems
US9356986B2 (en) * 2014-08-08 2016-05-31 Sas Institute Inc. Distributed stream processing
US9459903B2 (en) * 2014-09-24 2016-10-04 Intel Corporation Techniques for routing service chain flow packets between virtual machines
US9747249B2 (en) 2014-12-29 2017-08-29 Nicira, Inc. Methods and systems to achieve multi-tenancy in RDMA over converged Ethernet
US10108422B2 (en) * 2015-04-28 2018-10-23 Liqid Inc. Multi-thread network stack buffering of data frames

Also Published As

Publication number Publication date
WO2018125335A1 (en) 2018-07-05
EP3563249A1 (en) 2019-11-06
US20180191623A1 (en) 2018-07-05
US10541927B2 (en) 2020-01-21

Similar Documents

Publication Publication Date Title
DE202017105777U1 (en) System for hardware-independent RDMA
DE69433293T2 (en) Network transfer method for systems with virtual memory
DE112013006063B4 (en) Failover for a communication channel in a high performance data processing network
DE102015108145B4 (en) Local service chaining with virtual machines and virtualized containers in software-defined networking
DE69220093T2 (en) PROCESSING NETWORK FOR DISTRIBUTED APPLICATION PROGRAMS.
DE69230093T2 (en) Multiprocessor system
DE102020132078A1 (en) RESOURCE ALLOCATION BASED ON APPLICABLE SERVICE LEVEL AGREEMENT
DE3879947T2 (en) DISTRIBUTED FILE SERVER ARCHITECTURE.
DE112020002754T5 (en) SYSTEM AND METHODS TO FACILITATE EFFICIENT MESSAGE MATCHING IN A NETWORK INTERFACE CONTROLLER (NIC)
DE60030767T2 (en) DATA ALLOCATION TO THREADS IN A MULTI-THREADED NETWORK PROCESSOR
DE60201682T2 (en) ARRANGEMENT FOR GENERATING MULTIPLE VIRTUAL QUEUE COUPLES FROM A COMPRESSED QUEUE BASED ON COMMON ATTRIBUTES
DE112012004550B4 (en) State migration method, system and apparatus for a remote direct memory access adapter in a virtual environment
DE102018210537A1 (en) Micro-services architecture
DE112017003294B4 (en) Technologies for scalable sending and receiving of packets
DE102017126197A1 (en) Device and method for scalable traffic shaping in a receiver with a time-indexed data structure
DE4208924A1 (en) Communication between processors in parallel processing computers - is achieved by transmission between computers involving real and virtual memory sectors
DE112010003554T5 (en) Symmetrical direct migration of virtual machines
DE112007001135T5 (en) Sharing data through partitions in a partitionable system
DE102012105068A1 (en) Accelerator with support for virtual machines
DE102022205478A1 (en) INTERBUS MEMORY MAPPING
DE112022002284T5 (en) OUTSOURCE OF THE NETWORK LAYER 7 TO AN INFRASTRUCTURE PROCESSING UNIT FOR A MESH SERVICE NETWORK
DE102022126611A1 (en) SERVICE MESH OFFSET TO NETWORK DEVICES
DE102004052412A1 (en) Method and apparatus for dynamically switching between queries and interrupt to handle network traffic
DE102021207394A1 (en) MERGE PACKETS BASED ON HINTS GENERATED BY THE NETWORK ADAPTER
DE112010004809B4 (en) Multi-granular data stream processing

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years