WO2016092197A1 - Procédé de gestion d'un réseau de nœuds de calcul - Google Patents

Procédé de gestion d'un réseau de nœuds de calcul Download PDF

Info

Publication number
WO2016092197A1
WO2016092197A1 PCT/FR2015/053368 FR2015053368W WO2016092197A1 WO 2016092197 A1 WO2016092197 A1 WO 2016092197A1 FR 2015053368 W FR2015053368 W FR 2015053368W WO 2016092197 A1 WO2016092197 A1 WO 2016092197A1
Authority
WO
WIPO (PCT)
Prior art keywords
management
management node
group
nodes
node
Prior art date
Application number
PCT/FR2015/053368
Other languages
English (en)
Inventor
Mathieu PEROTIN
Original Assignee
Bull Sas
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bull Sas filed Critical Bull Sas
Priority to US15/534,816 priority Critical patent/US10826779B2/en
Publication of WO2016092197A1 publication Critical patent/WO2016092197A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17356Indirect interconnection networks
    • G06F15/17362Indirect interconnection networks hierarchical topologies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/161Computing infrastructure, e.g. computer clusters, blade chassis or hardware partitioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/34Signalling channels for network management communication
    • H04L41/344Out-of-band transfers

Definitions

  • the invention relates to a method of managing a network of computing nodes.
  • network computing nodes in the context of this document any network of machines, a machine being at least among: a computer, a server, a blade ....
  • a machine being at least among: a computer, a server, a blade ....
  • bunches of servers that is supercomputers or high-performance computers.
  • the field of high performance computing designated as HPC is still targeted.
  • the current supercomputers have a calculation power of the order of the petaflops (1 0 1 5 floating point operations per second (flops)). This performance is achieved by working together 5000 to 6000 computers / servers interconnected according to specific topologies. These interconnections are realized using switches and cables. In the case of a supercomputer, to designate a computer / server, it is called a computing node, or simply a node.
  • the switches, and therefore the network are administered by a management node connected to the network.
  • the management node manages the compute nodes and switches over the same physical network.
  • the switch management protocol depends on the nature of the switches. In practice, for a supercomputer InfiniBand switches are used so the protocol used is defined by the InfiniBand specification.
  • the management node implementing a management function, makes it possible to configure and monitor the switches. The number of failures increasing with the number of switches, it ends up being important. The analysis needs of the behavior of the supercomputer are also important. This involves many maintenance exchanges on the network.
  • a maintenance exchange is a resource use that is not related to the calculations requested from the supercomputer. In the case in which we are concerned, for example, an alert message issued by a switch with one of the ports failing, or a collection message sent by a management node to recover statistics on a switch.
  • the increase in the power of the supercomputers involves the increase in the number of nodes, so the increase in the number of interconnections, so the increase in the number of network maintenance messages between the switches and the management node.
  • the management node which is in charge of the processing of the messages emanating from the equipments is no longer able to take into account all the messages, for lack of computing power or network capacity,
  • OpenSM responsible for the acquisition of topologies and routing begins to induce a high latency in the calculation of routes
  • IBMS centralizing errors into a single database induces a large CPU load.
  • the invention aims to remedy all or part of the disadvantages of the state of the art identified above, and in particular to provide means to support the growth complexity of supercomputers.
  • the present invention provides a fine modeling of these roles and an implementation cut into individual modules, although interconnected and distributable.
  • Each module can in turn be distributed according to a hierarchy of the supercomputer, which allows the invention to operate up to the size of supercomputers which are the object of an active search, that is to say exaflopic supercomputers and more.
  • one aspect of the invention relates to a method for managing a network of computation nodes interconnected by a plurality of interconnection devices, characterized in that it comprises the following steps:
  • connection of the interconnection devices interconnecting the nodes of the group to a group management node, said management node being dedicated to the group of computation nodes
  • each management module of a management node being able to communicate with the other management modules of the same management node.
  • the method / device according to the invention may have one or more additional characteristics among the following, considered individually or according to the technically possible combinations:
  • a group management node is connected out-of-band to interconnection devices
  • management modules are selected from the group consisting of at least:
  • Network performance report module at least one management node is connected to a level 2 management node
  • a module of a management node processes messages received from at least one interconnect device to reduce the amount of data sent to the level 2 management node.
  • the invention also relates to a digital storage device comprising a file corresponding to instruction codes implementing the method according to one of the preceding claims.
  • the invention also relates to a device implementing a method according to a combination of the preceding features.
  • FIG. 2 is a step view of the method according to the invention.
  • FIG. 1 shows in a simplified manner an implementation of the invention.
  • FIG. 1 shows a first group G1 of computing nodes G1 .i, each of the nodes G1 .i of the first group G1 of nodes being connected to at least one port Sl .ij of a switch S1 .i of a first group S1 of switches.
  • all the compute nodes of the first group of computation nodes are connected to ports of the same nature. These are InfiniBand ports or equivalent.
  • Each switch of the first group S1 of the switch is itself connected to at least one other switch of the first group S1 of the switch. This makes it possible to connect all the computation nodes of the first group G1 of computation nodes with each other and thus to establish a network between them.
  • the different physical connections and the corresponding cables are not shown so as not to clutter the figures.
  • FIG. 1 shows that each switch of the first group of switches to an identical structure.
  • Each switch of the first group of switches schematically comprises:
  • a dedicated circuit or ASIC for switching processing a storage memory comprising a plurality of zones of which at least:
  • a first network zone comprising instruction codes for switching and management of the switch, a second zone comprising a routing table;
  • a plurality of connectors, or ports, of processing in a first format usually the InfiniBand format
  • Connectors are physical communications interfaces, or network interfaces.
  • FIG. 1 also shows a second group G2 of calculating nodes G2.i, each of the nodes G2.i of the second group G2 of nodes being connected to at least one port S2.ij of a switch S2.i d a second group S2 of switches.
  • the second group of compute nodes and the second group of switches associated with the second group of computation nodes consist of elements identical to those of the first group of computation nodes associated with the first group of switches.
  • the switches of the second group of switches are functionally identical to the switches of the first group of switches.
  • the organization of these elements may vary from one group to another or be identical.
  • FIG. 1 shows that the switches of the first group of switches are connected, via their management connector, to a first management switch C1.
  • the first management switch is represented as a single device, but it could be a plurality of interconnected switches to form a network for interconnecting all the switches of the first group of switches.
  • Using the management connector makes it possible to make an out-of-band connection, i.e. messages sent through the management connector do not flow on the cables connected to the plurality of connectors.
  • the network formed via the plurality of connectors is therefore dedicated to the computing nodes.
  • out-of-band means that so-called out-of-band signals are exchanged on channels or links which do not influence the performance of the channels or links used by the device to fulfill its main functions.
  • FIG. 1 shows a first management node N1 connected to the first management switch.
  • the first management node N1 comprises at least schematically:
  • a storage memory 20 comprising a plurality of zones of which at least:
  • bus 150 for interconnecting the elements of the management node.
  • FIG. 1 shows that the switches of the second group of switches are connected, via their management connector, to a second management switch C2.
  • the second management switch is shown as a single device, but it could be a plurality of interconnected switches to form a network for interconnecting all the switches of the second group of switches.
  • FIG. 1 shows a second management node N2 connected to the second management switch.
  • the second management node N2 comprises at least schematically the same elements as the first management node, that is to say:
  • a storage memory 220 comprising a plurality of zones of which at least: an area 221 routing module,
  • bus 250 for interconnecting the elements of the management node.
  • the module areas include instruction codes whose execution corresponds to the functions of the module.
  • FIG. 1 shows that the first management node N1 and the second management node N2 are connected to a level 2 management node NS. These connections are made through a level 2 management CS switch connected to the first management node N2. C1 management switch and the second C2 management switch.
  • the first management node is:
  • the messages exchanged between the management node and the switches of a switch group do not circulate on the same cables as the messages exchanged between the management node and the management node of level 2. More generally, this means that one can allocate a bandwidth dedicated to the exchange of messages between the management node and a group of switches. No other message will be able to use this bandwidth. This can be achieved by physical means, physically separating the networks as illustrated, but this can also be achieved with switches capable of managing a QoS or QoS contract.
  • FIG. 2 shows a step of organizing calculation nodes in groups of calculation nodes.
  • the nodes are organized in groups, for example, according to switches to which they are connected, or conversely one chooses a predetermined number of nodes and interconnected via switches.
  • Groups of nodes thus connected are also interconnected by the establishment of connections between the switches of the different groups of nodes.
  • grouping nodes amounts to grouping switches.
  • Any compute node connected to a switch of a group of switches, defined according to the invention is part of the same group of calculation nodes. In other words, all the nodes directly connected to the same switch belong to the same group of computation nodes.
  • Such a group also comprises a plurality of switches.
  • the switches in question are interconnection devices as described for Figure 1. For a group of nodes they are connected in a step 1 01 0 to a management node and out of band. Each management node is in turn connected to a level 2 management node. Management nodes, at all levels, have a tree structure that adapts to availability and scalability requirements.
  • the supercomputer corresponding to the set of computing nodes of the calculation node groups, can be started.
  • Starting a supercomputer includes a step of updating the switch routing tables included in the supercomputer. This update is performed according to an initial setting known to the supercomputer.
  • a particularity of the invention is that these services are executed independently and decentralized. Each service corresponds to at least one process on the device that implements it. These are the modules
  • a topology management service it is the service that: maintains a topology database that makes it possible to know at any time, at least, the state of each connector of each switch;
  • This aggregation for example a correlation synthesis, makes it possible to reduce the volume of the communications received by the level management node. 2.
  • a correlation is, for example, the fact of detecting that a certain number of connector failure messages for the same switch corresponds to a switch failure, it is therefore unnecessary to relay the fault messages of the connectors;
  • a network performance reporting service which retrieves and records performance data of switches connected to the management node implementing the service.
  • a management node also implements a communication mechanism between the module. Such a mechanism is asynchronous so that the message management is not blocking for the different services.
  • Such an asynchronous mechanism is, for example a mechanism by subscription.
  • a service subscribes to sent messages. When a message to which he is subscribed is published, he will then read it.
  • the switch sends a fault message to its management node, the one to which it is connected; the management node's management service updates the topology database and wakes up the topology service of the management node receiving the message;
  • the topology service issues a message indicating the failure and begins a process to determine if routing calculation assumptions are still valid, such a calculation generally lasts about ten seconds;
  • the routing service receives the message indicating the connector failure and starts computing new routing tables based on common topology assumptions. Such a calculation generally lasts more than ten seconds;
  • the topology service detects a change in topology assumptions and publishes this change
  • the routing service receives the topology hypothesis change message, interrupts the current calculation and resumes calculation based on the new assumptions.
  • these calculations can be performed simultaneously on several nodes, that is to say that one can simultaneously manage two failures occurring on two switches of two groups of different calculation nodes.
  • Another appropriate communication mechanism would be a mailbox mechanism, each service having its own mailbox address, the set of mailboxes being managed by the communication service.
  • a management node also performs a network performance report service.
  • This is the network performance module.
  • Network performance for example:
  • This data is available at the switch level and repatriated at regular intervals by the management nodes. This data is then aggregated by the management node and transmitted after aggregation possibly with data produced by the other modules.
  • the network performance module also stores the performance data which makes it possible to distribute the raw performance data of the supercomputer on the management nodes.
  • An interrogation can then be done from the level 2 management node which will then look for the data on the management nodes according to the interrogation.
  • Distributed storage is thus obtained on the management nodes, which makes it possible to dispense with a centralized storage device.
  • a centralized device must, to be fault tolerant, implement system redundancy. With the invention these redundancies are natural because they are materialized by the management nodes that are materially independent of each other.
  • a centralized system must be capable of having a large storage capacity corresponding to the data produced by all the switches of the supercomputer.
  • each management node has a storage capacity that corresponds to the data produced by the switches that it manages.
  • a large and resilient storage capacity is obtained with less complexity than a centralized equivalent capacity.
  • the invention makes it possible to continue applying known supercomputer design methods, especially in terms of setting up cabling topology, but having a much more responsive management mode and adapted to topologies of increasing size.
  • the implementation of the method therefore leads to a supercomputer operational and manageable.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

Procédé de gestion d'un réseau de nœuds de calcul interconnectés par une pluralité de dispositifs d'interconnexions caractérisé en ce qu'il comporte les étapes suivantes; organisation des nœuds de calcul en groupes de nœuds de calcul, pour chaque groupe de nœuds de calcul, connexion (1010) des dispositifs d'interconnexion interconnectant les nœuds du groupe à un nœud de gestion de groupe, ledit nœud de gestion étant dédié au groupe de nœuds de calcul sur chaque nœud de gestion exécution (1030) d'une fonction de management par la mise en œuvre de modules de gestion indépendants, chaque module de gestion d'un nœud de gestion étant apte à communiquer avec les autres modules de gestion du même nœud de gestion.

Description

Procédé de gestion d'un réseau de nœuds de calcul
DOMAINE TECHNIQUE DE L'INVENTION
[ 0001 ] L'invention se rapporte à un procédé de gestion d'un réseau de nœuds de calcul.
[0002 ] On entendra par réseau de nœuds de calcul, dans le cadre du présent document tout réseau de machines, une machine étant au moins parmi : un ordinateur, un serveur, une lame.... Sont en particulier visées les grappes de serveurs, c'est-à-dire les supercalculateurs ou encore les calculateurs hautes performances. Est encore visé le domaine du calcul haute performance désigné comme HPC.
ETAT DE LA TECHNIQUE ANTERIEURE
[0003 ] Les supercalculateurs actuels ont une puissance de calcul de l'ordre du pétaflops (1 0 1 5 opérations à virgule flottante par seconde (flops)). Ces performances sont atteintes en faisant travailler conjointement 5000 à 6000 ordinateurs/serveurs interconnectés selon des topologies spécifiques. Ces interconnexions sont réalisées en utilisant des commutateurs et des câbles. Dans les cas d'un supercalculateur, pour désigner un ordinateur/serveur, on parle de nœud de calcul, ou tout simplement de nœud.
[0004 ] Les réseaux utilisés dans ce domaine du calcul haute-performance sont très spécialisés et nécessitent une gestion adaptée. Typiquement, ces services, dits de « Fabric Management » ou « Fabric Manager », doivent offrir des fonctionnalités de routage, afin de rendre les communications possibles, mais aussi d'acquisition et de traitement des données de production (remontés d'erreurs et compteurs d'exploitation).
[0005 ] Les commutateurs, et donc le réseau, sont administrés par un nœud de management connecté au réseau. Le nœud de management gère les nœuds de calcul et les commutateurs via le même réseau physique. Le protocole de gestion des commutateurs dépend de la nature des commutateurs. Dans la pratique, pour un supercalculateur on utilise des commutateurs InfiniBand le protocole utilisé est donc défini par la spécification InfiniBand. [0006] Le nœud de management, mettant en œuvre une fonction de management, permet de configurer et de surveiller les commutateurs. Le nombre de défaillances croissant avec le nombre de commutateurs, il finit par être important. Les besoins d'analyse du comportement du supercalculateur sont également importants. Cela implique de nombreux échanges de maintenance sur le réseau. Un échange de maintenance est une utilisation de ressource qui n'est pas lié aux calculs demandés au supercalculateur. Dans le cas qui nous intéresse il s'agit, par exemples, d'un message d'alerte émis pas un commutateur dont l'un des ports est défaillant, ou d'un message de collecte émis par un nœud de gestion pour récupérer des statistiques sur un commutateur.
[0007 ] L'accroissement de la puissance des supercalculateurs implique l'augmentation du nombre de nœuds, donc l'augmentation du nombre d'interconnexions, donc l'augmentation du nombre de messages de maintenance réseau entre les commutateurs et le nœud de management.
[ 0008 ] Cela a deux conséquences fâcheuses :
Le nœud de gestion qui a en charge le traitement des messages émanant des équipements n'est plus capable de prendre en compte tous les messages, par manque de puissance de calcul ou de capacité réseau,
- Cette non prise en compte, ou ce retard de prise en compte entraîne un délai sur les décisions impactant le réseau haute-performance : des congestion peuvent apparaître et s'installer durablement, pénalisant les applications, voire paralysant le super-calculateur.
[ 0009] Ce phénomène d'effondrement est avéré pour un supercalculateur de 8000 nœuds comportant un millier de commutateur. Un tel supercalculateur n'atteint pas l'exaflops (1 0A1 8 flops) qui est pourtant l'objectif actuel de la recherche sur les supercalculateurs.
[ 0010 ] Ainsi, les solutions existantes sont aujourd'hui centralisées. On peut prendre en exemple le couple {OpenSM, IBMS} qui est la solution proposées par certains fabricants de supercalculateur afin de gérer les réseaux de type InfiniBand (IB). OpenSM, responsable de l'acquisition des topologies et du routage commence à induire une latence importante pour ce qui est du calcul des routes, et IBMS, centralisant les erreurs en une unique base de données induit une charge CPU importante.
[0011] Par ailleurs, peu de possibilités de corrélation d'erreur sont offertes, ce qui est d'autant plus regrettable que cette fonctionnalité devient salvatrice à ces échelles.
[0012] Enfin, la gestion des données d'exploitation (compteurs d'erreurs et de performance) ne se fait que laborieusement, des requêtes individuelles, émanant d'un unique point central devant être émises pour les rassembler. EXPOSE DE L'INVENTION
[0013] L'invention vise à remédier à tout ou partie des inconvénients de l'état de la technique identifiés ci-dessus, et notamment à proposer des moyens pour permettre de prendre en charge la croissance en complexité des supercalculateurs.
[0014] Dans ce but, la présente invention propose une modélisation fine de ces rôles et une implémentation découpée en modules individuels, bien qu'interconnectés, et distribuables. Chaque module peut à son tour être distribué au gré d'une hiérarchisation du supercalculateur, ce qui permet à l'invention de fonctionner jusqu'aux tailles de supercalculateurs qui font l'objet d'une recherche active, c'est-à-dire des supercalculateurs exaflopiques et plus encore.
[0015] Dans ce dessein, un aspect de l'invention se rapporte à un procédé de gestion d'un réseau de nœuds de calcul interconnectés par une pluralité de dispositifs d'interconnexions caractérisé en ce qu'il comporte les étapes suivantes :
- Organisation des nœuds de calcul en groupes de nœuds de calcul,
Pour chaque groupe de nœuds de calcul, connexion des dispositifs d'interconnexion interconnectant les nœuds du groupe à un nœud de gestion de groupe, ledit nœud de gestion étant dédié au groupe de nœuds de calcul
- Sur chaque nœud de gestion exécution d'une fonction de management par la mise en œuvre de modules de gestion indépendants, chaque module de gestion d'un nœud de gestion étant apte à communiquer avec les autres modules de gestion du même nœud de gestion. [0016] Outre les caractéristiques principales qui viennent d'être mentionnées dans le paragraphe précédent, le procédé/dispositif selon l'invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes, considérées individuellement ou selon les combinaisons techniquement possibles:
- un nœud de gestion de groupe est connecté hors-bande à des dispositifs d'interconnexion ;
des communications entre modules de gestion d'un même nœud de gestion se font de manière asynchrone ;
les modules de gestion sont choisi dans le groupe formé d'au moins :
- Module de gestion de topologie réseau,
Module de gestion de routage,
Module de supervision réseau,
Module de relevé de performances réseau au moins un nœud de gestion est connecté à un nœud de gestion de niveau 2 ;
les communications entre le au moins un nœud de gestion et le nœud de gestion de niveau 2 se font hors bande ;
un module d'un nœud de gestion traite des messages reçus d'au moins un dispositif d'interconnexion pour réduire la quantité de données envoyées vers le nœud de gestion de niveau 2.
[0017] L'invention a également pour objet un dispositif de stockage numérique comportant un fichier correspondant à des codes instructions mettant en œuvre le procédé selon l'une des revendications précédentes.
[0018] L'invention a également pour objet un dispositif mettant en œuvre un procédé selon une combinaison des caractéristiques précédentes.
BREVE DESCRIPTION DES FIGURES
[0019] D'autres caractéristiques et avantages de l'invention ressortiront à la lecture de la description qui suit, en référence aux figures annexées, qui illustrent :
- la figure 1 , une vue d'une partie d'un supercalculateur selon l'invention ; la figure 2, une vue d'étape du procédé selon l'invention.
[0020] Pour plus de clarté, les éléments identiques ou similaires sont repérés par des signes de référence identiques sur l'ensemble des figures. [0021 ] L'invention sera mieux comprise à la lecture de la description qui suit et à l'examen des figures qui l'accompagnent. Celles-ci sont présentées à titre indicatif et nullement limitatif de l'invention. DESCRIPTION DETAILLEE D'UN MODE DE REALISATION
[0022 ] La figure 1 montre de manière simplifiée une mise en œuvre de l'invention. La figure 1 montre un premier groupe G1 de nœuds G1 .i de calcul, chacun des nœuds G1 .i du premier groupe G1 de nœuds étant connecté à au moins un port Sl .i.j d'un commutateur S1 .i d'un premier groupe S1 de commutateurs.
[0023 ] Dans la pratique tous les nœuds de calcul du premier groupe de nœuds de calcul sont connectés à des ports de même nature. Il s'agit de ports InfiniBand ou équivalent. Chaque commutateur du premier groupe S1 de commutateur est lui-même connecté à au moins un autre commutateur du premier groupe S1 de commutateur. Cela permet de connecter tous les nœuds de calcul du premier groupe G1 de nœuds de calcul entre eux et ainsi d'établir un réseau entre eux. Les différentes connexions physiques et les câbles correspondant ne sont pas montrés pour ne pas encombrer les figures.
[ 0024 ] La figure 1 montre que chaque commutateur du premier groupe de commutateurs à une structure identique. Chaque commutateur du premier groupe de commutateurs comporte, schématiquement :
un microprocesseur de traitement général,
un circuit spécialisé ou ASIC de traitement de la commutation, une mémoire de stockage comportant plusieurs zone dont au moins :
- une première zone réseau comportant des codes instructions pour assurer la commutation et la gestion du commutateur, une deuxième zone comportant une table de routage ;
une pluralité de connecteurs, ou ports, de traitements selon un premier format, usuellement le format InfiniBand,
- un connecteur, ou port, de gestion selon un deuxième format, usuellement le format Ethernet, ce port est donc un port hors bande relativement à la pluralité de connecteurs infiniband ; un bus pour interconnecter les différents éléments précités du commutateur.
[ 0025 ] Les connecteurs, ou ports, sont des interfaces physiques de communications, ou interfaces réseau.
[ 0026] Lorsque l'on prête une action à un dispositif celle-ci est en fait effectuée par un microprocesseur du dispositif commandé par des codes instructions enregistrés dans une mémoire du dispositif. Si l'on prête une action à une application, celle-ci est en fait effectuée par un microprocesseur du dispositif dans une mémoire duquel les codes instructions correspondant à l'application sont enregistrés. D'un point de vue fonctionnel, pour la compréhension de ce paragraphe, on n'établit pas de différence entre un microprocesseur, un microcontrôleur ou une unité arithmétique et logique.
[0027 ] La figure 1 montre aussi un deuxième groupe G2 de nœuds G2.i de calcul, chacun des nœuds G2.i du deuxième groupe G2 de nœuds étant connecté à au moins un port S2.i.j d'un commutateur S2.i d'un deuxième groupe S2 de commutateurs.
[0028 ] Le deuxième groupe de nœuds de calcul et le deuxième groupe de commutateurs associé au deuxième groupe de nœuds de calcul sont constitués d'éléments identiques à ceux du premier groupe de nœuds de calcul associé au premier groupe de commutateurs. Les commutateurs du deuxième groupe de commutateurs sont fonctionnellement identiques aux commutateurs du premier groupe de commutateurs. L'organisation de ces éléments peut varier d'un groupe à l'autre ou être identique.
[0029] L'homme du métier comprendra aisément que le nombre de groupe n'est pas limité à deux, mais que la description de deux suffit pour illustrer l'invention.
[0030 ] La figure 1 montre que les commutateurs du premier groupe de commutateurs sont connectés, via leur connecteur de gestion, à un premier commutateur C1 de gestion. Le premier commutateur de gestion est représenté comme un dispositif unique, mais il pourrait s'agir d'une pluralité de commutateurs interconnectés afin de constituer un réseau permettant d'interconnecter tous les commutateurs du premier groupe de commutateurs. Le fait d'utiliser le connecteur de gestion permet de réaliser une connexion hors bande, c'est-à-dire que les messages émis via le connecteur de gestion ne circulent pas sur les câbles connectés à la pluralité de connecteurs. Le réseau formé via la pluralité de connecteurs est donc dédié aux nœuds de calcul. D'une manière générale hors- bande signifie que les signaux dits hors bandes sont échangés sur des canaux ou liens n'influençant pas les performances des canaux ou liens utilisés par le dispositif pour remplir ses fonctions pricnipales.
[0031] La figure 1 montre un premier nœud N1 de gestion connecté au premier commutateur de gestion. Le premier nœud N1 de gestion comporte au moins et de manière schématique :
- un microprocesseur 1 1 0 ;
une mémoire 1 20 de stockage comportant plusieurs zones dont au moins :
une zone 1 21 module de routage ;
une zone 1 22 module de topologie ;
- une zone 1 23 module de supervision ;
une zone 1 24 module de performance réseau ;
au moins une première interface 1 30 réseau d'un format compatible avec un connecteur du premier commutateur de gestion ;
dans une variante une deuxième interface 140 réseau ;
- un bus 150 pour interconnecter les éléments du nœud de gestion.
[0032] La figure 1 montre que les commutateurs du deuxième groupe de commutateurs sont connectés, via leur connecteur de gestion, à un deuxième commutateur C2 de gestion. Le deuxième commutateur de gestion est représenté comme un dispositif unique, mais il pourrait s'agir d'une pluralité de commutateurs interconnectés afin de constituer un réseau permettant d'interconnecter tous les commutateurs du deuxième groupe de commutateurs.
[0033] La figure 1 montre un deuxième nœud N2 de gestion connecté au deuxième commutateur de gestion. Le deuxième nœud N2 de gestion comporte au moins et de manière schématique les mêmes éléments que le premier nœud de gestion, c'est à dire :
un microprocesseur 21 0,
une mémoire 220 de stockage comportant plusieurs zones dont au moins : une zone 221 module de routage,
une zone 222 module de topologie,
une zone 223 module de supervision,
une zone 224 module de performance réseau ;
- au moins une première interface 230 réseau d'un format compatible avec un connecteur du premier commutateur de gestion,
dans une variante une deuxième interface 240 réseau,
un bus 250 pour interconnecter les éléments du nœud de gestion.
[ 0034 ] Les zones modules comportent des codes instructions dont l'exécution correspond aux fonctions du module.
[0035 ] La figure 1 montre que le premier nœud N1 de gestion et le deuxième nœud N2 de gestion sont connectés à un nœud NS de gestion de niveau 2. Ces connexions se font à travers un commutateur CS de gestion de niveau 2 connecté au premier commutateur C1 de gestion et au deuxième commutateur C2 de gestion.
[0036] Dans une variante hors bande de l'invention le premier nœud de gestion est :
connecté au premier commutateur de gestion via sa première interface réseau,
- connecté au commutateur de gestion de niveau 2 via sa deuxième interface réseau.
[ 0037 ] Dans cette variante hors bande les messages échangés entre le nœud de gestion et les commutateurs d'un groupe de commutateur ne circulent pas sur les mêmes câbles que les messages échangés entre le nœud de gestion et le nœud de gestion de niveau 2. D'une manière plus générale cela signifie que l'on peut allouer une bande passante dédiée à l'échange de messages entre le nœud de gestion et un groupe de commutateurs. Aucun autre message ne pourra utiliser cette bande passante. Cela peut être obtenu par des moyens physiques, en séparant physiquement les réseaux comme cela a été illustré, mais cela peut aussi être réalisé avec des commutateurs capables de gérer un contrat de qualité de service ou QoS.
[0038 ] La figure 2 montre une étape d'organisation de nœuds de calcul en groupes de nœuds de calcul. Dans cette étape les nœuds sont organisés en groupes, par exemple, en fonction de commutateurs auxquels ils sont connectés, ou inversement on choisit un nombre prédéterminé de nœuds et on les interconnecte via des commutateurs. On obtient ainsi un groupe de nœuds. Des groupes de nœuds ainsi connectés sont également interconnectés par l'établissement de connexions entre les commutateurs des différents groupes de nœuds. Ainsi regrouper des nœuds revient à regrouper des commutateurs. Tout nœud de calcul connecté à un commutateur d'un groupe de commutateurs, défini selon l'invention, fait partie du même groupe de nœuds de calcul. Autrement dit, tous les nœuds directement connectés à un même commutateur font partie d'un même groupe de nœuds de calcul. Un tel groupe comporte par ailleurs une pluralité de commutateurs.
[0039] Les commutateurs en question sont des dispositifs d'interconnexion tel que décrits pour la figure 1 . Pour un groupe de nœuds ils sont connectés, dans une étape 1 01 0 à un nœud de gestion et ce hors bande. Chaque nœud de gestion est à son tour connecté à un nœud de gestion de niveau 2.. Les nœuds de gestions, tous niveaux confondus, ont donc une structure en arbre qui s'adapte aux besoins de disponibilité et de passage à l'échelle.
[ 0040 ] Une fois ces connexions réalisées, le supercalculateur, correspondant à l'ensemble des nœuds de calcul des groupes de nœuds de calcul, peut-être démarré. Le démarrage d'un supercalculateur comporte une étape de mise à jour des tables de routages de commutateurs que comporte le supercalculateur. Cette mise à jour est réalisée selon un paramétrage initial connu du supercalculateur.
[ 0041 ] Une fois les paramètres initiaux écrits dans les différents éléments, commutateurs, nœuds de gestion et nœud de gestion de niveau 2, on démarre les différents services de gestion sur les nœuds de gestion et le nœud de gestion de niveau 2. Les différents services de gestions correspondent aux modules précédemment décrits.
[ 0042 ] Une particularité de l'invention est que ces services sont exécutés de manière indépendante et décentralisée. Chaque service correspond à au moins un processus sur le dispositif qui le met en œuvre. Il s'agit des modules
[0043 ] Parmi les services que chaque nœud exécute, on a au moins :
un service de gestion de topologie : c'est le service qui : maintient à jour une base de topologie permettant de connaître à tout instant, au moins, l'état de chaque connecteur de chaque commutateur ;
un service de routage permettant de calculer des tables de routages pour mettre à jour des commutateurs ;
un service de supervision pour :
gérer les messages émis par les commutateurs ;
agréger des données produites par les autres services avant de transmettre ces données agrégées vers un service du nœud de gestion de niveau 2. Cette agrégation, par exemple une synthèse par corrélation, permet de diminuer le volume des communications reçues par le nœud de gestion de niveau 2. Une telle corrélation est, par exemple, le fait de détecter qu'un certain nombre de message de pannes de connecteurs pour un même commutateur correspond à une panne du commutateur, il est donc inutile de relayer les messages de pannes des connecteurs ;
un service de relevé de performances réseau qui récupère et enregistre des données de performances de commutateurs connectés au nœud de gestion mettant en œuvre le service.
[0044 ] Un nœud de gestion met aussi en œuvre un mécanisme de communication entre module. Un tel mécanisme est asynchrone de manière à ce que la gestion des messages ne soit pas bloquante pour les différents services.
[ 0045 ] Un tel mécanisme asynchrone est, par exemple un mécanisme par abonnement. Un service s'abonne à des messages émis. Lorsqu'un message auquel il est abonné est publié, il va alors le lire.
[0046] Un tel mécanisme permet des optimisations dans la gestion des commutateurs. Par exemple considérons un scénario dans lequel un connecteur d'un commutateur tombe en panne. Dans ce cas :
- le commutateur envoie un message de panne à son nœud de gestion, celui auquel il est connecté ; le service de supervision du nœud de gestion met à jour la base de topologie et réveille le service de topologie du nœud de gestion recevant le message ;
le service de topologie publie un message indiquant le panne et commence un traitement visant à déterminer si des hypothèses de calcul routage sont encore valable, un tel calcul dure en général une dizaine de secondes ;
le service de routage reçoit le message indiquant la panne de connecteur et commence à calculer de nouvelles tables de routage en se basant sur des hypothèses de topologie courantes. Un tel calcul dure en général plus de d'une dizaine de secondes ;
le service de topologie détecte un changement dans les hypothèses de topologie et publie ce changement ;
le service de routage reçoit le message de changement de d'hypothèses de topologie, interrompt le calcul en cours et reprend un calcul sur la base des nouvelles hypothèses.
[ 0047 ] Les temps donnés ci-dessus correspondent à des tailles de topologie à plus de 50000 nœuds de calcul. Sur des topologies plus petites ces durées sont réduites en conséquences.
[ 0048 ] Dans l'exemple ci-dessus, on constate, avec l'invention, que le calcul de ces tables de routages peut commencer directement au moment de la détection de la panne. Si les hypothèses portant sur la topologie n'ont pas changé, alors le calcul du routage se fera en quelques secondes comme avant l'invention, dans des temps d'exécution comparable. Par contre si le calcul des hypothèses, selon l'invention, révèle que l'hypothèse initiale n'est plus valide alors le calcul du routage est interrompu et repris avec un algorithme dit « algorithme de routage agnostique », c'est à dire un algorithme insensible à la topologie. Avant l'invention, on fait le calcul selon l'hypothèse initiale et si ça échoue alors, et seulement alors, on bascule sur l'algorithme insensible à la topologie.
[ 0049] De plus avec l'invention, ces calculs peuvent être effectués simultanément sur plusieurs nœuds, c'est-à-dire que l'on peut gérer simultanément deux pannes intervenant sur deux commutateurs de deux groupes de nœuds de calcul différents. [0050 ] Un autre mécanisme de communication approprié serait un mécanisme de boîte à lettre, chaque service ayant sa propre adresse de boîtes à lettre, l'ensemble des boîtes lettres étant gérés par le service de communication.
[ 0051 ] Dans une variante de l'invention un nœud de gestion exécute également un service de relevé de performances réseau. C'est le module de performance réseau. Les performances réseau, sont, par exemple :
débit par port ;
nombre de paquet ;
longueur des files d'attente ;
- nombre d'erreur ;
protocoles utilisés ;
[ 0052 ] Ces données sont disponibles au niveau des commutateurs et rapatriées à intervalle régulier par les nœuds de gestion. Ces données sont alors agrégées par le nœud de gestion et transmises après agrégation éventuellement avec des données produites par les autres modules.
[0053 ] Cela permet de maîtriser la bande passante utilisée par le nœud de gestion pour la transmission des informations de performance.
[ 0054 ] Le module de performance réseau stocke aussi les données de performance ce qui permet de répartir les données de performance brutes du supercalculateur sur les nœuds de gestion. Une interrogation peut alors se faire à partir du nœud de gestion de niveau 2 qui va alors chercher les données sur les nœuds de gestion en fonction de l'interrogation. On obtient donc un stockage réparti sur les nœuds de gestion, ce qui permet de s'affranchir d'un dispositif centralisé de stockage. Cela est intéressant car un tel dispositif centralisé doit, pour être tolérant aux pannes, mettre en œuvre des redondances systèmes. Avec l'invention ces redondances sont naturelles car elles sont matérialisées par les nœuds de gestion qui sont matériellement indépendant les uns des autres. De plus un système centralisé doit être capable d'avoir une grande capacité de stockage correspondant aux données produites par tous les commutateurs du supercalculateur. Avec l'invention chaque nœud de gestion a une capacité de stockage qui correspond aux données produites par les commutateurs qu'il gère. Avec l'invention on obtient une capacité de stockage importante et résiliente avec une complexité moindre qu'une capacité équivalente centralisée.
[0055 ] Avec l'invention on retrouve toutes les fonctions d'un « fabric manager » classique mais elles sont distribuées et exécutées de manière à leur permettre d'être mise en œuvre même dans des contextes de supercalculateur à plus de 1 000 commutateurs.
[0056] L'invention permet de continuer à appliquer des procédés de conception de supercalculateur connus, notamment en termes de mise en place de topologie de câblage, mais en ayant un mode de gestion beaucoup plus réactif et adapté à des topologies de taille croissante.
[0057 ] La mise en œuvre du procédé permet donc d'aboutir à un supercalculateur opérationnel et gérable.

Claims

REVENDICATIONS
1 . Procédé de gestion d'un réseau de nœuds de calcul interconnectés par une pluralité de dispositifs d'interconnexions caractérisé en ce qu'il comporte les étapes suivantes :
organisation (1000) des nœuds de calcul en groupes de nœuds de calcul ;
pour chaque groupe de nœuds de calcul, connexion (1010) des dispositifs d'interconnexion interconnectant les nœuds du groupe à un nœud de gestion de groupe, ledit nœud de gestion étant dédié au groupe de nœuds de calcul ;
sur chaque nœud de gestion, exécution (1030) d'une fonction de management par la mise en œuvre de modules de gestion indépendants, chaque module de gestion d'un nœud de gestion étant apte à communiquer avec les autres modules de gestion du même nœud de gestion.
2. Procédé de gestion selon la revendication 1 , caractérisé en ce qu'un nœud de gestion de groupe est connecté hors-bande à des dispositifs d'interconnexion.
3. Procédé de gestion selon l'une des revendications précédentes, caractérisé en ce que des communications entre modules de gestion d'un même nœud de gestion se font de manière asynchrone.
4. Procédé de gestion selon l'une des revendications précédentes caractérisé en ce que les modules de gestion sont choisis dans le groupe formé d'au moins :
module de gestion de topologie réseau,
- module de gestion de routage,
module de supervision réseau,
module de relevé de performances réseau.
5. Procédé de gestion selon l'une des revendications précédentes, caractérisé en ce que au moins un nœud de gestion est connecté à un nœud de gestion de niveau 2.
6. Procédé de gestion selon la revendication 5, caractérisé en ce que les communications entre le au moins un nœud de gestion et le nœud de gestion de niveau 2 se font hors bande.
7. Procédé de gestion selon l'une des revendications 5 à 6, caractérisé en ce qu'un module d'un nœud de gestion traite des messages reçus d'au moins un dispositif d'interconnexion pour réduire la quantité de données envoyées vers le nœud de gestion de niveau 2.
8. Dispositif de stockage numérique comportant un fichier correspondant à des codes instructions mettant en œuvre le procédé selon l'une des revendications précédentes
9. Dispositif mettant en œuvre le procédé selon l'une des revendications 1 à 7.
PCT/FR2015/053368 2014-12-10 2015-12-08 Procédé de gestion d'un réseau de nœuds de calcul WO2016092197A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/534,816 US10826779B2 (en) 2014-12-10 2015-12-08 Method for managing a network of compute nodes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1462157A FR3030076B1 (fr) 2014-12-10 2014-12-10 Procede de gestion d'un reseau de nœuds de calcul
FR1462157 2014-12-10

Publications (1)

Publication Number Publication Date
WO2016092197A1 true WO2016092197A1 (fr) 2016-06-16

Family

ID=52469159

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2015/053368 WO2016092197A1 (fr) 2014-12-10 2015-12-08 Procédé de gestion d'un réseau de nœuds de calcul

Country Status (3)

Country Link
US (1) US10826779B2 (fr)
FR (1) FR3030076B1 (fr)
WO (1) WO2016092197A1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005106668A1 (fr) * 2004-04-15 2005-11-10 Raytheon Company Systeme et procede de detection et de gestion d'une defaillance d'un noeud hpc

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521955B2 (ja) * 1994-06-14 2004-04-26 株式会社日立製作所 階層型ネットワーク管理システム
US6414955B1 (en) * 1999-03-23 2002-07-02 Innovative Technology Licensing, Llc Distributed topology learning method and apparatus for wireless networks
US6694304B1 (en) * 2000-02-17 2004-02-17 Cisco Technology System and method for retrieving network management table entries
US6983317B1 (en) * 2000-02-28 2006-01-03 Microsoft Corporation Enterprise management system
US7167476B1 (en) * 2002-04-12 2007-01-23 Juniper Networks, Inc. Systems and methods for routing data in a network device
US7506342B2 (en) * 2002-07-23 2009-03-17 Bea Systems, Inc. System and method for implementing J2EE connector architecture
US20040068479A1 (en) * 2002-10-04 2004-04-08 International Business Machines Corporation Exploiting asynchronous access to database operations
US7564798B2 (en) * 2003-08-27 2009-07-21 Finisar Corporation Methods and devices for testing and monitoring high speed communication networks
JP4516397B2 (ja) * 2004-10-05 2010-08-04 株式会社日立製作所 レイヤ2スイッチ
US20070156907A1 (en) * 2005-12-30 2007-07-05 Galin Galchev Session handling based on shared session information
US20070226225A1 (en) * 2006-03-22 2007-09-27 Yiu Timothy C Mobile collaboration and communication system
US20070250625A1 (en) * 2006-04-25 2007-10-25 Titus Timothy G Real-time services network quality control
US8040811B2 (en) * 2006-08-22 2011-10-18 Embarq Holdings Company, Llc System and method for collecting and managing network performance information
WO2008064602A1 (fr) * 2006-11-29 2008-06-05 Yongmin Zhang Procédé et système de calcul de groupe à groupe
KR101382393B1 (ko) * 2007-01-16 2014-04-09 삼성전자주식회사 서버 및 그의 동시접속 제어 방법
US20100120011A1 (en) * 2008-11-10 2010-05-13 Imentor Interactive Technology platform and methods for facilitating, cultivating and monitoring mentoring relationships
WO2010067457A1 (fr) * 2008-12-12 2010-06-17 富士通株式会社 Dispositif de gestion de groupe
US8194680B1 (en) * 2009-03-11 2012-06-05 Amazon Technologies, Inc. Managing communications for modified computer networks
US9106540B2 (en) * 2009-03-30 2015-08-11 Amazon Technologies, Inc. Providing logical networking functionality for managed computer networks
US8738745B1 (en) * 2010-03-31 2014-05-27 Amazon Technologies, Inc. Managing use of intermediate destination hardware devices for provided computer networks
US8488577B1 (en) * 2012-06-06 2013-07-16 Google Inc. Apparatus for controlling the availability of internet access to applications
US9197548B2 (en) * 2012-08-15 2015-11-24 Dell Products L.P. Network switching system using software defined networking applications
US9635088B2 (en) * 2012-11-26 2017-04-25 Accenture Global Services Limited Method and system for managing user state for applications deployed on platform as a service (PaaS) clouds
US9532266B2 (en) * 2013-06-05 2016-12-27 Huawei Technologies Co., Ltd. Systems and methods for managing a wireless network
US9787546B2 (en) * 2013-08-07 2017-10-10 Harris Corporation Network management system generating virtual network map and related methods
AU2013407373B2 (en) * 2013-12-11 2017-06-01 Sca Hygiene Products Ab Configuration of distributed data acquisition equipment
IN2014DE00404A (fr) * 2014-02-13 2015-08-14 Netapp Inc
IN2014DE00743A (fr) * 2014-03-13 2015-09-18 Netapp Inc

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005106668A1 (fr) * 2004-04-15 2005-11-10 Raytheon Company Systeme et procede de detection et de gestion d'une defaillance d'un noeud hpc

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HUSSAIN HAMEED ET AL: "A survey on resource allocation in high performance distributed computing systems", PARALLEL COMPUTING, vol. 39, no. 11, 14 October 2013 (2013-10-14), pages 709 - 736, XP028779066, ISSN: 0167-8191, DOI: 10.1016/J.PARCO.2013.09.009 *

Also Published As

Publication number Publication date
FR3030076A1 (fr) 2016-06-17
US10826779B2 (en) 2020-11-03
FR3030076B1 (fr) 2016-12-09
US20170353358A1 (en) 2017-12-07

Similar Documents

Publication Publication Date Title
EP2033380B1 (fr) Procede de routage de liens virtuels dans un reseau a commutation de trames a determinisme garanti
FR2883117A1 (fr) Architecture de noeud de communication dans un systeme de reseau sur puce globalement asynchrone.
CN106484322A (zh) 一种挂载文件系统的方法、装置及设备
WO2011007106A1 (fr) Procede et systeme pour la gestion performante et automatisee de reseaux virtuels.
WO2016034797A1 (fr) Procédé de surveillance et d'alerte de configuration de routage dans un cluster comprenant des liens de communication statiques et programme d'ordinateur mettant en oeuvre ce procédé
US10652099B2 (en) Site asymmetric topology reconciliation in a computer cluster
EP2353256A1 (fr) Determination et gestion de reseaux virtuels
CN104954276B (zh) 用于负载平衡多播流量的系统和方法
EP2894872A1 (fr) Procédé d'ordonnancement de tâches dans un réseau à courants porteurs en ligne
EP2923461B1 (fr) Dispositif et procédé de retransmission de données dans un commutateur réseau
FR2899050A1 (fr) Procede de communication de donnees entre des sytemes de traitement heterogenes connectes en reseau local et systeme de communication mettant en oeuvre ce procede
EP2751959B1 (fr) Procédé d'échange de données entre noeuds d'une grappe de serveurs et grappe de serveurs mettant en oeuvre ce procédé
WO2016092197A1 (fr) Procédé de gestion d'un réseau de nœuds de calcul
EP2497235B1 (fr) Outil de diagnostic pour réseaux à haut débit
EP3216175B1 (fr) Procédé de surveillance et de contrôle déportés d'un cluster utilisant un réseau de communication de type infiniband et programme d'ordinateur mettant en oeuvre ce procédé
EP3732565A1 (fr) Reseau informatique d'infrastructures de ressources de calcul et procede d'affectation de ces ressources a des applications client
EP2721487B1 (fr) Procede, dispositif et programme d'ordinateur pour la mise à jour logicielle de clusters optimisant la disponibilite de ces derniers
FR2960732A1 (fr) Procede de routage pseudo-dynamique dans un cluster comprenant des liens de communication statiques et programme d'ordinateur mettant en oeuvre ce procede
Giroire et al. Maintaining balanced trees for structured distributed streaming systems
WO2013050682A1 (fr) Procédé de routage adaptatif pseudo-dynamique dans un cluster comprenant des liens de communication statiques et programme d'ordinateur mettant en oeuvre ce procédé
WO2013088019A1 (fr) Procédé et programme d'ordinateur de gestion de pannes multiples dans une infrastructure informatique comprenant des équipements à haute disponibilité
CN111464600B (zh) 点对点存储网络建立方法、装置、介质及电子设备
WO2023031288A1 (fr) Procédé de détermination d'une topologie d'interconnexion entre commutateurs d'un réseau de communication, produit programme d'ordinateur et dispositif correspondants
FR3026910A1 (fr) Procede d'autorisation de demandes de transmission.
EP3783501A1 (fr) Procédé rapide d établissement de routes de communication entre ordinateurs d'un superordinateur

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15817977

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15534816

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 15817977

Country of ref document: EP

Kind code of ref document: A1