FR3141784A1 - Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants - Google Patents

Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants Download PDF

Info

Publication number
FR3141784A1
FR3141784A1 FR2211626A FR2211626A FR3141784A1 FR 3141784 A1 FR3141784 A1 FR 3141784A1 FR 2211626 A FR2211626 A FR 2211626A FR 2211626 A FR2211626 A FR 2211626A FR 3141784 A1 FR3141784 A1 FR 3141784A1
Authority
FR
France
Prior art keywords
equipment
data center
duration
maintenance
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2211626A
Other languages
English (en)
Inventor
Benoit Lemoine
Khaled SAYAD
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR2211626A priority Critical patent/FR3141784A1/fr
Priority to PCT/EP2023/080747 priority patent/WO2024099915A1/fr
Publication of FR3141784A1 publication Critical patent/FR3141784A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)
  • Power Sources (AREA)

Abstract

Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants L'invention concerne un procédé de gestion d’une architecture distribuée de centres de données hébergeant une pluralité de serveurs (11-13, 31-33) au sein desquels des nœuds de virtualisation (NV11, NV12) sont destinés à être déployés. Dans un tel procédé, un équipement gestionnaire (GI10) de ladite architecture distribuée : - obtient des données relatives à une opération de maintenance impactant au moins un premier équipement (CPT1-CPT3) d’un réseau de distribution d’électricité alimentant un premier centre de données (CET1-CET3) de ladite architecture distribuée, lesdites données comprenant au moins une durée de maintenance dudit premier équipement, et transmet, à destination d’une entité de déploiement (UD1) des nœuds de virtualisation au sein de l’architecture distribuée, d’une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie du premier équipement électrique. FIGURE 1

Description

Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants Domaine de l'invention
Le domaine de l'invention est celui de l’informatique en nuage ou «cloud computing».
Plus particulièrement la présente invention concerne la gestion et la protection de serveurs informatiques hébergés dans des centres de données d’une architecture distribuée et au sein desquels des nœuds de virtualisation sont destinés à être déployés, afin de protéger les fonctions virtualisées instanciées sur ces nœuds de virtualisation en cas de défaillance d’un ou plusieurs équipements d’un réseau de distribution d’électricité alimentant les centres de données.
Art antérieur et ses inconvénients
Depuis plusieurs années, les réseaux de télécommunication utilisent des fonctions virtualisées instanciées sur par des nœuds de virtualisation hébergés dans des machines virtuelles ou dans des serveurs regroupés en grappes, ou «clusters» au sein de centres de données, donnant naissance à l’informatique en nuage. Dans la suite du document, il est fait mention de nœuds de virtualisation hébergés dans des serveurs mais il est entendu que l’enseignement du présent document s’applique également au cas de nœuds de virtualisation hébergés dans des machines virtuelles.
Un exemple de gestion d’instanciation de fonctions virtualisées est connu sous l’appellation Kubernetes. Une architecture « Kubernetes » comprend au moins une grappe de nœuds de virtualisation. Une telle grappe de nœuds de virtualisation comprend au moins un premier nœud dit nœud de gestion, ou «Kubernetes master node», et une pluralité de nœuds de calcul, ou «Kubernetes worker node» destinés à instancier des fonctions virtualisées.
Le nœud de gestion comprend, entre autres, une base de données dite ETCD qui consiste en un registre dynamique de configuration des nœuds de calculs.
Un nœud de calcul comprend une pluralité d’unités de virtualisation ou « pods ». Chaque unité de virtualisation est dotée de ressources permettant l’exécution d’une ou de plusieurs tâches. Une tâche lorsqu’elle est exécutée contribue à la mise en œuvre d’un service ou d’une fonction virtualisée.
La base de données ETCD embarquée dans le nœud de gestion mémorise dans des fichiers de référence une liste d’unités de virtualisation à instancier ainsi que des paramètres à prendre en compte lors de l’instanciation des fonctions virtualisées.
Le nœud de gestion vient lire régulièrement le contenu de ces fichiers, le compare avec les unités de virtualisation en cours d’instanciation et ajoute ou retire des unités de virtualisation afin d’adapter leur quantité à celle indiquée dans ces fichiers de référence.
La base de données ETCD étant également accessible par une entité de déploiement des nœuds de virtualisation, cette dernière vient lire régulièrement le contenu de ces fichiers, compare la capacité des nœuds de virtualisation déployés avec la capacité requise par les unités de virtualisation en cours d’instanciation et ajoute ou retire des nœuds de virtualisation afin d’adapter leur quantité aux besoins.
Le déploiement d’un nœud de virtualisation sur un serveur informatique consiste par exemple à télécharger sur un serveur informatique un fichier contenant un système d’exploitation ainsi qu’un ensemble d’applicatifs nécessaires au déploiement du nœud de virtualisation, puis à démarrer le serveur informatique en utilisant le fichier téléchargé.
Il est également possible de déployer plusieurs nœuds de virtualisation sur un même serveur informatique grâce à l’utilisation de machines virtuelles. Dans ce cas, une fois le fichier téléchargé sur le serveur informatique, c’est une machine virtuelle qui est démarrée en utilisant le fichier téléchargé.
Dans un souci de réduction des coûts d’exploitation et d’amélioration de la flexibilité des infrastructures réseaux, les architectures d’informatique en nuage sont le plus souvent des architectures distribuées ou multisites dans lesquelles les serveurs hébergeant les nœuds de virtualisation appartenant à une même grappe de nœuds peuvent être situés sur des sites géographiques distincts et distants.
Certaines fonctions virtualisées requérant, par exemple, une faible latence, ont plutôt tendance à être exécutées par des unités de virtualisation déployées dans des serveurs situés en périphérie des réseaux de communications, c’est-à-dire au plus proche des terminaux utilisateurs requérant un service donné, tandis que des fonctions virtualisées moins exigeantes en termes de latence mais traitant de gros volumes de données sont plutôt instanciées dans des centres de données centralisés, généralement de taille plus importante. Il convient en outre de citer l’initiative MEC (en anglaisMobile Edge Computing) consistant à instancier des fonctions applicatives en périphérie de réseau, ces fonctions pouvant être virtualisées.
L’instanciation de fonctions virtualisées dans des centres de données, fussent-ils centralisés ou distribués, requiert des ressources de calcul, de stockage, de mémoire, de communication et d’énergie. De même, le bon fonctionnement des fonctions virtualisées nécessite que ces ressources ne tombent pas en panne à cause d’une interruption de l’alimentation électrique.
Si les centres de données centralisés peuvent être alimentés par plusieurs réseaux de distribution électrique différents, cela est plus difficile pour les centres de données distribués qui de par leur taille plus petite et leur localisation géographique peuvent n’être alimentés que par un unique réseau de distribution électrique sans redondance.
Afin de se prémunir de pannes affectant le réseau de distribution électrique, les centres de données sont équipés d’une alimentation électrique sans coupure dont la capacité peut être suffisante pour laisser le temps de migrer les fonctions virtualisées ne supportant pas d’interruption vers des serveurs d’un centre de données alternatif ne souffrant pas d’une défaillance du réseau de distribution d’électricité.
Cette solution de migration en réponse à une défaillance du réseau de distribution électrique suppose toutefois qu’au moins un centre de données alternatif compatible avec les exigences de faible latence de certaines des fonctions virtualisées devant être migrées, est alimenté en électricité pour une durée suffisante et dispose de serveurs libres et opérationnels.
De plus, durant les opérations de maintenance d’un centre de données, tout ou partie des serveurs hébergés dans ce centre de données peuvent être rendus inopérants, indépendamment des évènements pouvant survenir sur le réseau de distribution d’électricité alimentant le centre de données.
Afin de s’assurer que les ressources nécessaires à la protection de fonctions virtualisées soient réservées de manière efficace, il est connu de mettre en place des schémas de protection multisite de fonctions virtualisées, notamment lorsqu’un risque de défaillance de l’alimentation électrique d’un centre de données est avéré.
Pour cela, il est proposé de réserver des ressources dans des nœuds de virtualisation déployés dans des serveurs hébergés dans des centres de données alimentés en électricité par des réseaux de distribution d’électricité distincts.
Une telle solution n’offre pas de protection réellement garantie car elle ne prend cependant pas en compte la survenue d’opérations de maintenance intervenant dans le réseau de distribution d’électricité et son impact sur l’instanciation et la protection de fonctions virtualisées exécutées au sein de serveurs hébergés dans des centres de données concernés par ces opérations de maintenance du réseau de distribution électrique.
La présente invention a pour objet de résoudre tout ou partie des inconvénients précédemment cités.
L'invention répond à ce besoin en proposant un procédé de gestion d’une architecture distribuée de centres de données hébergeant une pluralité de serveurs au sein desquels au moins un nœud de virtualisation est destiné à être déployé.
Un tel procédé est particulier en ce qu’il est mis en œuvre par un équipement gestionnaire de ladite architecture distribuée et qu’il comprend les étapes suivantes :
- obtention de données relatives à une opération de maintenance impactant au moins un premier équipement d’un réseau de distribution d’électricité alimentant un premier centre de données de ladite architecture distribuée, lesdites données comprenant au moins une durée de maintenance dudit premier équipement,
- lorsque la durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie d’au moins un premier équipement électrique alimentant localement ledit premier centre de données, transmission, à destination d’une entité de déploiement des nœuds de virtualisation au sein de l’architecture distribuée, d’une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie du premier équipement électrique.
Un tel procédé permet de s’assurer que la survenue d’une opération de maintenance dans un réseau de distribution d’électricité n’a pas d’impact négatif sur l’exécution de fonctions virtualisées critiques.
Plus particulièrement, une telle solution permet d’anticiper le déploiement de nœuds de virtualisation en fonction d’un programme de maintenance d’équipements de réseaux de distribution d’électricité alimentant les différents sites abritant les centres de données d’une même architecture distribuée. Ainsi, les fonctions virtualisées exécutées par un nœud de virtualisation hébergé dans un serveur, ou une machine virtuelle, impacté par une maintenance du réseau de distribution électrique particulièrement sensibles peuvent être soit migrées soit dupliquées par anticipation vers des serveurs pour lesquels l’alimentation électrique est garantie. Le déploiement par anticipation d’un nœud de virtualisation permet de garantir la réservation de ressources.
Dans certains cas, la migration de la fonction virtualisée impacte de manière non négligeable la qualité du service requis. Il est donc préférable de déclencher une telle migration uniquement lors de la survenue d’une défaillance de l’équipement alimentant électriquement le serveur.
Dans d’autres cas, il est préférable de dupliquer la fonction virtualisée dès que le second nœud de virtualisation est créé et migrer le client du service vers la seconde fonction virtualisée lors de la survenue de la défaillance de l’équipement alimentant électriquement le serveur.
Une telle solution permet également une gestion raisonnée des serveurs car, connaissant la programmation des maintenances devant intervenir sur un réseau de distribution d’électricité, il est possible de réserver uniquement les ressources nécessaires et cela pour une durée ajustée aux besoins. Cela permet d’optimiser la gestion des différents pools de serveurs appartenant à une même architecture distribuée et de ne pas réserver inutilement ou pour des durées trop longues des ressources au sein d’un ou plusieurs serveurs.
La mise en œuvre d’une telle solution repose sur l’obtention par un équipement gestionnaire d’une architecture distribuée d’informations relatives à des opérations de maintenance impactant les réseaux de distribution d’électricité alimentant les différents centres de données d’une même architecture distribuée. Un tel équipement gestionnaire centralise des informations telles que l’identité et la localisation géographique du ou des serveurs sur lesquels les nœuds de virtualisation sont déployés mais également les besoins en termes de ressources de calcul, de stockage, de mémoire, de communication et d’énergie, mais également des informations relatives à une durée d’indisponibilité de certains équipements du réseau de distribution électrique alimentant les serveurs des centres de données de l’architecture distribuée.
Fort de ces diverses informations, l’équipement gestionnaire est capable d’anticiper le déploiement de nœuds de virtualisation vers lesquels migrer l’exécution de fonctions virtualisées en anticipation d’une coupure de l’alimentation électrique des serveurs sur lesquels ces fonctions virtualisées sont en cours d’exécution afin d’offrir une continuité de service.
Un tel procédé peut comprendre en outre, lorsque ladite première liste est vide, les étapes suivantes :
- réception, en provenance de ladite entité de déploiement, d’une requête en identification d’au moins un serveur hébergé dans un deuxième centre de données de ladite architecture distribuée alimenté par au moins un troisième équipement du réseau de distribution d’électricité distinct du premier équipement et du deuxième équipement,
- transmission, à destination de ladite entité de déploiement, d’un identifiant dudit au moins un serveur et d’une deuxième liste comprenant au moins un identifiant dudit au moins un troisième équipement présentant une durée de maintenance inférieure ou égale à une durée d’autonomie dudit moins un deuxième équipement électrique alimentant localement ledit deuxième centre de données.
Lorsqu’elle est informée qu’aucun équipement électrique local n’est en capacité de fournir le niveau d’énergie électrique requis pour l’exécution de certaines fonctions virtualisées, l’entité de de déploiement interroge l’équipement de gestion afin d’obtenir des informations sur d’autres serveurs disposant des ressources nécessaires au déploiement d’un nœud de virtualisation pour l’exécution des fonctions virtualisées devant être migrées.
Selon une particularité du procédé objet de l’invention, l’étape d’obtention des données relatives à l’opération de maintenance impactant le premier équipement consiste en la réception d’un message émis par un module de contrôle dudit premier centre de données comprenant au moins un identifiant du premier équipement et la durée de maintenance dudit premier équipement.
Un tel module de contrôle d’un centre de données est un équipement capable de communiquer avec des équipements du ou des réseaux de distribution électrique alimentant le centre de données qu’il contrôle. Ainsi, le module de contrôle collecte des informations relatives au réseau de distribution d’électricité, notamment des informations relatives aux opérations de maintenance et les transmet à l’équipement de gestion.
Dans un exemple, le message transmis par le module de contrôle comprend en outre une durée d’autonomie dudit moins un premier équipement électrique alimentant localement ledit premier centre de données.
La transmission du message par le module de contrôle est déclenchée par la réception, en provenance de ladite entité de déploiement, d’une demande d’informations relatives à ladite opération de maintenance impactant ledit premier équipement.
L’entité de déploiement de nœuds de virtualisation peut interroger l’équipement gestionnaire de manière régulière ou au besoin, par exemple lorsqu’elle réserve des ressources au près d’un serveur, en prévision du déploiement de nœuds de virtualisation pour l’exécution de fonctions virtualisées.
Le message émis par le module de contrôle dudit premier centre de données est transmis de manière répétée dans le temps.
Un tel message peut être émis de manière périodique ou à chaque nouvelle programmation d’une opération de maintenance.
L’invention concerne également un procédé de protection d’au moins un premier serveur au sein duquel au moins un nœud de virtualisation est destiné à être déployé, ledit premier serveur étant hébergé dans un premier centre de données d’une architecture distribuée de centres de données, ledit premier centre de données étant alimenté par au moins un premier équipement d’un réseau de distribution d’électricité impacté par une opération de maintenance.
Un tel procédé de protection d’au moins un premier serveur est mis en œuvre par une entité de déploiement des nœuds de virtualisation au sein de ladite architecture distribuée et est particulier en ce qu’il comprend les étapes suivantes mises en œuvre lorsqu’une durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie dudit un premier équipement électrique :
- réception, en provenance d’un équipement gestionnaire de ladite architecture distribuée, d’une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie dudit premier équipement électrique,
- déploiement dudit au moins un nœud de virtualisation au sein dudit premier serveur.
En déployant un nœud de virtualisation, l’entité de déploiement peut le marquer d’un label contenant les identifiants des équipements du réseau de distribution d’électricité contenu dans la liste fournie par le gestionnaire pour qu’il soit pris en compte lors de l’exécution des fonctions virtualisées.
Le procédé de protection d’au moins un premier serveur peut comprendre en outre, lorsque ladite première liste est vide, les étapes suivantes :
- émission, à destination dudit équipement gestionnaire, d’une requête en identification d’au moins un deuxième serveur hébergé dans un deuxième centre de données de ladite architecture distribuée alimenté par au moins un troisième équipement du réseau de distribution d’électricité distinct du premier équipement et du deuxième équipement,
- réception, en provenance dudit équipement gestionnaire, d’un identifiant dudit deuxième serveur et d’une deuxième liste comprenant au moins un identifiant dudit au moins un troisième équipement présentant une durée de maintenance inférieure ou égale à une durée d’autonomie d’au moins un deuxième équipement électrique alimentant localement ledit deuxième centre de données.
En réservant les ressources nécessaires sur un deuxième serveur indépendant des opérations de maintenance en cours sur le réseau de distribution d’électricité, l’entité de déploiement de nœuds de virtualisation peut déployer un nouveau nœud de virtualisation pour assurer la migration de fonctions virtualisées si une panne survient effectivement pendant la maintenance du réseau de distribution d’électricité dont dépend le premier serveur.
Comme pour le premier nœud de virtualisation, l’entité de déploiement peut marquer le nouveau nœud de virtualisation d’un label contenant des identifiants d’équipement du réseau de distribution d’électricité différents du label du premier nœud de virtualisation. De la sorte, les fonctions virtualisées peuvent être dupliquées si nécessaire sur deux nœuds de virtualisation ne dépendant pas des mêmes équipements du réseau de distribution d’électricité.
Un autre objet de l’invention concerne un équipement gestionnaire d’une architecture distribuée de centres de données hébergeant une pluralité de serveurs au sein desquels au moins un nœud de virtualisation est destiné à être déployé, ledit équipement gestionnaire comprenant au moins un processeur configuré pour :
- obtenir des données relatives à une opération de maintenance impactant au moins un premier équipement d’un réseau de distribution d’électricité alimentant un premier centre de données de ladite architecture distribuée, lesdites données comprenant au moins une durée de maintenance dudit premier équipement,
- lorsque la durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie d’au moins un premier équipement électrique alimentant localement ledit premier centre de données, transmettre, à destination d’une entité de déploiement des nœuds de virtualisation au sein de l’architecture distribuée, une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie du premier équipement électrique.
L’invention concerne encore une entité de déploiement des nœuds de virtualisation au sein d’une architecture distribuée, ladite entité de déploiement étant capable de protéger au moins un premier serveur au sein duquel au moins un nœud de virtualisation est destiné à être déployé, ledit premier serveur étant hébergé dans un premier centre de données de l’architecture distribuée de centres de données, ledit premier centre de données étant alimenté par au moins un premier équipement d’un réseau de distribution d’électricité impacté par une opération de maintenance, ladite entité de déploiement comprenant au moins un processeur configuré pour :
- recevoir, en provenance d’un équipement gestionnaire de ladite architecture distribuée, une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie dudit premier équipement électrique, lorsqu’une durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie dudit un premier équipement électrique,
- déployer ledit au moins un nœud de virtualisation au sein dudit premier serveur.
L’invention concerne enfin des produits programme d'ordinateur comprenant des instructions de code de programme pour la mise en œuvre des procédés tels que décrits précédemment, lorsqu’ils sont exécutés par un processeur.
L’invention vise également un support d’enregistrement lisible par un ordinateur sur lequel sont enregistrés des programmes d’ordinateur comprenant des instructions de code de programme pour l’exécution des étapes des procédés selon l’invention tels que décrits ci-dessus.
Un tel support d'enregistrement peut être n'importe quelle entité ou dispositif capable de stocker les programmes. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple une clé USB ou un disque dur.
D'autre part, un tel support d'enregistrement peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens, de sorte que les programmes d’ordinateur qu’il contient sont exécutables à distance. Les programmes selon l'invention peuvent être en particulier téléchargés sur un réseau par exemple le réseau Internet.
Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel les programmes sont incorporés, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution des procédés objets de l’invention précités.
Liste des figures
D'autres buts, caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante, donnée à titre de simple exemple illustratif, et non limitatif, en relation avec les figures, parmi lesquelles :
: cette figure représente un système dans lequel l'invention est mise en œuvre,
: cette figure représente les différentes étapes mises en œuvre par les différents composants du système décrit en référence à la lors de la mise en œuvre des différents procédés objets de la présente invention.
Description détaillée de modes de réalisation de l'invention
Le principe général de l'invention repose sur l’anticipation du déploiement de nœuds de virtualisation au sein de serveurs hébergés dans des centres de données en fonction d’un programme de maintenance d’équipements de réseaux de distribution d’électricité alimentant les différents sites abritant les centres de données d’une même architecture distribuée. Ainsi, les fonctions virtualisées exécutées par un nœud de virtualisation hébergé dans un serveur impacté par une maintenance du réseau de distribution électrique particulièrement sensibles peuvent être soit migrées soit dupliquées par anticipation vers des serveurs pour lesquels l’alimentation électrique est garantie. Le déploiement par anticipation d’un nœud de virtualisation permet de garantir la réservation de ressources.
La mise en œuvre d’une telle solution repose sur l’obtention par un équipement gestionnaire d’une architecture distribuée d’informations relatives à des opérations de maintenance impactant les réseaux de distribution d’électricité alimentant les différents centres de données d’une même architecture distribuée. Un tel équipement gestionnaire centralise des informations telles que l’identité et la localisation géographique du ou des serveurs sur lesquels les nœuds de virtualisation sont déployés mais également les besoins en termes de ressources de calcul, de stockage, de mémoire, de communication et d’énergie, mais également des informations relatives à une durée d’indisponibilité de certains équipements du réseau de distribution électrique alimentant les serveurs des centres de données de l’architecture distribuée.
Fort de ces diverses informations, l’équipement gestionnaire est alors capable d’anticiper le déploiement de nœuds de virtualisation vers lesquels migrer l’exécution de fonctions virtualisées en anticipation d’une coupure de l’alimentation électrique des serveurs sur lesquels ces fonctions virtualisées sont en cours d’exécution afin d’offrir une continuité de service.
Dans la suite de la description, on présente un mode de réalisation de l'invention mis en œuvre dans un système tel que celui représenté à la .
Un tel système comprend d’une part un réseau de distribution d’électricité RDE et une architecture distribuée de centres de données AD.
Le réseau de distribution d’électricité RDE comprend plusieurs postes sources PS1, PS3 assurant la transformation d’électricité haute tension HV en électricité moyenne tension MV. De tels postes sources PS1, PS3 sont pilotés par des contrôleurs de postes sources (non représentés sur la figure). Le réseau de distribution d’électricité RDE comprend également une pluralité postes de transformation PT1, PT2, PT3 assurant la transformation d’électricité moyenne tension MV en électricité basse tension LV destinée à alimenter des réseaux de distribution de voisinage NAN1, NAN2 et NAN3.
Les postes de transformation PT1, PT2, PT3 sont contrôlés par des contrôleurs de postes de transformation CPT1, CPT2 (non représenté sur la ) et CPT3. Le réseau de distribution d’électricité RDE comprend en outre des organes de routage de signalisation (non représentés sur la ) permettant le routage de messages de signalisation entre portions réseau de distribution d’électricité RDE présentant des tensions différentes, et des organes de comptage intelligent SM1, SM2 (non représenté sur la ) SM3, assurant la démarcation entre le réseau de distribution d’électricité RDE et l’architecture distribuée AD alimentée en électricité par le réseau de distribution d’électricité RDE.
L’architecture distribuée AD comprend plusieurs centres de données DC1, DC3 (non représentés sur la figure), chaque centre de données DC1, DC3 se situant dans des zones de disponibilité ZD1, ZD3 pouvant être colocalisées ou non. Le centre de données DC1 comprend une pluralité de serveurs informatiques 11, 12, 13 au sein desquels des nœuds de virtualisation NV11, NV12, peuvent être déployés, ainsi qu’au moins un équipement électrique dit « sans coupure » UPS1 alimentant les serveurs informatiques 11, 12, 13. Le centre de données DC2 comprend lui aussi une pluralité de serveurs informatiques 31, 32, 33 au sein desquels des nœuds de virtualisation NV11, NV12, peuvent être déployés, ainsi qu’au moins un équipement électrique dit « sans coupure » UPS3 alimentant les serveurs informatiques 31, 32, 33. Les nœuds de virtualisation NV11 et NV12 comprennent respectivement une unité de virtualisation UV11 et UV12. Bien entendu, un serveur 11, 12, 13, 31, 32, 33 peut déployer simultanément plusieurs nœuds de virtualisation et un même nœud de virtualisation peut comprendre une pluralité d’unités de virtualisation.
Les équipements électriques UPS1 et UPS3 sont respectivement pilotés par un contrôleur d’environnement technique CET1 et par un contrôleur d’environnement technique CET3. De tels contrôleurs d’environnement technique CET1, CET3 échangent des messages de service avec les contrôleurs de postes de transformation CPT1, CPT2, CPT3 du réseau de distribution d’électricité RDE. Les contrôleurs d’environnement technique CET1, CET3 échangent également des messages de service avec un gestionnaire d’infrastructure GI10 en charge de l’allocation et de l’administration des serveurs informatiques 11, 12, 13, 31, 32, 33.
Enfin l’architecture distribuée AD comprend au moins une unité de déploiement UD1, en charge du déploiement des nœuds de virtualisation NV11, NV12 au sein des serveurs informatiques 11, 12, 13, 31, 32, 33. Afin d’assurer le déploiement des nœuds de virtualisation NV11, NV12, l’unité de déploiement UD1 échange des messages de service avec le gestionnaire d’infrastructure GI10.
En relation avec la , on représente les différentes étapes mises en œuvre par les différents composants du système décrit en référence à la lors de la mise en œuvre des différents procédés objets de la présente invention.
Le contexte de mise en œuvre des procédés objets de la présente invention est celui d’une opération de maintenance programmée du contrôleur de poste de transformation CPT1 laquelle interdit toute intervention à distance sur le poste de transformation PT1 pour la durée de la maintenance.
Dans l’exemple de mise en œuvre considéré, aucun nœud de virtualisation n’est déployé dans les serveurs informatiques 31, 32, 33 du centre de données DC3 et une opération de maintenance des serveurs informatiques 31, 32 du centre de données DC3 est en cours, interdisant leur utilisation pendant plusieurs heures.
Au cours de la maintenance du contrôleur de poste de transformation CPT1, une panne affecte le poste de transformation PT1 et par rebond interrompt la distribution d’électricité vers l’équipement électrique UPS1.
Cette interruption de l’alimentation en électricité est détectée par le contrôleur d’environnement technique CET1 dans une étape E0.
Dans une première implémentation, le contrôleur de poste de transformation CPT1 émet un message à destination du contrôleur d’environnement technique CET1 en utilisant des techniques connues comme les courants porteurs ou CPL pour « Courant Porteur en Ligne ». Ce message comprend notamment une durée de maintenance estimée MTTR1 du poste de transformation PT1 ainsi qu’un un identifiant du poste de transformation PT1, noté IDPT1.
Dans une deuxième implémentation ce message est relayé par l’organe de comptage intelligent SM1 au contrôleur d’environnement technique CET1. Dans cette implémentation, le message peut être transmis en utilisant les courants porteurs à destination de l’équipement électrique UPS1, ou au travers d’une interface directe, comme une interface Ethernet directement raccordée au contrôleur d’environnement technique CET1.
Suite à l’obtention de ces informations relatives à la maintenance du contrôleur d’environnement technique CET1, le contrôleur d’environnement technique CET1 génère et émet, au cours d’une étape E1, un message MSG1 à destination du gestionnaire d’infrastructure GI10. Un tel message MSG1 peut comprendre, entre autres, une durée de maintenance estimée MTTR1 du poste de transformation PT1 ainsi qu’un un identifiant du poste de transformation PT1, noté IDPT1, Un tel message MSG1 comprend, en outre, une durée d’autonomie estimée MTBF1 de l’équipement électrique UPS1. Le message MSG1 peut également comprendre un identifiant de l’équipement électrique UPS1 ainsi que des informations relatives à la zone de disponibilité ZD1 associée au centre de données DC1.
A réception du message MSG1, le gestionnaire d’infrastructure GI10 met à jour, dans une étape E2, un premier fichier de référence stocké dans l’une de ses mémoires. Ce premier fichier indique que les serveurs informatiques 11, 12, 13 hébergés dans le centre de données DC1 correspondant à la zone de disponibilité ZD1 sont dépendant, pour leur alimentation électrique, du poste de transformation PT1 identifié IDPT1. Le premier fichier indique également la durée de maintenance estimée MTTR1 du poste de transformation PT1.
Le gestionnaire d’infrastructure GI10 mémorise également dans le premier fichier de référence que l’équipement électrique UPS1 dont dépendent les serveurs informatiques 11, 12, 13 a une durée d’autonomie estimée MTBF1 pendant laquelle l’équipement électrique UPS1 est capable d’alimenter électriquement les serveurs informatiques 11, 12, 13.
Au cours d’une étape E3, l’unité de déploiement UD1 du nœud de virtualisation NV11 transmet une demande d’informations DI relatives à une opération de maintenance à destination du gestionnaire d’infrastructure GI10.
Dans une implémentation particulière, la demande d’informations DI comprend un identifiant du serveur informatique 11 ainsi qu’une requête pour obtenir la durée d’autonomie estimée de l’équipement électrique UPS1.
Dans une autre implémentation, la demande d’information DI comprend également une requête pour obtenir les identifiants IDPT de postes de transformation PT dont dépend le serveur informatique 11 et dont les durées de maintenance estimées MTTR sont inférieures à la durée d’autonomie de l’équipement électrique UPS1.
L’étape E3 peut, par exemple, être mise en œuvre de manière périodique ou à chaque fois que l’unité de déploiement UD1 s’apprête à déployer un ou plusieurs nœuds de virtualisation NV.
En réponse à la demande d’information DI, l’équipement gestionnaire GI10 identifie dans le premier fichier de référence le ou les identifiants IDPT de postes de transformation PT dont dépend le serveur informatique 11 et dont les durées de maintenance estimées MTTR sont inférieures à la durée d’autonomie de l’équipement électrique UPS1, au cours d’une étape E4.
Lorsque l’équipement gestionnaire GI10 a identifié au moins un poste de transformation PT dont dépend le serveur informatique 11 et dont la durée de maintenance estimée MTTR est inférieure à la durée d’autonomie de l’équipement électrique UPS1, il transmet, à l’entité de déploiement UD1, une première liste L1 comprenant l’identifiant de ce poste de transformation PT dans une étape E5.
Lorsque l’équipement gestionnaire GI10 n’a identifié aucun poste de transformation PT dont la durée de maintenance estimée MTTR est inférieure à la durée d’autonomie de l’équipement électrique UPS1, la première liste L1 qu’il transmet à l’entité de déploiement UD1 est une liste vide.
A réception d’une liste L1 vide, l’unité de déploiement UD1 émet, dans une étape E6, une requête en identification RQT d’au moins un serveur hébergé dans un centre de données DC alimenté par un poste de transformation distinct de celui ou ceux alimentant le centre de données DC1. Une telle requête RQT comprend notamment la durée d’autonomie estimée MTBF1 du poste de transformation PT1. La requête RQT peut également comprendre des informations relatives aux ressources de calcul, de stockage, de mémoire, de communication requises par les différentes fonctions virtualisées exécutées par le nœud de virtualisation NV11 déployée sur le serveur informatique 11.
En réponse à la réception de la requête RQT, l’équipement gestionnaire GI10 transmet un identifiant d’au moins un serveur 33 hébergé dans le deuxième centre de données DC3 associé à la zone de disponibilité ZD3 ainsi qu’une deuxième liste L2 à l’unité de déploiement UD1 dans une étape E7. Cette deuxième liste L2 comprend au moins un identifiant IDPT d’au moins un poste de transformation PT distinct du poste de transformation PT1 présentant une durée de maintenance MTTR inférieure ou égale à une durée d’autonomie estimée MTBF d’au moins un équipement électrique UPS3 alimentant localement le centre de données DC3. Lorsque l’équipement gestionnaire GI10 a reçu des relatives aux ressources de calcul, de stockage, de mémoire, de communication requises, il les utilise pour identifier un ou plusieurs serveurs informatiques disposant de telles ressources.
A réception de la liste L2, l’unité de déploiement UD1 dispose de l’ensemble des informations lui permettant de déployer le nœud de virtualisation NV12 au sein du serveur 33 identifié dans la liste L2, dans une étape E8.
Ainsi, les fonctions virtualisées exécutées par le nœud de virtualisation NV11 hébergé dans le serveur 11 impacté par une maintenance du réseau de distribution électrique RDE peuvent être soit migrées soit dupliquées par anticipation vers le nœud de virtualisation NV12 déployé pour l’occasion sur le serveur 33.
Optionnellement, lorsque l’unité de déploiement UD1 déploie le nœud de virtualisation UV12 sur le serveur 33, elle procède à son marquage au moyen d’une étiquette de zone de disponibilité LBLZD3 comprenant les identifiants IDPT des postes de transformation PT dont le serveur informatique 33 dépend pour son alimentation en électricité et dont les durées de maintenance MTTR sont inférieures à la durée d’autonomie de l’équipement électrique UPS3 alimentant localement le serveur informatique 33.
De telles étiquettes LBLZD facilitent le déploiement des unités de virtualisation UV. En effet, lorsque de la migration ou de la duplication d’une fonction virtualisée dont le fichier de description contient une demande de création d’au moins deux unités de virtualisation UV11 et UV12 ainsi qu’une règle d’anti-affinité indiquant que chaque unité de virtualisation UV11 et UV12 doit être déployée dans des nœuds de virtualisation hébergés dans des serveurs informatiques situés dans des zones de déploiement différentes, l’existence de ces étiquettes LBLZD associées à chaque serveur appartenant à l’architecture distribuée AD permet d’identifier rapidement et de manière certaine le ou les serveurs informatiques idoines. Ainsi, l’unité de virtualisation UV12 est créée dans le nœud de virtualisation NV12 déployé sur la deuxième zone de disponibilité ZD3 indépendante de toute défaillance du poste de transformation PT1 ce qui n’est pas le cas du nœud de virtualisation NV11, qui bien qu’alimenté en électricité par l’équipement électrique UPS1, est impacté par cette défaillance du poste de transformation PT1 puisque la durée d’autonomie de l’équipement électrique UPS1 est inférieure à la durée de maintenance MTTR1 du poste de transformation PT1.
De la sorte le risque que les deux nœuds de virtualisation NV11 et NV12 hébergeant chacun une unité de virtualisation UV11, UV12 impliquée dans l’exécution de la fonction virtualisée tombent en panne en même temps se trouve réduit, offrant ainsi une disponibilité accrue du service rendu par la fonction virtualisée.
Lorsque le contrôleur CPT1 est remis en service à la fin de la période de maintenance, le contrôleur de poste de transformation CPT1 émet un nouveau message à destination du contrôleur d’environnement technique CET1. Ce nouveau message comprend une nouvelle durée de maintenance estimée MTTR1’ du poste de transformation. Lorsque la une nouvelle durée de maintenance estimée MTTR1’ est inférieure ou égale à la durée d’autonomie MTBF1, l’unité de déploiement UD1 procède à la suppression du nœud de virtualisation NV12. Le serveur 33 ainsi libéré, gestionnaire GI10 peut alors effectuer une maintenance sur ce dernier.

Claims (12)

  1. Procédé de gestion d’une architecture distribuée de centres de données hébergeant une pluralité de serveurs au sein desquels au moins un nœud de virtualisation est destiné à être déployé, ledit procédé étant mis en œuvre par un équipement gestionnaire de ladite architecture distribuée et comprenant les étapes suivantes :
    - obtention de données relatives à une opération de maintenance impactant au moins un premier équipement d’un réseau de distribution d’électricité alimentant un premier centre de données de ladite architecture distribuée, lesdites données comprenant au moins une durée de maintenance dudit premier équipement,
    - lorsque la durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie d’au moins un premier équipement électrique alimentant localement ledit premier centre de données, transmission, à destination d’une entité de déploiement de nœuds de virtualisation au sein de l’architecture distribuée, d’une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie du premier équipement électrique.
  2. Procédé de gestion d’une architecture distribuée de centres de données selon la revendication 1 comprenant en outre, lorsque ladite première liste est vide, les étapes suivantes :
    - réception, en provenance de ladite entité de déploiement, d’une requête en identification d’au moins un serveur hébergé dans un deuxième centre de données de ladite architecture distribuée alimenté par au moins un troisième équipement du réseau de distribution d’électricité distinct du premier équipement et du deuxième équipement,
    - transmission, à destination de ladite entité de déploiement, d’un identifiant dudit au moins un serveur et d’une deuxième liste comprenant au moins un identifiant dudit au moins un troisième équipement présentant une durée de maintenance inférieure ou égale à une durée d’autonomie dudit moins un deuxième équipement électrique alimentant localement ledit deuxième centre de données.
  3. Procédé de gestion d’une architecture distribuée de centres de données selon la revendication 1 ou 2 dans lequel l’étape d’obtention des données relatives à l’opération de maintenance impactant le premier équipement consiste en la réception d’un message émis par un module de contrôle dudit premier centre de données comprenant au moins un identifiant du premier équipement et la durée de maintenance dudit premier équipement.
  4. Procédé de gestion d’une architecture distribuée de centres de données selon la revendication 3 dans lequel ledit message comprend en outre une durée d’autonomie dudit moins un premier équipement électrique alimentant localement ledit premier centre de données.
  5. Procédé de gestion d’une architecture distribuée de centres de données selon l’une quelconque des revendications précédentes dans lequel ladite étape de transmission est déclenchée par la réception, en provenance de ladite entité de déploiement, d’une demande d’informations relatives à ladite opération de maintenance impactant ledit premier équipement.
  6. Procédé de gestion d’une architecture distribuée de centres de données selon les revendications 3 à 5 dans lequel ledit message émis par le module de contrôle dudit premier centre de données est transmis de manière répétée dans le temps.
  7. Procédé de protection d’au moins un premier serveur au sein duquel au moins un nœud de virtualisation est destiné à être déployé, ledit premier serveur étant hébergé dans un premier centre de données d’une architecture distribuée de centres de données, ledit premier centre de données étant alimenté par au moins un premier équipement d’un réseau de distribution d’électricité impacté par une opération de maintenance, ledit procédé étant mis en œuvre par une entité de déploiement des nœuds de virtualisation au sein de ladite architecture distribuée et comprenant les étapes suivantes mises en œuvre lorsqu’une durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie dudit un premier équipement électrique :
    - réception, en provenance d’un équipement gestionnaire de ladite architecture distribuée, d’une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie dudit premier équipement électrique,
    - déploiement dudit au moins un nœud de virtualisation au sein dudit premier serveur.
  8. Procédé de protection d’au moins un premier serveur selon la revendication 7 comprenant en outre, lorsque ladite première liste est vide, les étapes suivantes :
    - émission, à destination dudit équipement gestionnaire, d’une requête en identification d’au moins un deuxième serveur hébergé dans un deuxième centre de données de ladite architecture distribuée alimenté par au moins un troisième équipement du réseau de distribution d’électricité distinct du premier équipement et du deuxième équipement,
    - réception, en provenance dudit équipement gestionnaire, d’un identifiant dudit deuxième serveur et d’une deuxième liste comprenant au moins un identifiant dudit au moins un troisième équipement présentant une durée de maintenance inférieure ou égale à une durée d’autonomie d’au moins un deuxième équipement électrique alimentant localement ledit deuxième centre de données.
  9. Équipement gestionnaire d’une architecture distribuée de centres de données hébergeant une pluralité de serveurs au sein desquels au moins un nœud de virtualisation est destiné à être déployé, ledit équipement gestionnaire comprenant au moins un processeur configuré pour :
    - obtenir des données relatives à une opération de maintenance impactant au moins un premier équipement d’un réseau de distribution d’électricité alimentant un premier centre de données de ladite architecture distribuée, lesdites données comprenant au moins une durée de maintenance dudit premier équipement,
    - lorsque la durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie d’au moins un premier équipement électrique alimentant localement ledit premier centre de données, transmettre, à destination d’une entité de déploiement des nœuds de virtualisation au sein de l’architecture distribuée, une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie du premier équipement électrique.
  10. Entité de déploiement des nœuds de virtualisation au sein d’une architecture distribuée, ladite entité de déploiement étant capable de protéger au moins un premier serveur au sein duquel au moins un nœud de virtualisation est destiné à être déployé, ledit premier serveur étant hébergé dans un premier centre de données de l’architecture distribuée de centres de données, ledit premier centre de données étant alimenté par au moins un premier équipement d’un réseau de distribution d’électricité impacté par une opération de maintenance, ladite entité de déploiement comprenant au moins un processeur configuré pour :
    - recevoir, en provenance d’un équipement gestionnaire de ladite architecture distribuée, une première liste comprenant au moins un identifiant d’au moins un deuxième équipement du réseau de distribution d’électricité alimentant ledit premier centre de données présentant une durée de maintenance inférieure ou égale à la durée d’autonomie dudit premier équipement électrique, lorsqu’une durée de maintenance du premier équipement est supérieure ou égale à une durée d’autonomie dudit un premier équipement électrique,
    - déployer ledit au moins un nœud de virtualisation au sein dudit premier serveur.
  11. Produit programme d’ordinateur comprenant des instructions de code de programme pour la mise en œuvre d’un procédé de gestion d’une architecture distribuée de centres de données selon les revendications 1à 6, lorsqu’il est exécuté par un processeur.
  12. Produit programme d’ordinateur comprenant des instructions de code de programme pour la mise en œuvre d’un procédé de protection d’au moins un premier serveur selon la revendication 7 à 8 », lorsqu’il est exécuté par un processeur.
FR2211626A 2022-11-08 2022-11-08 Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants Pending FR3141784A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2211626A FR3141784A1 (fr) 2022-11-08 2022-11-08 Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants
PCT/EP2023/080747 WO2024099915A1 (fr) 2022-11-08 2023-11-06 Procédé de gestion d'une architecture distribuée de centres de données, dispositif et programme d'ordinateur correspondants

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2211626A FR3141784A1 (fr) 2022-11-08 2022-11-08 Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants
FR2211626 2022-11-08

Publications (1)

Publication Number Publication Date
FR3141784A1 true FR3141784A1 (fr) 2024-05-10

Family

ID=86100166

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2211626A Pending FR3141784A1 (fr) 2022-11-08 2022-11-08 Procédé de gestion d’une architecture distribuée de centres de données, dispositif et programme d’ordinateur correspondants

Country Status (2)

Country Link
FR (1) FR3141784A1 (fr)
WO (1) WO2024099915A1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220179685A1 (en) * 2019-04-08 2022-06-09 Orange Method and device for migrating a virtualised function in the event of a failure in the technical server environment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220179685A1 (en) * 2019-04-08 2022-06-09 Orange Method and device for migrating a virtualised function in the event of a failure in the technical server environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SAYAD KHALED ET AL: "Dynamic Orchestration of Communication Resources Deployment for Resilient Coordination in Critical Infrastructures Network", PROCEEDINGS OF THE 31ST EUROPEAN SAFETY AND RELIABILITY CONFERENCE (ESREL 2021) - RESEARCH PUBLISHING SERVICES, 23 September 2021 (2021-09-23), Singapore, pages 2055 - 2062, XP093067994, Retrieved from the Internet <URL:https://rpsonline.com.sg/proceedings/9789811820168/pdf/219.pdf> [retrieved on 20230724], DOI: 10.3850/978-981-18-2016-8 *

Also Published As

Publication number Publication date
WO2024099915A1 (fr) 2024-05-16

Similar Documents

Publication Publication Date Title
CN111866191B (zh) 消息事件的分发方法、分发平台、系统及服务器
EP2915021B1 (fr) Système et procédé pour développer, mettre à jour et utiliser des modèles de contexte comportemental de dispositif et d&#39;utilisateur afin de modifier un état d&#39;utilisateur, de dispositif et d&#39;application, des paramètres et un comportement pour une sécurité d&#39;utilisateur améliorée
CN110569109A (zh) 容器更新方法、控制节点及边缘节点
FR3002807A1 (fr) Procede de detection d&#39;attaques
CN108268211B (zh) 一种数据处理方法及装置
WO2020207914A1 (fr) Procede et dispositif de migration d&#39;une fonction virtualisee en cas de defaillance de l&#39;environnement technique de serveurs
CN112882765B (zh) 数字孪生模型调度方法和装置
CN116760705B (zh) 基于综合能源管理系统的多租户平台隔离管理系统及方法
FR3016462A1 (fr) Procede d&#39;ordonnancement de taches dans un reseau a courants porteurs en ligne
WO2024099915A1 (fr) Procédé de gestion d&#39;une architecture distribuée de centres de données, dispositif et programme d&#39;ordinateur correspondants
EP3785400B1 (fr) Procédé de réenregistrement d&#39;un compteur électrique intelligent
EP1377103A1 (fr) Procédé et système de partage d&#39;un abonnement entre une pluralité de terminaux de radiotéléphonie
EP4298766A1 (fr) Procédé de contrôle d&#39;une grappe de noeuds esclave par une grappe de noeuds maître, dispositifs et programmes d&#39;ordinateurs correspondants
CN110888663B (zh) 应用更新方法、业务服务器、中转服务器、集群及存储介质
FR2995425A1 (fr) Procede et systeme de mise en oeuvre d&#39;une infrastructure informatique en nuage agregeant des ressources isolees mises a disposition a travers un reseau
EP3051416A1 (fr) Procédé de commande de déploiement d&#39;un programme a exécuter dans un parc de machines
BE1028166B1 (fr) Procédé et système de gestion de plans d&#39;action dans une zone géographique comportant des dispositifs dont le fonctionnement peut être impacté par un paramètre mesurable dans ladite zone
FR3067832A1 (fr) Fourniture de services inter-groupements
EP3542589B1 (fr) Délégation d&#39;instructions à un dispositif en fonction de ses ressources
US12081397B2 (en) Continuous scheduling for automated suspension and resumption of cloud resources
FR3051585A1 (fr) Procede et systeme de transmission d&#39;une alerte geolocalisee a un utilisateur muni d&#39;un terminal mobile de communication
WO2021105624A1 (fr) Procédé de dimensionnement d&#39;une puissance électrique reservée par des stations de base
FR3144331A1 (fr) Gestion de service d’exécution de logiciels utilisant des véhicules automobiles
EP4438387A1 (fr) Procede de gestion d&#39;une demande de recharge d&#39;une batterie d&#39;un vehicule electrique
EP4432086A1 (fr) Procédé et système de déploiement d&#39;une application saas

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240510