FR3041788A1 - Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees. - Google Patents

Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees. Download PDF

Info

Publication number
FR3041788A1
FR3041788A1 FR1559255A FR1559255A FR3041788A1 FR 3041788 A1 FR3041788 A1 FR 3041788A1 FR 1559255 A FR1559255 A FR 1559255A FR 1559255 A FR1559255 A FR 1559255A FR 3041788 A1 FR3041788 A1 FR 3041788A1
Authority
FR
France
Prior art keywords
partitions
values
data processing
processing system
controlling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1559255A
Other languages
English (en)
Other versions
FR3041788B1 (fr
Inventor
Jacky Hofbauer
Bruno Koch
Christophe Chevereau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zcost Man
Original Assignee
Zcost Man
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zcost Man filed Critical Zcost Man
Priority to FR1559255A priority Critical patent/FR3041788B1/fr
Priority to US15/765,069 priority patent/US10621006B2/en
Priority to PCT/FR2016/052386 priority patent/WO2017055708A1/fr
Publication of FR3041788A1 publication Critical patent/FR3041788A1/fr
Application granted granted Critical
Publication of FR3041788B1 publication Critical patent/FR3041788B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

L'invention présente un procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données, ledit système étant configuré pour présenter une pluralité de partitions logiques partageant des ressources physiques communes, le procédé consistant à limiter l'accès aux ressources processeurs desdites partitions Pi en fonction de la valeur de paramètres DC_Pi(t) de plafonnement de la capacité de chacune des partitions Pi variables dans le temps et recalculée périodiquement, lesdites valeurs DC_Pi (t) sont recalculées périodiquement en fonction : - du résultat NICRP(t) de mesure du niveau instantané de consommation des ressources processeur de l'ensemble des partitions Pi - du résultat NICTi (t) de mesure du niveau instantané des charges de travail de chacune des partitions Pi, - de l'état de plafonnement de chacune des partitions Pi - d'au moins un paramètre « Kuser » déterminé par l'utilisateur.

Description

Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données
Domaine de 1'invention
La présente invention concerne le domaine des serveurs informatique de haute capacité de traitement et de haute disponibilité, généralement partagés entre plusieurs systèmes d'informations désignées par le terme de partitions logiques (LPAR). Ces serveurs comportent des ressources physiques telles que de la mémoire, des processeurs. Ces serveurs sont paramétrés pour optimiser le partage de ces ressources entre les différentes partitions logiques et atteindre un niveau de performance attendu pour chacune de ces partitions. L'administrateur système affecte des portions de la mémoire à chaque partition logique (LPAR). Un algorithme d'équilibrage de charge interne assure la répartition de l'affectation des processeurs aux différentes partitions logiques.
Etat de la technique le plus proche
On connaît dans l'état de la technique le brevet américain US7752415 décrivant un procédé et un système pour commander l'utilisation de la capacité d'un système de traitement de données partitionné logiquement, comprenant des ressources physiques qui sont partagées entre plusieurs partitions logiques, dans lequel la capacité des partitions logiques est gérée pour contrôler la consommation des ressources physiques de traitement de données.
On connaît aussi le brevet US7096469 décrivant un procédé pour faire imposer des plafonnements de capacité telles que celles imposées par les accords de licence de logiciels dans un système de traitement de 1'information dans lequel une machine physique est divisée en une pluralité de partitions logiques, dont chacune se voit attribuer une portion définie de ressources du processeur par un gestionnaire de partition logique.
Un gestionnaire de licence logicielle spécifie une consommation maximale autorisée des ressources du processeur par un programme s'exécutant dans l'une des partitions logiques.
Un gestionnaire de charge de travail s'exécutant également dans la partition mesure la consommation réelle de ressources processeur par la partition logique sur un intervalle de calcul de moyenne spécifié et la compare avec la consommation maximale autorisée.
Si la consommation réelle dépasse la consommation maximale autorisée, le gestionnaire de charge de travail calcule une limite supérieure (« soft capping » en anglais) et interagit avec le gestionnaire de partitions logiques pour plafonner la consommation réelle des ressources du processeur par la partition en conformité avec la limite calculée.
Pour fournir une flexibilité supplémentaire, les partitions se voient assigner un poids fantômes- que le gestionnaire de partitions logiques ajoute au poids total de la partition pour déterminer si la partition a dépassé sa part autorisée de ressources processeur dans le contexte de plafonnement des ressources.
Pour les logiciels sous licence, la partition logique devient ainsi un "conteneur" ayant une capacité de traitement inférieure à celle de l’ensemble de la machine.
On connaît encore le brevet US8015335 décrivant un système d’ordinateur hôte partitionné logiquement comprenant processeurs hôte (CPU hôte) divisée en une pluralité de processeurs hôtes (CPU d’hôtes) d’une configuration d’hôtes, un effectuer topologie fonction instruction est exécuté par un processeur d'hôtes spécifiant un changement de topologie de la configuration d'invité.
Le changement de topologie change préférence la polarisation de processeurs d'hôtes, la polarisation liée à la quantité d'une ressource CPU hôte est fournie à un processeur hôte.
On connait enfin le brevet US8904405 concernant un serveur dont le système de traitement de données partitionné est divisé en plusieurs partitions logiques.
Dans un système et un procédé comme la gestion d'un système informatique, chaque tâche en cours d'exécution de charge de travail qui peuvent être classés sur la base de la criticité du temps, et les groupes de partitions logiques peuvent être définis librement.
Les limites de capacité de traitement pour les partitions logiques dans un groupe de partitions logiques basées sur des seuils de capacité de traitement définis et sur une détermination itérative de la capacité nécessaire pour les tâches de la charge de travail à durée critique.
La charge de travail peut être équilibrée entre les partitions logiques au sein d'un groupe, pour empêcher la capacité de traitement de surplus étant utilisée pour exécuter la charge de travail critique pas le temps sur une partition logique quand une autre partition logique uniquement les tâches de la charge de travail à durée critique face à un déficit de traitement.
Inconvénients de l'art antérieur
Dans les solutions de l'art antérieur, le partage des ressources de entre chacune des partitions ne permet pas d'assurer des performances satisfaisantes dans toutes les conditions d'utilisation. Par exemple pour satisfaire un besoin exceptionnel très important et transitoire de ressources, le serveur doit être paramétré en fonction du pic de consommation induit, ce qui conduit à sur dimensionner le serveur et donc à augmenter la complexité des moyens matériels, la consommation et 1'échauffement produit par le serveur, jusqu'à dégrader gravement le fonctionnement du serveur.
La solution proposée par le brevet US8904405 met en œuvre un procédé de limitation des ressources à l'intérieur de chacune des partitions, fonction de paramètres prenant en compte la priorisation et la classification des charges de travail qui sont déterminées par des traitements automatiques exécutés par le programme de gestion des tâches de travail. Ces données ainsi calculées ne sont pas totalement pertinentes pour assurer une optimisation de la consommation des ressources. Par exemple, si la partition est limitée à une capacité déterminée en fonction d'informations collectées auprès du gestionnaire de tâches, dans une situation où beaucoup de tâches sont classées comme « non prioritaires », l'affectation des ressources sera faussée. En effet, le gestionnaire de tâches se base sur les ressources disponibles et sur l'ensemble des tâches dont il doit assurer l'exécution (quel que soit leur priorité) pour assurer la bonne exécution et la priorisation de ces tâches. Dans les solutions de l'état de la technique, la politique de gestion des ressources est déterminée automatiquement par le seul gestionnaire de tâches (WLM) qui commande l'exécution de tâches non prioritaires en fonction des ressources disponibles, compte tenu du plafonnement global de la consommation des ressources déterminé pour la totalité des tâches de travail de la partition.
Solution apportée par l'invention
Afin de répondre à ces inconvénients, l'invention concerne selon son acception la plus générale un procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données, ledit système étant configuré pour présenter une pluralité de partitions logiques partageant des ressources physiques communes, le procédé consistant à limiter l'accès aux ressources processeurs desdites partitions P± en fonction de la valeur de paramètres DC_P±(t) de plafonnement de la capacité de chacune des partitions P± variables dans le temps, caractérisé en ce que lesdites valeurs DC_P±(t) sont recalculées périodiquement en fonction: - du résultat NICRP(t)de mesure du niveau instantané de consommation des ressources processeur de l'ensemble des partitions P± - du résultat NICT±(t) de mesure du niveau instantané des charges de travail de chacune des partitions P±, - de l'état de plafonnement de chacune des partitions P± - d'au moins un paramètre « Kuser » déterminé par l'utilisateur.
Ce nouveau mode de détermination des variables DC_P±(t) permet de fixer un plafonnement aux partitions tout en réduisant les contraintes imposées à la consommation de ressources de ces partitions. L'invention permet d'optimiser le partage des ressources informatiques dans un environnement de gros serveurs (« mainframe » en anglais).
Avantageusement, ledit calcul des valeurs DC_P±(t) est en outre fonction de la valeur antérieure DC_P±(t-n).Selon une variante, ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de N valeurs NICRP(t).
Selon une autre variante, ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de P valeurs moyennes antérieures de NICT±(t) calculées chacune sur une fenêtre temporelle d'une durée D prédéterminée.
Selon une autre variante, ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de M valeurs antérieures du résultat NICRP(t).
Selon une autre variante, ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de P valeurs moyennes antérieures de NICRP(t) calculées chacune sur une fenêtre temporelle d'une durée D prédéterminée.
Avantageusement, ledit calcul des valeurs DC_P±(t) est en outre fonction du nombre et de l'état de polarisation verticale VProc_P± représentatif de l'état des processeurs affectés à chacune des partitions P±.
On entend par « polarisation » au sens du présent brevet le paramètre décrit dans le brevet US8015335 et se référant an au nombre et à l'état des processeurs affectés à une ressources.
Selon un premier mode de réalisation, ledit calcul est effectué pour les seules ressources et partitions d'un même serveur.
Selon un deuxième mode de réalisation, ledit calcul est effectué pour les ressources et partitions d'une pluralité de serveurs.
Description d'un exemple non limitatif de réalisation de 1'invention
La présente invention sera mieux comprise à la lecture de la description qui suit, concernant un exemple non limitatif de réalisation illustré par les dessins annexés où : - la figure 1 représente une vue schématique de l'architecture matérielle d'un serveur selon l'invention - la figure 2 représente une vue schématique de l'architecture fonctionnelle d'un serveur selon l'invention - la figure 3 représente l'architecture d'une partition et des procédés de collecte des informations - la figure 4 représente une vue fonctionnelle schématique d'un moniteur.
Architecture matérielle
Dans les systèmes informatiques « gros serveur » (par exemple mainframe d'IBM 390) le nombre de partitions est limité, par exemple 15 partitions logiques. Dans des systèmes plus récents utilisant une architecture de type Z (marque déposée), on prévoit un plafonnement de taille de la mémoire, des interfaces entrée/sortie et de la disponibilité, et la puissance de traitement disponible peut être limitée à un niveau inférieur à ce plafonnement.
La figure 1 représente une vue schématique de l'architecture matérielle d'un système selon l'invention constitué de deux serveurs (1, 2). Bien entendu, le nombre de serveurs peut être supérieur à deux.
Chaque serveur (1, 2) est partitionné en une pluralité de partitions logiques qui se partagent les ressources matérielles, notamment les ressources processeurs.
Chaque processeur est caractérisé par un état de polarisation verticale ou horizontale.
Chaque serveur (1, 2) comporte plusieurs processeurs (11, 12, 13 ; 21, 22, 23) ainsi qu'un gestionnaire de processeur (14, 24) de type PR/SM (« Processor
Resource/System Manager ») gérant la répartition de la puissance de calcul entre les partitions logiques.
Chaque serveur (1, 2) comporte également une unité de supervision « support element » (15, 25) qui gère la configuration du serveur en particulier le nombre de processeurs disponibles, la taille de la mémoire et plus généralement l'état physique et l'administration du serveur par l'intermédiaire de consoles (19, 29).
Chaque serveur (1, 2) comporte également des cartes de communication (16, 26) avec des mémoires externes (18, 28) et des cartes réseau (17, 27) pour la communication avec des terminaux clients (10, 20).
Architecture fonctionnelle
La figure 2 représente un exemple d'architecture fonctionnelle.
Chaque serveur (1, 2) héberge une pluralité de partitions logiques (101 à 104 ; 201 à 204). Chaque partition logique (101 à 104 ; 201 à 204) comprend un collecteur (111 à 114 ; 211 à 214) qui collecte des informations « métriques » comprenant : - la valeur de paramètres DC_Pi(t) de plafonnement de la capacité de chacune des partitions Pi variables- dans le temps et recalculée périodiquement, - le résultat NICRP(t) mesurant le niveau instantané de consommation des ressources processeur de l'ensemble des partitions P± - le résultat NICT± (t) mesurant le niveau instantané des charges de travail de chacune des partitions P±, - l'état de plafonnement de chacune des partitions Pi-
Ces informations sont calculées à partir des données disponibles via le système d'exploitation par des traitements implémentés dans chaque partition.
Ces informations sont, par exemple, enregistrées dans les blocs de contrôle de l'architecture Z d'IBM (noms commerciaux) comme illustré par la figure 3 représentant l'architecture d'une partition (101) et les procédés de collecte des informations. Chaque partition (101) est associée à un collecteur (301).
Le collecteur (301) est constitué par un programme d'ordinateur procédant à la lecture des informations dans les blocs de contrôle (302 à 304) concernant le serveur dans sa globalité, la partition logique (101), la caractérisation de l'affectation des ressources processeurs, en particulier dans les blocs de contrôle (305 à 307) intitulée « z/OS Workload Management (WLM) » dans l'architecture Z d'IBM (noms commerciaux).
Ces données sont enregistrées périodiquement et historisées dans une mémoire (308) du collecteur (301).
Le système comprend soit un seul moniteur (400), ou plusieurs, généralement un par serveur (1, 2).
Le moniteur (400) représenté en figure 4 procède à la lecture périodique des données enregistrées dans la mémoire (308) des collecteurs (301), via un réseau et un protocole TCP/IP. Ces données font l'objet de traitements pour calculer périodiquement, pour chacune des partitions P± les paramètres DC_Pi(t) de plafonnement de la capacité de chacune des partitions P±.
Ce moniteur (400) comporte un module d'interfaçage (401) éventuellement distinct, générant les instructions numériques pour commander l'application de ces paramètres de plafonnement via 1'hyperviseur PR/SM (14, 24) (Processor Resource/System
Manager) et les éléments de supervision (15, 25), afin de modifier périodiquement la puissance allouée à chacune des partitions pour lesquelles les données ont été collectées, et, suivant la configuration du système, le nombre de processeurs actifs. L'application de ces paramètres peut avoir pour conséquence la modification de la configuration processeur du serveur (1, 2).
Cette commande est envoyée à 1'hyperviseur (14, 24) selon deux modes possibles : - le premier mode utilise l'application (240) BCPii ( « Base Control Program Internai Interface » (nom commercial)) pour communiquer avec les éléments de supervision (15, 25)
- un deuxième mode utilise le réseau HMC « hardware management consol » (250) pour communiquer avec les éléments de supervision (15, 25).
Ces données et les identifiants des modifications sont également exploitées pour construire des représentations graphiques ou textuelles représentatives de l'évolution du système. Elles peuvent aussi être exploitées pour générer des messages électroniques, ou des informations de performances, par exemple selon un format universel SMF ( « System measurement facility »).
Optionnellement, l'invention peut également prévoir des moyens de changement automatique ou par commande de paramètres de fonctionnement par exemple en fonction d'un gestionnaire d'évènements ou de calendrier.
Elle peut également prévoir des moyens de générations d'alertes, par exemple sous forme de messages électroniques.
Traitement des données
Les données collectées et/ou calculées comprennent : - des données relatives aux serveurs (1, 2) telles que le nom, l'identifiant technique, le type de serveur, la capacité du serveur, le nombre de processeurs physiques et logiques, le nombre de partitions configurées, la somme des poids relatifs des partitions, la somme des plafonnements, la somme des consommations instantanées, la somme des moyennes sur une période temporelle D prédéterminée, le ratio nombre de processeurs physiques / nombre de processeurs logiques,... - des données relatives aux partitions (101 à 104 ; 201 à 204) telles que le nom, le nom du complexe (au sens « syplex » tel qu'exposé dans la notice http://www.redbooks.ibm.com/redbooks/pdfs/sg244356.pdf) auquel la partition appartient, son poids relatif, son plafonnement ainsi que l'état de son plafonnement, sa consommation instantanée, la moyenne sur une période temporelle D prédéterminée, le nombre de processeurs logiques, la tendance d'évolution de sa consommation, ... des données relatives aux composants gestionnaires de charge de travail de chacune des partitions (WLM) destinées à optimiser la charge de la machine et du réseau, telles que les classes de service, la consommation par classe de service et par période,... - des données relatives au nombre et au type de polarisation (moyen, haut, bas) des processeurs, pour chacune des partitions logiques.
Par ailleurs, le traitement met en œuvre des paramètres personnalisables Kuser tels que : - des paramètres généraux tels que l'intervalle temporel de collecte, les coefficients modérateurs fixant un seuil minimal de variation de la capacité de chaque partition, les seuils haut et bas de plafonnement autorisé du serveur ( CPC_MAX, CPC_MIN, ) ... - des paramètres d'alerte tels que des seuils de déclenchement de l'envoi d'un message électronique ou d'une action - des paramètres relatifs aux partitions logiques, tels que des seuils haut et bas de plafonnement autorisé de chaque partition (MSU_MAX, MSU _MIN,), les critères de priorité, la marge de sécurité, une valeur de réactivité, un attribut de protection de chaque partition destinée à contrecarrer le plafonnement en fonction de circonstances définies par l'utilisateur ou calculées automatiquement, l'appartenance à un groupe de partitions logiques,... - des clés de sécurité.
Ces données susvisées font l'objet d'un traitement périodique pour le calcul du plafonnement de chaque partition logique, consistant à : - réallouer les capacités entre les partitions logiques disponibles - en cas de surcapacité, réallouer les capacités entre les partitions logiques réelles et une partition logique virtuelle ('fantôme') afin de réduire le plafonnement global des serveurs (1, 2). A cet effet, on fixe une limite du plafonnement pour chaque partition logique, calculée en fonction des seuils susvisés haut et bas des partitions (101 à 104 ; 201 à 204) et des serveurs ( 1, 2 ), en fonction des paramètres Kuser susvisés définis par l'utilisateur et des données collectées.

Claims (2)

  1. Revendications 1 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données, ledit système étant configuré pour présenter une pluralité de partitions logiques partageant des ressources physiques communes, le procédé consistant à limiter l'accès aux ressources processeurs desdites partitions P± en fonction de la valeur de paramètres DC_P±(t) de plafonnement de la capacité de chacune des partitions P± variables dans le temps et recalculée périodiquement, caractérisé en ce que lesdites valeurs DC_P±(t) sont recalculées périodiquement en fonction : - du résultat NICRP(t) de mesure du niveau instantané de consommation des ressources processeur de l'ensemble des partitions P± - du résultat NICT± (t) de mesure du niveau instantané des charges de travail de chacune des partitions P±, - de l'état de plafonnement de chacune des partitions P± - d'au moins un paramètre « Kuser » déterminé par l'utilisateur. 2 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données selon la revendication 1 caractérisé en ce que ledit calcul des valeurs DC_P± ( t ) est en outre fonction de la valeur antérieure DC_P±(t-n) 3 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données selon la revendication 1 ou 2 caractérisé en ce que ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de N valeurs NICRP(t) antérieures.
  2. 4 - Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données selon la revendication 1 ou 2 caractérisé en ce que ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de P valeurs moyennes antérieures de NICT±(t) calculées chacune sur une fenêtre temporelle d'une durée D prédéterminée. 5 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données selon la revendication 1 ou 2 caractérisé en ce que ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de M valeurs antérieures du résultat NICRP(t). 6 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données selon la revendication 3 ou 4 caractérisé en ce que ledit calcul des valeurs DC_P±(t) est en outre fonction de l'évolution de P valeurs moyennes antérieures de NICRP(t) calculées chacune sur une fenêtre temporelle d'une durée D prédéterminée. 7 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données selon l'une au moins des revendications précédentes caractérisé en ce que ledit calcul des valeurs DC_P±(t) est en outre fonction du nombre et de l'état de polarisation verticale VProc_P± représentatif de l'état des processeurs affectés à chacune des partitions P±. 8 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données, selon la revendication 1 caractérisé en ce que ledit calcul est effectué pour les seules ressources et partitions d'un même serveur. 9 — Procédé de contrôle de la capacité d'utilisation d'un système partitionné de traitement de données, selon la revendication 1 caractérisé en ce que ledit calcul est effectué pour les ressources et partitions d'une pluralité de serveurs.
FR1559255A 2015-09-30 2015-09-30 Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees. Active FR3041788B1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1559255A FR3041788B1 (fr) 2015-09-30 2015-09-30 Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees.
US15/765,069 US10621006B2 (en) 2015-09-30 2016-09-21 Method for monitoring the use capacity of a partitioned data-processing system
PCT/FR2016/052386 WO2017055708A1 (fr) 2015-09-30 2016-09-21 Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1559255 2015-09-30
FR1559255A FR3041788B1 (fr) 2015-09-30 2015-09-30 Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees.

Publications (2)

Publication Number Publication Date
FR3041788A1 true FR3041788A1 (fr) 2017-03-31
FR3041788B1 FR3041788B1 (fr) 2018-02-02

Family

ID=55451263

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1559255A Active FR3041788B1 (fr) 2015-09-30 2015-09-30 Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees.

Country Status (3)

Country Link
US (1) US10621006B2 (fr)
FR (1) FR3041788B1 (fr)
WO (1) WO2017055708A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3082029A1 (fr) * 2018-06-05 2019-12-06 Thales Controleur de partage de ressources d'une plate-forme informatique et procede associe de partage des ressources

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11481190B2 (en) 2020-05-22 2022-10-25 International Business Machiines Corporation Selecting a plurality of processing systems to sort a data set

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7007276B1 (en) * 1999-09-28 2006-02-28 International Business Machines Corporation Method, system and program products for managing groups of partitions of a computing environment
US20080244215A1 (en) * 2007-03-28 2008-10-02 Flemming Diane G Workload management in virtualized data processing environment
US20130055277A1 (en) * 2011-08-26 2013-02-28 International Business Machines Corporation Logical Partition Load Manager and Balancer
US20140373010A1 (en) * 2013-06-14 2014-12-18 International Business Machines Corporation Intelligent resource management for virtual machines

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7096469B1 (en) 2000-10-02 2006-08-22 International Business Machines Corporation Method and apparatus for enforcing capacity limitations in a logically partitioned system
US7752419B1 (en) 2001-03-22 2010-07-06 Qst Holdings, Llc Method and system for managing hardware resources to implement system functions using an adaptive computing architecture
US7739434B2 (en) 2008-01-11 2010-06-15 International Business Machines Corporation Performing a configuration virtual topology change and instruction therefore
US9038090B1 (en) 2013-03-06 2015-05-19 zIT Consulting GmbH System and method for managing mainframe computer system usage
US9912741B2 (en) * 2015-01-20 2018-03-06 International Business Machines Corporation Optimization of computer system logical partition migrations in a multiple computer system environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7007276B1 (en) * 1999-09-28 2006-02-28 International Business Machines Corporation Method, system and program products for managing groups of partitions of a computing environment
US20080244215A1 (en) * 2007-03-28 2008-10-02 Flemming Diane G Workload management in virtualized data processing environment
US20130055277A1 (en) * 2011-08-26 2013-02-28 International Business Machines Corporation Logical Partition Load Manager and Balancer
US20140373010A1 (en) * 2013-06-14 2014-12-18 International Business Machines Corporation Intelligent resource management for virtual machines

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MACIEJ MLYNSKI: "The Analysis of Influence of IBM pSeries Servers' Virtualization Mechanism on Dynamic Resources Allocation in AIX 5L", PARALLEL AND DISTRIBUTED COMPUTING, 2008. ISPDC '08. INTERNATIONAL SYMPOSIUM ON, IEEE, PISCATAWAY, NJ, USA, 1 July 2008 (2008-07-01), pages 39 - 46, XP031378726, ISBN: 978-0-7695-3472-5 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3082029A1 (fr) * 2018-06-05 2019-12-06 Thales Controleur de partage de ressources d'une plate-forme informatique et procede associe de partage des ressources
EP3579108A1 (fr) * 2018-06-05 2019-12-11 Thales Contrôleur de partage de ressources d'une plate-forme informatique et procédé associé de partage des ressources
CN110569200A (zh) * 2018-06-05 2019-12-13 泰雷兹公司 计算机平台资源共享控制器和关联的资源共享方法
US10915363B2 (en) 2018-06-05 2021-02-09 Thales Resource sharing controller of a computer platform and associated resource sharing method

Also Published As

Publication number Publication date
FR3041788B1 (fr) 2018-02-02
US20180293109A1 (en) 2018-10-11
WO2017055708A1 (fr) 2017-04-06
US10621006B2 (en) 2020-04-14

Similar Documents

Publication Publication Date Title
US10587682B2 (en) Resource allocation diagnosis on distributed computer systems
US11204811B2 (en) Methods and systems for estimating time remaining and right sizing usable capacities of resources of a distributed computing system
US20190317829A1 (en) Methods and systems to proactively manage usage of computational resources of a distributed computing system
US7979863B2 (en) Method and apparatus for dynamic CPU resource management
US7979857B2 (en) Method and apparatus for dynamic memory resource management
CA2852367C (fr) Procede, programme d'ordinateur et dispositif d'allocation de ressources informatiques d'un cluster pour l'execution d'un travail soumis audit cluster
US20130238780A1 (en) Managing risk in resource over-committed systems
US20110041126A1 (en) Managing workloads in a virtual computing environment
EP2962242B1 (fr) Procede de detection d'attaques de machines virtuelles
US20180205666A1 (en) Application workload prediction
US10411977B2 (en) Visualization of workload distribution on server resources
FR3041788A1 (fr) Procede de controle de la capacite d'utilisation d'un systeme partitionne de traitement de donnees.
Mendes et al. Oversubscribing micro-clouds with energy-aware containers scheduling
JP7455197B2 (ja) インテグリティ監視のためのミューテーション・イベント検出
US7925757B1 (en) Determining a portion of required capacity attributed to applications in multiple classes of service
Hlavacs et al. Predicting web service levels during vm live migrations
US10142491B1 (en) Support system for cellular based resource sharing service
Liu An energy-efficient enhanced virtual resource provision middleware in clouds
Arivudainambi et al. Three phase optimisation for qualified and secured VMs for resource allocation
US20230069598A1 (en) Dynamic load balancing in reactive systems
Hou et al. An autonomic monitoring framework of web service-enabled application software for the hybrid distributed HPC infrastructure
US11947436B2 (en) Automatic evaluation of virtual machine computing power
Wang Improving Cloud Efficiency with Online Learning
Zacarias et al. Dynamic Memory Provisioning on Disaggregated HPC Systems
EP4312121A1 (fr) Procédé d'allocation de ressources informatiques dans une infrastructure informatique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170331

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9