DE60201077T2 - Verfahren um einen Computer aus einem Cluster zu entfernen - Google Patents

Verfahren um einen Computer aus einem Cluster zu entfernen Download PDF

Info

Publication number
DE60201077T2
DE60201077T2 DE60201077T DE60201077T DE60201077T2 DE 60201077 T2 DE60201077 T2 DE 60201077T2 DE 60201077 T DE60201077 T DE 60201077T DE 60201077 T DE60201077 T DE 60201077T DE 60201077 T2 DE60201077 T2 DE 60201077T2
Authority
DE
Germany
Prior art keywords
shutdown
cluster
agent
agents
daemon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60201077T
Other languages
English (en)
Other versions
DE60201077D1 (de
Inventor
Joseph W. Armstrong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Siemens Computers Inc
Original Assignee
Fujitsu Siemens Computers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Siemens Computers Inc filed Critical Fujitsu Siemens Computers Inc
Publication of DE60201077D1 publication Critical patent/DE60201077D1/de
Application granted granted Critical
Publication of DE60201077T2 publication Critical patent/DE60201077T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)
  • Retry When Errors Occur (AREA)
  • Information Transfer Between Computers (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zum Eliminieren eines Computers aus einem Cluster zweier oder mehrerer Computer, um Datenintegrität und Anwendungswiederherstellung auf einem anderen Computer zu garantieren.
  • Das nachfolgend beschriebene Verfahren ist aus dem deutschen Patent DE 198 37 008 C2 bekannt. Ein Cluster besteht normalerweise aus einem Cluster-Host und Cluster-Knoten. Die Cluster-Knoten werden durch eine als Cluster-Foundation bezeichnete Software verwaltet, die auf dem Cluster-Host installiert ist. Die Cluster-Foundation liefert die grundlegenden zentralen Dienste. Zu diesen Diensten gehört zum Beispiel Lebenszeichenüberwachung zwischen Cluster-Knoten. Zusätzlich zu diesen Diensten können abhängig von dem Anwendungsgebiet Dienste wie zum Beispiel ein Failover-Manager für hohe Verfügbarkeit und Dienste für parallele Datenbanken hinzugefügt werden. Durch Dienste für dynamischen Lastausgleich wird der Weg für Internet-Anwendungsgebiete, wie zum Beispiel E-Commerce und Anwendungs-Hosting, geöffnet. Die Grundlage für fast alle Hochverfügbarkeitslösungen ist ein leistungsstarker und flexibler Failover-Manager im Hintergrund. Im Fall des Primärclusters des Anmelders wird der Failover-Manager als Reliant Monitor Software (RMS) bezeichnet. RMS ist eine generische Überwacherbeobachtung von Knoten in einem Cluster und für die Failover-Steuerung der Anwendungen.
  • Für die Lebenszeichenüberwachung zwischen den Cluster-Knoten muß erkannt werden, ob ein echter Ausfall einer der Cluster-Knoten besteht oder ob ein Problem bei der Kommunikation zwischen den geclusterten Knoten besteht. Wenn ein Problem bei der Kommunikation zwischen dem Cluster-Knoten besteht, muß sein Ort gefunden werden, und es muß entschieden werden, welcher der Computer heruntergefahren werden muß.
  • Die RMS hat als der Failover-Manager Zugang zu allen Computern in dem Cluster und zu allen Verbindungen zwischen den Computern in dem Cluster. Die Single Console (SCON) hat die Fähigkeit, jeden Computer in dem Cluster anzuhalten oder herunterzufahren oder neu zu starten. Alle RMS-Instanzen in dem Cluster senden eine Nachricht zu dem SCON, wenn eine Lebenszeichennachricht eines anderen Computers in dem Cluster fehlt. Mit einer fehlenden Lebenszeichennachricht eines Computers in dem Cluster kann die Datenintegrität nicht garantiert werden, so daß dieser Computer aus dem Cluster eliminiert werden muß. Deshalb wird die Nachricht von der RMS zu der SCON als eine Herunterfahranforderung oder eine Kill-Anforderung bezeichnet. Wenn n Computer mit einem Cluster verbunden sind und ein Knoten oder Computer keine Lebenszeichennachricht sendet, empfängt die SCON n – 1 Herunterfahranforderungen. Bei diesem existierenden System sammelt und bewertet die SCON die Herunterfahranforderungen und eliminiert die defekte Maschine bzw. den defekten Computer aus dem Cluster.
  • Das Problem besteht darin, daß mit der existierenden Technologie die SCON ein einziger Ausfallpunkt für die Knoteneliminationsverarbeitung ist, keine redundanten Herunterfahrmethoden unterstützt werden, keine Interaktion mit der Cluster Foundation unterstützt wird, die Existenz eines Failover-Managers erforderlich ist und daß die SCON zusätzliche Kosten für einen Kunden einführt, da er eine zusätzliche Maschine anschaffen muß, auf der die SCON-Software abläuft.
  • Aus EP1117039A ist eine Cluster-Herunterfahrsteuerung bekannt, die Teil eines auf jedem Knoten in einem Cluster installierten Integritätsschutzsoftwarepakets ist. Die Herunterfahrsteuerung leitet ein Herunterfahren jedes Knotens in einem gegebenen Subcluster ein, wenn es notwendig ist (z. B. im Fall eines Problems des Typs "Split Brain").
  • Die Aufgabe der Erfindung ist deshalb die Bereitstellung einer Knoteneliminationseinrichtung, die in Clustern mit oder ohne Failover-Manager und mit oder ohne Cluster Foundation verfügbar ist. Die Knoteneliminationseinrichtung läuft auf jedem Knoten in dem Cluster ab, so daß sie keinen einzigen Ausfallpunkt für die Knoteneliminationsverarbeitung darstellt. Die Einrichtung unterstützt außerdem redundante Knoteneliminationsverfahren, um die Wahrscheinlichkeit einer erfolgreichen Knotenelimination zu vergrößern. Schließlich erfordert die Einrichtung nicht die Anschaffung einer zusätzlichen Maschine, auf der ihre Software abläuft, wodurch die Kosten des Clusters für den Kunden reduziert werden.
  • Diese Aufgabe wird gemäß der Erfindung, die durch die Ansprüche definiert wird, mit einer Anzahl unabhängiger Herunterfahragenten gelöst, die in einer Herunterfahreinrichtung registriert sind, die auf jedem Computer in dem Cluster installiert ist.
  • Die Herunterfahreinrichtung liefert einen allgemeinen Rahmen zum Aufrufen redundanter, unabhängiger Herunterfahrmethoden für diesen Zweck. Die Herunterfahrmethoden werden durch die Herunterfahragenten implementiert. Wenn eine Herunterfahranforderung verarbeitet wird, hat die Herunterfahreinrichtung die Möglichkeit, falls notwendig durch die Liste registrierter Herunterfahragenten zu iterieren und kann deshalb eine höhere Wahrscheinlichkeit einer erfolgreichen Hostelimination bereitstellen.
  • Die Herunterfahreinrichtung und die Herunterfahragenten sind außerdem auf dem Cluster-Host mit dem Failover-Manager (falls einer existiert) installiert.
  • Die Herunterfahreinrichtung verfolgt den Status jedes Herunterfahragenten, so daß ein Bediener benachrichtigt werden kann, wenn ein Herunterfahragent unverfügbar wird.
  • Die Erfindung liefert eine Liste von Herunterfahragenten in einer Konfigurationsdatei, die eine geordnete Liste der Herunterfahragenten definiert, dergestalt, daß der erste Herunterfahragent in der Liste ein bevorzugter Herunterfahragent ist, dem zuerst die Herunterfahranforderung ausgegeben wird, und wenn seine Antwort ein erfolgloses Herunterfahren anzeigt, wird der nächste Herunterfahragent ausgegeben, bis entweder ein Herunterfahragent mit einem erfolgreichen Herunterfahren antwortet oder alle Herunterfahragenten versucht wurden.
  • Ein Ausführungsbeispiel der Erfindung wird nachfolgend ausführlicher mit Bezug auf eine Zeichnung erläutert.
  • Die Figur zeigt schematisch ein Cluster aus vier Computern oder Servern (die als Cluster-Knoten bezeichnet werden), die durch einen Failover-Manager verwaltet werden, der zum Beispiel der existierende RMS-Failover-Manager sein könnte. Der Failover-Manager ist optional und für die Erfindung nicht notwendig.
  • Jeder Computer gibt dem Failover-Manager und allen anderen Computern in dem Cluster eine Lebenszeichennachricht. Falls eine Lebenszeichennachricht fehlt, muß der Computer mit der fehlenden Lebenszeichennachricht eliminiert werden. Zu diesem Zweck ist auf jedem Computer eine Herunterfahreinrichtung SF installiert. Die Herunterfahreinrichtung umfaßt einen Herunterfahr-Daemon SD und mehrere Herunterfahragenten SA. Jeder Herunterfahragent ist ein Programm, in dem eine Herunterfahrmethode implementiert ist.
  • Die Herunterfahragenten der Herunterfahreinrichtung sind unabhängige Befehle, die durch die Herunterfahr- Daemons oder durch die SCON abgerufen werden können.
  • Der Herunterfahr-Daemon wird entweder durch eine Befehlszeilenanforderung, eine Cluster-Maschine herunterzufahren, von dem Bediener oder ein als ENS bezeichnetes Ereignis aus der Cluster Foundation ausgelöst.
  • Die Herunterfahranforderung wird erfüllt, indem ein oder mehrere Herunterfahragenten, die in der Herunterfahr-Daemon-Konfigurationsdatei definiert sind, aufgerufen werden. Nachdem das Herunterfahren verifiziert wurde, transferiert der Herunterfahr-Daemon den Knotenzustand zu Knoten-heruntergefahren, wenn ein Failover-Manager oder eine Cluster Foundation CF installiert ist und läuft.
  • Wenn kein Failover-Manager oder keine Cluster Foundation installiert sind und laufen, reagiert der Shutdown-Daemon nur auf die Befehlszeilenanforderung des Bedieners.
  • Wenn die Cluster Foundation installiert und auf dem Cluster-Host konfiguriert ist, registriert sich der Herunterfahr-Daemon bei ENS, um folgendes zu empfangen:
    • – NODE_AVAILABLE
    • – LEAVINGCLUSTER
    • – LEFTCLUSTER
    • – NODE_DOWN
  • Diese Ereignisse sind die existierenden Ereignisse, die von der Cluster Foundation erzeugt werden.
  • Der Herunterfahr-Daemon verfolgt den Zustand der Cluster-Knoten, so daß bestimmt werden kann, wann ein Computer eliminiert werden muß.
  • Der Herunterfahr-Daemon weist eine Konfigurationsdatei auf, die eine geordnete Liste von Herunterfahragenten definiert, dergestalt, daß der erste Herunterfahragent in der Liste ein bevorzugter Herunterfahragent ist. Diesem bevorzugten Herunterfahragenten wird eine Herunterfahranforderung ausgegeben, und wenn seine Antwort ein erfolgloses Herunterfahren anzeigt, wird die Herunterfahranforderung dem zweiten Herunterfahragenten ausgegeben. Diese Anforderung/Antwort wird wiederholt, bis entweder ein Herunterfahragent mit einem erfolgreichen Herunterfahren antwortet oder alle Herunterfahragenten versucht wurden. Wenn kein Herunterfahragent erfolgreich einen Cluster-Knoten herunterfahren kann, dann ist ein Eingriff durch den Bediener erforderlich und der Knoten wird in dem Zustand left Cluster gelassen.
  • Jegliche Konfigurationsinformationen, die der Herunterfahragent benötigt, müssen durch den Verfasser des Herunterfahragenten definiert und in einer unabhängigen Konfigurationsdatei konfiguriert werden. Die Herunterfahragenten sind so ausgelegt, daß sie unabhängige Prozesse sind. Die erforderliche Betriebsumgebung eines Herunterfahragenten besteht darin, daß
    • a. Installationsanforderungen befolgt werden müssen,
    • b. die erforderlichen Befehlszeilenoptionen unterstützt sein müssen und
    • c. die erforderliche Laufzeitaktion durchgeführt werden muß.
  • Wenn ein neuer Herunterfahragent entwickelt wird, müssen der Herunterfahr-Daemon und die "SCON", falls eine existiert, nicht umqualifiziert werden, nur der neue Herunterfahragent muß qualifiziert werden.
  • Die Vorteile der Herunterfahreinrichtung SF gegenüber existierenden RMS/SCON-Systemen sind die folgenden:
    • a. Möglichkeit, einen Cluster-Knoten mit oder ohne Betrieb eines Failover-Managers (RMS) herunterzufahren.
    • b. Möglichkeit, einen Cluster-Knoten mit oder ohne Betrieb einer SCON herunterzufahren.
    • c. Möglichkeit, einen Cluster-Knoten von einem beliebigen Produkt der Cluster-Service-Schicht aus herunterzufahren.
    • d. Das existierende Failover-Manager-System (RMS und SCON) ist auf allen Clustern, ungeachtet der Anzahl von Knoten und der Plattformmischung optional.
    • e. Auf Clustern mit SCON sind redundante Herunterfahrmethoden verfügbar, weil die SCON ihre existierende Methode sowie die in den Herunterfahragenten implementierten Methoden verwendet.
    • f. Auf Clustern ohne SCON sind redundante Herunterfahrmethoden verfügbar, weil mehrere Herunterfahragenten verfügbar sind und jeder Herunterfahragent eine Herunterfahrmethode implementiert.
    • g. Schnellere Qualifikationszyklen bei der Einführung eines neuen Herunterfahragenten, weil der Herunterfahr-Daemon und der Failover-Manager (RMS/SCON), falls einer existiert, nicht umqualifiziert werden müssen.
    • h. Aktive Überwachung konfigurierter Herunterfahragenten, so daß ein Bediener über einen Ausfall benachrichtigt werden kann, bevor dieser Agent benutzt werden muß.

Claims (8)

  1. Verfahren zum Eliminieren eines Computers aus einem Cluster mit zwei oder mehr Computern, um Datenintegrität und Anwendungswiederherstellung auf einem anderen Computer zu garantieren, wobei auf allen Computern in dem Cluster eine Herunterfahreinrichtung installiert ist, dadurch gekennzeichnet, daß eine Vielzahl unabhängiger Herunterfahragenten bei der Herunterfahreinrichtung registriert sind und daß die Herunterfahragenten auf allen Computern in dem Cluster installiert sind.
  2. Verfahren nach Anspruch 1, wobei die Herunterfahreinrichtung und die Herunterfahragenten auch auf einer Single Console (SCON) installiert sind, wenn eine existiert.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Herunterfahreinrichtung einen Herunterfahr-Daemon umfaßt.
  4. Verfahren nach Anspruch 3, wobei die Herunterfahragenten unabhängige Befehle sind, die durch den Herunterfahr-Daemon oder SCON, falls ein solcher bzw. eine solche existiert, aufgerufen werden können.
  5. Verfahren nach einem der Ansprüche 3 oder 4, wobei der Herunterfahr-Daemon durch eine Befehlszeilenanforderung oder ein Ereignis der Cluster Foundation, falls eine existiert, ausgelöst wird.
  6. Verfahren nach einem der Ansprüche 3 bis 5, wobei eine Herunterfahranforderung durch Aufrufen eines oder mehrerer in einer Konfigurationsdatei des Herunterfahr-Daemon definierter Herunterfahragenten erfüllt wird.
  7. Verfahren nach Anspruch 6, wobei die Konfigurationsdatei eine geordnete Liste von Herunterfahragenten definiert, dergestalt, daß der erste Herunterfahragent in der Liste ein bevorzugter Herunterfahragent ist, der zuerst ausgegeben wird, wenn eine Herunterfahranforderung verarbeitet wird, und wenn seine Antwort ein erfolgloses Herunterfahren anzeigt, der nächste Herunterfahragent ausgegeben wird, bis entweder ein Herunterfahragent mit einem erfolgreichen Herunterfahren antwortet oder alle Herunterfahragenten ersucht wurden.
  8. Verfahren nach Anspruch 3, wobei der Herunterfahr-Daemon den Status jedes Herunterfahragenten verfolgt, so daß ein Bediener benachrichtigt werden kann, wenn ein Herunterfahragent unverfügbar wird.
DE60201077T 2002-06-13 2002-06-13 Verfahren um einen Computer aus einem Cluster zu entfernen Expired - Lifetime DE60201077T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP02013454A EP1372075B1 (de) 2002-06-13 2002-06-13 Verfahren um einen Computer aus einem Cluster zu entfernen

Publications (2)

Publication Number Publication Date
DE60201077D1 DE60201077D1 (de) 2004-09-30
DE60201077T2 true DE60201077T2 (de) 2005-09-15

Family

ID=29558343

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60201077T Expired - Lifetime DE60201077T2 (de) 2002-06-13 2002-06-13 Verfahren um einen Computer aus einem Cluster zu entfernen

Country Status (4)

Country Link
US (1) US20030233597A1 (de)
EP (1) EP1372075B1 (de)
AT (1) ATE274721T1 (de)
DE (1) DE60201077T2 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138225A (ja) * 2009-12-25 2011-07-14 Canon Inc クラスタシステム、情報処理装置、制御方法、及びプログラム
US10289400B2 (en) * 2016-09-07 2019-05-14 Amplidata N.V. Outdated resource handling and multiple-version upgrade of cloud software

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69032508T2 (de) * 1989-12-22 1999-03-25 Tandem Computers Inc., Cupertino, Calif. Fehlertolerantes Rechnersystem mit Online-Wiedereinfügung und Abschaltung/Start
US5781770A (en) * 1994-06-01 1998-07-14 Northern Telecom Limited Method and controller for controlling shutdown of a processing unit
US5699500A (en) * 1995-06-01 1997-12-16 Ncr Corporation Reliable datagram service provider for fast messaging in a clustered environment
US5822531A (en) * 1996-07-22 1998-10-13 International Business Machines Corporation Method and system for dynamically reconfiguring a cluster of computer systems
JPH10187638A (ja) * 1996-10-28 1998-07-21 Mitsubishi Electric Corp クラスタ制御システム
US6151688A (en) * 1997-02-21 2000-11-21 Novell, Inc. Resource management in a clustered computer system
US6192483B1 (en) * 1997-10-21 2001-02-20 Sun Microsystems, Inc. Data integrity and availability in a distributed computer system
DE19837008C2 (de) * 1998-08-14 2000-06-21 Siemens Nixdorf Inf Syst Verfahren und Vorrichtung zur Analyse und Behandlung von Störungen in einem Datennetz
US6467050B1 (en) * 1998-09-14 2002-10-15 International Business Machines Corporation Method and apparatus for managing services within a cluster computer system
US6389551B1 (en) * 1998-12-17 2002-05-14 Steeleye Technology, Inc. Method of preventing false or unnecessary failovers in a high availability cluster by using a quorum service
US6363495B1 (en) * 1999-01-19 2002-03-26 International Business Machines Corporation Method and apparatus for partition resolution in clustered computer systems
US6438705B1 (en) * 1999-01-29 2002-08-20 International Business Machines Corporation Method and apparatus for building and managing multi-clustered computer systems
US6789213B2 (en) * 2000-01-10 2004-09-07 Sun Microsystems, Inc. Controlled take over of services by remaining nodes of clustered computing system
US6918051B2 (en) * 2001-04-06 2005-07-12 International Business Machines Corporation Node shutdown in clustered computer system

Also Published As

Publication number Publication date
ATE274721T1 (de) 2004-09-15
DE60201077D1 (de) 2004-09-30
EP1372075A1 (de) 2003-12-17
EP1372075B1 (de) 2004-08-25
US20030233597A1 (en) 2003-12-18

Similar Documents

Publication Publication Date Title
DE2908316C2 (de) Modular aufgebaute Multiprozessor-Datenverarbeitungsanlage
DE69021122T2 (de) Verfahren und Gerät zur ununterbrochenen Versorgung von Anwendungen in einem Rechnernetzwerk.
DE69128271T2 (de) Verfahren und System zur Erhöhung der Betriebsverfügbarkeit eines Systems von Rechnerprogrammen, wirkend in einem verteilten Rechnerssystem
DE69811148T2 (de) Mitgliedschaft in einem unzuverlässigen verteilten Rechnersystem
EP0607493B1 (de) Realzeit-Steuerungssystem
DE69533230T2 (de) Verfahren und vorrichtung zur verbesserung der fehlertoleranz eines netzwerkes
DE60106467T2 (de) Verfahren zum Installieren Überwachungsagenten, System und Computerprogramm von Objekten in einem IT-Netz Überwachung
DE69715967T2 (de) Quorummechanismus in einem verteilten Zweiknotenrechnersystem
DE69528994T2 (de) Verfahren und anordnung zur prozessgestützten nachrichtenverarbeitung in einem kommunikationssystem
DE69407185T2 (de) Eine integrierte Produktionsumgebung mit PROGRAMM-ZU-PROGRAMM- KOMMUNIKATIONS-SERVER und zugehöriges Verfahren
DE2740056A1 (de) Mulitprozessor-rechnersystem
DE4305522C2 (de) Einrichtung zur rechnergestützten Diagnose eines aus Modulen bestehenden technischen Systems
DE112010004530B4 (de) Transaktionsaktualisierung bei Dynamischen Verteilten Arbeitslasten
DE102004005128B3 (de) Anordnung mehrerer Rechner und Verfahren zum Betreiben einer Anordnung mehrerer Rechner bei einem Rechnerausfall
DE9300562U1 (de) Steuerungssystem eines Vermittlungssystems
EP1358554B1 (de) Automatische inbetriebnahme eines clustersystems nach einem heilbaren fehler
DE69422158T2 (de) Verfahren und System in einem verteilten Betriebssystem
DE102016219854A1 (de) Computersystem und Verfahren zum dynamischen Anpassen eines software-definierten Netzwerks
DE60201077T2 (de) Verfahren um einen Computer aus einem Cluster zu entfernen
EP0496927B1 (de) Verfahren für den fehlerbedingten Neustart eines Multiprozessorrechners eines Fernmeldevermittlungssystems
EP0562353A2 (de) Verfahren zum Übertragen hochpriorer Programme und Daten in einem Kommunikationssystem
WO2001063408A2 (de) Verfahren zur sicherstellung der kompatibilität und verfahren zur datensicherung innerhalb eines verteilten rechnersystems
DE19520747C2 (de) Infrastruktur für ein System von verteilten Objektmanager-Komponenten
DE19520744C2 (de) Infrastruktur für ein System von verteilten Objektmanager-Komponenten
DE10049621A1 (de) Verfahren zum Betreiben eines Datenverarbeitungssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition