DE69506155T2 - Asynchrones Datenfernkopieren - Google Patents

Asynchrones Datenfernkopieren

Info

Publication number
DE69506155T2
DE69506155T2 DE69506155T DE69506155T DE69506155T2 DE 69506155 T2 DE69506155 T2 DE 69506155T2 DE 69506155 T DE69506155 T DE 69506155T DE 69506155 T DE69506155 T DE 69506155T DE 69506155 T2 DE69506155 T2 DE 69506155T2
Authority
DE
Germany
Prior art keywords
subsystems
checkpoint
subsystem
signal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69506155T
Other languages
English (en)
Other versions
DE69506155D1 (de
Inventor
William Frank Tucson Arizona 85718 Micka
Robert Wesley Morgan Hill California 95037 Shomler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Application granted granted Critical
Publication of DE69506155D1 publication Critical patent/DE69506155D1/de
Publication of DE69506155T2 publication Critical patent/DE69506155T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • G06F11/2074Asynchronous techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2064Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring while ensuring consistency
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C29/00Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation
    • G11C29/70Masking faults in memories by using spares or by reconfiguring
    • G11C29/74Masking faults in memories by using spares or by reconfiguring using duplex memories, i.e. using dual copies
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Control Or Security For Electrophotography (AREA)

Description

  • Die vorliegende Erfindung betrifft das asynchrone Datenfernkopieren oder -duplizieren, um den Datenerhalt in einem Informationsverarbeitungssystem zu ermöglichen, wobei Informationen von einem Speicher-Subsystem einer Primärstation an eine ferne Datenstation kopiert werden können.
  • Das Kopieren von Daten ist eine Form der Datenerhaltung in einem Informationsverarbeitungs- oder Rechnersystem. Jedoch müssen bei der Datenerhaltung mittels dem Kopieren von Daten viele Faktoren berücksichtigt werden. Dies ist dort von besonderer Bedeutung, wo vorweg angenommen wird, daß die an eine ferne Station kopierten und dort gespeicherten Daten die Reservedatenbank für eine fortgesetzte Interaktion mit den Daten sein würden, falls die Arbeit und die Daten an einer Primärstation nicht mehr verfügbar wären. Zu den Faktoren, die beim Kopieren von Interesse sind, gehören die Schutzdomäne (System- und/oder Umgebungsausfall oder Geräte- und/oder Datenträgerausfall), der Datenverlust (kein Verlust/Teilverlust), der Zeitpunkt, zu dem der Kopiervorgang in Bezug auf das Auftreten anderer Daten und Prozesse geschieht (Zeitpunkt/Echtzeit), der Unterbrechungsgrad von Anwendungen, die auf dem Rechner ausgeführt werden, und die Frage, ob die Kopie auf der Anwendung oder dem Speichersystem basiert. In Bezug auf den letzten Faktor schließt der auf der Anwendung basierende Kopiervorgang Protokolldateien, Datendateien und Programmroutinen ein, während der auf dem Speicher basierende Kopiervorgang ein Verständnis der Adressen der Direktzugriffsspeichereinheiten (DASDs) ohne Kenntnis der Datentypen oder der anwendungsseitigen Verwendung der Daten einschließt.
  • Echtzeit-Datenfernduplizierungssysteme erfordern ein Mittel, das dazu dient, die Aktualisierungsfolgeintegrität als Schreibaktualisierungen der Datenkopie der sekundären oder fernen DASD zu gewährleisten. Eine Möglichkeit, dies zu erreichen, ist die Bereitstellung eines synchronen Systems zur Steuerung der DASD- Subsysteme. In einem solchen System wird eine Schreiboperation der primären DASD erst ausgeführt, wenn eine Kopie dieser Daten an einer sekundären Datenstation bestätigt worden ist. Das Problem bei diesen synchronen Systemen ist, daß sie den Gesamtbetrieb des Duplizierungssystems verlangsamen.
  • Asynchrone Kopiersysteme erreichen die Folgeintegrität durch eine Zentralisierung und Konsolidierung der Datenübertragungen zwischen primären und sekundären DASD-Subsystemen über ein zentrales Übertragungssystem. In solchen Systemen kann ein System an der Primärstation die Reihenfolge von verschiedenen Aktualisierungsschreiboperationen zwischen allen DASD-Subsystemen an der Primärstation feststellen und diese Informationen an das DASD-Subsystem an der fernen Station übertragen. Das sekundäre Subsystem wiederum verwendet die Reihenfolgeinformationen von dem primären Subsystem, um die Anwendung von Aktualisierungsdaten auf die Datenkopie der sekundären DASD zu steuern. Bekannte asynchrone Kopiersysteme, die von zentralen Datenübertragungen Gebrauch machen, sind nachstehend beschrieben.
  • Mc Ilvain und Shomler, US-Patentanmeldung Nummer 08/036 017 mit dem Titel "Method and Means for Multi-System Remote Data Duplexing and Recovery" (EP A 617362), beschreiben die Verwendung einer Speichervermittlungs-Nachrichtenschnittstelle auf der DASD-Speicherverwaltungsebene zwischen einer Quelle von Aktualisierungskopien und einer fernen Station in einer Host-zu- Host-Verbindung, bei welcher der Unterschied bei der Aktualisierungsvollständigkeit oder dem Verlust der Reihenfolge von Schreibaktualisierungen im Falle einer Unterbrechung vollständig angegeben werden könnte.
  • Cheffetz u.a., US-Patentschrift 5 133 065 mit dem Titel "Backup Computer Program for Networks", ausgegeben am 21. Juli 1992, beschreiben ein lokales Netzwerk (LAN), das einen Datei-Server hat, an den jeder lokale Knoten eine von ihm erstellte Liste von lokalen Dateien, die gesichert werden müssen, überträgt. Solch eine ferne Erzeugung verringert den Verkehr an der Stelle, an der ein Netzwerk-Server die Listenerstellungs- und Dateikopieraktivität einleitet. Argumentationshalber sei erwähnt, daß der vor diesem in Bezug genommenen Schriftstück veröffentlichte Stand der Technik eine zentral verwaltete Dateiauswahl lehrte. Dies führte zu Kompromissen bei der Sicherheit der lokalen Knoten und einer Überbeanspruchung des Servers. Dies wird vermutlich durch die von den lokalen Knoten erstellten Listen und der Übertragung der Listen an den Datei-Server nach Cheffetz vermieden.
  • Beale u.a., US-Patentschrift 5 155 845 mit dem Titel "Data Storage System for Providing Redundant Copies of Data on Different Disk Drives", kopieren Datensätze veränderlicher Länge (CKD) in zwei oder mehr externe Speicher, indem sie veranlassen, daß eine Schreiboperation von der ersten Speichersteuereinheit verarbeitet und über eine Direktverbindung (Breitbandpfad) parallel an die zweite Speichersteuereinheit übertragen wird, wobei die Pfadlängenbegrenzung zwischen der primären und der fernen Kopierstation vermieden wird. Der Anlaß für diese Begrenzung ist die Tatsache, daß die Architektur der CDK- Schreib-/Leseantwort auf eine Länge von 150 m begrenzt ist.
  • Ein weiteres Beispiel für ein asynchrones System, das ein zentrales System verwendet, ist in der US-Patentanmeldung mit dem Titel "Remote Data Duplexing Asynchronous Information Packet Message" von Micka u.a. (EP A 602822) beschrieben. Dieses System beschreibt ein System, das dazu dient, Daten von Direktzugriffsspeichereinheiten (DASDs) in einer Vielzahl von DASD- Subsystemen asynchron zu duplizieren und den Vorteil hat, daß die Datenduplizierungsoperation von der DASD-E/A-Schreiboperation entkoppelt wird. Dies gewährleistet, daß die Schreiboperation keine unnötigen Wartezustände in dem Subsystem hervorruft. Durch die Festlegung eines Folgeprüfpunkts, zu dessen Zeitpunkt eine Reihe von Informationspaketen zu einer Gruppe zusammengefaßt und als eine einzige Folgeeinheit verarbeitet wird, findet diese Entkopplung und unabhängige Operation statt. Durch diese Unabhängigkeit kann das Kopieren von Daten an eine sekundäre Datenstation stattfinden, ohne die Leistungsfähigkeit der Subsysteme und auch die entsprechende Integrität der Daten, die aktualisiert werden, nachteilig zu beeinflussen.
  • EP-A-602822 beschreibt ein System zur asynchronen Duplizierung von Daten von Direktzugriffsspeichereinheiten (DASDs) in einer Vielzahl von DASD-Subsystemen. Vorteilhafterweise entkoppelt das System die Datenduplizierungsoperation von der DASD-E/A- Schreiboperation und stellt dadurch sicher, daß eine Schreiboperation keine unnötigen Wartezustände in einem Subsystem hervorruft. Das System verwendet einen Folgeprüfpunkt als Teil dieses Entkopplungsprozesses.
  • Es sind Systeme in Gebrauch, in denen es keinen zentralen Übertragungsdienst zwischen den primären und den sekundären Datenstationen gibt. Bei solchen Systemkonfigurationen hat jedes primäre Subsystem häufig eine direkte, unabhängige Verbindung zu einem ausgewählten sekundären Subsystem. Ein solches System, das Subsysteme enthält, die reihenfolgekonsistente asynchrone Schreiboperationen ermöglichen, kann nicht mit bekannten asynchronen Kopierschemata adressiert werden.
  • Folglich stellt die Erfindung ein Verfahren zum Betreiben eines asynchronen Datenfernkopiersystems bereit, das eine Primärstation enthält, die eine erste Vielzahl von Speicher-Subsystemen hat, die durch ein erstes Kopplungsmittel miteinander verbunden sind, und eine von der Primärstation entfernte Sekundärstation, die eine zweite Vielzahl von Speicher-Subsystemen hat, die durch ein zweites Kopplungsmittel miteinander verbunden sind, wobei jedes der zweiten Vielzahl der Speicher-Subsysteme unabhängig von den anderen mit einem Gegenstück der ersten Vielzahl der Speicher-Subsysteme verbunden ist, wobei das Verfahren die folgenden Schritte umfaßt:
  • in der ersten Vielzahl der Subsysteme
  • Senden eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme;
  • Senden von Datenaktualisierungen und des Prüfpunktsignals an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme; und
  • in der zweiten Vielzahl der Subsysteme
  • Empfangen und Puffern der Datenaktualisierungen und der Prüfpunktsignale;
  • und Koordinieren des Schreibens der Datenaktualisierungen auf der Grundlage der Prüfpunktsignale, so daß die Integrität der Aktualisierungsfolgen an der Sekundärstation gewahrt bleibt. Dieses Verfahren stellt unabhängige Verbindungen zwischen primären und sekundären Subsystemen ohne ein zentrales Übertragungssystem zur Verfügung und ermöglicht ein reihenfolgekonsistentes Fernkopieren von einer aus mehreren Subsystemen beste henden Gruppe an einer Station an eine aus mehreren Subsystemen bestehende zweite Gruppe an einer zweiten Station. Das asynchrone Kopiersystem ist einfach und kostengünstig und stellt kein großes Hindernis für den Gesamtbetrieb der Subsysteme dar.
  • In einer bevorzugten Ausführungsform umfaßt der Schritt des Sendens eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme des weiteren den Schritt der Verteilung eines Folgesignals an der Primärstation, wobei das Prüfpunktsignal Informationen enthält, die den Wert des Folgesignals anzeigen. Dieses Folgesignal wird verwendet, um den Gleichlauf zwischen den verschiedenen Subsystemen sicherzustellen. Wenn das Netzwerk jedoch eine schnelle und zuverlässige Verteilung der Prüfpunktnachrichten gewährleisten kann, ist es in manchen Situationen möglich, auf das Folgesignal zu verzichten.
  • Es ist des weiteren vorzugsweise erwünscht, daß der Schritt des Sendens von Datenaktualisierungen und eines Prüfpunktsignals an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme die folgenden Schritte umfaßt: Asynchrones Erzeugen einer Folge von Datenaktualisierungen an jedem der ersten Vielzahl der Subsysteme; Ordnen einer jeden der Folgen entsprechend dem verteilten Folgesignal und dem Prüfpunktsignal; und asynchrones Übertragen von Aktualisierungsfolgen von jedem der ersten Vielzahl der Subsysteme an ein Subsystem-Gegenstück.
  • In einer bevorzugten Ausführungsform umfaßt das Verfahren des weiteren die folgenden ersten Schritte an der Primärstation: Aktivieren eines jeden der ersten Vielzahl der Subsysteme, damit es mit den anderen Subsystemen in der ersten Vielzahl der Subsysteme kommuniziert; Aktivieren eines jeden der ersten Vielzahl der Subsysteme, damit es mit seinem Subsystem-Gegenstück in der zweiten Vielzahl der Subsysteme, mit dem es verbunden ist, kommuniziert; Erstellen von mindestens einer Konfi gurationstabelle in jedem der ersten Vielzahl der Subsysteme, so daß jedes der ersten Vielzahl der Subsysteme alle anderen Subsysteme in der ersten Vielzahl der Subsysteme erkennen kann; und Synchronisieren der ersten Vielzahl der Subsysteme; und das Verfahren umfaßt des weiteren die folgenden ersten Schritte an der Sekundärstation: Empfangen von Kopiervorgang- Aktiv-Nachrichten in der zweiten Vielzahl der Subsysteme; Erstellen von Kopiervorgang-Aktiv-Tabellen in der zweiten Vielzahl der Subsysteme; und Synchronisieren von Kopieroperationen der zweiten Vielzahl der Subsysteme;
  • und wobei der Koordinierungsschritt des weiteren den Schritt der Durchführung eines Treffens aller Prüfpunktsignale in der zweiten Vielzahl der Subsysteme umfaßt.
  • Ebenfalls in einer bevorzugten Ausführungsform umfaßt das Verfahren des weiteren die folgenden ersten Schritte:
  • an der Primärstation als Antwort auf die Einleitung eines Vorgangs "Kopieroperation starten" an jedem der Subsysteme in der ersten Vielzahl der Subsysteme Feststellender Untergruppe der Vielzahl der Subsysteme, die eine Kopiersatzgruppe bildet, und Bestimmen eines der Vielzahl der Subsysteme zu einer Takt- und Prüfpunktsignalquelle, wobei jedes Prüfpunktsignal einen Folgetaktwert und eine erhöhte Folgenummer enthält;
  • an der Sekundärstation als Antwort auf die Einleitung eines Vorgangs "Kopieroperation starten" an jedem der Subsysteme in der zweiten Vielzahl der Subsysteme Feststellen der Untergruppe der Vielzahl der Subsysteme, die eine Kopiersatzgruppe bildet, und Bestimmen eines der Vielzahl der Subsysteme zu einem Prüfpunktsignal-Treffpunkt, um die zweite Vielzahl der Subsysteme zu synchronisieren;
  • und wobei der Schritt des Sendens eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme die Schritte der periodischen Erzeugung von Taktsignalen und Prüfpunktsignalen durch das ausgewählte Subsystem an der Primärstation und die Übertragung der Takt- und Prüfpunktsignale in der Folge ihres Auftretens an andere Subsysteme, welche die Kopiersatzgruppe an der Primärstation bilden, einschließlich seiner selbst, umfaßt;
  • und wobei der Schritt des Sendens von Datenaktualisierungen und des Prüfpunktsignals an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme für jedes Subsystem in der Kopiersatzgruppe die asynchrone Bildung einer lokalen Folge von aktualisierten Datensätzen umfaßt, wobei die Takt- und Prüfpunktsignale in die Folge eingebunden werden, um eine nach dem Zeitpunkt unterschiedene Gesamtanordnung von aktualisierten Datensätzen zu bilden, und Senden von mindestens einem Teil der Folge an das Subsystem-Gegenstück an der Sekundärstation;
  • und wobei der Schritt der Koordination des Schreibens von Datenaktualisierungen und Prüfpunktsignalen an der Sekundärstation die Schritte des Sendens des Prüfpunktsignals an das ausgewählte Subsystem an der Sekundärstation durch jedes Subsystem in der Kopiersatzgruppe und das Schreiben der Folgen oder von Teilen der Folgen, die in den Subsystemen gepuffert sind, erst nach einem Signal von dem ausgewählten Subsystem, das dessen Empfang aller an das Subsystem gesandten Prüfpunktsignale anzeigt, umfaßt.
  • Jedes Prüfpunktsignal zeigt an, daß alle Datenaktualisierungen mit einem Taktsignal, dessen Folgenummer kleiner als der Prüfpunktsignal-Folgetaktwert ist, an das sekundäre Subsystem-Gegenstück übertragen worden sind.
  • Die Erfindung stellt ferner ein asynchrones Datenfernkopiersystem bereit, das eine Primärstation enthält, die eine erste Vielzahl von Speicher-Subsystemen hat, die durch ein erstes Kopplungsmittel miteinander verbunden sind, und eine von der Primärstation entfernte Sekundärstation, die eine zweite Vielzahl von Speicher-Subsystemen hat, die durch ein zweites Kopplungsmittel miteinander verbunden sind, wobei jedes der zweiten Vielzahl der Speicher-Subsysteme unabhängig von den anderen mit einem Gegenstück der ersten Vielzahl der Speicher-Subsysteme verbunden ist,
  • wobei die erste Vielzahl der Subsysteme ein Mittel enthält, um an jedes der ersten Vielzahl der Subsysteme ein Prüfpunktsignal zu senden; und ein Mittel, um Datenaktualisierungen und das Prüfpunktsignal an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme zu senden; und
  • die zweite Vielzahl der Subsysteme ein Mittel enthält, um die Datenaktualisierungen und die Prüfpunktsignale zu empfangen und zu puffern; und ein Mittel, um das Schreiben der Datenaktualisierungen auf der Grundlage der Prüfpunktsignale so zu koordinieren, daß die Integrität der Aktualisierungsfolgen an der Sekundärstation gewahrt bleibt.
  • Vorzugsweise umfaßt das Mittel, das dazu dient, Datenaktualisierungen und das Prüfpunktsignal an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme zu senden, ein Mittel, das auf das Mittel zum Senden eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme anspricht, um das Prüfpunktsignal in eine Datenaktualisierungsfolge von jedem der ersten Vielzahl der Subsysteme an dessen Subsystem-Gegenstück einzufügen.
  • Folglich können das vorstehende Verfahren und Mittel zum Fernkopieren von Daten an sekundären DASD-Subsystemen verwendet werden. Bei einer solchen Ausführung sind die sekundären DASD- Subsysteme typischerweise gleichwertig mit DASD-Subsystem-Gegenstücken, die an einen primären Host angeschlossen sind, verbunden. Der Vorgang "Kopieroperation starten" wird am Host durch eine Nachrichtenübertragung an alle primären DASD-Subsysteme eingeleitet. Jedes primäre Subsystem erstellt eine Konfigurationstabelle unter Verwendung eines lokalen Netzwerks oder eines anderen geeigneten Mittels als teilassoziative Vorrichtung zur Erstellung von Tabellen. Diese Tabelle weist alle teilnehmenden primären Subsysteme aus. Auch synchronisiert jedes primäre Subsystem seinen lokalen Takt oder eine andere Zeitreferenz auf denjenigen eines ausgewählten primären Subsystems, wobei das ausgewählte primäre Subsystem als Takt- und Prüfpunktnachrichtenquelle dient. Das ausgewählte primäre Subsystem sendet in regelmäßigen Abständen Prüfpunktnachrichten, die einen Folgezeitwert und eine aufsteigende Prüfpunktfolgenummer haben, an jedes primäre Subsystem. Diese werden in dessen lokale Kopierschreibdatensatzfolge eingefügt. An den mit dem sekundären Host verbundenen DASD-Subsystemen wird eines der sekundären Subsysteme zu einer lokalen Synchronisationsquelle bestimmt. Jedes sekundäre Subsystem erstellt eine Konfigurationstabelle von Subsystemen mit einem aktiven Kopiervorgang und koppelt sich an das primäre Subsystem-Gegenstück an. Als nächstes empfängt jedes sekundäre Subsystem asynchron eine Kopierfolge von ihrem primären Gegenstück und puffert diese lokal. Jede empfangene Folge enthält Prüfpunktnachrichten, die an dem primären Subsystem darin eingebunden wurden, nachdem alle mit einem Zeitstempel versehenen, schreibaktualisierten Datensätze gesendet worden sind. Als Antwort auf den Empfang einer Prüfpunktnachricht sendet sie das sekundäre Subsystem an die lokale Synchronisationsquelle. Von dieser Quelle wird prüfpunktnachrichtenübergreifend ein Treffen durchgeführt. Somit schreibt jedes sekundäre Subsystem nach dem Empfang des Treffen-vollständig-Signals von der Synchronisationsquelle Daten aus dem Puffer in die DASD. Wenn eines oder mehrere der primären DASD-Subsysteme nicht mehr verfügbar sind, treten ihre Gegenstücke an der Sekundärstation aus der Kopiergruppe aus. Dies geschieht erst nach der Fertigstellung von im Gang befindlichen Aktualisierungen.
  • Diese Vorgehensweise erlaubt die verteilte, dezentrale, systembetriebene Steuerung einer reihenfolgekonsistenten, asynchronen Echtzeit-Datenkopie von einer Gruppe von DASD-Subsystemen an einer primären Datenstation an eine Gruppe von DASD-Subsystemen an einer sekundären Datenstation, wobei primäre Subsysteme mit sekundären Subsystemen getrennt und unabhängig verbunden sind. Dadurch wird es möglich, die Integrität der Aktualisierungsfolge einer Datenkopie an einer Vielzahl von Subsystemen zu wahren, die sich in einiger Entfernung von einer Quelle einer asynchron und unabhängig erzeugten Folge von Schreiboperationen befinden, wobei sich eine erste Vielzahl von Subsystemen an einer Primärstation befindet, wobei die erste Vielzahl der Subsysteme durch ein erstes Kopplungsmittel miteinander verbunden ist, und sich eine zweite Vielzahl von Subsystemen an einer von der Primärstation entfernten Station befindet, wobei die zweite Vielzahl der Subsysteme durch ein zweites Kopplungsmittel miteinander verbunden ist, wobei jedes der zweiten Vielzahl der Subsysteme unabhängig von den anderen mit einem der ersten Vielzahl der Subsysteme verbunden ist.
  • In einem System zum Fernkopieren von Daten an einer Sekundärstation, die eine Kopplungsvielzahl von Speichereinheit-(DASD- )Subsystemen hat, die durch ein erstes Kopplungsmittel miteinander verbunden sind, wobei die sekundären DASD-Subsysteme mit Gegenstücken einer Vielzahl von DASD-Subsystemen an einer fernen Primärstation verbunden sind, wobei die sekundären DASD- Subsysteme durch ein zweites Kopplungsmittel miteinander verbunden sind, wobei das System an der Primärstation ein Mittel enthält, um den Vorgang "Kopieroperation starten" einzuleiten, ist somit ein Verfahren bereitgestellt, das die folgenden Schritte umfaßt:
  • (a) an der Primärstation und an der Sekundärstation Bilden von jeweils m Kopiersatzgruppen von DASD-Subsystemen;
  • (b) an der Primärstation:
  • (1) jedes der m Subsysteme zur asynchronen Erzeugung einer Folge von aktualisierten Schreibdatensätzen veranlassen;
  • (2) Ordnen einer jeden der Folgen, indem gemeinsame Taktwerte und eine periodische Prüfpunktnachricht mit einem gemeinsamen Taktwert eingebunden und eine Folgenummer in jeder der Folgen erhöht werden;
  • (3) DASD-Subsystem-Gegenstücke zwischen den Stationen miteinander verbinden und Folgen von einem jeden der Subsysteme der Primärstation asynchron in einen gepufferten Teil eines Subsystem-Gegenstücks der Sekundärstation übertragen; und
  • (c) an der Sekundärstation Schreiben der gepufferten Folgen in die DASDs in den Subsystem-Gegenstücken in Abhängigkeit von einer jeden Prüfpunktnachricht.
  • Eine Ausführungsform der Erfindung wird nun lediglich anhand eines Beispiels mit Bezug auf die folgenden Zeichnungen ausführlich beschrieben:
  • Fig. 1 ist eine Konfiguration eines herkömmlichen Datenfernkopiersystems;
  • Fig. 2 ist ein gemäß der vorliegenden Erfindung konfiguriertes Zweifach-Fernkopiersystem;
  • Fig. 3 ist ein Flußdiagramm, das die allgemeine Betriebsweise des Zweifach-Fernkopiersystems von Fig. 2 zeigt; und
  • die Fig. 3A bis 3D sind ausführlichere Flußdiagramme, welche die Betriebsweise des Zweifach-Fernkopiersystems von Fig. 2 zeigen,
  • Zur Durchführung des asynchronen Fernkopierens muß (1) die Folge der Datenaktualisierungen an einer lokalen Station feststellbar sein; (2) diese Folge muß von der lokalen Station an eine ferne Station übertragbar sein; und (3) die ferne Station muß in der Lage sein, die Folge zu verwenden, um die Aktualisierung an der fernen Station zu steuern.
  • Wie zuvor erwähnt wurde, benötigen asynchrone Kopiersysteme nach dem Stand der Technik, die mehrere Subsysteme enthalten, ein zentrales System zur Bereitstellung der passenden Datenfolgen. Jedoch kann man Systemkonfigurationen finden, bei denen es nicht erwünscht ist, Aktualisierungsdaten zwischen den primären und den sekundären Datenstationen über einen zentralen Übertragungsdienst weiterzuleiten. Vielmehr ist es in solchen Konfigurationen erwünscht, DASD-Subsysteme an der Primär- und der Sekundärstation über unabhängige Subsystem-zu-Subsystem-Datenübertragungsverbindungen direkt miteinander zu verbinden. Ein solches System 10 ist in Fig. 1 gezeigt. Das System 10 enthält einen Host 11, der den primären Subsystemen 12' Daten bereitstellt. Wie gezeigt ist, ist jede der Verbindungen zwischen einem primären DASD-Subsystem 12' und dessen mit ihm gleichwertig verbundenen sekundären DASD-Subsystem 14' unabhängig. Folglich wäre diese Art von System zwangsläufig nicht in der Lage, reihenfolgekonsistente Schreiboperationen auszuführen.
  • Zur genaueren Beschreibung des Problems betrachten wir als Beispiel eine Folge von drei Schreiboperationen von einem herkömmlichen Datenbankverwaltungssystem (DBMS), das gerade dabei ist, eine Transaktion festzuschreiben. Das Beispiel ist typisch für ein Informationsverwaltungsdienst-(IMS-)System:
  • 1. Das DBMS schreibt in seine Protokolldatei; der geschriebene Datensatz enthält alte Datenbank-(DB-)Daten, neue DB- Daten (die durch diese Transaktion gerade geändert werden), und einen Datensatz mit seiner Absicht, diese Transaktion festzuschreiben (abzuschließen).
  • 2. Das DBMS wartet darauf, daß eine DASD-E/A-Operation meldet, daß sie abgeschlossen ist, und dann aktualisiert es seine Datenbankdateien, bei denen es sich um andere Datenträger handelt, die sich auf einem anderen DASD-Subsystem befinden. Durch diesen Schreibvorgang der neuen DB-Daten werden die alten DB-Datensätze überschrieben und damit zerstört.
  • 3. Das DBMS wartet darauf, daß die zweite DASD-E/A-Operation als abgeschlossen gemeldet wird und schreibt dann einen Festschreibungsdatensatz in seine Protokolldatei auf dem ersten Datenträger. Dieser Festschreibungsdatensatz "gewährleistet" zukünftigen IMS-Wiederherstellungsprozessen, daß die Datenbankdateien (DASD-Datenträger) aktualisiert worden sind.
  • Betrachten wir nun die Betriebsweise eines asynchronen Fernkopiersystems, das eine Konfiguration mit mehreren Subsystemen verwendet, wie sie beispielsweise in Fig. 1 gezeigt ist. In dieser Ausführungsform befindet sich die DBMS-Protokolldatei auf einem Datenträger, der für das oberste DASD-Subsystempaar (DASD 1 und DASD 1') konfiguriert ist, und die Datenbank-Datenträger befinden sich auf dem DASD-Subsystempaar, das an zweiter Stelle von oben gezeigt ist (DASD 2 und DASD 2'). In diesem Beispiel ist das primäre Subsystem 1 nur leicht beansprucht, und es verarbeitet seine in der Warteschlange befindliche Arbeit folglich ohne Verzögerung, während das primäre Subsystem 2 stark beansprucht ist und die Verarbeitung seiner in der Warteschlange befindlichen Arbeit einige Verzögerung erfährt. Zu der in der Warteschlange befindlichen Arbeit gehört die Weiterleitung von aktualisierten Daten an sein gleichwertiges Fernkopier-Subsystem.
  • Die folgende Reihenfolge würde den Ablauf im vorliegenden Beispiel beschreiben:
  • 1. Die E/A-Schreiboperation (1) von der Anwendung an das Subsystem 1 wird abgeschlossen.
  • 2. Die E/A-Schreiboperation (2) von der Anwendung an das Subsystem 2 wird abgeschlossen.
  • 3. Das primäre Subsystem I sendet Daten für die E/A-Operation (1) an das sekundäre Subsystem 1, das sie auf seine Cache- Speicherkopie des DASD-Datenträgers anwendet.
  • 4. Die E/A-Schreiboperation (3) vom Anwendungssystem an das Subsystem 1 wird abgeschlossen.
  • 5. Das primäre Subsystem 1 sendet Daten für die E/A-Operation (3) an das sekundäre Subsystem 1, das sie auf seine Cache- Speicherkopie des DASD-Datenträgers anwendet.
  • 6. Das primäre Subsystem 2 sendet Daten für die E/A-Operation (2) an das sekundäre Subsystem 2, das sie auf seine Cache- Speicherkopie des DASD-Datenträgers anwendet.
  • Wenn nach dem Schritt S und vor dem Schritt 6 ein Fehler an der Primärstation auftreten würde, würden verfälschte Daten in das System kopiert werden. Da der Fehler einen Zugriff auf die pri mären Subsysteme unmöglich gemacht hat, befinden sich die Daten von der E/A-Operation (2) nicht an der Sekundärstation.
  • Das Wesentliche der Datenfolgekonsistenz bei einem Fernkopierdienst ist, daß zu einem Zeitpunkt, zu dem die ferne DASD zur Wiederherstellung verwendet werden muß, zuverlässig dafür gesorgt wird, daß die neuen Daten von der obigen zweiten E/A- Operation nur gesehen werden, wenn die Daten von der ersten E/A-Operation ebenfalls vorhanden sind, und daß die Daten von der dritten E/A-Operation nur vorhanden sind, wenn die Daten von der zweiten E/A-Operation ebenfalls vorhanden sind. Man beachte den Verlust der Datenintegrität, wenn die Daten der dritten E/A-Operation vorhanden wären, die der zweiten E/A-Operation aber nicht. Das DBMS-Protokoll würde den Wiederherstellungsprozessen mitteilen, daß die Datenbank gültige Daten empfinge. Dies würde entweder zu einem DBMS-Fehler oder einem Fehler in der Geschäftsanwendung führen.
  • Die Folge der E/A-Operationen an den primären Subsystemen ist DASD 1, DASD 2, dann zurück zur DASD 1; aufgrund der Beanspruchung des DASD-Subsystems 2 sendet es die Daten seiner E/A- Operation (2) jedoch mit Verzögerung, so daß sie zu dem Zeitpunkt, zu dem die Daten der E/A-Operation (3) des DASD-Subsystems 1 vom sekundären DASD-Subsystem 1' empfangen wurden, noch nicht angekommen sind. Ohne Steuerung der Übertragung der Subsystemdaten an die Kopiedatenträger würde das Subsystem 1 seinen Kopiedatenträger sowohl mit (1) als auch mit (3) aktualisieren. Wenn es zu diesem Zeitpunkt an diesem Primärsystem zu einem katastrophalen Störfall kommen würde und die Operationen zur Wiederaufnahme an die Sekundärstation geleitet würden (wobei diese Möglichkeit der Grund dafür ist, daß man eine Echtzeit-DASD-Fernkopie hat), würde die wiederherstellende DBMS einen Protokolldatensatz vorfinden, der besagt, daß Datenbank- Datensätze geschrieben worden sind (in der E/A-Operation (2)), während sich die Daten für die E/A-Operation (2) nicht im DASD des sekundären Subsystems 2 befinden würden.
  • Mit solch unabhängigen Verbindungen stellte die Feststellung der Reihenfolge der Schreiboperationen zwischen unabhängigen primären DASD-Subsystemen, die Übertragung dieser Informationen an die Gruppe der Subsysteme an der sekundären Datenstation und die Steuerung der Reihenfolge der Aktualisierungen zwischen den unabhängigen DASD-Subsystemen an der sekundären Datenstation bisher ein Problem dar. Wie jedoch nachstehend ausführlich erklärt werden wird, werden ein System und ein Verfahren zur Feststellung der Reihenfolge, zur Übertragung und zur Aktualisierungssteuerung bereitgestellt, die eine reihenfolgekonsistente DASD-Datenfernkopie von mehreren unabhängigen DASD-Subsystemen an einer Datenstation an eine Gruppe von sekundären DASD-Subsystemen erlauben, wobei jedes Subsystem unabhängig mit gleichwertigen Subsystemen an der ersten Datenstation verbunden ist.
  • Fig. 2 ist ein Zweifach-Fernkopiersystem 20, das einen Host 11 enthält, der den primären Subsystemen 12 Daten bereitstellt. Das System 20 enthält eine erste Gruppe von DASD-Subsystemen 12, die sich an einer Primärstation befinden, und eine zweite Gruppe von DASD-Subsystemen 14, die sich an einer von der Primärstation entfernten Station befinden. Das System 20 enthält Koppler 16 und 18, welche die Verbindung der DASD-Subsysteme 12 beziehungsweise 14 ermöglichen.
  • Nun Bezug nehmend auf Fig. 2, basiert das System 20, das dazu dient, die Integrität einer Aktualisierungsfolge ohne ein zentrales Übertragungssystem zu erreichen, darauf, daß folgende Konfigurationen vorhanden sind.
  • 1. Mehrere DASD-Subsysteme einer primären Datenstation, von denen jedes über eine oder mehrere Datenübertragungsverbindungen mit einem gleichwertigen DASD-Subsystem an der sekundären Datenstation verbunden ist.
  • 2. Eine Kopplungsverbindung 16 aller Subsysteme an der Primärstation und eine ähnliche Kopplungsverbindung 18 aller Subsysteme an der Sekundärstation. Obwohl es nicht gezeigt ist, erkennt der Fachmann ohne weiteres, daß zum Zweck der Verbindungsredundanz mehrere physische Verbindungen integriert werden können. Der Begriff "Kopplung" wird der Einfachheit halber verwendet; jedes beliebige, geeignete Mittel zur Verbindung mehrerer physischer Netzwerke, wie beispielsweise ein lokales Netzwerk (LAN) oder dergleichen, kann verwendet werden.
  • 3. Jedes Subsystem hat einen "Takt" oder einen ähnlichen Synchronisationssignalprozeß, der mit einem Wert von einem anderen Subsystem, der über die Kopplung 16 übertragen wird, synchronisiert werden kann.
  • Drei Schritte werden angewandt, um die Integrität der Kopieraktualisierungsfolge zu erreichen: (1) Feststellung der Reihenfolge der Schreiboperationen zwischen allen DASD-Subsystemen an dem primären Subsystem; (2) Übertragung dieser Reihenfolgeinformationen an das sekundäre Subsystem; und (3) Verwendung dieser Informationen durch die sekundären DASD-Subsysteme, um die Reihenfolge der Aktualisierungsschreiboperationen über alle sekundären DASDs hinweg zu steuern. Diese drei Schritte werden nachstehend für ein Kopiersystem, das Zusammenschaltungen von mehreren lokalen Netzwerken an den sekundären und den primären Subsystemen verwendet, ausführlicher beschrieben.
  • 1. Die Zusammenschaltung von mehreren lokalen Netzwerken zwischen den primären DASDs zur Verteilung eines Folgesteuerungssignals, wie beispielsweise eines Zeittaktes, an alle Subsysteme dient dazu, jeder DASD-Schreiboperation von Daten, die in ein sekundäres DASD-Subsystem kopiert werden müssen, einen Reihenfolge-/Zeitwert zuzuordnen (wobei dieser Wert zusammen mit Aktualisierungsdaten an das sekundäre Subsystem gesandt wird)
  • 2. Die Ausbreitung von periodischen, nach ihrem Synchronisationszeitpunkt benannten Prüfpunktsignalen zwischen den primären DASD-Subsystemen, die von jedem primären Subsystem wiederum an dessen gleichwertig verbundene(s) sekundär es) Subsystem(e) übertragen werden; und
  • 3. Die Verwendung der Zusammenschaltung von mehreren lokalen Netzwerken zwischen sekundären DASD-Subsystemen, um ihre DASD-Aktualisierungsschreiboperationen von Kopierdaten, die sie von primären Subsystemen empfangen haben, zu koordinieren.
  • Nun Bezug nehmend auf Fig. 3, ist ein Flußdiagramm der allgemeinen Betriebsweise 100 eines solchen Systems gezeigt, das sich in dem primären Subsystem befindet. Zuerst wird über den Schritt 102 eine Anweisung "Kopieroperation starten" an alle primären Subsysteme gesandt, um die Übertragung zwischen den primären Subsystemen einzuleiten. Dann stellen einzelne Subsysteme über den Schritt 104 allen primären Subsystemen mit einem aktiven Kopiervorgang die passenden Reihenfolgeinformationen zur Verfügung. Anschließend übertragen die primären Subsysteme über den Schritt 106 die Reihenfolgeinformationen an die gleichwertig verbundenen sekundären Subsysteme. Schließlich werden diese Reihenfolgeinformationen über den Schritt 108 zur Steuerung von Aktualisierungen der sekundären Subsysteme verwendet.
  • Diese Schritte sind nachstehend ausführlich beschrieben:
  • Kopieroperation starten (Schritt 102)
  • Fernkopieroperationen für jedes DASD-Subsystem müssen durch eine Anweisung an dieses Subsystem gestartet werden. Die Anweisung kann über einen Befehl von einem Hostsystem (demselben System, das möglicherweise Anwendungen ausführt, die in die DASDs schreiben) kommen oder von einer Subsystem-Bedienerkonsole oder einem ähnlichen Mittel über eine im Subsystem befindliche Schnittstelle bereitgestellt werden.
  • Beschreibung der DASD-Schreibfolge an dem primären Subsystem (Schritt 104)
  • Nehmen wir nun Bezug auf Fig. 3A und die folgende Erörterung. Ungeachtet dessen, ob der Befehl vom Hostsystem oder der im Subsystem befindlichen Schnittstelle kommt, kennzeichnet die Anweisung "Kopieroperation starten" die zu kopierende DASD und veranlaßt das Subsystem, Übertragungen mit dem/den sekundären Subsystem(en), an das/die es angeschlossen ist, einzuleiten.
  • Die Anweisung "Kopieroperation starten" leitet auch die Übertragung von diesem DASD-Subsystem an andere primäre DASD-Subsysteme ein (Schritt 202). Die LAN-Verbindungsadressen von anderen primären DASD-Subsystemen können für jedes Subsystem konfiguriert oder in Informationen aufgenommen werden, die in der Anweisung "Kopieroperation starten" an das Subsystem enthalten sind. Wenn die Kopieroperation an einem Subsystem gestartet wird, sendet dieses Subsystem über den Schritt 204 eine Nachricht "Kopiervorgang am Subsystem aktiv" an alle anderen primä ren Subsysteme, für die es Adressen hat. Über den Schritt 206 erstellen und verwalten alle primären Subsysteme Konfigurationstabellen, so daß jedes Subsystem die Identität aller primären Subsysteme, die am Kopiervorgang teilnehmen, kennt. Jedes Subsystem, das eine Kopiervorgang-Aktiv-Nachricht von einem anderen Subsystem empfängt, markiert dieses Subsystem in seinen Konfigurationstabellen als ein Subsystem mit einem aktiven Kopiervorgang.
  • Als Teil des Austauschs von Kopiervorgang-Aktiv-Nachrichten mit den anderen primären Subsystemen, synchronisieren die Subsysteme ihre Folgetaktprozesse und wählen über den Schritt 208 ein Subsystem als Hauptquelle für ein Taktwert-Synchronisationssignal aus. Dies ist ein Taktsynchronisationsprozeß, der hier nicht beschrieben wird, da solche Prozesse in der Technik bekannt sind. Man beachte, daß die Taktsynchronisation in der Lage sein muß, eine Taktabweichung aufrechtzuerhalten, so daß die maximale Abweichung wesentlich geringer als der Zeitraum ist, den ein Subsystem benötigt, um einen Schreibbefehl von einem System zu empfangen, in einen Cachespeicher zu schreiben und das Ende einer E/A-Operation anzuzeigen, und den der Host benötigt, um den E/A-Abschlußstatus zu verarbeiten und eine neue DASD-E/A-Schreiboperation zu starten.
  • Während von jedem Subsystem Schreiboperationen ausgeführt werden, enthält das Subsystem in einer bevorzugten Ausführungsform den dann aktuellen Zeitfolgesignalwert zusammen mit anderen Steuerinformationen, die mit den DASD-Daten an sein angeschlossenes sekundäres Subsystem gesandt werden. Die DASD-E/A- Schreiboperation des primären Subsystems wird ohne Verzögerung fortgesetzt und nur um den Zeitraum verlängert, der notwendig ist, um Steuerinformationen für die an das sekundäre Subsystem zu sendenden Daten zu erstellen. DASD- und Steuerdaten werden nach dem Empfang im sekundären Subsystem gepuffert. Die Aktua lisierung der Kopie der sekundären DASD wird verzögert, bis sie von der sekundären Folgesteuerung freigegeben wird (nachstehend beschrieben).
  • Übertragung von Reihenfolgeinformationen an sekundäre DASD- Subsysteme (Schritt 106)
  • Nehmen wir nun Bezug auf Fig. 3B und die folgende Erörterung. Das Subsystem, das die Zeitsynchronisationssignalquelle bereitstellt, sendet über den Schritt 302 in regelmäßigen Abständen eine Prüfpunktnachricht an alle primären Subsysteme mit einem aktiven Kopiervorgang. Diese kann in das Zeitsynchronisationssignal mit aufgenommen oder getrennt gesandt werden, wie es für das verwendete lokale Verbindungsprotokoll zweckmäßig ist. Die Prüfpunktnachricht enthält einen Folgezeitwert und eine Prüfpunktfolgenummer, die für jede Prüfpunktnachricht um eins erhöht wird. Nach dem Empfang der Prüfpunktübertragung fügt sie jedes Subsystem in seinen Übertragungsstrom an das/die sekundäre n) Subsystem(e), an das/die es angeschlossen ist, logisch ein, wobei sie das Subsystem an das/die sekundäre(n) Subsystem(e) erst sendet, nachdem alle DASD- und Steuerinformationen mit einem früheren Folgezeitsignalwert über den Schritt 304 gesandt worden sind.
  • Verwendung der Reihenfolgeinformationen durch die sekundären DASD-Subsysteme zur Steuerung der Aktualisierungen der sekundären DASDs (Schritt 108)
  • Nehmen wir nun Bezug auf die Fig. 3C und 3D und die folgende Erörterung. Kopieroperationen in sekundären Subsystemen werden durch Kopiervorgang-Aktiv-Nachrichten von ihren angeschlossenen primären Subsystemen über den Schritt 402 aktiviert. (Eine Startfreigabe-Anweisung von einer System- oder einer lokalen Konsole am sekundären Subsystem ist gegebenenfalls ebenfalls erforderlich. Dieser Aspekt der Kopieroperation und -steuerung wird auf herkömmliche Weise ausgeführt). Über den Schritt 404 erstellen und verwalten sekundäre Subsysteme Kopiervorgang- Aktiv-Tabellen, so daß jedes Subsystem Daten in Bezug auf die Identität aller sekundären Subsysteme hat, die am Kopiervorgang teilnehmen. Eine Synchronisationssteuerungs-Haupteinheit wird unter den sekundären Subsystemen ausgewählt, wobei die lokale Verbindung (z.B. ein LAN) in ähnlicher Weise verwendet wird, in der eine primäre Synchronisationssignalquelle ausgewählt worden ist. Solche verteilten Steuerschemata sind bekannt und brauchen hier nicht beschrieben zu werden.
  • Sekundäre Subsysteme empfangen und puffern DASD-Daten und zugehörige Steuerinformationen von ihren angeschlossenen primären Subsystemen. Diese empfangenen Daten und Steuerinformationen werden zu logischen Gruppen zusammengefaßt und von dem primären Synchronisationssignalwert in eine logische Ablauffolge gebracht. Im Interesse eines höchstmöglichen Schutzes sollte die Pufferung von empfangenen Daten und Steuerinformationen in einem nichtflüchtigen Speichermedium erfolgen.
  • An irgendeinem Punkt empfängt jedes Subsystem über den Schritt 408 eine Prüfpunktsteuernachricht, die anzeigt, daß alle DASD- Aktualisierungsdaten und Steuerinformationen mit einem primären Synchronisationssignalwert, der kleiner oder gleich dem Prüfpunkt-Zeitsynchronisationswert ist, an dieses sekundäre Subsystem gesandt worden sind. Eine Prüfpunktnachricht wird nach ihrem Empfang vom empfangenden Subsystem an das sekundäre Hauptsubsystem gesandt, das über den Schritt 410 für diese Prüfpunktnachricht von allen sekundären Subsystemen mit einem aktiven Kopiervorgang, einschließlich seiner selbst, ein Treffen durchführt.
  • Wenn das Treffen über den Schritt 412 für einen bestimmten Prüfpunktwert vollständig ist, sendet das sekundäre Hauptsubsystem an alle sekundären Subsysteme mit einem aktiven Kopiervorgang eine Nachricht, bis zum primären Folgezeitwert des Prüfpunkts Aktualisierungsdaten freizugeben. Jedes Subsystem kennzeichnet sich dann selbst als in einem internen Zustand "Aktualisierung im Gang" befindlich und wendet die Aktualisierungen über den Schritt 414 auf die Kopie seiner sekundären DASD an. (Man beachte: Der eigentliche Prozeß der Anwendung der gepufferten DASD-Kopierdaten kann lediglich eine Anpassung von Cachespeicher-Verzeichniseinträgen erforderlich machen).
  • Der Zustand "Aktualisierung im Gang" muß über Subsystem-Rücksetzungen und -Ausschaltvorgänge zusammen mit gepufferten Daten und Steuerinformationen von dem primären Subsystem (und anderen Kopierdienst-Zustandsinformationen) aufrechterhalten werden. Er wird als eine Betriebssteuerung vom Typ "Abschluß unabdingbar" verwendet, die jedweden Zugriff des Hostsystems auf die sekundäre DASD ausschließt, wenn dieser Zustand aktiv ist. Dadurch wird gewährleistet, daß eine Anwendungsübernahme am sekundären Subsystem teilweise aktualisierte DASD-Daten nicht sehen kann. Das heißt, sie kann nicht auf eine reihenfolgeinkonsistente DASD-Kopie zugreifen. Die Aktualisierung für das Prüfpunktintervall muß abgeschlossen sein, bevor ein Benutzer auf die Kopierdatensätze des DASD-Subsystems zugreifen kann.
  • Wenn die Aktualisierung von DASD-Kopierdaten abgeschlossen ist, sendet das Subsystem über den Schritt 416 ein Signal "Aktualisierung abgeschlossen" für die Prüfpunktnachricht (die den bestimmten Prüfpunkt angibt) für diesen Prüfpunkt an die sekundäre Haupteinheit. Wenn Signale "Aktualisierung abgeschlossen" für Prüfpunktnachrichten von allen Subsystemen einschließlich der Haupteinheit an der Haupteinheit empfangen worden sind, sendet die Haupteinheit über den Schritt 418 eine Nachricht "Zustand 'Aktualisierung im Gang' zurücksetzen" an alle sekundären Subsysteme, um zu ermöglichen, daß angeschlossene Systeme wieder auf Kopierdaten der sekundären Subsysteme zugreifen können.
  • In einer abgewandelten Form der bevorzugten Ausführungsform könnten die vorausgehenden Prozesse ohne Takt und Taktsynchronisation funktionieren, wenn das Kopplungsmittel zwischen allen primären Subsystemen jede Prüfpunktnachricht innerhalb eines wesentlich kürzeren als des für einen E/A-Operationszyklus benötigten Zeitraums zuverlässig an alle Subsysteme weiterleiten könnte. Die Ankunftszeit einer Prüfpunktnachricht an jedem primären Subsystem wäre für die Angabe der Aktualisierungsfolge genau genug. Alle Aktualisierungen innerhalb eines Prüfpunkts würden als gleichzeitig aufgetreten betrachtet werden.
  • Die Schritte des Subsystembetriebs für die drei zuvor beschriebenen E/A-Operationen werden unter Befolgung der vorstehend beschriebenen Vorgehensweise nachstehend erörtert.
  • 1. DASD 1, 2, 3 und 4 tauschen "Kopiervorgang-Aktiv"-Nachrichten aus. Das primäre Subsystem 3 wurde die Hauptquelle für das Taktwert-Synchronisationssignal. Das sekundäre System 4 wurde die sekundäre Haupteinheit für das Treffen von Prüfpunktnachrichten.
  • 2. Die E/A-Schreiboperation (1) von der Anwendung an das Subsystem 1 wird zum Zeitpunkt 'a' abgeschlossen.
  • 3. Die E/A-Schreiboperation (2) von der Anwendung an das Subsystem 2 wird zum Zeitpunkt 'b' abgeschlossen.
  • 4. Das primäre Subsystem 1 sendet zusammen mit seinem zugehörigen Zeitwert 'a' Daten für die E/A-Operation (1) an das sekundäre Subsystem 1. Das sekundäre Subsystem 1 puffert die Daten, wendet sie jedoch nicht auf seine Cachespeicherkopie für den DASD-Datenträger an.
  • 5. Das Subsystem 3 sendet eine Prüfpunktnachricht, welche die Prüfpunktfolgenummer 'n' und den Zeitwert 'b' enthält.
  • 6. Die E/A-Schreiboperation (3) vom Anwendungssystem an das Subsystem 1 wird zum Zeitpunkt 'c' abgeschlossen.
  • 7. Das primäre Subsystem 1 sendet zusammen mit seinem zugehörigen Zeitwert 'c' Daten für die E/A-Operation (3) an das sekundäre Subsystem 1. Das sekundäre Subsystem 1 puffert die Daten, wendet sie jedoch nicht auf seine Cachespeicherkopie für den DASD-Datenträger an.
  • 8. Das primäre Subsystem 1 empfängt und verarbeitet die vom Subsystem 3 im Schritt S gesandte Prüfpunktnachricht.
  • 9. Das primäre Subsystem 1 sendet die Prüfpunktnachricht an das sekundäre Subsystem 1, das sie an das sekundäre Subsystem 4 weiterleitet.
  • 10. Das primäre Subsystem 2 sendet zusammen mit seinem zugehörigen Zeitwert 'b' Daten für die E/A-Operation (2) an das sekundäre Subsystem 2. Das sekundäre Subsystem 2 puffert die Daten, wendet sie jedoch nicht auf seine Cachespeicherkopie für den DASD-Datenträger an.
  • 11. Das primäre Subsystem 2 empfängt und verarbeitet die vom Subsystem 3 im Schritt S gesandte Prüfpunktnachricht.
  • 12. Das primäre Subsystem 2 sendet die Prüfpunktnachricht an das sekundäre Subsystem 2, das sie an das sekundäre Subsystem 4 weiterleitet.
  • 13. An irgendeinem Punkt zwischen den Schritten 5 und 13 haben die Subsysteme 3 und 4 die Prüfpunktnachricht 'n' an ihre sekundären Subsysteme gesandt. Das sekundäre Subsystem 3 hat sie an das sekundäre Subsystem 4 weitergeleitet.
  • 14. Das sekundäre Subsystem 4 sendet eine "Freigabe"-Nachricht an die sekundären Subsysteme 1, 2 und 3.
  • 15. Das sekundäre Subsystem 3, das keine Aktualisierung hat, sendet sofort eine Nachricht "Aktualisierung abgeschlossen" an das sekundäre Subsystem 4 zurück.
  • 16. Das sekundäre Subsystem 1 tritt in einen Zustand "Aktualisierung im Gang" ein und wendet dann die Aktualisierung (1) an. Die Aktualisierung (3) wendet es nicht an, da sein Synchronisationszeitwert 'c' größer als der Prüfpunktzeitwert 'b' ist. Es sendet dann eine Nachricht "Aktualisierung abgeschlossen" an das sekundäre Subsystem 4.
  • 17. Das sekundäre Subsystem 2 tritt in den Aktualisierungszustand ein, wendet die Aktualisierung (2) an und sendet eine Nachricht "Aktualisierung abgeschlossen" an das sekundäre Subsystem 4.
  • 18. Nachdem das sekundäre Subsystem 4 die Nachricht "Aktualisierung abgeschlossen" von allen sekundären Subsystemen empfangen hat, sendet es eine Nachricht "Zustand 'Aktualisierung im Gang' zurücksetzen" an die sekundären Subsysteme 1, 2 und 3.
  • Wenn nun an irgendeiner Stelle in der obigen Reihenfolge an einer Primärstation ein Fehler auftritt, zeigt die sekundäre DASD entweder keine der Aktualisierungen, oder sie zeigt die Aktualisierungen (1) und (2). Die Aktualisierung (3) wird erst bei der nächsten Prüfpunktfolge auf die DASD und den Cachespeicher des sekundären Subsystems 1 "angewandt".
  • Folglich wird durch das vorliegende System ein reihenfolgekonsistentes, asynchrones Echtzeit-Kopiersystem bereitgestellt, das keinen zentralen Übertragungsdienst benötigt. Dabei wird ein System bereitgestellt, das nur minimal abgeändert werden muß, während es vorhandene Funktionen in den DASD-Subsystemen nutzt, um Änderungen der Reihenfolge zu ermöglichen.

Claims (10)

1. Verfahren zum Betreiben eines asynchronen Datenfernkopiersystems (20), das eine Primärstation enthält, die eine erste Vielzahl von Speicher-Subsystemen (12) hat, die durch ein erstes Kopplungsmittel (16) miteinander verbunden sind, und eine von der Primärstation entfernte Sekundärstation, die eine zweite Vielzahl von Speicher-Subsystemen (14) hat, die durch ein zweites Kopplungsmittel miteinander verbunden sind, wobei jedes der zweiten Vielzahl der Speicher-Subsysteme unabhängig von den anderen mit einem Gegenstück der ersten Vielzahl der Speicher-Subsysteme verbunden ist, wobei das Verfahren die folgenden Schritte umfaßt:
in der ersten Vielzahl der Subsysteme
Senden (302) eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme;
Senden (304) von Datenaktualisierungen und des Prüfpunktsignals an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme; und
in der zweiten Vielzahl der Subsysteme
Empfangen (408) und Puffern der Datenaktualisierungen und der Prüfpunktsignale;
und Koordinieren des Schreibens (414) der Datenaktualisierungen auf der Grundlage der Prüfpunktsignale, so daß die Integrität der Aktualisierungsfolgen an der Sekundärstation gewahrt bleibt.
2. Verfahren nach Anspruch 1, wobei der Schritt des Sendens eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme des weiteren den Schritt der Verteilung eines Folgesignals an der Primärstation umfaßt, wobei das Prüfpunktsignal Informationen enthält, die den Wert des Folgesignals anzeigen.
3. Verfahren nach Anspruch 2, wobei der Schritt des Sendens von Datenaktualisierungen und eines Prüfpunktsignals an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme die folgenden Schritte umfaßt:
Asynchrones Erzeugen einer Folge von Datenaktualisierungen an jedem der ersten Vielzahl der Subsysteme;
Ordnen (108) einer jeden der Folgen entsprechend dem verteilten Folgesignal und dem Prüfpunktsignal; und
Asynchrones Übertragen von Aktualisierungsfolgen von jedem der ersten Vielzahl der Subsysteme an ein Subsystem-Gegenstück.
4. Verfahren nach einem vorhergehenden Anspruch, das an der Primärstation des weiteren die folgenden ersten Schritte umfaßt:
Aktivieren (202) eines jeden der ersten Vielzahl der Subsysteme, damit es mit den anderen Subsystemen in der ersten Vielzahl der Subsysteme kommuniziert;
Aktivieren eines jeden der ersten Vielzahl der Subsysteme, damit es mit seinem Subsystem-Gegenstück in der zweiten Vielzahl der Subsysteme, mit dem es verbunden ist, kommuniziert;
Erstellen (206) von mindestens einer Konfigurationstabelle in jedem der ersten Vielzahl der Subsysteme, so daß jedes der ersten Vielzahl der Subsysteme alle anderen Subsysteme in der ersten Vielzahl der Subsysteme erkennen kann; und
Synchronisieren (208) der ersten Vielzahl der Subsysteme.
5. Verfahren nach einem vorhergehenden Anspruch, das an der Sekundärstation des weiteren die folgenden ersten Schritte umfaßt:
Empfangen (402) von Kopiervorgang-Aktiv-Nachrichten in der zweiten Vielzahl der Subsysteme;
Erstellen (404) von Kopiervorgang-Aktiv-Tabellen in der zweiten Vielzahl der Subsysteme; und
Synchronisieren (406) von Kopieroperationen der zweiten Vielzahl der Subsysteme;
und wobei der Koordinierungsschritt des weiteren den Schritt der Durchführung eines Treffens (410) aller Prüfpunktsignale in der zweiten Vielzahl der Subsysteme umfaßt.
6. Verfahren nach Anspruch 1, das des weiteren die folgenden ersten Schritte umfaßt:
an der Primärstation als Antwort auf die Einleitung einer Startkopieroperation an jedem der Subsysteme in der ersten Vielzahl der Subsysteme Feststellen der Untergruppe der Vielzahl der Subsysteme, die eine Kopiersatzgruppe bildet, und Bestimmen eines der Vielzahl der Subsysteme zu einer Takt- und Prüfpunktsignalquelle, wobei jedes Prüfpunktsignal einen Folgetaktwert und eine erhöhte Folgenummer enthält;
an der Sekundärstation als Antwort auf die Einleitung einer Startkopieroperation an jedem der Subsysteme in der zweiten Vielzahl der Subsysteme Feststellen der Untergruppe der Vielzahl der Subsysteme, die eine Kopiersatzgruppe bildet, und Bestimmen eines der Vielzahl der Subsysteme zu einem Prüfpunktsignal-Treffpunkt, um die zweite Vielzahl der Subsysteme zu synchronisieren;
und wobei der Schritt des Sendens eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme die Schritte der periodischen Erzeugung von Taktsignalen und Prüfpunktsignalen durch das ausgewählte Subsystem an der Primärstation und die Übertragung der Takt- und Prüfpunktsignale in der Folge ihres Auftretens an andere Subsysteme, welche die Kopiersatzgruppe an der Primärstation bilden, einschließlich ihrer selbst, umfaßt;
und wobei der Schritt des Sendens von Datenaktualisierungen und des Prüfpunktsignals an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme für jedes Subsystem in der Kopiersatzgruppe die asynchrone Bildung einer lokalen Folge von aktualisierten Datensätzen umfaßt, wobei die Takt- und Prüfpunktsignale in die Folge eingebunden werden, um eine nach dem Zeitpunkt unterschiedene Gesamtanordnung von aktualisierten Datensätzen zu bilden, und Senden von mindestens einem Teil der Folge an das Subsystem-Gegenstück an der Sekundärstation;
und wobei der Schritt der Koordination des Schreibens von Datenaktualisierungen und Prüfpunktsignalen an der Sekundärstation die Schritte des Sendens (410) des Prüfpunktsignals an das ausgewählte Subsystem an der Sekundärstation durch jedes Subsystem in der Kopiersatzgruppe und das Schreiben der Folgen oder von Teilen der Folgen, die in den Subsystemen gepuffert sind, erst nach einem Signal von dem ausgewählten Subsystem, das dessen Empfang aller an das Subsystem gesandten Prüfpunktsignale (412) anzeigt, umfaßt.
7, Verfahren nach Anspruch 6, wobei jedes Prüfpunktsignal anzeigt, daß alle Datenaktualisierungen mit einem Taktsignal, dessen Folgenummer kleiner als der Prüfpunktsignal- Folgetaktwert ist, an das sekundäre Subsystem-Gegenstück übertragen worden sind.
8. Asynchrones Datenfernkopiersystem (20), das eine Primärstation enthält, die eine erste Vielzahl von Speicher- Subsystemen (12) hat, die durch ein erstes Kopplungsmittel (16) miteinander verbunden sind, und eine von der Primärstation entfernte Sekundärstation, die eine zweite Vielzahl von Speicher-Subsystemen (14) hat, die durch ein zweites Kopplungsmittel miteinander verbunden sind, wobei jedes der zweiten Vielzahl der Speicher-Subsysteme unabhängig von den anderen mit einem Gegenstück der ersten Vielzahl der Speicher-Subsysteme verbunden ist,
wobei die erste Vielzahl der Subsysteme ein Mittel (12) enthält, um an jedes der ersten Vielzahl der Subsysteme ein Prüfpunktsignal zu senden; und ein Mittel (12), um Datenaktualisierungen und das Prüfpunktsignal an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme zu senden; und
die zweite Vielzahl der Subsysteme ein Mittel (14) enthält, um die Datenaktualisierungen und die Prüfpunktsignale zu empfangen und zu puffern; und ein Mittel (14), um das Schreiben der Datenaktualisierungen auf der Grundlage der Prüfpunktsignale zu koordinieren, so daß die Integrität der Aktualisierungsfolgen an der Sekundärstation gewahrt bleibt.
9. System nach Anspruch 8, wobei das Mittel, das dazu dient, ein Prüfpunktsignal an jedes der ersten Vielzahl der Subsysteme zu senden, des weiteren ein Mittel enthält, um ein Folgesignal an der Primärstation zu verteilen, wobei das Prüfpunktsignal Informationen enthält, die den Wert des Folgesignals anzeigen.
10. System nach Anspruch 8 oder 9, in dem das Mittel, das dazu dient, Datenaktualisierungen und das Prüfpunktsignal an jedes der mit einem Gegenstück verbundenen zweiten Vielzahl der Subsysteme zu senden, ein Mittel umfaßt, das auf das Mittel zum Senden eines Prüfpunktsignals an jedes der ersten Vielzahl der Subsysteme anspricht, um das Prüfpunktsignal in eine Datenaktualisierungsfolge von jedem der ersten Vielzahl der Subsysteme an dessen Subsystem- Gegenstück einzufügen.
DE69506155T 1994-03-21 1995-03-02 Asynchrones Datenfernkopieren Expired - Lifetime DE69506155T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US21523894A 1994-03-21 1994-03-21

Publications (2)

Publication Number Publication Date
DE69506155D1 DE69506155D1 (de) 1999-01-07
DE69506155T2 true DE69506155T2 (de) 1999-06-24

Family

ID=22802212

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69506155T Expired - Lifetime DE69506155T2 (de) 1994-03-21 1995-03-02 Asynchrones Datenfernkopieren

Country Status (4)

Country Link
US (1) US5657440A (de)
EP (1) EP0674263B1 (de)
JP (1) JP2894676B2 (de)
DE (1) DE69506155T2 (de)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5544347A (en) * 1990-09-24 1996-08-06 Emc Corporation Data storage system controlled remote data mirroring with respectively maintained data indices
SE9603753L (sv) * 1996-10-14 1998-04-06 Mirror Image Internet Ab Förfarande och anordning för informationsöverföring på Internet
US6122645A (en) * 1997-08-25 2000-09-19 Lucent Technologies, Inc. System and method for physically versioning data in a main memory database
JP3414218B2 (ja) 1997-09-12 2003-06-09 株式会社日立製作所 記憶制御装置
US6105078A (en) * 1997-12-18 2000-08-15 International Business Machines Corporation Extended remote copying system for reporting both active and idle conditions wherein the idle condition indicates no updates to the system for a predetermined time period
US6088815A (en) * 1998-02-23 2000-07-11 International Busines Machines Corporation Automatic data recovery for a duplex pair
US6260124B1 (en) 1998-08-13 2001-07-10 International Business Machines Corporation System and method for dynamically resynchronizing backup data
US6327644B1 (en) 1998-08-18 2001-12-04 International Business Machines Corporation Method and system for managing data in cache
US6141731A (en) * 1998-08-19 2000-10-31 International Business Machines Corporation Method and system for managing data in cache using multiple data structures
US6381677B1 (en) 1998-08-19 2002-04-30 International Business Machines Corporation Method and system for staging data into cache
US6243715B1 (en) 1998-11-09 2001-06-05 Lucent Technologies Inc. Replicated database synchronization method whereby primary database is selected queries to secondary databases are referred to primary database, primary database is updated, then secondary databases are updated
JP2000305856A (ja) * 1999-04-26 2000-11-02 Hitachi Ltd ディスクサブシステム及びこれらの統合システム
US6539462B1 (en) 1999-07-12 2003-03-25 Hitachi Data Systems Corporation Remote data copy using a prospective suspend command
US6493796B1 (en) * 1999-09-01 2002-12-10 Emc Corporation Method and apparatus for maintaining consistency of data stored in a group of mirroring devices
JP4044717B2 (ja) * 2000-03-31 2008-02-06 株式会社日立製作所 記憶サブシステムのデータ二重化方法及びデータ二重化システム
US6694338B1 (en) * 2000-08-29 2004-02-17 Contivo, Inc. Virtual aggregate fields
US6823336B1 (en) 2000-09-26 2004-11-23 Emc Corporation Data storage system and method for uninterrupted read-only access to a consistent dataset by one host processor concurrent with read-write access by another host processor
US7546364B2 (en) 2002-05-16 2009-06-09 Emc Corporation Replication of remote copy data for internet protocol (IP) transmission
EP1543420B1 (de) * 2002-07-29 2012-04-04 Open Invention Network LLC Einheitliche nachrichtenanordnung für semiaktive und passive duplikation
US7797626B2 (en) * 2003-02-12 2010-09-14 Sap Ag Managing different representations of information
US7809679B2 (en) * 2003-03-03 2010-10-05 Fisher-Rosemount Systems, Inc. Distributed data access methods and apparatus for process control systems
US7769722B1 (en) 2006-12-08 2010-08-03 Emc Corporation Replication and restoration of multiple data storage object types in a data network
US7275177B2 (en) 2003-06-25 2007-09-25 Emc Corporation Data recovery with internet protocol replication with or without full resync
US7567991B2 (en) 2003-06-25 2009-07-28 Emc Corporation Replication of snapshot using a file system copy differential
JP2005018510A (ja) * 2003-06-27 2005-01-20 Hitachi Ltd データセンタシステム及びその制御方法
US7395278B2 (en) * 2003-06-30 2008-07-01 Microsoft Corporation Transaction consistent copy-on-write database
US7240080B2 (en) * 2003-07-30 2007-07-03 International Business Machines Corporation Method and apparatus for determining using least recently used protocol if one or more computer files should be written to one or more information storage media and synchronously providing one or more computer files between first and storage devices
US7133986B2 (en) 2003-09-29 2006-11-07 International Business Machines Corporation Method, system, and program for forming a consistency group
US8595185B2 (en) * 2003-09-29 2013-11-26 International Business Machines Corporation Storage disaster recovery using a predicted superset of unhardened primary data
US7278049B2 (en) * 2003-09-29 2007-10-02 International Business Machines Corporation Method, system, and program for recovery from a failure in an asynchronous data copying system
US20050071380A1 (en) * 2003-09-29 2005-03-31 Micka William F. Apparatus and method to coordinate multiple data storage and retrieval systems
US7188272B2 (en) * 2003-09-29 2007-03-06 International Business Machines Corporation Method, system and article of manufacture for recovery from a failure in a cascading PPRC system
US7475134B2 (en) * 2003-10-14 2009-01-06 International Business Machines Corporation Remote activity monitoring
US7137033B2 (en) * 2003-11-20 2006-11-14 International Business Machines Corporation Method, system, and program for synchronizing subtasks using sequence numbers
JP2006221487A (ja) 2005-02-14 2006-08-24 Hitachi Ltd リモートコピーシステム
US7437389B2 (en) 2004-03-10 2008-10-14 Hitachi, Ltd. Remote copy system
US7724599B2 (en) 2003-12-03 2010-05-25 Hitachi, Ltd. Remote copy system
US7085788B2 (en) 2003-12-03 2006-08-01 Hitachi, Ltd. Remote copy system configured to receive both a write request including a write time and a write request not including a write time.
US8032726B2 (en) 2003-12-03 2011-10-04 Hitachi, Ltd Remote copy system
US7337194B2 (en) * 2004-01-05 2008-02-26 International Business Machines Corporation Asynchronous remote mirroring techniques for databases
US7478211B2 (en) 2004-01-09 2009-01-13 International Business Machines Corporation Maintaining consistency for remote copy using virtualization
US20050177693A1 (en) * 2004-02-10 2005-08-11 Storeage Networking Technologies Asynchronous mirroring in a storage area network
JP4489455B2 (ja) * 2004-02-16 2010-06-23 株式会社日立製作所 ディスク制御装置及びディスク制御装置の制御方法
JP2006004031A (ja) * 2004-06-16 2006-01-05 Hitachi Ltd データ処理方法およびシステム並びにストレージ装置方法およびその処理プログラム
JP4477950B2 (ja) 2004-07-07 2010-06-09 株式会社日立製作所 リモートコピーシステム及び記憶装置システム
JP4915775B2 (ja) 2006-03-28 2012-04-11 株式会社日立製作所 ストレージシステム及びストレージシステムのリモートコピー制御方法
US7330861B2 (en) 2004-09-10 2008-02-12 Hitachi, Ltd. Remote copying system and method of controlling remote copying
US7647357B2 (en) * 2004-11-12 2010-01-12 International Business Machines Corporation Data transfer management in consistency group formation
US7765187B2 (en) 2005-11-29 2010-07-27 Emc Corporation Replication of a consistency group of data storage objects from servers in a data network
US7587628B2 (en) 2006-09-20 2009-09-08 International Business Machines Corporation System, method and computer program product for copying data
US8706833B1 (en) 2006-12-08 2014-04-22 Emc Corporation Data storage server having common replication architecture for multiple storage object types
US8290899B2 (en) * 2007-03-28 2012-10-16 Netapp, Inc. Group stamping style asynchronous replication utilizing a loosely-accurate global clock
US7925629B2 (en) * 2007-03-28 2011-04-12 Netapp, Inc. Write ordering style asynchronous replication utilizing a loosely-accurate global clock
US8150800B2 (en) * 2007-03-28 2012-04-03 Netapp, Inc. Advanced clock synchronization technique
US8015427B2 (en) * 2007-04-23 2011-09-06 Netapp, Inc. System and method for prioritization of clock rates in a multi-core processor
US20090327601A1 (en) * 2008-06-30 2009-12-31 Shachar Fienblit Asynchronous data mirroring with look-ahead synchronization record
US8099571B1 (en) 2008-08-06 2012-01-17 Netapp, Inc. Logical block replication with deduplication
US9158579B1 (en) 2008-11-10 2015-10-13 Netapp, Inc. System having operation queues corresponding to operation execution time
US8655848B1 (en) 2009-04-30 2014-02-18 Netapp, Inc. Unordered idempotent logical replication operations
US8321380B1 (en) 2009-04-30 2012-11-27 Netapp, Inc. Unordered idempotent replication operations
US9110918B1 (en) * 2009-06-29 2015-08-18 Symantec Corporation Systems and methods for measuring compliance with a recovery point objective for an application
US8671072B1 (en) 2009-09-14 2014-03-11 Netapp, Inc. System and method for hijacking inodes based on replication operations received in an arbitrary order
US8473690B1 (en) 2009-10-30 2013-06-25 Netapp, Inc. Using logical block addresses with generation numbers as data fingerprints to provide cache coherency
US8799367B1 (en) 2009-10-30 2014-08-05 Netapp, Inc. Using logical block addresses with generation numbers as data fingerprints for network deduplication
US8949182B2 (en) * 2011-06-17 2015-02-03 International Business Machines Corporation Continuous and asynchronous replication of a consistent dataset
US10592363B2 (en) 2018-06-04 2020-03-17 International Business Machines Corporation Asynchronous remote mirror cloud archival

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5133065A (en) * 1989-07-27 1992-07-21 Personal Computer Peripherals Corporation Backup computer program for networks
SE463181B (sv) * 1989-09-07 1990-10-15 Radians Innova Ab Saett att saekestaella modhoppsfri avstaemning av resonansfrekvens och q-vaerde hos en optisk resonator samt anordning foer utoevande av saettet
US5185884A (en) * 1990-01-24 1993-02-09 International Business Machines Corporation Computer controlled optimized pairing of disk units
EP0455922B1 (de) * 1990-05-11 1996-09-11 International Business Machines Corporation Verfahren und Gerät zur Ableitung des Zustandes einer gespiegelten Einheit bei Reinitialisierung eines Systems
US5155845A (en) * 1990-06-15 1992-10-13 Storage Technology Corporation Data storage system for providing redundant copies of data on different disk drives
US5167034A (en) 1990-06-18 1992-11-24 International Business Machines Corporation Data integrity for compaction devices
US5258984A (en) * 1991-06-13 1993-11-02 International Business Machines Corporation Method and means for distributed sparing in DASD arrays
US5241668A (en) 1992-04-20 1993-08-31 International Business Machines Corporation Method and system for automated termination and resumption in a time zero backup copy process
US5379398A (en) * 1992-04-20 1995-01-03 International Business Machines Corporation Method and system for concurrent access during backup copying of data
US5241669A (en) 1992-04-20 1993-08-31 International Business Machines Corporation Method and system for sidefile status polling in a time zero backup copy process
US5375232A (en) 1992-09-23 1994-12-20 International Business Machines Corporation Method and system for asynchronous pre-staging of backup copies in a data processing storage subsystem

Also Published As

Publication number Publication date
EP0674263B1 (de) 1998-11-25
JPH07262070A (ja) 1995-10-13
JP2894676B2 (ja) 1999-05-24
DE69506155D1 (de) 1999-01-07
US5657440A (en) 1997-08-12
EP0674263A1 (de) 1995-09-27

Similar Documents

Publication Publication Date Title
DE69506155T2 (de) Asynchrones Datenfernkopieren
DE69410671T2 (de) Datensicherung in einer Datenverarbeitungsanlage
DE69923621T2 (de) Verfahren und Vorrichtung zu korrekten und vollständigen Übertragungen in einem fehlertoleranten verteilten Datenbanksystem
DE69502651T2 (de) Asynchrone Datenfernduplizierung
DE69126587T2 (de) Verfahren zur Verwaltung von Arbeitseinheitidentifizierern in einem verteilten Transaktionsverarbeitungssystem
DE602004005344T2 (de) Verfahren, system und programm zur handhabung eines failover zu einem fernspeicherort
DE69502125T2 (de) Synchrone Datenfernduplizierung
DE69724846T2 (de) Mehrweg-Ein/Ausgabespeichersysteme mit Mehrweg-Ein/Ausgabeanforderungsmechanismus
DE69329372T2 (de) Verfahren und Vorrichtung zur Ferndatenduplexierung
DE69730449T2 (de) Erzeugung einer spiegeldatenkopie (bild) unter verwendung von referenzetiketten
DE69617112T2 (de) Informationsverarbeitungssystem zur Ermöglichen des Zugriffs auf verschiedene Typen von Dateien und Steuerungsverfahren
DE69710578T2 (de) Verfahren zum unabhängigen und gleichzeitigen zugriff auf eine gemeinsame datensammlung
DE69021122T2 (de) Verfahren und Gerät zur ununterbrochenen Versorgung von Anwendungen in einem Rechnernetzwerk.
DE69322549T2 (de) Verteilte Transaktionsverarbeitung mit einem Zwei-Phasen-Bindungsprotokoll mit erwarteter Bindung ohne Aufzeichnungspflicht
DE3486257T2 (de) Synchrones dezentralisiertes Verarbeitungssystem.
DE3685609T2 (de) Kommunikationsverfahren fuer multiprozessor.
DE60030397T2 (de) Belastungsverteilung in einem Netzwerk
DE69808364T2 (de) Vorrichtung mit vernetzten Datenempfangsstationen
DE602005002024T2 (de) Fernkopiersystem und Fernkopierverfahren
DE69506997T2 (de) System zur Verwendung eines gespiegelten Speichers als fehlerunempfindlichen Kommunikationspfad zwischen doppelten Plattenspeichersteuerungen
DE602005002532T2 (de) Cluster-datenbank mit ferndatenspiegelung
DE10392181T5 (de) Dynamische RDF-Gruppen
EP1328867B1 (de) Vorrichtung und verfahren zur datenspiegelung
DE102013101863A1 (de) Hochverfügbares Hauptspeicher-Datenbanksystem, Arbeitsverfahren und deren Verwendungen
DE3301628A1 (de) Schaltungsanordnung fuer den datenaustausch zwischen zwei rechnern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8328 Change in the person/name/address of the agent

Representative=s name: DUSCHER, R., DIPL.-PHYS. DR.RER.NAT., PAT.-ANW., 7