DE3881786T2 - Identifizierung von Datenspeicherungseinrichtungen. - Google Patents

Identifizierung von Datenspeicherungseinrichtungen.

Info

Publication number
DE3881786T2
DE3881786T2 DE88112032T DE3881786T DE3881786T2 DE 3881786 T2 DE3881786 T2 DE 3881786T2 DE 88112032 T DE88112032 T DE 88112032T DE 3881786 T DE3881786 T DE 3881786T DE 3881786 T2 DE3881786 T2 DE 3881786T2
Authority
DE
Germany
Prior art keywords
data storage
status
storage device
identification number
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE88112032T
Other languages
English (en)
Other versions
DE3881786D1 (de
Inventor
Brent C Beardsley
Lawrence Herbert Boulia
Robert Haver Vosacek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Application granted granted Critical
Publication of DE3881786D1 publication Critical patent/DE3881786D1/de
Publication of DE3881786T2 publication Critical patent/DE3881786T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • G06F13/12Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor
    • G06F13/122Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor where hardware performs an I/O function other than control of data transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2064Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring while ensuring consistency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2082Data synchronisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2087Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring with a common controller
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C29/00Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation
    • G11C29/70Masking faults in memories by using spares or by reconfiguring
    • G11C29/74Masking faults in memories by using spares or by reconfiguring using duplex memories, i.e. using dual copies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/006Identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • G06F11/1451Management of the data involved in backup or backup restore by selection of backup contents

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)

Description

  • Die vorliegende Erfindung bezieht sich allgemein auf Verbesserungen in Datenspeicherungseinrichtungen für die Ein- und Ausgabe von Informationen in ein Datenverarbeitungssystem und im Besonderen auf die Sicherung von Status- und Einrichtungsidentifizierungsinformationen auf einer Statusspur jeder Datenspeicherungseinrichtung und an einer anderen Stelle, um eine globale Identifizierung und Verwaltung austauschbarer Datenspeicherungseinrichtungen zu erhalten.
  • Die letzten Jahre waren geprägt durch das Wachstum von Online- Arbeitsplätzen, die Entwicklung der verteilten Verarbeitung und eine Zunahme der Informationstechnologie in vielen neuen Anwendungsbereichen. Das Ergebnis war eine immer häufigere Verwendung von Online-Datenbanksystemen und ein zunehmender Bedarf an Speicherkapazität sowie einer erhöhten Zuverlässigkeit und Flexibilität der Datenspeicherungseinrichtungen.
  • In Fachkreisen sind Eigendiagnose, Redundanz, Prüfung auf Übereinstimmung zwischen mehreren Informationsquellen und ähnliches bekannt. Dies insbesondere seit dem Entstehen komplexer digitaler Rechnersysteme, die für Anwendungen wie Prozeßsteuerung oder überwachende Steuerung verwendet werden. Ein Beispiel für ein solches System ist in der U.S.-Patentschrift 4,032,757 von Eccles dargestellt; hier wird ein Paar von Kanälen dazu verwendet, die in jedem Rechner ablaufenden Ereignisse kontinuierlich zu vergleichen. Durch diesen kontinuierlichen Vergleich kann der zusätzliche Prozessor bei einem Ausfall des anderen Prozessors die Prozessorsteuerung innerhalb kurzer Zeit übernehmen. Das Problem bei dieser Lösung ist, daß der zusätzliche Prozessor bis zum Beginn der Verarbeitung nach einer Störung eine gewisse Zeit benötigt. In kritischen Prozessen, wie zum Beispiel bei der Steuerung eines Kernkraftwerkes, darf jedoch keine Zeitverzögerung vorkommen. In der U.S.- Patentschrift 4,270,168 von Murphy et al. wird eine bessere Lösungsmöglichkeit vorgestellt, in der eine Vielzahl von Prozessoren, Eigendiagnosen und eine gemeinsame Antwortprüfung dafür sorgen, daß jeder Prozessor eine Realzeitverarbeitung für einen anderen Prozessor übernehmen kann, wenn dieser ausfällt. Die erhöhte Zuverlässigkeit dieser Systeme ergibt sich aus einer speicherresidenten Anwendungsmethode, welche jedoch bei der Abwicklung einer großen Datenbankanwendung, die viele Datenspeicherungseinrichtungen umfaßt, versagt.
  • Die allgemeine Konfiguration eines Datenverarbeitungssystems umfaßt im Normalfall einen oder mehrere Hauptrechner, einen Speicher und mehrere Peripherie-Einheiten. Zu diesen gehören Terminals, Drucker, Datenübertragungseinrichtungen und Datenspeicherungseinrichtungen (DASD). Uns geht es um die Steuerung, welche die Informationen von einer DASD an eine Datenbankanwendung weitergibt, die im Speicher des Hauptrechners gespeichert ist. Ein gutes Beispiel für Lösungsmöglichkeiten dieser Verarbeitungsart nach dem bisherigen Stand der Technik wird in der U.S.-Patentschrift 3,999,163 von Levy et al., der U.S.-Patentschrift 4,067,059 von Derchak und in der U.S.-Patentschrift 4,189,769 von Cook et al. vorgestellt. Diese Patente enthalten verschiedene Wege, um einem Hauptrechner die Verarbeitung von in einer DASD gespeicherten Informationen zu ermöglichen. Während in diesen Patenten Produktionssysteme beschrieben werden, die für Datenbankanwendungen sehr gut geeignet sind, sind die in ihnen beschriebenen Anordnungen dadurch anfällig, daß sie bei einer Abschaltung keine hohe Verfügbarkeit von DASD-Informationen aufrechterhalten.
  • In EP 59838 wird ein Datenverarbeitungsgerät offenbart, dessen Peripheriesystem eine Vielzahl von Kanalpfaden enthält. Diese Kanalpfade werden als Mitglieder von Pfadgruppen bezeichnet.
  • Jede Pfadgruppe hat einen oder mehrere Kanalpfade. Innerhalb jeder Pfadgruppe erfolgen die Übertragungen zwischen dem Datenverarbeitungssystem und dem Peripheriesystem als Mehrwegübertragungen zwischen den Pfaden solcher Pfadgruppen. Einrichtungen des Peripheriesystems können den Zugriffsgruppen zur ausschließlichen Verwendung in einer oder mehrerer solcher Pfadgruppen gezielt zugeordnet werden. Eine gegebene Pfadgruppe stellt für jede Einrichtung in einer Zugriffsgruppe gezielt Übertragungspfade zur Verfügung. Jede Zugriffsgruppe enthält eine oder mehrere Pfadgruppen. Es werden Vorrichtungen für die zeitweise Unterbrechung und Neuzuweisung offenbart.
  • Sowohl die Einrichtungen als auch die Kanalpfade können sich entweder in einem gruppierten oder in einem ungruppierten Zustand befinden. Die Zuweisungsfunktion zu Zugriffsgruppen ist besonders nützlich bei verzahnten Kanalübertragungen zur Sicherstellung der Integrität des Subsystems.
  • Dementsprechend stellt die vorliegende Erfindung ein Verfahren zur Verwaltung eines Datenverarbeitungssystems zur Verfügung, mit einem Hauptrechnersystem, einem angeschlossenen Steuerteil, welches einen an einen Cache angeschlossenen Satz von Speicherpfaden umfaßt, einem Steuerteil für eine Datenspeicherungseinrichtung und einen nicht flüchtigen Speicher, und einen Speicher, welcher eine Matrix-Struktur mit einer Statustabelle enthält, welche die Statussätze der Datenspeicherungseinrichtungen enthält, wobei das System einen globalen Statussatz erzeugt, welcher die Statussätze des Steuerteils und der angeschlossenen Datenspeicherungseinrichtungen verbindet, und der Steuerteil der Datenspeicherungseinrichtung Anschlußmittel für eine Vielzahl von Datenspeicherungseinrichtungs-Ketten umfaßt, wobei jede Kette eine Vielzahl von Datenspeicherungseinrichtungen mit einer Vielzahl von Sätzen umfaßt, eine Vielzahl von Spuren und eine Einrichtungsstatusspur, welche die Statusinformation der Datenspeicherungseinrichtung enthält, dadurch gekennzeichnet, daß:
  • die genannte Einrichtungsstatusspur auch eine Neukonfigurationszählung umfaßt, die aufzeichnet, wie oft die Einrichtung neu zugewiesen wurde, eine Einrichtungs- Identifizierungsnummer und eine darauf verzeichnete Steuerteil-Identifizierungsnummer;
  • die genannte Statustabelle in der Matrix-Struktur auch eine Neukonfigurationszählung, eine Einrichtungs-Identifizierungsnummer und eine Steuerteil-Identifizierungsnummer für jede Datenspeicherungseinrichtung umfaßt;
  • der genannte globale Statussatz auch die Einrichtungs- Identifizierungsnummer und die Steuerteil-Identifizierungsnummer umfaßt; und
  • die globale Identifizierung und Verwaltung der Datenspeicherungseinrichtungen sichergestellt wird durch:
  • Überprüfung jeder Datenspeicherungseinrichtung der Vielzahl von Datenspeicherungseinrichtungen, um die Einrichtungs-Identifizierungsnummer, die Steuerteil- Identifizierungsnummer und die Statussätze festzustellen;
  • Erzeugung des globalen Statussatzes;
  • Schreiben der Einrichtungs-Identifizierungsnummer in jeden Statussatz auf jeder Datenspeicherungseinrichtung; und
  • Schreiben des globalen Statussatzes in die Statussätze einer ersten Datenspeicherungseinrichtung und einer zweiten Datenspeicherungseinrichtung.
  • Anders ausgedrückt, die vorliegende Erfindung stellt ein Datenverarbeitungssystem zur Sicherstellung der globalen Identifizierung und Verwaltung einer Vielzahl von Datenspeicherungseinrichtungen zur Verfügung, welches folgende Einrichtungen umfaßt:
  • ein Hauptrechnersystem, das eine Vielzahl von Kanälen enthält;
  • einen Steuerteil, das an mindestens einen der Kanäle angeschlossen ist und einen Satz von Speicherpfaden umfaßt, wobei jeder Speicherpfad Zugriff zu einem Cache, einem Steuerteil für eine Datenspeicherungseinrichtung, einem nicht flüchtigen Speicher und einem Speicher mit einer Matrix-Struktur hat, welche über eine Statustabelle verfügt, die die Statussätze der Datenspeicherungseinrichtungen enthält;
  • einen globalen Statussatz, der die Statussätze des Steuerteils und der angeschlossenen Datenspeicherungseinrichtungen verbindet, welcher in der statustabelle der Matrix im Steuerteil gespeichert ist;
  • eine Vielzahl von Datenspeicherungseinrichtungen, die an den Steuerteil der Datenspeicherungseinrichtung angeschlossen sind, wobei jede Datenspeicherungseinrichtung eine Vielzahl von Spuren enthält, und eine Einrichtungsstatusspur, welche die Statusinformationen der Datenspeicherungseinrichtung enthält;
  • dadurch gekennzeichnet, daß
  • die genannte Einrichtungsstatusspur auch eine Neukonfigurationszählung umfaßt, die aufzeichnet, wie oft die Einrichtung neu zugewiesen wurde, eine Einrichtungs-Identifizierungsnummer und eine darauf verzeichnete Steuerteil-Identifizierungsnummer;
  • die genannte Statustabelle in der Matrix-Struktur auch eine Neukonfigurationszählung, eine Einrichtungs-Identifizierungsnummer und eine Steuerteil-Identifizierungsnummer für jede Datenspeicherungseinrichtung umfaßt;
  • der genannte globale Statussatz auch die Einrichtungs- Identifizierungsnummer und die Steuerteil-Identifizierungsnummer umfaßt; und
  • das System folgendes enthält:
  • Mittel zur Überprüfung jeder Datenspeicherungseinrichtung der Vielzahl von Datenspeicherungseinrichtungen zur Feststellung der Einrichtungs-Identifizierungsnummer, der Steuerteil- Identifizierungsnummer und der Statussätze;
  • Mittel zum Schreiben der Einrichtungs- Identifizierungsnummer in jeden Statussatz auf jeder Datenspeicherungseinrichtung; und
  • Mittel zum Schreiben des globalen Statussatzes in die Statussätze einer ersten Datenspeicherungseinrichtung und einer zweiten Datenspeicherungseinrichtung.
  • Die vorliegende Erfindung soll weiter anhand von Beispielen beschrieben werden, unter Bezugnahme auf ein Ausführungsbeispiel der Erfindung, sowie auf ein Beispiel nach dem bisherigen Stand der Technik, und durch Darstellung in den beiliegenden Zeichnungen; es zeigt:
  • Figur 1 ein Blockdiagramm eines typischen Datenspeichersystems nach dem bisherigen Stand der Technik, näinlich dem der U.S.- Patentschrift 4,207,609; und
  • Figur 2 ein stark stilisiertes Blockdiagramm mit den Grundelementen einer Form eines Datenspeichersystems gemäß der vorliegenden Erfindung.
  • Die folgende Offenbarung beschreibt eine Form einer verbesserten Verwaltung von Datenspeicherungseinrichtungen und der auf ihnen gespeicherten Daten. Die Status- und Identifizierungsinformationen werden sowohl auf den Datenspeicherungseinrichtungen als auch auf dem Sicherungsmedium gesichert, um die Sicherung von Informationen beim Abschalten oder einer anderen Störung der Einrichtung sicherzustellen und um zu prüfen, ob die richtigen physischen Geräte noch an die Steuerteile angeschlossen sind, wenn die Datenspeicherungseinrichtung den Betrieb wieder aufnimmt.
  • Wenden wir uns nun den Zeichnungen, speziell der Figur 1, zu, in der ein typisches Datenspeicherungssystem nach dem bisherigen Stand der Technik dargestellt ist. Figur 1 zeigt eine Konfiguration mit Mehrfach-CPU und gemeinsam genutzter DASD gemäß U.S.-Patentschrift 4,207,609, die auf den Erwerber dieser Erfindung übertragen wurde. Drei CPUs 1, 3 und 4, die nachfolgend mit römischen Ziffern bezeichnet werden sollen, nämlich CPU I, CPU II und CPU III, sind in geeigneter Weise über Gegenstück-Kanäle kreuzweise an ein Paar Steuereinheiten 21 und 23, nachfolgend CU I und CU II genannt, angeschlossen. Hierbei sind an CPU I vier Kanäle 5, 7, 8 und 10 angeschlossen; an CPU II sind zwei Kanäle 9, 12 angeschlossen und an CPU III sind zwei Kanäle 14 und 16 angeschlossen. Die Kanäle 1 und 2 der CPU I enden in den Anschlüssen a und b der CU I, die Kanäle 3 und 4 der CPU I enden in den Anschlüssen e und f der CU II. Kanal 1 der CPU II endet im Anschluß c der CU I, Kanal 2 der CPU II ist am Anschluß g an die CU II angeschlossen. Kanal 1 der CPU III steuert schließlich den Anschluß d der CU I an, Kanal 2 der CPU III steuert den Anschluß h der CU II an. An CU I und CU II sind die Einrichtungen 53 über die DASD- Steuerteile 27 und 29 über eine Bedarfs-/Antwort-Schnittstelle angeschlossen, welche Kennzeichen- und Datenleitungen umfaßt. Die Schnittstelle zwischen der CU I und dem DASD-Steuerteil 27 umfaßt die Kennzeichenleitungen 65 und die Datenleitungen 57 und 59 für ankommende und abgehende Daten. In ähnlicher Weise koppeln die Kennzeichenleitungen 67 und die Pfade 61 und 63 für ankommende und abgehende Daten die CU II mit dem DASD- Steuerteil 29.
  • Die Bedarfs-/Antwort-Schnittstelle ist eine Schnittstelle, in der das abgehende Kennzeichen die Informationen auf den abgehenden und ankommenden Datenleitungen identifiziert und validiert. In diesem Sinne arbeitet jede CPU/Steuereinheit/Einrichtung zueinander asynchron und die Richtungssteuerung erfolgt von oben nach unten. Eine aktive Verbindung zwischen den Elementen zur Ausführung von Operationen ist über längere Zeiten nur für die Bewegung von Daten von der Einrichtung zum Kanal oder vom Kanal zur Einrichtung erforderlich. Ansonsten können Aufgaben oder Operationen im Warte-Modus ausgeführt werden.
  • Auf die Einrichtungen 53 wird entweder über den DASD-Steuerteil 27 oder den DASD-Steuerteil 29 zugegriffen. Der DASD- Steuerteil 27 enthält die Anschlußlogik 39 und den Sequenzsteuerteil 41, der die Einrichtungen 53 über den Pfad 55 koppelt. Ebenso enthält der DASD-Steuerteil 29 die Anschlußlogik 47 und den Sequenzsteuerteil 49, der die Einrichtungen 53 über den Pfad 51 koppelt. Dieser Speicher enthält das Abbild der Netztopologie und die notwendigen Kontextinformationen, die von den CUs bei der Verwaltung des Anschlusses zwischen den CPUs und den Einrichtungen verwendet werden. Der Speicher 25' umfaßt ein Paar Direktzugriffsspeicher (RAM) 43 und 45, auf die gemeinsam von jeder CU über die entsprechende Anschlußlogik zugegriffen werden kann. Die CU I kann zum Lesen, Schreiben oder zum Aktualisieren über die Anschlußlogik 39 und den Pfad 67 auf die RAMs 43 und 45 zugreifen. Die CU II kann gemeinsam über die Anschlußlogik 47 und den Pfad 65 auf die RAMs zugreifen. Die für den Zugriff auf die Einrichtungen 53 erforderlichen Operationen, zu denen die Auswahl und Positionierung elektromechanischer Elemente, wie zum Beispiel der Kopf-Platten-Zugriffsarm-Baugruppe der Direktzugriffsspeichereinrichtungen 0-4 gehört, werden über die Befehle und Parameter geregelt, die von der Steuereinheit durch die Anschlußlogik und den Sequenzsteuerteil gesendet werden.
  • Ein Beispiel für die Haupt-CPU ist der IBM-Prozessor 3090. Der IBM 3090 ist ein kompatibles Zuwachssystem, bei dem als Betriebssystem entweder ein multivirtueller Speicher/erweiterte Architektur (MVS/XA) oder die virtuelle Maschine (VM) verwendet wird. Das Betriebssystem steuert den Datenfluß zum/vom Hauptspeicher und stellt eine Anwendungsumgebung zur Verfügung, die mit dem System/370 kompatibel ist. Der IBM-Prozessor 3090 wird ausführlicher in der IBM-Veröffentlichung, 3090 Processor Complex Installation Manual - Physical Planninq, GC22- 7074, beschrieben. Ein Beispiel für die DASD-Steuerteile 27 und 29 ist das DASD-Steuerteil IBM 3880, Modell 23. Das Steuerteil IBM 3880, Modell 23, enthält einen sehr schnellen Cache und zwei Speicherinterpolatoren 41 und 49, jeder mit einem einzelnen Speicherpfad zur unabhängigen Steuerung der angeschlossenen DASD-Einrichtungen 53. Das IBM 3880-Steuerteil wird in der IBM-Veröffentlichung, IBM 3880 Storaqe Control Model 23 Description, GC32-0082, beschrieben. Ein gutes Beispiel für eine DASD-Einrichtung 0-3 ist der IBM 3380, der eine Kopf- Platten-Baugruppe (HDA) mit festem Medium zur Verfügung stellt, bei der die Köpfe, Platten und Zugriffsmechanismen oder Zugriffsarme in einem versiegelten Gehäuse enthalten sind. Jede 3380-Einheit enthält zwei HDAs. In jeder HDA befinden sich zwei unabhängige bewegliche Zugriffsarme, die auf einen Satz von Platten zugreifen, der auf einer von beiden Zugriffsarmen gemeinsam genutzten Spindel montiert ist. Jeder Zugriffsarm hat seine eigene Adresse, die von den CPUs aus wählbar ist. Eine Kette von DASDs, die an einen 3880- Speicherinterpolator angeschlossen ist, kann vier Einheiten, das heißt sechzehn Zugriffsarme, enthalten. Eine ausführlichere Beschreibung der IBM 3380-DASD findet sich in der IBM-Veröffentlichung, 3380 Description and User's Guide, GA26-1 664.
  • Um das nachfolgend beschriebene Ausführungsbeispiel der vorliegenden Erfindung besser verständlich zu machen, ist es notwendig, einige Einzelheiten des Betriebs dieses DASD-Systems nach dem bisherigen Stand der Technik zu erörtern. Wenn die Haupt-CPU Informationen benötigt, so fordert sie diese durch Anforderung eines bestimmten Kanals, eines bestimmten Steuerteils und eines bestimmten DASD-Zugriffsarms an. Der Kanal ist durch eine sedezimale Nummer in der Größe eines Byte gekennzeichnet, der Steuerteil durch eine sedezimale Nummer in der Größe von vier Bit und der DASD-Zugriffsarm durch eine sedezimale Nummer in der Größe von vier Bit. Wenn zum Beispiel die Haupt-CPU eine sedezimale Adresse 0111 in der Größe von zwei Byte in einer Start-Ein-/Ausgabe-Operation (E/A) senden würde, dann würde der Zugriffsarm Eins, der an den Steuerteil Eins angeschlossen ist, der wiederum an Kanal Eins angeschlossen ist, sich auf die E/A vorbereiten und ein Bereit-Signal an den Hauptrechner senden. Da die Abbildung nach unten und zurück gleich ist, kann der ursprüngliche Transaktionskennsatz zur Festlegung des Rückpfads zum Hauptrechner verwendet werden. Jedes Hauptrechnerprogramm, das auf die DASD zugreift, könnte den oben beschriebenen Kennsatz senden, um den DASD-Zugriffsarm, auf den zugegriffen werden soll, eindeutig zu definieren.
  • Figur 2 zeigt die Grundelemente eines Datenspeicher-Subsystems des Ausführungsbeispiels, das, obwohl es dem der Figur 1 ähnlich ist, in einer sehr verallgemeinerten Blockform dargestellt ist. Die Annahme, die in der Figur 2 gemacht wurde, ist die, daß die höchstmöglichen Ganzzahlen physisch verbunden sind und funktionieren. Es muß daran erinnert werden, daß die Erfindung darauf abzielt, Situationen zu behandeln, in denen diese Annahme progressiv unrichtig wird, so daß es in der nachfolgenden Diskussion sein kann, daß es zum Beispiel so aussieht, als wären nur zwei HDAs angeschlossen, im Gegensatz zu dem, was in der Figur 2 dargestellt ist. Für die Diskussion ist es unwesentlich, ob dies deswegen der Fall ist, weil die übrigen potentiellen Elemente zwar vorhanden, jedoch nicht richtig sind, vorhanden sind, jedoch gestört waren, oder einfach nicht angeschlossen oder noch nicht angeschlossen sind.
  • Um zu der in Figur 2 dargestellten allgemeinen Situation zurückzukehren, eine Haupt-CPU 110 ist über ihre Kanäle 120 an den DASD-Steuerteil 125 mit seinen beiden Interpolatoren 160 angeschlossen, an die jeweils eine DASD-Kette 70 und 75 angeschlossen ist. Jede oder alle HDAs können zu beiden Ketten gehören. Die Informationen erfolgen jeweils über die Pfade, die vom Hauptrechner angegeben werden. Ein Hauptunterschied zwischen dem beschriebenen bisherigen Stand der Technik und dem Ausführungsbeispiel liegt in der Abwicklung und Nutzung von Statusinformationen zur Verwaltung des Datenspeicherungssystems und des nicht flüchtigen Speichers 220. Der DASD-Steuerteil 125 enthält außerdem einen EPROM-Datenbereich 95 für wichtige Produktdaten. Dieser Datenbereich für wichtige Produktdaten enthält Zeiger zu den Speicherplätzen des Globalstatus.
  • Eine gemeinsame Matrix-Struktur (JAS) 200 dient zur Erhaltung des Hauptrechners für die DASD-Schnittstelle und zur Implementierung von Doppelkopie- und Hochverfügbarkeitsfunktionen Durch die Doppelkopiefunktion erhält man eine verbesserte Datenverfügbarkeit und eine erhöhte Zuverlässigkeit, indem zwei identische Kopien, eine Primärkopie und eine Sekundärkopie, von Datenträgern, Duplexpaar genannt, auf zwei physisch voneinander getrennten DASD-Einheiten geführt werden, zum Beispiel einer primären Datenspeicherungseinrichtung in Kette 70 und einer sekundären Datenspeicherungseinrichtung in Kette 75. Wie diese in der Umgebung der Figur 2 verwendet werden, soll im folgenden beschrieben werden.
  • Die Datenspeicherungseinrichtungen in den Ketten 70 und 75 haben jeweils eine ausschließlich zugeordnete Statusspur für die Sicherung von Statusinformationen. Die ausschließlich zugeordnete Statusspur kann von Anwendungen, die nicht Systemanwendungen sind, nicht genutzt werden und sichert zwei Kopien des globalen Subsystemstatus für den Steuerteil und die ersten und zweiten Datenspeicherungseinrichtungen. Das Speichersubsystem ist die Gruppe bestehend aus dem Steuerteil und den angeschlossenen Datenspeicherungseinrichtungen. Im Beispiel besteht sie aus dem einzelnen Steuerteil 125 und den beiden Datenspeicherungseinrichtungen 70 und 75.
  • Statusinformationen über das Subsystem werden über eine Abschaltung hinaus gesichert, indem ein einzelner Satz von Status- und Identifizierungsinformationen zweimal auf die Statusspur jeder Einrichtung geschrieben wird. Der globale Subsystemstatus wird auch auf den ersten und zweiten Datenspeicherungseinrichtungen 70 und 75 gehalten Die Einrichtungs- Identifzierung wird auf allen Einrichtungen im Subsystem gehalten, der Subsystemglobalstatus wird jedoch nur auf den beiden Globaldaten-Speicherungseinrichtungen gehalten. Der Teil des Satzes, der sich auf den globalen Subsystemstatus bezieht, ist formatiert, wird jedoch nicht genutzt, wenn es sich bei der betreffenden Einrichtung nicht um eine der beiden Subsystemglobalstatus-Einrichtungen handelt.
  • Der Globalstatuszeiger enthält Adreßinformationen über die beiden Datenspeicherungseinrichtungen und eine Zählung, wie oft die Einrichtungen neu zugewiesen wurden, wobei diese Daten beim Initialprogrammladen verwendet werden, um festzustellen, welches die aktuellste Kopie des Globalstatuspaares ist. Eine ausführlichere Beschreibung des Globalstatuszeigers findet sich im folgenden.
  • Der Subsystemglobalstatus besteht aus den folgenden Informationen:
  • dem Globalstatuszeiger - bei dem es sich um ein Feld in der Größe von vier Byte handelt, einschließlich der ein Byte langen Adresse jeder Datenspeicherungseinrichtung, zu denen die ersten, 70, und zweiten, 75, Datenspeicherungseinrichtungen für Globaldaten gehören, und
  • eine zwei Byte lange Nummer, welche anzeigt, wie oft sich die Definition der Datenspeicherungseinrichtungen geändert hat.
  • Der Globalstatus enthält den Status der Subsystemkomponenten, einen Cache-Speicher 145 und einen nicht flüchtigen Speicher 220, sowie Einrichtungen, wie sie durch Störungs- oder Systembefehle festgelegt werden.
  • Die Informationen über die Status spur sind unterteilt in Einrichtungs-Identifizierungsinformationen und Statusinformationen. Die Einrichtungs-Identifizierungsinformationen werden verwendet, um sicherzustellen, daß die angeschlossene Einrichtung diejenige ist, welche das Subsystem erwartet. Die Statusinformation ist aufgeteilt in zwei Kategorien, den Subsystemstatus und den Einrichtungsstatus. Der Subsystemstatus enthält Informationen, die sich nicht auf eine bestimmte Einrichtung, sondern auf das gesamte Subsystem beziehen, wie zum Beispiel den Globalstatuszeiger, und Informationen darüber, ob der Subsystemspeicher verfügbar ist oder nicht, sowie Informationen, die die Integrität des nicht flüchtigen Speichers sicherstellen sollen. Der Einrichtungsstatus enthält Informationen, die zu einer bestimmten DASD-Einrichtung gehören, wie zum Beispiel die Kanaladresse, auf die die Einrichtung ansprechen soll, ob die Einrichtung für den Cache oder für das Schnellschreiben aktiv ist oder nicht, und den Duplexpaarstatus der Einrichtung. Andere Informationen sind in der Statusspur enthalten, die oben genannten Beispiele sind Beispiele für identifizierte Informationen.
  • Aus Gründen der Verfügbarkeit werden die oben besprochenen Subsystem-Globalstatusinformationen auf zwei Einrichtungen gehalten. Jede Einrichtung hat jedoch ihre eigene geschriebene Einrichtungsnummer. Sollte eine Einrichtung ausfallen, dient die andere Einrichtung dazu, die Information zu sichern, und die ausgefallene Einrichtung wird durch eine andere betriebsfähige Einrichtung ersetzt.
  • Jeder Steuerteil führt wichtige Produktdaten, die dazu verwendet werden, Informationen bezüglich der Hardware-Eigenschaften und der angeschlossenen Einrichtungen zu identifizieren und festzulegen. Die wichtigen Produktdaten werden im EPROM in jedem Steuerteil gespeichert, wie bei 95 und 96 der Figur 2 dargestellt. Zu diesen Informationen gehören folgende:
  • Modelltyp
  • Konfiguration
  • Systemadapter und Systemadresse
  • Identifizierungsnummer des Subsystemspeichers
  • Seriennummern der Speichersteuerung
  • Größe des Subsystemspeichers
  • Größe des nicht flüchtigen Speichers
  • Globalstatuszeiger
  • Steuerteil-Typ für jede Kette
  • Höchstanzahl der für jede Kette konfigurierten Antriebseinheiten.
  • Diese Informationen dienen zur Initialisierung der JAS 200 im Steuerteil 25, um die Konfiguration des aktuellen Systems abzubilden. In unserem Beispiel enthält die JAS 200 die Adressen, daß die Datenspeicherungseinrichtungen 70 und 75 dem Hauptrechner 110 bekannt sind.
  • Bei Initialisierung des Subsystems werden folgende Schritte ausgeführt:
  • Die Geräte durchlaufen ein einleitendes Mikroprogrammladen (IML), um einen betriebsbereiten Datenpfad zwischen den anschließenden Kanälen und den angeschlossenen Einrichtungen einzurichten. Der Mikrocode für den Speicherpfad (SP) wird durch die Unterstützungsvorrichtung in der Datenspeicherungseinrichtung von der IML-Einrichtung geladen. Ein SP 140 ist ein adressierbarer unabhängiger Prozessor, der Daten zu einer Datenspeicherungseinrichtung 70 oder 75 leitet. Eine Anlauftestroutine wird durchgeführt, um sicherzustellen, daß der Speicherpfad betriebsbereit ist. Dieser Prozeß wird für alle SPs 140 des Subsystems, die auf der Steuerung 125 gespeichert sind, koordiniert. Jeder SP 140 kann unabhängig von den anderen SPs das IML ausführen. Bevor ein Zugriff gewährt wird, wird die Lage einer Globalstatus-Einrichtung benötigt. Ist ein IML-Einrichtungszeiger vorhanden, muß der jeweils jüngste Zeiger mit der verfügbaren Einrichtung oder den verfügbaren Einrichtungen übereinstimmen. Ist ein IML-Einrichtungszeiger verfügbar, muß er auf eine Einrichtung mit identischen Zeigern zeigen. Der IML-Einrichtungszeiger muß nicht mit dem Einrichtungszeiger identisch sein.
  • Anschließend wird die Matrix des Subsystem-Globalstatus aus jeder der beiden Speicherungseinrichtungen 75 und 70 für Subsystem-Globaldaten eingelesen. Wenn der gültige und aktuelle Subsystem-Globalstatus identifiziert ist, wird der Subsystem- Globalstatus auf beide Datenspeicherungseinrichtungen geschrieben, um sicherzustellen, daß die Informationen auf beiden Einrichtungen übereinstimmen. Werden die Einrichtungen verfügbar, wird die Einrichtungsnummer und die Subsystem- Identifizierungsnummer jeder Datenspeicherungseinrichtung gelesen und mit der Globalstatus-Matrix verglichen, um sicherzustellen, daß die richtige Hardware angeschlossen ist und keine Bewegung stattgefunden hat. Ist dieser Prozeß abgeschlossen, werden dem Hauptrechner die verfügbaren SPs 140 mitgeteilt und die normale Verarbeitung beginnt. Die Identifizierungsnummer der Einrichtung wird überprüft, um sicherzustellen, daß Daten, die in dem nicht flüchtigen Speicher einer Einrichtung hinterlassen wurden, nicht auf die falsche Einrichtung angewendet werden, zum Beispiel aufgrund einer Neukonfiguration nach Austausch einer Einrichtung. Der Steuerteil kann zwei Status-Datenspeicherungseinrichtungen festlegen, solange ein Paar von betriebsbereiten Einrichtungen zum Halten des Status gefunden werden kann, oder eine der beiden Einrichtungen des vorherigen Status eine Einrichtung des vorherigen Paares ist und eine initialisierte Einrichtung aktualisiert werden kann, oder beide initialisierten Einrichtungen aktualisiert werden können und damit das neue Paar darstellen. Kann der Steuerteil die beiden Status-Datenspeicherungseinrichtungen nicht festlegen, startet er einen Neuversuch und sendet für jeden versuchten Zugriff auf die gestörte bzw. nicht verfügbare Einrichtung einen Fehlercode zurück.
  • Erlaubt die aktuelle Verfügbarkeit der Einrichtungen eine bessere Einrichtungskonfiguration für den Subsystemglobalstatus, werden die Einrichtungen nach den folgenden Regeln neu konfiguriert:
  • 1) die Einrichtungen werden auf getrennte Ketten gelegt;
  • 2) die Einrichtungen werden auf getrennte Einheiten gelegt; und
  • 3) die Einrichtungen werden auf getrennte Spindeln gelegt.
  • Die Einrichtungen werden für den Subsystemglobalstatus auch dann vom Steuerteil neu zugewiesen, wenn das Steuerteil nur auf eine von zwei Einrichtungen zugreifen kann. Wenn es aus einem der oben beschriebenen Gründe notwendig ist, das System neu zu konfigurieren, ist die Reihenfolge der Aktualisierung folgende:
  • 1) Hochzählung der Neukonfigurationszählung im Globalstatuszeiger, um darzustellen, daß eine Neukonfiguration stattgefunden hat.
  • 2) Der Subsystemglobalstatus wird auf die neue Globalstatus-Einrichtung geschrieben. Ihr Status bildet das neue Paar ab.
  • 3) Der Subsystemglobalstatus wird auf die alte, jedoch immer noch arbeitende Globalstatus-Einrichtung geschrieben (im Falle der funktionsgestörten Einheit).
  • 4) Der Globalstatuszeiger wird in den beiden Bereichen für wichtige Produktdaten 95 und 96 des EPROM aktualisiert.
  • Nachdem die oben beschriebenen Operationen abgeschlossen sind, ist das neu konfigurierte System optimal abgestimmt und betriebsbereit.
  • Im Betrieb kann der Steuerteil, wenn eine Einrichtung ausfällt, die gestörte Einrichtung ersetzen und den Globalstatus auf eine andere Speichereinrichtung kopieren. Die Zuweisung einer neuen Datenspeicherungseinrichtung basiert auf der folgenden Priorität: wenn zwei Ketten von Datenspeicherungseinrichtungen verfügbar sind, wie in unserem Fall mit 70 und 75, dann wird die erste verfügbare Datenspeicherungseinrichtung auf jeder Kette verwendet; ist jedoch nur eine Kette verfügbar, werden die betriebsbereiten Einrichtungen in getrennten physischen Einheiten verwendet.
  • Kommen neue Einrichtungen hinzu oder werden Einrichtungen ausgetauscht, werden die Einrichtungen adaptiert und die Statusspur beschrieben, solange der Status der Einrichtung im Subsystemglobalstatus zeigt, daß die Position der Einrichtung nicht einem Schnellschreib- oder Doppelkopiedatenträger zugeordnet wurde. Bei der Installation oder Initialisierung sind die Globalstatuszeiger "Nullen". Das Subsystem formatiert und schreibt Einrichtungs-IDs auf alle Einrichtungsstatusspuren, weist Globalstatus-Einrichtungen zu und schreibt den Globalstatus und die Globalstatuszeiger in den EPROM.
  • Während die Erfindung im Sinne eines bevorzugten Ausführungsbeispiels in einer spezifischen Betriebssystemumgebung beschrieben wurde, ist es für den Fachmann erkennbar, daß die Erfindung, mit Änderungen, auch in anderen und unterschiedlichen Betriebssystemen in die Praxis umgesetzt werden kann.

Claims (6)

1. Ein Verfahren zur Verwaltung eines Datenverarbeitungssystems mit einem Hauptrechnersystem (110), einem angeschlossenen Steuerteil (125), welches einen Satz von an einen Cache angeschlossenen Speicherpfaden umfaßt, einen Steuerteil für die Datenspeicherungseinrichtung (160) und einen nicht flüchtigen Speicher (220) enthält, und einen Speicher mit einer Matrix- Struktur (200), der eine Statustabelle umfaßt, welche die Statussätze der Datenspeicherungseinrichtungen enthält, wobei das System einen globalen Statussatz erzeugt, der die Statussätze des Steuerteils und der angeschlossenen Datenspeicherungseinrichtungen verbindet, und der Steuerteil der Datenspeicherungseinrichtung Anschlußmittel für eine Vielzahl von Ketten von Datenspeicherungseinrichtungen (75, 70) enthält, wobei jede Kette eine Vielzahl von Datenspeicherungseinrichtungen mit einer Vielzahl von Sätzen, einer Vielzahl von Spuren und einer Einrichtungsstatusspur enthält, welche die Statusinformationen der Datenspeicherungseinrichtung enthält, dadurch gekennzeichnet, daß:
die genannte Einrichtungsstatusspur auch eine Neukonfigurationszählung umfaßt, die aufzeichnet, wie oft die Einrichtung neu zugewiesen wurde, eine Einrichtungs- Identifizierungsnummer und eine darauf aufgezeichnete Steuerteil-Identifizierungsnummer;
die genannte Statustabelle in der Matrix-Struktur auch eine Neukonfigurationszählung, eine Einrichtungs- Identifizierungsnummer und eine Steuerteil-Identifizierungsnummer für jede Datenspeicherungseinrichtung umfaßt;
der genannte globale Statussatz auch die Einrichtungs-Identifizierungsnummer und die Steuerteil- Identifizierungsnummer umfaßt; und
die globale Identifizierung und Verwaltung der Datenspeicherungseinrichtungen sichergestellt wird durch:
Prüfen jeder Datenspeicherungseinrichtung der Vielzahl von Datenspeicherungseinrichtungen zur Feststellung der Einrichtungs-Identifizierungsnummer, der Steuerteil- Identifizierungsnummer und der Statussätze;
Erzeugung des globalen Statussatzes;
Schreiben der Einrichtungs-Identifizierungsnummer auf jeden Statussatz auf jeder Datenspeicherungseinrichtung; und
Schreiben des globalen Statussatzes auf die Statussätze einer ersten Datenspeicherungseinrichtung und einer zweiten Datenspeicherungseinrichtung.
2. Ein Verfahren gemäß Anspruch 1, in welchem eine gestörte Datenspeicherungseinrichtung gegen eine funktionsfähige Datenspeicherungseinrichtung ausgetauscht wird, und Informationen, die die funktionsfähige Datenspeicherungseinrichtung identifizieren, als Ersatz für die gestörte Datenspeicherungseinrichtung aktualisiert werden.
3. Ein Verfahren gemäß jedem der vorhergehenden Ansprüche, in welchem eine erste Speicherladung einer Datenspeicherungseinrichtung solange verhindert wird, bis die Steuerteil-Identifizierungsnummer und die Einrichtungs-Identifizierungsnummer in der Statustabelle des Steuerteils mit den Einrichtungs- und Steuerteil- Identifizierungsnummern auf der Einrichtungsstatusspur der Datenspeicherungseinrichtung übereinstimmen.
4. Ein Verfahren gemäß jedem der vorhergehenden Ansprüche, in welchem die Datenspeicherungseinrichtungen so konfiguriert sind, daß sie den Informationsfluß über jede Kette folgendermaßen verteilen:
durch Verbinden jeder Datenspeicherungseinrichtung mit der Kette, an die die wenigsten Datenspeicherungseinrichtungen angeschlossen sind; und
durch Verbinden der Vielzahl von Ketten mit mehr als einem an den Steuerteil der Datenspeicherungseinrichtung angeschlossenen Mittel.
5. Ein Verfahren gemäß jedem der vorhergehenden Ansprüche, in dem das Ansprechen des Systems auf eine Störung einer Globalstatus-Datenspeicherungseinrichtung folgendes umfaßt:
Hochzählen der Neukonfigurationszählung in der Statustabelle der gemeinsamen Matrix-Struktur, um anzuzeigen, daß eine Neukonfiguration stattgefunden hat; und
Schreiben der hochgezählten Neukonfigurationszählung auf die Einrichtungsstatusspur der funktionsfähigen Datenspeicherungseinrichtung.
6. Ein Datenverarbeitungssystem zur Sicherstellung der globalen Identifizierung und Verwaltung einer Vielzahl von Datenspeicherungseinrichtungen, welches folgendes umfaßt:
ein Hauptrechnersystem (110) mit einer Vielzahl von Kanälen;
einen Steuerteil (125), der an mindestens einen Kanal angeschlossen ist, und eine Reihe von Speicherpfaden umfaßt, wobei jeder Speicherpfad Zugang zu einem Cache, einem Steuerteil für eine Datenspeicherungseinrichtung (160), einem nicht flüchtigen Speicher (220) und einem Speicher mit einer Matrix-Struktur (200) hat, der eine Statustabelle mit den Statussätzen der Datenspeicherungseinrichtungen enthält;
einen globalen Statussatz, der die Statussätze des Steuerteils und der angeschlossenen Datenspeicherungseinrichtungen verbindet, der in der Statustabelle der Matrix in dem Steuerteil gespeichert ist;
eine Vielzahl von Datenspeicherungseinrichtungen (75, 70), die an den Steuerteil für die Datenspeicherungseinrichtungen angeschlossen sind, wobei jede Datenspeicherungseinrichtung eine Vielzahl von Spuren umfaßt, und eine Einrichtungsstatusspur, welche die Statusinformation der Datenspeicherungseinrichtung enthält;
dadurch gekennzeichnet, daß:
die genannte Einrichtungsstatusspur auch eine Neukonfigurationszählung umfaßt, die aufzeichnet, wie oft die Einrichtung neu zugewiesen wurde, eine Einrichtungs- Identifizierungsnummer und eine darauf aufgezeichnete Steuerteil-Identifizierungsnummer;
die genannte Statustabelle in der Matrix-Struktur auch eine Neukonfigurationszählung, eine Einrichtungs- Identifizierungsnummer und eine Steuerteil-Identifizierungsnummer für jede Datenspeicherungseinrichtung umfaßt;
der genannte globale Statussatz auch die Einrichtungs-Identifizierungsnummer und die Steuerteil- Identifizierungsnummer umfaßt; und
das System folgendes enthält:
Mittel zur Prüfung jeder Datenspeicherungseinrichtung einer Vielzahl von Datenspeicherungseinrichtungen zur Feststellung der Einrichtungs-Identifizierungsnummer, der Steuerteil-Identifizierungsnummer und der Statussätze;
Mittel zum Schreiben der Einrichtungs- Identifizierungsnummer auf jeden der Statussätze in jeder der Datenspeicherungseinrichtungen; und
Mittel zum Schreiben des globalen Statussatzes auf die Statussätze einer ersten Datenspeicherungseinrichtung und einer zweiten Datenspeicherungseinrichtung.
DE88112032T 1987-08-20 1988-07-26 Identifizierung von Datenspeicherungseinrichtungen. Expired - Fee Related DE3881786T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US8733187A 1987-08-20 1987-08-20

Publications (2)

Publication Number Publication Date
DE3881786D1 DE3881786D1 (de) 1993-07-22
DE3881786T2 true DE3881786T2 (de) 1993-12-23

Family

ID=22204553

Family Applications (1)

Application Number Title Priority Date Filing Date
DE88112032T Expired - Fee Related DE3881786T2 (de) 1987-08-20 1988-07-26 Identifizierung von Datenspeicherungseinrichtungen.

Country Status (5)

Country Link
US (1) US5148540A (de)
EP (1) EP0303855B1 (de)
JP (1) JPS6458013A (de)
DE (1) DE3881786T2 (de)
SG (1) SG150294G (de)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5247692A (en) * 1988-02-08 1993-09-21 Nec Corporation Multiple file system having a plurality of file units holding the same files in which loss of data is prevented in a failure of a file unit
DE69028517D1 (de) * 1990-05-11 1996-10-17 Ibm Verfahren und Gerät zur Ableitung des Zustandes einer gespiegelten Einheit bei Reinitialisierung eines Systems
JPH0540682A (ja) * 1990-06-08 1993-02-19 Internatl Business Mach Corp <Ibm> アトミシテイを有する記憶装置の高可用性耐故障再配置
US5202998A (en) * 1990-08-31 1993-04-13 International Business Machines Corporation Fast, simultaneous multi-processor system status communication interface
US5327550A (en) * 1990-11-27 1994-07-05 Cray Research, Inc. Disabled memory sections for degraded operation of a vector supercomputer
US5758052A (en) * 1991-10-02 1998-05-26 International Business Machines Corporation Network management method using redundant distributed control processors
US5379417A (en) * 1991-11-25 1995-01-03 Tandem Computers Incorporated System and method for ensuring write data integrity in a redundant array data storage system
JPH05224822A (ja) * 1992-02-12 1993-09-03 Hitachi Ltd 集合型記憶装置
US5329273A (en) * 1992-06-03 1994-07-12 Honeywell, Inc. System controller and remote fault annunciator with cooperative storage, sharing, and presentation of fault data
US5428796A (en) * 1992-08-26 1995-06-27 International Business Machines Corporation System and method for regulating access to direct access storage devices in data processing systems
US5437022A (en) * 1992-12-17 1995-07-25 International Business Machines Corporation Storage controller having additional cache memory and a means for recovering from failure and reconfiguring a control unit thereof in response thereto
US5577222A (en) * 1992-12-17 1996-11-19 International Business Machines Corporation System for asynchronously duplexing remote data by sending DASD data grouped as a unit periodically established by checkpoint based upon the latest time value
US5640530A (en) * 1992-12-17 1997-06-17 International Business Machines Corporation Use of configuration registers to control access to multiple caches and nonvolatile stores
US5771367A (en) * 1992-12-17 1998-06-23 International Business Machines Corporation Storage controller and method for improved failure recovery using cross-coupled cache memories and nonvolatile stores
AU3545795A (en) * 1994-09-08 1996-03-27 Chiron Corporation A method of improved production of insulin-like growth factor
US5712249A (en) * 1994-09-08 1998-01-27 Ciba-Geigy Corporation Use of insulin-like growth factors I and II for inhibition of inflammatory response
US5553230A (en) * 1995-01-18 1996-09-03 Hewlett-Packard Company Identifying controller pairs in a dual controller disk array
US5752004A (en) * 1995-07-31 1998-05-12 International Business Machines Corporation Method and system for modifying an internal data processing system identification
US7389312B2 (en) * 1997-04-28 2008-06-17 Emc Corporation Mirroring network data to establish virtual storage area network
US6038613A (en) * 1997-11-14 2000-03-14 International Business Machines Corporation Prefetching and storing device work information from multiple data storage devices
US6256740B1 (en) * 1998-02-06 2001-07-03 Ncr Corporation Name service for multinode system segmented into I/O and compute nodes, generating guid at I/O node and exporting guid to compute nodes via interconnect fabric
US6148349A (en) * 1998-02-06 2000-11-14 Ncr Corporation Dynamic and consistent naming of fabric attached storage by a file system on a compute node storing information mapping API system I/O calls for data objects with a globally unique identification
US6247077B1 (en) 1998-02-06 2001-06-12 Ncr Corporation Highly-scalable parallel processing computer system architecture
US6640264B1 (en) * 1998-07-20 2003-10-28 Gary W Moore Incremental state logic methodology and apparatus for logic based program control
US7632803B2 (en) * 1999-10-01 2009-12-15 Dmi Life Sciences, Inc. Metal-binding compounds and uses therefor
US7592304B2 (en) * 1999-10-01 2009-09-22 Dmi Life Sciences, Inc. Metal-binding compounds and uses therefor
US6463504B1 (en) 1999-11-08 2002-10-08 International Business Machines Corporation Method and system for dynamically reassigning unused logical volumes from a storage subsystem to an open systems host
US6412002B1 (en) 1999-11-15 2002-06-25 Ncr Corporation Method and apparatus for selecting nodes in configuring massively parallel systems
US6745240B1 (en) 1999-11-15 2004-06-01 Ncr Corporation Method and apparatus for configuring massively parallel systems
US6418526B1 (en) 1999-11-15 2002-07-09 Ncr Corporation Method and apparatus for synchronizing nodes in massively parallel systems
US6519697B1 (en) 1999-11-15 2003-02-11 Ncr Corporation Method and apparatus for coordinating the configuration of massively parallel systems
US20020010795A1 (en) * 2000-06-09 2002-01-24 Brown Charles P. Method and system for protecting domain names
US6948102B2 (en) * 2002-04-29 2005-09-20 International Business Machines Corporation Predictive failure analysis for storage networks
US7321951B2 (en) * 2003-11-17 2008-01-22 Micron Technology, Inc. Method for testing flash memory power loss recovery
US8060683B2 (en) * 2004-12-17 2011-11-15 International Business Machines Corporation System, method and program to preserve a cache of a virtual machine
US7945756B1 (en) * 2005-03-30 2011-05-17 Emc Corporation System and method for managing a data storage system by contacting a single processor in a data storage system having more than one processor
US7577803B2 (en) * 2007-02-16 2009-08-18 Seagate Technology Llc Near instantaneous backup and restore of disc partitions
US9824030B2 (en) * 2015-10-30 2017-11-21 International Business Machines Corporation Adjusting active cache size based on cache usage
US10540295B2 (en) 2017-06-21 2020-01-21 International Business Machines Corporation Processing cache miss rates to determine memory space to add to an active cache to reduce a cache miss rate for the active cache

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4038537A (en) * 1975-12-22 1977-07-26 Honeywell Information Systems, Inc. Apparatus for verifying the integrity of information stored in a data processing system memory
US4025906A (en) * 1975-12-22 1977-05-24 Honeywell Information Systems, Inc. Apparatus for identifying the type of devices coupled to a data processing system controller
US4162520A (en) * 1976-09-30 1979-07-24 Burroughs Corporation Intelligent input-output interface control unit for input-output subsystem
US4207609A (en) * 1978-05-08 1980-06-10 International Business Machines Corporation Method and means for path independent device reservation and reconnection in a multi-CPU and shared device access system
US4262332A (en) * 1978-12-28 1981-04-14 International Business Machines Corporation Command pair to improve performance and device independence
US4237533A (en) * 1978-12-28 1980-12-02 International Business Machines Corporation Preventing initial program load failures
US4467421A (en) * 1979-10-18 1984-08-21 Storage Technology Corporation Virtual storage system and method
US4456966A (en) * 1981-02-26 1984-06-26 International Business Machines Corporation Memory system with flexible replacement units
US4396984A (en) * 1981-03-06 1983-08-02 International Business Machines Corporation Peripheral systems employing multipathing, path and access grouping
AU551032B2 (en) * 1981-03-31 1986-04-17 British Telecommunications Public Limited Company Safety arrangement in computer control system
US4371952A (en) * 1981-05-06 1983-02-01 Ncr Corporation Diagnostic circuitry for isolating a faulty subsystem in a data processing system
US4507730A (en) * 1981-10-01 1985-03-26 Honeywell Information Systems Inc. Memory system with automatic memory configuration
US4432057A (en) * 1981-11-27 1984-02-14 International Business Machines Corporation Method for the dynamic replication of data under distributed system control to control utilization of resources in a multiprocessing, distributed data base system
US4507751A (en) * 1982-06-21 1985-03-26 International Business Machines Corporation Method and apparatus for logging journal data using a log write ahead data set
JPS59165162A (ja) * 1983-03-11 1984-09-18 インタ−ナシヨナル ビジネス マシ−ンズ コ−ポレ−シヨン ボリューム回復方法
US4545010A (en) * 1983-03-31 1985-10-01 Honeywell Information Systems Inc. Memory identification apparatus and method
US4563736A (en) * 1983-06-29 1986-01-07 Honeywell Information Systems Inc. Memory architecture for facilitating optimum replaceable unit (ORU) detection and diagnosis
US4648036A (en) * 1985-03-06 1987-03-03 At&T Bell Laboratories Method for controlling query and update processing in a database system
US4875155A (en) * 1985-06-28 1989-10-17 International Business Machines Corporation Peripheral subsystem having read/write cache with record access
US4823261A (en) * 1986-11-24 1989-04-18 International Business Machines Corp. Multiprocessor system for updating status information through flip-flopping read version and write version of checkpoint data
US4839895A (en) * 1987-01-07 1989-06-13 Nec Corporation Early failure detection system for multiprocessor system

Also Published As

Publication number Publication date
EP0303855A3 (en) 1990-02-07
EP0303855A2 (de) 1989-02-22
SG150294G (en) 1995-03-17
US5148540A (en) 1992-09-15
JPH0551929B2 (de) 1993-08-04
DE3881786D1 (de) 1993-07-22
EP0303855B1 (de) 1993-06-16
JPS6458013A (en) 1989-03-06

Similar Documents

Publication Publication Date Title
DE3881786T2 (de) Identifizierung von Datenspeicherungseinrichtungen.
DE69632219T2 (de) Speicherplattenanordnungssystem
DE69738159T2 (de) Anordnung und Verfahren zur Wiederzuteilung von logischen an physikalische Plattengeräte unter Verwendung eines Speichersteuergerätes
DE69117371T2 (de) Hintergrund-Plattenoberflächenanalyse durch eine Steuerung für intelligente Speicherplattenanordnung ausgeführt
DE68913629T2 (de) Satzverriegelungsprozessor für vielfachverarbeitungsdatensystem.
DE69629444T2 (de) Datenverarbeitungsgerät und Verfahren zur Ersetzung von ausgefallenen Speichereinheiten
DE69724846T2 (de) Mehrweg-Ein/Ausgabespeichersysteme mit Mehrweg-Ein/Ausgabeanforderungsmechanismus
DE69220553T2 (de) Fehleranzeige in einer Speichergerätsanordnung
DE69632424T2 (de) Server für kontinuierliche Daten und Datentransferschema für mehrfache gleichzeitige Datenzugriffe
DE69730449T2 (de) Erzeugung einer spiegeldatenkopie (bild) unter verwendung von referenzetiketten
DE3280428T2 (de) Datenspeichersystem fuer einen arbeitsrechner.
DE69631106T2 (de) On-line-Rekonfiguration einer Speicherplattenanordnung
DE69219208T2 (de) Verteilter Ersatz in DASD-Feldern
DE69915243T2 (de) Speicherplattenanordnung-Steuerungsvorrichtung
DE69127025T2 (de) Fehlererkennung und -beseitigung in einem Datenverarbeitungssystem
DE112011100112B4 (de) Pufferspeicher-platte in blitzkopie-kaskade
DE69635713T2 (de) Diskarray-Teilsystem
DE69534994T2 (de) Steuerungsvorrichtung für speicherplattenanordnung und speicherplattenanordnungsgerät
DE3688191T2 (de) Editor für virtuelle Maschinen.
DE19723909A1 (de) Verfahren zum Erzielen einer geteilten Paritätsersatzplatte in einem RAID-Untersystem
DE2529152A1 (de) Verfahren und anordnung zur feststellung von fehlern in halbleiter- informationsspeichern
DE69532703T2 (de) Speicherplattenanordnungsuntersystem und Datenerzeugungsverfahren dazu
DE69016978T2 (de) Sicheres Datenschnellschreibverfahren für Massenspeichereinrichtung und ein dieses Verfahren ausführendes Computersystem.
DE10048402B4 (de) Datenspeichersystem
DE102005012358A1 (de) Datenschutz unter Verwendung von Daten, die in Schnappschüsse verteilt sind

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee