DE102012110164A1 - Rechneranordnung - Google Patents

Rechneranordnung Download PDF

Info

Publication number
DE102012110164A1
DE102012110164A1 DE102012110164.7A DE102012110164A DE102012110164A1 DE 102012110164 A1 DE102012110164 A1 DE 102012110164A1 DE 102012110164 A DE102012110164 A DE 102012110164A DE 102012110164 A1 DE102012110164 A1 DE 102012110164A1
Authority
DE
Germany
Prior art keywords
cluster
data
systems
computer arrangement
cluster system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102012110164.7A
Other languages
English (en)
Other versions
DE102012110164B4 (de
Inventor
Steffen Werner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Technology Solutions Intellectual Property GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Technology Solutions Intellectual Property GmbH filed Critical Fujitsu Technology Solutions Intellectual Property GmbH
Priority to DE102012110164.7A priority Critical patent/DE102012110164B4/de
Priority to JP2015538343A priority patent/JP6149205B2/ja
Priority to US14/437,735 priority patent/US10235369B2/en
Priority to PCT/EP2013/068480 priority patent/WO2014063856A1/de
Publication of DE102012110164A1 publication Critical patent/DE102012110164A1/de
Application granted granted Critical
Publication of DE102012110164B4 publication Critical patent/DE102012110164B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/113Details of archiving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/80Database-specific techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/84Using snapshots, i.e. a logical point-in-time copy of the data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Die Erfindung betrifft eine Rechneranordnung (10) umfassend eine Mehrzahl von Clustersystemen (11a, 11b, 11c) zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage (13), wobei jedes der Mehrzahl von Clustersystemen (11a, 11b, 11c) modular aufgebaut ist. Jedes der Clustersysteme (11a, 11b, 11c) umfasst eine Mehrzahl von Komponentenrechnern (14b, 14c), wenigstens ein Massenspeichersystem (12) zum Zwischenspeichern von zu archivierenden Daten sowie eine Clustersteuerung (17) zum Steuern der einzelnen Komponentenrechner (14b, 14c) des jeweiligen Clustersystems (11a, 11b, 11c). Die Rechneranordnung umfasst des Weiteren wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen (11a, 11b, 11c) und wenigstens einer Verbundsteuerung (20) zum Abfragen von Statusdaten über eine Abfrageschnittstelle (24) der Clustersteuerungen (17) der Mehrzahl von Clustersystemen (11a, 11b, 11c) und zum Übermitteln von Arbeitsaufträgen an eine Steuerschnittstelle (23) der Clustersteuerungen (17) der Mehrzahl von Clustersystemen (11a, 11b, 11c).

Description

  • Die Erfindung betrifft eine Rechneranordnung umfassend eine Mehrzahl von Clustersystemen zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage.
  • Clustersysteme zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage sind aus dem Stand der Technik bekannt. Beispielsweise ist aus der EP 1 234 226 B1 ein Backup- und Archivierungssystem mittels Bandkassetten für Datenverarbeitungsanlagen bekannt, das von Fujitsu Technologie Solutions unter der Bezeichnung "CentricStor" vertrieben wird. Die Architektur des als "CentricStor" bekannten Backup- und Archivierungssystem ist schematisch in der 3 vereinfacht dargestellt.
  • Das Backup- und Archivierungssystem gemäß der 3 ist mit einem oder mehreren Hosts 1 und einem oder mehreren Kassettenlaufwerken 2 verbunden. Die Daten der Host 1 werden an Dateneingängen bereitgestellt. Ferner ist ein Plattenspeichersubsystem 3 mit mindestens einer Plattenspeichereinheit 4 als Teil einer datentechnischen Koppeleinheit 5 vorhanden. Die datentechnische Koppeleinheit 5 ist mit den Hosts 1 und den Kassettenlaufwerken 2 verbunden. Innerhalb der datentechnischen Koppeleinheit 5 sind zum Abwickeln der bei Backup- und Archivierungsvorgängen benötigten datentechnischen Prozesse getrennte Funktionseinheiten vorgesehen.
  • Eine erste Funktionskomponente koordiniert und steuert die Datenflüsse zwischen den Dateneingängen, den Kassettenlaufwerken 2 und dem Plattenspeichersubsystem 3. Eine zweite Funktionseinheit übernimmt die Übertragung von an den mindestens einen Dateneingang empfangenen Daten auf das Plattenspeichersubsystem 3, während eine dritte Funktionskomponente zur Übertragung der auf dem Plattenspeichersubsystem 3 zwischengespeicherten Daten zu dem mindestens einen Kassettenlaufwerk 2 vorgesehen ist.
  • Die zweiten und dritten Funktionseinheiten sind im Ausführungsbeispiel gemäß 3 durch je zwei Komponentenrechner 6 realisiert, die jeweils mindestens eine CPU und Arbeitsspeicher aufweisen und mit dem Plattenspeichersubsystem 3 verbunden sind. Einige der Komponentenrechner 6 sind darüber hinaus zum Abwickeln der Datentransfers zur Hostseite hin jeweils mit wenigstens einem Host 1 verbunden. Einige andere Komponentenrechner 6 sind darüber hinaus zur Kassettenlaufwerksseite hin jeweils mit einem Kassettenlaufwerk 2 verbunden. Die Anzahl der Komponentenrechner 6 kann variabel gewählt werden.
  • Ein derartiges Backup- und Archivierungssystem weist gegenüber anderen Lösungen eine verhältnismäßig große Flexibilität bezüglich der Annahme von zu archivierenden Daten auf einer Eingangsseite und dem Sichern der zu archivierenden Daten auf einer Ausgangsseite auf. Dennoch sind auch der Flexibilität des Systems gemäß 3 Grenzen gesetzt.
  • Insbesondere steigt der Aufwand für die Weiterentwicklung eines derartigen Clustersystems stark an, wenn zusätzliche Funktionalitäten in das Backup- und Archivierungssystem integriert werden sollen. Beispiele solcher zusätzlichen Funktionalitäten sind die Unterstützung neuer Hostinterfaces oder Massenspeichervorrichtungen zum Sichern der zu archivierenden Daten, die Integration zusätzlicher interner Komponenten, wie beispielsweise weiterer Plattensubsysteme oder zusätzlicher Servicekomponenten zum Ausführen von Servicefunktionen, wie beispielsweise der Deduplizierung oder Kompression von Daten oder die Bereitstellung neuer Benutzerschnittstellen zum Beispiel zum Ansteuern des gezeigten Backup- und Archivierungssystems als Dateiserver, von einem entfernten Standort aus oder über ein neues Protokoll.
  • Aufgabe der vorliegenden Erfindung ist es daher, eine Architektur zur weiteren Flexibilisierung von Clustersystemen zum Archivieren von Daten zu beschreiben. Bevorzugt sollen neue Funktionen, Hard- und Softwareeinheiten und Schnittstellen ohne Eingriff in ein bestehendes Clustersystem ergänzt werden können.
  • Gemäß einem Aspekt der Erfindung wird diesbezüglich eine Rechneranordnung umfassend eine Mehrzahl von Clustersystemen zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage offenbart. Dabei ist jedes der Mehrzahl von Clustersystemen modular aufgebaut und umfasst wenigstens einen ersten Komponentenrechner zum Empfangen von zu archivierenden Daten von der Datenverarbeitungsanlage, wenigstens ein Massenspeichersystem zum Zwischenspeichern der zu archivierenden Daten, wenigstens einen zweiten Komponentenrechner zum Sichern der zu archivierenden Daten auf wenigstens einer weiteren Massenspeichervorrichtung, insbesondere einer Magnetbandspeichervorrichtung, sowie eine Clustersteuerung zum Steuern der jeweiligen Komponentenrechner des jeweiligen Clustersystems. Die Rechneranordnung umfasst des Weiteren wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen und wenigstens einer Verbundsteuerung zum Abfragen von Statusdaten über eine Abfrageschnittstelle der Clustersteuerungen der Mehrzahl von Clustersystemen und zum Übermitteln von Arbeitsaufträgen an eine Steuerschnittstelle der Clustersteuerungen der Mehrzahl von Clustersystemen.
  • Durch die Vorsehung einer Abfrageschnittstelle und einer Steuerschnittstelle zum Abfragen beziehungsweise Steuern der einzelnen Clustersysteme, einer Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen und wenigstens einer Verbundsteuerung wird eine besonders flexible Kopplung der Komponenten unterschiedlicher Clustersysteme in einer gemeinsamen Rechneranordnung ermöglicht. Die Funktionalität und Leistung der Rechneranordnung kann in diesem Fall durch Hinzufügen weiterer Clustersysteme mit weiteren und/oder andersartigen Komponentenrechnern und sonstigen Funktionseinheiten ergänzt werden, ohne dass ein Eingriff in ein oder mehrere bereits vorhandenen Clustersysteme erforderlich wird. Eine derartige Architektur bietet eine Vielzahl von weiteren Vorteilen, die nachfolgend weiter ausgeführt werden.
  • Gemäß einer bevorzugten Ausgestaltung ist die Verbundsteuerung als Softwarekomponente ausgestaltet und wenigstens ein Komponentenrechner wenigstens eines Clustersystems der Mehrzahl von Clustersystemen ist zur Ausführung der Softwarekomponente eingerichtet. Beispielsweise kann es sich bei der Verbundsteuerung um eine zusätzliche Softwarekomponente handeln, die gemeinsam mit der Clustersteuerung eine Middleware eines, mehrerer oder sämtlicher miteinander verbundenen Clustersysteme bildet.
  • Gemäß einer weiteren Ausgestaltung ist jedes Clustersystem zur Ausführung der Middleware eingerichtet, so dass jedes Clustersystem Abfragen an die Abfrageschnittstellen anderer Clustersysteme der Rechneranordnung stellen und Arbeitsaufträge an die Steuerschnittstellen anderer Clustersysteme der Rechneranordnung übermitteln kann. Eine derartige Ausgestaltung ermöglicht unter anderem eine automatische Verlagerung oder Umleitung von Ressourcen von einem Clustersystem zu einem anderen Clustersystem, beispielsweise entsprechend vorbestimmten Regeln einer Regeldatenbank.
  • Gemäß einer anderen vorteilhaften Ausgestaltung ist die wenigstens eine Verbundsteuerung dazu eingerichtet, eine Benutzerschnittstelle zur Bedienung der Rechneranordnung umfassend die Mehrzahl von Clustersystemen bereitzustellen, wobei die Benutzerschnittstelle dazu eingerichtet ist, einen Gesamtzustand der Rechneranordnung basierend auf Ergebnissen von Statusanfragen an jedes der Clustersysteme zusammenzustellen. Eine derartige zentrale Benutzerschnittstelle ermöglicht eine einfache und einheitliche Administration der gesamten Rechneranordnung, ohne dass ein Administrator gesondert auf die Mehrzahl von Clustersysteme zugreifen müsste. Dabei ist es nicht erforderlich, dass der Gesamtzustand der Rechneranordnung in der Verbundsteuerung oder einem der Clustersystemen gespeichert wird.
  • Gemäß einer vorteilhaften Ausgestaltung ist die Benutzerschnittstelle des Weiteren dazu eingerichtet, ein Clustersystem zur Ausführung eines über die Benutzerschnittstelle empfangenen Arbeitsauftrags basierend auf der Auslastung der einzelnen Clustersysteme und/oder einer vorbestimmten Regeldatenbank auszuwählen und den Arbeitsauftrag an die Steuerschnittstelle des ausgewählten Clustersystems zu übermitteln. Eine derartige zentrale Auftragsannahme und -vergabe ermöglicht insbesondere die Sicherstellung einer gleichmäßigen Auslastung der gesamten Rechneranordnung über die Grenzen der einzelnen Clustersysteme hinweg.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung ist die Verbundsteuerung des Weiteren dazu eingerichtet, über die Abfrageschnittstellen der Clustersteuerung einen Betriebszustand der einzelnen Clustersysteme zu überwachen. Beim Erkennen einer Betriebsstörung eines ersten Clustersystems wird ein erster Auftrag zum Stoppen der Ausführung eines dem ersten Clustersystem zugeordneten Arbeitsauftrags an die Steuerschnittstelle der Clustersteuerung des ersten Clustersystems übertragen. Ein zweiter Auftrag zum Übertragen von dem gestoppten Arbeitsauftrag zugehörigen, zwischengespeicherten Daten von dem ersten Clustersystem über die wenigstens eine Datenverbindung an das zweite Clustersystem wird an die Steuerschnittstelle der Clustersteuerung des ersten und/oder zweiten Clustersystems übertragen. Ein dritter Auftrag zum Ausführen des gestoppten Arbeitsauftrags wird an die Steuerschnittstelle der Clustersteuerung des zweiten Clustersystems übertragen. Eine derartige Rechneranordnung und Verbundsteuerung ermöglicht insbesondere die Erhöhung der Zuverlässigkeit der Rechneranordnung insgesamt, in dem die Verbundsteuerung flexibel auf den Ausfall einzelner Clustersysteme reagieren kann.
  • Gemäß einer möglichen Ausgestaltung ist die Verbundsteuerung und/oder eine Clustersteuerung des Weiteren dazu eingerichtet, sämtliche Massenspeichersysteme zum Zwischenspeichern der zu archivierenden Daten der Mehrzahl von Clustersystemen über ein von allen Clustersteuerungen gemeinsam genutztes Netzwerkdateisystem zu verwalten. Ein derartiges, gemeinsam genutztes Netzwerkdateisystem ermöglicht den Zugriff auf zwischengespeicherte Daten auch dann, wenn bereits einige Komponentenrechner eines gestörten Clustersystems nicht oder nicht mehr ordnungsgemäß funktionieren.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung ist die Clustersteuerung eines ersten Clustersystems dazu eingerichtet, in dem ersten Clustersystem zwischengespeicherte Daten bei Auftreten eines vorbestimmten Ereignisses über die wenigstens eine Datenverbindung an ein zweites Clustersystem zu übertragen. Zum Beispiel kann die wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen eine Netzwerkverbindung zwischen dem zweiten Komponentenrechner eines ersten Clustersystems und einem ersten Komponentenrechner eines zweiten Clustersystems umfassen. Die Clustersteuerung des ersten Clustersystems ist dabei dazu eingerichtet, in dem ersten Clustersystem zwischengespeicherte Daten auf Anforderung durch die Verbundsteuerung über die Netzwerkverbindung an das zweite Clustersystem zu übertragen. Eine derartige Anordnung ermöglicht das Übertragen von Arbeitsaufträgen von einem Clustersystem auf ein anderes Clustersystem ohne das Vorsehen zusätzlicher Verbindungsstrukturen.
  • Gemäß einer weiteren Ausgestaltung der Erfindung umfasst die wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen wenigstens ein Steuernetzwerk zum Austauschen von Statusabfragen und Arbeitsaufträgen zwischen der Verbundsteuerung und den Clustersteuerungen der Mehrzahl von Clustersystemen und ein Speichernetzwerk zum Austauschen von den ausgetauschten Arbeitsaufträgen zugeordneten zwischengespeicherten Daten zwischen den Massenspeichersystemen der Mehrzahl von Clustersystemen. Eine derartige Aufteilung der Datenverbindung zur datentechnischen Kopplung in ein Steuernetzwerk und ein Speichernetzwerk ermöglicht die Trennung von Metadaten und zu archivierenden Daten bezüglich der unterschiedlichen Anforderungen dieser beiden Datentypen.
  • Die Erfindung wird nachfolgend anhand von unterschiedlichen Ausführungsbeispielen unter Bezugnahme auf die Figuren im Detail beschrieben.
  • In den Figuren zeigen:
  • 1 eine schematische Darstellung einer Rechneranordnung mit einer Verbundsteuerung,
  • 2 eine schematische Darstellung einer Rechneranordnung gemäß einem Ausführungsbeispiel und
  • 3 eine schematische Darstellung eines modularen Clustersystems gemäß dem Stand der Technik.
  • In der 1 ist das Prinzip der Steuerung einer Rechneranordnung 10 durch eine Verbundsteuerung 20 schematisch dargestellt.
  • In der 1 ist ein erstes Clustersystem 11a mit einem zweiten Clustersystem 11b zu einer Rechneranordnung 10 zusammengefasst. Das erste Clustersystem 11a weist eine Abfrageschnittstelle 24 zum Beantworten von Statusanfragen SR (englisch: "status request") auf. Die Ergebnisse der Statusanfragen SR werden der Verbundsteuerung 20 zugeführt. Die Verbundsteuerung 20 umfasst unter anderem eine Regeldatenbank 26, die basierend auf einer fortwährenden Überwachung der Ergebnisse von Statusanfragen SR an das Clustersystem 11a und einer Analyse darin enthaltener Messwerte die Rechneranordnung 10 steuert.
  • Beispielsweise sorgt die Verbundsteuerung 20 für eine Verteilung der Archivierungsaufträge zwischen den Clustersystemen 11a und 11b der Rechneranordnung 10. Ebenfalls kann die Verbundsteuerung einzelne Clustersysteme 11a oder 11b oder Teile davon, insbesondere einzelne Komponentenrechner starten oder stoppen, um der Gesamtauslastung der Rechneranordnung 10 gerecht zu werden. Anhand der geplanten Konfigurationsänderungen und Zuteilung von Arbeitsaufträgen übermittelt die Verbundsteuerung 20 Steuerbefehle NC (englisch: "node control") zum Steuern des zweiten Clustersystems 11b an eine Steuerschnittstelle 23.
  • Innerhalb der Rechneranordnung 10 können Arbeitsaufträge flexibel verteilt und auch verschoben werden. Sofern das zweite Clustersystem 11b einen Arbeitsauftrag von dem ersten Clustersystem 11a übernimmt, beispielsweise wegen zu hoher Auslastung oder einer Störung des ersten Clustersystems 11a, wird über einen logisch oder physikalisch gesonderten Kommunikationskanal SDM (englisch: "shared data move") zum Übertragen von gemeinsam genutzten Daten, ein zugehöriger Datensatz von dem Clustersystem 11a an das Clustersystem 11b übertragen. Ob die Übertragung dabei durch die Verbundsteuerung 20, das erste Clustersystem 11a oder das zweite Clustersystem 11b initiiert und/oder koordiniert wird, hängt von der jeweiligen Implementierung der verwendeten Netzwerktechnologien und der Kopplung der einzelnen Komponenten untereinander ab.
  • Mögliche Beispiele für eine datentechnische Kopplung umfassen die Verwendung eines gemeinsamen Speichernetzwerks und/oder einem gemeinsamen Netzwerkdateisystems durch Clustersysteme 11a und 11b bzw. deren dezentrale Steuerungen. Alternativ kann auch eine direkte oder indirekte Kopplung einzelner Clustersysteme, wie sie später anhand der 2 im Detail beschrieben wird, verwendet werden, um Daten über ein Weitbereichsnetzwerk zu übertragen.
  • Der Zeitpunkt der Übertragung wird beispielsweise durch eine automatisch oder manuell festgelegte Regelzeit zum Übertragen der Daten von einem Clustersystem 11a an ein anderes Clustersystem 11b bestimmt. Alternativ kann der Zeitpunkt auch in Abhängigkeit der Auslastung der beteiligten Clustersysteme 11a und 11b oder des Kommunikationskanal SDM bestimmt werden.
  • 2 zeigt eine beispielhafte Konfiguration einer Rechneranordnung 10 mit drei Clustersystemen 11a, 11b und 11c. Jedes der Clustersysteme 11a bis 11c weist ein zentrales Massenspeichersystem 12 zum Zwischenspeichern von zu archivierenden Daten auf. Darüber hinaus umfassen die Clustersysteme 11a, 11b und 11c jeweils eine eigene, dezentrale Clustersteuerung 17, die beispielsweise die Aufgaben der ersten Funktionseinheit FE1 gemäß dem unter Bezugnahme auf die 3 zuvor erläuterten Backup- und Archivierungssystems übernimmt. Die Clustersteuerung 17 ist im Ausführungsbeispiel als Softwarekomponente implementiert, die auf einem Komponentenrechner 14a des jeweiligen Clustersystems 11a bis 11c abläuft.
  • Beispielsweise handelt es sich bei den Clustersystemen 11a und 11c jeweils um ein Backup- und Archivierungssystem wie es anhand der 3 bereits zuvor beschrieben wurde. Die Clustersysteme 11a und 11c weisen jeweils eine oder mehrere zweite Funktionseinheiten FE2 zum Empfangen zu archivierenden Daten von einem Host 1 einer oder mehrerer Datenverarbeitungsanlagen 13 auf. Die zweiten Funktionseinheiten FE2 werden von einem oder mehreren, so genannten Front-End-Komponentenrechnern 14b bereitgestellt. Des Weiteren weisen die Clustersysteme 11a und 11c so genannte Back-End-Komponentenrechner 14c auf, die jeweils dritte Funktionseinheiten FE3 zur Ansteuerung und zum Sichern von zwischengespeicherten Daten aus dem Massenspeichersystem 12 auf daran angeschlossenen, externen Massenspeichervorrichtungen, insbesondere den in der 2 dargestellten Bandlaufwerken 15, bereitstellen.
  • Der Aufbau des Clustersystems 11b unterscheidet sich von dem Aufbau der Clustersysteme 11a und 11c. Insbesondere ist das Clustersystem 11b nicht direkt mit einem Bandlaufwerk gekoppelt. Stattdessen weist das Clustersystem 11b eine weitere Funktionseinheit FE4 zur Deduplizierung von auf dem internen Massenspeichersystem 12 gespeicherten Daten auf. Die Funktionseinheit FE4 zum Deduplizieren von Daten wird beispielsweise auf einem weiteren Komponentenrechner 14d ausgeführt.
  • Durch die Deduplizierung der auf dem Massenspeichersystem 12 zwischenzuspeichernden Daten kann eine verhältnismäßig große Anzahl von Daten in dem Massenspeichersystem 12 vorgehalten werden. Insbesondere können unterschiedliche Versionen eines gesicherten Datensatzes in dem Massenspeichersystem 12 vorgehalten werden, soweit jeweils nur die darin enthaltenen Änderungen zusätzlich abgelegt werden. Um eine Absicherung der in dem Massenspeichersystem 12 gespeicherten Daten auch gegen einen völligen Ausfall oder eine Zerstörung des Clustersystems 11b sicherzustellen, ist das Clustersystem 11b mit dem Clustersystem 11c über ein Weitbereichsnetzwerk 16, beispielsweise das Internet oder eine Standleitung zwischen unterschiedlichen Standorten der einzelnen Clustersystem 11a bis 11c, gekoppelt. Dabei dient ein Back-End-Komponentenrechner 14b des Clustersystems 11b zum Übertragen der in dem Massenspeichersystem 12 vorgehaltenen deduplizierten Daten über das Weitbereichsnetzwerk 16 an einen Front-End-Komponentenrechner 14a des Clustersystems 11c.
  • Die in der Rechneranordnung 10 gemäß 2 angeordneten Komponenten und Teilsysteme erlauben, wie oben ausgeführt, bereits eine Vielzahl von interessanten Funktionen zum Archivieren von Daten unterschiedlicher Arten. Um die Verwaltung der Rechneranordnung 10 weiter zu vereinfachen und gleichzeitig eine Flexibilisierung der Nutzung der darin enthaltenen Komponenten zu erreichen, umfasst die Rechneranordnung 10 zusätzlich eine Verbundsteuerung 20, die über ein Steuernetzwerk 21 mit den Clustersteuerungen 17 der einzelnen Clustersysteme 11a bis 11c verbunden ist. In der in 2 dargestellten Beispielkonfiguration ist die Clustersteuerung 17 des entfernt aufgestellten Clustersystems 11c dabei physikalisch über das Weitbereichsnetzwerk 16 an die Verbundsteuerung 20 angekoppelt.
  • Die Verbundsteuerung 20 umfasst unter anderem eine Benutzerschnittstelle 22, über die die Rechneranordnung 10 von einem Host 10 der Datenverarbeitungsanlage 13 aus überwacht, konfiguriert und gesteuert werden kann. Dabei kann die Verbundsteuerung 20, wie in der 2 dargestellt, als physikalisch gesonderte Vorrichtung ausgestaltet sein. Alternativ kann die Verbundsteuerung 20 auch als weitere Softwarekomponente innerhalb eines oder mehrerer der Clustersysteme 11a, 11b und 11c ablaufen, beispielsweise auf einem der Komponentenrechner 14a bis 14d.
  • Unter anderem zur Überwachung, Konfiguration und Steuerung durch die Verbundsteuerung weisen die einzelnen Clustersteuerungen 17 jeweils eine Steuerschnittstelle 23 und eine Abfrageschnittstelle 24 auf. Über die Abfrageschnittstelle 24 kann die Verbundsteuerung 20 den jeweiligen Zustand jedes der Clustersysteme 11a bis 11c abfragen. Insbesondere kann darüber abgefragt werden, ob die Clustersysteme 11a bis 11c grundsätzlich einsatzbereit sind, wie hoch die Auslastung der darin verbauten Einzelkomponenten, insbesondere der Komponentenrechner 14a bis 14d und der Massenspeicher 12, ist sowie welche Aufgaben den einzelnen Komponentenrechnern 14a, 14b, 14c oder 14d zugeteilt wurden. Anhand dieser Daten kann die Verbundsteuerung 20 einen Gesamtzustand der Rechneranordnung 10 ermitteln und über die Benutzerschnittstelle 22 für einen Benutzer der Rechneranordnung 10 darstellen.
  • Gegebenenfalls kann ein Benutzer über die Benutzerschnittstelle 22 auch Änderungen an der aktuellen Konfiguration, insbesondere der Zuteilung von Ressourcen zu einzelnen Arbeitsaufträgen und/oder Funktionseinheiten FE1 bis FE4 vornehmen. Dabei wird die Konfiguration jedes einzelnen Clustersystems 11a, 11b oder 11c bevorzugt dezentral von seiner jeweiligen Clustersteuerung 17 gespeichert und verwaltet und von der zentralen Verbundsteuerung 20 bloß zusammengefasst und/oder weitergeleitet.
  • Neben der Darstellung und/oder manuellen Konfiguration durch einen Benutzer kann anhand der gesammelten Daten auch automatisch eine Entscheidung bezüglich der Zuordnung von neu eingehenden Archivierungsanfragen durch die Datenverarbeitungsanlage 13 vorgenommen werden. Beispielsweise können zentral über die Benutzerschnittstelle 22 entgegengenommene Aufgaben vom einem Host 1 der Datenverarbeitungsanlage 13 zum Archivieren an eines der Clustersysteme 11a, 11b oder 11c weitergeleitet werden, das momentan die geringste Auslastung aufweist. Des Weiteren können auch Arbeitsaufträge, die von einer Anwendung der Datenverarbeitungsanlage 13 direkt an eine Clustersteuerung 17, beispielsweise des ersten Clustersystems 11a übertragen wurden, durch die Verbundsteuerung 20 aus einer Warteliste des Clustersystems 11a entfernt und einem weniger ausgelasteten Clustersystem, beispielsweise dem Clustersystem 11b zugeordnet werden.
  • Sofern dem Arbeitsauftrag zugehörige Daten bereits in dem Massenspeichersystem 12 des Clustersystems 11a zwischengespeichert sind, müssen diese Daten von dem Clustersystem 11a an das Clustersystem 11b übertragen werden. Hierzu dient im dargestellten Ausführungsbeispiel ein separates Speichernetzwerk 25, über das die Massenspeichersysteme 12 des ersten Clustersystems 11a und des dritten Clustersystems 11b verbunden sind. Das dritte Clustersystem 11c ist, wie oben beschrieben, mittelbar über das Weitbereichsnetzwerk 16 ebenfalls mit den Clustersystemen 11a und 11b verbunden, so dass auch eine weitere Auslagerung von Daten von dem Clustersystem 11b an das Clustersystem 11c möglich ist.
  • Durch Vorsehung des Steuernetzwerks 21, der Steuerschnittstelle 23 und der Abfrageschnittstelle 24, dem Vorsehen zusätzlicher Datenübertragungswege, wie insbesondere dem Speichernetzwerk 25 zwischen den Clustersystemen 11a, 11b und 11c und der Kopplung der Clustersysteme 11b und 11c über das Weitbereichsnetzwerk 16, sowie der Berücksichtigung von durch die Verbundsteuerung 20 empfangenen Aufgaben kann die Rechneranordnung 10 mittels der Clustersteuerungen 20 wie ein einheitliches System gesteuert werden.
  • Die technische Implementierung des Steuernetzwerks 21 und des Speichernetzwerks 25 ist für die oben beschriebene Architektur von untergeordneter Bedeutung. Jedoch ist es vorteilhaft, das Speichernetzwerk 25, über das verhältnismäßig große, zusammenhängende Daten übertragen werden, mit einer Technologie zu implementieren, die eine große Übertragungsbandbreite zur Verfügung stellt. Eine geeignete Technologie stellt beispielsweise das Fiberchannel-Protokoll basierend auf einer breitbandigen Verbindungstechnik, wie beispielsweise Gigabit-Ethernet gemäß der IEEE-Standardfamilie 802.3, dar. Dagegen muss über das Steuernetzwerk 21 nur ein verhältnismäßig geringes Datenvolumen übertragen werden. Zur zeitnahen Abstimmung der einzelnen Clustersteuerungen 17 untereinander und mit der Verbundsteuerung 20 sollte für dieses Netzwerk jedoch eine Netzwerktechnologie mit verhältnismäßig geringer Latenzzeit eingesetzt werden. Beispielsweise bietet sich für das Steuernetzwerk 21 ein konventionelles lokales Netzwerk mit einer beschränkten Teilnehmerzahl an. Über entsprechende Segmentierung, Virtualisierung oder Priorisierung können beide Teilnetzwerke auch mittels eines gemeinsamen physikalischen oder logischen Datennetzwerks implementiert werden.
  • In einer weiteren, in der 2 nicht dargestellten Alternative ist die Verbundsteuerung 20 Teil einer Middleware, die neben der Verbundsteuerung 20 selbst auch die Clustersteuerung 17 für die einzelnen Clustersysteme 11a, 11b und 11c umfasst.
  • Die beschriebene Middleware kontrolliert bei Bedarf die gesamte Rechneranordnung 10, ihre Aufgaben umfassen unter anderem das Überwachen von Systemereignissen, wie beispielsweise den Ausfall benachbarten Clustersysteme 11a, 11b oder 11c oder dem Ausfall einzelner Komponentenrechner 14a, 14b, 14c oder 14d. Des Weiteren erlaubt die Middleware das Starten oder Stoppen von Prozessen, die auf den einzelnen Clusterrechnern ausgeführt werden oder die Konfiguration innerhalb eines Clustersystems 11a, 11b oder 11c oder der gesamten Rechneranordnung 10. Hierzu ist die Middleware mit allen wesentlichen Teilen der Rechneranordnung verbunden, beispielsweise über das Steuernetzwerk 21, und hat Zugriff auf in der Rechneranordnung gespeicherte Informationen, wie beispielsweise Metainformationen bezüglich zu erledigender Aufgaben, die auf einem oder mehreren der Massenspeichersysteme 12 abgelegt sind.
  • Über das Steuernetzwerk 21 werden die Middlewarekomponenten der Clustersysteme 11a, 11b und 4 effektiv zusammen geschaltet, so dass eine gegenseitige Überwachung und Steuerung möglich wird. In dieser Ausgestaltung agiert die Middleware einerseits als Datenerfassung für Anfragen benachbarter Clustersysteme und andererseits als Aktionselement innerhalb eines Clustersystems, aber auch nach außen auf benachbarte Clustersysteme wirkend als Steuerung.
  • Ein Vorteil dieser und ähnlicher Lösungen liegt darin, dass jedes der Clustersysteme 11a, 11b oder 11c die Steuerung der gesamten Rechneranordnung 10 übernehmen kann. Insbesondere wird so eine Redundanz gegenüber dem Ausfall eines einzelnen Clustersystems 11a, 11b oder 11c und einer einzigen, zentralen Verbundsteuerung 20 geschaffen.
  • Im Folgenden werden drei Szenarien inkl. zugehöriger Regeln einer Regeldatenbank 26, beispielsweise zum Einsatz in der beschriebenen Rechneranordnung 10, beschrieben. Selbstverständlich handelt es sich dabei nur um wenige einer Vielzahl von möglichen Einsatzszenarien.
  • Szenario 1: Temporäre Verlagerung physikalischer Bandlaufwerke nach einem Ausfall
  • Ein Clustersystem 11 kann im Normalbetrieb über jede Funktionseinheit FE3 der Komponentenrechner 14c jedes physikalische Bandlaufwerk 15 ansprechen. Beispielsweise können jedem Komponentenrechner 14c des Clustersystems 11a anfänglich zwei Bandlaufwerke 15 zugeordnet sein. In dem beschriebenen Szenario fallen beide physikalischen Bandlaufwerke 15 einer dritten Funktionseinheit FE3 des Clustersystems 11a komplett aus. Das heißt, dass diese Funktionseinheit FE3 ohne weitere physikalische Bandlaufwerke 15 keine weiteren Sicherungsaufträge ausführen kann. Die Funktionseinheit FE3 beziehungsweise der zu ihrer Ausführung eingesetzten Komponentenrechner 14c selbst verbleiben jedoch in einem funktionsfähigen Zustand.
  • Sind weitere physikalische Bandlaufwerke, beispielsweise ein Bandlaufwerk 15 eines weiteren Komponentenrechners 14c, über ein geeignetes Netzwerk, beispielsweise ein Fiber Channel Storage Netzwerk, mit der Funktionseinheit FE3 des ersten Clustersystems 11a verbunden, so kann die Funktionseinheit FE3 auch auf dieses weitere Bandlaufwerk 15 zugreifen. Dabei wird die Zuordnung, welche konkrete Funktionseinheit FE3 auf welche physikalischen Bandlaufwerke 15 zugreifen darf, einzig und allein über die Konfiguration bestimmt, die durch die Middleware des Clustersystems 11a, insbesondere die ersten Funktionseinheiten FE1, kontrolliert wird. Die erste Funktionseinheit FE1 des Clustersystems 11a kennt die Anzahl der zugewiesenen physikalischen Bandlaufwerke 15.
  • In beschriebenen Szenario enthält die Regeldatenbank 26 eine Regel, dass, wenn alle physikalischen Bandlaufwerke 15 ausfallen, welche einer vorgegebenen Funktionseinheit FE3 zugewiesen sind, eine weitere Funktionseinheit FE3, die ein zusätzliches Bandlaufwerk 15 aufweist und sich bevorzugt in demselben Clustersystem 11a befindet, gesucht werden soll. Nachfolgend wird die Konfiguration des Clustersystems 11a so geändert, dass die insgesamt noch verfügbaren, funktionellen physikalischen Bandlaufwerke 15 möglichst gleichmäßig auf die Funktionseinheiten FE3 des Clustersystems 11a verteilt werden. Im Ergebnis wird der Ausfall eines oder mehrerer Bandlaufwerke 15 durch eine dritte Funktionseinheit FE3 registriert. Vollautomatisch wird dafür gesorgt, dass alle Funktionseinheiten FE3 des Clustersystems 11a voll einsatzfähig bleiben. Das heißt, es kann mit einem höheren Datendurchsatz auf die verbleibenden physikalischen Bandlaufwerke 15 durch die dritten Funktionseinheiten FE3 des Clustersystems 11a gesichert werden.
  • Im beschriebenen Szenario wurde der Ausgleich innerhalb eines einzelnen Clustersystems 11a durchgeführt. Bei mehreren, verbundenen Clustersystemen kann ein Ausgleich auch über Grenzen eines einzelnen Clustersystems hinweg, beispielsweise durch Umkonfiguration benachbarter Clustersysteme 11a und 11b oder zwischen gekoppelten Clustersystemen 11b und 11c, durchgeführt werden, um lokale Ressourcenausfälle auszugleichen.
  • Szenario 2: Temporäre Verlagerung von Aufträgen bei Überlastung
  • Es wird erneut auf die Rechneranordnung 10 gemäß 2 Bezug genommen. In diesem Fall fallen jedoch anders als im obigen Beispiel 1 nicht die physikalischen Bandlaufwerke 15 des ersten Clustersystems 11a aus. Das erste Clustersystem 11a erfasst Messwerte, die Auskunft über eine gesicherte Datenrate in MB/s auf die physikalischen Bandlaufwerke 15 geben. Somit kann ausgerechnet werden, ob eine aktuell zu sichernde Datenmenge in ein dafür zur Verfügung stehendes Zeitfenster passt.
  • In der Regeldatenbank 26 sind hierfür beispielsweise folgende Regeln enthalten. Wenn sich eine zu sichernde Datenmenge nicht in einem dafür vorgesehenen Zeitfenster sichern lässt, dann vergleicht die erste Funktionseinheit FE1 die Auslastung der einzelnen dritten Funktionseinheiten FE3 des Clustersystems 11a. Dabei wird die am geringsten belastete dritte Funktionseinheit FE3 gefunden sowie die am meisten ausgelastete Funktionseinheit FE3. Nachfolgend wird, wie oben anhand des Szenarios 1 beschrieben, durch Rekonfiguration des Clustersystems 11a ein Bandlaufwerk 15 von einer wenig ausgelasteten Funktionseinheit FE3 an eine hoch ausgelastete Funktionseinheit FE3 verlagert.
  • Falls dies zur Einhaltung vorgegebener Randbedingungen nicht ausreichen sollte, werden gegebenenfalls Eingangsdatenströme von einem oder mehreren Hosts 1 durch Rekonfiguration der Rechneranordnung 10 an ein anderes Clustersystem 11b oder 11c umgeleitet. Im Ergebnis ergeben sich ein Lastausgleich und auch damit eine Erhöhung der Sicherungsgeschwindigkeit.
  • Szenario 3: Verteilung von Zuordnungen nach Zeitzonen
  • Als Ausgangssituation werden hier die zwei Clustersysteme 11a und 11c betrachtet, die in unterschiedlichen Zeitzonen aufgestellt beziehungsweise betrieben werden. Ein Nutzer hat an unterschiedlichen Standorten jeweils ein Arbeitsprofil, zum Beispiel dass jeweils in der dort lokalen Nachtzeit eine Vollsicherung eines Hosts 1 vorgenommen werden soll. Angenommen, die Sicherung dauert zwei Stunden und die Standorte befinden sich in Berlin und Moskau mit einer Zeitdifferenz von zwei Stunden, dann wäre es im Prinzip vorstellbar, die Sicherung an allen Standorten zur gleichen lokalen Zeit mit den gleichen Backendgeräten, beispielsweise demselben Bandlaufwerk 15, zu starten. Beginnt die Sicherung um 22:00 Uhr Ortszeit in Moskau (20:00 Uhr Berliner Zeit), und dauert zwei Stunden, dann kann das Bandlaufwerk 15 und die gehörige dritte Funktionseinheit FE3 nachfolgend für den ersten Standort in Berlin umgeschaltet werden, sodass die Sicherung in Berlin ebenfalls um 22:00 Uhr Ortszeit beginnen kann. Hierdurch gelingt eine permanente Auslastung des Backends umfassend die Funktionseinheit FE3 und des Bandlaufwerks 15.
  • Die Regeldatenbank 26 umfasst in diesem Fall die Regel, die Bandlaufwerke um 22:00 Uhr lokaler Ortszeit in Moskau zur Verwendung mit dem dort befindlichen Clustersystem 11a zu konfigurieren. Dabei werden alle physikalischen Bandlaufwerke 15 dem ersten Clustersystem 11a zugeordnet. Nachfolgend, also um 22:00 Uhr Ortszeit in Berlin, ist es in Moskau 24:00 Uhr und die Sicherung ist beendet. Daraufhin konfiguriert die Clustersteuerung 20 die Rechneranordnung 10 derart um, dass alle Bandlaufwerke 15 dem zweiten Clustersystem 11c in Berlin zugeordnet werden. Die Sicherung in Berlin kann nun mit voller Kapazität durchgeführt werden.
  • Im Ergebnis sind die physikalischen Bandlaufwerke 15 für vier Stunden ununterbrochen in Betrieb. Stehen weitere Standorte in anderen Zeitzonen zur Verfügung beziehungsweise vergrößert man die Sicherungsfenster, dann lässt sich erreichen, dass die physikalischen Bandlaufwerke 15 ununterbrochen in Betrieb sind. Dadurch lässt sich die teilweise sehr hohe Investition in kostenintensive physikalische Bandlaufwerke 15 besser verteilen.
  • Durch die oben beschriebenen Ausführungsbeispiele und Szenarien erhält man eine Rechneranordnung, die gegenüber den bekannten Clustersystemen eine Reihe von Vorteilen aufweist.
  • Zum Einen ermöglicht die Vorsehung einer Verbundsteuerung 20 die Bedienung der Rechneranordnung über eine einzige Benutzerschnittstelle 22. Des Weiteren wird eine Erweiterung des Systems sowohl bezüglich neuer Funktionen als auch bezüglich einer Kapazitätserweiterung durch bloßes Hinzufügen eines weiteren Clustersystems ermöglicht. Durch die Erweiterbarkeit und Verlagerungsmöglichkeit von einzelnen Anfragen auf andere Clustersysteme ist die Rechneranordnung 10 damit praktisch beliebig skalierbar. Zuvor bestehende Begrenzungen, wie beispielsweise die Anzahl innerhalb eines Clustersystems vorhandener Einbauplätze, wird durch die mehrstufige Hierarchie gemäß dem oben beschriebenen Architekturmodels umgangen, so dass eine praktisch unendliche Skalierung der Rechneranordnung 10 möglich ist.
  • Zusätzlich ermöglicht insbesondere die Kombination einer Verbundsteuerung mit dem Speichernetzwerk 25 eine manuelle oder automatische Verlagerung oder Umleitung von Ressourcen von einem Clustersystem 11a auf ein anderes Clustersystem 11b oder 11c, so dass eine gleichmäßige Lastverteilung gewährleistet werden kann.
  • Schließlich wird die Verfügbarkeit der Rechneranordnung 10 insgesamt erhöht, da beim Ausfall eines Clustersystems 11a, ein damit verbundenes Clustersystem 11b oder 11c dessen Aufgaben übernehmen kann.
  • Bezugszeichenliste
  • 1
    Host
    2
    Kassettenlaufwerk
    3
    Plattenspeichersubsystem
    4
    Plattenspeichereinheit
    5
    datentechnische Koppeleinheit
    6
    Komponentenrechner
    10
    Rechneranordnung
    11a
    Clustersystem
    11b
    Clustersystem
    11c
    Clustersystem
    12
    Massenspeichersystem
    13
    Datenverarbeitungsanlage
    14a
    Komponentenrechner für Clustersteuerung
    14b
    Front-End-Komponentenrechner
    14b
    Back-End-Komponentenrechner
    14d
    Komponentenrechner für Duplizierung
    15
    Bandlaufwerk
    16
    Weitbereichsnetzwerk
    17
    Clustersteuerung
    20
    Verbundsteuerung
    21
    Steuernetzwerk
    22
    Benutzerschnittstelle
    23
    Steuerschnittstelle
    24
    Abfrageschnittstelle
    25
    Speichernetzwerk
    26
    Regeldatenbank
    SR
    Statusanfrage
    NC
    Steuerbefehl
    SDM
    Kommunikationskanal
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1234226 B1 [0002]
  • Zitierte Nicht-Patentliteratur
    • IEEE-Standardfamilie 802.3 [0041]

Claims (11)

  1. Rechneranordnung (10), umfassend: – eine Mehrzahl von Clustersystemen (11a, 11b, 11c) zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage (13), wobei jedes der Mehrzahl von Clustersystemen (11a, 11b, 11c) modular aufgebaut ist und wenigstens einen ersten Komponentenrechner (14b) zum Empfangen von zu archivierenden Daten von der Datenverarbeitungsanlage (13), wenigstens ein Massenspeichersystem (12) zum Zwischenspeichern der zu archivierenden Daten, einem zweiten Komponentenrechner (14c) zum Sichern der zu archivierenden Daten auf wenigstens einer weiteren Massenspeichervorrichtung, insbesondere einer Magnetspeichervorrichtung, sowie eine Clustersteuerung (17) zum Steuern der einzelnen Komponentenrechner (14b, 14c) des jeweiligen Clustersystems (11a, 11b, 11c) umfasst; – wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen (11a, 11b, 11c) und – wenigstens eine Verbundsteuerung (20) zum Abfragen von Statusdaten über eine Abfrageschnittstelle (24) der Clustersteuerungen (17) der Mehrzahl von Clustersystemen (11a, 11b, 11c) und zum Übermitteln von Arbeitsaufträgen an eine Steuerschnittstelle (23) der Clustersteuerungen (17) der Mehrzahl von Clustersystemen (11a, 11b, 11c).
  2. Rechneranordnung (10) nach Anspruch 1, bei dem die wenigstens eine Verbundsteuerung (20) als Softwarekomponente ausgestaltet ist und wenigstens ein Komponentenrechner (14a) wenigstens eines Clustersystems (11a, 11b, 11c) der Mehrzahl von Clustersystemen (11a, 11b, 11c) zur Ausführung der Softwarekomponente eingerichtet ist.
  3. Rechneranordnung (10) nach Anspruch 1 oder 2, bei dem die wenigstens eine Verbundsteuerung (20) und die Clustersteuerung (17) wenigstens eines Clustersystems (11a, 11b, 11c) in einer Middleware wenigstens eines der Mehrzahl von Clustersystemen (11a, 11b, 11c) integriert sind.
  4. Rechneranordnung (10) nach Anspruch 3, bei dem jedes Clustersystem (11a, 11b, 11c) zur Ausführung der Middleware eingerichtet ist, so dass jedes Clustersystem (11a, 11b, 11c) Abfragen an die Abfrageschnittstellen (24) anderer Clustersysteme (11a, 11b, 11c) der Rechneranordnung (10) stellen und Arbeitsaufträge an die Steuerschnittstellen (23) anderer Clustersysteme (11a, 11b, 11c) der Rechneranordnung (10) übermitteln kann.
  5. Rechneranordnung (10) nach einem der Ansprüche 1 bis 4, bei dem die wenigstens eine Verbundsteuerung (20) dazu eingerichtet ist, eine Benutzerschnittstelle (22) zur Bedienung der Rechneranordnung (10) umfassend die Mehrzahl von Clustersystemen (11a, 11b, 11c) bereitzustellen, wobei die Benutzerschnittstelle (22) dazu eingerichtet ist, einen Gesamtzustand der Rechneranordnung (10) basierend auf Ergebnissen von Statusanfragen an die Abfrageschnittstellen (24) der Mehrzahl von Clustersystemen (11a, 11b, 11c) zusammenzustellen.
  6. Rechneranordnung (10) nach Anspruch 5, bei dem die Benutzerschnittstelle (22) des Weiteren dazu eingerichtet ist, ein Clustersystem (11a, 11b, 11c) zur Ausführung eines über die Benutzerschnittstelle (22) empfangenen Arbeitsauftrags basierend auf der Auslastung der einzelnen Clustersysteme (11a, 11b, 11c) und/oder einer vorbestimmten Regeldatenbank (26) auszuwählen und den Arbeitsauftrag an die Steuerschnittstelle (23) des ausgewählten Clustersystems (11a, 11b, 11c) zu übermitteln.
  7. Rechneranordnung (10) nach einem der Ansprüche 1 bis 6, bei dem die Verbundsteuerung (20) des Weiteren dazu eingerichtet ist, über die Abfrageschnittstellen (24) der Clustersteuerungen (17) einen Betriebszustand der einzelnen Clustersysteme (11a, 11b, 11c) zu überwachen, beim Erkennen einer Betriebsstörungen eines ersten Clustersystems (11a), einen ersten Auftrag zum Stoppen der Ausführung eines dem ersten Clustersystems (11a) zugeordneten Arbeitsauftrag an die Steuerschnittstelle (23) der Clustersteuerung (17) des ersten Clustersystems (11a) zu übertragen, einen zweiten Auftrag zum Übertragen von dem gestoppten Arbeitsauftrag zugehörigen, zwischengespeicherten Daten von dem ersten Clustersystem (11a) über die wenigstens eine Datenverbindung an das zweite Clustersystem (11b) an die Steuerschnittstelle der Clustersteuerung (17) des ersten und/oder zweiten Clustersystems (11a, 11b) zu übertragen und einen dritten Auftrag zum Ausführen des gestoppten Arbeitsauftrags an die Steuerschnittstelle (23) der Clustersteuerung (17) des zweiten Clustersystems (11c) zu übertragen.
  8. Rechneranordnung (10) nach einem der Ansprüche 1 bis 7, bei dem die Verbundsteuerung (20) und/oder die Clustersteuerungen (17) des Weiteren dazu eingerichtet sind, sämtlichen Massenspeichersystemen (12) zum Zwischenspeichern der zu archivierenden Daten der Mehrzahl von Clustersystemen (11a, 11b, 11c) über ein von allen Clustersteuerungen (17) gemeinsam genutztes Netzwerkdateisystem zu verwalten.
  9. Rechneranordnung (10) nach einem der Ansprüche 1 bis 8, bei dem die Clustersteuerung (17) eines ersten Clustersystems (11a) dazu eingerichtet ist, in dem ersten Clustersystem (11a) zwischengespeicherte Daten bei Auftreten eines vorbestimmten Ereignisses über die wenigstens eine Datenverbindung an ein zweites Clustersystem (11b) zu übertragen.
  10. Rechneranordnung (10) nach Anspruch 9, bei dem die wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen (11a, 11b, 11c) eine Netzwerkverbindung zwischen dem zweiten Komponentenrechner (14c) eines ersten Clustersystems (11b) und dem ersten Komponentenrechner (14b) eines zweiten Clustersystems (11c) umfasst und die Clustersteuerung (17) des ersten Clustersystems (11b) dazu eingerichtet ist, in dem ersten Clustersystem (11b) zwischengespeicherte Daten auf Anforderung durch die Verbundsteuerung (20) über die Netzwerkverbindung an das zweite Clustersystem (11c) zu übertragen.
  11. Rechneranordnung (10) nach einem der Ansprüche 1 bis 10, bei dem die wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen (11a, 11b, 11c) wenigstens ein Steuernetzwerk (21) zum Austauschen von Statusabfragen und Arbeitsaufträgen zwischen der Verbundsteuerung (20) und/oder den Clustersteuerungen (17) der Mehrzahl von Clustersystemen (11a, 11b, 11c) und ein Speichernetzwerk (25) zum Austauschen von den ausgetauschten Arbeitsaufträgen zugeordneten zwischengespeicherten Daten zwischen den Massenspeichersystemen (12) der Mehrzahl von Clustersystemen (11a, 11b, 11c) umfasst.
DE102012110164.7A 2012-10-24 2012-10-24 Rechneranordnung Active DE102012110164B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102012110164.7A DE102012110164B4 (de) 2012-10-24 2012-10-24 Rechneranordnung
JP2015538343A JP6149205B2 (ja) 2012-10-24 2013-09-06 データ記憶装置
US14/437,735 US10235369B2 (en) 2012-10-24 2013-09-06 Data storage arrangement
PCT/EP2013/068480 WO2014063856A1 (de) 2012-10-24 2013-09-06 Datenspeicheranordnung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012110164.7A DE102012110164B4 (de) 2012-10-24 2012-10-24 Rechneranordnung

Publications (2)

Publication Number Publication Date
DE102012110164A1 true DE102012110164A1 (de) 2014-04-24
DE102012110164B4 DE102012110164B4 (de) 2021-08-19

Family

ID=49212748

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012110164.7A Active DE102012110164B4 (de) 2012-10-24 2012-10-24 Rechneranordnung

Country Status (4)

Country Link
US (1) US10235369B2 (de)
JP (1) JP6149205B2 (de)
DE (1) DE102012110164B4 (de)
WO (1) WO2014063856A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11809379B2 (en) 2019-11-19 2023-11-07 International Business Machines Corporation Storage tiering for deduplicated storage environments
CN117453644A (zh) * 2023-10-25 2024-01-26 南京麦杰软件有限公司 一种面向电力行业实时数据库系统的负载均衡管理方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1234226B1 (de) 1999-11-30 2005-01-26 Fujitsu Siemens Computers GmbH Backup- und archivierungssystem mittels bandkassetten für datenverarbeitungsanlagen

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322292A (ja) * 1999-05-10 2000-11-24 Nec Corp クラスタ型データサーバシステム及びデータ格納方法
US6912669B2 (en) * 2002-02-21 2005-06-28 International Business Machines Corporation Method and apparatus for maintaining cache coherency in a storage system
JP4252301B2 (ja) * 2002-12-26 2009-04-08 株式会社日立製作所 記憶システム及びそのデータバックアップ方法
SE528570C2 (sv) 2004-04-08 2006-12-19 Abb Research Ltd Metod, anordning och system för att upprätta en trådlös förbindelse mellan en bärbar datoranordning med en första applikation till andra anordningar med hjälp av en andra applikation
US20060004786A1 (en) * 2004-06-07 2006-01-05 Taiwan Semiconductor Manufacturing Company Ltd. Design mechanism for semiconductor fab-wide data warehouse application
JP5057656B2 (ja) * 2005-05-24 2012-10-24 株式会社日立製作所 ストレージシステム及びストレージシステムの運用方法
US8595313B2 (en) * 2005-11-29 2013-11-26 Netapp. Inc. Systems and method for simple scale-out storage clusters
US8456191B2 (en) * 2006-06-21 2013-06-04 Element Cxi, Llc Data-driven integrated circuit architecture
US7702694B1 (en) * 2007-09-07 2010-04-20 Southern Company Services, Inc. System and method for organizing managing and accessing large quantities of data from non-homogenous data sources
US8627015B2 (en) * 2009-07-31 2014-01-07 Emc Corporation Data processing system using cache-aware multipath distribution of storage commands among caching storage controllers
US8327078B2 (en) * 2010-06-24 2012-12-04 International Business Machines Corporation Dynamic trailing edge latency absorption for fetch data forwarded from a shared data/control interface
KR101951473B1 (ko) 2012-10-15 2019-02-22 엘지전자 주식회사 이동 단말기

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1234226B1 (de) 1999-11-30 2005-01-26 Fujitsu Siemens Computers GmbH Backup- und archivierungssystem mittels bandkassetten für datenverarbeitungsanlagen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Fujitsu Siemens Computers GmbH: CentricStor V3.1D User Guide. 2007. URL: http://data.manualslib.com/pdf/1/47/4636-fujitsu_siemens_computers/pmn.pdf?a99a91fefc4e5fc5471b2fbf9596deca [abgerufen am 23.5.2012] *
IEEE-Standardfamilie 802.3

Also Published As

Publication number Publication date
JP2016500883A (ja) 2016-01-14
US10235369B2 (en) 2019-03-19
DE102012110164B4 (de) 2021-08-19
US20150278230A1 (en) 2015-10-01
WO2014063856A1 (de) 2014-05-01
JP6149205B2 (ja) 2017-06-21

Similar Documents

Publication Publication Date Title
DE602005002713T2 (de) Informationsverarbeitungssystem mit redundanten Pfaden und Zugriffsverfahren
DE10211606B4 (de) Datenverarbeitungseinrichtung mit einem Metadatensicherungsmanagement
DE102012206283B4 (de) Verteilung des Datenflusses auf mehrere Pfade (Multi-Pathing) in einem Speicherbereichsnetzwerk
DE602004004063T2 (de) Informationsverarbeitungssystem und -verfahren
DE102004025921A1 (de) Speichersystem mit mehreren Schnittstellen sowie Datenzugriffsverfahren in einem derartigen Speichersystem
DE112011103497T5 (de) Informationsverarbeitungssystem, Informationsverarbeitungsvorrichtung, Lastausgleichsverfahren, Planungsverfahren für die Datenbankbereitstellung und Programm zum Durchführen der Verbindungsverteilung für den Lastausgleich in einer verteilten Datenbank
DE202019005816U1 (de) System zur Aufrechterhaltung der Fehlertoleranz einer Speichervorrichtung in einer zusammensetzbaren Infrastruktur
EP0829046B1 (de) Setup-verfahren und setup-system für benutzerprogramme, sowie benutzerrechner in einem rechnernetz
EP1927913B1 (de) Echtzeit-Prozesshistorien-Server
DE202014010953U1 (de) Gruppierung von Objekten in einem verteilten Datenspeichersystem basierend auf Protokollen und Platzierungsrichtlinien
DE102012215918A1 (de) Spiegeln virtueller Maschinen von einem primären auf einen sekundären Host
DE102008015185A1 (de) Hierarchisches Speichersystem mit vorausschauender Datenübertragung
DE102009031923A1 (de) Verfahren zum Verwalten von Datenobjekten
DE102013215009A1 (de) Verfahren und System zur Optimierung der Datenübertragung
WO2014020032A2 (de) Hochverfügbares rechnersystem, arbeitsverfahren und dessen verwendung
DE112011103443T5 (de) Intelligente Schnittstelle für ein dezentrales Steuerungssystem
DE102013210719B4 (de) Verfahren und Systeme zum Verwalten von Cache-Speichern
DE102013205571B4 (de) Verfahren, Computerprogrammprodukt und Vorrichtung zum Migrieren von Datenträgern mit schlanker Speicherzuweisung in mehrschichtigen Speicherarchitekturen
DE102008046577A1 (de) Anschlussvorrichtung zum Anschluss einer Mehrzahl von Peripheriegeräten und Betriebsverfahren
DE112018000900T5 (de) Verarbeiten eines Befehls zum Freigeben von Speicherplatz in einem Computersystem
WO2005073852A1 (de) Verfahren zum betreiben einer anordnung mehrerer rechner bei einem rechnerausfall
DE112010004982B4 (de) Fortschrittliche Stromverwaltung von Plattenlaufwerken auf der Grundlage des höchsten Systemdurchsatzes
DE69927223T2 (de) Ausfallsicherheit eines Mehrrechnersystems
DE112011103299T5 (de) Systeme und Verfahren zum Verwalten einer virtuellen Bandarchiv-Domäne
DE102012110164B4 (de) Rechneranordnung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: FUJITSU LTD., KAWASAKI-SHI, JP

Free format text: FORMER OWNER: FUJITSU TECHNOLOGY SOLUTIONS INTELLECTUAL PROPERTY GMBH, 80807 MUENCHEN, DE

R082 Change of representative

Representative=s name: EPPING HERMANN FISCHER, PATENTANWALTSGESELLSCH, DE

Representative=s name: EPPING HERMANN FISCHER PATENTANWALTSGESELLSCHA, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final