-
Die Erfindung betrifft eine Rechneranordnung umfassend eine Mehrzahl von Clustersystemen zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage.
-
Clustersysteme zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage sind aus dem Stand der Technik bekannt. Beispielsweise ist aus der
EP 1 234 226 B1 ein Backup- und Archivierungssystem mittels Bandkassetten für Datenverarbeitungsanlagen bekannt, das von Fujitsu Technologie Solutions unter der Bezeichnung "CentricStor" vertrieben wird. Die Architektur des als "CentricStor" bekannten Backup- und Archivierungssystem ist schematisch in der
3 vereinfacht dargestellt.
-
Das Backup- und Archivierungssystem gemäß der 3 ist mit einem oder mehreren Hosts 1 und einem oder mehreren Kassettenlaufwerken 2 verbunden. Die Daten der Host 1 werden an Dateneingängen bereitgestellt. Ferner ist ein Plattenspeichersubsystem 3 mit mindestens einer Plattenspeichereinheit 4 als Teil einer datentechnischen Koppeleinheit 5 vorhanden. Die datentechnische Koppeleinheit 5 ist mit den Hosts 1 und den Kassettenlaufwerken 2 verbunden. Innerhalb der datentechnischen Koppeleinheit 5 sind zum Abwickeln der bei Backup- und Archivierungsvorgängen benötigten datentechnischen Prozesse getrennte Funktionseinheiten vorgesehen.
-
Eine erste Funktionskomponente koordiniert und steuert die Datenflüsse zwischen den Dateneingängen, den Kassettenlaufwerken 2 und dem Plattenspeichersubsystem 3. Eine zweite Funktionseinheit übernimmt die Übertragung von an den mindestens einen Dateneingang empfangenen Daten auf das Plattenspeichersubsystem 3, während eine dritte Funktionskomponente zur Übertragung der auf dem Plattenspeichersubsystem 3 zwischengespeicherten Daten zu dem mindestens einen Kassettenlaufwerk 2 vorgesehen ist.
-
Die zweiten und dritten Funktionseinheiten sind im Ausführungsbeispiel gemäß 3 durch je zwei Komponentenrechner 6 realisiert, die jeweils mindestens eine CPU und Arbeitsspeicher aufweisen und mit dem Plattenspeichersubsystem 3 verbunden sind. Einige der Komponentenrechner 6 sind darüber hinaus zum Abwickeln der Datentransfers zur Hostseite hin jeweils mit wenigstens einem Host 1 verbunden. Einige andere Komponentenrechner 6 sind darüber hinaus zur Kassettenlaufwerksseite hin jeweils mit einem Kassettenlaufwerk 2 verbunden. Die Anzahl der Komponentenrechner 6 kann variabel gewählt werden.
-
Ein derartiges Backup- und Archivierungssystem weist gegenüber anderen Lösungen eine verhältnismäßig große Flexibilität bezüglich der Annahme von zu archivierenden Daten auf einer Eingangsseite und dem Sichern der zu archivierenden Daten auf einer Ausgangsseite auf. Dennoch sind auch der Flexibilität des Systems gemäß 3 Grenzen gesetzt.
-
Insbesondere steigt der Aufwand für die Weiterentwicklung eines derartigen Clustersystems stark an, wenn zusätzliche Funktionalitäten in das Backup- und Archivierungssystem integriert werden sollen. Beispiele solcher zusätzlichen Funktionalitäten sind die Unterstützung neuer Hostinterfaces oder Massenspeichervorrichtungen zum Sichern der zu archivierenden Daten, die Integration zusätzlicher interner Komponenten, wie beispielsweise weiterer Plattensubsysteme oder zusätzlicher Servicekomponenten zum Ausführen von Servicefunktionen, wie beispielsweise der Deduplizierung oder Kompression von Daten oder die Bereitstellung neuer Benutzerschnittstellen zum Beispiel zum Ansteuern des gezeigten Backup- und Archivierungssystems als Dateiserver, von einem entfernten Standort aus oder über ein neues Protokoll.
-
Aufgabe der vorliegenden Erfindung ist es daher, eine Architektur zur weiteren Flexibilisierung von Clustersystemen zum Archivieren von Daten zu beschreiben. Bevorzugt sollen neue Funktionen, Hard- und Softwareeinheiten und Schnittstellen ohne Eingriff in ein bestehendes Clustersystem ergänzt werden können.
-
Gemäß einem Aspekt der Erfindung wird diesbezüglich eine Rechneranordnung umfassend eine Mehrzahl von Clustersystemen zum Archivieren von Daten wenigstens einer Datenverarbeitungsanlage offenbart. Dabei ist jedes der Mehrzahl von Clustersystemen modular aufgebaut und umfasst wenigstens einen ersten Komponentenrechner zum Empfangen von zu archivierenden Daten von der Datenverarbeitungsanlage, wenigstens ein Massenspeichersystem zum Zwischenspeichern der zu archivierenden Daten, wenigstens einen zweiten Komponentenrechner zum Sichern der zu archivierenden Daten auf wenigstens einer weiteren Massenspeichervorrichtung, insbesondere einer Magnetbandspeichervorrichtung, sowie eine Clustersteuerung zum Steuern der jeweiligen Komponentenrechner des jeweiligen Clustersystems. Die Rechneranordnung umfasst des Weiteren wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen und wenigstens einer Verbundsteuerung zum Abfragen von Statusdaten über eine Abfrageschnittstelle der Clustersteuerungen der Mehrzahl von Clustersystemen und zum Übermitteln von Arbeitsaufträgen an eine Steuerschnittstelle der Clustersteuerungen der Mehrzahl von Clustersystemen.
-
Durch die Vorsehung einer Abfrageschnittstelle und einer Steuerschnittstelle zum Abfragen beziehungsweise Steuern der einzelnen Clustersysteme, einer Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen und wenigstens einer Verbundsteuerung wird eine besonders flexible Kopplung der Komponenten unterschiedlicher Clustersysteme in einer gemeinsamen Rechneranordnung ermöglicht. Die Funktionalität und Leistung der Rechneranordnung kann in diesem Fall durch Hinzufügen weiterer Clustersysteme mit weiteren und/oder andersartigen Komponentenrechnern und sonstigen Funktionseinheiten ergänzt werden, ohne dass ein Eingriff in ein oder mehrere bereits vorhandenen Clustersysteme erforderlich wird. Eine derartige Architektur bietet eine Vielzahl von weiteren Vorteilen, die nachfolgend weiter ausgeführt werden.
-
Gemäß einer bevorzugten Ausgestaltung ist die Verbundsteuerung als Softwarekomponente ausgestaltet und wenigstens ein Komponentenrechner wenigstens eines Clustersystems der Mehrzahl von Clustersystemen ist zur Ausführung der Softwarekomponente eingerichtet. Beispielsweise kann es sich bei der Verbundsteuerung um eine zusätzliche Softwarekomponente handeln, die gemeinsam mit der Clustersteuerung eine Middleware eines, mehrerer oder sämtlicher miteinander verbundenen Clustersysteme bildet.
-
Gemäß einer weiteren Ausgestaltung ist jedes Clustersystem zur Ausführung der Middleware eingerichtet, so dass jedes Clustersystem Abfragen an die Abfrageschnittstellen anderer Clustersysteme der Rechneranordnung stellen und Arbeitsaufträge an die Steuerschnittstellen anderer Clustersysteme der Rechneranordnung übermitteln kann. Eine derartige Ausgestaltung ermöglicht unter anderem eine automatische Verlagerung oder Umleitung von Ressourcen von einem Clustersystem zu einem anderen Clustersystem, beispielsweise entsprechend vorbestimmten Regeln einer Regeldatenbank.
-
Gemäß einer anderen vorteilhaften Ausgestaltung ist die wenigstens eine Verbundsteuerung dazu eingerichtet, eine Benutzerschnittstelle zur Bedienung der Rechneranordnung umfassend die Mehrzahl von Clustersystemen bereitzustellen, wobei die Benutzerschnittstelle dazu eingerichtet ist, einen Gesamtzustand der Rechneranordnung basierend auf Ergebnissen von Statusanfragen an jedes der Clustersysteme zusammenzustellen. Eine derartige zentrale Benutzerschnittstelle ermöglicht eine einfache und einheitliche Administration der gesamten Rechneranordnung, ohne dass ein Administrator gesondert auf die Mehrzahl von Clustersysteme zugreifen müsste. Dabei ist es nicht erforderlich, dass der Gesamtzustand der Rechneranordnung in der Verbundsteuerung oder einem der Clustersystemen gespeichert wird.
-
Gemäß einer vorteilhaften Ausgestaltung ist die Benutzerschnittstelle des Weiteren dazu eingerichtet, ein Clustersystem zur Ausführung eines über die Benutzerschnittstelle empfangenen Arbeitsauftrags basierend auf der Auslastung der einzelnen Clustersysteme und/oder einer vorbestimmten Regeldatenbank auszuwählen und den Arbeitsauftrag an die Steuerschnittstelle des ausgewählten Clustersystems zu übermitteln. Eine derartige zentrale Auftragsannahme und -vergabe ermöglicht insbesondere die Sicherstellung einer gleichmäßigen Auslastung der gesamten Rechneranordnung über die Grenzen der einzelnen Clustersysteme hinweg.
-
Gemäß einer weiteren vorteilhaften Ausgestaltung ist die Verbundsteuerung des Weiteren dazu eingerichtet, über die Abfrageschnittstellen der Clustersteuerung einen Betriebszustand der einzelnen Clustersysteme zu überwachen. Beim Erkennen einer Betriebsstörung eines ersten Clustersystems wird ein erster Auftrag zum Stoppen der Ausführung eines dem ersten Clustersystem zugeordneten Arbeitsauftrags an die Steuerschnittstelle der Clustersteuerung des ersten Clustersystems übertragen. Ein zweiter Auftrag zum Übertragen von dem gestoppten Arbeitsauftrag zugehörigen, zwischengespeicherten Daten von dem ersten Clustersystem über die wenigstens eine Datenverbindung an das zweite Clustersystem wird an die Steuerschnittstelle der Clustersteuerung des ersten und/oder zweiten Clustersystems übertragen. Ein dritter Auftrag zum Ausführen des gestoppten Arbeitsauftrags wird an die Steuerschnittstelle der Clustersteuerung des zweiten Clustersystems übertragen. Eine derartige Rechneranordnung und Verbundsteuerung ermöglicht insbesondere die Erhöhung der Zuverlässigkeit der Rechneranordnung insgesamt, in dem die Verbundsteuerung flexibel auf den Ausfall einzelner Clustersysteme reagieren kann.
-
Gemäß einer möglichen Ausgestaltung ist die Verbundsteuerung und/oder eine Clustersteuerung des Weiteren dazu eingerichtet, sämtliche Massenspeichersysteme zum Zwischenspeichern der zu archivierenden Daten der Mehrzahl von Clustersystemen über ein von allen Clustersteuerungen gemeinsam genutztes Netzwerkdateisystem zu verwalten. Ein derartiges, gemeinsam genutztes Netzwerkdateisystem ermöglicht den Zugriff auf zwischengespeicherte Daten auch dann, wenn bereits einige Komponentenrechner eines gestörten Clustersystems nicht oder nicht mehr ordnungsgemäß funktionieren.
-
Gemäß einer weiteren vorteilhaften Ausgestaltung ist die Clustersteuerung eines ersten Clustersystems dazu eingerichtet, in dem ersten Clustersystem zwischengespeicherte Daten bei Auftreten eines vorbestimmten Ereignisses über die wenigstens eine Datenverbindung an ein zweites Clustersystem zu übertragen. Zum Beispiel kann die wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen eine Netzwerkverbindung zwischen dem zweiten Komponentenrechner eines ersten Clustersystems und einem ersten Komponentenrechner eines zweiten Clustersystems umfassen. Die Clustersteuerung des ersten Clustersystems ist dabei dazu eingerichtet, in dem ersten Clustersystem zwischengespeicherte Daten auf Anforderung durch die Verbundsteuerung über die Netzwerkverbindung an das zweite Clustersystem zu übertragen. Eine derartige Anordnung ermöglicht das Übertragen von Arbeitsaufträgen von einem Clustersystem auf ein anderes Clustersystem ohne das Vorsehen zusätzlicher Verbindungsstrukturen.
-
Gemäß einer weiteren Ausgestaltung der Erfindung umfasst die wenigstens eine Datenverbindung zur datentechnischen Kopplung der Mehrzahl von Clustersystemen wenigstens ein Steuernetzwerk zum Austauschen von Statusabfragen und Arbeitsaufträgen zwischen der Verbundsteuerung und den Clustersteuerungen der Mehrzahl von Clustersystemen und ein Speichernetzwerk zum Austauschen von den ausgetauschten Arbeitsaufträgen zugeordneten zwischengespeicherten Daten zwischen den Massenspeichersystemen der Mehrzahl von Clustersystemen. Eine derartige Aufteilung der Datenverbindung zur datentechnischen Kopplung in ein Steuernetzwerk und ein Speichernetzwerk ermöglicht die Trennung von Metadaten und zu archivierenden Daten bezüglich der unterschiedlichen Anforderungen dieser beiden Datentypen.
-
Die Erfindung wird nachfolgend anhand von unterschiedlichen Ausführungsbeispielen unter Bezugnahme auf die Figuren im Detail beschrieben.
-
In den Figuren zeigen:
-
1 eine schematische Darstellung einer Rechneranordnung mit einer Verbundsteuerung,
-
2 eine schematische Darstellung einer Rechneranordnung gemäß einem Ausführungsbeispiel und
-
3 eine schematische Darstellung eines modularen Clustersystems gemäß dem Stand der Technik.
-
In der 1 ist das Prinzip der Steuerung einer Rechneranordnung 10 durch eine Verbundsteuerung 20 schematisch dargestellt.
-
In der 1 ist ein erstes Clustersystem 11a mit einem zweiten Clustersystem 11b zu einer Rechneranordnung 10 zusammengefasst. Das erste Clustersystem 11a weist eine Abfrageschnittstelle 24 zum Beantworten von Statusanfragen SR (englisch: "status request") auf. Die Ergebnisse der Statusanfragen SR werden der Verbundsteuerung 20 zugeführt. Die Verbundsteuerung 20 umfasst unter anderem eine Regeldatenbank 26, die basierend auf einer fortwährenden Überwachung der Ergebnisse von Statusanfragen SR an das Clustersystem 11a und einer Analyse darin enthaltener Messwerte die Rechneranordnung 10 steuert.
-
Beispielsweise sorgt die Verbundsteuerung 20 für eine Verteilung der Archivierungsaufträge zwischen den Clustersystemen 11a und 11b der Rechneranordnung 10. Ebenfalls kann die Verbundsteuerung einzelne Clustersysteme 11a oder 11b oder Teile davon, insbesondere einzelne Komponentenrechner starten oder stoppen, um der Gesamtauslastung der Rechneranordnung 10 gerecht zu werden. Anhand der geplanten Konfigurationsänderungen und Zuteilung von Arbeitsaufträgen übermittelt die Verbundsteuerung 20 Steuerbefehle NC (englisch: "node control") zum Steuern des zweiten Clustersystems 11b an eine Steuerschnittstelle 23.
-
Innerhalb der Rechneranordnung 10 können Arbeitsaufträge flexibel verteilt und auch verschoben werden. Sofern das zweite Clustersystem 11b einen Arbeitsauftrag von dem ersten Clustersystem 11a übernimmt, beispielsweise wegen zu hoher Auslastung oder einer Störung des ersten Clustersystems 11a, wird über einen logisch oder physikalisch gesonderten Kommunikationskanal SDM (englisch: "shared data move") zum Übertragen von gemeinsam genutzten Daten, ein zugehöriger Datensatz von dem Clustersystem 11a an das Clustersystem 11b übertragen. Ob die Übertragung dabei durch die Verbundsteuerung 20, das erste Clustersystem 11a oder das zweite Clustersystem 11b initiiert und/oder koordiniert wird, hängt von der jeweiligen Implementierung der verwendeten Netzwerktechnologien und der Kopplung der einzelnen Komponenten untereinander ab.
-
Mögliche Beispiele für eine datentechnische Kopplung umfassen die Verwendung eines gemeinsamen Speichernetzwerks und/oder einem gemeinsamen Netzwerkdateisystems durch Clustersysteme 11a und 11b bzw. deren dezentrale Steuerungen. Alternativ kann auch eine direkte oder indirekte Kopplung einzelner Clustersysteme, wie sie später anhand der 2 im Detail beschrieben wird, verwendet werden, um Daten über ein Weitbereichsnetzwerk zu übertragen.
-
Der Zeitpunkt der Übertragung wird beispielsweise durch eine automatisch oder manuell festgelegte Regelzeit zum Übertragen der Daten von einem Clustersystem 11a an ein anderes Clustersystem 11b bestimmt. Alternativ kann der Zeitpunkt auch in Abhängigkeit der Auslastung der beteiligten Clustersysteme 11a und 11b oder des Kommunikationskanal SDM bestimmt werden.
-
2 zeigt eine beispielhafte Konfiguration einer Rechneranordnung 10 mit drei Clustersystemen 11a, 11b und 11c. Jedes der Clustersysteme 11a bis 11c weist ein zentrales Massenspeichersystem 12 zum Zwischenspeichern von zu archivierenden Daten auf. Darüber hinaus umfassen die Clustersysteme 11a, 11b und 11c jeweils eine eigene, dezentrale Clustersteuerung 17, die beispielsweise die Aufgaben der ersten Funktionseinheit FE1 gemäß dem unter Bezugnahme auf die 3 zuvor erläuterten Backup- und Archivierungssystems übernimmt. Die Clustersteuerung 17 ist im Ausführungsbeispiel als Softwarekomponente implementiert, die auf einem Komponentenrechner 14a des jeweiligen Clustersystems 11a bis 11c abläuft.
-
Beispielsweise handelt es sich bei den Clustersystemen 11a und 11c jeweils um ein Backup- und Archivierungssystem wie es anhand der 3 bereits zuvor beschrieben wurde. Die Clustersysteme 11a und 11c weisen jeweils eine oder mehrere zweite Funktionseinheiten FE2 zum Empfangen zu archivierenden Daten von einem Host 1 einer oder mehrerer Datenverarbeitungsanlagen 13 auf. Die zweiten Funktionseinheiten FE2 werden von einem oder mehreren, so genannten Front-End-Komponentenrechnern 14b bereitgestellt. Des Weiteren weisen die Clustersysteme 11a und 11c so genannte Back-End-Komponentenrechner 14c auf, die jeweils dritte Funktionseinheiten FE3 zur Ansteuerung und zum Sichern von zwischengespeicherten Daten aus dem Massenspeichersystem 12 auf daran angeschlossenen, externen Massenspeichervorrichtungen, insbesondere den in der 2 dargestellten Bandlaufwerken 15, bereitstellen.
-
Der Aufbau des Clustersystems 11b unterscheidet sich von dem Aufbau der Clustersysteme 11a und 11c. Insbesondere ist das Clustersystem 11b nicht direkt mit einem Bandlaufwerk gekoppelt. Stattdessen weist das Clustersystem 11b eine weitere Funktionseinheit FE4 zur Deduplizierung von auf dem internen Massenspeichersystem 12 gespeicherten Daten auf. Die Funktionseinheit FE4 zum Deduplizieren von Daten wird beispielsweise auf einem weiteren Komponentenrechner 14d ausgeführt.
-
Durch die Deduplizierung der auf dem Massenspeichersystem 12 zwischenzuspeichernden Daten kann eine verhältnismäßig große Anzahl von Daten in dem Massenspeichersystem 12 vorgehalten werden. Insbesondere können unterschiedliche Versionen eines gesicherten Datensatzes in dem Massenspeichersystem 12 vorgehalten werden, soweit jeweils nur die darin enthaltenen Änderungen zusätzlich abgelegt werden. Um eine Absicherung der in dem Massenspeichersystem 12 gespeicherten Daten auch gegen einen völligen Ausfall oder eine Zerstörung des Clustersystems 11b sicherzustellen, ist das Clustersystem 11b mit dem Clustersystem 11c über ein Weitbereichsnetzwerk 16, beispielsweise das Internet oder eine Standleitung zwischen unterschiedlichen Standorten der einzelnen Clustersystem 11a bis 11c, gekoppelt. Dabei dient ein Back-End-Komponentenrechner 14b des Clustersystems 11b zum Übertragen der in dem Massenspeichersystem 12 vorgehaltenen deduplizierten Daten über das Weitbereichsnetzwerk 16 an einen Front-End-Komponentenrechner 14a des Clustersystems 11c.
-
Die in der Rechneranordnung 10 gemäß 2 angeordneten Komponenten und Teilsysteme erlauben, wie oben ausgeführt, bereits eine Vielzahl von interessanten Funktionen zum Archivieren von Daten unterschiedlicher Arten. Um die Verwaltung der Rechneranordnung 10 weiter zu vereinfachen und gleichzeitig eine Flexibilisierung der Nutzung der darin enthaltenen Komponenten zu erreichen, umfasst die Rechneranordnung 10 zusätzlich eine Verbundsteuerung 20, die über ein Steuernetzwerk 21 mit den Clustersteuerungen 17 der einzelnen Clustersysteme 11a bis 11c verbunden ist. In der in 2 dargestellten Beispielkonfiguration ist die Clustersteuerung 17 des entfernt aufgestellten Clustersystems 11c dabei physikalisch über das Weitbereichsnetzwerk 16 an die Verbundsteuerung 20 angekoppelt.
-
Die Verbundsteuerung 20 umfasst unter anderem eine Benutzerschnittstelle 22, über die die Rechneranordnung 10 von einem Host 10 der Datenverarbeitungsanlage 13 aus überwacht, konfiguriert und gesteuert werden kann. Dabei kann die Verbundsteuerung 20, wie in der 2 dargestellt, als physikalisch gesonderte Vorrichtung ausgestaltet sein. Alternativ kann die Verbundsteuerung 20 auch als weitere Softwarekomponente innerhalb eines oder mehrerer der Clustersysteme 11a, 11b und 11c ablaufen, beispielsweise auf einem der Komponentenrechner 14a bis 14d.
-
Unter anderem zur Überwachung, Konfiguration und Steuerung durch die Verbundsteuerung weisen die einzelnen Clustersteuerungen 17 jeweils eine Steuerschnittstelle 23 und eine Abfrageschnittstelle 24 auf. Über die Abfrageschnittstelle 24 kann die Verbundsteuerung 20 den jeweiligen Zustand jedes der Clustersysteme 11a bis 11c abfragen. Insbesondere kann darüber abgefragt werden, ob die Clustersysteme 11a bis 11c grundsätzlich einsatzbereit sind, wie hoch die Auslastung der darin verbauten Einzelkomponenten, insbesondere der Komponentenrechner 14a bis 14d und der Massenspeicher 12, ist sowie welche Aufgaben den einzelnen Komponentenrechnern 14a, 14b, 14c oder 14d zugeteilt wurden. Anhand dieser Daten kann die Verbundsteuerung 20 einen Gesamtzustand der Rechneranordnung 10 ermitteln und über die Benutzerschnittstelle 22 für einen Benutzer der Rechneranordnung 10 darstellen.
-
Gegebenenfalls kann ein Benutzer über die Benutzerschnittstelle 22 auch Änderungen an der aktuellen Konfiguration, insbesondere der Zuteilung von Ressourcen zu einzelnen Arbeitsaufträgen und/oder Funktionseinheiten FE1 bis FE4 vornehmen. Dabei wird die Konfiguration jedes einzelnen Clustersystems 11a, 11b oder 11c bevorzugt dezentral von seiner jeweiligen Clustersteuerung 17 gespeichert und verwaltet und von der zentralen Verbundsteuerung 20 bloß zusammengefasst und/oder weitergeleitet.
-
Neben der Darstellung und/oder manuellen Konfiguration durch einen Benutzer kann anhand der gesammelten Daten auch automatisch eine Entscheidung bezüglich der Zuordnung von neu eingehenden Archivierungsanfragen durch die Datenverarbeitungsanlage 13 vorgenommen werden. Beispielsweise können zentral über die Benutzerschnittstelle 22 entgegengenommene Aufgaben vom einem Host 1 der Datenverarbeitungsanlage 13 zum Archivieren an eines der Clustersysteme 11a, 11b oder 11c weitergeleitet werden, das momentan die geringste Auslastung aufweist. Des Weiteren können auch Arbeitsaufträge, die von einer Anwendung der Datenverarbeitungsanlage 13 direkt an eine Clustersteuerung 17, beispielsweise des ersten Clustersystems 11a übertragen wurden, durch die Verbundsteuerung 20 aus einer Warteliste des Clustersystems 11a entfernt und einem weniger ausgelasteten Clustersystem, beispielsweise dem Clustersystem 11b zugeordnet werden.
-
Sofern dem Arbeitsauftrag zugehörige Daten bereits in dem Massenspeichersystem 12 des Clustersystems 11a zwischengespeichert sind, müssen diese Daten von dem Clustersystem 11a an das Clustersystem 11b übertragen werden. Hierzu dient im dargestellten Ausführungsbeispiel ein separates Speichernetzwerk 25, über das die Massenspeichersysteme 12 des ersten Clustersystems 11a und des dritten Clustersystems 11b verbunden sind. Das dritte Clustersystem 11c ist, wie oben beschrieben, mittelbar über das Weitbereichsnetzwerk 16 ebenfalls mit den Clustersystemen 11a und 11b verbunden, so dass auch eine weitere Auslagerung von Daten von dem Clustersystem 11b an das Clustersystem 11c möglich ist.
-
Durch Vorsehung des Steuernetzwerks 21, der Steuerschnittstelle 23 und der Abfrageschnittstelle 24, dem Vorsehen zusätzlicher Datenübertragungswege, wie insbesondere dem Speichernetzwerk 25 zwischen den Clustersystemen 11a, 11b und 11c und der Kopplung der Clustersysteme 11b und 11c über das Weitbereichsnetzwerk 16, sowie der Berücksichtigung von durch die Verbundsteuerung 20 empfangenen Aufgaben kann die Rechneranordnung 10 mittels der Clustersteuerungen 20 wie ein einheitliches System gesteuert werden.
-
Die technische Implementierung des Steuernetzwerks 21 und des Speichernetzwerks 25 ist für die oben beschriebene Architektur von untergeordneter Bedeutung. Jedoch ist es vorteilhaft, das Speichernetzwerk 25, über das verhältnismäßig große, zusammenhängende Daten übertragen werden, mit einer Technologie zu implementieren, die eine große Übertragungsbandbreite zur Verfügung stellt. Eine geeignete Technologie stellt beispielsweise das Fiberchannel-Protokoll basierend auf einer breitbandigen Verbindungstechnik, wie beispielsweise Gigabit-Ethernet gemäß der IEEE-Standardfamilie 802.3, dar. Dagegen muss über das Steuernetzwerk 21 nur ein verhältnismäßig geringes Datenvolumen übertragen werden. Zur zeitnahen Abstimmung der einzelnen Clustersteuerungen 17 untereinander und mit der Verbundsteuerung 20 sollte für dieses Netzwerk jedoch eine Netzwerktechnologie mit verhältnismäßig geringer Latenzzeit eingesetzt werden. Beispielsweise bietet sich für das Steuernetzwerk 21 ein konventionelles lokales Netzwerk mit einer beschränkten Teilnehmerzahl an. Über entsprechende Segmentierung, Virtualisierung oder Priorisierung können beide Teilnetzwerke auch mittels eines gemeinsamen physikalischen oder logischen Datennetzwerks implementiert werden.
-
In einer weiteren, in der 2 nicht dargestellten Alternative ist die Verbundsteuerung 20 Teil einer Middleware, die neben der Verbundsteuerung 20 selbst auch die Clustersteuerung 17 für die einzelnen Clustersysteme 11a, 11b und 11c umfasst.
-
Die beschriebene Middleware kontrolliert bei Bedarf die gesamte Rechneranordnung 10, ihre Aufgaben umfassen unter anderem das Überwachen von Systemereignissen, wie beispielsweise den Ausfall benachbarten Clustersysteme 11a, 11b oder 11c oder dem Ausfall einzelner Komponentenrechner 14a, 14b, 14c oder 14d. Des Weiteren erlaubt die Middleware das Starten oder Stoppen von Prozessen, die auf den einzelnen Clusterrechnern ausgeführt werden oder die Konfiguration innerhalb eines Clustersystems 11a, 11b oder 11c oder der gesamten Rechneranordnung 10. Hierzu ist die Middleware mit allen wesentlichen Teilen der Rechneranordnung verbunden, beispielsweise über das Steuernetzwerk 21, und hat Zugriff auf in der Rechneranordnung gespeicherte Informationen, wie beispielsweise Metainformationen bezüglich zu erledigender Aufgaben, die auf einem oder mehreren der Massenspeichersysteme 12 abgelegt sind.
-
Über das Steuernetzwerk 21 werden die Middlewarekomponenten der Clustersysteme 11a, 11b und 4 effektiv zusammen geschaltet, so dass eine gegenseitige Überwachung und Steuerung möglich wird. In dieser Ausgestaltung agiert die Middleware einerseits als Datenerfassung für Anfragen benachbarter Clustersysteme und andererseits als Aktionselement innerhalb eines Clustersystems, aber auch nach außen auf benachbarte Clustersysteme wirkend als Steuerung.
-
Ein Vorteil dieser und ähnlicher Lösungen liegt darin, dass jedes der Clustersysteme 11a, 11b oder 11c die Steuerung der gesamten Rechneranordnung 10 übernehmen kann. Insbesondere wird so eine Redundanz gegenüber dem Ausfall eines einzelnen Clustersystems 11a, 11b oder 11c und einer einzigen, zentralen Verbundsteuerung 20 geschaffen.
-
Im Folgenden werden drei Szenarien inkl. zugehöriger Regeln einer Regeldatenbank 26, beispielsweise zum Einsatz in der beschriebenen Rechneranordnung 10, beschrieben. Selbstverständlich handelt es sich dabei nur um wenige einer Vielzahl von möglichen Einsatzszenarien.
-
Szenario 1: Temporäre Verlagerung physikalischer Bandlaufwerke nach einem Ausfall
-
Ein Clustersystem 11 kann im Normalbetrieb über jede Funktionseinheit FE3 der Komponentenrechner 14c jedes physikalische Bandlaufwerk 15 ansprechen. Beispielsweise können jedem Komponentenrechner 14c des Clustersystems 11a anfänglich zwei Bandlaufwerke 15 zugeordnet sein. In dem beschriebenen Szenario fallen beide physikalischen Bandlaufwerke 15 einer dritten Funktionseinheit FE3 des Clustersystems 11a komplett aus. Das heißt, dass diese Funktionseinheit FE3 ohne weitere physikalische Bandlaufwerke 15 keine weiteren Sicherungsaufträge ausführen kann. Die Funktionseinheit FE3 beziehungsweise der zu ihrer Ausführung eingesetzten Komponentenrechner 14c selbst verbleiben jedoch in einem funktionsfähigen Zustand.
-
Sind weitere physikalische Bandlaufwerke, beispielsweise ein Bandlaufwerk 15 eines weiteren Komponentenrechners 14c, über ein geeignetes Netzwerk, beispielsweise ein Fiber Channel Storage Netzwerk, mit der Funktionseinheit FE3 des ersten Clustersystems 11a verbunden, so kann die Funktionseinheit FE3 auch auf dieses weitere Bandlaufwerk 15 zugreifen. Dabei wird die Zuordnung, welche konkrete Funktionseinheit FE3 auf welche physikalischen Bandlaufwerke 15 zugreifen darf, einzig und allein über die Konfiguration bestimmt, die durch die Middleware des Clustersystems 11a, insbesondere die ersten Funktionseinheiten FE1, kontrolliert wird. Die erste Funktionseinheit FE1 des Clustersystems 11a kennt die Anzahl der zugewiesenen physikalischen Bandlaufwerke 15.
-
In beschriebenen Szenario enthält die Regeldatenbank 26 eine Regel, dass, wenn alle physikalischen Bandlaufwerke 15 ausfallen, welche einer vorgegebenen Funktionseinheit FE3 zugewiesen sind, eine weitere Funktionseinheit FE3, die ein zusätzliches Bandlaufwerk 15 aufweist und sich bevorzugt in demselben Clustersystem 11a befindet, gesucht werden soll. Nachfolgend wird die Konfiguration des Clustersystems 11a so geändert, dass die insgesamt noch verfügbaren, funktionellen physikalischen Bandlaufwerke 15 möglichst gleichmäßig auf die Funktionseinheiten FE3 des Clustersystems 11a verteilt werden. Im Ergebnis wird der Ausfall eines oder mehrerer Bandlaufwerke 15 durch eine dritte Funktionseinheit FE3 registriert. Vollautomatisch wird dafür gesorgt, dass alle Funktionseinheiten FE3 des Clustersystems 11a voll einsatzfähig bleiben. Das heißt, es kann mit einem höheren Datendurchsatz auf die verbleibenden physikalischen Bandlaufwerke 15 durch die dritten Funktionseinheiten FE3 des Clustersystems 11a gesichert werden.
-
Im beschriebenen Szenario wurde der Ausgleich innerhalb eines einzelnen Clustersystems 11a durchgeführt. Bei mehreren, verbundenen Clustersystemen kann ein Ausgleich auch über Grenzen eines einzelnen Clustersystems hinweg, beispielsweise durch Umkonfiguration benachbarter Clustersysteme 11a und 11b oder zwischen gekoppelten Clustersystemen 11b und 11c, durchgeführt werden, um lokale Ressourcenausfälle auszugleichen.
-
Szenario 2: Temporäre Verlagerung von Aufträgen bei Überlastung
-
Es wird erneut auf die Rechneranordnung 10 gemäß 2 Bezug genommen. In diesem Fall fallen jedoch anders als im obigen Beispiel 1 nicht die physikalischen Bandlaufwerke 15 des ersten Clustersystems 11a aus. Das erste Clustersystem 11a erfasst Messwerte, die Auskunft über eine gesicherte Datenrate in MB/s auf die physikalischen Bandlaufwerke 15 geben. Somit kann ausgerechnet werden, ob eine aktuell zu sichernde Datenmenge in ein dafür zur Verfügung stehendes Zeitfenster passt.
-
In der Regeldatenbank 26 sind hierfür beispielsweise folgende Regeln enthalten. Wenn sich eine zu sichernde Datenmenge nicht in einem dafür vorgesehenen Zeitfenster sichern lässt, dann vergleicht die erste Funktionseinheit FE1 die Auslastung der einzelnen dritten Funktionseinheiten FE3 des Clustersystems 11a. Dabei wird die am geringsten belastete dritte Funktionseinheit FE3 gefunden sowie die am meisten ausgelastete Funktionseinheit FE3. Nachfolgend wird, wie oben anhand des Szenarios 1 beschrieben, durch Rekonfiguration des Clustersystems 11a ein Bandlaufwerk 15 von einer wenig ausgelasteten Funktionseinheit FE3 an eine hoch ausgelastete Funktionseinheit FE3 verlagert.
-
Falls dies zur Einhaltung vorgegebener Randbedingungen nicht ausreichen sollte, werden gegebenenfalls Eingangsdatenströme von einem oder mehreren Hosts 1 durch Rekonfiguration der Rechneranordnung 10 an ein anderes Clustersystem 11b oder 11c umgeleitet. Im Ergebnis ergeben sich ein Lastausgleich und auch damit eine Erhöhung der Sicherungsgeschwindigkeit.
-
Szenario 3: Verteilung von Zuordnungen nach Zeitzonen
-
Als Ausgangssituation werden hier die zwei Clustersysteme 11a und 11c betrachtet, die in unterschiedlichen Zeitzonen aufgestellt beziehungsweise betrieben werden. Ein Nutzer hat an unterschiedlichen Standorten jeweils ein Arbeitsprofil, zum Beispiel dass jeweils in der dort lokalen Nachtzeit eine Vollsicherung eines Hosts 1 vorgenommen werden soll. Angenommen, die Sicherung dauert zwei Stunden und die Standorte befinden sich in Berlin und Moskau mit einer Zeitdifferenz von zwei Stunden, dann wäre es im Prinzip vorstellbar, die Sicherung an allen Standorten zur gleichen lokalen Zeit mit den gleichen Backendgeräten, beispielsweise demselben Bandlaufwerk 15, zu starten. Beginnt die Sicherung um 22:00 Uhr Ortszeit in Moskau (20:00 Uhr Berliner Zeit), und dauert zwei Stunden, dann kann das Bandlaufwerk 15 und die gehörige dritte Funktionseinheit FE3 nachfolgend für den ersten Standort in Berlin umgeschaltet werden, sodass die Sicherung in Berlin ebenfalls um 22:00 Uhr Ortszeit beginnen kann. Hierdurch gelingt eine permanente Auslastung des Backends umfassend die Funktionseinheit FE3 und des Bandlaufwerks 15.
-
Die Regeldatenbank 26 umfasst in diesem Fall die Regel, die Bandlaufwerke um 22:00 Uhr lokaler Ortszeit in Moskau zur Verwendung mit dem dort befindlichen Clustersystem 11a zu konfigurieren. Dabei werden alle physikalischen Bandlaufwerke 15 dem ersten Clustersystem 11a zugeordnet. Nachfolgend, also um 22:00 Uhr Ortszeit in Berlin, ist es in Moskau 24:00 Uhr und die Sicherung ist beendet. Daraufhin konfiguriert die Clustersteuerung 20 die Rechneranordnung 10 derart um, dass alle Bandlaufwerke 15 dem zweiten Clustersystem 11c in Berlin zugeordnet werden. Die Sicherung in Berlin kann nun mit voller Kapazität durchgeführt werden.
-
Im Ergebnis sind die physikalischen Bandlaufwerke 15 für vier Stunden ununterbrochen in Betrieb. Stehen weitere Standorte in anderen Zeitzonen zur Verfügung beziehungsweise vergrößert man die Sicherungsfenster, dann lässt sich erreichen, dass die physikalischen Bandlaufwerke 15 ununterbrochen in Betrieb sind. Dadurch lässt sich die teilweise sehr hohe Investition in kostenintensive physikalische Bandlaufwerke 15 besser verteilen.
-
Durch die oben beschriebenen Ausführungsbeispiele und Szenarien erhält man eine Rechneranordnung, die gegenüber den bekannten Clustersystemen eine Reihe von Vorteilen aufweist.
-
Zum Einen ermöglicht die Vorsehung einer Verbundsteuerung 20 die Bedienung der Rechneranordnung über eine einzige Benutzerschnittstelle 22. Des Weiteren wird eine Erweiterung des Systems sowohl bezüglich neuer Funktionen als auch bezüglich einer Kapazitätserweiterung durch bloßes Hinzufügen eines weiteren Clustersystems ermöglicht. Durch die Erweiterbarkeit und Verlagerungsmöglichkeit von einzelnen Anfragen auf andere Clustersysteme ist die Rechneranordnung 10 damit praktisch beliebig skalierbar. Zuvor bestehende Begrenzungen, wie beispielsweise die Anzahl innerhalb eines Clustersystems vorhandener Einbauplätze, wird durch die mehrstufige Hierarchie gemäß dem oben beschriebenen Architekturmodels umgangen, so dass eine praktisch unendliche Skalierung der Rechneranordnung 10 möglich ist.
-
Zusätzlich ermöglicht insbesondere die Kombination einer Verbundsteuerung mit dem Speichernetzwerk 25 eine manuelle oder automatische Verlagerung oder Umleitung von Ressourcen von einem Clustersystem 11a auf ein anderes Clustersystem 11b oder 11c, so dass eine gleichmäßige Lastverteilung gewährleistet werden kann.
-
Schließlich wird die Verfügbarkeit der Rechneranordnung 10 insgesamt erhöht, da beim Ausfall eines Clustersystems 11a, ein damit verbundenes Clustersystem 11b oder 11c dessen Aufgaben übernehmen kann.
-
Bezugszeichenliste
-
- 1
- Host
- 2
- Kassettenlaufwerk
- 3
- Plattenspeichersubsystem
- 4
- Plattenspeichereinheit
- 5
- datentechnische Koppeleinheit
- 6
- Komponentenrechner
- 10
- Rechneranordnung
- 11a
- Clustersystem
- 11b
- Clustersystem
- 11c
- Clustersystem
- 12
- Massenspeichersystem
- 13
- Datenverarbeitungsanlage
- 14a
- Komponentenrechner für Clustersteuerung
- 14b
- Front-End-Komponentenrechner
- 14b
- Back-End-Komponentenrechner
- 14d
- Komponentenrechner für Duplizierung
- 15
- Bandlaufwerk
- 16
- Weitbereichsnetzwerk
- 17
- Clustersteuerung
- 20
- Verbundsteuerung
- 21
- Steuernetzwerk
- 22
- Benutzerschnittstelle
- 23
- Steuerschnittstelle
- 24
- Abfrageschnittstelle
- 25
- Speichernetzwerk
- 26
- Regeldatenbank
- SR
- Statusanfrage
- NC
- Steuerbefehl
- SDM
- Kommunikationskanal
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
-
Zitierte Nicht-Patentliteratur
-
- IEEE-Standardfamilie 802.3 [0041]