DE3486257T2 - Synchrones dezentralisiertes Verarbeitungssystem. - Google Patents

Synchrones dezentralisiertes Verarbeitungssystem.

Info

Publication number
DE3486257T2
DE3486257T2 DE84100153T DE3486257T DE3486257T2 DE 3486257 T2 DE3486257 T2 DE 3486257T2 DE 84100153 T DE84100153 T DE 84100153T DE 3486257 T DE3486257 T DE 3486257T DE 3486257 T2 DE3486257 T2 DE 3486257T2
Authority
DE
Germany
Prior art keywords
subsystem
subsystems
data
content
content code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE84100153T
Other languages
English (en)
Other versions
DE3486257D1 (de
Inventor
Hirokazu Ihara
Shoji Miyamoto
Kinji Mori
Makoto Nohmi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of DE3486257D1 publication Critical patent/DE3486257D1/de
Publication of DE3486257T2 publication Critical patent/DE3486257T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/437Ring fault isolation or reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • G06F11/0763Error or fault detection not based on redundancy by bit configuration check, e.g. of formats or tags
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/26Functional testing
    • G06F11/273Tester hardware, i.e. output processing circuits
    • G06F11/277Tester hardware, i.e. output processing circuits with comparison between actual response and known fault-free response

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Small-Scale Networks (AREA)

Description

  • Die vorliegende Erfindung betrifft ein dezentralisiertes Verarbeitungssystem, an das eine Anzahl von Subsystemen angeschlossen ist, und den Betrieb eines solchen Systems. Insbesondere betrifft die Erfindung ein dezentralisiertes Verarbeitungssystem, das in der Lage ist, auf die Feststellung eines Fehlers in einem der Subsysteme hin geeignete Gegenmaßnahmen zu ergreifen, und das dahingehend verbessert ist, daß es den Subsystemen möglich ist, gegenseitig entsprechend der jeweiligen Situation in verknüpfter Art zu arbeiten.
  • Beschreibung des Standes der Technik:
  • Bisher wurde der Betrieb in einem dezentralisierten Verarbeitungssystem in Reaktion auf einen Fehler und die verknüpfte Verarbeitung mittels eines hierarchischen Steuersystems ausgeführt, bei dem ein bestimmtes Subsystem diese Verarbeitung zentral durchführt. Ein solches Steuersystem hat jedoch den Nachteil, daß jeder Fehler in dem bestimmten Subsystem zu Fehlfunktionen in allen Subsystemen führt, die unter der Steuerung des bestimmten Subsystems stehen.
  • Um diesen Nachteil zu beseitigen, wurde bereits ein Übertragungssystem vorgeschlagen, bei dem eine Anzahl von Subsystemen eine Selbstdiagnose-Funktion aufweist. Das bekannte Übertragungssystem ist jedoch weder dafür vorgesehen, auf einen Fehler zu reagieren, der in einem der Subsysteme auftritt, noch dafür, eine Verarbeitung mit gegenseitiger Verknüpfung der Subsysteme zu ermöglichen.
  • Zusammenfassung der Erfindung:
  • In der US 4 390 984 ist ein Statusprüfverfahren für ein Datenübertragungssystem mit doppelter Schleifenstruktur beschrieben, bei dem Fehler in einem Subsystem auf der Basis festgestellt werden, ob eine Nachricht innerhalb einer vorgegebenen Zeit eine volle Runde auf der Schleife zurücklegt oder nicht.
  • Entsprechend ist es Aufgabe der Erfindung, ein Verfahren zum Betreiben eines dezentralisierten Verarbeitungssystems zu schaffen, bei dem in einem Netz von Subsystemen einzelne Nachrichten verbreitet werden können und bei dem jedes Subsystem eine Funktion zur Erfassung von Fehlern, die in irgend einem der Subsysteme auftreten, und zum Ergreifen von der Situation entsprechenden, geeigneten Gegenmaßnahmen aufweist, und bei dem die Subsysteme eine Verarbeitung mit gegenseitiger Verknüpfung ausführen können, um dadurch die obigen Probleme der herkömmlichen dezentralisierten Verarbeitungssysteme zu beseitigen.
  • Diese Aufgabe wird durch das Verfahren zum Betreiben eines dezentralisierten Verarbeitungssystems gemäß dem Oberbegriff des Hauptanspruchs gelöst, das die Merkmale aufweist, die in dessen kennzeichnenden Teil aufgeführt sind.
  • Spezielle Ausführungsformen der Erfindung und ein System, mit dem das neue Verfahren ausgeführt wird, gehen aus den Unteransprüchen hervor.
  • Kurzbeschreibung der Zeichnungen:
  • Die Fig. 1 ist eine Darstellung des Konzepts der Erfindung;
  • die Fig. 2 eine Darstellung einer praktischen Form der Erfindung;
  • die Fig. 3 ein Blockschaltbild eines Verarbeitungsrechners;
  • die Fig. 4 ein Blockschaltbild einer NCP;
  • die Fig. 5 die Darstellung eines Beispiels der Funktion der Subsysteme;
  • die Fig. 6 und 7 sind Darstellungen des Inhalts der Verarbeitungsvorgänge;
  • die Fig. 8 ist die Darstellung des Formats einer Nachricht;
  • die Fig. 9 bis 13 sind Darstellungen der Verarbeitungsvorgänge in Reaktion auf einen Fehler;
  • die Fig. 14 bis 17 genaue Darstellungen der Inhalte der Verarbeitungsvorgänge;
  • die Fig. 18 und 19 Darstellungen der Synchronsteuer-Verarbeitungsvorgänge; und
  • die Fig. 20 bis 25 genaue Darstellungen der Inhalte der Synchronsteuer-Verarbeitungsvorgänge.
  • Beschreibung der bevorzugten Ausführungsformen:
  • Im folgenden werden mit Bezug auf die anliegenden Zeichnungen bevorzugte Ausführungsformen der Erfindung beschrieben.
  • Wie in der Fig. 1 gezeigt ist, die das Konzept der Ausführungsform der Erfindung darstellt, ist eine Anzahl von Subsystemen (1. bis n-tes Subsystem) über Übertragungsleitungen 1 verbunden. Die Subsysteme 1 bis n weisen Übertragungsfunktionen zum gegenseitigen Austausch von Informationen und Anwendungssteuerfunktionen F&sub1; bis F&sub2; auf, um Anlagen entsprechend den erhaltenen Informationen zu betreiben. Jedes der Subsysteme ist so aufgebaut, daß es nicht von anderen Subsystemen gesteuert wird und daß, im Falle eines Fehlers in einem der anderen Subsysteme, ein Selbstschutz bewirkt wird, um dadurch eigene Fehlfunktionen zu vermeiden.
  • Die Fig. 2 zeigt ein praktisches Beispiel für die Erfindung. Wie aus dieser Darstellung hervorgeht, ist eine Anzahl von Subsystemen in der Form einer geschlossenen Schleife miteinander verbunden. Das heißt, die Subsysteme 1 bis n sind über doppelte Übertragungsleitungen 1000 und 2000 verbunden. Diese Übertragungsleitungen, auch als "Schleifen" bezeichnet, weisen entgegengesetzte Übertragungsrichtungen auf. Die Subsysteme 1 bis n sind dafür vorgesehen, über diese Schleifen 1000, 2000 und über Übertragungssteuereinheiten 110, 210, . . . , n10; 120, 220, . . . ., n20 die Übertragung auszuführen und Daten zu empfangen. Die Paare von Übertragungssteuereinheiten 110, 120; 210, 220; . . . , n10, n20 sind jeweils mit einem Verarbeitungsrechner 10, 20, . . . , n0 verbunden. Die Übertragungssteuereinheiten haben die Funktion, die Übertragung von Informationen zwischen den Subsystemen auszuführen, während der Verarbeitungsrechner die Funktionen F&sub1;, F&sub2;, . . . .Fn zum Betreiben der Anlagen beinhaltet. Die Übertragungssteuereinheiten der jeweiligen Paare sind über Bypassrouten 1112, 1211 usw. verbunden, um ein defektes Teil auf der Übertragungsleitung umgehen zu können.
  • Die Fig. 3 zeigt den Verarbeitungsrechner 10 im einzelnen. Wie aus der Abbildung hervorgeht, wird der Verarbeitungsrechner 10 durch verschiedene Teile gebildet, wie durch eine Verarbeitungseinheit 1001, Interfaces 1002, 1003 zur Verbindung mit den Übertragungssteuereinheiten 110, 120, ein Terminal 1012 und ein Interface 1004 zwischen dem Terminal 1012 und der Verarbeitungseinheit, einen Empfangspuffer 1005 zum Speichern von Nachrichten, die von den Übertragungssteuereinheiten 110, 120 und dem Terminal 1012 erhalten werden, einen Sendepuffer 1006 zum Speichern von Nachrichten, die zu den Übertragungssteuereinheiten 110, 120 und dem Terminal 1012 zu senden sind, eine I/O-Inhaltscodetabelle 1007 zur Darstellung der Beziehung zwischen den für die Ausführung der erwähnten Steuerfunktionen erforderlichen Eingangssignalen und den Ausgangssignalen, die das Ergebnis der Steuerfunktionen sind, ein Statusregister 1008, das den Status des Verarbeitungsrechners anzeigt, ein Synchronisationsanforderungsregister 1009, das anzeigt, daß die Ausführung synchron mit einem anderen Subsystem begonnen wird, einen Synchronisationsprüfzeitgeber (T&sub2;) 1013, der die Zeit angibt, die seit der Synchronisationsanforderung verstrichen ist, einen Statuszeitgeber (T&sub1;) 1010, der die Zeit angibt, die seit dem Start der Statuseinstellung des Verarbeitungsrechners verstrichen ist, und durch eine Bypass-Statustabelle 1011, die das Vorhandensein oder Nichtvorhandensein eines Bypasses in der Bypass-Statustabelle anzeigt.
  • Die Fig. 4 zeigt Einzelheiten der Übertragungssteuereinheit 110, die im folgenden als "NCP" bezeichnet wird. Die Übertragungssteuereinheit 110 setzt sich zusammen aus einer Verarbeitungseinheit 1101, einem Interface 1102 zur Verbindung mit der Schleifen-Übertragungsleitung 1000, einem Interface 1103 zur Verbindung mit dem Verarbeitungsrechner 10 und dem Gegenstück NCP 120, einem Empfangspuffer 1104 zum Speichern von Nachrichten, die von der Schleifen-Übertragungsleitung 1000 und dem Gegenstück NCP 120 erhalten werden, einem Sendepuffer 1105 zum Speichern der Nachrichten, die vom Verarbeitungsrechner 10 erhalten werden, einer Eingangssignalinhaltscodetabelle 1106 zum Speichern des Inhaltscodes der Nachricht, die zum NCP zu liefern ist, und einem Zeitgeber (T&sub3;) 1107 zum Feststellen von Fehlern bei der Übertragung.
  • Im folgenden wird die Arbeitsweise dieser Ausführungsform beschrieben.
  • Die Arbeitsweise dieser Ausführungsform beinhaltet die folgenden beiden Funktionen:
  • (1) Erfassung eines Fehlers und Durchführen einer Ausfallprozedur in Reaktion auf die Erfassung eines Fehlers.
  • Jeder Verarbeitungsrechner ist dafür vorgesehen, festzustellen, daß der Informationsaustausch aufgrund eines Fehlers im Übertragungssystem oder in einem anderen Verarbeitungsrechner beeinträchtigt ist, und er ist dafür vorgesehen, entsprechend dem Ausmaß der Schwierigkeiten eine Ausfallprozedur für die Anwendungssteuerung durchzuführen.
  • (2) Synchronsteuerung Jeder Verarbeitungsrechner bewirkt die Steuerung der Anwendung synchron zum Betrieb der anderen Verarbeitungsrechner.
  • Es folgt eine genaue Beschreibung dieser beiden Funktionen. (1) Erfassung eines Fehlers und Ausfallprozedur: Die Subsysteme 1, 2, . . . n weisen identische Übertragungsfunktionen auf, die Steuerfunktionen unterscheiden sich jedoch in Abhängigkeit vom Gegenstand der Steuerung. Die Fig. 5 zeigt ein Beispiel für die Beziehungen zwischen den Steuerfunktionen F&sub1;, F&sub2;, . . . .,Fn der jeweiligen Subsysteme 1, 2, . . . , n und den I/O-Daten. Das heißt, die Funktion F&sub1; des Subsystems 1 erhält Daten des Inhalts a vom daran angeschlossenen Terminal 1012 und liefert Daten des Inhalts B. Die Funktion F&sub2; des Subsystems 2 erhält Daten des Inhalts B und Daten des Inhalts C über die Schleifen-Übertragungsleitungen und liefert Daten des Inhalts D. Gleichermaßen erhält die Funktion Fn des Subsystems n Daten des Inhalts D, die über die Schleifen-Übertragungsleitung übertragen werden, und Daten des Inhalts d, die von dem damit verbundenen Terminal abgegeben werden, und liefert Daten des Inhalts E und G. Jedes der Subsysteme 1, 2, . . . , n ist dafür vorgesehen, ein Ausfallprozedurprogramm zu beginnen, um eine Ausfallprozedur für die Anlage auszuführen, wenn es durch einen Fehler die vorgeschriebenen Daten nicht erhalten kann. Es ist auch möglich vorzusehen, daß wie im Falle der Funktion F&sub2; des Subsystems 2 der Fig. 5 als Ergebnis der Ausfallprozedur Daten des Inhalts D' erzeugt werden, die sich von den normalen Daten unterscheiden, um es dadurch dem Subsystem 1 zu ermöglichen, das Auftreten eines Fehlers im System festzustellen und die Ausfallprozedur durchzuführen.
  • Die Verarbeitungsvorgänge, die zur Realisierung der obigen Funktion vom Verarbeitungsrechner ausgeführt werden, und die Verarbeitungsvorgänge, die von der NCP ausgeführt werden, sind in der Fig. 6 bzw. 7 gezeigt.
  • Der Verarbeitungsrechner 10 kann einen Datenaustausch mit den Verarbeitungsrechnern der anderen Subsysteme ausführen, wenn die Stromversorgung für den Verarbeitungsrechner eingeschaltet wird oder wenn es erlaubt ist, Signale zu und von den NCPs 110 und 120 zu senden und zu erhalten.
  • Nach Erhalt eines Interrupt-Eingangssignals 6A von der Stromversorgung, den Interfaces 1002, 1003, 1004 oder dem Zeitgeber 1010 führt der Verarbeitungsrechner eine Interruptanalyse 6B aus und eine Prüfung 6C, ob das Interrupt-Eingangssignal durch das Einschalten der Stromversorgung oder durch die Wiederherstellung der Übertragung zu den NCPs 110, 120 verursacht wurde. Nachdem bestätigt ist, daß das Interrupt-Eingangssignal durch das Einschalten der Stromversorgung oder die Wiederherstellung der Übertragung zur NCP 110 oder 120 verursacht wurde, bereitet der Verarbeitungsrechner 10 den Datenaustausch mit anderen Subsystemen vor. Dazu gibt der Verarbeitungsrechner 10 den Inhaltscode der Eingangsdaten, die vom Verarbeitungsrechner 10 benötigt werden, aus der I/O-Inhaltscodetabelle 1007 an die NCPs 110, 120, um diese in den letzteren zu registrieren (6D).
  • Um den Status des Systems als ganzes zu erfassen und um festzustellen, welche Art von Eingabe möglich ist, wird das Statusflag im Statusregister 1008 gesetzt (6E), um anzuzeigen, daß das Register selbst im Status-Einstellzustand ist. Gleichzeitig wird das Flag für den Eingangsinhaltscode in der I/O-Inhaltscodetabelle 1007, die die verfügbaren Eingangssignale anzeigt, zurückgesetzt (6F), um dadurch die anderen Subsysteme von der Tatsache zu unterrichten, daß der eine Verarbeitungsrechner zum Einstellen des Statusses bereit ist (6G), und der Status-Zeitgeber (T&sub1;) wird in Gang gesetzt (6H).
  • Die vorstehende Beschreibung, die in Verbindung mit der Fig. 6 erfolgte, ist auf das Subsystem 1 gerichtet. Es ist jedem Fachmann jedoch klar, daß die anderen Systeme die gleiche Arbeitsweise aufweisen.
  • Andererseits werden, wenn vom Verarbeitungsrechner 10 an die NCP 110 (120) Daten gegeben werden (7A), die Daten von der NCP 110 (120) im Empfangspuffer 1104 gespeichert, und es erfolgt eine Prüfung (7B), um festzustellen, ob diese Daten einen Eingangsinhaltscode habe, der vom Verarbeitungsrechner 10 benötigt wird. Wenn der Eingangscode dieser Daten ein benötigter Code ist, werden diese Daten in der Eingangsinhaltscodetabelle 1106 gespeichert (7C). Wenn der Inhaltscode der Daten nicht benötigt wird, werden die Daten über das Interface 1102 zur Schleife gesendet (7D). Wenn jedoch die NCP aufgrund eines Fehlers in der Übertragungsleitung eine Bypassroute bildet, werden die Daten über das Interface 1103 zum Gegenstück NCP 120 übertragen und davon zur Schleife 2000 gesendet.
  • Die vorstehend mit Bezug zur Fig. 7 erfolgte Beschreibung ist auf das Subsystem 1 gerichtet. Es erübrigt sich zu sagen, daß die gleiche Beschreibung auch für die anderen Subsysteme gilt.
  • Die Fig. 8 zeigt das Format der Nachrichten, das verwendet wird, wenn Daten von der NCP zur Schleife gesendet werden. Am Kopf der Nachricht befindet sich ein Flag F 3001. Die Nachricht beinhaltet auch den Inhaltscode (FC) 3002, der den Inhalt der Daten anzeigt, die Adresse (SA) 3003 der NCP, die die Quelle der Nachricht ist, einen Kontrollcode (CC) 3004, der aus drei Komponenten der laufenden Nummer, die die Nummer der Nachricht angibt, die von der NCP erzeugt wurde, einem Bypasscode, der anzeigt, ob die Nachricht während des Durchlaufens der Schleifen- Übertragungsleitung über eine Bypassroute gelaufen ist, und aus der Anzahl von Durchläufen der Nachricht durch Bypassrouten besteht, die Daten 3005 und ein Flag (F) 3006, das das hintere Ende der Nachricht anzeigt. Der Datenaustausch zwischen dem Verarbeitungsrechner 10 und der NCP 110, 120 wird mit einem Format ausgeführt, das durch Weglassen des Flags 3001, der Quellenadresse 3003, des Kontrollcodes 3004 und des Flags 3006 vom Format 3000 der Nachricht erhalten wird.
  • Der Verarbeitungsrechner 10 und die anderen Verarbeitungsrechner 20 bis n0, die vom Verarbeitungsrechner 10 informiert wurden, daß letzterer zum Einstellen des Statusses bereit ist, senden aufeinanderfolgend die verfügbaren Ausgangsinhaltscodes (vgl. Fig. 5) aus, wie es in der Fig. 9 gezeigt ist. Das heißt, der Verarbeitungsrechner 10 des Subsystems 1 ist bereit, den Inhaltscode B durch seine Funktion F&sub1; aus zugeben, vorausgesetzt er stellt fest, daß sein Terminal 1012 in einem normalen Zustand ist und die Daten a zur Verfügung stehen. Entsprechend gibt der Verarbeitungsrechner 10 den Inhaltscode B auf die Übertragungsleitung. Der Verarbeitungsrechner 20 des Subsystems 2 stellt fest, daß er die Funktion F&sub2; ausführen kann, vorausgesetzt daß er zusätzlich zu dem erwähnten Inhaltscode B den Inhaltscode C von einem anderen Subsystem erhält. Der Verarbeitungsrechner n0 des Subsystems n, der den Inhaltscode D erhalten hat, ist bereit, durch die Funktion Fn die Inhaltscodes E und G auszugeben, wenn er feststellt, daß sein Terminal n012 in einem normalen Zustand ist und die Daten mit dem Inhaltscode d zur Verfügung stehen. In diesem Zustand gibt der Verarbeitungsrechner n0 die Inhaltscodes E und G auf die Übertragungsleitung. Die Verarbeitungsrechner der jeweiligen Subsysteme können daher erkennen, daß sie ihre Funktionen sicher ausführen können.
  • Unter Bezug auf die Fig. 10 wird nun angenommen, daß in der NCP 210 des Subsystems 2 ein Fehler auftritt. In diesem Fall stellt die NCP 110 des Subsystems 1 fest, daß keine Daten zur defekten NCP 210 gesendet werden können, und sie bildet eine Bypassroute aus, wobei sie eine Information erzeugt, die die Bildung der Bypassroute anzeigt. Die so von der Bildung der Bypassroute informierten Verarbeitungsrechner stellen fest, daß das System nun in einem Zustand zum Einstellen des Statusses ist, und sie geben die verfügbaren Ausgangsinhaltscodes aufeinanderfolgend auf die gleiche Weise wie oben beschrieben ab. In diesem Fall ist die NCP 220 in Ordnung, während die NCP 210 des Subsystems 2 defekt ist. Es ist daher möglich, den Datenaustausch über die NCP 220 durchzuführen, so daß alle Funktionen F&sub1; bis Fn ausgeführt werden können.
  • Es werde nun angenommen, daß in beiden NCPs 210 und 220 des Subsystems 2 ein Fehler auftritt. In diesem Fall bilden die NCPs 110 und 320 auf beiden Seiten des Subsystems 2 Bypassrouten aus und geben Informationen ab, die die Bildung dieser Bypassrouten anzeigen. Die Verarbeitungsrechner, die diese Information erhalten haben, senden dann die verfügbaren Ausgangsinhaltscodes ab.
  • Das heißt, der Verarbeitungsrechner 10 des Subsystems 1 gibt den Ausgangsinhaltscode B aus. Andererseits führt der Verarbeitungsrechner n0 des Subsystems n, der den Eingangsinhaltscode D nicht erhalten kann, eine Ausfallprozedur durch. Wenn der Verarbeitungsrechner 20 des Subsystems 2 feststellt, daß die Datenübertragung zur NCP 210 und 220 nicht möglich ist (vgl. 6I in der Fig. 6), führt der Verarbeitungsrechner 20 eine Abnormalprozedur aus, da er feststellt, daß die erforderlichen Eingangsinhaltscodes B und C nicht zur Verfügung stehen.
  • Die Fig. 12 und 13 zeigen den Fall, daß im Verarbeitungsrechner 20 ein Fehler aufgetreten ist, bzw. den Fall, daß das Subsystem 2 als Ganzes defekt ist. In diesen Fällen kann der Verarbeitungsrechner 10 die Funktion F&sub1; ausführen, wie in dem Fall, der in Verbindung mit der Fig. 11 erläutert wurde. Andererseits kann jedoch der Verarbeitungsrechner n0 die Funktion Fn nicht ausführen, sondern führt die Ausfallprozedur aus.
  • Die Einzelheiten der von den Verarbeitungsrechnern ausgeführten Prozeduren werden im folgenden mit Bezug zu den Fig. 14 bis 17 beschrieben.
  • Nach Erhalt der Daten (14A) vom Schleifen-Übertragungssystem stellt der Verarbeitungsrechner 10 fest (14B), ob diese Daten eine Information über die Bildung oder Aufhebung einer Bypassroute oder eine Information über die Unmöglichkeit der Datenübertragung von der NCP zum Verarbeitungsrechner darstellen. Wenn die Daten andere als die oben erwähnten sind, stellt der Verarbeitungsrechner fest (14F), ob die Daten eine Information über den Statuseinstellzustand sind. Wenn ja, stellt der Verarbeitungsrechner 10 mittels des Statusflags im Statuseinstellregister 1008 fest (14G), ob der Verarbeitungsrechner 10 selbst für das Einstellen des Statusses bereit ist. Wenn das Statuseinstellflag nicht gesetzt ist, setzt (14C) der Verarbeitungsrechner 10 dieses Flag, und er setzt das Flag in der Eingangsinhaltscodetabelle, die in der I/O-Inhaltscodetabelle 1007 den verfügbaren Eingangscode anzeigt, sowie das Sendeflag zurück, das anzeigt, ob die erforderlichen Eingangsinhaltscodes zur NCP 110, 120 gesendet wurden. Dann setzt (14E) der Verarbeitungsrechner 10 einen Statuseinstellzeitgeber (T&sub1;) in Gang, um die Zeit festzustellen, die seit dem Start des Statuseinstellzustandes verstrichen ist. Wenn die Feststellung (14B) ergibt, daß die Daten vom oben erwähnten Typ sind, geht der Vorgang zum Statuseinstellzustand weiter. Dazu wird das Flag im Statuseinstellregister 1098 gesetzt (14C).
  • Wenn das Flag im Statusregister 1008 gesetzt ist (15A), fragt der Verarbeitungsrechner 10 das Eingangsinhaltscodesendeflag ab (15B), das anzeigt, ob der erforderliche Eingangsinhaltscode zur NCP 110, 120 gesendet wurde. Wie erläutert, befindet sich das Eingangsinhaltscodesendeflag in der I/O-Inhaltstabelle 1007. Wenn dieses Flag nicht gesetzt ist, sendet der Verarbeitungsrechner 10 den Eingangsinhaltscode zur NCP 110, 120 und setzt (15C) das gleiche Flag. Danach prüft (15D) der Verarbeitungsrechner 10 mittels des Eingangsinhaltscodeflags die Eingangsinhaltscodes, die von den anderen Subsystemen zur Verfügung stehen. Wenn alle Eingangsinhaltscodes zur Verfügung stehen (15E), die für die Ausführung der Funktion F&sub1; erforderlich sind, wählt der Verarbeitungsrechner die entsprechenden Ausgangsinhaltscodes aus der I/O-Inhaltstabelle 1007 aus und sendet die ausgewählten Codes ab, während solche Codes wie "bereits abgesendet" in der I/O-Inhaltstabelle 1007 gesetzt werden (15F). Wenn alle erforderlichen Eingangsinhaltscodes zur Verfügung stehen und alle der entsprechenden möglichen Ausgangsinhaltscodes zu "bereits abgesendet" wurden (15G), hat der Verarbeitungsrechner 10 die Statuseinstellung beendet, so daß er das Statuseinstellflag zurücksetzt (15H) und die Eingangs- und Ausgangsinhaltscodesendeflags zurücksetzt (15I), während der Statuseinstellzeitgeber (T&sub1;) 1010 zurückgesetzt wird (15J).
  • Die Fig. 16 zeigt den Ablauf der Vorgänge, die vom Verarbeitungsrechner ausgeführt werden, wenn dieser die verfügbaren Inhaltscodes erhalten hat, die von den Verarbeitungsrechnern der anderen Subsysteme abgegeben werden. Wenn sich andere Verarbeitungsrechner im Statuseinstellzustand befinden, erhält (16A) der Verarbeitungsrechner 10 die verfügbaren Ausgangsinhaltscodes, die von anderen Verarbeitungsrechnern abgegeben werden, und der Verarbeitungsrechner 10 stellt durch Prüfen des Eingangsinhaltscodeflags in der I/O-Inhaltscodetabelle 1007 fest (16B), ob das Signal bereits erhalten wurde oder nicht. Wenn sich herausstellt, daß der erhaltene Ausgangsinhaltscode nicht identisch mit dem Code ist, der bereits erhalten wurde, erfolgt eine Überprüfung (16C), ob die Flags des Statuszeitgebers (T&sub1;) 1010 und des Statusregisters 1008 gesetzt sind. Für den Fall, daß diese Flags noch nicht gesetzt sind, setzt der Verarbeitungsrechner 10 diese Flags, und er setzt das Flag des Eingangsinhaltscodes in der I/O-Inhaltscodetabelle 1007 zurück (16D). Dann macht der Verarbeitungsrechner 10 die Ausgangsinhaltscodes von den anderen Subsystemen zu den Eingangsinhaltscodes, die von dem Subsystem benötigt werden, zu dem der Verarbeitungsrechner gehört, und er setzt (16E) das Flag im entsprechenden Eingangsinhaltscode in der I/O-Inhaltstabelle 1007.
  • Die Fig. 17 zeigt den Vorgang, der abläuft, wenn einer oder mehrere der Eingangsinhaltscodes nicht erhalten werden können, die vom Verarbeitungsrechner benötigt werden. Nach dem Ablauf einer vorgegebenen Zeit vom Beginn des Statuseinstellzustandes an bewirkt der Zeitgeber T&sub1; einen Interrupt, und der Eingangsinhaltscode, der nicht erhalten werden kann, wird der I/O-Inhaltscodetabelle 1007 entnommen (17A). Der Verarbeitungsrechner 10 findet dann die Funktion heraus, die aufgrund der Unmöglichkeit des Erhaltens des Eingangsinhaltscodes nicht ausgeführt werden kann, und er führt die Ausfallprozedur aus (17B). Wenn sich als Ergebnis der Ausfallprozedur ein abzusendender Ausgangsinhaltscode ergibt, wird dieser Code zur Schleife gesendet. Nach der Vervollständigung dieser Prozedur wird das Statusflag zurückgesetzt (17C), und es wird dadurch der Statuszeitgeber (T&sub1;) 1010 zurückgesetzt, um dadurch die Statuseinstellung zu beenden. In der Fig. 17 ist der mit A bezeichnete Schritt mit dem Verarbeitungsschritt 6I der Fig. 6 verbunden.
  • Es folgt nun eine Erläuterung der Synchronsteuerung, die die andere Hauptfunktion des erfindungsgemäßen Systems ist.
  • (2) Synchronsteuerung: Es wird angenommen, daß das Subsystem 1 erforderlich ist, um gleichzeitig mit den Subsystemen 2 bis n eine Arbeit J&sub1; auszuführen. In diesem Fall führt das Subsystem 1 die folgenden Vorgänge aus, um eine Übereinstimmung der Zeitgebung mit den anderen Subsystemen herbeizuführen. Dazu gibt der Verarbeitungsrechner 10 eine Nachricht in der Form des erwähnten Nachrichtenformates 3000 an die Schleifen-Übertragungsleitung ab, deren Daten aus dem Verarbeitungsinhalt J&sub1; und einem Synchronisationsanforderungscode F&sub1; bestehen, der anzeigt, daß dieser Inhalt synchron ausgeführt werden soll. Jede NCP auf der Schleife nimmt diese Nachricht auf und liefert sie an den zugehörigen Verarbeitungsrechner. In der Folge stoppt der Verarbeitungsrechner die weitere Abgabe von Daten an die Schleifen-Übertragungsleitung, so daß überhaupt keine Daten mehr über die Schleife laufen.
  • Wenn sich keine Bypassroute in der Schleifenübertragungsleitung befindet und der Datenfluß in der Schleife erloschen ist, gibt der Verarbeitungsrechner 10 eine Nachricht auf die Schleife, deren Daten aus dem synchronisierten Verarbeitungsinhalt J&sub1; und dem Synchronisationscode F&sub2; in der Form des erwähnten Nachrichtenformates 3000 bestehen (vgl. Fig. 19).
  • Der Verarbeitungsrechner, der zu synchronisieren ist und der dafür vorgesehen ist, die Verarbeitung J&sub1; auszuführen, beginnt die Verarbeitung nach dem Erhalt der Nachricht ohne Verzögerung. Die Einzelheiten der von der NCP und dem Verarbeitungsrechner ausgeführten Verarbeitungsvorgänge werden genauer weiter unten erläutert.
  • Die Fig. 20 bis 22 zeigen den Ablauf der Steuerung des Eingangs und des Ausgangs zwischen der NCP 110 und der Schleifen-Übertragungsleitung 1000. Wenn in den Puffern 1104 und 1105 Nachrichten gespeichert sind, die zu der Schleifen-Übertragungsleitung zu senden sind, steuert die Verarbeitungseinheit 1101 die Schaltung des Interfaces 1102 entsprechend, und sie gibt die Daten zu der Verarbeitungseinheit 1101, die von der Schleifen- Übertragungsleitung 1000 zum Interface 1102 gegeben wurden. Wenn die Puffer 1104 und 1105 keine abzusendende Nachricht enthalten, steuert andererseits die Verarbeitungseinheit 1101 das Interface 1102 so, daß eine Bypassroute gebildet wird, die es erlaubt, daß die erhaltene Nachricht direkt auf die Schleifen-Übertragungsleitung gegeben wird.
  • Angenommen, eine Nachricht auf der Schleifen-Übertragungsleitung 1000 hat das Interface 1102 erreicht (20A). Wenn das Interface 1102 bereits eine Nachricht absendet, wird die von der Schleife erhaltene Nachricht im Empfangspuffer 1104 gespeichert (20C). Wenn keine Nachricht abgesendet wird, wird die von der Schleife erhaltene Nachricht wieder direkt auf die Schleife gegeben und außerdem vom Empfangspuffer 1104 aufgenommen (20D). Mit diesem Aufnahmevorgang wird die Übertragungsverzögerung im wesentlichen zu Null gemacht, da die über die Schleife gesendete Nachricht nicht in jeder NCP gespeichert wird.
  • Zu der die Bypassroute bildenden Funktion der NCP erfolgt eine zusätzliche Erläuterung. Die NCP 110 stellt auf die unten angegebene Weise einen Fehler in der Übertragungsleitung fest und bildet eine Bypassroute aus. Wenn eine von der NCP 110 ausgegebene Nachricht nicht in einer vorgegebenen Zeitspanne zu der NCP zurückkehrt, sendet die NCP 110 dasselbe Signal erneut aus. Wenn auch dieses Signal nicht zurückkommt, wird ein kleines Schleifenprüfsignal abgegeben, das über eine Route fließt, die von den NCPs 110, 210, 220, 120 und 110 gebildet wird, um festzustellen, ob die Nachricht zu den benachbarten NCPs gesendet werden kann. Gleichzeitig informiert die NCP 110 die NCP 120 vom Beginn der kleinen Schleifenprüfung. In Reaktion auf diese Information setzt die NCP 120 ein kleines Schleifenprüfsignal über eine Route in Umlauf, die durch die NCPs 120, n20, n10, 110 und 120 gebildet wird. Wenn die kleinen Schleifenprüfsignale über die jeweiligen kleinen Schleifen sicher zurückkommen, betrachten die NCPs 110 und 120, die die kleinen Schleifenprüfsignale erzeugten, die benachbarten NCPs als in Ordnung. Gleichermaßen führen die NCPs 210, 310, . . . , n20 die kleine Schleifenprüfung durch Erzeugen der entsprechenden kleinen Schleifenprüfsignale aus. Wenn das kleine Schleifenprüfsignal nicht zurückkommt, betrachtet die NCP die benachbarte NCP als defekt und baut die Bypassroute auf. Unter der Annahme, daß die NCPs 210 und 220 defekt sind, wie es oben in Verbindung mit der Fig. 11 angenommen wurde, wird der Fehler durch die benachbarten NCPs 110 und 320 festgestellt, und es wird durch diese NCPs eine Bypassroute aufgebaut. Andererseits senden die NCPs 110 und 320 periodisch große Schleifenprüfsignale neben den erwähnten kleinen Schleifenprüfsignalen aus, um die Beseitigung des Fehlers zu erfassen. Das große Schleifenprüfsignal läuft über eine Route um, die durch die innere Schleife 1000 oder die äußere Schleife 2000 gebildet wird. Wenn das kleine Schleifensignal oder das große Schleifensignal, das nicht zurückgekommen ist, wieder zurückkommt, nimmt die NCP, die das Prüfsignal erzeugt hat, an, daß der Fehler beseitigt ist, und hebt die Bypassroute auf.
  • Wie in der Fig. 21 gezeigt, setzt die NCP, die den Fehler durch die kleine Schleifenprüfung festgestellt hat und die die Bypassroute aufgebaut hat (21A), in einem Bypass-Statusregister 1108 ein Flag (21B) und sendet (21C) eine Nachricht ab, um die anderen Subsysteme vom Aufbau der Bypassroute zu informieren.
  • Andererseits wird, wenn der Fehler behoben ist, die Bypassroute aufgehoben (22A), es wird gleichzeitig das Flag im Bypass- Statusregister 1108 zurückgesetzt (22B), und es werden die anderen Subsysteme über die Aufhebung unterrichtet (22C). Die NCP gibt die Änderung des Bypass-Statusregisters 1108 jedesmal dann an den Verarbeitungsrechner weiter, wenn eine Änderung erfolgt. Der Verarbeitungsrechner setzt dann die Bypassinformation in die Bypass-Statustabelle 1011 ein.
  • Unter Verwendung der oben beschriebenen Funktion der NCP führt der Verarbeitungsrechner die in den Fig. 23 bis 25 gezeigten Verarbeitungsvorgänge aus. Wenn eine synchron auszuführende Arbeit aufgetreten ist (23A), erfolgt eine Überprüfung (23B), um festzustellen, ob sich im System eine Bypassroute befindet. Wenn sich keine Bypassroute im System befindet, wird das Flag im Synchronisationsanforderungsregister 1009 gesetzt (23C), und es werden die Synchronisationsanforderungsdaten ausgegeben (23F), wobei das Absenden von anderen als den Synchronisationsanforderungsdaten unterdrückt wird (23G).
  • Andererseits setzt (25B) der Verarbeitungsrechner, der die Synchronisationsanforderungsdaten erhalten hat (25A), das Flag im Synchronisationsanforderungsregister 1009, und das Absenden aller Daten außer den Synchronisationsdaten zu der NCP wird unterdrückt (25C). Nach der Übertragung der Synchronisationsanforderungsdaten für die Arbeit J&sub1;, die synchron auszuführen ist, setzen (23E, 25E) diejenigen Verarbeitungsrechner (23D, 25D), von denen erwartet wird, daß sie eine Information über den Beginn der Arbeit abgeben, einen Synchronisationsprüfzeitgeber T&sub2; in Gang. Nachdem eine vorgegebene Zeit nach dem Zeitpunkt des Setzens des Zeitgebers T&sub2; verstrichen ist (24A), erfolgt mittels der Bypass-Statustabelle 1011 eine Überprüfung (24B), um festzustellen, ob sich im System eine Bypassroute befindet, und es werden Synchronisationsdaten übermittelt (24C), die den Beginn der Bearbeitung der Arbeit J&sub1; anzeigen. Wenn sich im System eine Bypassroute befindet, werden die Daten auf der Schleife vorübergehend in der NCP gespeichert, die die Bypassroute bildet, so daß dann eine nicht vernachlässigbare Übertragungsverzögerung entsteht. Unter diesen Umständen ist es unmöglich, die synchrone Bearbeitung der Arbeit J&sub1; durchzuführen. Es wird daher die Unterdrückung der Datenübertragung zur NCP aufgehoben, und diese Tatsache wird den anderen Verarbeitungsrechnern mitgeteilt (24D), um dadurch das Synchronisationsanforderungsflag und den Synchronisationsprüfzeitgeber zurückzusetzen (24E). Der Verarbeitungsrechner (25F), der die Synchronisationsdaten erhalten hat, beginnt sofort (25G) mit der Arbeit J&sub1;, die von diesen Daten bezeichnet wird, und er setzt den Synchronisationsprüfzeitgeber (T&sub2;) 1013 zurück (25H) und hebt die Unterdrückung des Absendens von Daten an die NCP auf, um den anderen Verarbeitungsrechnern diese Tatsache mitzuteilen (25I).
  • Der Verarbeitungsrechner, dem das Absenden von Daten an die NCP untersagt wurde, um die synchrone Bearbeitung vorzubereiten, setzt auf den Erhalt dieser Unterdrückungsaufhebungsdaten das Register 1009, das die Synchronisation anfordert, und den Zeitgeber (T&sub2;) zurück, um festzustellen, daß die Voraussetzung für die Beendigung der synchronen Bearbeitung aufgehoben ist.
  • Bei der beschriebenen Ausführungsform ist eine Anzahl von Subsystemen über eine doppelte schleifenförmige Übertragungsleitung verbunden. Diese Anordnung dient jedoch lediglich der Erläuterung, und die Erfindung kann in verschiedenen anderen Formen ausgeführt werden.
  • Es ist anzumerken, daß hinsichtlich des "Schleifen-Übertragungssystems" (japanische Patentanmeldung Nr. 93924/1980) und der "Übertragungssteuereinheit" (japanische Gebrauchsmusteranmeldung Nr. 87835/1981) des gleichen Anmelders vorzugsweise ein Bezug hinsichtlich der Einzelheiten des Betriebs der Einzelteile wie der NCP, des Verarbeitungsrechners usw. erfolgt, die bei der vorstehenden Ausführungsform verwendet werden.
  • Wie aus der obigen Beschreibung hervorgeht, kann im Falle eines Fehlers in einem der Subsysteme, die das dezentralisierte Verarbeitungssystem bilden, jedes der Subsysteme eine geeignete Ausfallprozedur entsprechend dem Fehlerzustand ausführen und es kann, nach der Beseitigung des Fehlers, jedes der Subsysteme eine geeignete Verarbeitung in Reaktion auf die Wiederherstellung ausführen. Zusätzlich können bei Bedarf die Subsysteme die Arbeiten synchron ausführen. Das dezentralisierte Verarbeitungssystem der Erfindung ist daher neu und kann bemerkenswerte Vorteile erzielen.

Claims (15)

1. Verfahren zum Betreiben eines dezentralisierten Verarbeitungssystems mit einer Anzahl von Subsystemen (1, 2 . . n), wobei die Subsysteme Übertragungsfunktionen (110, 120, . . . n10, n20) und Verarbeitungsfunktionen (10, 20, . . . , n0; F&sub1;, F&sub2;, Fn) aufweisen und Puffereinrichtungen (1005, 1006) sowie Interfaceeinrichtungen (1002, 1003, 1004) beinhalten, und wobei jedes Subsystem mit einem anderen Subsystem durch wenigstens eine Übertragungseinrichtung (1, 1000, 2000) verbunden ist und eine Diagnoseeinrichtung zum Feststellen enthält, ob im System Abnormalitäten auftreten, sowie eine Funktion beinhaltet, um in Reaktion auf das Ergebnis der Diagnose geeignete Gegenmaßnahmen zu ergreifen, gekennzeichnet durch die Schritte
(a) des Speicherns, in einer Inhaltscodetabelle (1007) in jedem Subsystem, von Informationen entsprechend dem für Eingangsdaten erforderlichen Inhaltscode (B, C), der den Inhalt der Daten anzeigt, die von einem anderen Subsystem zu erhalten sind und die für die Ausführung der Verarbeitungsfunktion des eigenen Subsystems erforderlich sind,
(b) des Speicherns des Inhaltscodes (D), der den Inhalt der Daten anzeigt, die das Ergebnis des Ausführens der Verarbeitungsfunktion des eigenen Subsystems sind,
(c) des Aussendens, in einem Subsystem, einer Nachricht mit einem Inhaltscode, der den Inhalt der Daten anzeigt, die das Subsystem bereitstellen kann, über die Interfaceeinrichtung an die Übertragungseinrichtung,
(d) des Empfangens von Nachrichten auf der Übertragungseinrichtung durch die Interfaceeinrichtung eines jeden Subsystems,
(e) des Prüfens der Inhaltscodes, die in den erhaltenen Nachrichten enthalten sind, mittels der Inhaltscodetabelle daraufhin, ob die Daten in der Nachricht erforderliche Daten sind,
(f) des Zwischenspeicherns der Daten in der Puffereinrichtung, wenn die Prüfung ergibt, daß die Daten erforderlich sind,
(g) des Feststellens in jedem Subsystem (Blöcke 6I, 15D, 15E, 16B), ob alle Daten, die einen oder mehrere der vorgegebenen Inhaltscode aufweisen und die für die Ausführung der Verarbeitungsfunktion des eigenen Subsystems erforderlich sind, zur Verfügung stehen,
(h) des Ausführens der Verarbeitungsfunktion in jedem der Subsysteme, wenn durch die Feststellung ermittelt wird, daß alle Daten mit dem erforderlichen Inhaltscode verfügbar sind,
(i) des Auswählens des gespeicherten Inhaltscodes auf der Basis des Inhalts der sich aus der Ausführung ergebenden Daten, und
(j) des Erzeugens einer Nachricht, die die sich aus der Ausführung ergebenden Daten und den ausgewählten Inhaltscode enthält,
(k) wobei jedes Subsystem dafür vorgesehen ist, in dem Fall, daß es dadurch einen Fehler in dem System entdeckt, daß es vorgeschriebene Daten nicht erhalten kann, ein Ausfallprozedurprogramm zu beginnen.
2. Verfahren nach Anspruch 1, wobei jedes der Subsysteme des weiteren dafür vorgesehen ist, als Ergebnis des Ausfallprozedurprogramms einen Ausgangsinhaltscode (D') zu erzeugen, der dich vom normalen Ausgangsinhaltscode (D) unterscheidet, um es dadurch den anderen Subsystemen in Reaktion auf den Ausgangsinhaltscode (D') zu ermöglichen, das Auftreten eines Fehlers im System festzustellen und die Ausfallprozedur auszuführen, wobei die anderen Subsysteme auf ihre Inhaltscodetabelle zugreifen und daraus den Eingangsinhaltscode (D) ableiten, der nicht erhalten werden kann, so daß die Subsysteme die Funktion herausfinden können, die aufgrund der Unmöglichkeit des Erhaltens des Eingangsinhaltscodes nicht ausgeführt werden kann.
3. Verfahren nach Anspruch 1 oder Anspruch 2, wobei jedes Subsystem die Prüfung (15D, 15E, 16B) durch Verarbeiten der Inhaltscodes ausführt, die die Inhalte der Informationen angeben, die für die Ausführung einer Funktion erforderlich sind, die einem Subsystem zugeordnet ist.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Prüfung (15D, 15E, 16B) während einer Statuseinstellperiode ausgeführt wird, in der die Inhaltscodes von anderen Subsystemen erhalten werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, wobei jedes der Subsysteme eine Ausfallprozedurroutine ausführt (17B), um einen Fehler irgendwo im System zu identifizieren.
6. Verfahren nach Anspruch 5, wobei jedes der Subsysteme den Schritt des Aufnehmens des Ergebnisses der Ausfallprozedurroutine der anderen Subsysteme ausführt und unter Verwendung der Ergebnisse der Ausfallprozedurroutinen der anderen Subsysteme die eigene Ausfallprozedurroutine durchführt.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß die wenigstens eine Übertragungseinrichtung (l, 1000, 2000) unter Ausbildung einer Schleife mit den Subsystemen (1, 2, n) verbunden ist und jedes Subsystem eine Funktion zur Diagnose (14B) eines Fehlers in einem der anderen Subsysteme aufweist.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß jedes Subsystem einen Fehler in den Übertragungsfunktionen der anderen Subsysteme durch den Betrieb des Subsystems zur Erfassung eines Datenübertragungsfehlers feststellt (14B), daß eines der Subsysteme auf die Feststellung eines Fehlers in der Übertragungsfunktion hin eine Bypassroute im System ausbildet (21D), wenn eine Bypassroute möglich ist, und daß das Subsystem, das die Bypassroute ausbildet- die anderen Subsysteme über die Bypassroute im System informiert (21C), wobei eines der Subsysteme eine Bypassroute in einem an das defekte Subsystem angrenzenden Subsystem ausbildet, wenn im defekten Subsystem keine Bypassroute gebildet werden kann.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß jedes Subsystem das Absenden von Daten, die keine Daten zur Synchronisation des Betriebs der nicht defekten Subsysteme sind, an eine oder mehrere Übertragungseinrichtungen unterdrückt (23G), wenn die Subsysteme zur Ausführung synchroner Verarbeitungsvorgänge miteinander synchronisiert werden.
10. Dezentralisiertes Verarbeitungsverfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß eines der Subsysteme die Verarbeitung in einem defekten Subsystem synchron mit anderen Subsystemen verhindert, wenn eine Bypassroute für das defekte System aufgebaut wurde.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß jedes der Subsysteme eine kleine Schleifenprüfnachricht an die dem defekten Subsystem benachbarten Subsysteme aussendet, um zu überprüfen, ob Daten in einer Schleife gesendet werden können, zu der das defekte Subsystem und die benachbarten Subsysteme gehören.
12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, daß jedes der Subsysteme eine große Schleifenprüfnachricht an alle Subsysteme des Systems aussendet, um zu überprüfen, ob durch das System Daten gesendet werden können.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß jedes Subsystem unabhängig Anwendungsprogramme synchron mit anderen Subsystemen ausführt, daß jedes Subsystem den Status der Übertragungseinrichtung prüft (23B, 24A, 24B), um zu bestätigen, daß eine synchrone Ausführung des Anwendungsprogrammes möglich ist, und daß die Anwendungsprogramme ausgeführt werden (25G), wenn das möglich ist.
14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß jedes Subsystem prüft, ob bei der Ausführung des synchronen Betriebs eine Verzögerung auftritt.
15. Dezentralisierten Verarbeitungssystems mit einer Anzahl von Subsystemen (1, 2 . . . n), wobei die Subsysteme Übertragungsfunktionen (110, 120, . . . , n10, n20) und Verarbeitungsfunktionen (10, 20, . . . , n0; F&sub1;, F&sub2;, . Fn) aufweisen und Puffereinrichtungen (1005, 1006) sowie Interfaceeinrichtungen (1002, 1003, 1004) beinhalten, und wobei jedes Subsystem mit anderen Subsystemen durch wenigstens eine Übertragungseinrichtung (1, 1000, 2000) verbunden ist und eine Diagnoseeinrichtung zum Feststellen enthält, ob im System Abnormalitäten auftreten, sowie eine Funktion beinhaltet, um in Reaktion auf das Ergebnis der Diagnose geeignete Gegenmaßnahmen zu ergreifen, gekennzeichnet durch Einrichtungen
(a) zum Speichern, in einer Inhaltscodetabelle (1007) in jedem Subsystem, von Informationen entsprechend dem für Eingangsdaten erforderlichen Inhaltscode (B, C), der den Inhalt der Daten anzeigt, die von einem anderen Subsystem zu erhalten sind und die für die Ausführung der Verarbeitungsfunktion des eigenen Subsystems erforderlich sind,
(b) zum Speichern des Inhaltscodes (D), der den Inhalt der Daten anzeigt, die das Ergebnis des Ausführens der Verarbeitungsfunktion des eigenen Subsystems sind,
(c) zum Aussenden, in einem Subsystem, einer Nachricht mit einem Inhaltscode, der den Inhalt der Daten anzeigt, die das Subsystem bereitstellen kann, über die Interfaceeinrichtung an die Übertragungseinrichtung,
(d) zum Empfangen von Nachrichten auf der Übertragungseinrichtung durch die Interfaceeinrichtung eines jeden Subsystems,
(e) zum Prüfen der Inhaltscodes, die in den erhaltenen Nachrichten enthalten sind, mittels der Inhaltscodetabelle daraufhin, ob die Daten in der Nachricht erforderlich sind,
(f) zum Zwischenspeichern der Daten in der Puffereinrichtung, wenn die Prüfung ergibt, daß die Daten erforderlich sind,
(g) zum Feststellen in jedem Subsystem (Blöcke 61, 15D, 15E, 16B), ob alle Daten, die einen oder mehrere der vorgegebenen Inhaltscode aufweisen und die für die Ausführung der Verarbeitungsfunktion des eigenen Subsystems erforderlich sind, zur Verfügung stehen,
(h) zum Ausführen der Verarbeitungsfunktion in jedem der Subsysteme, wenn durch die Feststellung ermittelt wird, daß alle Daten mit dem erforderlichen Inhaltscode verfügbar sind,
(i) zum Auswählen des gespeicherten Inhaltscodes auf der Basis des Inhalts der sich aus der Ausführung ergebenden Daten, und
(j) zum Erzeugen einer Nachricht, die die sich aus der Ausführung ergebenden Daten und den ausgewählten Inhaltscode enthält,
(k) wobei jedes Subsystem dafür vorgesehen ist, in dem Fall, daß es dadurch einen Fehler in dem System entdeckt, daß es vorgeschriebene Daten nicht erhalten kann, ein Ausfallprozedurprogramm zu beginnen.
DE84100153T 1984-01-09 1984-01-09 Synchrones dezentralisiertes Verarbeitungssystem. Expired - Lifetime DE3486257T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP84100153A EP0148297B1 (de) 1984-01-09 1984-01-09 Synchrones dezentralisiertes Verarbeitungssystem

Publications (2)

Publication Number Publication Date
DE3486257D1 DE3486257D1 (de) 1994-01-27
DE3486257T2 true DE3486257T2 (de) 1994-04-21

Family

ID=8191688

Family Applications (1)

Application Number Title Priority Date Filing Date
DE84100153T Expired - Lifetime DE3486257T2 (de) 1984-01-09 1984-01-09 Synchrones dezentralisiertes Verarbeitungssystem.

Country Status (3)

Country Link
US (1) US4627055A (de)
EP (1) EP0148297B1 (de)
DE (1) DE3486257T2 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0618377B2 (ja) * 1983-09-08 1994-03-09 株式会社日立製作所 伝送系
US4777330A (en) * 1985-02-15 1988-10-11 Hitachi, Ltd. Network system diagnosis system
JP2709705B2 (ja) * 1985-06-12 1998-02-04 株式会社日立製作所 マルチコンピユータシステムにおけるプログラム管理方法
JPH07120299B2 (ja) * 1986-01-10 1995-12-20 株式会社日立製作所 マルチプロセッサシステムの試験方法
DE3688073T2 (de) * 1986-04-03 1993-06-24 Otis Elevator Co Zweirichtungsringverbindungssystem fuer aufzugsgruppensteuerung.
KR900005883B1 (ko) * 1986-04-04 1990-08-13 가부시끼가이샤 히다찌세이사꾸쇼 분산 처리 시스템과 그 방법
JPH0827738B2 (ja) * 1986-08-15 1996-03-21 株式会社日立製作所 オンラインテスト方法
US5146559A (en) * 1986-09-29 1992-09-08 Hitachi, Ltd. System for recognizing program constitution within a distributed processing system by collecting constitution messages generated by different processors
US4774709A (en) * 1986-10-02 1988-09-27 United Technologies Corporation Symmetrization for redundant channels
US4769761A (en) * 1986-10-09 1988-09-06 International Business Machines Corporation Apparatus and method for isolating and predicting errors in a local area network
FR2606184B1 (fr) * 1986-10-31 1991-11-29 Thomson Csf Dispositif de calcul reconfigurable
US4970644A (en) * 1987-01-02 1990-11-13 Schlumberger Technology Corporation Reconfigurable well logging system
DE3714960A1 (de) * 1987-04-30 1988-11-10 Licentia Gmbh Anordnung zur sicheren erfassung von prozesszustaenden innerhalb frei miteinander kuppelbarer einheiten und verfahren zur durchfuehrung
US4933838A (en) * 1987-06-03 1990-06-12 The Boeing Company Segmentable parallel bus for multiprocessor computer systems
US5185877A (en) * 1987-09-04 1993-02-09 Digital Equipment Corporation Protocol for transfer of DMA data
EP0306211A3 (de) * 1987-09-04 1990-09-26 Digital Equipment Corporation Synchronisiertes Doppelrechnersystem
IN170793B (de) * 1987-12-18 1992-05-23 Hitachi Ltd
JPH01161566A (ja) * 1987-12-18 1989-06-26 Hitachi Ltd 分散処理システムにおけるデータ処理方式
JP2723925B2 (ja) * 1988-09-19 1998-03-09 株式会社日立製作所 計算機間プログラムオンライン再配置方式
JPH0630094B2 (ja) * 1989-03-13 1994-04-20 インターナショナル・ビジネス・マシーンズ・コーポレイション マルチプロセツサ・システム
US5293374A (en) * 1989-03-29 1994-03-08 Hewlett-Packard Company Measurement system control using real-time clocks and data buffers
US5113398A (en) * 1989-06-01 1992-05-12 Shackleton System Drives Corporation Self-healing data network and network node controller
US5068780A (en) * 1989-08-01 1991-11-26 Digital Equipment Corporation Method and apparatus for controlling initiation of bootstrap loading of an operating system in a computer system having first and second discrete computing zones
US5153881A (en) * 1989-08-01 1992-10-06 Digital Equipment Corporation Method of handling errors in software
US5163138A (en) * 1989-08-01 1992-11-10 Digital Equipment Corporation Protocol for read write transfers via switching logic by transmitting and retransmitting an address
US5251227A (en) * 1989-08-01 1993-10-05 Digital Equipment Corporation Targeted resets in a data processor including a trace memory to store transactions
US5319775A (en) * 1991-07-22 1994-06-07 Ncr Corporation Centralized diagnostic system for loosely coupled processors
US5774377A (en) * 1991-07-30 1998-06-30 Hewlett-Packard Company Method and apparatus for monitoring a subsystem within a distributed system for providing an archive of events within a certain time of a trap condition
US6101321A (en) * 1992-04-10 2000-08-08 Eastman Kodak Company Method and apparatus for broadcasting data in a ring connected multiprocessor
US5333130A (en) * 1993-05-18 1994-07-26 Alcatel Canada Wire, Inc. Self-healing drop and insert communication network
CA2142510A1 (en) * 1994-02-24 1995-08-25 Robert W. Horst Massively parallel multiprocessor system with fault-tolerant interprocessor network
SE502852C2 (sv) * 1994-04-08 1996-01-29 Ellemtel Utvecklings Ab Sätt och system för distribuerad övervakning av hårdvara
JPH07297854A (ja) * 1994-04-28 1995-11-10 Fujitsu Ltd 交換網における相手固定接続管理方式、ノードの管理方式、及びノード
JP3172387B2 (ja) * 1994-06-01 2001-06-04 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 入出力通信サブシステム及び方法
FR2727580A1 (fr) * 1994-11-24 1996-05-31 Sud Est Electro Mecanique Seem Faisceau electrique d'alimentation et de commande d'appareils electriques a conducteur unique
US5805785A (en) * 1996-02-27 1998-09-08 International Business Machines Corporation Method for monitoring and recovery of subsystems in a distributed/clustered system
US5845063A (en) * 1996-09-11 1998-12-01 Elsag International N.V. Signal status propagation in a distributed control system
US5922077A (en) * 1996-11-14 1999-07-13 Data General Corporation Fail-over switching system
US6574197B1 (en) 1998-07-03 2003-06-03 Mitsubishi Denki Kabushiki Kaisha Network monitoring device
US6449732B1 (en) 1998-12-18 2002-09-10 Triconex Corporation Method and apparatus for processing control using a multiple redundant processor control system
US7334160B2 (en) * 2002-01-11 2008-02-19 Ge Medical Systems Global Technology Company, Llc Method and apparatus for managing a distributed x-ray system
US7225037B2 (en) * 2003-09-03 2007-05-29 Unitronics (1989) (R″G) Ltd. System and method for implementing logic control in programmable controllers in distributed control systems
US7231543B2 (en) * 2004-01-14 2007-06-12 Hewlett-Packard Development Company, L.P. Systems and methods for fault-tolerant processing with processor regrouping based on connectivity conditions
US8037468B2 (en) * 2006-08-02 2011-10-11 Sandisk Il Ltd. Methods for synchronous code retrieval from an asynchronous source
US8230198B2 (en) * 2006-08-02 2012-07-24 Sandisk Il Ltd. System for synchronous code retrieval from an asynchronous source

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US28958A (en) * 1860-07-03 Socket for fence-posts
US4231015A (en) * 1978-09-28 1980-10-28 General Atomic Company Multiple-processor digital communication system
JPS5847111B2 (ja) * 1979-09-10 1983-10-20 株式会社日立製作所 ル−プ伝送システム
DE2939487A1 (de) * 1979-09-28 1981-04-16 Siemens AG, 1000 Berlin und 8000 München Rechnerarchitektur auf der basis einer multi-mikrocomputerstruktur als fehlertolerantes system
US4402082A (en) * 1980-10-31 1983-08-30 Foster Wheeler Energy Corporation Automatic line termination in distributed industrial process control system
US4356546A (en) * 1980-02-05 1982-10-26 The Bendix Corporation Fault-tolerant multi-computer system
JPS5943862B2 (ja) * 1980-09-12 1984-10-25 株式会社日立製作所 ル−プ伝送システムの情報伝送方法
US4374436A (en) * 1980-10-17 1983-02-15 Paradyne Corporation System for the monitoring and restoration of series terminals in a looped communication system
GB2094110A (en) * 1981-01-30 1982-09-08 Eltra Corp A method and apparatus for locating a discontinuity in a data transmission
JPS57164636A (en) * 1981-04-03 1982-10-09 Hitachi Ltd Control method for transmission system

Also Published As

Publication number Publication date
EP0148297A1 (de) 1985-07-17
US4627055A (en) 1986-12-02
EP0148297B1 (de) 1993-12-15
DE3486257D1 (de) 1994-01-27

Similar Documents

Publication Publication Date Title
DE3486257T2 (de) Synchrones dezentralisiertes Verarbeitungssystem.
DE3382592T2 (de) Zweifachbusstruktur fuer die rechnerverbindung.
DE2726753C2 (de) Ferngesteuerter Prüf-Interface-Adapter
DE3486022T2 (de) System zur verteilten verarbeitung mit fehlerdiagnose.
DE69923621T2 (de) Verfahren und Vorrichtung zu korrekten und vollständigen Übertragungen in einem fehlertoleranten verteilten Datenbanksystem
DE2908316C2 (de) Modular aufgebaute Multiprozessor-Datenverarbeitungsanlage
DE3629178C2 (de)
DE3136128C2 (de)
DE3127321C2 (de)
DE69506155T2 (de) Asynchrones Datenfernkopieren
DE69427875T2 (de) Verfahren und vorrichtung zur inbetriebnahme eines datenbuswählers zur auswahl der steuersignale einer redundanten asynchronen digitalen prozessoreinheit aus einer vielzahl davon
DE69315343T2 (de) Verfahren fur eingangssignalauflosung von aktiven redundanten prozesssteuerrechnern
DE69127883T2 (de) System zur Datenintegritätsgewährleistung
DE2735397C2 (de) Überwachungseinrichtung für eine programmgesteuerte Maschine
DE69613056T2 (de) Schnittstelleneinrichtung zwischen einem Rechner redundanter Architektur und einem Kommunikationsmittel
DE3301628A1 (de) Schaltungsanordnung fuer den datenaustausch zwischen zwei rechnern
DE3201768C2 (de)
DE19539519A1 (de) Antriebssteuerbefehlseinheit, Synchronsteuersystem für eine Vielzahl von Antriebssteuerbefehlseinheiten, und Synchronsteuerverfahren für die Einheiten
EP0579934A1 (de) Mehrprozessor-Computersystem
DE60002908T2 (de) Vorrichtung und verfahren zur verbesserten fehlerortung und diagnose in rechnern
DE2442847C2 (de) Test- und Diagnoseanordnung für eine Datenverarbeitungseinheit
DE2626838A1 (de) Dupliziertes system zum pruefen und steuern einer duplizierten fernmeldeinstallation
DE3400464A1 (de) Datenuebertragungssystem
DE69625953T2 (de) Methode und Vorrichtung zum Erreichen hoher Unversehrtheit und Verfügbarkeit in einem mehrkanaligen System
DE69634403T2 (de) Kommunikationssteuerungsverfahren in einem Duplex-Ringübertragungssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition