DE19520745A1 - Infrastruktur für ein System von verteilten Objektmanager-Komponenten - Google Patents

Infrastruktur für ein System von verteilten Objektmanager-Komponenten

Info

Publication number
DE19520745A1
DE19520745A1 DE19520745A DE19520745A DE19520745A1 DE 19520745 A1 DE19520745 A1 DE 19520745A1 DE 19520745 A DE19520745 A DE 19520745A DE 19520745 A DE19520745 A DE 19520745A DE 19520745 A1 DE19520745 A1 DE 19520745A1
Authority
DE
Germany
Prior art keywords
object manager
infrastructure
server
communication
components
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19520745A
Other languages
English (en)
Other versions
DE19520745C2 (de
Inventor
Horst Walz
Peter Fritz
Martin Dipl Ing Glaser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19520745A priority Critical patent/DE19520745C2/de
Publication of DE19520745A1 publication Critical patent/DE19520745A1/de
Application granted granted Critical
Publication of DE19520745C2 publication Critical patent/DE19520745C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4185Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the network communication
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02BBOARDS, SUBSTATIONS OR SWITCHING ARRANGEMENTS FOR THE SUPPLY OR DISTRIBUTION OF ELECTRIC POWER
    • H02B15/00Supervisory desks or panels for centralised control or display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31091One client handled by several servers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31106Auto configuration, each module responsable for own configuration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31123Multi mode network controller, monitor, control, configuration, maintenance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31169Object manager contains client, control and communication and start and planning server
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31171Each data object has corresponding identification for object manager, associative
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31213Synchronization of servers in network
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31214Discontinuous communication controlled by server
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31252Watchdog, client sends regulary message to server, server must answer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31253Redundant object manager
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31254Request from client waits until corresponding server functions again
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31255Verify communication parameters, if wrong, refuse communication
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31393Object oriented engineering data management
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33151Distributed client server
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33217Continuity communication controlled by client
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Power Engineering (AREA)
  • Multi Processors (AREA)

Description

Die Erfindung bezieht sich auf eine Infrastruktur für ein Sy­ stem von verteilten Objektmanager-Komponenten, insbesondere für ein Leitsystem einer Kraftwerksanlage, mit einer Anzahl von rechnergestützten Objektmanager-Komponenten.
In einer Kraftwerksanlage sollen Überwachungseinrichtungen die aktuellen Betriebszustände der Anlage erkennbar machen und Abweichungen von einem Sollzustand melden. Dazu ist eine umfangreiche Meßwerterfassung der Betriebszustände aller An­ lagenteile, eine umfangreiche und der Komplexität der Anlage gerechtwerdende Meßwertbewertung und eine unter hoher Infor­ mationsverdichtung visualisiert aufbereitete Statusanzeige für die Betriebszustände der Anlagenteile erforderlich.
Diese vorstehend genannten Aufgaben soll ein Leitsystem er­ füllen. Bedingt durch die hohe Komplexität solcher techni­ schen Anlagen muß ein solches Leitsystem einfach und geradli­ nig strukturiert sein. Dies bedeutet zum einen, daß Anlagen­ teile mittels des Leitsystems überwachbar und einstellbar sind und zum anderen, daß neue und/oder überarbeitete und ge­ änderte Kontroll-, Einstell- und/oder Auswerteoptionen in einfacher Weise in das bestehende Leitsystem und seine Archi­ tektur integrierbar sind.
In der deutschen Patentanmeldung P 44 16 547.1 ist ein Leit­ system, insbesondere ein rechnergestütztes Leitsystem, vorge­ schlagen, bei dem eine hohe Konfigurierbarkeit einer die Meß­ werte be- und auswertenden Ebene innerhalb des Leitsystems gegeben ist. Dies wird im einzelnen dadurch erreicht, daß die Leitebene modular aufgebaut ist und mehrere Funktionsbaustei­ ne umfaßt, die entsprechend ihrer jeweiligen Funktion Ein­ gangswerte verarbeiten und unter Berücksichtigung einer An­ zahl von zu lösenden technischen Anwendungen untereinander verknüpfbar sind. Aufgrund dieses modularen Aufbaus der Leit­ ebene und ihrer Systeme sind eine nahezu beliebige Struktu­ rierbarkeit und graphische Konfigurierbarkeit des Leitsystems in dieser Ebene gegeben. Es können jederzeit Funktionsbau­ steine modifiziert, ergänzt, weggenommen oder neu verknüpft werden, um eine zu lösende technische Anwendung, wie z. B. die Prozeßführung bestimmter Anlagenteile, die Prozeßinformation, die Kenngrößenberechnung oder die Bilanzierung, durchführen zu können. Die dabei verarbeiteten Eingangswerte können die unmittelbar von der Automatisierungsebene erhaltenen Meßwer­ te, bereits mit einer Zugehörigkeitsfunktion bewertete Meß­ werte, Zwischenresultate anderer Funktionsbausteine und über die Betriebsführungsebene vorgebbare projektierbare Parameter sein.
Bei einem solchen meist rechnergestützten Leitsystem ist es wünschenswert, wenn die Leitebene und die mit der Leitebene verbundenen Ebenen innerhalb einer gemeinsamen Systemumge­ bung, einer sogenannten Infrastruktur, geführt sind. Hierzu ist es bekannt, ein Betriebssystem, vorzugsweise ein handels­ übliches Betriebssystem, wie z. B. UNIX oder OS 2, zu verwen­ den, das die Betriebsführungsebene, die Leitebene und die Au­ tomatisierungsebene sowie einen Datentransfer zwischen diesen Ebenen unterhält. Bei solchen Betriebssystemen ist es darüber hinaus wünschenswert, wenn die freie Verknüpfbarkeit der in der Leitebene angeordneten Funktionsbausteine unterstützt wird, und wenn eine weitgehende Unabhängigkeit des Leitsy­ stems von der Innovationsgeschwindigkeit der Rechner-Hardware erreicht wird.
Derzeit handelsübliche Betriebssysteme, wie z. B. UNIX oder OS 2, sind jedoch überfordert, wenn es im Rahmen einer Infra­ struktur für ein System von verteilten Objektmanager-Kompo­ nenten darum geht, beispielsweise ein aus einer Anzahl von rechnergestützten Objektmanager-Komponenten bestehendes ver­ teiltes System hochzufahren. Eine nicht zufriedenstellende derzeitige Lösung sieht hierzu einen übergeordneten Rechner vor, der zu Beginn des Anlaufs die Informationen über die ge­ samte Konfiguration aller existierenden Objektmanager-Kompo­ nenten kennt. Bedingt durch die Komplexität einer Kraft­ werksanlage kommt es zu Störungen, wenn beispielsweise der übergeordnete Rechner gestört ist, oder wenn die Datenverbin­ dungen zu diesem übergeordneten Rechner gestört sind, oder wenn sich an der Gesamtkonfiguration noch kurzfristig vor dem Anlaufen etwas geändert hat und diese Änderungen noch nicht zu Beginn des Anlaufs berücksichtigt worden sind.
Bedingt durch das hohe Datenaufkommen muß in einem solchen System weiterhin die Adressierung der Daten, auch Objekte ge­ nannt, in besonders betriebssicherer Weise erfolgen. So ist es auch bisher üblich jedem Objekt eine eindeutige physikali­ sche Adresse zuzuordnen, an die dieses Objekt gesendet oder von der dieses Objekt versendet wird. Dies macht das Vorhan­ densein einer jederzeit aktuellen Adreßliste erforderlich. Insbesondere bei Umstrukturierungen, neuer Projektierung oder ähnlichen Aktionen, die die Adressierung von Objekten mögli­ cherweise weitreichend betreffen, ist das Führen einer sol­ chen Adreßliste sehr aufwendig und mit Fehlerquellen behaf­ tet.
Der Erfindung liegt daher die Aufgabe zugrunde, eine Infra­ struktur für ein System von verteilten Objektmanager-Kompo­ nenten anzugeben, die die vorstehend genannte Adressierung von Objekten in einfacher und betriebssicherer Weise gewähr­ leistet.
Diese Aufgabe wird erfindungsgemäß dadurch gelöst, daß eine Infrastruktur für ein System von verteilten Objektmanager- Komponenten mit einer Anzahl von rechnergestützten Objektma­ nager-Komponenten, die jeweils mindestens einen Objektmanager ausführen, vorgesehen ist, bei der die Kommunikation in einer Weise erfolgt, daß jedes Objekt ein internes Kennzeichen und einen Ausprägungstyp umfaßt, anhand deren der Objektmanager ermittelbar ist, der dieses Objekt verwaltet.
Hierbei wird unter einer Objektmanager-Komponente beispiels­ weise eine Workstation, ein Personal-Computer, ein Automati­ sierungssystem, wie z. B. die Siemens Simatic S5 und S7, oder eine vergleichbare rechnergestützte Einrichtung verstanden. Unter einem Objektmanager werden insbesondere bei einer Kraftwerksanlage die folgenden Komponenten verstanden. Es sind dies das Man-Machine-Interface, das Archiv, die Proto­ kolliste, die Verarbeitungseinrichtung für die Bausteintech­ nik, eine Datenbank für Beschreibungs-, Symptom- und Diagno­ setexte und ein sogenannter AS-Repräsentant der das Automati­ sierungssystem, also die Schnittstelle zwischen Kraftwerks­ prozeß und Datenverarbeitung stützt.
Unter Objekten werden Daten jeglicher Art, wie z. B. binäre Signale, hexadezimale Signale, wie z. B. Real-Werte, Integer- Werte, Boolean-Werte oder String-Ketten, verstanden. Mit dem Ausprägungstyp eines Objektes ist beispielsweise zunächst gemeint, ob dieses Objekt der verfahrenstechnischen Welt, der leittechnischen Welt oder der anlagentechnischen Welt zuzuordnen ist. Weiter beinhaltet der Ausprägungstyp eine Klassifizierung des Objektes nach seiner Aufgabenumgebung. Beispielsweise kann ein Objekt Alarm- oder Toleranzmeldungen, Hardware-Gerätefehlern, Busfehlern oder Funktionsfehlern zugeordnet sein. Das interne Kennzeichen ist nicht gleichbe­ deutend mit dem Begriff "Adresse", weil das interne Kennzei­ chen keinerlei Ortsinformation über die Lage des Objektes besitzt.
Auf diese Weise ist es möglich das Problem der Adressierung von Objekten von einer zentralen Adreßdatei weg auf die ein­ zelnen Objektmanager zu verlagern. Die Serverschnittstellen der Objektmanager "horchen" in die Infrastruktur hinein und greifen die für sie bestimmten Daten, die sie anhand des in­ ternen Kennzeichens und des Ausprägungstyps erkennen, heraus und bearbeiten diese. Damit sind die Objektmanager für die Adressierung der ihnen zugeteilten Objekte selbst verantwort­ lich, was sich insbesondere auf die Projektierung und Um­ strukturierung vorteilhaft auswirkt.
In besonders vorteilhafter Weise ist die Infrastruktur dahin­ gehend ausgestaltet, daß eine von einem Server gesteuerte diskontinuierliche Kommunikation vorgesehen ist. Alternativ dazu kann eine von einem Client gesteuerte kontinuierliche Kommunikation vorgesehen sein.
Aufgrund der vorstehend genannten Eigenschaften eines Objekts bezüglich des internen Kennzeichens und des Ausprägungstyps kann die Adressierung von Objekten assoziativ erfolgen, d. h. es können ganze Objektklassen oder Gruppen anhand ihrer Ei­ genschaften ausgewählt und beispielsweise bevorzugt bei der Datenverarbeitung behandelt werden.
Für die Erledigung von Kommunikationsaufträgen kann die In­ frastruktur in besonders zweckmäßiger Weise dahingehend aus­ gestaltet sein, daß bei vorliegendem Kommunikationsauftrag eines Clienten alle daran beteiligten Server zur Datenausgabe aufgefordert sind. Vorzugsweise kann hierbei eine Synchroni­ sationsaufforderung an alle beteiligten Server ergehen. Für die Entlastung des Bussystems, über welches der Transfer von Objekten abgewickelt wird, ist es dann besonders vorteilhaft, daß die Meldung des Vollzugs der Synchronisation an den Client erst dann ergeht, wenn die Bereitschaft zur Datenaus­ gabe aller verfügbaren Server vorliegt.
Weiter wird das Kommunikationsaufkommen bedeutend verringert, wenn eine Wiederanmeldung eines noch anstehenden Auftrages bei einem wiederverfügbar gewordenen Server vorgesehen ist. Es bedarf also hier keiner zusätzlichen Aufforderung durch den Client an einen solchen Server. Die Infrastruktur spei­ chert einen solchen noch anstehenden Auftrag zwischen und meldet diesen selbsttätig wieder an.
Das Kommunikationsaufkommen wird ferner dadurch in zweckmäßi­ ger Weise begrenzt, daß ein Kommunikationsauftrag bezüglich seiner Parameterversorgung überprüfbar ist und der Auftrag bei fehlerhafter Parameterversorgung unter Angabe eines Feh­ lercodes ablehnbar ist. Auf diese Weise werden Server, die vergeblich versuchen einen fehlerhaften Kommunikationsauftrag zu erledigen, überhaupt nicht blockiert, da ein solcher Auf­ trag erst gar nicht an den Server ergeht.
Das Kommunikationsaufkommen wird weiterhin besonders transpa­ rent, wenn die Infrastruktur in einer Weise ausgestaltet ist, daß das dynamische Verhalten der Erledigung eines Kommunika­ tionsauftrages nachvollziehbar und verifizierbar ist. Dies wirkt sich zudem vorteilhaft auf die Sicherheit des Daten­ transfers aus.
Ausführungsbeispiele der Erfindung werden anhand einer Zeich­ nung näher erläutert. Dabei zeigen:
Fig. 1 in schematischer Darstellung eine Infrastruktur für ein verteiltes System von Objektmanager-Komponen­ ten;
Fig. 2 in schematischer Darstellung einen in die Infra­ struktur eingebetteten Objektmanager;
Fig. 3 in schematischer Darstellung den Überwachungsmecha­ nismus der gemäß Fig. 1 dargestellten Infrastruk­ tur;
Fig. 4 in schematischer Darstellung den Überwachungsmecha­ nismus gemäß Fig. 3 bei dem Ausfall einer Objekt­ manager-Komponente; und
Fig. 5 in schematischer Darstellung den Überwachungsmecha­ nismus in der Infrastruktur gemäß den Fig. 3 und 4 in zwei Überwachungsebenen.
In den Fig. 1 bis 5 haben gleiche Teile die gleichen Be­ zugszeichen.
In der in Fig. 1 gezeigten schematischen Darstellung erkennt man die Infrastruktur 2 für ein verteiltes System 18 von Ob­ jektmanager-Komponenten 4 bis 16 als schraffiert unterlegte Fläche. Das System 18 ist als Leitsystem für eine Kraftwerks­ anlage vorgesehen. Die Objektmanager-Komponenten 4 bis 16 können Datenverarbeitungsanlagen beliebiger Art, wie z. B. Großrechner, Workstations, Personal-Computer und Host-Rechner jeglicher Art, sein. Auf den einzelnen Objektmanager-Kompo­ nenten 4 bis 16, von denen die Komponenten 10a und 10b sowie 12a und 12b redundant ausgeführt sind, werden Objektmanager ausgeführt.
Unter Objekten werden Daten jeglicher Art, wie z. B. binäre Signale, hexadezimale Signale, wie z. B. Real-Werte, Integer- Werte, Boolean-Werte oder String-Ketten, verstanden. Objekt­ manager sind also solche hardwaremäßig oder auch softwaremä­ ßig realisierte Einheiten, die Objekte beliebiger Art verwal­ ten. Objektmanager sind beispielsweise das Man-Machine-Inter­ face (MMI) 20, das Archiv 22 zur Aufzeichnung der Geschichte des Kraftwerks (redundant ausgeführt als 22a und 22b), der Protokollverwalter 24 (ebenfalls redundant ausgeführt als 24a und 24b), der Verwalter 26 für die Datenverarbeitung der in Bausteintechnik vorgesehenen und hier nicht weiter darge­ stellten Leitebene, die Datenbank 28 für Beschreibungsdaten und der Repräsentant 30 des Automatisierungssystems. Wie beispielsweise anhand des Repräsentanten 30 des Automatisie­ rungssystems gezeigt, kann ein Objektmanager auch auf mehre­ ren Objektmanager-Komponenten, hier die Komponenten 4 bis 8 und 16, gleichzeitig ausgeführt werden.
Beim Anlauf des Systems 18 werden von einer dezentral ange­ ordneten Initialisierungsdatei 32 die Anlaufdaten in die In­ frastruktur 2 eingegeben. Jeder der Objektmanager-Komponenten 4 bis 16 hat einen Teil seiner zur Verfügung stehenden Re­ chenleistung reserviert, um die Infrastruktur 2 in hardware­ mäßig verschalteter Form oder auch in softwaremäßig instal­ lierter Form zu betreiben. Die Anlaufdaten der Initialisie­ rungsdatei 32 enthalten einen dezentralen Algorithmus, nach dem in einer ersten Phase des Anlaufs die Objektmanager-Kom­ ponenten 4 bis 16 untereinander Kontakt aufnehmen und der In­ frastruktur 2 und damit allen an der Infrastruktur 2 betei­ ligten Komponenten 4 bis 16 ihre lokal installierten Objekt­ manager 20 bis 30 bekannt. Nach dieser Kontaktaufnahme sind auf jeder Objektmanager-Komponente 4 bis 16 alle anlaufenden Objektmanager-Komponenten und alle dort existierenden Objekt­ manager bekannt.
In einer zweiten Phase werden mittels der Infrastruktur 2 auf den Objektmanager-Komponenten 4 bis 16 die lokal instal­ lierten Objektmanager 20 bis 30 gestartet. Die Infrastruktur 2 wartet ferner darauf, daß die Objektmanager 20 bis 30 ihre Verfügbarkeit als Server bekannt geben, und aktualisiert - auch wenn der Überwachungsmechanismus einen Abbruch eines Ob­ jektmanagers erkannt hat - den neuen Zustand zusammen mit ei­ ner detaillierten Adressinformation auf allen Objektmanager- Komponenten 4 bis 16. In einer dritten Phase werden die Ob­ jektmanager 20 und 26 auf den redundant vorliegenden Objekt­ manager-Komponenten 10a, 10b bzw. 12a, 12b gestartet. Dabei datet sich der jeweils führende Redundanzpartner am allen Objektmanager-Komponenten 4 bis 16 gemeinsamen Anlaufprozeß auf und der oder die nicht führenden Objektmanagerdaten sich beim jeweils führenden Objektmanager auf.
Die Infrastruktur 2 unterstützt auch eine weitere Anlaufsi­ tuation, bei der sich eine abgebrochene Objektmanager-Kompo­ nente, beispielsweise die Komponente 6, in ein etabliertes Teilsystem, bestehend aus den Komponenten 4, 8 bis 16, wieder eingliedert. Die sich eingliedernde Objektmanager-Komponente 6 stellt sich zunächst bei einer schon im Teilsystem etablierten Objektmanager-Komponente, beispielsweise der Kom­ ponente 8, vor, indem die Objektmanager-Komponente 6 ihre lo­ kal installierten Objektmanager, hier der Repräsentant 30 des Automatisierungssystems, mitteilt. Die lokale Infrastruktur der Objektmanager-Komponente 8, dargestellt durch die schraf­ fierte Fläche innerhalb des Symbols für die Objektmanager- Komponente 8, macht die sich eingliedernde Objektmanager-Kom­ ponente 6 im etablierten Teilsystem bekannt. Die sich ein­ gliedernde Objektmanager-Komponente 6 erhält von der Kompo­ nente 8, bei der sie sich vorgestellt hat, die Informationen über die Zustände und Adressen der Objektmanager-Komponente 4, 8 bis 16 des etablierten Teilsystems und der darauf in­ stallierten Objektmanager. Auf diese Weise wird die Objektma­ nager-Komponente 6 in das etablierte Teilsystem eingegliedert ohne daß eine übergeordnete Instanz, beispielsweise ein Leit­ rechner, vorgesehen ist, der die Konfiguration, Zustände und Adressen der übrigen Objektmanager-Komponenten kennt. Diese Informationen sind vielmehr auf jeder Objektmanager-Kompo­ nente 4 bis 16 im lokalen Teil der Infrastruktur 2 enthalten, so daß auch jede Änderung des Status einer Objektmanager-Kom­ ponente oder eines Objektmanagers allen Objektmanager-Kompo­ nenten unmittelbar zugänglich ist. Dies wirkt sich besonders vorteilhaft auf die Serverfunktionen der Objektmanager und auf die Kenntnis deren Verfügbarkeit im gesamten System 18 aus. In beiden Anlaufsituationen startet die Infrastruktur 2 die lokal installierten Objektmanager, in dem sie deren Ini­ tialisierungsprozesse erzeugt. Objektmanager, die dem System 18 keine Serverleistung zur Verfügung stellen, sind mit die­ sem Schritt sofort verfügbar.
Der Abbruch eines Objektmanagers 20 bis 30 während des An­ laufs wirkt sich abhängig vom Vorhandensein einer Redundanz auf den Zustand der entsprechenden Objektmanager-Komponente 4 bis 16 aus: Bei vorhandener Redundanz werden die schon akti­ ven Objektmanager beendet und die Objektmanager-Komponente wird als "abgebrochen" für alle übrigen Objektmanager-Kompo­ nenten zugänglich markiert. Ohne vorhandene Redundanz wird der Anlauf der Objektmanager-Komponente fortgesetzt. Nur der vom Abbruch betroffene Objektmanager wird als "abgebrochen" markiert.
In Fig. 2 ist in schematischer Darstellung gezeigt, in wel­ cher Weise ein Objektmanager, hier beispielsweise der Objekt­ manager 30, aufgebaut und in die Infrastruktur 2 eingebunden ist. Im vorliegenden Fall weist der Objektmanager 30 zwei Client-Schnittstellen 32, 34, einen Init-Server 36, einen Server-Hauptteil 38, einen Server-Übertragungsteil 40 und ei­ nen Server 42 für Projektierungsdienste auf.
Über die Client-Schnittstellen 32, 34, die auch als Schnitt­ stelle Client-Infrastruktur 2 bezeichnet werden kann, werden Aufträge über die Infrastruktur 2 an Server ausgegeben, und es können Antworten vom Server über die Infrastruktur 2 in der Schnittstelle empfangen werden. Hierbei kann die Schnitt­ stelle als Mehrfachwartestelle ausgeführt sein, so daß es möglich ist, auf die Ergebnisse verschiedener Aufträge unab­ hängig voneinander warten zu können, was sich besonders vor­ teilhaft auf die Synchronisation von Datenaustauschvorgängen auswirkt.
Der Init-Server 36 wird beim Anlauf des Objektmanagers 30 aufgerufen. Dieser Init-Server 36 startet und überwacht alle weiteren Prozesse, die auf dem Objektmanager 30 ausgeführt werden. Der Init-Server 36 teilt allen übrigen Prozessen dar­ über hinaus wichtige Konfigurations- und Adressinformationen mit. Falls der Objektmanager 30 beendet werden soll, wird dies dem Init-Server 36 von der Infrastruktur 2 über ein ent­ sprechendes Signal, beispielsweise ein UNIX-Signal, mitge­ teilt. Das Beenden des Objektmanagers 30 wird der Infrastruk­ tur 2 durch das Beenden des Init-Servers 36 mitgeteilt.
Der Server-Hauptteil 38 stellt dem Server für alle "Nutzfunktionen" des Objektmanagers 30 dar. Im Server-Haupt­ teil 38 ruft das Hauptprogramm nach der eigenen Initialisie­ rung durch den Init-Server 36 eine Überwachungsfunktion auf.
Diese Überwachungsfunktion wartet über die gesamte Lebens­ dauer des Server-Hauptteils 38 auf Client-Aufträge und ruft entsprechend dieser Aufträge Server-Funktionen auf, d. h. der Server-Hauptteil 38 wartet in einer Wartestelle in der Infra­ struktur 2 auf entsprechende Client-Aufträge. Diese Funktion ist daher eine Art vorgeschobener Horchposten aus dem Objekt­ manager 30 heraus in die Infrastruktur 2. Erst wenn der Ser­ ver-Hauptteil 38 beendet wird, verläßt diese Funktion die In­ frastruktur 2 und kehrt in das Hauptprogramm zurück.
Der Server-Übertragungsteil 40 stellt einen in den Prozeß des Objektmanagers 30 eingebundenen Funktionssatz dar, über den Server antworten (z. B. für kontinuierliche Aufträge) abge­ geben werden. Der Server-Übertragungsteil 40 überträgt, falls sich ein Client über den Server-Hauptteil 38 angemeldet hat, die gewünschten Ereignisse oder sonstige Ereignisse von kon­ tinuierlichen Aufträgen.
Der Server 42 für Projektierungsdienste wartet nach seiner Aktivierung auf Projektierungsaufträge und legt die Projek­ tierungsinformation in eine Objektmanager spezifische Daten­ basis ab oder gibt sie an die innerhalb des Objektmanagers 30 betroffenen Prozesse weiter.
Die Infrastruktur 2 überwacht und steuert die gesamte Kommu­ nikation in einer Weise, daß jedes Objekt ein internes Kenn­ zeichen und einen Ausprägungstyp umfaßt, anhand deren der Ob­ jektmanager, beispielsweise Objektmanager 30, ermittelbar ist, der dieses Objekt verwaltet. Hierbei wird unter einem Objekt jede Information verstanden, die in einer Datenverar­ beitungsanlage zur Kommunikation von Prozessen ausgetauscht oder übertragen wird. Mit dem Ausprägungstyp eines Objektes ist beispielsweise zunächst gemeint, ob dieses Objekt der verfahrenstechnischen Welt, der leittechnischen Welt oder der anlagentechnischen Welt zuzuordnen ist. Weiter beinhaltet der Ausprägungstyp eine Klassifizierung des Objekts nach seiner Aufgabenumgebung, beispielsweise kann ein Objekt Alarm- oder Toleranzmeldungen, Hardware-Gerätefehlern, Busfehlern oder Funktionsfehlern zugeordnet sein. Das interne Kennzeichen ist nicht gleichbedeutend mit dem Begriff "Adresse", weil das in­ terne Kennzeichen keinerlei Ortsinformation über die Lage des Objektes besitzt. Darüber hinaus kann dem internen Kennzei­ chen nicht eindeutig eine Adresse zugeordnet werden, denn verschiedene Daten eines Objekts können von verschiedenen Ob­ jektmanagern 20 bis 30 verwaltet werden, die unter Umständen auf verschiedenen Objektmanager-Komponenten 4 bis 16 angesie­ delt sind. Auf diese Weise ist mit besonders vorteilhafter Wirkung eine Adressierung von Objekten anhand ihrer Eigen­ schaften, d. h. eine assoziative Adressierung, möglich. Hier­ durch vereinfacht sich die Projektierung, weil ganze Objekt- Klassen ausgewählt werden können, ohne daß deren Lage im ein­ zelnen einem Objektmanager oder einer Objektmanager-Kompo­ nente bekannt sein müssen. So kann beispielsweise von dem Ob­ jektmanager 4, dem Man-Machine-Interface, das Kommando abge­ setzt werden "Suche Leittechnikfehler". Auf diese Weise sind in dem gesamten System 18 nur solche Objekte angesprochen, die gemäß ihres internen Kennzeichens und des Ausprägungstyps in die Signalklasse "Leittechnikfehler" hineinfallen.
Die Kommunikation im System 18 kann zum einen eine von einem Server-gesteuerte diskontinuierliche Kommunikation und zum anderen eine von einem Client-gesteuerte, kontinuierliche Kommunikation sein. Bei der Server-gesteuerten Kommunikation muß der Client den Umfang der Ergebnisse nicht kennen, Teil­ ergebnisse können übertragen werden, wenn sie anfallen. Durch die Client-gesteuerte Kommunikation wird das gesamte Kommuni­ kationsaufkommen im System 18 verringert, weil keine Auf­ tragswiederholungen notwendig sind. Die Infrastruktur 2 ist hierbei derart konzipiert, daß bei dem Vorliegen eines Kommu­ nikationsauftrages eines Clienten alle an diesem Auftrag be­ teiligten Server unmittelbar und nur einmalig zur Datenaus­ gabe aufgefordert sind. Gleichzeitig kann mit einer solchen Aufforderung eine Synchronisationsaufforderung an alle betei­ ligten Server ergehen. Weiter kann in besonders zweckmäßiger Weise die Meldung des Vollzugs der Synchronisation an den Client erst dann ergehen, wenn die Bereitschaft zur Datenaus­ gabe aller verfügbaren Server vorliegt, so daß auch hier das Kommunikationsaufkommen besonders gering ist, weil keine Nachfragen des Clients nach bestimmten Ergebnissen an einzel­ ne Server ergehen.
Eine weitere vorteilhafte Ausgestaltung der Infrastruktur 2 sieht es vor, daß eine Wiederanmeldung eines noch anstehenden Auftrages eines Clienten bei einem wiederverfügbar gewordenen Server vorgesehen ist. Die Infrastruktur 2 stellt also Res­ sourcen bereit, die alle im System 18 eingegangenen Aufträge erfaßt und speichert, falls ein Server zur Auftragserledigung nicht verfügbar ist. Da die Infrastruktur gleichzeitig jede Zustandsänderung eines Servers bezüglich seiner Verfügbarkeit erfaßt, wird eine Auftragserledigung unmittelbar nach Wieder­ verfügbarkeit eines Servers "angemahnt".
Die Infrastruktur 2 ist weiter in der Lage einen Kommunikati­ onsauftrag bezüglich der Parameterversorgung zu prüfen und den Auftrag bei fehlerhafter Parameterversorgung unter Angabe eines Fehlercodes abzulehnen. Auf diese Weise können bei­ spielsweise Fehler vermieden werden, wenn bei der Suche nach einem Leittechnikfehler in der verfahrenstechnischen oder an­ lagentechnischen Welt gesucht wird. Ein solcher Fehler ist nur in der leittechnischen Welt zu finden, d. h. also bei den Datenquellen und Senken, die vom Ausprägungstyp her mit der Fehlerklasse übereinstimmen.
Hierbei kann das dynamische Verhalten der Erledigung eines Kommunikationsauftrages nachvollziehbar und verifizierbar sein. Eine solche Funktion kann beispielsweise über den Pro­ tokollverwalter 24 an die dem Man-Machine-Interface zugeord­ neten Drucker ausgegeben werden. Dies ist in der Projektie­ rungsphase besonders bedeutsam, wenn man nachvollziehen will, welche Daten woher geladen wurden, und in welcher Weise dar­ aus Ergebnisse berechnet wurden, und wohin die Ergebnisse ge­ sendet wurden.
In Fig. 3 ist der Überwachungsmechanismus der Objektmanager- Komponenten 4 bis 16 in dem System 18 dargestellt. Der Mecha­ nismus wird anhand der Objektmanager-Komponenten 4 bis 8 er­ läutert. Die Objektmanager-Komponente 6 arbeitet bei der Überwachung als Client für die Objektmanager-Komponente 8 und als Server für die Objektmanager-Komponente 4. Die Objektma­ nager-Komponenten 4 bis 16 sind zur Überwachung ihres Zustan­ des in einem logischen Ring angeordnet, so daß keine überge­ ordnete Überwachungskomponente erforderlich ist. Die Überwa­ chung erfolgt nach dem Client-Server Prinzip. Die als Client arbeitende Objektmanager-Komponente 6 sendet in definierten Zeitabständen ein Signal (Objekt) an die entsprechend als Server ausgebildete Objektmanager-Komponente 8. Diese Kompo­ nente 8 sendet daraufhin ein "Lebenszeichen" an die Kompo­ nente 6. In gleicher Weise erhält die Komponente 6 von der Komponente 4 in definierten Zeitabständen eine Aufforderung, ein "Lebenszeichen" zu senden. Zur Serversuche läuft auf al­ len Objektmanager-Komponenten 4 bis 16 der gleiche Algorith­ mus ab, beispielsweise können die Objektmanager-Komponenten 4 bis 16 ihren Überwacher und den zu Überwachenden anhand der alphabetischen Reihenfolge ihrer Benennung ermitteln.
In Fig. 4 ist eine gegenüber Fig. 3 geringfügig modifi­ zierte Konfiguration des Systems 18 dargestellt. Hier sind die Objektmanager-Komponenten 6 und 10a ausgefallen. Der Ser­ ver der ausgefallenen Objektmanager-Komponente 6 kennt die Konfiguration dieser Komponente und teilt über die Infra­ struktur 2 den verbleibenden Objektmanager-Komponenten alle mit der Objektmanager-Komponente ausgefallenen Objektmanager mit. Dies ist im vorliegenden Fall der auf der Objektmanager- Komponente 6 durchgeführte Objektmanager 30. Gemäß der vorge­ gebenen Algorithmus hat die Objektmanager-Komponente 4 nun nicht die Objektmanager-Komponente 6 als Server, sondern die Objektmanager-Komponente 8, so daß die im verbleibenden Sy­ stem aktiven Objektmanager-Komponenten 4, 8 bis 16 wieder ei­ nen logischen Überwachungsring bilden. Will sich die Objekt­ manager-Komponente 6 wieder in das System eingliedern, meldet sie sich bei der Objektmanager-Komponente 8 an, gibt ihre lo­ kal installierten Objektmanager, hier der Objektmanager 30, bekannt und erfährt von der Objektmanager-Komponente 8 die Konfiguration und Zustände aller übrigen Objektmanager-Kompo­ nenten. Dies ist durch die gestrichelten Pfeile 44 symboli­ siert.
Ein weiterer Spezialfall ist für die Objektmanager-Komponen­ ten 10a und 10b dargestellt. Diese Komponente ist redundant ausgeführt. Im gezeigten Fall ist die Komponente 10a ausge­ fallen. Der Server dieser Komponente 10a kennt die Konfigura­ tion dieser Komponente und die auf dieser Komponente lokal installierten Objektmanager, hier das Man-Machine-Interface 20, und teilt den übrigen Objektmanager-Komponenten, die mit der Objektmanager-Komponente ausgefallenen Objektmanager mit. Hierbei ist es die Infrastruktur 2, die ein für alle Objekt­ manager-Komponenten zugängliches Ereignis generiert, das ins­ besondere den verbleibenden Komponenten mitteilt, ob eine Ob­ jektmanager-Komponente "prozeßführend" oder "nicht-prozeßfüh­ rend" ist bei redundanter Ausführung der jeweiligen Kompo­ nente.
Nach dem Ausfall der Komponente 10a erfolgt der Zustandsüber­ gang der Objektmanager-Komponente von "nicht-prozeßführend" nach "prozeßführend" der Komponente 10b selbsttätig. Hierbei kann es weiter vorgesehen sein, daß zum Aufdaten von Objekt­ managern auf wiederanlaufenden redundanten Objektmanager-Kom­ ponenten der prozeßführende Server auf Auftrag ein konsisten­ tes Abbild seiner Prozeßdaten erstellt und zum aufrufenden Client, hier der Server der ausgefallenen Objektmanager-Kom­ ponente 10a, überträgt. Um den Redundanz-Zustand einer Ob­ jektmanager-Komponente für die übrigen Komponenten zugänglich zu machen, ist es vorgesehen, daß jede Objektmanager-Kompo­ nente 4 bis 16 oder jeder Objektmanager in dem entsprechenden Server-Hauptteil 38 eine Schnittstelle aufweist, die eine Änderung des Redundanz-Zustandes der jeweils anderen Objektma­ nager-Komponenten oder Objektmanager erfaßt.
Insbesondere für die Handhabung einer sicheren Datenübertra­ gung von redundant ausgeführten Objektmanager-Komponenten ist die Infrastruktur 2 derart ausgestaltet, daß die Übermittlung eines datenlesenden Auftrages selbsttätig an den prozeßfüh­ renden Server erfolgt. Hierzu dient beispielsweise der Ein­ trag in der vorstehend genannten Schnittstelle bezüglich des Zustands einer Objektmanager-Komponente oder eines Objektma­ nagers. Gleichzeitig sorgt die Infrastruktur 2 dafür, daß die Übermittlung eines datenschreibenden Auftrages an alle zuein­ ander redundanten Objektmanager-Komponenten oder Objektmana­ ger erfolgt, so daß der nicht prozeßführende Teil jederzeit in der Lage ist, die Prozeßführung zu übernehmen.
Auch der logische Ring zur Überwachung der Objektmanager-Kom­ ponenten 4 bis 16 schließt sich bei dem Ausfall der Objektma­ nager-Komponente 10a selbsttätig, weil die Objektmanager-Kom­ ponenten 4 und 12a, 12b automatisch auf die redundante Ob­ jektmanager-Komponente 10b umschalten, die ihren Zustand von "nicht-prozeßführend" nach "prozeßführend" geändert hat, wie dies die Pfeile 46, 48 symbolisieren.
In Fig. 5 ist nochmals der logische Ring zur Überwachung der Objektmanager-Komponenten 4 bis 16 schematisch dargestellt. Hierbei soll deutlich gemacht werden, daß die Überwachung in zwei Überwachungsebenen erfolgt. In der ersten Überwachungs­ ebene überwachen sich die Objektmanager-Komponenten 4 bis 16 selbsttätig im gemäß Fig. 3 beschriebenen Ring. Dies ist in Fig. 5 durch die Pfeilverbindungen von Objektmanager-Kompo­ nente zu Objektmanager-Komponente symbolisiert.
An der hier ausgewählten Objektmanager-Komponente 14 ist die zweite Überwachungsebene schematisch dargestellt. Innerhalb einer Objektmanager-Komponente werden zyklisch wiederkehrend die Zustände der einzelnen lokal installierten Objektmanager, hier der redundant ausgeführte Protokollverwalter 24a, 24b und die Datenbank 28 für Beschreibungsdaten, überwacht. Auf diese Weise ist eine Entkopplung der Überwachungsprozesse für Objektmanager-Komponenten und Objektmanager erreicht, so daß beispielsweise nach dem Ausfall eines einzelnen Objektmana­ gers nicht die gesamte Objektmanager-Komponente als ausgefal­ len gemeldet werden muß.

Claims (10)

1. Infrastruktur (2) für ein System (18) von verteilten Ob­ jektmanager-Komponenten (4 bis 16), insbesondere für ein Leitsystem einer Kraftwerksanlage, mit einer Anzahl von Ob­ jektmanager-Komponenten (4 bis 16), die jeweils mindestens einen Objektmanager (20 bis 30) ausführen, wobei die Kommuni­ kation in einer Weise erfolgt, daß jedes Objekt ein internes Kennzeichen und einen Ausprägungstyp umfaßt, anhand deren der Objektmanager (20 bis 30) ermittelbar ist, der dieses Objekt verwaltet.
2. Infrastruktur (2) nach Anspruch 1, dadurch gekennzeichnet, daß eine von einem Server gesteuerte, diskontinuierliche Kommunikation vorgesehen ist.
3. Infrastruktur (2) nach Anspruch 1, dadurch gekennzeichnet, daß eine von einem Client gesteuerte, kontinuierliche Kommunikation vorge­ sehen ist.
4. Infrastruktur (2) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß eine asso­ ziative Adressierung vorgesehen ist.
5. Infrastruktur (2) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß bei vor­ liegendem Kommunikationsauftrag eines Clienten alle daran be­ teiligten Server zur Datenausgabe aufgefordert sind.
6. Infrastruktur (2) nach Anspruch 5, dadurch gekennzeichnet, daß eine Syn­ chronisationsaufforderung an alle beteiligten Server ergeht.
7. Infrastruktur (2) nach Anspruch 6, dadurch gekennzeichnet, daß die Mel­ dung des Vollzugs der Synchronisation an den Client erst dann ergeht, wenn die Bereitschaft zur Datenausgabe aller verfüg­ baren Server vorliegt.
8. Infrastruktur (2) nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, daß eine Wie­ deranmeldung eines noch anstehenden Auftrages bei einem wie­ derverfügbar gewordenen Servers vorgesehen ist.
9. Infrastruktur (2) nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß ein Kommu­ nikationsauftrag bezüglich seiner Parameterversorgung über­ prüfbar ist und der Auftrag bei fehlerhafter Parameterversor­ gung unter Angabe eines Fehlercodes ablehnbar ist.
10. Infrastruktur (2) nach Anspruch 9, dadurch gekennzeichnet, daß das dyna­ mische Verhalten der Erledigung eines Kommunikationsauftrages nachvollziehbar und verifizierbar ist.
DE19520745A 1995-06-07 1995-06-07 Infrastruktur für ein System von verteilten Objektmanager-Komponenten Expired - Fee Related DE19520745C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19520745A DE19520745C2 (de) 1995-06-07 1995-06-07 Infrastruktur für ein System von verteilten Objektmanager-Komponenten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19520745A DE19520745C2 (de) 1995-06-07 1995-06-07 Infrastruktur für ein System von verteilten Objektmanager-Komponenten

Publications (2)

Publication Number Publication Date
DE19520745A1 true DE19520745A1 (de) 1996-12-12
DE19520745C2 DE19520745C2 (de) 1999-09-30

Family

ID=7763811

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19520745A Expired - Fee Related DE19520745C2 (de) 1995-06-07 1995-06-07 Infrastruktur für ein System von verteilten Objektmanager-Komponenten

Country Status (1)

Country Link
DE (1) DE19520745C2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000073864A1 (de) * 1999-05-28 2000-12-07 Dr. Johannes Heidenhain Gmbh Verfahren zum synchronisierten hochlauf einer numerischen steuerung
EP1227379A1 (de) * 2001-01-18 2002-07-31 Mühlbauer AG Verfahren und Vorrichtung zur Steuerung einer Maschine in einem Fertigungssystem
WO2006033881A1 (en) * 2004-09-16 2006-03-30 Invensys Systems, Inc. Transparent relocation of an active redundant engine in supervisory process control data acquisition systems
US7818615B2 (en) 2004-09-16 2010-10-19 Invensys Systems, Inc. Runtime failure management of redundantly deployed hosts of a supervisory process control data acquisition facility

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10217646B4 (de) * 2002-04-19 2011-04-14 Endress + Hauser Gmbh + Co. Kg Verfahren zur Bestimmung einer charakteristischen Größe eines Prozessmediums

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0604091A2 (de) * 1992-12-21 1994-06-29 Hitachi, Ltd. Überwachungs- und Regelungsmethode und zugehöriges System
WO1995030937A1 (de) * 1994-05-10 1995-11-16 Siemens Aktiengesellschaft Leitsystem für eine technische anlage

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0604091A2 (de) * 1992-12-21 1994-06-29 Hitachi, Ltd. Überwachungs- und Regelungsmethode und zugehöriges System
WO1995030937A1 (de) * 1994-05-10 1995-11-16 Siemens Aktiengesellschaft Leitsystem für eine technische anlage

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Ch-Z.: Europhysics Conference on Control Systems for Experimental Physics, Proceedings (CERN 90-08)Villars sur Ollon, Switzerland, 28. Sept.- 2. Oct.1987, S. 15-20, Published: CERN, Geneva, Switzerland *
Elektronik 25/1994, S. 58-64 *
Elektronik 7/31, 31.3.1989, S. 52-58 *
net 40, 1986, H. 9, S. 338-342 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000073864A1 (de) * 1999-05-28 2000-12-07 Dr. Johannes Heidenhain Gmbh Verfahren zum synchronisierten hochlauf einer numerischen steuerung
US6988191B1 (en) 1999-05-28 2006-01-17 Dr. Johannes Heidenhain Gmbh Method for the synchronized start-up of a numerical control
EP1227379A1 (de) * 2001-01-18 2002-07-31 Mühlbauer AG Verfahren und Vorrichtung zur Steuerung einer Maschine in einem Fertigungssystem
WO2006033881A1 (en) * 2004-09-16 2006-03-30 Invensys Systems, Inc. Transparent relocation of an active redundant engine in supervisory process control data acquisition systems
EP1800194A1 (de) * 2004-09-16 2007-06-27 Invensys Systems, Inc. Transparente verlagerung einer aktiven redundanten engine in beaufsichtigenden prozesssteuerdaten-beschaffungssystemen
EP1800194A4 (de) * 2004-09-16 2009-03-04 Invensys Sys Inc Transparente verlagerung einer aktiven redundanten engine in beaufsichtigenden prozesssteuerdaten-beschaffungssystemen
US7818615B2 (en) 2004-09-16 2010-10-19 Invensys Systems, Inc. Runtime failure management of redundantly deployed hosts of a supervisory process control data acquisition facility

Also Published As

Publication number Publication date
DE19520745C2 (de) 1999-09-30

Similar Documents

Publication Publication Date Title
DE10362379B3 (de) Simulationssystem für Mehrfachknoten-Prozesssteuerungssysteme
DE69128271T2 (de) Verfahren und System zur Erhöhung der Betriebsverfügbarkeit eines Systems von Rechnerprogrammen, wirkend in einem verteilten Rechnerssystem
DE69210399T2 (de) Rechnerueberwachungsverfahren und system
DE19836347C2 (de) Fehlertolerantes Computersystem
DE60220287T2 (de) System und verfahren zur überwachung von software-warteschlangenanwendungen
DE602004002858T2 (de) Vorrichtung und Verfahren zur Datenarchivierung in einem Clustersystem
DE69911681T2 (de) Verfahren zum Verfolgen von Konfigurationsänderungen in Netzwerken von Rechnersystemen durch historische Überwachung des Konfigurationsstatus der Vorrichtungen im Netzwerk
EP1527554B1 (de) Rechnernetzwerk mit diagnoserechnerknoten
EP0807883B1 (de) Kommunikationssystem mit Mitteln zum Austausch von Softwareprozessen
DE10392438T5 (de) Vorrichtung und Verfahren zur zentralen Überwachung und Steuerung von Anlagen
EP1296207B1 (de) HMI Gerät und Verfahren zur Bedienung einer technischen Einrichtung, Automatisierungssystem mit HMI Gerät und Computerprogrammprodukt mit Programm zur Durchführung des Verfahrens in einem HMI Gerät oder Automatisierungssystem
WO2020200877A1 (de) Generierung und verteilung von konfigurations-datenstrukturen für steuerungssysteme
EP3761166A1 (de) Verfahren zum verwalten eines feldgeräts und automatisierungssystem
DE19520745C2 (de) Infrastruktur für ein System von verteilten Objektmanager-Komponenten
DE60309012T2 (de) Verfahren und system zur sicherstellung eines busses und eines steuerservers
DE19520747C2 (de) Infrastruktur für ein System von verteilten Objektmanager-Komponenten
DE19520744C2 (de) Infrastruktur für ein System von verteilten Objektmanager-Komponenten
EP1820307B1 (de) Verfahren zum nachweis der verf]gbarkeit von systemkomponenten eines redundanten kommunikationssystems
DE19520740C2 (de) Infrastruktur für ein System von verteilten Objektmanager-Komponenten
DE19731026C2 (de) Fernwartung eines Bus-Systems auf der Basis des SNMP-Protokolls
DE10354938B4 (de) Datenverarbeitungssystem mit automatisierbarer Verwaltung und Verfahren zur automatisierten Verwaltung eines Datenverarbeitungssystems
EP2204704B1 (de) Verfahren zum Betrieb eines mehrere vernetzte Rechnereinheiten umfassenden industriellen Automatisierungsystems und industrielles Automatisierungsystem
EP1019808B1 (de) Responsives system und verfahren zur digitalen signalverarbeitung sowie verfahren zum betrieb eines responsiven systems
WO2021037378A1 (de) Verfahren zum automatischen markieren, cluster-arbeitsknoten, cluster, netzwerk, computerprogramm und computerlesbares medium
EP1195678A2 (de) Verfahren zum Beitreiben eines Datenverarbeitungssystems mit Redundanz-Datenverarbeitungseinheit

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150101