EP1686036A1 - Leitsystem für die Steuerung und/oder Überwachung von Objekten - Google Patents

Leitsystem für die Steuerung und/oder Überwachung von Objekten Download PDF

Info

Publication number
EP1686036A1
EP1686036A1 EP05001889A EP05001889A EP1686036A1 EP 1686036 A1 EP1686036 A1 EP 1686036A1 EP 05001889 A EP05001889 A EP 05001889A EP 05001889 A EP05001889 A EP 05001889A EP 1686036 A1 EP1686036 A1 EP 1686036A1
Authority
EP
European Patent Office
Prior art keywords
layer
network
cell
data
stw
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP05001889A
Other languages
English (en)
French (fr)
Inventor
Markus Kuhn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Schweiz AG
Original Assignee
Siemens Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Schweiz AG filed Critical Siemens Schweiz AG
Priority to EP05001889A priority Critical patent/EP1686036A1/de
Priority to DE502005006723T priority patent/DE502005006723D1/de
Priority to PCT/EP2005/011827 priority patent/WO2006081849A1/de
Priority to AT05800660T priority patent/ATE423715T1/de
Priority to EP05800660A priority patent/EP1843929B1/de
Publication of EP1686036A1 publication Critical patent/EP1686036A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L27/00Central railway traffic control systems; Trackside control; Communication systems specially adapted therefor
    • B61L27/20Trackside control of safe travel of vehicle or train, e.g. braking curve calculation

Definitions

  • the present invention relates to a guidance system for the control and / or monitoring of objects operating on a traffic network subdivided into a number of network cells.
  • the invention relates to a guidance system for controlling and / or monitoring rail vehicles running on a railway network divided into regional areas.
  • railway networks are still subject to the national sovereignty of the state on which this railway network is located.
  • Several regionally effective control centers - hereafter referred to more generally as network cells - are provided for the control of train traffic on such a national railway network. These network cells therefore control the train traffic on their respective assigned geographical areas.
  • network cells therefore control the train traffic on their respective assigned geographical areas.
  • a data exchange between the individual network cells is restricted to the exchange of train numbers at the boundaries between two adjacent network cells.
  • the individual systems running on the network cells are proprietary and therefore the respective operating software can differ from network cell to network cell.
  • trains are controlled by means of a cell software executed on a cell computer system, that is to say the control technology programs executed on the computer network of the cell, by setting routes and optimizing and optimizing the train runs. For example, if there is an update to the cell software, changes in the railroad regulations can be made and / or in the configuration data, for example due to changes in the track topology, implemented in the network cell and taken over into the operationally active operation.
  • the present invention is therefore based on the object to provide a control system of the type mentioned that is constructed in terms of its architecture and task distribution so that the parent control and / or monitoring of the circulating on the network objects is possible.
  • control system provides the network-wide control and / or monitoring of the circulating objects as well as the peripheral systems required for determining their traffic route.
  • the separation of the tasks of information processing for the control center and representation in the control center allows a complete encapsulation of this representation process of the configuration and operation of the individual network cells.
  • the architecture therefore also permits the process control operation of each network cell for itself if the data connection to the control center and its workstations should be interrupted.
  • external systems can also exchange data with the control system in that the merging layer can additionally comprise an interface via which data can be output to other surrounding systems in a manner similar to the display layer and / or via the data of further peripheral systems, Similar to data obtained from the display layer, the corresponding further treatment can be obtained.
  • Such external systems may, for example, be passenger and / or customer information systems, which, for example, evaluate train data that differs from the timetable for display by the passenger and / or customer.
  • these can also be external systems acting directly on the productive process, such as maintenance systems, which, for example, cause the control system to temporarily unavailable a traffic route in this way Report maintenance or failure of critical systems.
  • an aggregator is provided in the merging layer, which is configured identically for all operator stations and can be executed on an operator station computer which is part of the central computer system.
  • This approach allows the software to be built uniformly for the aggregator and executed in units with a clear interface and definable but limited interaction.
  • the last-mentioned feature makes it possible to work on different tasks in the control center at different workstations, without having to directly exchange data between the operator stations at the level of the operator stations.
  • the aggregator may include a selection logic with which specifically specifiable data groups and / or data derived from specially specifiable peripheral systems can be selected for their processing at the operator stations.
  • the data group may relate, for example, exclusively to the group of train number data or the data on unoccupied track sections and the like.
  • the specifiable peripheral systems can be any type of components that are relevant in the traffic process for the control and monitoring, such as interlockings, switches, signals, axle counter, track vacancy and so on.
  • a database with global network data can be provided which exchanges this network data with the merging layer and / or the working layer.
  • the operator stations use their association layer to access this global data.
  • the single network cell can access this global data directly from within its working layer.
  • Typical global data is, for example, the entire network topology data and data that clarifies how data from individual network cells are to be interconnected, e.g. Cross track field tables.
  • data connections for cross-communication are also provided from the working layer.
  • QK cross-communication
  • train number data can be exchanged between adjacent network cells when a train changes from one network cell to another network cell.
  • this cross-communication can be advantageous if, for example, a connection to a particular network cell, but to fulfill a higher-level task and data from other network cells are needed.
  • the interface layer can have a Data dispatcher can be provided, which is configurable for the assignment of the data received from the peripheral systems to different cell molecules within a network cell.
  • Figure 1 shows a schematic view of the architecture of a control system, hereinafter referred to as network NW, for a railway network.
  • NW a control system
  • the rail network of the Swiss Federal Railways (SBB) today is divided into approximately 15 isolated control systems.
  • the split is a geographical breakdown in which each system is responsible for a given area.
  • the Communication between these systems in the prior art is limited to the exchange of train numbers at the boundaries between the systems.
  • a network workstation AP1 to AP3 can communicate with a plurality of network cells NWZ each responsible for a geographical area. This results in the following new architectural elements compared to the large number of former independent control systems:
  • the workstation AP1 to Apn summarizes the information from the configuration of the individual network cells NWZ and generates an overall view for the user.
  • the network cells NWZ become for the user a single large system of the network NW.
  • the system is transparent to the user, so that the overall system, which consists of several smaller subsystems, behaves in exactly the same way as a single, large-scale control system across the entire rail network.
  • the network NW therefore gives the user the impression that there is only one network control system for the entire rail network. For a part of the control system functions, this can be realized via the integration of the information on the workstation AP1 to AP3.
  • the network cells exchange information with one another by way of a cross-communication QK. Examples include the control system tasks train number administrator (ZV), train control (ZL) and overfill prevention (UeV).
  • ZV train number administrator
  • ZL train control
  • UeV overfill prevention
  • a classic three-layer architecture is provided.
  • Information in working objects BO such as points, signals, balises or trains, is stored in a working layer BL.
  • the processing in this layer the work logic executed by a business server BS, prepares this information.
  • the origin of the information is an interface layer Layer IL, which primarily represents the interface S to the web process.
  • a display layer converts the work objects BO and their states into a user-friendly representation, such as a magnifying glass image.
  • the display layer VL comprises the entire user interface, which is placed primarily at the work stations AP1 to AP3 for the visual display for the dispatcher Fd1, Fd2 and temporarily also for the examiner P.
  • other peripherals such as printers, storage media and multimedia devices are included in this interface.
  • Today's VL according to the prior art includes the Presentations logic as well as the actual View logic.
  • the presentation logic is deliberately strongly dependent on the control system configuration data of the individual network cells NWZ and therefore also remains new in the network cell NWZ.
  • the Workplace AP1 to AP3 in the new network according to the invention NW no longer contain precisely this presentation layer PL, these workstations AP1 to AP3 are a so-called "thin client".
  • the software for the network NW thus has a "thin-client" structure, ie the presentation which converts the work objects BO into a view for the user already takes place in the network cell NWZ.
  • the presentation layer PL prepares the information for the display layer VL. This processing depends on the parameters that can be individually selected for each workstation in the display layer VL, such as language, information area, and the configuration data of the network cell NWZ.
  • the merging layer AL adds the information from the individual network cells NWZ into a whole by means of an aggregator AG and sends them to the view client VC in the display layer VL, which is now no longer logically located within a network cell NWZ but the workstations AP1 to AP3 served.
  • the information from the view client VC to the network cell NWZ, which are issued from the workstations AP1 to AP3 recordable by the Dispatcher Fd1 and Fd2 and the inspector P are divided by the aggregator AG in the union layer AL and forwarded to the corresponding network cells NWZ ,
  • presentation logic converts the current state of interlocking elements (switches, tracks, etc.) into a geometric representation of a magnifying glass image.
  • the merging layer AL adds the individual geometric representations from the individual network cells NWZ to a comprehensive one geometric representation together, which is displayed in the display layer VL the user as an overview image.
  • the display layer VL does not require any configuration data for this task.
  • the merging layer AL has only the information how the individual geometric representations are combined to form a comprehensive geometric representation.
  • the display logic is realized by a display server MXVS in the network cell NWZ.
  • the MXVS display server completely processes the view for the View Client VC. So that the View Client VC can communicate with several servers, the Aggregator AG is provided between the View Client VC and the MXVS display server. The View Client VC only communicates with the Aggregator AG via the Aggregator AG corresponding display servers MXVS of multiple network cells NWZ.
  • the display server MXVS prepares the information as needed for a View Client VC. From a display server MXVS exists one instance per View Client VC and network cell NWZ.
  • the server of the View Client VC is stateful, i. his condition is dependent on the workstation AP1 to AP3, for which he prepares the data.
  • the MXVS display server is therefore a rebuilt task of the prior art single control systems known in the prior art and mentioned above.
  • the access point AP provides a general interface to the network NW with respect to a function, such as train data and train numbers.
  • the access point AP is therefore largely stateless in the context of a client, i. its state is independent of the workstations connected to it AP1 to AP3, and stores per client primarily what information this wishes.
  • the access point AP can thus take over part of the display logic (presentation). It thus provides access to a defined set of information which is not specifically prepared for a workstation AP1 to AP3.
  • the View Client VC which is logically located in the display layer, exists once per user session.
  • the display server MXVS exists once per user session and network cell NWZ and prepares the information for the corresponding user.
  • the aggregator AG exists individually for each user session, since different information must be assembled for each view client VC.
  • the access point AP exists once per network cell NWZ, and thereby in two redundant instances to increase the availability.
  • NWZ network cell NWZ Many of the information processed by the NWZ network cell is obtained from other systems (Stelltechnik STW, Reasonanlagen UA1 to Un2)). When the network cell NWZ is started, this information will be obtained from these external systems via a general poll. But there is also information that is stored only in the network cell NWZ and which can not be obtained from an external system. This information must still be present after a restart of the NWZ network cell or individual tasks. Therefore, this information is often stored persistently (in database, files) and / or adjusted between main, mirror and passive running states of the tasks. When a cell molecule pZM is started in the nonoperatively active state, the data managed by the network cell NWZ are obtained from the operatively active cell molecule aZM. The interface with which the data managed by the network cell (i.e., global data accessed by the network cell but not stored in its instance) is matched between the cell molecules is designed to be release-independent.
  • the network NW provides cross-cell interfaces SA.
  • the interfaces SA to the external systems ES are defined by means of general services.
  • a service represents a defined interface via which a set of information is exchanged bidirectionally between the external systems and the network NW. This ensures that the same service can be used by various external systems.
  • An example is a train number service via which all train number advances are sent to interested external systems or train number operations are accepted by the external systems.
  • These services are specified in the network NW and the external system ES has to implement the interface SA specified by the network NW. Since this is not always possible, the network NW continues to support specific interfaces for certain external systems ES, if an already existing interface should work across cells and / or if the network should support an interface specified by an external system ES.
  • the adapter accesses the network NW via the services.
  • Such an interface is connected via a proxy server if the external system is not part of the closed network NW.
  • the network software must not be confused with the network cell software.
  • changes are saved to old statuses, which makes it possible to go back to an old state in the event of a mishandling of an administrator.
  • the global configuration data can be created offline and then imported into the global data GD. Therefore, to allow for soft migration as well as non-disruptive update, various levels of global configuration data are available which result in different cell configurations, i. to different versions of the cell software incl. The required data fit.
  • Each network cell NWZ has its own Ethernet LAN. Connected to the Ethernet are cell servers, cell-local workplaces L, cell-local printers, terminal servers, ISDN routers to the ILOK and external systems. On this Ethernet LAN, IP, DECnet, and LAT are used as protocols.
  • This set of components which are logically arranged within a network cell NWZ, forms a cell computer system Z-RS A, Z-RS B.
  • the workstations AP1 to AP3 and printers at a control center location LT and in the regional control center RCC are each at one or connected to several Ethernet LANs. On this workstation LAN only IP is used, so no DECnet and no LAT.
  • This set of components, which are logically assigned to the control center location forms a control center computer system LT-RS.
  • a cell-local workstation L is configured to operate only with the corresponding network cell NWZ and is used as the last fall-back element in the event of a failure of the network NW. This workstation L is therefore configured so that it can be used as a cell-local workstation L.
  • a plurality of cell LANs and normally a workstation LAN can be present at a control center location LT.
  • the RCC has one or more workstation LANs.
  • the individual sites are connected to an IP network.
  • the routers that are available at each site are redundantly equipped to compensate for failures of such components immediately.
  • the thus formed IP network with all LANs together is a network NW closed according to the railway standard EN50159-1. This requirement makes it possible that the data traffic between the individual network cell NWZ and the control center LT and other components arranged within the network NW need not be encrypted.
  • the network NW also offers interfaces SA for external systems ES. These interfaces SA are realized by an interface server. If the external systems ES are located within the closed network NW, they can access the interface server directly. On the other hand, if the external systems ES are outside the closed network NW, this is not possible without further ado.
  • an additional interface proxy server is provided, which enables communication with the interface server from an insecure network.
  • the interface server is connected to the closed network NW and offers the cross-cell interfaces as universally valid services. Trusted external systems ES, which are located within the closed network NW, can directly access the interface server.
  • the interface proxy server is connected to the insecure network. This offers the services of the interface server as a proxy, i. It looks like the interface server to the outside, but only forwards the messages to the interface server.
  • the Proxy Server interface only offers a well-defined subset of the interfaces of the interface server. The interface subset includes only the components that may be used by potentially untrusted external systems.
  • the interface server and the proxy server interfaces each include two network cards.
  • a network card connects the interface server with the closed network NW or the interfaces proxy server with the insecure network.
  • the other network card connects the interface server and the proxy server interfaces via a separate Ethernet LAN.
  • the external system ES is connected to the interface proxy server via a firewall. This firewall only releases the absolutely necessary communication services, and only allows connections to known computers.
  • a message filter is used between the interface proxy and the actual interface. This message filter understands the meaning of the messages, leaving only messages classified as non-hazardous. Which messages are classified as harmless, is freely configurable. Every occurrence of a potentially dangerous message is logged.
  • the message filter is implemented both in the interface server and in the interface proxy server. The message filter is the same in both servers, and both servers monitor each other for the correct functioning of the message filter. In this case, it is provided in the present exemplary embodiment that any errors in the message filter which have occurred are disclosed within a publication exposure time of one hour.
  • the network NW and / or its architecture described above for a network-wide railway control system and the various logical groupings and methods for secure data exchange implemented within the architecture, in particular with external systems ES arranged outside the secure network NW, can also be found in the fields of telecommunications, Use network control technology in energy distribution and in road and air traffic as well as all more complex processes to control the overall process.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

Erfindungsgemäss ist ein Leitsystem (NW) für die Steuerung und/oder Überwachung von Objekten, die auf einem in eine Anzahl von Netzwerkzellen (NWZ) unterteilten Netzwerk, verkehren, insbesondere Leitsystem für ein in regionale Bereiche unterteiltes Eisenbahnnetzwerk vorgesehen, welches die folgende Komponenten umfasst:
  • a) für jede Netzwerkzelle (NWZ) ein Zellenleitsystem, das mittels eines Zellenrechnersystems der jeweiligen Netzwerkzelle (NWZ) zugeordnete und den Verkehr im wesentlichen innerhalb dieser Netzwerkzelle (NWZ) beeinflussende und/oder überwachende Umsysteme (STW A bis STW n, UA1 bis Un1, UA2 bis Un2), wie z.B. Stellwerke, Weichen, Signale, Gleisfreimelder, Achszähler, stellt und/oder überwacht, wobei das Zellenrechnersystems über Schnittstellen (S) Daten erhält und/oder ausgibt;
  • b) eine netzwerkweit wirksame Leitstelle mit Bedienplätzen (AP1 bis AP3), die mittels eines Leitstellenrechnersystems von den Zellenrechnersystemen über die Schnittstellen erhaltene Daten bearbeiten und/oder Daten über die Schnittstellen an die Zellenrechnersysteme ausgeben;
  • c) wobei für ein Gesamtrechnersystem, das die Zellenrechnersysteme und das Leitstellenrechnersystem umfasst, ein fünf-schichtiger logischer Aufbau mit einer Schnittstellenschicht (IL, IDL), einer Arbeitsschicht (BL), einer Präsentationschicht (PL), einer Vereinigungsschicht (AL) und einer Anzeigeschicht (VL) vorgesehen ist.

Description

  • Die vorliegende Erfindung betrifft ein Leitsystem für die Steuerung und/oder Überwachung von Objekten, die auf einem in eine Anzahl von Netzwerkzellen unterteilten Verkehrsnetzwerk, verkehren. Die Erfindung bezieht insbesondere auf ein Leitsystem zur Steuerung und/oder Überwachung von schienengebundenen Fahrzeugen, die auf einem in regionale Bereiche unterteilten Eisenbahnnetz verkehren.
  • Eisenbahnnetzwerke unterliegen heute immer noch der nationalen Hohheit des Staates, auf dem dieses Eisenbahnnetzwerk liegt. Zur Lenkung des Zugverkehrs auf einem derartigen nationalen Eisenbahnnetzwerk sind verschiedene regional wirksame Leittechnikzentren - nachfolgend allgemeiner als Netzwerkzellen bezeichnet - vorgesehen. Diese Netzwerkzellen steuern daher den Zugverkehr auf den ihnen jeweils zugewiesenen geographischen Bereichen. In der Regel ist es im heutigen Zustand einer derartigen dispositiven Zuglenkung noch so, dass sich ein Datenaustausch zwischen den einzelnen Netzwerkzellen auf den Austausch von Zugnummern an den Grenzen zwischen zwischen zwei benachbarten Netzwerkzellen beschränkt. Ebenso ist es heute noch vielfach der Fall, dass die einzelnen auf den Netzwerkzellen laufenden Systeme proprietär sind und sich daher die jeweilige Betriebssoftware von Netzwerkzelle zu Netzwerkzelle unterscheiden kann.
  • Innerhalb einer Netzwerkzelle werden mittels einer auf einem Zellenrechnersystem ausgeführten Zellen-Software, also der auf dem Rechnernetzwerk der Zelle ausgeführten Leittechnik-Programme, die Züge gesteuert, indem Fahrstrassen gestellt und die Zugläufe auseinander abgestimmt und optimiert werden. Beim Vorliegen eines Updates für die Zellen-Software können beispielsweise Änderungen im eisenbahntechnischen Reglement und/oder in den Konfigurationsdaten, zum Beispiels aufgrund von Änderungen der Gleistopologie, in der Netzwerkzelle implementiert und in den operativ aktiven Betrieb übernommen werden.
  • Aufgrund der in Stand der Technik bekannten Aufteilung des Netzwerks in verschiedene geographische Bereiche mit jedem dieser Bereiche zugeordneten separaten Leitzentren, auch Fernsteuerzentrum genannt, bleibt bisher die Möglichkeit verschlossen, den gesamten Verkehr auf dem gesamten Netzwerk zellenübergreifend von einer oder mehrerer überregionaler Leitstelle zu steuern und/oder zu überwachen.
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein Leitsystem der eingangs genannten Art anzugeben, dass hinsichtlich seiner Architektur und Aufgabenverteilung so aufgebaut ist, dass die übergeordnete Steuerung und/oder Überwachung der auf dem Netzwerk zirkulierenden Objekte möglich ist.
  • Diese Aufgabe wird erfindungsgemäss durch ein Leitsystem für die Steuerung und/oder Überwachung von Objekten, die auf einem in eine Anzahl von Netzwerkzellen unterteilten Verkehrsnetzwerk, verkehren, insbesondere Leitsystem für ein in regionale Bereiche unterteiltes Eisenbahnnetzwerk gelöst, welches die folgende Komponenten umfasst:
    • a) für jede Netzwerkzelle ein Zellenleitsystem, das mittels eines Zellenrechnersystems der jeweiligen Netzwerkzelle zugeordnete und den Verkehr im wesentlichen innerhalb dieser Netzwerkzelle beeinflussende und/oder überwachende Umsysteme, wie z.B. Stellwerke, Weichen, Signale, Gleisfreimelder, Achszähler, stellt und/oder überwacht, wobei das Zellenrechnersystems über Schnittstellen Daten erhält und/oder ausgibt;
    • b) eine netzwerkweit wirksame Leitstelle mit Bedienplätzen, die mittels eines Leitstellenrechnersystems von den Zellenrechnersystemen über die Schnittstellen erhaltene Daten bearbeiten und/oder Daten über die Schnittstellen an die Zellenrechnersysteme ausgeben;
    • c) wobei für ein Gesamtrechnersystem, das die Zellenrechnersysteme und das Leitstellenrechnersystem umfasst, ein fünf-schichtiger logischer Aufbau mit einer Schnittstellenschicht, einer Arbeitsschicht, einer Präsentationschicht, einer Vereinigungsschicht und einer Anzeigeschicht vorgesehen ist; wobei
      • c1) die Schnittstellenschicht logischer Bestandteil der jeweiligen Zellenrechnersysteme ist und Daten von den Umsystemen aufnimmt und an die Arbeitsschicht leitet und/oder Daten von der Arbeitsschicht erhält und diese an die Umsysteme ausgibt,
      • c2) die Arbeitsschicht logischer Bestandteil der jeweiligen Zellenrechnersysteme ist und von der Schnittstellenschicht und/oder der Präsentationsschicht erhaltene Daten in einer Zellenlogik zellenspezifisch verarbeitet und an die Schnittstellenschicht und/oder die Arbeitsschicht ausgibt,
      • c3) die Präsentationsschicht logischer Bestandteil der jeweiligen Zellenrechnersysteme ist und von der Arbeitsschicht erhaltene Daten für die Anzeigeschicht aufbereitet und an die Vereinigungsschicht ausgibt und/oder von der Vereinigungsschicht erhaltene Daten für die Arbeitsschicht aufbereitet und an diese ausgibt,
      • c4) die Vereinigungsschicht logischer Bestandteil des Leitstellenrechnersystems ist und die von den Präsentationsschichten der Zellenrechnersysteme erhaltenen Daten vereinigt und zur Darstellung eines vereinigten Datenabbildes für die Anzeigeschicht aufbereitet und/oder von der Anzeigeschicht erhaltene Daten hinsichtlich ihrer Zugehörigkeit zu der Anzahl der Netzwerkzellen auflöst und an die Präsentationsschicht des entsprechenden Zellenrechnersystems ausgibt, und
      • c5) die Anzeigeschicht logischer Bestandteil des Leitstellenrechnersystems ist und von der Vereinigungsschicht erhaltene Daten an den Bedienplätzen darstellt und/oder an den Bedienplätzen erhaltene Daten an die Vereinigungsschicht ausgibt.
  • Auf diese Weise bietet das erfindungsgemässe Leitsystem die netzweite Steuerung und/oder Überwachung der zirkulierenden Objekte sowie der zur Festlegung ihrer Verkehrstrasse erforderlichen Umsysteme. Die Trennung der Aufgaben von Informationsaufbereitung für die Leitstelle und Darstellung in der Leitstelle ermöglicht eine vollständige Kapselung dieses Darstellungsprozesses von der Konfiguration und dem Betrieb der einzelnen Netzwerkzellen. Die Architektur erlaubt daher auch den leittechnischen Betrieb jeder Netzwerkzelle für sich, falls die Datenverbindung zu der Leitstelle und ihren Arbeitsplätzen unterbrochen sein sollte.
  • In vorteilhafter Weiterbildung der Erfindung können auch beispielsweise externe Systeme in einen Datenaustausch mit dem Leitsystem treten, indem die Vereinigungsschicht zusätzlich eine Schnittstelle umfassen kann, über die Daten ähnlich wie an die Anzeigeschicht an weitere Umsysteme ausgebbar sind und/oder über die Daten von weiteren Umsystemen, ähnlich wie von der Anzeigeschicht erhaltene Daten, zur entsprechenden Weiterbehandlung erhaltbar sind. Derartige externe Systeme können zum Beispiel Fahrgast-und/oder Kundeninformationssysteme sein, die zum Beispiel vom Fahrplan abweichende Zugdaten zur Anzeige beim Fahrgast und/oder Kunden auswerten. Weiter können dies aber auch direkt auf den produktiven Prozess einwirkende externe Systeme sein, wie zum Beispiel Unterhaltssysteme, die dem Leitsystem auf diesem Wege beispielsweise die temporäre Nicht-Verfügbarkeit einer Verkehrstrasse wegen Unterhaltsarbeiten oder eines Ausfalls von kritischen Umsystemen melden.
  • Um den Bedienplatz in einer möglichst flexiblen Weise zu realisieren, kann es vorgesehen sein, dass in der Vereinigungsschicht ein Aggregator vorgesehen ist, der für alle Bedienplätze gleich ausgestaltet ist und auf einem Bedienplatzrechner, der Bestandteil des Leitstellenrechnersystems ist, ausführbar ist. Diese Vorgehensweise erlaubt es, dass die Software für den Aggregator einheitlich aufgebaut und in Einheiten mit klaren Schnittstellung und definierbarer, aber möglichst beschränkter Interaktion ausgeführt ist. Besonders das letztgenannte Merkmal ermöglicht es so, dass in der Leitstelle an verschiedenen Bedienplätzen an verschiedenen Aufgaben gearbeitet werden kann, ohne dass auf der Ebene der Bedienplätze Daten zwischen den Bedienplätzen direkt ausgetauscht werden müssten.
  • In Weiterbildung dieser vorstehend genannten Eigenschaften kann der Aggregator eine Auswahllogik umfassen, mit der speziell vorgebbare Datengruppe und/oder von speziell vorgebbaren Umsystemen stammende Daten zu deren Aufbereitung an den Bedienplätzen auswählbar sind. Auf diese Weise erlaubt der Aggregator quasi für jede Sitzung an einem Bedienplatz eine individuelle Konfigurierbarkeit der Funktionen und Daten, die an dem Bedienplatz ausgeführt bzw. ausgewertet werden sollen. Die Datengruppe kann sich beispielsweise ausschliesslich auf die Gruppe der Zugnummerdaten oder der Daten über nicht belegte Gleisabschnitte und dergleichen beziehen. Die speziell vorgebbaren Umsysteme können jede Art von Komponenten sein, die in dem Verkehrsprozess für die Steuerung und die Überwachung relevant sind, wie zum Beispiel Stellwerke, Weichen, Signale, Achszähler, Gleisfreimeldung und so weiter.
  • Um den unabhängigen Betrieb der Leitstelle für das gesamte Netzwerk und der Leittechnik für die einzelnen Netzwerkzellen gewährleisten zu können und zugleich Konfigurationsprozess weitgehend zu entkoppeln, kann eine Datenbank mit globalen Netzwerkdaten vorgesehen sein, die mit der Vereinigungsschicht und/oder der Arbeitsschicht diese Netzwerkdaten austauscht. Auf diese Weise greifen die Bedienplätze über die ihnen zugeordnete Vereinigungsschicht auf diese globalen Daten zurück. Unabhängig davon kann die einzelne Netzwerkzelle direkt aus ihrer Arbeitsschicht heraus auf diese globalen Daten zugreifen. Typische globale Daten sind zum Beispiel die Daten der gesamten Netzwerktopologie und Daten, die klären, wie Daten aus einzelnen Netzwerkzellen miteinander in Verbindung zu setzen sind, z.B. Grenzgleisfeldtabellen.
  • Um den produktiven Transportprozess weitgehend resistent gegen Ausfälle von Datenverbindungen zwischen den Netzwerkzellen und der Leitstelle zu gestalten, sind zudem aus der Arbeitsschicht heraus Datenverbindungen zwecks Querkommunikation (QK) zwischen Netzwerkzellen vorgesehen. Auf diese Weise können beispielsweise zwischen benachbarten Netzwerkzellen Zugnummerdaten ausgetauscht werden, wenn ein Zug von einer Netzwerkzelle in eine andere Netzwerkzelle wechselt. Aber auch für den Betrieb der Bedienplätze kann diese Querkommunikation vorteilhaft, wenn zum Beispiel eine Verbindung mit einer bestimmten Netzwerkzelle besteht, aber zur Erfüllung einer übergeordneten Aufgabe auch Daten von anderen Netzwerkzellen benötigt werden.
  • Aus Gründen der besseren Testbarkeit der auf den Netzwerkzellen ausgeführten Zellenlogik können tempoär mehrere für sich autonome Zellenmoleküle die Aufgaben der Netzwerkzelle ausführen. Damit eine Zuordnung der die jeweiligen Zellenmoleküle betreffenden Daten vorgenommen werden kann, kann in der Schnittstellenschicht ein Datendispatcher vorgesehen sein, der zur Zuordnung der von den Umsystemen erhaltenen Daten zu verschiedenen Zellenmolekülen innerhalb einer Netzwerkzelle konfigurierbar ist.
  • Weitere vorteilhafte Ausgestaltungen der Erfindung können den übrigen Unteransprüchen entnommen werden.
  • Auführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. Dabei zeigen:
  • Figur 1
    eine schematische Ansicht der Architektur eines Leitsystems für ein Eisenbahnnetz;
    Figur 2
    eine detaillierte schematische Ansicht der Architektur des Leitsystems für ein Eisenbahnnetz gemäss Figur 1;
    Figur 3
    eine detaillierte schematische Ansicht der Architektur des Leitsystems für ein Eisenbahnnetz mit einer Datenbank für globale Daten und mit einer Anbindung externer System; und
    Figur 4
    eine schematische Darstellung der logischen Verteilung von Rechnersystemen innerhalb des Leitsystems gemäss den Figuren 1 bis 3.
  • Figur 1 zeigt einer schematische Ansicht der Architektur eines Leitsystems, nachfolgend als Netzwerk NW bezeichnet, für ein Eisenbahnnetz. So ist heute beispielsweise das Bahnnetz der schweizerischen Bundesbahnen (SBB) auf etwa 15 isolierte Leitsysteme aufgeteilt. Bei der Aufteilung handelt es sich um eine geografische Aufteilung, bei welcher jedes System für ein bestimmtes Gebiet zuständig ist. Die Kommunikation zwischen diesen Systemen beschränkt sich im Stand der Technik auf den Austausch von Zugnummern an den Grenzen zwischen den Systemen.
  • Im Netzwerk NW gemäss der vorliegenden Erfindung kann ein Netzwerkarbeitsplatz AP1 bis AP3 mit mehreren Netzwerkzellen NWZ kommunizieren, welche jeweils für ein geografisches Gebiet zuständig sind. Daraus ergeben sich gegenüber der Vielzahl der früheren für sich alleinstehenden Leitsysteme die folgenden neuen Architekturelemente:
    Figure imgb0001
  • Der Arbeitsplatz AP1 bis Apn fasst die Informationen konfigurationsgemäss aus den einzelnen Netzwerkzellen NWZ zusammen und erzeugt für den Benutzer eine Gesamtsicht. Die Netzwerkzellen NWZ werden für den Benutzer zu einem einzigen grossen System des Netzwerks NW. Dabei ist das System für den Benutzer transparent, so dass sich das aus mehreren kleineren Teilsystemen zusammengesetzte Gesamtsystem genauso verhält, wie ein einziges grosses Leitsystem über das gesamte Bahnnetz.
  • Die Elemente des Systems erfüllen die folgenden Anforderungen, wodurch die folgenden Architekturziele wunschgemäss erfüllt werden können:
    Figure imgb0002
    Figure imgb0003
    Figure imgb0004
  • In dem Netzwerk NW entsteht daher für den Benutzer der Eindruck, dass für das gesamte Eisenbahnnetz nur ein Netzwerk-Leitsystem besteht. Für einen Teil der Leitsystem-Funktionen kann dies über die Integration der Informationen auf dem Arbeitsplatz AP1 bis AP3 realisiert werden. Um für den anderen Teil der Leitsystem-Funktionen diese Anforderung zu realisieren, tauschen die Netzwerkzellen Informationen untereinander im Wege einer Querkommunikation QK aus. Beispiele dazu sind die Leitsystem-Aufgaben Zugnummerverwalter (ZV), Zuglenkung (ZL) und Überfüllverhinderung (UeV). Somit ermöglicht die Querkommunikation QK zwischen den Netzwerkzellen NWZ die zellenübergreifenden Funktionen.
  • Anhand von Figur 2 wird nun der besondere Aufbau der erfindungsgemässen Architektur des Leitsystem erläutert. Es sei eingangs anzumerken, dass das Bild der Figur 2 nur die logische Anordnung der einzelnen relevanten Gruppe zeigt und keinerlei Aussage über physikalische Anordnung von Datenverarbeitungsmitteln und der physikalischen Verteilung der relevanten Gruppen auf diese Datenverarbeitungsmittel.
  • In dem bisherigen Leitsystemen gemäss dem Stand der Technik ist eine klassische Drei-Schichten-Architektur vorgesehen.In einer Arbeitschicht BL sind Informationen in Arbeitsobjekten BO, wie zum Beispiel Weiche, Signal, Balise oder Zug, gespeichert. Die Verarbeitung in dieser Schicht, die durch einen Business-Server BS ausgeführte Arbeits-Logik, bereitet diese Informationen auf. Der Ursprung der Informationen ist eine Schnittstellenschicht Layer IL, welche primär die Schnittstelle S zum Bahnprozess darstellt. Eine Anzeigeschicht konvertiert die Arbeitsobjekte BO und ihre Zustände in eine benutzergerechte Darstellung wie zum Beispiel ein Lupenbild. Die Anzeigeschicht VL umfasst die gesamte Benutzeroberfläche, die vorrangig an den Arbeitsplätzen AP1 bis AP3 zur optischen Anzeige für die Fahrdienstleiter Fd1, Fd2 und temporär auch für den Prüfer P gebracht wird. Natürlich zählen auch andere Peripheriegeräte, wie Drucker, Speichermedien und Multimedia-Geräte zu dieser Benutzeroberfläche.
  • Der heutige VL gemäss dem Stand der Technik umfasst die Presentations Logik wie auch die eigentliche View Logik. In dem neuen erfindungsgemässen Netzwerk NW ist die Presentations Logik bewusst stark von den Leitsystem-Konfigurationsdaten der einzelnen Netzwerkzellen NWZ abhängig und verbleibt daher neu auch in der Netzwerkzelle NWZ. Da die Arbeitsplatz AP1 bis AP3 im neuen erfindungsgemässen Netzwerk NW aber genau diese Präsentationsschicht PL nicht mehr enthalten, handelt es sich bei diesen Arbeitsplätzen AP1 bis AP3 um einen sogenannten "Thin-Client". Die Software für das Netzwerk NW hat also eine "Thin-Client" Struktur, d.h. die Präsentation, welche die Arbeitsobjekte BO in eine Sicht für den Benutzer umwandelt, findet schon in der Netzwerkzelle NWZ statt. Die Präsentationsschicht PL bereitet die Informationen für die Anzeigeschicht VL auf. Diese Aufbereitung ist abhängig von den in der Anzeigeschicht VL für jeden Arbeitsplatz individuell wählbaren Parametern, wie z.B. Sprache, Informationsbereich, sowie von den Konfigurationsdaten der Netzwerkzelle NWZ.
  • Neu ist auch die logische Anordnung einer Vereinigungsschicht AL auf der Seite eines für die Leitstelle (mit anderen Worten: für die Gesamtheit der Arbeitsplätze AP1 bis AP3) arbeitenden Rechnersystems. Die Vereinigungsschicht AL fügt mittels eines Aggregators AG die Informationen aus den einzelnen Netzwerkzellen NWZ zu einem Ganzen zusammen und gibt diese an den View Client VC in der Anzeigeschicht VL, der nun logisch nicht mehr innerhalb einer Netzwerkzelle NWZ angeordnet ist, sondern die Arbeitsplätze AP1 bis AP3 bedient. Die Informationen von dem View Client VC an die Netzwerkzelle NWZ, die von den Arbeitsplätzen AP1 bis AP3 bespielsweise durch die Fahrdienstleiter Fd1 und Fd2 sowie den Prüfers P abgesetzt werden, werden durch den Aggregator AG in der Vereinigungsschicht AL aufgeteilt und an die entsprechenden Netzwerkzellen NWZ weitergeleitet.
  • In der Präsentationsschicht PL wandelt eine Präsentationslogik zum Beispiel den aktuellen Zustand von Stellwerkelementen (Weiche, Gleis usw) in eine geometrische Darstellung eines Lupenbildes um. Die Vereinigungsschicht AL fügt die einzelnen geometrischen Darstellungen aus den einzelnen Netzwerkzellen NWZ zu einer übergreifenden geometrischen Darstellung zusammen, welche in der Anzeigeschicht VL dem Benutzer als Übersichtsbild dargestellt wird. Die Anzeigeschicht VL benötigt für diese Aufgabe keine Konfigurationsdaten. Die Vereinigungsschicht AL besitzt lediglich die Information wie die einzelnen geometrischen Darstellungen zu einer übergreifenden geometrischen Darstellung zusammengefügt werden.
  • Da der grösste Teil der Konfigurationsdaten und möglichst viel der Logik in den Netzwerkzellen NWZ vorhanden sind, ist es einerseits einfacher ein releaseunabhängiges Protokoll zwischen den Netzwerkzellen NWZ und den Netzwerkarbeitspläten AP1 bis AP3 zu defieren und es können andererseits die Konfigurationsdaten klar einer Netzwerkzelle NWZ zugeordnet werden. Aus welchen Netzwerkzellen NWZ und auf welche Art die Informationen für die Anzeige kommen, wird durch die Vereinigungsschicht AL gegenüber der Anzeigeschicht VL vollständig gekapselt und lässt sich somit vereinheitlichen. Jegliche Kenntnis der Anzeigeschicht VL über die hinter der Vereinigungsschicht AL liegende Topologie der Netzwerkzellen NWZ und ihrer Server ist demzufolge für die Anzeigeschicht VL nicht notwendig. Durch diese Architektur des Netzwerks NW sind daher für die Oberflächen der Anzeigeschicht VL und der Präsentationsschicht PL strikt aufgetrennt. Die eigentliche Anzeige (View) wird so von der Anzeige-Logik (Präsentation) getrennt. Der View-Client VC braucht keine Anzeige-Logik (Presentation) mehr und hat somit keine Abhängigkeiten auf die Konfigurationsdaten der verschiedenen Netzwerkzellen NWZ.
  • Die Anzeige-Logik (Presentation) wird von einem Anzeige-Server MXVS in der Netzwerkzelle NWZ realisiert. Der Anzeige-Server MXVS bereitet die Anzeige für den View Client VC komplett auf. Damit der View Client VC mit mehreren Servern kommunizieren kann, wird der Aggregator AG zwischen dem View Client VC und dem Anzeige-Server MXVS vorgesehen. Der View Client VC kommuniziert so nur über den Aggregator AG mit den entsprechenden Anzeige-Servern MXVS mehrerer Netzwerkzellen NWZ.
  • Innerhalb der Präsentationsschicht PL gibt es auch Fälle, in welchen nicht zwingend ein Anzeige-Server MXVS nötig ist, weshalb es neben dem Anzeige-Server MXVS auch noch das Konzept eines Access Points AP gibt. Der Anzeige-Server MXVS bereitet die Information bedarfsgerecht für einen View Client VC auf. Von einem Anzeige-Server MXVS existiert eine Instanz pro View Client VC und Netzwerkzelle NWZ. Der Server des View Clients VC ist stateful, d.h. sein Zustand ist abhängig vom Arbeitsplatz AP1 bis AP3, für welchen er die Daten aufbereitet. Der Anzeige-Server MXVS ist daher eine umgebaute Aufgabe der im Stand der Technik bekannten und eingangs erwähnten einzelnen Leittechniksysteme. Der Access Point AP bietet eine generelle Schnittstelle zum Netzwerk NW bezüglich einer Funktion, wie zum Beispiel Zugdaten und Zugnummmer. Im Vordergrund steht es, eine Schnittstelle zu definieren, welche von beliebigen Clients, die die entsprechenden Informationen benötigen, verwendet wird. Der Access Point AP ist daher im Kontext eines Client zu weiten Teilen stateless, d.h. sein Zustand ist von den mit ihm verbundenen Arbeitsplätzen AP1 bis AP3 unabhängig, und speichert pro Client primär, welche Informationen dieser wünscht. Der Access-Point AP kann so einen Teil der Anzeige-Logik (Presentation) übernehmen. Er bietet somit einen Zugang zu einem definierten Satz von Informationen, welche nicht spezifisch für einen Arbeitsplatz AP1 bis AP3 aufbereitet sind.
  • Der View Client VC, welcher logisch in der Anzeigeschicht angeordnet ist, existiert einmal pro Benutzersession. Der Anzeige-Server MXVS existiert einmal pro Benutzersession und Netzwerkzelle NWZ und bereitet die Information für den entsprechenden Benutzer auf. Der Aggregator AG existiert für jede Benutzersession einzeln, da für jeden View Client VC unterschiedliche Informationen zusammengesetzt werden müssen.
  • Der Access Point AP existiert einmal pro Netzwerkzelle NWZ, und dabei in zwei redundanten Instanzen, um die Verfügbarkeit zu erhöhen.
  • Viele der Informationen, welche die Netzwerkzelle NWZ aufbereitet, werden von anderen Systemen (Stellwerk STW, Aussenanlagen UA1 bis Un2) ) bezogen. Wenn die Netzwerkzelle NWZ gestartet wird, werden diese Informationen von diesen externen Systemen über eine Generalabfrage bezogen werden. Es gibt aber auch Informationen, welche nur in der Netzwerkzelle NWZ gespeichert sind und welche nicht von einem externen System bezogen werden können. Diese Informationen müssen auch nach einem Neustart von der Netzwerkzelle NWZ oder einzelnen Aufgaben noch vorhanden sein. Darum sind diese Informationen oft persistent (in Datenbank, Files) gespeichert und/oder werden zwischen Haupt-, Spiegel- und Passiv-Laufzuständen der Aufgaben abgeglichen. Wenn ein Zellenmolekül pZM im nichtoperativ aktiven Zustand gestartet wird, werden die von der Netzwerkzelle NWZ verwalteten Daten vom operativ aktiven Zellenmolekül aZM bezogen. Die Schnittstelle, mit welcher die von der Netzwerkzelle verwalteten Daten (d.h. auch globale Daten, auf die die Netzwerkzelle zugreift, die aber nicht in ihrer Instanz gespeichert sind) zwischen den Zellenmolekülen abgeglichen werden, ist releaseunabhängig ausgestaltet.
  • Während der Zeit, in der mehrere Zellemoleküle aZM, pZM laufen, müssen diese Daten synchron gehalten werden. Im Falle des Printermanangements werden die Daten zusammengeführt, damit am Schluss alle Protokolleinträge beider Zellenmoleküle aZM, pZM vorhanden sind. Bei den Protokolleinträgen ist ersichtlich, aus welchem der Zellenmolekül aZM und pZM diese stammen.
  • Zur Anpassung der Schnittstellen ist nun anzumerken, dass viele der externen Schnittstellen so ausgelegt sind, dass das externe Umsystem mit genau einer Netzwerkzelle NWZ kommuniziert. Wenn nun in einer Netzwerkzelle NWZ mehrere Zellenmoleküle aZM, pZM laufen, müssen aber trotzdem alle Zellenmoleküle mit diesem externen System kommunizieren können. Dazu ist eine Schnittstellenaufgabe geschaffen worden, welche in einem eigenen Schnittstellen-Molekül SM läuft. Diese Schnittstellenaufgaben sind im Schnittstellen-Molekül SM konfigurierbar und setzen das externe Protokoll gemäss der gewählten Konfiguration in ein internes Protokoll um und verteilen die Informationen an die einzelnen Zellenmoleküle aZM, pZM. Diese Schnittstellenaufgaben werden als eigener Layer, den Interface Dispatcher Layer IDL, betrieben, der aber zur eigentlichen Schnittstellenschicht IL logisch hinzugerechnet wird. Der Interface Dispatcher Layer selbst kommt nahezu ohne Konfigurationsdaten aus. Die Schnittstelle zwischen dem Interface Dispatcher Layer IDL und den Zellenmolekülen aZM, pZM ist releaseunabhängig, sodass diese beiden Zellenmoleküle aZM, pZM mit unterschiedlichen Releases betrieben werden können.
  • Wenn gewisse externe Systeme ES (vgl. Fig.3), wie Fahrgastinformationsanzeige (FIA), Funkzentrale oder Resourcenmanagement an dem Netzwerk NW angebunden werden, ist die Architektur so ausgestaltet, dass sich diese nicht um die Aufteilung auf Netzwerkzellen NWZ kümmern müssen, sodass dies erlaubt, die Aufteilung in Netzwerkzellen NWZ zu verändern, ohne dass dabei das externe System betroffen ist. Weiter muss in die externen Systeme, welche mit nur einer Netzwerkzelle NWZ arbeiten, keine zellenübergreifende Logik eingebaut werden, damit diese mit mehreren Netzwerkzellen NWZ arbeiten können. Das Netzwerk NW umfasst hierzu ja in Form des Aggregators AG bereits die Logik, um Daten aus verschiedenen Netzwerkzellen NWZ zusammenzuführen. Diese Logik wird entsprechend auch für die Anbindung von zellenübergreifenden externen Systemen ES, die über eine separate Schnittstelle SA, die auch einen Applikationsadapter umfassen kann, am Aggregator AG ankoppeln, verwendet.
  • Weiter stellt das Netzwerk NW zellenübergreifende Schnittstellen SA zur Verfügung. Die Schnittstellen SA zu den externen Systeme ES ist mittels allgemeingültigem Services definiert. Ein Service stellt eine definierte Schnittstelle dar, über welche ein Set von Informationen bidirektional zwischen den externen Systemen und dem Netzwerk NW ausgetauscht wird. Damit wird erreicht, dass derselbe Service von verschiedenen externen Systemen verwendet werden kann. Ein Beispiel ist ein Zugnummer-Service, über welchen alle Zugnummer-Fortschaltungen an interessierte externe Systeme gesendet werden bzw. Zugnummeroperationen von den externen Systemen entgegen genommen werden. Diese Services sind im Netzwerk NW vorgegeben und das externe System ES muss die vom Netzwerk NW vorgegebene Schnittstelle SA implementieren. Da dies nicht immer möglich ist, unterstützt das Netzwerk NW auch weiterhin spezifische Schnittstellen für bestimmte externe Systeme ES, falls eine bereits heute vorhandene Schnittstelle zellenübergreifend funktionieren soll und/oder falls das Netzwerk eine Schnittstelle unterstützen soll, welche von einem externen System ES vorgegeben ist.
  • Für beide Fälle werden spezielle Adapter geschrieben, um ein bestimmtes Interface zu implementieren. Der Adapter greift über die Services auf das Netzwerk NW zu. Eine solche Schnittstelle wird, falls das externe System nicht Teil des geschlossenen Netzwerkes NW ist, über einen Proxy Server angeschlossen.
  • Weiter zeigt Figur 3 die Verwaltung von verschiedenen globalen Daten GD im Netzwerk NW. Hier sind zu nennen:
    • Benutzerdaten, Informationsbereiche, Drucker usw... (von jedem Arbeitsplatz AP1 bis AP3 benötigt)
    • Informationen, wie Daten aus einzelnen Netzwerkzellen NWZ zusammengehören, wie z.B. Grenzgleisfeldtabelle (betreffen den Arbeitsplatz AP 1 bis AP3 und die Netzwerkzellen NWZ)
    • Definitionen für den Aggregator AG, wie Definition der Übersichtsbilder.
  • Diese globalen Daten GD werden nicht einer Netzwerkzelle NWZ zugeordnet, weil diese globalen Daten jedem Arbeitsplatz AP1 bis AP3 und jeder Netzwerkzelle NWZ zur Verfügung stehen müssen und eine Aufteilung erhebliche Schwierigkeit bei der Datenverwaltung liefern würden.Die globalen Daten GD können in zwei Kategorien unterteilt werden:
    • Globale persistente Netzwerk-Daten:
      • Daten, welche durch das Netzwerk NW selbst verwaltet werden, dass heisst die Netzwerk-Software erzeugt, ändert und löscht diese Daten selbst.
    • Globale Konfigurationsdaten
      Diese Daten enthalten globale Konfigurationsinformationen und werden von der Netzwerk-Software nur gelesen.
  • Dabei sei an dieser Stelle noch einmal explizit darauf hingewiesen, dass die Netzwerk-Software nicht mit der Netzwerkzellen-Software verwechselt werden darf. Für die globalen persistenten Daten werden bei Änderungen alte Stände gespeichert, wodurch bei einer Fehlmanipulation eines Administrators das Zurückgehen auf einen alten Stand möglich ist. Die globalen Konfigurationsdaten können offline erstellt werden und dann in die globalen Daten GD eingespielt werden. Um eine weiche Migration sowie den unterbruchfreien Update zu ermöglichen, sind daher verschiedene Stände der globalen Konfigurationsdaten verfügbar, welche zu unterschiedlichen Zellenkonfigurationen, d.h. zu unterschiedlichen Versionen der Zellen-Software inkl. der hierzu erforderlichen Daten passen.
  • Fig. 4 zeigt beispielhaft den Aufbau des physikalischen Gesamtsystems. Jede Netzwerkzelle NWZ hat ein eigenes Ethernet-LAN. Am Ethernet angeschlossen sind Zellenserver, zellenlokale Arbeitsplätze L, zellenlokale Drucker, Terminalserver, ISDN-Router zu den ILOK und zu externen Systemen. Auf diesem Ethernet-LAN werden IP, DECnet und LAT als Protokolle verwendet. Diese Gesamtheit der Komponenten, die logisch innerhalb einer Netzwerkzelle NWZ angeordnet sind, bildet ein Zellenrechnersystem Z-RS A, Z-RS B. Die Arbeitsplätze AP1 bis AP3 und Drucker an einem Leitstellen-Standort LT und im regionalen Kontrollzentrum RCC sind jeweils an einem oder mehreren Ethernet-LAN angeschlossen. Auf diesem Arbeitsplatz-LAN wird nur IP verwendet, also kein DECnet und kein LAT. Diese Gesamtheit der Komponenten, die logisch dem Leitstellen-Standort zugeordnet sind, bildet ein Leitstellenrechnersystem LT-RS.
  • Es werden Drucker mit jeweils einem eigenen Print-Server verwendet, und direkt an das Ethernet-LAN angeschlossen. Für einfache Drucker können separate externe Print-Server benutzt werden, und für Hochleistungs-Drucker sind grösstenteils interne Print-Server als Option möglich. Durch diese Vorgehensweise sind alle Drucker von allen Arbeitsplätzen AP1 bis AP3 und allen Netzwerkzellen NWZ erreichbar, und es gibt auch keinen zentralen Print-Server. Ein zellenlokaler Arbeitsplatz L ist so konfiguriert, dass er nur mit der entsprechenden Netzwerkzelle NWZ arbeitet und wird bei einem Ausfall des Netzwerkes NW als letztes Rückfallelement gebraucht. Dieser Arbeitsplatz L ist daher so konfiguriert, dass er als zellenlokaler Arbeitsplatz L eingesetzt werden kann.
  • In einem möglichen Ausführungsbeispiel gemäss der Figur 4 können an einem Leitstellen-Standort LT mehrere Zellen-LAN und normalerweise ein Arbeitsplatz-LAN vorhanden sein. Im RCC ist ein oder mehrere Arbeitsplatz-LAN vorhanden. Die einzelnen Standorte sind mit einem IP-Netzwerk verbunden. Dabei sind die Router, welche an jedem Standort vorhanden sind, redundant ausgestattet, um Ausfälle derartiger Komponente sofort kompensieren zu können. Das so gebildete IP-Netzwerk mit allen LAN zusammen ist ein nach der Eisenbahn-Norm EN50159-1 geschlossenes Netzwerk NW. Diese Voraussetzung macht es möglich, dass der Datenverkehr zwischen den einzelnen Netzwerkzelle NWZ und der Leitstelle LT sowie sonstiger innerhalb des Netzwerks NW angeordneter Komponenten nicht verschlüsselt werden muss. Damit die an den Arbeitsplätzen AP1 bis AP3 laufende Software mit dem Präsentationsserver MXVS und den AccessPoints AP kommunizieren kann und damit auch die Querkommunikation QK zwischen den Netzwerkzellen NWZ stattfinden kann, gibt es in dem Netzwerk NW ein Kommunikationsframework. Wie schon beschrieben, bietet das Netzwerk NW bietet auch Schnittstellen SA für externe Systeme ES. Diese Schnittstellen SA werden durch einen Schnittstellen Server realisiert. Befinden sich die externen Systeme ES innerhalb des geschlossenen Netzwerkes NW, können sie direkt auf den Schnittstellen Server zugreifen. Befinden sich die externen Systeme ES dagegen ausserhalb des geschlossenen Netzwerkes NW, ist dies nicht ohne weiteres möglich.
  • Aus Sicherheitsgründen werden für folgende Fälle Vorkehrungen getroffen:
    • Eindringen von sicherheitskritischen Meldungen Grundsätzlich wird jedes Eindringen von sicherheitskritschen Meldungen in das geschlossene Netzwerk NW verhindert, welche sicherheitskritsche Funktionen im Netzwerk NW auslösen könnten. Dabei können sicherheitskritsche Meldungen entweder durch Kommunikationsfehler entstehen, aber auch durch ein bereits kompromittiertes externes System ES. In die Gegenrichtung, d.h. vom Netzwerk NW zum externen System ES, werden keine Einschränkungen bezüglich des Meldungstransports benötigt.
    • Intelligente Angriffe durch Hacker, Viren, Würmer, usw. Weiterhin müssen alle Formen von intelligenten Angriffen abgewehrt werden, welche zur Kompromittierung von einzelnen Rechnern innerhalb des geschlossenen Netzwerkes NW führen könnten.
  • Damit das Netzwerk NW entsprechend der Norm EN50159-1 weiterhin als geschlossenes Netzwerk NW betrachtet werden kann, ist ein zusätzlicher Schnittstellen Proxy Server vorgesehen, welcher die Kommunikation mit dem Schnittstellen Server von einem unsicheren Netzwerk her ermöglicht. Der Schnittstellen Server ist am geschlossenen Netzwerk NW angeschlossen und bietet die zellenübergreifenden Schnittstellen als allgemeingültige Services an. Vertrauenswürdige externe Systeme ES, welche sich innerhalb des geschlossenen Netzwerkes NW befinden, können direkt auf den Schnittstellen Server zugreifen. Dagegen ist der Schnittstellen Proxy Server am unsicheren Netzwerk angeschlossen. Dieser bietet die Services des Schnittstellen Server als Proxy an, d.h. er wirkt nach aussen wie der Schnittstellen Server, leitet die Meldungen aber nur einfach an den Schnittstellen Server weiter. Der Schnittstellen Proxy Server bietet nur ein genau definiertes Subset der Schnittstellen des Schnittstellen Servers an. Das Schnittstellen-Subset umfasst nur die Bestandteile, welche auch von potentiell nicht vertrauenswürdigen externen Systemen genutzt werden dürfen.
  • Zusätzlich umfassen der Schnittstellen Server und der Schnittstellen Proxy Server jeweils zwei Netzwerkkarten. Jeweils eine Netzwerkkarte verbindet den Schnittstellen Server mit dem geschlossenen Netzwerk NW bzw. den Schnittstellen Proxy Server mit dem unsicheren Netzwerk. Die jeweils andere Netzwerkkarte verbindet Schnittstellen Server und Schnittstellen Proxy Server über ein separates Ethernet-LAN. Das externe System ES ist mit dem Schnittstellen Proxy Server über ein Firewall angeschlossen. Dieser Firewall gibt nur die unbedingt notwendigen Kommunikationsdienste frei, und erlaubt nur Verbindungen mit bekannten Rechnern.
  • Falls nun aber doch das Problem auftreten sollte, dass das externe System ES nicht direkt mit den vom Netzwerk NW angebotenen Schnittstellen arbeiten kann, wird ein weiterer Adapter erstellt. Dieser Adapter wird auf dem externen System ES realisiert. Weiterhin wird zwischen dem Schnittstellen Proxy und der eigentlichen Schnittstelle ein Meldungsfilter eingesetzt. Dieses Meldungsfilter versteht die Bedeutung der Meldungen, und lässt nur die als ungefährlich eingestuften Meldungen durch. Welche Meldungen als ungefährlich eingestuft werden, ist frei konfigurierbar. Jedes Auftreten einer potentiell gefährlichen Meldung wird protokolliert. Das Meldungsfilter ist sowohl im Schnittstellen Server als auch im Schnittstellen Proxy Server realisiert. Das Meldungsfilter ist in beiden Servern identisch, und beide Server überwachen gegenseitig die korrekte Funktionsweise des Meldungsfilters. Dabei ist es im vorliegenden Ausführungsbeispiel vorgesehen, dass aufgetretene Fehler des Meldungsfilters innerhalb einer Ausfalloffenbarungszeit von einer Stunde offenbart werden.
  • Für die gegenseitige Überwachung von Schnittstellen Server und Schnittstellen Proxy Server wird folgendes Verfahren angewendet:
    • Jeder Server sendet einen Prüfauftrag mit einer eindeutigen Transaktions-ID an seinen Partner. Der Empfänger des Prüfauftrages ermittelt aus den Programm- und Konfigurations-Dateien des Meldungsfilters eindeutige Prüfsummen. Die berechneten Prüfsummen werden zusammen mit der empfangenen Transaktions-ID an den Sender des Prüfauftrages zurückgeschickt. Der Sender des Prüfauftrages berechnet ebenfalls eindeutige Prüfsummen über die Programm- und Konfigurations-Dateien seines Meldungsfilters. Der Sender vergleicht die selbstberechneten Prüfsummen mit den empfangenen Prüfsummen. Die Prüfzyklen werden jeweils auf dem Schnittstellen Proxy Server und dem Schnittstellen Server unabhängig voneinander gesteuert und regelmässig wiederholt. Auf dem Schnittstellen Proxy Server und dem Schnittstellenserver wird jeweils ein Ausfalloffenbarungs-Timer gestartet, welcher unter folgenden Bedingungen wieder neu gestartet wird:
      • Die selbstberechneten Prüfsummen müssen identisch mit den empfangenen Prüfsummen sein. Nach dem letzten Neustart des Ausfalloffenbarungs-Timers muss mindestens ein Prüfauftrag von dem anderen Server empfangen worden sein. Um nicht erfolgreiche Prüfzyklen wiederholen zu können, werden die Prüfzyklen in der Zeitdauer des Ausfalloffenbarungs-Timers mehrmals wiederholt. Falls der Ausfalloffenbarungs-Timer auf einem Server abläuft, wird dies protokolliert und der Server stellt sich sofort ab. Damit kann dann auch der andere Server seine Prüfzyklen nicht mehr erfolgreich abschliessen, und wird sich nach Ablauf seines Ausfalloffenbarungs-Timers auch abstellen. Die Server lassen sich automatisch nicht wieder starten, sondern müssen manuell wieder neu gestartet werden.
  • Für die Kommunikation zwischen dem Schnittstellen Proxy Server und dem Schnittstellen Server werden nur die unbedingt notwendigen Kommunikationsdienste freigegeben, alle anderen Dienste werden gesperrt. Falls ein Kommunikationsversuch auf einem nicht freigegebenen Dienst festgestellt wird, wird dies protokolliert und der empfangene Server stellt sich sofort ab. Zwischen Schnittstellen Server und Schnittstellen Proxy Server wird noch ein zusätzliches Firewall geschaltet. Dieser Firewall gibt nur die unbedingt notwendigen Kommunikationsdienste frei, und erlaubt nur Verbindungen zwischen den beiden Servern. Falls entweder der Schnittstellen Server oder der Schnittstellen Proxy Server einen Eindringversuch auf einen freigegebenen Kommunikationsdienst festgestellt, wird dies protokolliert und der empfangene Server stellt sich sofort ab.
  • Auf diese Weise wird den hohen Sicherheitsanforderungen, die bespielsweise immer dann gelten, wenn Gefahr für Menschen bestehen kann (dies ist grundsätzlich im eisenbahntechnischen Umfeld immer gegeben), hinreichend Rechnung getragen.
  • Das vorstehend bespielhaft für ein netzweites Eisenbahnleitsystem beschriebene Netzwerk NW bzw. dessen Architektur und sowie die verschiedenen innerhalb der Architektur vorgenommenen logischen Gruppierungen und Verfahren zum sicheren Datenaustausch, insbesondere mit ausserhalb des sicheren Netzwerks NW angeordneten externen Systemen ES lassen sich ebenso in den Bereichen der Telekommunikation, Netzleittechnik in der Energieverteilung und im Strassen- und Luftverkehr sowie allen komplexeren Prozessen zur Steuerung des Gesamtprozesses einsetzen.

Claims (7)

  1. Leitsystem (NW) für die Steuerung und/oder Überwachung von Objekten, die auf einem in eine Anzahl von Netzwerkzellen (NWZ) unterteilten Verkehrsnetzwerk, verkehren, insbesondere Leitsystem für ein in regionale Bereiche unterteiltes Eisenbahnnetzwerk, welches die folgende Komponenten umfasst:
    a) für jede Netzwerkzelle (NWZ) ein Zellenleitsystem, das mittels eines Zellenrechnersystems (Z-RS A, Z-RS B) der jeweiligen Netzwerkzelle (NWZ) zugeordnete und den Verkehr im wesentlichen innerhalb dieser Netzwerkzelle (NWZ) beeinflussende und/oder überwachende Umsysteme (STW A bis STW n, UA1 bis Un1, UA2 bis Un2), wie z.B. Stellwerke, Weichen, Signale, Gleisfreimelder, Achszähler, stellt und/oder überwacht, wobei das Zellenrechnersystems (Z-RS A, Z-RS B) über Schnittstellen (S) Daten erhält und/oder ausgibt;
    b) eine netzwerkweit wirksame Leitstelle (LT) mit Bedienplätzen (AP1 bis AP3), die mittels eines Leitstellenrechnersystems (LT-RS) von den Zellenrechnersystemen (Z-RS A, Z-RS B) über die Schnittstellen (S) erhaltene Daten bearbeiten und/oder Daten über die Schnittstellen (S) an die Zellenrechnersysteme (Z-RS A, Z-RS B) ausgeben;
    c) wobei für ein Gesamtrechnersystem, das die Zellenrechnersysteme (Z-RS A, Z-RS B) und das Leitstellenrechnersystem (LT-RS) umfasst, ein fünf-schichtiger logischer Aufbau mit einer Schnittstellenschicht (IL, IDL), einer Arbeitsschicht (BL), einer Präsentationschicht (PL), einer Vereinigungsschicht (AL) und einer Anzeigeschicht (VL) vorgesehen ist; wobei
    c1) die Schnittstellenschicht (IL, IDL) logischer Bestandteil der jeweiligen Zellenrechnersysteme (Z-RS A, Z-RS B) ist und Daten von den Umsystemen (STW A bis STW n, UA1 bis Un1, UA2 bis Un2) aufnimmt und an die Arbeitsschicht (BL) leitet und/oder Daten von der Arbeitsschicht (BL) erhält und diese an die Umsysteme (STW A bis STW n, UA1 bis Un1, UA2 bis Un2) ausgibt,
    c2) die Arbeitsschicht (BL) logischer Bestandteil der jeweiligen Zellenrechnersysteme (Z-RS A, Z-RS B) ist und von der Schnittstellenschicht (IL, IDL) und/oder der Präsentationsschicht (PL) erhaltene Daten in einer Zellenlogik zellenspezifisch verarbeitet und an die Schnittstellenschicht (IL, IDL) und/oder die Arbeitsschicht (BL) ausgibt,
    c3) die Präsentationsschicht (PL) logischer Bestandteil der jeweiligen Zellenrechnersysteme (Z-RS A, Z-RS B) ist und von der Arbeitsschicht (BL) erhaltene Daten für die Anzeigeschicht (VL) aufbereitet und an die Vereinigungsschicht (AL) ausgibt und/oder von der Vereinigungsschicht (AL) erhaltene Daten für die Arbeitsschicht (BL) aufbereitet und an diese ausgibt,
    c4) die Vereinigungsschicht (AL) logischer Bestandteil des Leitstellenrechnersystems (LT-RS) ist und die von den Präsentationsschichten (PL) der Zellenrechnersysteme (Z-RS A, Z-RS B) erhaltenen Daten vereinigt und zur Darstellung eines vereinigten Datenabbildes für die Anzeigeschicht (VL) aufbereitet und/oder von der Anzeigeschicht (VL) erhaltene Daten hinsichtlich ihrer Zugehörigkeit zu der Anzahl der Netzwerkzellen (NWZ) auflöst und an die Präsentationsschicht (PL) des entsprechenden Zellenrechnersystems (Z-RS A, Z-RS B) ausgibt, und
    c5) die Anzeigeschicht (VL) logischer Bestandteil des Leitstellenrechnersystems (LT-RS) ist und von der Vereinigungsschicht (AL) erhaltene Daten an den Bedienplätzen (AP1 bis AP3) darstellt und/oder an den Bedienplätzen (AP1 bis AP3) erhaltene Daten an die Vereinigungsschicht (AL) ausgibt.
  2. Leitsystem nach Anspruch 1,
    dadurch gekennzeichnet, dass
    die Vereinigungsschicht (AL) zusätzlich eine Schnittstelle umfasst, über die Daten ähnlich wie an die Anzeigeschicht an weitere Umsysteme (STW A bis STW n, UA1 bis Un1, UA2 bis Un2) ausgebbar sind und/oder über die Daten von weiteren Umsystemen (STW A bis STW n, UA1 bis Un1, UA2 bis Un2), ähnlich wie von der Anzeigeschicht erhaltene Daten, zur entsprechenden Weiterbehandlung erhaltbar sind.
  3. Leitsystem nach Anspruch 1 oder 2,
    dadurch gekennzeichnet, dass
    in der Vereinigungsschicht (AL) ein Aggregator (AG) vorgesehen ist, der für alle Bedienplätze (AP1 bis AP3) gleich ausgestaltet ist und auf einem Bedienplatzrechner, der Bestandteil des Leitstellenrechnersystems ist, ausführbar ist.
  4. Leitsystem nach Anspruch 3,
    dadurch gekennzeichnet, dass
    der Aggregator (AG) eine Auswahllogik umfasst, mit der speziell vorgebbare Datengruppen und/oder von speziell vorgebbaren Umsystemen (STW A bis STW n, UA1 bis Un1, UA2 bis Un2) stammende Daten zu deren Aufbereitung an den Bedienplätzen (AP1 bis AP3) auswählbar sind.
  5. Leitsystem nach einem der Ansprüche 1 bis 4,
    dadurch gekennzeichnet, dass
    eine Datenbank mit globalen Netzwerkdaten vorgesehen ist, die mit der Vereinigungsschicht (AL) und/oder der Arbeitsschicht (BL) diese Netzwerkdaten austauscht.
  6. Leitsystem nach einem der Ansprüche 1 bis 5,
    dadurch gekennzeichnet, dass
    aus der Arbeitsschicht (BL) heraus Datenverbindungen zwecks Querkommunikation (QK) zwischen Netzwerkzellen (NWZ A bis NWZ n) vorgesehen sind.
  7. Leitsystem nach einem der Ansprüche 1 bis 6,
    dadurch gekennzeichnet, dass
    in der Schnittstellenschicht (IL) ein Datendispatcher (SM) vorgesehen ist, der zur Zuordnung der von den Umsystemen (STW A bis STW n, UA1 bis Un1, UA2 bis Un2) erhaltenen Daten zu verschiedenen Zellenmolekülen (aZM, pZM) innerhalb einer Netzwerkzelle (NWZ A) konfigurierbar ist.
EP05001889A 2005-01-31 2005-01-31 Leitsystem für die Steuerung und/oder Überwachung von Objekten Withdrawn EP1686036A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP05001889A EP1686036A1 (de) 2005-01-31 2005-01-31 Leitsystem für die Steuerung und/oder Überwachung von Objekten
DE502005006723T DE502005006723D1 (de) 2005-01-31 2005-11-04 Leitsystem für die steuerung und/oder überwachung von objekten
PCT/EP2005/011827 WO2006081849A1 (de) 2005-01-31 2005-11-04 Leitsystem für die steuerung und/oder überwachung von objekten
AT05800660T ATE423715T1 (de) 2005-01-31 2005-11-04 Leitsystem für die steuerung und/oder überwachung von objekten
EP05800660A EP1843929B1 (de) 2005-01-31 2005-11-04 Leitsystem für die steuerung und/oder überwachung von objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP05001889A EP1686036A1 (de) 2005-01-31 2005-01-31 Leitsystem für die Steuerung und/oder Überwachung von Objekten

Publications (1)

Publication Number Publication Date
EP1686036A1 true EP1686036A1 (de) 2006-08-02

Family

ID=34933511

Family Applications (2)

Application Number Title Priority Date Filing Date
EP05001889A Withdrawn EP1686036A1 (de) 2005-01-31 2005-01-31 Leitsystem für die Steuerung und/oder Überwachung von Objekten
EP05800660A Active EP1843929B1 (de) 2005-01-31 2005-11-04 Leitsystem für die steuerung und/oder überwachung von objekten

Family Applications After (1)

Application Number Title Priority Date Filing Date
EP05800660A Active EP1843929B1 (de) 2005-01-31 2005-11-04 Leitsystem für die steuerung und/oder überwachung von objekten

Country Status (4)

Country Link
EP (2) EP1686036A1 (de)
AT (1) ATE423715T1 (de)
DE (1) DE502005006723D1 (de)
WO (1) WO2006081849A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2261801A1 (de) 2009-06-12 2010-12-15 Siemens Schweiz AG Verfahren zum unterbrechungsfreien Update einer Master-Datenbank und der zugehörigen Slave-Datenbanken
CN114574495A (zh) * 2020-12-01 2022-06-03 上海交通大学医学院附属仁济医院 核苷类衍生物改性的核酸适体r50

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627955B (zh) * 2021-08-11 2023-06-20 中国城市规划设计研究院 一种铁路溯源分析系统及方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BARKE S ET AL: "LEITSYSTEME VON SIEMENS FUER BETRIEBSZENTRALEN", SIGNAL + DRAHT, TELZLAFF VERLAG GMBH. DARMSTADT, DE, vol. 93, no. 4, April 2001 (2001-04-01), pages 5 - 11, XP001206498, ISSN: 0037-4997 *
BREU S ET AL: "LEIDIS-N - NETZDISPOSITION IN DER NETZLEITZENTRALE DER DB AG IN FRANKFURT", SIGNAL + DRAHT, TELZLAFF VERLAG GMBH. DARMSTADT, DE, vol. 95, no. 6, June 2003 (2003-06-01), pages 14 - 19, XP001206496, ISSN: 0037-4997 *
HEINRICHS A: "BETRIEBSZENTRALEN: PROJEKTIEREN, TESTEN UND AUSBILDEN AN DER TIA", SIGNAL + DRAHT, TELZLAFF VERLAG GMBH. DARMSTADT, DE, vol. 96, no. 12, December 2004 (2004-12-01), pages 22 - 26, XP001206495, ISSN: 0037-4997 *
HEINRICHS A: "TELEMATIK-AUFRUESTUNG VON HEUTIGEN BETRIEBSZENTRALEN FUER DIE FERNSTEUERUNG", ETR EISENBAHNTECHNISCHE RUNDSCHAU, HESTRA-VERLAG. DARMSTADT, DE, vol. 52, no. 7/8, July 2003 (2003-07-01), pages 434 - 442, XP001206564 *
POHLMANN P: "BETRIEBSZENTRALEN- UND ESTW-PLANUNGEN DER DB NETZ AG", ETR EISENBAHNTECHNISCHE RUNDSCHAU, HESTRA-VERLAG. DARMSTADT, DE, vol. 51, no. 7/8, July 2002 (2002-07-01), pages 410 - 416, XP001206494 *
WALTHER H: "DIE BETRIEBSLEITTECHNIK DER DEUTSCHEN BUNDESBAHN", ZEITSCHRIFT FUR EISENBAHNWESEN UND VERKEHRSTECHNIK. DIE EISENBAHNTECHNIK + GLASERS ANNALEN, GEORG SIEMENS VERLAGSBUCHHANDLUNG. BERLIN, DE, vol. 116, no. 5, 1 May 1992 (1992-05-01), pages 148 - 153, XP000275718, ISSN: 0941-0589 *
WICKINGER T: "SICHERER DATENAUSTAUSCH ZWISCHEN DEN INTEGRITAETSBEREICHEN VON BETRIEBSZENTRALEN", ETR EISENBAHNTECHNISCHE RUNDSCHAU, HESTRA-VERLAG. DARMSTADT, DE, vol. 50, no. 6, June 2001 (2001-06-01), pages 355 - 359, XP001206493 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2261801A1 (de) 2009-06-12 2010-12-15 Siemens Schweiz AG Verfahren zum unterbrechungsfreien Update einer Master-Datenbank und der zugehörigen Slave-Datenbanken
CN114574495A (zh) * 2020-12-01 2022-06-03 上海交通大学医学院附属仁济医院 核苷类衍生物改性的核酸适体r50
CN114574495B (zh) * 2020-12-01 2024-04-09 上海交通大学医学院附属仁济医院 核苷类衍生物改性的核酸适体r50

Also Published As

Publication number Publication date
DE502005006723D1 (de) 2009-04-09
ATE423715T1 (de) 2009-03-15
EP1843929A1 (de) 2007-10-17
EP1843929B1 (de) 2009-02-25
WO2006081849A1 (de) 2006-08-10

Similar Documents

Publication Publication Date Title
DE60130285T2 (de) Reduntante Input/Output Management Einheit, insbesondere ein Wegewahlsystem
EP2838220B1 (de) Verfahren zur redundanten Nachrichtenübermittlung in einem industriellen Kommunikationsnetz und Kommunikationsgerät
EP0632617A2 (de) Verfahren und Einrichtung zur Unterstützung des Netzwerkmanagements
DE102018209407A1 (de) Verfahren und Vorrichtung zur Behandlung einer Anomalie in einem Kommunikationsnetzwerk
DE102009033215A1 (de) Netzwerkverwaltungs-System für ein Flugzeug
EP3102475B1 (de) Ersatz-ressource für einen defekten rechnerkanal eines schienenfahrzeugs
EP1978687A2 (de) Verfahren zur Konfiguration des Redundanzprotokolls auf Geräten in einem redundanten Ringnetzwerk
EP1119174A2 (de) Verfahren, Vermittlungsstelle, Gebührenrechner, Gebührenabrechnungsrechner und Programm-Module zur Verarbeitung von Gebührendaten für Telekommunikations-Dienstleistungen
EP3343303B1 (de) Funk-kommunikationssystem für ein industrielles automatisierungssystem, verfahren zu dessen betrieb
EP1308366B1 (de) Vorrichtung zur Rottenwarnung
EP1843929B1 (de) Leitsystem für die steuerung und/oder überwachung von objekten
DE102011086726B4 (de) Verfahren zur redundanten Kommunikation zwischen einem Nutzer-Terminal und einem Leitsystem-Server
EP2987280A1 (de) Soft-redundanzprotokoll
EP1675342B1 (de) Vorrichtung und Verfahren zur sicheren Fehlerbehandlung in geschützten Kommunikationsnetzen
EP1844396B1 (de) Verfahren zum unterbrechungsfreien software-update
EP3607437B1 (de) Verfahren zum konfigurieren zumindest eines geräts eines schienenfahrzeugs in einem netzwerk, computerprogramm und computerlesbares speichermedium
DE102016113322A1 (de) Slave-Steuerung für Ethernet-Netzwerk
DE102019207579A1 (de) Verfahren und Vorrichtung zum Überwachen von Datenaustausch in einem Kommunikationssystem
EP2645630A1 (de) Adaptives Remote-Service-Protokoll
DE102012220396B4 (de) System und Verfahren zur Wartung einer Werkzeugmaschine
EP3725061B1 (de) Verfahren zum betreiben eines kommunikationssystems sowie kommunikationssystem
DE102004017698A1 (de) SCADA-System
DE4137489C2 (de) Verfahren und Einrichtung zum zuverlässigen Steuern von Schaltgeräten einer Schaltanlage
EP1415452B1 (de) Kopplungsmittel für eine datenverarbeitungsvorrichtung
DE102023200912A1 (de) Vorrichtung zur Steuerung eines Verkehrssystems, stellbares Element eines Verkehrssystems, Verkehrssystem

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR LV MK YU

AKX Designation fees paid
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20070203

REG Reference to a national code

Ref country code: DE

Ref legal event code: 8566