DE19752792A1 - Einrichtung zur Selbstdiagnose von im wesentlichen sporadischen Fehlern in seriellen Übertragungssystemen - Google Patents
Einrichtung zur Selbstdiagnose von im wesentlichen sporadischen Fehlern in seriellen ÜbertragungssystemenInfo
- Publication number
- DE19752792A1 DE19752792A1 DE19752792A DE19752792A DE19752792A1 DE 19752792 A1 DE19752792 A1 DE 19752792A1 DE 19752792 A DE19752792 A DE 19752792A DE 19752792 A DE19752792 A DE 19752792A DE 19752792 A1 DE19752792 A1 DE 19752792A1
- Authority
- DE
- Germany
- Prior art keywords
- transmission
- error
- status information
- diagnostic
- tln1
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/50—Testing arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Description
Die Erfindung betrifft eine Einrichtung zur Diagnose
sporadischer Fehler in einem seriellen Übertragungssystem
Netzwerk, das eine Anzahl von Teilnehmern miteinander und
mit einer zentralen Diagnoseeinrichtung verbindet.
Im Zuge einer zunehmenden Dezentralisierung bei der
Automatisierung vielfältigster Aufgaben, wie Sprach-, Video-
und Datenübertragung, Fernsteuern und -regeln und
dergleichen über räumlich ausgedehnte Netze mit einer großen
Anzahl angeschlossener Netzwerkteilnehmer, kommt der
Selbstdiagnose eines Übertragungssystems eine immer größer
werdende Bedeutung zu. Aus diesem Grund hat man bereits
Einrichtungen und Verfahren geschaffen, die eine
Selbstdiagnose in derartigen Einrichtungen durchführen, die
bereits so differenziert sind, daß sie dem Netzwerkbetreiber
die Ursachen von Schwachstellen in seinem System selbständig
mitteilen, ohne dabei den sonst üblichen Einsatz externer
Hilfsmittel zu benötigen. Das Grundprinzip dieser Systeme
besteht darin, alle an das Netz angeschlossene Teilnehmer in
die Systemdiagnose einzubeziehen.
Die meisten bekannten Diagnoseverfahren und
-einrichtungen beruhen auf einer zentralen Überwachung des
Datenverkehrs, wobei die Einrichtung, welche die Überwachung
steuert, auch den Datenverkehr aufzeichnet und versucht aus
diesen Daten Rückschlüsse auf die Art und den Ort eines
aufgetretenen Fehlers zu gewinnen.
Wie Fig. 1 einer solchen bekannten Anordnung eines
Übertragungsnetzes ÜN, an das alle Teilnehmer Tln1 bis Tlnn
mittels Anschlußschaltungen AS1 bis ASn parallel
angeschlossen sind, zeigt, ist die Diagnoseeinrichtung DE
als zentrales Element für die Überwachung des Datenverkehrs
und die Auswertung der festgestellten Fehler vorgesehen und
über ihre Anschlußschaltung AS ebenfalls an das
Übertragungsnetz ÜN angeschaltet.
Wie Fig. 1 erkennen läßt, gibt es hier ein Problem,
wenn ein sporadischer Fehler F an der Stelle S1, d. h. auf
dem Streckenabschnitt des Übertragungsnetzes ÜN auftritt,
der die Teilnehmer Tln1 und Tln2 miteinander verbindet.
Sporadische Fehler, wie beispielsweise stochastische
Einbrüche von Störsignalen oder Entladungen
elektrostatischer Überspannungen in den Übertragungsnetzen,
haben die unangenehme Eigenschaft, daß sie meist nur
kurzzeitig und dabei auch noch völlig asynchron auftreten.
Dadurch ist es der Diagnoseeinrichtung DE zwar möglich den
Fehler zu festzustellen, aber nicht möglich den Ort seines
Auftretens zwischen Teilnehmer Tln1 und Teilnehmer Tln2 zu
lokalisieren.
Man hat deshalb auch ein anderes System entwickelt,
dessen Prinzip aus Fig. 2 hervorgeht und das diesen oben
dargestellten Nachteil vermeidet. Es handelt sich hierbei um
ein sogenanntes Master/Slave-System. In einem Master-/Slave-
System führt der Master nach einem festgestellten Fehler F
einen Diagnoselauf durch, um den Ort des Fehlers zu
lokalisieren. Bei diesem Verfahren läßt sich der Fehlerort
S2 eines sporadischen Fehlers, im Gegensatz zu einem harten
Fehler, jedoch nur dann ermitteln, wenn er während des
Diagnoselaufs noch aktiv ist. Ist der Fehler vorher
verschwunden, dann gibt es bei diesem Verfahren keine
Möglichkeit mehr, den Fehlerort zu bestimmen. Vermutlich ist
auch die Information über die Art des Fehlers nicht mehr zu
gewinnen.
Obwohl Systeme mit aktiver Teilnehmerankopplung, wie
in Fig. 2, die besten Voraussetzungen für eine
differenzierte Fehlerdiagnose bieten, sind die Störungen und
der Ort ihres Auftretens nicht mehr lokalisierbar, wenn sie
in eine Totzone fallen, die dort beginnt, wo die Netzwerk-
Update-Zeit (NUT) durch den Fehlereinfluß nicht mehr
einzuhalten ist (tNUT), und zu dem Zeitpunkt endet, der für
einen Diagnoselauf notwendig ist. Das bedeutet, daß alle
Fehler, die von ihrer Fehlerwirkzeit her in diese Totzone
fallen, prinzipbedingt nicht mehr lokalisiert werden können.
Fig. 3 veranschaulicht die Bandbreite B einer nicht
lokalisierbaren Störung, die in die Totzone mit den
erwähnten zeitlichen Grenzen fällt.
Da auch auf dem vorstehenden Prinzip beruhende
Verfahren und Anordnungen nicht in allen Fällen die
Lokalisierung von sporadischen Fehlern oder Störungen
erlauben, ist ihre Verwendung in Diagnoseeinrichtungen, die
mit absoluter Zuverlässigkeit alle auftretenden sporadischen
Fehler erkennen müssen, weil bestimmte Anwendungen dieses
erfordern, nicht für derartige Anwendungen geeignet. Es ist
daher die Aufgabe der vorliegenden Erfindung, eine
Diagnoseeinrichtung anzugeben, die alle auftretenden
Störungen erfassen und lokalisieren kann und damit für
Anwendungen mit höchsten Qualitätsansprüchen an die
Fehlersicherheit geeignet sind.
Gelöst wird diese Aufgabe durch die in Anspruch 1
angegebenen Merkmale. Weitere vorteilhafte Ausgestaltungen
und Weiterbildungen des Gegenstandes der Erfindung sind den
Unteransprüchen zu entnehmen.
Hierdurch wird die Möglichkeit gegeben, eine
lückenlose Fehlerdiagnose in Übertragungsnetzwerken auch für
Sporadische Fehler vorzunehmen.
Im folgenden wird die Erfindung an Hand der
beiliegenden Zeichnungen ausführlich beschrieben. Es zeigen:
Fig. 1 eine Prinzipdarstellung eines Netzwerkes mit
linearer Busstruktur und einer zentralen
Diagnoseeinrichtung,
Fig. 2 eine Prinzipdarstellung eines Master-/Slave-
Netzwerksystems mit aktiver Ankopplung der
Teilnehmereinrichtungen,
Fig. 3 eine Prinzipdarstellung der Bandbreite einer nicht
lokalisierbaren Störung,
Fig. 4 eine Prinzipdarstellung eines verteilten
Netzwerksystems mit dedizierten Fehlerdetektoren
gemäß der Erfindung,
Fig. 5 eine Prinzipdarstellung des Protokollaufbaus eines
dezentralen Teilnehmers nach dem ISO/OSI-
Referenzmodell und
Fig. 6 eine Prinzipdarstellung eines Teils eines
Protokollstapels,
Fig. 7 eine schematische Darstellung wie Ereignisse mit
niedriger Priorität in zyklischer
Reihenfolge abgearbeitet werden.
Nachstehend wird das erfindungsgemäße Prinzip
erläutert, das die oben erwähnten Nachteile bekannter
Verfahren und Anordnungen zur Fehlerdiagnose in verteilten
Netzen vermeidet.
Es liegt diesem Prinzip zugrunde, daß die Fehler oder
Störungen nicht mehr durch eine zentrale Diagnoseeinrichtung
erfaßt werden, wie es bei den oben beschrieben bekannten
Einrichtungen und Verfahren der Fall ist, sondern dezentral
an jedem Teilnehmer in diesem Netzwerk.
Durch die dadurch möglich gewordene gleichzeitige
Speicherung der Fehler in allen Teilnehmereinrichtungen
entfällt die Totzone, in der Fehler nicht erfaßt werden
konnten.
Um dieses zu realisieren, werden, wie Fig. 4 zeigt,
in jeder Teilnehmereinrichtung und der Mastereinrichtung
Fehlerdetektoren FD vorgesehen, die dezentral
Fehlerprüfungen auf den unterschiedlichen Protokollebenen,
typischerweise auf der Schicht-1 und Schicht-2 von insgesamt
sieben Protokollschichten des verwendeten
Übertragungsverfahrens vornehmen.
Hierzu zeigt Fig. 6 einen Ausschnitt aus dem
Protokollstapel eines Feldbusprotokolls. Der Zeichenumsetzer
5 übernimmt hierbei die Aufgaben der MDS (Medium Dependent
Sublayer) 11 sowie optional die Aufgaben der MAU (Medium
Attachment Unit) 12.
Mau 12 und MDS 11 bilden zusammen die physikalische
Schicht, die, wie oben schon erwähnt wurde, auch Schicht-1
genannt wird. Oberhalb der der MDS 11 beginnt die
Sicherungsschicht (Data-bink Layer) DLL, auch Schicht-2
genannt, mit ihrer Subkomponente MAC (Medium Access Control)
10. Die Schicht-1 und die Schicht-2 tauschen in der Regel
zeichenorientierte physikalische Protokolldateneinheiten
(PhPPDU) aus. Diese Schnittstelle ist in der vorliegenden
Erfindung physikalisch ausgeprägt und stellt die serielle
Schnittstelle 2 in Fig. 1 dar. Ist der Informationsgehalt
der PhPDU der seriellen Schnittstelle 2 kleiner als der der
MDS 11 des verwendeten Feldprotokolls, so sind entsprechende
einleitende Steuer-Protokolleinheiten PDU zu definieren, die
eine zusammengehörende Folge von PhPDU's klassifizieren.
Vorzugsweise werden die oben erwähnten
Fehlerdetektoren FD direkt in die für ein
Übertragungsprotokoll zur Verfügung stehenden Schaltkreise
integriert. Erkannte Fehlerzustände auf dem
Übertragungsmedium oder in einer Protokollschicht werden von
entsprechenden Detektoren an den Empfangsschaltungen der
Teilnehmer erfaßt und gespeichert. Hat ein
Netzwerkteilnehmer mehrere Empfangsschaltungen, dann hat er
auch entsprechend mehr Detektoren. Das ist z. B. dann der
Fall, wenn eine Vollduplex-Übertragung zwischen zwei
benachbarten Teilnehmern realisiert wird.
Fig. 5 zeigt nun einen typischen Protokollaufbau
eines Netzwerkteilnehmers, wobei hier nur die
interessierenden Schichten, nämlich die physikalische
Schicht (Physical Layer) PL, d. h. die Schicht-1, und die
Sicherungsschicht (Data-Link-Layer) DLL, d. h. die Schicht-
2, dargestellt sind. Es ist zu sehen, daß an den
entsprechenden Protokollschichten, der MAC-US (Medium Access
Control)-Unterschicht von DLL und an der MDS (Medium
Dependent Sublayer)-Schicht von PL, die auch noch zwischen
MAC-US und MDS über eine weitere Unterschicht MIS-US (Medium
Independent Sublayer) verfügt, Fehlerdetektoren FD
angeordnet sind. Schließlich stellt die Einheit MAU (Medium
Attachment Unit) eine bidirektionale Verbindung von MDS mit
dem Übertragungsnetz ÜN her.
Schicht-1 und Schicht-2 sind die wesentlichen Träger
der Hardware der Einrichtung nach Fig. 5 und sie können
somit auch mit Hardware-Fehlerprüfschaltungen geprüft
werden, die tief in der Logikstruktur an "neuralgischen",
d. h. fehlerrelevanten Punkten angeordnet sind.
Während die wesentlichen Aufgaben der Schicht-1 die
Festlegungen der Definitionen für die Übertragung (Medium,
Baudrate, Spannungsversorgung und dergleichen), das
Übertragungsverfahren und Vorgaben, wie Pin-Belegungen und
Anschlüsse sind, definieren sie auch die Signalpegel für die
Kodierung einzelner Bits.
Die Schicht-2, die Sicherungsschicht beschreibt das
Buszugriffsverfahren, sowie die Datensicherung. Brücken und
normale Schalter arbeiten ebenfalls auf dieser
Protokollschicht.
Übertragungssysteme besitzen heute meist einen
Übertragungskanal für Netzmanagementsignale (Netzmanagement-
Funktionen). Aus Gründen der Übertragungseffizienz sollte
dieser Kanal während der Übertragung von (Nutz-)Daten wenig
benutzt werden, z. B. dadurch, daß ihm die für die
Übertragung von Managementsignalen zugebilligte Zeit
minimiert wird. Das kann beispielsweise dadurch erreicht
werden, daß jedem Netzwerkteilnehmer ein fester Zeitschlitz
zugeteilt wird, in welchem er seine Managementsignale
übertragen kann und zwar nur in dieser Zeitscheibe. Bei
längeren Signalfolgen muß dann deren Übertragung auf mehrere
Zeitscheiben verteilt werden.
Da die Anzahl der hierfür benötigten Datenbreiten für
eine differenzierte Fehlermeldung die üblichen Kapazitäten
eines Managementkanals überschreitet, wird ein als
Informationssammler und -Verteiler arbeitender Diagnose- und
Report-Manager (DRM) vorgesehen, der seine Aufgabe dadurch
löst, daß er aus den vorliegenden Informationen der
Fehlerdetektoren FD (meist nur ein Fehlerbit je
Fehlerdetektor) ein Fehlerbild kodiert. Dieses Fehlerbild
eines Netzwerkteilnehmers wird dann (beispielsweise in
seiner ihm zugeteilten Zeitscheibe) über das
Übertragungsnetz ÜN an eine andere Netzwerkzentrale, z. B.
einen Master übertragen.
Das Besondere an dem Diagnose-und Reportmanager DRM
besteht nun darin, daß beispielsweise der Master (Busmaster)
die Diagnoseinformation, beispielsweise das Fehlerbild, des
dezentralen Netzwerkteilnehmers nicht mehr adressieren und
abfragen muß, sondern daß nun der dezentrale, beim
Netzwerkteilnehmer vorhandene DRM das zu meldende Fehlerbild
und/oder eine Statusinformation in Form eines Ereignisses E,
z. B. ein Zustand einer zu überwachenden Funktion seines
Teilnehmers, voradressiert, so daß automatisch die
aktuellste Fehlerinformation übertragen wird.
Wie Fig. 5 zeigt, wird vom DRM die Adresse (ID-ADR),
eine Identifizierung ID erzeugt und zu einem ID-Sende-
Empfangspufferspeicher FDSP übertragen, von dem dann in
seiner Zeitscheibe die ID und auch die Fehlerbilder zu dem
Master (nicht dargestellt) über ÜN übertragen werden. Damit
die stets aktuellste Fehlerinformation übertragen wird,
erfolgt der Pufferbetrieb nach dem bekannten LIFO-Prinzip
(LIFO = last in/first out). Die Nutzdaten werden über einen
Data genannten Daten-Sende-Empfangspufferspeicher DSEP auf
das ÜN übertragen. Die Adresse ID kann parallel zu den Daten
oder als Vorläufer (Header) seriell mit den Daten übertragen
werden.
Neben den Fehlereinflüssen, die im allgemeinen zu
Übertragungsfehlern führen, gibt es in solchen Netzwerken
auch noch andere Informationen, die zwar zu keinen
Übertragungsstörungen führen, die aber dennoch parallel zur
Nutzdatenübertragung gemeldet werden müssen. Zu diesen
Informationen gehören Meldungen über interne Zustände der
einzelnen Netzwerkteilnehmer, sog. Statusinformationen.
Daraus leitet sich eine weitere Besonderheit her, da
der DRM in der Lage sein soll, zwischen Informationen mit
hoher Priorität und solchen mit niedriger Priorität
unterscheiden zu können. Informationen mit hoher Priorität
sind die oben beschriebenen Einflüsse, die zu
Übertragungsfehlern führen, während Informationen mit
niedriger Priorität sich z. B. auf periphere Meldungen
beziehen, wie Ausfall einer Peripheriespannung, Ablauf eines
Überwachungs-Timers (Watchdog), Ausfall eines externen
Prozessors (CPU), Abfall der Übertragungsqualität (MAU
Warnung) und dergleichen. Mau (Medium Attachment Unit) ist
eine Komponente der physikalischen Schicht (Physical Layer)
PL, welche die physikalische Kopplung zwischen Medium und
Protokollstapel herstellt.
Um dieses Prioritätsschema zu realisieren, erhalten
alle Informationen niedriger Priorität, welche die
vorstehend genannten Ereignisse E repräsentieren, die
gleiche Priorität.
Um zu verhindern, daß eine große Zahl an Ereignissen
einer Meldung die Übertragung anderer Meldungen blockiert,
wird, wie Fig. 7 zeigt, nach jeder erfolgten Meldung eines
Ereignisses Ei im Sinne einer Uhr die nächste Meldung
abgefragt. Damit wird eine Übertragung aller Ereignisse
E1, . . ., EN garantiert.
Dieser Ablauf der Übertragung von Informationen mit
niedriger Priorität wird durch das Auftreten eines
Ereignisses mit hoher Priorität nach Art einer Interrupt-
Verarbeitung unterbrochen, bei welcher nach vollendeter
Übertragung der Meldung des Ereignisses mit hoher Priorität,
das zu fehlerhafter Übertragung führen kann, das
Ablaufschema nach Fig. 7 an der unterbrochenen Stelle
fortgesetzt wird.
Die Übertragungen der Fehler- und Statusmeldungen
(Ereignismeldungen) sollte die Nutzdatenübertragung
möglichst wenig beeinflussen. Bekannte Übertragungssysteme,
wie z. B. Interbus, erlauben auf Grund ihres zyklischen
Betriebs die Möglichkeit auf jedem Netzwerkteilnehmer einen
Mechanismus zu installieren, der die Übertragung von obigen
Ereignissen nur in einem bestimmten Raster von n-gültigen
Nutzdatenübertragungen zuläßt (z. B. n=16). Das bedeutet, daß
die Übertragung sowohl der asynchronen Fehlermeldungen eines
Netzwerkteilnehmers, als auch aller anderen
Netzwerkteilnehmer auf ein festgelegtes Raster von n
Übertragungszyklen synchronisiert werden. Dadurch wird die
zur Verfügung stehende Bandbreite des Übertragungsnetzes
optimal für diese Ereignisse genutzt. Ferner kann durch
Anpassung des Rasters die Determinierbarkeit der
Nutzdatenübertragungen gewahrt bleiben.
Claims (6)
1. Einrichtung zur Selbstdiagnose von im wesentlichen
sporadischen Fehlern in einem seriellen Netzwerk, das
eine Anzahl von Teilnehmern miteinander und mit einer
zentralen Diagnoseeinrichtung verbindet,
dadurch gekennzeichnet,
daß dezentral bei jedem Teilnehmer (Tln1. . .Tlnn;
Fig. 5) an bestimmten, fehlerrelevanten Stellen in seinem
Protokollstapel Fehlerdetektoren (FD) angeordnet sind,
die ihre Prüfergebnisse zu einem Diagnose- und
Reportmanager (DRM) übertragen, der aus den einzelnen
Prüfergebnissen aller Fehlerdetektoren ein Fehlerbild
erzeugt, das er für ihre Übertragung voradressiert,
indem er für jedes zu einer zentralen
Diagnoseeinrichtung (DE) zwecks dortiger
Auswertung zu übertragende Fehlerbild eine Adresse (ID-
ADR) generiert, mittels welcher er einen ID-Sende-
Empfangspufferspeicher (FDSEP) ansteuert, in welchem er
die den Adressen zugeordneten Fehlerbilder
zwischengespeichert und zeitversetzt für ihre
Übertragung zur zentralen Diagnoseeinrichtung über das
Übertragungsnetz (ÜN) wieder ausliest.
2. Einrichtung nach Anspruch 1,
dadurch gekennzeichnet, daß zur Sicherstellung einer
möglichst großen Nutzdatenübertragung jedem Teilnehmer
(Tln1,. . .,Tlnn) ein eigener Zeitschlitz zugeteilt ist,
in welchem er seine Fehlerbilder zur zentralen
Diagnoseeinrichtung (DE) überträgt.
3. Einrichtung nach Anspruch 1 und/oder 2,
dadurch gekennzeichnet, daß zwischen den Teilnehmern
(Tln1,. . .,Tlnn) und der zentralen Diagnoseeinheit (DE)
Information übertragen wird, die sowohl Fehlerbilder,
als auch Statusinformation zur Ausübung von
Sytemmanagement-Funktionen umfaßt, wobei der
Fehlerbildinformation höhere Priorität für deren
Übertragung zur zentralen Diagnoseeinrichtung (DE), als
der Statusinformation für deren Übertragung vom
Diagnose- und Reportmanager (DRM) zugeteilt sind.
4. Einrichtung nach einem oder mehreren der Ansprüche 1 bis
3, dadurch gekennzeichnet, daß den verschiedenen
Statusinformationen (E1,. . .,En; Fig. 6) stets die
gleiche niedrige Priorität zugeteilt ist, wobei die zur
Übertragung anstehenden Statusinformationen in
zyklischer Reihenfolge (z. B. E1, E2, E3,. . .,En)
nacheinander übertragen werden.
5. Einrichtung nach einem oder mehreren der Ansprüche 1 bis
3, dadurch gekennzeichnet, daß eine Einrichtung im
Übertragungssystem vorgesehen ist, welche die asynchron
entstehenden Statusinformationen der verschiedenen
Teilnehmer (Tln1,. . .,Tlnn) in einem bestimmten Raster
von n-gültigen Nutzdatenübertragungen zuläßt, so daß
alle Statusinformationen aller Teilnehmer auf ein
festgelegtes Übertragungsraster synchronisiert sind.
6. Einrichtung nach einem oder mehreren der Ansprüche 1 bis
5, dadurch gekennzeichnet, daß die Fehlerdetektoren (FD)
vorzugsweise in der physikalischen Schicht (PL) und der
Verbindungsschicht (DLL) eines ISO/OSI-Referenzmodells
für standardisierte Übertragung auf verteilten
Netzwerken (ÜN) vorgesehen sind.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19752792A DE19752792B4 (de) | 1997-11-28 | 1997-11-28 | Einrichtung zur Selbstdiagnose von im wesentlichen sporadischen Fehlern in seriellen Übertragungssystemen |
US09/201,310 US6324658B1 (en) | 1997-11-28 | 1998-11-29 | Apparatus for self-diagnosis of substantially sporadic faults in serial transmission systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19752792A DE19752792B4 (de) | 1997-11-28 | 1997-11-28 | Einrichtung zur Selbstdiagnose von im wesentlichen sporadischen Fehlern in seriellen Übertragungssystemen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19752792A1 true DE19752792A1 (de) | 1999-06-02 |
DE19752792B4 DE19752792B4 (de) | 2004-04-15 |
Family
ID=7850108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19752792A Expired - Lifetime DE19752792B4 (de) | 1997-11-28 | 1997-11-28 | Einrichtung zur Selbstdiagnose von im wesentlichen sporadischen Fehlern in seriellen Übertragungssystemen |
Country Status (2)
Country | Link |
---|---|
US (1) | US6324658B1 (de) |
DE (1) | DE19752792B4 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10244427A1 (de) * | 2002-09-24 | 2004-04-01 | Siemens Ag | Kommunikationssystem mit Teilnehmer mit Diagnoseeinheit |
US7821271B2 (en) | 2007-04-27 | 2010-10-26 | Airbus Deutschland Gmbh | Method for testing a communication connection |
EP2348373A1 (de) * | 2010-01-14 | 2011-07-27 | Phoenix Contact GmbH & Co. KG | Verfahren, elektronisches Bauteil und System zur Diagnose von Kommunikationsverbindungen |
DE102015121078B4 (de) * | 2014-12-09 | 2017-05-11 | Hyundai Autron Co., Ltd. | Fehlervarianzerkennungsverfahren eines CAN-Kommunikationssystems sowie CAN-Kommunikationssystem |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7249344B1 (en) | 1996-10-31 | 2007-07-24 | Citicorp Development Center, Inc. | Delivery of financial services to remote devices |
US5867153A (en) | 1996-10-30 | 1999-02-02 | Transaction Technology, Inc. | Method and system for automatically harmonizing access to a software application program via different access devices |
US8112330B1 (en) | 1997-08-07 | 2012-02-07 | Citibank Development Center, Inc. | System and method for delivering financial services |
US7668781B2 (en) | 1996-10-31 | 2010-02-23 | Citicorp Development Center, Inc. | Global method and system for providing enhanced transactional functionality through a customer terminal |
US7502752B1 (en) | 1997-08-07 | 2009-03-10 | Citicorp Development Center, Inc. | System and method for delivering financial services |
US6832341B1 (en) * | 1999-09-23 | 2004-12-14 | International Business Machines Corporation | Fault event management using fault monitoring points |
US20060067366A1 (en) * | 2004-09-29 | 2006-03-30 | Kerr Benjamin J | Time division multiplexed transport emulation using symbol encoded physical layer |
US20080114695A1 (en) * | 2006-11-10 | 2008-05-15 | Semantic Components S.L. | Process for implementing a method for the on-line sale of software product use licenses through a data network, and software component which allows carrying out said process |
US20100250400A1 (en) * | 2006-11-10 | 2010-09-30 | Media Patents, S.L. | Apparatus and methods for the sale of software products |
JP5133400B2 (ja) * | 2007-04-04 | 2013-01-30 | メディア パテンツ エセ.エレ. | 知的所有権によって保護されたデジタルファイルの、データネットワークを介したオンライン分配方法と、当該方法を実行するプログラムを含むコンピュータで読み取り可能な媒体 |
WO2009065526A1 (en) * | 2007-11-23 | 2009-05-28 | Media Patents S.L. | A process for the on-line distribution of audiovisual contents with advertisements, advertisement management system, digital rights management system and audiovisual content player provided with said systems |
US20110060688A1 (en) * | 2007-11-23 | 2011-03-10 | Media Patents, S.L. | Apparatus and methods for the distribution of digital files |
US7984097B2 (en) * | 2008-03-18 | 2011-07-19 | Media Patents, S.L. | Methods for transmitting multimedia files and advertisements |
ES2326949B1 (es) * | 2008-03-18 | 2010-07-14 | Clarity Systems, S.L. | Procedimiento utilizado por un servidor de streaming para realizar una transmision de un fichero multimedia en una red de datos. |
US9154532B2 (en) | 2009-04-27 | 2015-10-06 | Zaron Remote Llc | Methods and apparatus for transmitting multimedia files in a data network |
US8699356B2 (en) | 2010-12-20 | 2014-04-15 | Deere & Company | Method and system for diagnosing a fault or open circuit in a network |
CN111324070B (zh) * | 2020-03-04 | 2021-07-13 | 明峰医疗系统股份有限公司 | 基于fpga的ct串行探测器模块集群的调试方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2956849B2 (ja) * | 1989-12-08 | 1999-10-04 | 株式会社日立製作所 | データ処理システム |
JP2641342B2 (ja) * | 1991-07-04 | 1997-08-13 | 富士通株式会社 | 集中監視システム |
JPH0612288A (ja) * | 1992-06-29 | 1994-01-21 | Hitachi Ltd | 情報処理システム及びその監視方法 |
JP3085844B2 (ja) * | 1994-01-10 | 2000-09-11 | 富士通株式会社 | 集中監視システムにおける障害表示方式 |
DE4401540B4 (de) * | 1994-01-20 | 2006-06-08 | Tenovis Gmbh & Co. Kg | Verfahren zur Bearbeitung von in einer Kommunikations-Vermittlungsanlage oder Datenverarbeitungsanlage anfallenden Störungs-, Fehler- und Informationsmeldungen |
JP3675851B2 (ja) * | 1994-03-15 | 2005-07-27 | 富士通株式会社 | 計算機監視方式 |
US5535192A (en) * | 1995-01-31 | 1996-07-09 | International Business Machines Corporation | Serial network fault detection, isolation and restorative device |
-
1997
- 1997-11-28 DE DE19752792A patent/DE19752792B4/de not_active Expired - Lifetime
-
1998
- 1998-11-29 US US09/201,310 patent/US6324658B1/en not_active Expired - Lifetime
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10244427A1 (de) * | 2002-09-24 | 2004-04-01 | Siemens Ag | Kommunikationssystem mit Teilnehmer mit Diagnoseeinheit |
US7821271B2 (en) | 2007-04-27 | 2010-10-26 | Airbus Deutschland Gmbh | Method for testing a communication connection |
EP2348373A1 (de) * | 2010-01-14 | 2011-07-27 | Phoenix Contact GmbH & Co. KG | Verfahren, elektronisches Bauteil und System zur Diagnose von Kommunikationsverbindungen |
US8660012B2 (en) | 2010-01-14 | 2014-02-25 | Phoenix Contact Gmbh & Co. Kg | Method, electronic component and system for the diagnosis of communication connections |
DE102015121078B4 (de) * | 2014-12-09 | 2017-05-11 | Hyundai Autron Co., Ltd. | Fehlervarianzerkennungsverfahren eines CAN-Kommunikationssystems sowie CAN-Kommunikationssystem |
US9947144B2 (en) | 2014-12-09 | 2018-04-17 | Hyundai Autron Co., Ltd. | Error variance detection method of CAN communication system and the CAN communication system |
Also Published As
Publication number | Publication date |
---|---|
US6324658B1 (en) | 2001-11-27 |
DE19752792B4 (de) | 2004-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19752792B4 (de) | Einrichtung zur Selbstdiagnose von im wesentlichen sporadischen Fehlern in seriellen Übertragungssystemen | |
EP0658258B1 (de) | Netzwerkschnittstelle | |
DE102008002738B4 (de) | Verfahren zum Erkennen eines fehlerhaften Knotens | |
EP2274655B1 (de) | Verfahren, system und buskoppler zum austauschen von daten zwischen einem überlagerten und einem unterlagerten netzwerk | |
EP0732654A1 (de) | Verfahren zur fehlertoleranten Kommunikation unter hohen Echtzeitbedingungen | |
WO2001013230A1 (de) | Verfahren zum erzwingen der fail-silent eigenschaft in einem verteilten computersystem und verteilereinheit eines solchen systems | |
EP0271169A2 (de) | Verfahren und Schaltungsanordnung zur dezentralen Netzersatzschaltung | |
EP2652911B1 (de) | Aderbruch-diagnose | |
DE102019208058A1 (de) | Fehlererkennung-Testeinrichtung für eine Teilnehmerstation eines seriellen Bussystems und Verfahren zum Testen von Mechanismen zur Fehlererkennung bei einer Kommunikation in einem seriellen Bussystem | |
WO1999011031A1 (de) | Kommunikationseinrichtung für die übertragung von nachrichtensignalen | |
DE4218499C2 (de) | Fehlererfassungseinrichtung für ein Übertragungssystem | |
EP0182134B1 (de) | Verfahren zum Betrieb eines signaltechnisch sicheren Mehrrechnersystems mit mehreren signaltechnisch nicht sicheren Ein/Ausgabebaugruppen | |
EP1399818B1 (de) | Verfahren und vorrichtung zur kommunikation in einem fehlertoleranten verteilten computersystem | |
DE3420365A1 (de) | Verfahren zur umschaltung zwischen redundanten uebertragungswegen | |
DE10328707B4 (de) | Fail-Silent-Datenbus | |
DE3939631A1 (de) | Verfahren zur datenuebertragung und geraet zur datenuebertragung mit einem detektor zur erfassung einer falschen informationsverteilung | |
DE102009016972B4 (de) | Kommunikationssystem zum dezentralen und autarken Überwachen und Steuern eines unterlagerten Bussystems | |
EP2290882B1 (de) | Verfahren zur mehrfachen Fehlerredundanz in Netzwerken mit Ringtopologien | |
WO2010031599A1 (de) | Verfahren zum betreiben eines kommunikationssystems mit mehreren knoten und kommunikationssystem dafür | |
DE4339046C2 (de) | Verfahren und Einrichtung zur Steuerung des Zugriffs auf mehrere redundant ausgeführte Übertragungskanäle | |
WO1998045983A2 (de) | Datenkommunikationsverbindung in hierarchischem kommunikationsnetz mit bus, mit einem abfrage/antwort-protokoll, dem sogenannten polling-protokoll, betrieben wird | |
DE69631366T2 (de) | Verfahren und Vorrichtung zur Korrektur von Übertragungsfehlern und Erkennung von Fehlern während der Übertragung von Daten über ein Datenübertragungsmedium | |
DE19511178A1 (de) | Datenübertragungssystem mit Diagnosefunktion zur Fehlerortbestimmung | |
DE10140852C5 (de) | Elektronisches System mit einem Lichtwellenleiter-Netzwerk und Verfahren zum Selbsttest sowie dazugehöriges Computerprogramm | |
EP0173282A2 (de) | Verfahren zum Übertragen von der Verkehrserfassung dienenden Auswertesignalen und Prüfsignalen in Verkehrserfasssungsanlagen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
R071 | Expiry of right |