-
Die
Erfindung betrifft allgemein Systeme zur Erfassung von Verkehrsdaten.
Speziell betrifft die Erfindung die in derartigen Systemen eingesetzten
Verfahren zur Auswertung erfasster Verkehrsdaten, insbesondere für die Erhebung
von Mautgebühren.
-
Fahrzeugautonome
Straßengebührenerfassungssysteme
werden zunehmend eingesetzt. Aufgrund des finanztechnischen Hintergrunds
sind für
derartige Systeme die Anforderungen an Präzision zur zuverlässigen Vermeidung
von Fehlbuchungen von besonderer Bedeutung. Daher sind in der Auswertung
eingehender Daten Vorkehrungen zu treffen, um Unregelmäßigkeiten – beispielsweise
hervorgerufen durch technische Störungen im Übertragungsweg – schnell
und sicher zu detektieren. Moderne Auswerteverfahren stützen sich
daher auf Modellierungsdaten, die als Referenz zur Plausibilitätsprüfung der
aktuell erfassten Daten herangezogen werden. Als Modellierungsdaten
werden üblicherweise
Knoten-Kanten-Modelle des Verkehrswegenetzes herangezogen. Die Effizienz
derartiger Straßengebührenerfassungssysteme
hängt damit
entscheidend von der Qualität
der Modellierungsdaten ab. Für
bisherige Verfahren werden die Modellierungsdaten mit Messfehlern
erhoben und qualitätsgesichert.
Dieses Vorgehen ist relativ aufwändig,
bietet keine Zeitauflösung
und hat eine geringe statistische Aussagekraft.
-
Der
vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren
zur Verkehrsdatenerfassung zu entwickeln, welches die bekannten
Nachteile überwindet
und weitere Vorzüge
aufweist und insbesondere geeignet ist für autonome Straßengebührenerfassungssysteme.
Diese Aufgabe wird gelöst
durch das Verfahren zur Erfassung von Verkehrsdaten mit den Merkmalen
des Anspruchs 1. Weitere Details und vorteilhafte Ausführungsformen
der Erfindung sind Gegenstand der Unteransprüche.
-
Bei
dem erfindungsgemäßen Verfahren
werden zurückgelegte
Fahrten von Kraftfahrzeugen anhand übermittelter Daten aus einzelnen
Teilen vorgegebener Autobahnabschnitte eines Verkehrsnetzmodells
zusammengesetzt. Dabei erfolgen Korrekturen über Plausibilitätsbetrachtungen
(zusammenhängende
Fahrtstrecke, keine doppelten Autobahnabschnitte, Ergänzen fehlender
Stücke,
logische zeitliche Abfolge usw.). Durch in vorgegebenen Zeitabständen erfolgende
statistische Analyse der erfassten Daten werden Fehlerquellen im Verkehrsdatenerfassungssystem
erkannt. Damit ist eine zeitnahe Qualitätsüberwachung des Gesamtsystems möglich.
-
Das
erfindungsgemäße Verfahren
wird im Folgenden unter Bezug auf die Figuren und Tabellen näher erläutert. Dabei
stellt dar:
-
1 Topologische
Signaturen der Länge
3
-
2 Topologische
Signaturen der Länge
2
-
3 Topologische
Signaturen der Länge
4
-
- Tabelle 1 Datenfelder von Einzelerhebungen
- Tabelle 2 Datenfelder von Länge-3-Signaturen
- Tabelle 3 Datenfelder von Länge-2-Signaturen
-
Die
kurzfristige Erkennung von Erfassungsfehlern ist nach der eigentlichen
Mauterhebung die wichtigste Funktion zur Verbesserung gängiger Straßengebührenerfassungssysteme.
Die möglichen
Ursachen für Erfassungsfehler
liegen dabei:
- • in der Strecke (Modellierung,
Funktion der Stützbaken,..
)
- • im
Endgerät
(Störung,
Defekt),
- • beim
Nutzer (Manipulation, Fehlbedienung,...)
- • in
externen Einflüssen
(Wetter, GPS-Störungen,...).
-
Damit
sind zugleich die Hauptziele für
eine Erfassungsfehler-Analyse
vorgegeben. Das enorme Datenvolumen, die erforderliche Qualität zur Vermeidung
von Fehlentscheidungen und die Notwendigkeit, kurzfristig zielgerichtete
Gegenmaßnahmen
einzuleiten, bedingt entsprechend a) eine effiziente und Ressourcenschonende
Umsetzung der Anforderungen, mit b) vollautomatisiertem Arbeitsablauf
zu den entsprechenden Funktionseinheiten, die präventive Maßnahmen einleiten können. Das
erfindungsgemäße Verfahren
ermöglicht
es, diese Ziele mit geringem Arbeits- und Zeitaufwand bei der Realisierung
zu erreichen, weil die eingesetzten Algorithmen einfach sind und
der Verfahrensablauf standardmäßig implementiert
werden kann.
-
Folgende
Kurzdarstellung soll zunächst
die Grundkonzeption des erfindungsgemäßen Verfahrens darstellen.
Im Anschluss wird dann anhand einer bevorzugten Ausführungsform
(Datenmodell in Form von schematisierten Informations-Objekten)
das erfindungsgemäße Verfahren
detailliert erläutert.
-
Für das Erkennen
von Erfassungsfehlern bieten sich an:
- 1. der
einfache Vergleich der einzelnen Erhebungs daten mit dem Streckenmodell
(Plausibilitäts-/Lücken-Prüfung), sowie
- 2. eine Analyse der Gesamterhebungen pro Autobahnabschnitt (Verkehrsfluss).
-
In
beiden Fällen
müssen
im ersten Schritt Daten (Ereignisse bzw. Summenwerte) hochperformant
gewonnen werden. Schon mit diesen einfachen Informationen kann die
Mauterhebung sehr wirkungsvoll agieren. Die Notwendigkeit für eine solche
Verbesserung ist offensichtlich, weit zurzeit außer den Kennziffern im PMS keine
unterstützenden
Informationen für
die operationale Steuerung zur Verfügung stehen.
-
Aus
den Grunddaten lässt
sich mit den Informationen über
die Autobahnabschnitte ("Autobahnabschnitt") und den Knoten
("Knoten") die Relation "VonNach" ermitteln. Die Aktualisierung
des Datenmodells erfolgt durch die Aktualisierung der Grunddaten.
-
Das
so ermittelte Von-Nach-Wissen basiert aber (fast) nur auf dem erstellten
mautpflichtigen Streckenmodell. Um gravierende Fehlinterpretationen
zu vermeiden, ist die manuelle Ergänzung um besondere Konstellationen
in einer Tabelle "KnotenOptimierung" unbedingt schon
vor Beginn der Analyse erforderlich. Die weitere Bewertung von aufeinander
folgenden Streckenabschnittserhebungen hat entsprechend beide Informationsquellen
("Knoten", "KnotenOptimierung") nach folgendem
Ablaufschema zu berücksichtigen:
Die
zu einem Fahrzeug erhobenen einzelnen Streckenabschnitte mögen mit
i, j, k, bezeichnet sein. Falls nach der Relation "Knoten" der Autobahnabschnitt
j unmittelbar nach i folgen kann, kann die nächste Erhebung j mit k betrachtet
werden. Die Datenkonstellation gilt auch als korrekt, falls der
Auto bahnabschnitt j nach der Relation "KnotenOptimierung" dem Autobahnabschnitt i unmittelbar
folgen darf und i eine Ausfahrtkennung und j eine Einfahrtkennung
trägt.
-
Nur
in sehr wenigen Fällen
muss weiter geprüft
werden:
- 1. Es erfolgt für das Abschnittspaar i und
j ein Eintrag "Event" in eine Ereignis-Tabelle,
falls mit dem obigen Von-Nach-Wissen und den vorliegenden Zeitangaben
bei Ausfahrt i und Einfahrt j bzw. den interpolierten Zeitwerten
für i und
j als einfache Streckenpunkte mit der Geschwindigkeit entsprechend
dem Parameter-Wert für "MindestGeschwindigkeitFür-VonNach" aus dem Parametersatz "Standard" der Punkt j von
i zu erreichen ist. Fachlich wird versucht, diese Konstellation
als Erfassungslücke
weiter zu interpretieren.
- 2. Ein "Event"-Eintrag erfolgt
auch, wenn der Punkt j zeitlich nicht plausibel ist und kein Einfahrtkennzeichen trägt. Diese
Konstellation wird häufig
auch "Ortssprung" genannt. Fachlich
wird diese Konstellation unter dem Gesichtspunkt Erfassungsfehler
(falsch programmierte Stützbaken,
Fehler im Streckenmodell, etc.) weiter untersucht.
-
Für den Fall,
dass das im Fahrzeug befindliche Mautgerät bei eingeschalteter Zündung zwangsweise/unvermeidbar
registriert und später
auch sendet, braucht das potentielle Ereignis (Lücken mit Ein-/Ausfahrtkennung)
vor einem Eintrag in die Ereignis-Tabelle nicht gegen eine eventuell
vorliegende manuelle Einbuchung quergeprüft zu werden. Diese Analyse
muss auch für
Erhebungsdaten mit dem Wert 0 EUR (KFZ mit Fahrzeuggerät hat manuell
eingebucht) durchgeführt
werden.
-
Um
unverzüglich
zu informieren und geeignete Gegenmaßnahmen zur Schadensabwendung
schnell einleiten zu können,
sollten die Erhebungsdaten periodisch, z.B. im stündlichen
Rhythmus untersucht, die Analyseergebnisse in der Ereignis-Tabelle
zur Verfügung
gestellt und Kennziffern über
die Anzahl der "Events" im PMS angezeigt
werden. Die Weiterverarbeitung der "Events" unter Einbeziehung aller Informationen
in anderen Tabellen kann dann von der Mauterhebung in Form von automatisierten
Arbeitsschritten incl. "e-mail-Alarmierung", Alerts, u.ä. umgesetzt
werden. Dabei können
bei Vorliegen von vielen Erhebungsdaten in einer weiterführenden
Ausgestaltung des erfindungsgemäßen Verfahrens
die VorNach-Relationen von km-Basis auf Zeit-Basis umgestellt werden.
-
Die
folgenden Abschnitte sollen die Details der einzelnen Funktions-
bzw. Ablaufschritte des erfindungsgemäßen Verfahrens anhand bevorzugter
Ausführungsformen
verdeutlichen. Dabei soll dargestellt werden, welche Untersuchungen
auf einfache Weise möglich
sind. Auf Erläuterung
von Einzelheiten der datentechnischen Umsetzung wird weitgehend
verzichtet. Grundsätzlich
wird jedoch davon ausgegangen, dass das System die Erhebungsdaten
mit hoher Rate auswerten und verarbeiten muss und aus pragmatischen
Gründen der
Speicherplatzbeschränkung
Statistiken direkt erzeugt, d.h. Einzelfalldaten nur für Spezialfälle exportiert. Ebenso
wird nicht die Art der Darstellung der Daten beschrieben. Diese
muss durch geeignete Standardsoftware erfolgen. Das hier beschriebene
Verfahren soll explizit nur als interne Informationsquelle dienen,
d.h. ohne Berücksichtung
eventueller für
Laien bedienbarer Oberflächen.
-
1 Datenerfassung
-
Die
in einem automatischen Mauterhebungssystem erfassten Daten haben
eine hohe Zahl von Erhebungen und können daher erfindungsgemäß als Informationsquelle
für die
Modellierung des Verkehrsflusses sowie zur Untersuchung von Systemeffizienzen
verwendet werden. Das Ziel der Analyse soll die Bereitstellung der
folgenden Signale sein:
- • Häufigkeit von Abschnitts- Nicht- oder -Fehlerkennungen
- • Flüsse durch
Abschnitte und aus/in Anschlussstellen
-
Diese
Signale werden anhand bestimmter, in Abschnitt 3 beschriebener
Signaturen detektiert und gesammelt. Dazu benötigt das Analysesystem Zugriff
auf folgende Datenquellen:
- • Erhebungsdatenverwaltung (Fahrtdaten)
- • Grunddatenverwaltung
(Knoten-Kanten-Modell)
-
Außerdem sind
einige Signaturen mit bestimmten Parametern zu detektieren, die
vorzugeben sind. Diese Parameter werden hard cuts (Harte Schnitte)
genannt.
-
Das
Auftreten einer Signatur wird Ereignis genannt. Dabei ist zu beachten,
dass dieselbe Einzelerhebung mehrere Ereignisse unterschiedlicher
Signaturen auslösen
kann. Ereignisse können
dann in Ereignislisten gespeichert werden. Diese Listen würden ohne
weitere Maßnahmen
sehr schnell sehr groß werden,
daher sind für
die Erzeugung von Ereignislisten Filter vorzusehen, die nur Ereignisse
mit bestimmten Eigenschaften speichern. Ereignislisten werden für die weitere
Analyse vorzugsweise mit universelleren Tools erzeugt, dabei kommen
u.a. weitere cuts (Schnitte) zur Anwendung, um interessierende Signale
zu verstärken
und vom Hintergrund (Rauschen) abzuheben.
-
Um
bekannte Fehler aus den Statistiken zu eliminieren, sind Negativlisten
von Abschnitts-IDs und EHK-lDs zu erstellen. Sobald in einem Ereignis
ein Objekt, das auf einer Negativliste enthalten ist, referenziert wird,
wird dieses Ereignis verworfen.
-
Schließlich sind
alle Daten für
bestimmte, genau definierte Betrachtungszeiträume zu erheben. In einfacher
Ausführung
reicht als Betrachtungszeitraum die Laufzeit des Programms, ebenso
ist es aber auch möglich,
beliebige Betrachtungszeiträume
(z.B. stündlich
oder täglich)
zu wählen
(siehe Abschnitt 4.3).
-
2 Datenaufbereitung
-
Bevor
die Daten einer weiteren Auswertung zugeführt werden, sind sie aus den
gelieferten Formaten in zu definierende und für die Analyse optimierte interne
Darstellung aufzubereiten.
-
2.1 Daten der Grunddatenverwaltung
(GdV)
-
In
einem ersten Schritt sind die Daten der GdV einzulesen, zu plausibilisieren
und in die notwendigen internen Darstellungen zu überführen. Hierbei
ist zu beachten, dass diese Daten in versionierter Form vorliegen,
d.h. abhängig
vom Zeitpunkt einer Einzelerhebung muss die gültige Version der GdV-Daten
verwendet werden. Schlägt
die Plausibilisierung fehl, sind entsprechend aussagekräftige Warnungen
auszugeben. Außerdem
sind folgende Kennzahlen für
jede Version der Grunddaten (Knoten-Kanten-Modell) auszugeben:
- • Zahl
der Kanten
- • Zahl
der Knoten
- • Zahl
der Auffahrten
- • Zahl
der Abfahrten
-
2.2 Erhebungsdaten
-
Die
Erhebungsdaten werden von der EDV in Form von Summendatentöpfen (SDT)
geliefert. Diese sind zunächst
in Einzelerhebungen zu zerlegen. Dabei ist darauf zu achten, dass
Informationen über
den Summendatentopf sowie die Position im Summendatentopf nicht
verloren geht. Die Originaldaten können sodann verworfen werden.
-
Die
Erhebungsdaten sind zu plausibilisieren. Sofern ein Plausibilitätstest nicht
bestanden wird, ist ein Ereignis mit einer eindeutig definierten
Signatur zu erzeugen (siehe Abschnitt 3.1).
-
Einzelerhebungen
sind durch ein eindeutiges Ordnungskriterium ausreichender Periode
für jede
Erhebungskarte sequentiell zu sortieren. Im Prinzip ist das Wertepaar
(Summendatentopfzähler,
Einzelerhebungsnummer) ein solches Ordnungskriterium, allerdings
ist die Periode des Summendatentopfzählers mit 216 zu
gering. Periodenüberläufe des
SDT-Zählers
müssen
daher erkannt, gezählt,
und in das Kriterium aufgenommen werden, so dass sich folgendes
eindeutiges Werte-Tripel ergibt: Periodenüberläufe, Summendatentopfzähler, Einzelerhebungsnummer.
-
3 Signaturen
-
In
diesem Abschnitt wird dargestellt, welche Signaturen im System erkannt
werden sollen und welche Parameter für hard cuts für diese
Signaturen relevant sind. Generell wird unterschieden zwischen
- • lokalen
Signaturen, d.h. Signaturen, die bei der Analyse eines einzelnen,
isolierten Erhebungsdatensatzes erkannt werden können und
- • nichtlokalen
Signaturen, d.h. Signaturen, bei der die Beziehungen von mehreren
Erhebungsdatensätzen zueinander
eine Rolle spielen.
-
Es
ist offensichtlich, dass die Erkennung von lokalen Signaturen weit
weniger aufwändig
ist, als die Erkennung von nichtlokalen Signaturen. Für letztere
ist eine klare und performante Systemarchitektur erforderlich, um
mit vertretbarem Aufwand eine ausreichende Performanz herzustellen.
Dabei ist insbesondere zu beachten, dass nichtlokale Signaturen
nicht ohne die Verwaltung von internen Zuständen erkannt werden können. Die
Speicherung dieser Zustände
muss hochperformant sein (d.h. im RAM erfolgen) und muss ausdrücklich nicht
persistent gehalten werden.
-
Ereignisse
mit lokalen Signaturen können
in dem in Tabelle 1 wiedergegebenen Format zuzüglich der Spalte "Signatur" dargestellt und
in Einzelfalllisten abgespeichert werden. Für Ereignisse mit nichtlokalen
Signaturen sind hingegen spezifische Datenformate (die auch die
Spalte "Signatur" enthalten müssen) zu
definieren. Die Felder von abgespeicherten Ereignissen werden auch
als Ereignisvariable bezeichnet.
-
3.1 Plausibilität der Erhebungsdaten
-
Die
Prüfung
der Flausibilität
von Erhebungsdaten erfolgt zunächst
lokal. Dabei sind die in den Erhebungsdaten enthaltenen Datenfelder
gegen einen Wertebereich zu testen. Bei Feldern, die auf Objekte
aus dem Tarif- oder Streckenmodell referenzieren, ergibt sich der
Wertebereich aus diesem Modell. Bei anderen Feldern sollen obere
und untere Grenzen oder eine diskrete Menge als hard cuts angegeben
werden können.
-
Daneben
sind auch nichtlokale Signaturen zu erkennen:
-
• Lücke im Summendatentopfzähler
-
Hier
ist zu beachten, dass die Summendatentöpfe zu einer Erhebungskarte
nicht unbedingt in sequentiell richtiger Reihenfolge eintreffen.
Diese sind daher zunächst
zu ordnen und Lücken
können
erst nach einem Timeout erkannt werden. Dieser Timeout ist für diese
Signatur ein hard cut.
-
• Lücke im Einzelerhebungszähler
-
Diese
Signatur erfordert keinen weiteren Parameter.
-
Ereignisse
bzgl. negativen Plausibilitätstests
von Erhebungsdaten werden in dem in Tabelle 2 dargestellten Format
zuzüglich
der Spalte "Signatur" dargestellt.
-
3.2 Topologische Abschnittsfehlerkennungen
und Erkennungslücken
-
In 1 sind
die (nicht vollständigen!)
Signaturen für
Ein-Abschnitts-Fehler dargestellt. Die Abschnitte sind mit p, q
und r bezeichnet und entsprechend des Ordnungskriteriums für Erhebungsdaten
(siehe Abschnitt 2.2) sortiert. Es sollen nun zwei verschiedene
Signaturen erkannt werden:
-
• Sichere Ein-Abschnitts-Lücken (vergl. 1 oben).
-
Das
Attribut "sicher" wird dabei im Sinne
von "eindeutig" verwendet. So sind
beispielsweise auch bei Signaturen der Länge 2 (siehe 2)
Lücken
zu erkennen, allerdings ist hier nicht sicher, dass genau ein Abschnitt
nicht oder falsch erhoben wurde.
-
Hier
enthält
der Datenstrom die Abschnitte p und r mit einer Ausfahrts- bzw.
Einfahrtskennung. Es existiert (wenigstens) ein Abschnitt q, der
einen zusammenhängenden
Streckenzug (p,q,r) ergibt. Die Zeitspanne zwischen Ausfahrts- und
Einfahrtskennung ist nicht größer als
die Länge
des (kürzesten)
Abschnitts q dividiert durch einen Parameter "Grenzgeschwindigkeit", der einen hard cut definiert.
-
• Sichere Ein-Abschnitts-Fehlerkennung
(1 unten)
-
Hier
enthält
der Datenstrom drei Abschnitte p, q und r, die keinen zusammenhängenden
Streckenzug bilden. Es ist kein weiterer hard cut Parameter notwendig.
-
Ereignisse
mit diesen Signaturen sollen mit den in Tabelle 2 beschriebenen
Feldern dargestellt werden.
-
In 2 sind
weitere Signaturen dargestellt, die ebenfalls von Interesse sind:
-
• Diskontinuität (2 links
oben)
-
Zwei
im Datenstrom aufeinanderfolgende Abschnitte, die nicht als Ausfahrt
und Einfahrt gekennzeichnet sind, sind im Streckenmodell nicht durch
einen Knoten verbunden. Es ist zu beachten, dass dieser Fall eine geringere
Signifikanz als der oben diskutierte Fall "Sichere Ein-Abschnitts-Lücken" besitzt, insbesondere
lässt er
sich nicht zur Abschätzung
der Erhebungseffizienz verwenden. Um die Redundanz zu diesem Fall
zu verringern, kann die Signatur wie folgt schärfer formuliert werden: Zwei
im Datenstrom aufeinanderfolgende Abschnitte, die nicht als Ausfahrt
und Einfahrt gekennzeichnet sind, können im Streckenmodell nicht
durch genau einen Abschnitt verbunden werden.
-
• (Falsche) Aus-Einfahrtserkennung
(2 rechts oben)
-
Zwei
im Datenstrom aufeinanderfolgende Abschnitte, die als Ausfahrt und
Einfahrt gekennzeichnet sind, sind im Streckenmodell durch einen
Knoten verbunden und die Zeitdifferenz zwischen Ausfahrt und Einfahrt
ist kleiner als ein Schwellwertparameter (hard cut).
-
• Fehlende Ausfahrtkennung (2 links,
Mitte)
-
Zwei
im Datenstrom aufeinanderfolgende Abschnitte p und q, von denen
p nicht als Ausfahrt aber q als Einfahrt gekennzeichnet sind, sind
im Streckenmodell nicht durch einen Knoten verbunden.
-
• Falsche Ausfahrtserkennung
(2 rechts, Mitte)
-
Zwei
im Datenstrom aufeinanderfolgende Abschnitte p und q, von denen
p nicht als Ausfahrt aber q als Einfahrt gekenn zeichnet sind, sind
im Streckenmodell durch einen Knoten verbunden.
-
• Fehlende Einfahrtkennung (2 links
unten)
-
Zwei
im Datenstrom aufeinanderfolgende Abschnitte p und q, von denen
p als Ausfahrt aber q nicht als Einfahrt gekennzeichnet sind, sind
im Streckenmodell nicht durch einen Knoten verbunden.
-
• Falsche Ausfahrtserkennung
(2 rechts unten)
-
Zwei
im Datenstrom aufeinanderfolgende Abschnitte p und q, von denen
p als Ausfahrt aber q nicht als Einfahrt gekennzeichnet sind, sind
im Streckenmodell durch einen Knoten verbunden.
-
Ereignisse
mit diesen Signaturen sollen mit den in Tabelle 3 beschriebenen
Feldern dargestellt werden.
-
In 3 sind
einige nichtlokale Signaturen der Länge 4 ohne die Betrachtung
der Einfahrt- und Ausfahrtkennungen wiedergegeben. Es ist klar zu
erkennen, dass aufgrund der starken kombinatorischen Abhängigkeit
von der Länge
die Zahl der zu betrachtenden Fälle
stark anwächst.
Die relativ geringen Gewinne der durch diese Signaturen erkennbaren
Informationen lassen zum gegenwärtigen
Zeitpunkt den mit der Erkennung verbundenen Aufwand nicht als verhältnismäßig erscheinen.
Alle grundsätzlichen
Funktionen der Erhebung lassen sich mit den in 1 und 2 dargestellten
Signaturen quantitativ und qualitativ gut überprüfen.
-
4 Statistiken
-
Die
Ereignisse der Einzelsignaturen sollen erfindungsgemäß statistisch
ausgewertet werden. Dies geschieht technisch durch das Klassifizieren
und Zählen
von Ereignissen (absolute Häufigkeit)
und das Normieren auf eine entsprechende Grundgesamtheit um relative
Häufigkeiten
zu erhalten. Dabei gilt, dass bei unabhängigen Ereignissen der Fehler
(die Standardabweichung) der absoluten Häufigkeit durch die Wurzel aus
dieser Häufigkeit
gegeben (abzuschätzen)
ist. Dies bedeutet, dass der wahre Wert der zugrundeliegenden Zufallsvariablen
mit 67%iger Wahrscheinlichkeit im Intervall N±√N liegt. Der relative Fehler
einer Messgröße fällt daher
mit 1/√N.
-
4.1 Absolute Häufigkeiten
-
Folgende
Aufstellung gibt die zu führenden
Zähler
wieder:
- • Zahl
der eingegangenen STDs
- • Zahl
der eingegangenen STDs pro EHK
-
• Zahl der eingegangenen Einzelerhebungen
-
Die
Gesamtzahl der eingegangenen Einzelerhebungen sollte sich auch aus
der Summe der Zahlen der Einzelerhebungen pro EHK oder pro Streckenabschnitt
ergeben. Aus praktischen Gründen
(Konsistenzchecks) sollte eine solch wichtige Größe allerdings immer extra gezählt werden.
- • Zahl
der eingegangenen Einzelerhebungen pro EHK
- • Zahl
der eingegangenen Einzelerhebungen pro Streckenabschnitt
- • Zahl
der eingegangenen Einzelerhebungen pro Streckenabschnitt mit Einfahrtkennung
- • Zahl
der eingegangenen Einzelerhebungen pro Streckenabschnitt mit Ausfahrtkennung
- • Gesamtzahl
der Ereignisse
- • Gesamtzahl
der Ereignisse pro Signatur
- • Gesamtzahl
der Ereignisse pro Signatur und pro Streckenabschnitt
- • Gesamtzahl
der Ereignisse pro Signatur und pro EHK
- • Verworfene
Ereignisse pro Eintrag der Negativliste
-
4.2 Histogramme
-
Ein
(eindimensionales) Histogramm ist eine Menge von Zählern (Kanälen), in
denen die Häufigkeit
des Auftretens eines Wertes einer Ereignisvariablen festgehalten
wird. Ein Kanal wird auch Bin genannt, die Zuordnung von Wertebereichen
der histogrammierten Variablen zu den Kanälen heißt Binning. (Streng genommen
ist also z.B. die oben angegebene zu erhebende absolute Häufigkeit
von Einzelerhebungen pro EHK ein Histogramm von Einzelerhebungen über der
Ereignisvariable EHK-ID.) Es sollte immer das Histogramm über die
Zahl der Einzelerhebungen pro STD geführt werden.
-
Wird
nach mehr als einer Variablen differenziert, ergeben sich zwei-
oder multidimensionale Histogramme. (Ein zweidimensionales Histogramm
wäre z.B.
die Zahl der Einzelerhebungen über
der EHK-ID und über
den Streckenabschnitt). Mehrdimensionale Histogramme können über Projektionen
(addieren aller Einträge über eine
zu eliminierende Dimension) in ihrer Dimensionalität reduziert
werden. Hierbei vermindert sich durch die Erhöhung der absoluten Ereigniszahlen
der relative Fehler pro Bin.
-
4.3 Ausgabe
-
Alle
statistisch erhobenen Daten sollen vorzugsweise in Form von Datenbanktabellen
regelmäßig (d.h. einmal
pro Betrachtungszeitraum) ausgegeben, also nachfolgenden Programmen
zur Verfügung
gestellt werden. Nach Ablauf eines Betrachtungszeitraumes sind sämtliche
Zählerinhalte
zu löschen.
Zähler
sollen nicht persistent sein, d.h. sie werden bei Programmstart
mit Null initialisiert. Pro Ausgabe ist eine Header-Tabelle auszugeben,
in der der Betrachtungszeitraum sowie die verwendete Werte für hard cuts
bei der Signaturerkennung sowie evtl. weitere, für die Interpretation der Daten
wichtige Optionen und Parameter enthalten sind.
-
5 Ereignislisten
-
In
Ereignislisten werden im Gegensatz zu den in Abschnitt 4 beschriebenen
Statistiken, u.a. Daten abgelegt, die einzelne Ereignisse beschreiben
(siehe Abschnitt 3). Diese Listen können dann weiteren Analysetcols
(Data-Warehouses, o.ä.)
als Datengrundlage dienen.
-
Zur
Normierung der in den Listen enthaltenen Daten müssen in den Ereignislisten
in regelmäßigen Abschnitten
die aktuellen Zählerstände der
absoluten Häufigkeiten
enthalten sein.
-
5.1 Filter
-
Ohne
weitere Vorkehrungen würden
Ereignislisten sehr groß.
Daher werden die auftretenden Ereignisse vorzugsweise zunächst durch
Filter geleitet, bevor sie tatsächlich
in eine Ausgabeliste geschrieben werden. Ein solches Filter lässt nur
Ereignisse mit bestimmten Eigenschaften passieren. Beispiele für Filterbedingungen
sind:
- • Alle
Ereignisse, die eine EHD-ID betreffen
- • Alle
Ereignisse, die einen Abschnitt betreffen
- • Alle
Ereignisse vom Typ "Diskontinuität", deren Fahrten z.B.
zwischen 14:00 und 15:00 liegen.
-
Filterbedingungen
sind also allgemeine logische Ausdrücke, die unter Zugriff auf
die Datenfelder eines Ereignisses ausgewertet werden. Um dem Anwender
zu erlauben, eigene Filterbedingungen zu formulieren, kann ein Parser
für diese
Ausdrücke
implementiert werden. Dies ist jedoch nicht unbedingt erforderlich,
wenn Filterbedingungen zunächst
im Programmcode verankert werden.
-
In
erweiterter Ausführungsform
des erfindungsgemäßen Verfahrens
können
auch mehrere Filter gleichzeitig betrieben werden. In diesem Fall
erzeugt jedes Filter eine eigene Ausgabeliste, in denen Daten durchaus
redundant enthalten sein können.
-
6 Flüsse
-
Als
Fluss lässt
sich für
das erfindungsgemäße Verfahren
der Durchsatz pro Zeiteinheit an einem Querschnitt definieren (streng
genommen bezogen auf diesen Querschnitt; im allgemeinen reicht es
jedoch aus, für alle
Abschnitte den gleichen Querschnitt anzunehmen). Mit den oben vorgestellten
Zählern
ist es sehr einfach, die folgenden Flüsse zu berechnen:
-
• Fluss pro Abschnitt
-
Hier
wird für
jeden Abschnitt die Zahl der Erhebungen im Betrachtungszeitraum
gezählt.
-
• Fluss pro Einfahrt bzw. Ausfahrt
-
Hier
wird für
jeden Abschnitt die Zahl der Erhebungen mit Einfahrt- bzw. Ausfahrtkennung
gezählt.
-
Für Flüsse können verschiedene
Erhaltungssätze
formuliert werden. Im Fall von Quellenfreiheit sind diese Regeln
in der Elektrotechnik z.B. als Kirchhoff'sche Regeln bekannt. (Quellenfreiheit
bedeutet hier, dass die betrachteten Objekte nicht spontan aus einer
Quelle entstehen oder in einer Senke verschwinden können. Im
Allgemeinen kann von einem quellenfreien Fluss ausgegangen werden
und damit Divergenzen im Fluss als Hinweis auf Fehler-Effekte gewertet
werden). Im vorliegenden Fall lautet die Kirchhoff'sche Knotenregel
z.B., dass die Summe aller Flüsse
an einem Knoten Null sein muss. (Es sei hier darauf hingewiesen,
dass die detaillierte Analyse der gemessenen Flüsse nicht trivial ist und nicht
Teil der Erfindung darstellt. Zum einen ist die Quellenfreiheit
nur für
ausreichend große
Betrachtungszeiträume
realistisch, da das betrachtete Netz eine gewisse Speicherkapazität aufweist
und das Medium komprimierbar ist, zum anderen müssen zur Anwendung der Kirchhoff'schen Regeln bestimmte
Voraussetzungen an das Knoten-Kanten-Modell gestellt werden, deren Einhaltung
bisher nicht verifiziert wurden.)
-
7 Erhebungseffizienz
-
Ein
wesentliches Ziel der erfindungsgemäßen Analyse ist die Abschätzung der
Erhebungseffizienz. Die Erhebungseffizienz ist der Quotient aus
als Einzelerhebungen korrekt erkannten Streckenabschnitten zu der
Zahl der auf der tatsächlichen
Fahrt liegenden Streckenabschnitte für eingeschaltete Fahrzeuggeräte. Diese
so definierte Erhebungseffizienz kann für einen Großteil der Abschnitte aus den
in Abschnitt 3.2 dargestellten topologischen Signaturen der Länge 3 unter
Verwendung der in Abschnittl 4.1 dargestellten absoluten Häufigkeiten
näherungsweise
geschätzt
werden als der Quotient aus der Summe der absoluten Häufigkeiten
der Ereignisse mit den Signaturen "Sichere Ein-Abschnitts-Lücken" und "Sichere Ein-Abschnitts-Fehl-erkennung" und der Zahl der
Einzelerhebungen zuzüglich
der Zahl der Ereignisse mit der Signatur "Sichere Ein-Abschnitts-Lücken".
-
Diese
Näherung
geht von einer Erhebungseffizienz nahe bei eins aus. Hieraus folgt,
dass die Zahl der Zwei-Abschnittslücken, in der zwei Abschnitte
nacheinander nicht erkannt werden, stark unterdrückt ist und dass die Zahl der
Einzelerhebungen einen ausreichend genauen Schätzer für die Grundgesamtheit (den
Nenner) darstellt. Für
eine exakte Fehlerbetrachtung können
Monte-Carlo-Simulationen eingesetzt werden.
-
Mit
dem erfindungsgemäßen Verfahren
können
Schwächen
der eingehenden Daten im laufenden Betrieb erkannt werden. Zeitaufgelöste Qualitätsaussagen
sind ebenso möglich,
wie die Erkennung defekter Fahrzeugeinheiten. Die Erfassung der
erforderlichen Daten für
die Analyse ("Mauterhebung") ist extrem einfach
und verursacht kaum zusätzlichen
organisatorischen oder operativen Aufwand, weil die eingesetzten
Algorithmen bekannt sind und der Verfahrensablauf standardmäßig implementiert
werden kann. Zudem werden diese Werte für andere statistische Auswertungen
ohnehin benötigt.
Das zeitliche Raster (Aktualität)
und die Weiterverarbeitung inkl. PMS sind vergleichbar mit der Plausibilitätsprüfung. Mit
der erfindungsgemäßen Erfassungsfehler-Analyse
ergeben sich weiterführende
Ansätze
zur Fehlerfeststellung.
Tabelle
1
Tabelle
2
Tabelle
3