DE102020004064B3 - Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge - Google Patents

Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge Download PDF

Info

Publication number
DE102020004064B3
DE102020004064B3 DE102020004064.0A DE102020004064A DE102020004064B3 DE 102020004064 B3 DE102020004064 B3 DE 102020004064B3 DE 102020004064 A DE102020004064 A DE 102020004064A DE 102020004064 B3 DE102020004064 B3 DE 102020004064B3
Authority
DE
Germany
Prior art keywords
image
detection
image sensor
cross
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020004064.0A
Other languages
English (en)
Inventor
Auf Nichtnennung Antrag
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102020004064.0A priority Critical patent/DE102020004064B3/de
Application granted granted Critical
Publication of DE102020004064B3 publication Critical patent/DE102020004064B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L1/00Devices along the route controlled by interaction with the vehicle or train
    • B61L1/02Electric devices associated with track, e.g. rail contacts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L1/00Devices along the route controlled by interaction with the vehicle or train
    • B61L1/16Devices for counting axles; Devices for counting vehicles
    • B61L1/163Detection devices
    • B61L1/166Optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/023Determination of driving direction of vehicle or train

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

KurzfassungTechnische AufgabeDerzeitige Fahrzeugdetektion im Schienenverkehr basiert auf technischen Systemen, deren Komponenten direkt im Gleis an den Schienen montiert werden müssen. Die Aufgabe der vorliegenden Erfindung besteht darin, das Fahrzeugdetektionssystem und den Gleisbau voneinander physikalisch zu lösen.Lösung des ProblemsEinsatz eines Systems und Verfahrens für die Detektion schienengebundener Fahrzeuge, bestehend aus mindestens einem Bildsensor und einer Rechnereinheit, auf welcher folgende Verfahrensschritte der Fahrzeugdetektion ausgeführt werden:• Aufnahme eines Referenzbildes mit der Darstellung der Grundstellungszene.• Detektion der Grundstellung als Ergebnis des Bildvergleichs auf dem Wege der Kreuzkorrelation und der Klassifizierung der Bildinformation mittels künstlicher neuronaler Netze.• Überwachung der Amplitude des Kreuzkorrelationskoeffizienten zum Zwecke der Objektdetektion.• Validierung und Klassifizierung der vom Bildsensor stammenden Objektdaten mittels künstlicher neuronaler Netze.• Ermittlung der Fahrtrichtung.• Übertragung der gewonnenen Informationen an übergeordnete Systeme.AnwendungsgebietFahrwegsicherung und Fahrwegsteuerung im Schienenverkehr.

Description

  • Gebiet der Erfindung
  • Dieses Dokument beschreibt ein optisches System und Verfahren, welches im Verbund mit neuronalen Netzen der Detektion von schienengebundenen Fahrzeugen dient.
  • Die Erfindung ist für den Einsatz in der Fahrwegsicherung schienengebundener Fahrzeuge, für die Detektion der Fahrzeuge in einem Gleisabschnitt vorgesehen.
  • Stand der Technik
  • 2.1 Schienenfahrzeuge haben eine große Masse und dadurch bedingt lange Bremswege.
  • Ihr Fahrweg muss aus diesem Grund gesichert werden, insbesondere im Bereich von Weichen und Lichtsignalanlagen.
  • Hierzu ist es erforderlich, die Anwesenheit der Schienenfahrzeuge zu detektieren.
  • Die heute im Einsatz befindlichen und weitverbreiteten Detektionssysteme für Schienenfahrzeuge wurden in den 60-er Jahren des vergangenen Jahrhunderts entwickelt.
  • Hierzu gehören:
    • • Weichensperrkreise
    • • Tonfrequenzgleiskreise,
    • • Radsensoren
    • • Oberleitungskontakte.
  • Diese müssen aufwendig im Gleis, an den Schienen oder im Fall von Oberleitungskontakten in der Oberleitung montiert werden.
  • Sie sind teuer in der Beschaffung und in der Unterhaltung.
  • Der Einbau erfordert die Durchführung von Gleis- und Tiefbauarbeiten.
  • An den Schienen müssen unzählige präzise Bohrungen für die Herstellung gasdichter elektrischer Anschlüsse angefertigt werden.
  • In die Gleismitte müssen Kabelschutzrohre geführt werden.
  • Die Errichtung und die Instandsetzung dieser Komponenten im Schienennetz erfordert meist die Sperrung von Fahrbahnen oder gar Straßen und hat eine große Auswirkung auf die gesamte Verkehrsabwicklung.
  • Der Aufbau eines Weichensperrkreises und des Tonfrequenzgleiskreises und ihre Funktion ähneln sich im Prinzip stark. Aus einem Gleisabschnitt wird ein elektrischer, auf eine bestimmte Resonanzfrequenz abgestimmter Schwingkreis gebildet. Hierzu müssen im Gleis am Anfang und am Ende des Gleisabschnitts elektrische Kabelverbinder sowie Speise- und Empfangsleitungen montiert werden. In der Mitte eines Weichensperrkreises wird ein Kondensator montiert, der in Verbindung mit der Induktivität der Schienen einen Resonanzschwingkreis bildet. Ein Oszillator speist den Gleisabschnitt mit einer Wechselspannung entsprechend der Resonanzfrequenz. Diese Spannung wird am anderen Ende des Gleisabschnitts empfangen. Befährt eine Bahn einen solchen Gleisabschnitt, bewirken die Radachsen einen Kurzschluss über die Schienen. Am Empfänger kommt dadurch keine bzw. in ihrer Höhe nur eine geringe Spannung an. Unterschreitet die empfangene Spannung einen bestimmten Schwellenwert, wird der Gleisabschnitt als besetzt gemeldet.
  • Bei Weichensperrkreisen, die in elektrisch stellbaren Weichen die Funktion des Umstellschutzes haben, wirkt zusätzlich die Eisenmasse des Fahrzeugs, die die Schwingungen im Weichensperrkreis bedämpfen kann.
  • Radsensoren hingegen erfassen induktiv die Radkränze der Fahrzeuge und werden als Zähleinrichtungen verwendet. Sie werden direkt an der Schiene befestigt. Ein aus zwei in einem Abstand voneinander montierten Radsensoren gebildeter Gleisabschnitt ist frei, wenn die Zahl der eingezählten Räder mit der Zahl der ausgezählten Räder übereinstimmt.
  • Radsensoren werden ebenfalls als Anforderungseinrichtung eingesetzt, zum Beispiel um einen Weichenumlauf zu bewirken, insbesondere dann, wenn die Weiche stumpf befahren wird und nicht aufgefahren werden soll. Hierzu müssen in jedem Gleisabzweig je ein Radsensor montiert werden. Dieses ist in Rillengleisanalgen besonders schwierig.
  • Oberleitungskontakte funktionieren ähnlich wie Radsensoren. Sie werden jedoch nicht an der Schiene, sondern in der Oberleitung montiert und erfassen induktiv die Stromabnehmer der Schienenfahrzeuge. Die Gleisabschnittüberwachung wird realisiert, indem die Stromabnehmer der Bahnen an den Oberleitungskontakten gezählt werden.. Ein aus zwei in einem Abstand voneinander montierten Oberleitungskontakten gebildeter Gleisabschnitt ist frei, wenn die Zahl der eingezählten Stromabnehmer mit der Zahl der ausgezählten Stromabnehmer übereinstimmt. Oberleitungskontakte werden manchmal auch als Signalanforderungseinrichtung eingesetzt. Oberleitungskontakte werden häufig in Fahrsignalanlagen für die Regelung des Betriebs im Baustellenbereich bei Gleiserneuerungs- bzw. -instandsetzungsarbeiten eingesetzt.
  • An die Sicherheit solcher Fahrzeugdetektionssysteme werden in der Regel keine Anforderungen gestellt. Die Sicherheit ihrer Funktion wird mittels einer übergeordneten Überwachungseinrichtung realisiert, welche die logischen Zustände der Gleisabschnitte nach dem Prinzip der Folgeabhängigkeit im Betrieb überwacht. Festgestellte Störungen in den Abläufen wirken sich betriebshemmend aus.
  • Wenn zwei hintereinander angeordnete Gleisabschnitte befahren werden, wird zuerst der Gleisabschnitt 1 belegt, dann wird der Gleisabschnitt 2 belegt. Anschließend wird der Gleisabschnitt 1 frei und letztendlich wird der Gleisabschnitt 2 frei.
  • Die Anlage funktioniert störungsfrei, wenn diese Abfolge eingehalten wird.
  • Unabhängig hiervon werden bei der Konstruktion der Systeme und der Baugruppen sowie bei der Auswahl der Bauelemente technische Sicherheitsaspekte beachtet.
  • 2.2 Aus der WO 2010/058 703 A1 ist eine Zugdetektionsvorrichtung bekannt, die folgendes umfasst: eine Fahrzeugalarmeinheit, die ein Signal bei Erfassung der Annäherung eines Fahrzeugs ausgibt; eine Überwachungskamera, die ein Dach des Fahrzeugs abbildet; und eine Bildverarbeitungsvorrichtung. Die Bildverarbeitungsvorrichtung ist ausgestattet mit: einer Fahrzeugerkennungseinheit, die das Fahrzeug gemäß einem von der Überwachungskamera aufgenommenen Bild erfasst; einer Aufzeichnungseinheit, die das von der Überwachungskamera aufgenommene Bild aufzeichnet; und einer Steuereinheit, die den Start und Stopp der Überwachungskamera gemäß dem von der Fahrzeugalarmeinheit übertragenen Signal steuert.
  • Problem
  • Der im Patentanspruch 1 angegebenen Erfindung liegen folgende Probleme zu Grunde:
    • 3.1 Die im Abschnitt „Stand der Technik“ beschriebenen Systeme müssen aufwendig im Gleis montiert werden.
    • 3.2 Sie sind anfällig für Störungen.
    • 3.3 Die Komponenten der Systeme sind speziell für den beschriebenen Verwendungszweck in einer relativ geringen Stückzahl gefertigt und sind dadurch teuer.
    • 3.5 Die Komponenten der im „Abschnitt Stand“ der Technik beschriebenen Systeme sind den Einflüssen des Erdreichs und somit einem verstärktem Korrosionsrisiko ausgesetzt. Das beeinträchtigt die Lebensdauer der Einrichtungen.
    • 3.6 Die mit dem Gleis elektrisch verbundenen Komponenten müssen von der elektrischen bzw. elektronischen Steuerung galvanisch getrennt sein. Diese Trennung muss überwacht werden.
    • 3.7 Beim Einbau der Komponenten in die mit dem Individualverkehr gemeinsam genutzte Fahrbahn sind die Komponenten einer starken mechanischen Beanspruchung ausgesetzt. Das beeinträchtigt die Lebensdauer der Einrichtungen.
    • 3.8 Die Instandsetzung erfordert teils massive Gleis- und Tiefbauarbeiten verbunden mit dem Aufbruch der Fahrbahn und mit Beeinträchtigungen der Verkehrsabwicklung im urbanen Bereich.
    • 3.9 Der Instandhaltungsaufwand ist hoch
    • 3.10 Es entstehen hohe Instandsetzungskosten bei der Wiederherstellung der im Gleis Verbauten Komponenten.
  • Lösung
  • Die geschilderten Probleme werden wie folgt gelöst:
    • 4.1 Es sind keine Einbauten im Gleis oder in der Fahrleitung erforderlich. Die Bildsensoren können in der Regel an bestehenden Signal oder Fahrleitungsmasten montiert werden.
    • 4.2 Die genaue Ortsbestimmung der Funktion wird auf dem Wege der Ausrichtung des Bildsensors und der Einstellung der optischen Elemente bewirkt. Dadurch ergibt sich eine höhere Flexibilität für die Montage und die Installation des Systems.
    • 4.3 Die Komponenten des Systems sind nicht den Einflüssen des Erdreichs und der mechanischen Belastung durch den Schienen- und Individualverkehr ausgesetzt, wodurch die Verfügbarkeit des Systems erhöht wird.
    • 4.4 Die Komponenten des Systems werden keiner mechanischen Beanspruchung durch den Scheinen- bzw. Individualverkehr ausgesetzt,
    • 4.5 Da keine Verbindung zum Gleis besteht, muss keine galvanische Trennung und ihre Überwachung realisiert werden.
    • 4.6 Für die Detektion der Fahrzeuge werden Bildsensoren verwendet, die im industriellen Umfeld Anwendung finden. Das heißt, in großer Stückzahl verfügbar sind.
    • 4.7 Es ist mit relativ geringen Instandhaltungskosten und Instandsetzungskosten zu rechnen.
  • Erreichte Vorteile
    • 5.1 Die mit der Erfindung erzielten Vorteile bestehen darin, dass die Betriebstechnik für signaltechnische Anwendungen und Anwendungen der Informationstechnik vom Gleis- und Tiefbau entkoppelt wird. Daraus ergeben sich enorme Ersparnisse:
    • 5.2 Wegfall von Gleis- und Tiefbauarbeiten bei Instandsetzungsmaßnahmen des Fahrzeugdetektionssystems.
    • 5.3 Wegfall der Notwendigkeit des Rückbaus und der Wiederherstellung der im Gleis verbauten Komponenten der Fahrzeugdetektionssysteme bei Gleis- und Tiefbauarbeiten.
    • 5.4 Einfache Montage und Inbetriebsetzung.
    • 5.5 Einfacherer Aufbau der Steuerung und insbesondere der Spannungsversorgung, da die galvanische Trennung der Anlagen vom Gleis nicht realisiert und überwacht werden muss.
    • 5.6 Geringer Instandhaltungsaufwand.
    • 5.7 Höhere Systemverfügbarkeit
    • 5.8 Leichte Instandsetzung
    • 5.9 Zusätzliche, über die bloße Fahrzeugdetektion hinausgehende, Funktionalität, insbesondere die Bestimmung der Fahrtrichtung, und gegebenenfalls der Fahrzeugorientierung.
    • 5.10 Senkung der Kosten.
  • Ausführung
  • Der Bildsensor liefert Bilder in der erforderlichen Auflösung. Die Bildfrequenz kann je nach verwendetem Bildsensor und Erfordernis variieren und liegt zwischen 12 Hz und 30 Hz. Die Verwendung von Bildsensoren, die in der Lage sind, höhere Bildfrequenzen zu liefern, ist möglich.
  • Zum Einsatz können je nach Anwendungsfall folgende Bildsensortypen kommen:
    • • 2D-Kamera
    • • 3D-Kamera
    • • LiDAR
  • 3D-Kameras und LiDAR-Systeme liefern als Bildinformation eine Punktwolke, die ein räumliches Abbild des Umfelds wiedergibt.
  • In der vorliegenden Anwendung kommt es nicht auf die räumliche Darstellung der Objekte an. Vielmehr geht es um die Vorteile, welche die Art der Bilderfassung mittels 3D-Kameras und LiDAR bietet.
  • Die in Aufnahmen von 2D-Kameras so wichtige Pixelintensität wird bei Verwendung von 3D-Bildsensoren durch die dritte Dimension ersetzt.
  • Hierbei kann ein Schwellwert in Bezug auf die Distanz bestimmt werden, der den Bilderfassungsbereich eingrenzt.
  • Die Bildgebung von 3D-Kameras und LiDAR-Sensoren ist weitestgehend unabhängig von den Licht- und Witterungsverhältnissen. 3D-Kameras und LiDAR-Systeme sind vorzugsweise in sicherheitsrelevanten Anwendungen im Außenbereich zu verwenden.
  • Der Bereich des Bildes, welcher der Auswertung zugeführt wird kann definiert werden. Vorzugsweise ist 256x256 Pixel groß. Er kann sich in Abhängigkeit vom verwendeten Bildsensor und den Erfordernissen ändern.
  • Die Verarbeitung der Bildinformation erfolgt auf zwei Wegen:
    • • Normierte Kreuzkorrelation
    • • Neuronale Netze
  • Im System kommen vorzugsweise drei unterschiedlich spezialisierte künstliche neuronale Netze zum Einsatz.
  • Das System kennt grundsätzlich zwei Zustände:
    • • Grundstellung
    • • Objekt detektiert
  • Diese Zustände sind mit den jeweiligen Bildinformationen verknüpft.
  • Detektion der Grundstellung
  • Die Grundstellung entspricht einer Bildszene ohne Fahrzeug. Diese Bildszene könnte aus einer diagonal im Bildausschnitt verlaufenden Linie, die die Fahrleitung darstellt, oder aus zwei Linien, die die Schienen des Gleises zeigen, bestehen.
  • Die Perspektive des Bildsensors und somit der Grundstellungsszene ändert sich nicht.
  • Die Grundstellungsszene wird während der Inbetriebnahme als Einzelbild aufgezeichnet. Diese Aufzeichnung dient als Referenzbild.
  • Die Überwachung der Übereinstimmung des Referenzbildes mit der aktuellen Bildinformation erfolgt auf dem Wege der normierten Kreuzkorrelation.
  • Die Punkte, aus welchen ein Bild besteht, zeichnen sich durch ihre Helligkeit, Farbe und ihre Position aus. Die Position dieser Punkte, auch Pixel genannt, kann in Koordinaten der Bildmatrix dargestellt werden.
  • Mathematische Bildvergleiche basieren auf statistischen Methoden. Zu den meist bekannten gehört die Kreuzkorrelation. K B = i = 1 n ( j = 1 m ( x i j x ¯ ) ( y i j y ¯ ) 2 ) ( i = 1 n ( j = 1 m ( x i j x ¯ ) 2 ) ) ( i = 1 n j = 1 m ( y i j y ¯ ) 2 )
    Figure DE102020004064B3_0001
  • n
    Höhe der Bildmatrix
    m
    Breite der Bildmatrix
    xij
    Intensität des Pixels x mit den Koordinaten ij - in der Bildmatrix X
    yij
    Intensität des Pixels y mit den Koordinaten ij - in der Bildmatrix Y
    Mittelwert der Pixelintensitäten im Bild X
    Mittelwert der Pixelintensitäten im Bild Y
    KB
    Kreuzkorrelationskoeffizient
  • Der Kreuzkorrelationskoeffizient kann Werte zwischen -1 und 1 annehmen.
  • Dabei bedeutet der Wert 1 den höchsten Übereinstimmungswert. Null hingegen steht für gar keine Korrelation.
  • Pixelbezogene Betrachtungen erweisen sich jedoch häufig als nicht praktikabel, da viele Faktoren zu rechnerischen Abweichungen führen und das Ergebnis nicht unseren physiologischen Fähigkeiten und der Wahrnehmung entspricht.
  • Gute Ergebnisse hingegen erzielt man bei Anwendung der Kreuzkorrelation, indem man das Bild nach der Durchführung der Kantenextraktion und der Binarisierung in ausreichend feine Raster einteilt. Für jedes Raster wird die Varianz berechnet. Die Rastervarianzen des Referenzbildes und des Vergleichsbildes werden Kreuzkorreliert.
  • Die Binarisierung des Bildes bewirkt, dass nur zwei Helligkeitszustände dargestellt werden: weiß und schwarz. Weiß entspricht dem Wert 255 und schwarz dem Wert 0 der Pixelintensität.
  • Alle Werte eines schwarz- weiß Bildes, die zwischen 0 und 255 liegen, entsprechen den möglichen Graustufen.
  • Die Durchführung der Binarisierung erfolgt mit einem Schwellenwert, welcher von dem Mittelwert der Grauwerte im jeweiligen Bild bestimmt wird. Damit werden, die sich ändernden Lichteinflüsse in einem weiten Bereich ausgeglichen.
  • Die Bestimmung des Schwellenwertes findet automatisch in Anpassung an die sich verändernde Belichtungssituation statt.
  • Die Kantenextraktion erfolgt vorzugsweise mittels des Sobel-Operators auf dem Wege der Faltung. Bei Erfordernis können auch andere Operatoren verwendet werden.
  • Dabei handelt sich bei der Faltung um eine mathematische Operation die auf zwei Funktionen angewendet wird und im Ergebnis eine dritte Funktion liefert.
  • Die Grundstellungsszene unterliegt tageszeit- und jahreszeitbedingten Änderungen. Sie ergeben sich aus den unterschiedlichen Lichtverhältnissen und ggf. auch Änderungen, die durch Vegetation, Schneefall oder Regen bedingt sind. Aus diesem Grund muss das Referenzbild ständig aktualisiert werden. Dieses geschieht kontinuierlich und ausschließlich bei sehr hohen Übereinstimmungswerten mit dem Referenzbild, die sich in einem hohen Wert des Kreuzkorrelationskoeffizienten zeigen. Damit wird sichergestellt, dass es sich immer noch um die Grundstellungsszene handelt. Dabei wird der Umstand genutzt, dass die messbaren, tageszeit- und jahreszeitbedingten, Veränderungen der Grundszene um ein Vielfaches langsamer stattfinden, als der Ablauf der Objektdetektion. Dieses Verfahren ist insbesondere beim Einsatz einer 2D-Kamera von Bedeutung. Lösungen mit 2D-Kameras für Aufnahmen im für das menschliche Auge nicht sichtbarem 940nm Lichtspektrums eigenen sich für die Verwendung in Tunnelanlagen. In diesem Bereich muss nicht mit Witterungseinflüssen oder sich stark ändernden Lichtverhältnissen gerechnet werden. Die Bildszene muss entsprechend ausgeleuchtet werden.
  • Da die Grundstellungsszene abhängig von dem Einsatzort ist, kann sie das neuronale Netz erst nach der Systemmontage, bei der Inbetriebnahme, erlernen. Dieser Vorgang findet statt, unterstützt durch das Kreuzkorrelationsverfahren des Bildvergleichs.
  • Bereits nach einer kurzen Zeit ist das neuronale Netz in der Lage, die gelernte Grundstellungsszene zu erkennen.
  • Wird die Grundstellungsszene einwandfrei erkannt, befindet sich das System in Grundstellung und ist bereit, die Funktion der Objektdetektion auszuführen. Die Grundstellung des Systems liegt vor, wenn das Ergebnis der Kreuzkorrelation des Referenzbildes mit dem aktuellen Bild einen hohen, über dem festgelegten Schwellenwert liegenden, Kreuzkorrelationskoeffizienten liefert und die Ausgabe des neuronalen Netzes ebenfalls die Grundstellung signalisiert. Die Auswertung erfolgt somit auf der Grundlage von zwei unabhängigen Verfahren statt.
  • Das System verfügt über drei künstliche neuronale Netze, welche in unabhängigen Threads ausgeführt werden und unterschiedliche Aufgaben übernehmen:
    1. 1. Diskriminieren
    2. 2. Klassifizieren
    3. 3. Lernen
  • Das als Diskriminator fungierende künstliche neuronale Netz validiert die Bilder. Das heißt, es prüft, ob die Bilder gültig sind und zur Auswertung durch den Klassifikator zugelassen werden.
  • Das zweite künstliche neuronale Netz dient der Klassifikation der validierten Bilddaten.
  • Das dritte künstliche neuronale Netz führt bei Bedarf Lernschritte durch, um die Leistungsfähigkeit des Systems zu optimieren.
  • Objektdetektion
  • Erscheint in dem überwachten Bildausschnitt ein Objekt, sinkt der Wert des Kreuzkorrelationskoeffizienten, weil der Grad der Übereinstimmung des aktuellen Bildes mit dem Referenzbild abnimmt. Bewegt sich dieses Objekt und tritt immer mehr in den überwachten Bildausschnitt ein, so ist zunächst ein Abfall des Kreuzkorrelationswertes zu beobachten. Sein Wert steigt, sobald das Objekt den Bildbereich verlässt und erreicht wieder den maximalen Wert, welcher der Grundstellungsszene entspricht, wenn sich das Objekt nicht mehr im überwachten Bildausschnitt befindet. Der kleinste Wert des Kreuzkorrelationskoeffizienten ist anzunehmen, wenn das Objekt auf seinem Weg im maximalen Umfang optimal im überwachten Bildausschnitt zu erkennen ist. Diese Bildinformation wird festgehalten und dient der Auswertung durch das neuronale Netz. Die Auswertung durch das neuronale Netz erfolgt daher wenige Bilder später, nachdem der Kreuzkorrelationskoeffizient gestiegen ist und es feststeht, dass das Minimum endgültig überschritten wurde.
  • Der Schwellenwert für diesen Triggerimpuls wird aus dem Mittelwert der während eines Detektionsvorgangs gemessenen Korrelationswerte gebildet. K A = K max + K min 2
    Figure DE102020004064B3_0002
  • Bedingt durch diese Vorgehensweise entsteht zwischen der Detektion des Objekts und der Ausgabe der Information an das übergeordnete System eine von der Bildfrequenz abhängige Verzögerung, die einige Hundert Millisekunden betragen kann.
  • Während der Befahrung des überwachten Bereichs werden in der Regel mehrere Bilder des detektierten Objekts erfasst.
  • Sollte die Bildszene durch das neuronale der Klassifikation dienende Netz nicht erkannt werden, wird ein erneuter Versuch mit dem zweiten Bild in Folge unternommen. Die Anzahl der zur Verfügung stehenden Bilder, ergibt sich aus der Tiefe des Ringspeichers, der Bildfrequenz und der Fahrzeuggeschwindigkeit. Die Objektklassifikation gilt als korrekt, wenn das neuronale Netz zwei nacheinander folgende Bilder übereinstimmend erkannte.
  • Das Folgebild dient in der Regel der Bestimmung der Fahrtrichtung.
  • Detektion der Fahrtrichtung
  • Die Detektion der Fahrtrichtung kann in einigen, signaltechnischen Anwendung vom großen Interesse sein. Das ist insbesondere in Weichenanlagen der Fall. Sie kann dafür genutzt werden, einen Stellauftrag bei der Befahrung der Weiche von der stumpfen Seite her zu generieren, wodurch die Notwendigkeit der Installation anderer Schaltmittel, z.B. Radsensoren, an der Schiene entfällt.
  • Die Fahrtrichtung wird anhand zwei nacheinander folgender Bildern ermittelt.
  • Dabei wird von zwei aufeinander folgenden Bildern des detektierten Objekts jeweils der Bildschwerpunkt errechnet. Der Bildschwerpunkt verändert sich mit der Bewegung des Objekts im überwachten Bildausschnitt. Die Differenz der Koordinaten der Bildschwerpunkte gibt Auskunft über die Fahrtrichtung. Gewöhnlich wird die Verlagerung des Schwerpunktes der Bilder entlang der X-Achse betrachtet.
  • Der Bildschwerpunkt ist als die gemittelte Summe der Produkte der Pixelkoordinaten und ihrer Intensität definiert. Da das Bild ausschließlich aus schwarzen Pixeln, die der Pixelintensität 0 und weißen Pixeln, mit der maximalen Pixelintensität 255 entsprechen, besteht, werden nur die weißen Pixel für die Berechnung herangezogen. Die Pixelintensität wird skaliert. Der Wert 255 entspricht nach der Skalierung dem Wert 1.
  • Der Bildschwerpunkt in einer Ebene wird mittels der x- und y-Koordinaten bestimmt. S x = i = 0 n j = 0 m ( x ij × P ij ) m × n
    Figure DE102020004064B3_0003
    S y = i = 0 n j = 0 m ( y ij × P ij ) m × n
    Figure DE102020004064B3_0004
  • n
    Anzahl der Spalten der Bildmatrix
    m
    Anzahl der Zeilen der Bildmatrix
    i, j
    Iteratoren über die Zeilen und Spalten der Bildmatrix
    xij
    Betrag der x- Koordinate des Pixels Pij - entspricht dem Wert des Iterators j
    yij
    Betrag der y- Koordinate des Pixels Pij - entspricht dem Wert des Iterators i
    Pij
    Pixelintensität - entspricht dem skalierten Grauwert des Pixels mit den Koordinaten i, j. Der Wert liegt zwischen 0 und 1
    sx
    x- Koordinate des ermittelten Bildschwerpunkts
    sy
    y- Koordinate des ermittelten Bildschwerpunkts
  • Vor der Ermittlung des Bildschwerpunktes wird von dem Bild die Hintergrundinformation subtrahiert, um störende Einflüsse zu eliminieren und eine im Betrag deutlichere Aussage zu erhalten. Die Hintergrundinformation liefert dabei das aktuelle Grundstellungsbild.
  • Die Erkennung der Fahrrichtung kann dazu genutzt werden, einen Weichenumstellvorgang auszulösen, wenn die Weiche stumpf befahren wird.
  • Eine Weiche führt in der Regel in den linken oder in den rechten Abzweig oder in Analogie geradeaus oder rechts bzw. links. Wird sie stumpfbefahren, nähert sich das Fahrzeug der Weiche aus dem linken bzw. dem rechten Abzweig. Der Bildsensor muss daher beide Abzweige überwachen. Hierzu müssen im Bild zwei Bildausschnitte, welche die zu überwachenden Bereiche definieren, bestimmt werden. Dieses wird durch die entsprechende Ausrichtung des Bildsensors und die Positionierung der Bildausschnittrahmen im Bild erreicht.
  • Einen Weichenumstellvorgang kann die Weichensteuerung bzw. das Stellwerk nur dann ausführen, wenn die Weiche frei und nicht verschlossen ist, das heißt, dass sich zum Zeitpunkt des Weichenumlaufs im Weichenbereich kein Fahrzeug befinden darf. Dieser Sachverhalt wird von der übergeordneten Ebene überwacht.
  • Der geschilderte Anwendungsfall ist in der Zeichnung 2 dargestellt.
  • Der Gleisabschnitt 2, der konventionell aus einem Weichensperrkreis besteht, wird in zwei Überwachungsbereiche F1 und F2 unterteilt. Diese Bereiche stellen zwei Bildausschnitte im Bild des Bildsensors B2 dar. In diesen Bildausschnitten findet selektiv die Detektion der Fahrzeugidentifikationsmerkmale und der Fahrtrichtung statt.
  • Sollte es auf Grund der Topologie oder aus anderen Gründen nicht möglich sein, beide Abzweige mittels eines Bildsensors zu erfassen, müssen zwei Bildsensoren verwendet werden.
  • Beim Einsatz einer 3D-Kamera bzw. eines LiDAR kann die Fahrtrichtung anhand der Distanzmessung ermittelt werden.
  • Objektklassifizierung
  • Das vortrainierte neuronale Netz ist in der Lage, den Typ des Stromabnehmers zu erkennen. Bei asymmetrischen Konstruktionen der Stromabnehmer, wie im Bild Nr. 1 dargestellt, kann unterschieden werden, ob das Fahrzeug mit dem A- oder dem B-Teil vorausfährt.
  • Das Training des neuronalen Netzes erfolgt mit einer ausreichend großen Anzahl von Bildern unter Berücksichtigung diverser tageszeit- und jahreszeitbedingter Licht- und Witterungsverhältnisse.
  • Um eine optimale Anpassung des Systems an die spezifischen Einsatzbedingungen zu erzielen, lernt das neuronale Netz auch im Betrieb. Maßgeblich für die Durchführung eines Lernschrittes ist der bei der Objektdetektion gemessene Fehlerwert.
  • Das bevorzugte neuronale Netz ist ein Faltungsnetz mit 3 Faltungsebenen und 2 vollständigen verbundenen Identifikationsebenen.
  • Es kann aber auch eine abweichende Struktur aufweisen.
  • Das Netz kann neben der Grundstellungszene unterschiedliche Fahrzeugidentifikationsmerkmale erkennen.
  • Das Eingabebild hat das Format 32x32 Pixel. Die Bildinformation des Überwachungsfensters welches einer Größe von 256x256 Pixel aufweist, wird mittels des Maxpooling - Verfahrens mit einem 8x8 Filter und in einem Schritt von 8 Pixeln auf diese Größe reduziert werden.
  • In einem unabhängigen Thread führt ein speziell für diese Aufgabe bereitgestelltes neuronale Netz gegebenenfalls Lernschritte durch. Die Notwendigkeit für die Durchführung eines Lernschritts wird aus dem Fehlerwert hergeleitet. Beim Erlernen der Grundstellungsszene wird der Lernvorgang durch das Kreuzkorrelationsverfahren unterstützt. Ein hoher Wert des Kreuzkorrelationskoeffizienten signalisiert dem neuronalen Netz, dass das präsentierte Bild die zu erlernende Grundstellungsszene zeigt. Daraufhin wird der Lernvorgang ausgelöst, wenn die Erkennungsfunktion einen bestimmten Fehlerwert liefert.
  • Der Lernvorgang findet asynchron in einem unabhängigen Thread statt. Dabei wird die Datenbasis zuvor um die zu erlernenden Bilder ergänzt.
  • Durch die Parallelisierung der Prozesse werden sehr kurze Verarbeitungszeiten erzielt.
  • Sicherheitsmaßnahmen
  • Die Systemfunktion wird kontinuierlich mittels folgender Maßnahmen überwacht:
  • Bildfrequenzüberwachung
  • Der Überwachung der Bildfrequenz kommt ein hoher Stellenwert zu. Das System ist in der Lage, Bildinformationen bei einer Bildfrequenz von 30 Hz problemlos in Echtzeit bei Fahrzeuggeschwindigkeiten von bis zu 80 km/h zu analysieren.
  • Die Unterschreitung der vorgegebenen Bildfrequenz, z.B. in Folge unzureichender Lichtverhältnisse, kann zu Störungen in der Detektion führen, weil in diesem Fall eine sichere Erfassung der Objekte nicht gewährleitstet werden kann. Die Unterschreitung der Bildfrequenz muss sich betriebshemmend in einer Störung offenbaren.
  • Die Größe des überwachten Bildausschnitts muss so gewählt werden, dass bei der gegebenen Bildfrequenz mindestens zwei Bilder des Identifikationsmerkmals des sich mit der maximalen, zulässigen Geschwindigkeit bewegenden Objekts erfasst werden können. Es muss berücksichtigt werden, dass die Ereignisse der Bildaufnahme und des Erscheinens des Objektmerkmals im überwachten Bildausschnitt voneinander völlig unabhängig sind.
  • Watchdog
  • Die Funktion der Software wird mittels eines Watchdogs überwacht.
  • In bestimmten Zeitabständen sollen durch die Software Prüffunktionen durchgeführt werden. Sie müssen ein feststehendes und verifizierbares Ergebnis liefern, ohne die Funktion des Systems zu beeinträchtigen.
  • Die Überwachung der Bildsensorfunktion findet kontinuierlich statt.
  • Bedingt durch das Rauschen liefert jedes Bild auch in der Grundstellungszene eine andere Summe, die über die Bildpixel gebildet wird.
  • 6.5.3 Überwachung der Grundstellung
  • Bei Veränderung der Ausrichtung des Bildsensors oder bei anderen störenden Eingriffen in seine Funktion (z.B. in Folge von Vandalismus, Sabotage, Unwetter, etc.) wird die Grundstellungszene nicht erkannt und somit der Fehler sicher offenbart.
  • Dabei gilt: Die Detektion eines Objekts im System ist nur dann möglich, wenn zuvor die Grundstellung des Systems vorhanden war. Das impliziert die einwandfreie Erkennung der Grundstellungsszene.
  • Beispiel 1
  • Gleisabschnittsüberwachung
  • Die vorliegende Erfindung gestattet die Realisierung der Gleisabschnittsüberwachung auf Basis der Zähltechnik, wie in der Zeichnung 3 dargestellt.
  • Am Anfang und am Ende des zu überwachenden Gleisabschnitts befinden sich mindestens je ein Bildsensor, welche in Verbindung mit der entsprechenden Rechnereinheit und dem für die Durchführung des Verfahrens erforderlichem Programmmodul der Detektion der Grundstellung und der Fahrzeugmerkmale dienen. Im Dargestellten Beispiel ist das der Pantograph.
  • Die Panthographen, welche am Bildsensor, der am Anfang des zu überwachenden Gleisabschnittsmontiert ist, erfasst wurden, werden in den Gleisabschnitt eingezählt. Die Panthographen, welche am Bildsensor, der am Ende des zu überwachenden Gleisabschnitts montiert ist, erfasst wurden, werden in den Gleisabschnitt ausgezählt. Der Gleisabschnitt ist frei, wenn die Summe der in den überwachten Gleisabschnitt eingezählten und der aus dem Gleisabschnitt ausgezählten Panthographen bzw. anderer Fahrzeugidentifikationsmerkmale Null ist. Sonst ist der Abschnitt belegt.
  • In der Zugsicherungstechnik wird die Sicherheit durch Schaffung von Abhängigkeiten die logisch überwacht werden, realisiert.
  • Aus diesem Grund realisiert man eine Gleisabschnittüberwachung indem man den zu überwachenden Gleisbereich in mindestens zwei Abschnitte, die wie oben ausgeführt, beschaffen sind, einteilt.
  • Diese Gleisabschnitte müssen sich physikalisch überlappen. Das ist erforderlich, um die logische Überwachungsfunktion der Folgeabhängigkeit realisieren zu können.
  • Die Funktion der Folgeabhängigkeit kann in folgender Tabelle, welche die unterschiedlichen Befahrungsphasen und die Zustände der Gleisabschnitte zeigt, dargestellt werden.
    Folgeabhängigkeit
    Gleisabschnitt 1 Gleisabschnitt 2
    frei frei
    belegt frei
    belegt belegt
    frei belegt
    frei frei
  • Die in der Tabelle dargestellt Ablaufphase, in der beide Gleisabschnitte belegt sind, tritt regelmäßig auf nur dann, wenn die Überlappung der Gleisabschnitte vorhanden ist. Dann ist sichergestellt, dass die Belegung des in der Fahrtrichtung zweiten Gleisabschnitts stattfindet, bevor der erste Gleisabschnitt freigemeldet werden kann. Es reicht aus, wenn die Überlappung der Gleisabschnitte bereits wenige Meter beträgt. Wichtig ist die Einhaltung der zeitlichen Abfolge. Abweichungen in dem dargestellten Ablauf führen zwangsläufig zu einer betriebshemmenden Störung des Systems.
  • Die Erfassung der Fahrzeugidentifikationsmerkmale am Ende des ersten Gleisabschnitts und am Anfang des zweiten Gleisabschnitts kann gegebenenfalls mittels nur eines Bildsensors realisiert werden. Hierzu müssen in seinem Bilderfassungsbereich zwei entsprechend angeordnete und zugeordnete Bildausschnittbereiche, in welchen jeweils die Fahrzeugmerkmale erfasst werden, eingerichtet werden.
  • Hieraus ergeben sich zusätzliche Vorteile aufgrund der Reduktion des Hardwareaufwandes.
  • Legende Fig.3
  • • B1
    Bildsensor
    • B2
    Bildsensor
    • B3
    Bildsensor
    • GLA1
    Gleisabschnitt 1
    • GLA2
    Gleisabschnitt 2
    • Ü1.1
    Überwachungsfenster für die Objektdetektion Gleisabschnitt 1
    • Ü1.2
    Überwachungsfenster für die Objektdetektion Gleisabschnitt 1
    • Ü2.1
    Überwachungsfenster für die Objektdetektion Gleisabschnitt 2
    • Ü2.2
    Überwachungsfenster für die Objektdetektion Gleisabschnitt 2
    • Ü3.1
    Überwachungsfenster für die Objektdetektion Gleisabschnitt 3
  • Beispiel 2
  • A1 und A2 in der Zeichnung 2 sind Empfangsantennen, an welchen der Empfang der vollständigen Zugnummer (A2) bzw. der Zielkennung (A1) stattfindet. Die Empfangene Information dient der Generierung eines Stellauftrags für die Weiche entsprechend der geforderten Fahrtrichtung.
  • Die Bildsensoren B1 und B2 dienen dem Weichenumstellschutz. Befindet sich im Sichtbereich der Bildsensoren B1 oder/und B2 ein Schienenfahrzeug, kann kein Stellauftrag ausgeführt werden. Ein Stellauftrag kann nur dann ausgeführt werden, wenn sich im Gleisabschnitt 1 und im Gleisabschnitt 2 kein Schienenfahrzeug befindet und die Weiche zuvor ordnungsgemäß, entsprechend dem Folgeabhängigkeitsprinzip, befahren wurde.
  • Die Überwachung der Gleisabschnitte auf Besetz- und Frei wird auf dem Wege der Fahrzeugzählung realisiert.
  • Ein Abschnitt ist frei, wenn die Summe der in den Abschnitt eingezählten und der aus dem Abschnitt ausgezählten Fahrzeuge Null beträgt.
  • Der Gleisabschnitt 2 kann mittels eines Bildsensors mit zwei eingerichteten Überwachungsbereichen realisiert werden. Aufgrund der Anordnung der Überwachungsbereiche wird die Weiche erst dann als frei gemeldet, wenn alle Wagen aus dem Gleisabschnitt an F2.1 oder F2.2 ausgezählt wurden.
  • Dient als Identifikationsmerkmal der Pantograph, muss die Anordnung der Überwachungsbereiche F2.1 und F2.2 so vorgenommen werden, dass einwandfrei feststeht, dass die Weiche mit ihren beweglichen Teilen bei der Erfassung des letzten Pantographen vollständig geräumt wurde.
  • Ansonsten muss der Bildsensor B2 neben dem Identifikationsmerkmal noch andere Elemente des Fahrzeugs erfassen, um sicherzustellen, dass die Freimeldung erst nachdem der Weichenbereich vollständigen geräumt wurde, erfolgt.
  • Kamera B3 ist optional und nur dann erforderlich, wenn die Empfangsantenne A2 benötigt wird. B3 dient der Steuerung der Funktion der Empfangsantenne A2. Wurde ein Schienenfahrzeug an B3 erfasst, kann die an A2 empfangene Zugnummer keinen Stellauftrag mehr zur Folge haben. Ein Stellauftrag wird nur dann ausgeführt, wenn sich im Abschnitt zwischen A2 und der Weiche kein Zug befindet und die Weiche nicht elektrisch verschlossen ist. Die Weiche ist elektrisch verschlossen, wenn sie von der Weichensteuerung oder dem Stellwerk in die angeforderte Lage gestellt worden ist und noch nicht frei gefahren wurde. Der elektrische Verschluss wird erst dann aufgehoben, wenn die Weiche ordnungsgemäß befahren wurde.
  • Das Auszählen der Schienenfahrzeuge im Weichenabschnitt erfolgt mittels der Kamera B2.
  • Die Ausführung eines Stellauftrags an A2 ist erst dann möglich, wenn alle Wagen ausgezählt worden sind.
  • Legende Fig.2:
  • A1
    Empfangsantenne
    A2
    Empfangsantenne
    B1
    Bildsensor
    B2
    Bildsensor
    B3
    Bildsensor
    GLA1
    Gleisabschnitt 1
    GLA2
    Gleisabschnitt 2
    GLA3
    Gleisabschnitt 3
    F1.1
    Überwachungsfenster für die Objektdetektion Gleisabschnitt 1
    F2.1
    Überwachungsfenster Nr. 1 für die Objektdetektion Gleisabschnitt 2
    F2.2
    Überwachungsfenster Nr. 2 für die Objektdetektion Gleisabschnitt 2
    F3.1
    Überwachungsfenster für die Objektdetektion Gleisabschnitt 3
    FM
    Fahrleitungsmast
    WA
    Weichenantrieb
    W11
    Weichensignal
    W12
    Weichensignal
  • Beispiel 3
  • Die Zeichnung 1 zeigt das Prinzip der visuellen Detektion des Pantographen als Fahrzeugidentifikationsmerkmal.
  • Die Wahl des Pantographen als Fahrzeugidentifikationsmerkmal hat viele Vorteile.
  • Die Funktion des Bilderkennungssystems kann auf die Funktion eines virtuellen Oberleitungskontaktes zurückgeführt werden. Der Vorteil dieser Lösung besteht unter anderem darin, dass in der Höhe der Fahrleitung in der Regel nicht mit störenden Einflüssen, wie z.B. Individualverkehr, zu rechnen ist.
  • Der Bildsensor sollte in einer Höhe von ca. 4 Metern montiert werden.
  • Legende Fig. 1
  • • B
    Bildsensor
  • Erläuterungen
  • Weiche
  • Eine Weiche bezeichnet in der Eisenbahntechnik eine Vorrichtung, die dem Schienenfahrzeug den Wechsel von einem Gleis auf ein anderes ermöglicht, ohne dass das Fahrzeug halten muss.
  • Gleis
  • Als Gleis wird in der Eisenbahn die Fahrbahn für Schienenfahrzeuge bezeichnet. Sie besteht in der Regel aus zwei parallel verlaufenden stählernen Schienen.
  • Zugsicherung
  • Als Zugsicherung werden technische Systeme bezeichnet, welche der Sicherung von Zugfahrten dienen. Ein wesentlicher Aspekt dabei ist die Überwachung der Abstände zwischen hintereinander fahrenden Zügen. Hierzu werden die Gleise in Gleisabschnitte eingeteilt, welche jeweils mit einem Signal geschützt sind. Das Signal zeigt in der Regel einen Geschwindigkeitsbegriff.
  • Der gezeigte Geschwindigkeitsbegriff (implizit Halt) hängt davon ab, ob die dahinter befindlichen Gleisabschnitte frei bzw. belegt sind.
  • Der Abstand zwischen den Zugeinheiten muss größer sein als der Bremsweg.

Claims (10)

  1. Verfahren für die bildbasierte Detektion von schienengebundenen Fahrzeugen, wobei mittels einem oder mehreren stationären Bildsensoren und einer oder mehreren Rechnereinheiten sowie einem auf dieser Rechnereinheit bzw. diesen Rechnereinheiten ausführbaren Programm Fahrzeugidentifikationsmerkmale für signaltechnische Anwendungen zum Zwecke der Fahrwegsicherung extrahiert und verarbeitet werden, dadurch gekennzeichnet, dass während der Inbetriebnahme vom jeweiligen Bildsensor eine Grundstellungsszene als Referenzbild aufgezeichnet wird, ein aktuelles, vom jeweiligen Bildsensor geliefertes Bild mittels Kreuzkorrelation mit dem Referenzbild verglichen wird, und bei einem bestimmten Wert des Kreuzkorrelationskoeffizienten ein Impuls generiert wird, welcher die Detektion eines zu klassifizierenden Objekts signalisiert, wobei bei einem über einem festgelegten Schwellenwert liegenden Wert des Kreuzkorrelationskoeffizienten, welcher in Folge des kontinuierlichen Vergleichs des Referenzbildes mit dem aktuellen Bild bei einer sehr hohen Übereinstimmung erreicht wird, das Referenzbild entsprechend den sich ändernden tages- und jahreszeitbedingten Licht- und Umgebungsverhältnissen fortwährend aktualisiert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Klassifikation des detektierten Objekts durch ein künstliches neuronales Netz vorgenommen wird, wobei die Klassifikation korrekt ist, wenn das Ergebnis der Klassifikation in zwei nacheinander folgenden Bildern identisch ist.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das künstliche neuronale Netz fortwährend, vom Fehlerwert des neuronalen Netzes abhängige Lernschritte durchführt.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass das als Diskriminator fungierende künstliche neuronale Netz die vom Bildsensor gelieferten Bilder validiert.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Detektion der Fahrtrichtung in mindestens zwei nacheinander folgenden Bildern der jeweilige Bildschwerpunkt bestimmt wird.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Detektion der Grundstellungsszene als Voraussetzung für die Durchführung der Objektdetektion und Objektklassifizierung gegeben sein muss.
  7. System für die bildbasierte Detektion von schienengebundenen Fahrzeugen, bestehend aus einem oder mehreren stationären Bildsensoren und einer oder mehreren Rechnereinheiten sowie einem auf dieser Rechnereinheit bzw. diesen Rechnereinheiten ausführbaren Programm für die Extraktion und die Verarbeitung von Fahrzeugidentifikationsmerkmalen für signaltechnische Anwendungen zum Zwecke der Fahrwegsicherung, dadurch gekennzeichnet, dass während der Inbetriebnahme vom jeweiligen Bildsensor eine Grundstellungsszene als Referenzbild aufgezeichnet wird, ein aktuelles, vom jeweiligen Bildsensor geliefertes Bild mittels Kreuzkorrelation mit dem Referenzbild verglichen wird, und bei einem bestimmten Wert des Kreuzkorrelationskoeffizienten ein Impuls generiert wird, welcher die Detektion eines zu klassifizierenden Objekts signalisiert, wobei bei einem über einem festgelegten Schwellenwert liegenden Wert des Kreuzkorrelationskoeffizienten, welcher in Folge des kontinuierlichen Vergleichs des Referenzbildes mit dem aktuellen Bild bei einer sehr hohen Übereinstimmung erreicht wird, das Referenzbild entsprechend den sich ändernden tages- und jahreszeitbedingten Licht- und Umgebungsverhältnissen fortwährend aktualisiert wird.
  8. System nach Anspruch 7, dadurch gekennzeichnet, dass als Bildsensor eine 2D-Kamera, eine 3D-Kamera oder ein Lidar-System zum Einsatz kommen kann.
  9. System nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die Bildfrequenz des Bildsensors überwacht wird.
  10. System nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass das nicht Erkennen der Grundstellungsszene das System in seiner Funktion sperrt.
DE102020004064.0A 2020-07-06 2020-07-06 Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge Active DE102020004064B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020004064.0A DE102020004064B3 (de) 2020-07-06 2020-07-06 Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020004064.0A DE102020004064B3 (de) 2020-07-06 2020-07-06 Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge

Publications (1)

Publication Number Publication Date
DE102020004064B3 true DE102020004064B3 (de) 2021-08-19

Family

ID=77063077

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020004064.0A Active DE102020004064B3 (de) 2020-07-06 2020-07-06 Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge

Country Status (1)

Country Link
DE (1) DE102020004064B3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117863888A (zh) * 2024-03-12 2024-04-12 西南交通大学 一种受电弓装置及其调控方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010058703A1 (ja) 2008-11-18 2010-05-27 株式会社 明電舎 画像処理による通過列車撮影装置
DE102010063765A1 (de) 2010-12-21 2012-06-21 Siemens Aktiengesellschaft Anordnung sowie Verfahren zum Ermitteln des Belegungszustands einer elektrisch ortsgestellten Weiche
US20190039633A1 (en) 2017-08-02 2019-02-07 Panton, Inc. Railroad track anomaly detection
DE102019125188A1 (de) 2019-09-19 2021-03-25 RailWatch GmbH & Co. KG Kontaktloses Erfassen der Anzahl Achsen eines fahrenden Schienenfahrzeugs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010058703A1 (ja) 2008-11-18 2010-05-27 株式会社 明電舎 画像処理による通過列車撮影装置
DE102010063765A1 (de) 2010-12-21 2012-06-21 Siemens Aktiengesellschaft Anordnung sowie Verfahren zum Ermitteln des Belegungszustands einer elektrisch ortsgestellten Weiche
US20190039633A1 (en) 2017-08-02 2019-02-07 Panton, Inc. Railroad track anomaly detection
DE102019125188A1 (de) 2019-09-19 2021-03-25 RailWatch GmbH & Co. KG Kontaktloses Erfassen der Anzahl Achsen eines fahrenden Schienenfahrzeugs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117863888A (zh) * 2024-03-12 2024-04-12 西南交通大学 一种受电弓装置及其调控方法
CN117863888B (zh) * 2024-03-12 2024-05-07 西南交通大学 一种受电弓装置及其调控方法

Similar Documents

Publication Publication Date Title
DE102015100812B4 (de) Verfahren zum Verwenden von Strassenniveaubildern zum Verbessern eines Modus eines automatisierten Fahrens für ein Fahrzeug
DE69731009T2 (de) System zum Erkennen von Hindernissen
DE102009007342A1 (de) Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung
WO2018104462A1 (de) Verfahren, vorrichtung und bahnfahrzeug, insbesondere schienenfahrzeug, zur fahrspurbasierten bildanalyse im bahnverkehr, insbesondere zur gleisbasierten bildanalyse im schienenverkehr
DE102006040542A1 (de) Einrichtung zum Überwachen eines Bahnüberganges
DE102014208522A1 (de) Gefahrenraumüberwachung an einem bahnübergang
EP2116958A2 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
DE102020003073B3 (de) Verfahren und Vorrichtung zum automatisierten Fahrbetrieb eines Fahrzeuges und Fahrzeug
EP3193276B1 (de) Erfassungsvorrichtung und verfahren zum erkennen von fahrzeugachsen
AT17358U1 (de) Verfahren und Überwachungssystem zur Ermittlung einer Position eines Schienenfahrzeugs
DE102020004064B3 (de) Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge
EP2521070A2 (de) Verfahren und System zum Erfassen einer statischen oder dynamischen Szene, zum Bestimmen von Rohereignissen und zum Erkennen von freien Flächen in einem Beobachtungsgebiet
EP3938266A1 (de) Verfahren und computer-programm-produkt zum erkennen von signalzeichen zur verkehrssteuerung spurgebundener fahrzeuge sowie signalzeichenerkennungssystem und spurgebundenes fahrzeug, insbesondere schienenfahrzeug
DE102009040713A1 (de) Überwachungssystem
DE102017217450A1 (de) Verfahren zur Zustandsbestimmung von wenigstens einer entlang einer Fahrstrecke verlaufenden Fahrleitung
DE102015010535A1 (de) Kamerabasierte Umgebungserfassung für Nutzfahrzeuge
DE102007032091B3 (de) Verfahren zum Überwachen eines höhengleichen Bahnübergangs
DE102016223094A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE10341426A1 (de) Verfahren zur Raumüberwachung und Raumüberwachungsanlage
DE102015216352A1 (de) Verfahren zum Erkennen einer möglichen Kollision eines Fahrzeuges mit einem Fußgänger auf Grundlage hochaufgelöster Aufnahmen
DE102016207181B4 (de) Verfahren und System zum Bestimmen einer Position eines Fahrzeugs auf einer Fahrbahn
EP2254104B1 (de) Verfahren zum automatischen Erkennen einer Situationsänderung
EP3688737A1 (de) Verfahren und einrichtung
DE10239675B4 (de) Verfahren zur Ermittlung von Verkehrszustandsgrößen
DE102008019375A1 (de) Detektorsystem und Verfahren zur Ermittlung eines Belegungsstatus eines Fahrbahn-Seitenstreifens, Verkehrssteuerungssystem und Verkehrssteuerungsverfahren

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final