DE10244127A1 - Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit - Google Patents

Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit Download PDF

Info

Publication number
DE10244127A1
DE10244127A1 DE10244127A DE10244127A DE10244127A1 DE 10244127 A1 DE10244127 A1 DE 10244127A1 DE 10244127 A DE10244127 A DE 10244127A DE 10244127 A DE10244127 A DE 10244127A DE 10244127 A1 DE10244127 A1 DE 10244127A1
Authority
DE
Germany
Prior art keywords
route
monitoring
mobile unit
autonomous mobile
monitored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10244127A
Other languages
English (en)
Inventor
Jochen Dr. Bauer
Mark Christmann
Wendelin Dr. Feiten
Claudio Dr. Laloni
Peter Rummel
Hartmut Scherer-Winner
Richard Dr. Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10244127A priority Critical patent/DE10244127A1/de
Priority to AU2003270142A priority patent/AU2003270142A1/en
Priority to EP03750482A priority patent/EP1542893A1/de
Priority to PCT/EP2003/009753 priority patent/WO2004028881A1/de
Priority to TW092126071A priority patent/TW200424823A/zh
Publication of DE10244127A1 publication Critical patent/DE10244127A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/041Obstacle detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/34Control, warning or like safety means along the route or between vehicles or trains for indicating the distance between vehicles or trains by the transmission of signals therebetween
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L2210/00Vehicle systems
    • B61L2210/02Single autonomous vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft eine Überwachung eines Fahrwegs einer autonomen mobilen Einheit, wie beispielsweise eines fahrerlosen spurgebundenen Verkehrsmittels, unter Verwendung eines Multisensorsystems, bei dem drei verschiedene Sensortypen, ein Lasersensor, ein Radarsensor und ein Videosensor fusioniert werden und mit dem Fusionsergebnis der Fahrweg überwacht wird.

Description

  • Die Erfindung betrifft ein Sensorsystem zur Überwachung eines Fahrwegs einer autonomen mobilen Einheit, wie beispielsweise eines fahrerlosen, im Wesentlichen spurgebundenen Fahrzeugs, sowie ein entsprechendes Verfahren zur Fahrwegüberwachung, ein entsprechendes Computerprogramm mit Programmcode-Mitteln und auch ein entsprechendes Computerprogramm-Produkt.
  • Ein eben solches Sensorsystem zur Fahrwegüberwachung bei einem fahrerlosen, spurgebundenen Schienenfahrzeug, einem Verkehrsmittel Eisenbahn, ist aus [1] bekannt.
  • Fahrerlose bzw. automatisch fahrende Fahrzeuge sind autonome Systeme, welche nicht einer unmittelbaren Überwachung und Steuerung durch Bedienpersonal unterliegen, sondern selbständig, d.h. autonom, ihre Funktion erfüllen. Dabei müssen sie Umgebungsbedingungen, unter denen sie agieren, erfassen und entsprechend diesen reagieren können.
  • Dazu bedürfen sie technischer Einrichtungen, beispielweise solcher zur Erkennung von Hindernissen vor dem Fahrzeug, insbesondere auf einem Fahrweg vor dem Fahrzeug.
  • Das aus [1] bekannte fahrerlose Schienenfahrzeug verwendet hierfür ein kombiniertes Sensorsystem bzw. eine leistungsfähige Sensorik, mit der Abstände und Differenzgeschwindigkeiten zu sämtlichen Objekten in einem Beobachtungsbereich des Schienenfahrzeugs präzise gemessen werden können.
  • Dieses kombinierte Sensorsystem, ein Multisensorsystem, besteht aus einer Vielzahl von einzelnen Komponenten (Einzel sensoren), die zusammen mindestens einen gleichen Sicherheitsstandard gewährleisten, wie er im herkömmlichen Schienenverkehr gilt.
  • Im Detail umfasst das bekannte Multisensorsystem eine schwenkbare Telekamera, realisiert durch eine CCD-Videokamera mit Teleobjektiv, einen Fernbereichsradar, realisiert durch ein gepulstes CW-Radar im 77 GHz Band, eine Übersichtskamera, in Form einer CCD-Videokamera mit Normalobjektiv, sowie ein Nahbereichsradarnetzwerk, realisiert durch mehrere hochauflösende Pulsradare in 24 GHz Band.
  • Entsprechende Einzelsensoren sowie deren grundlegende Techniken sind allgemein bekannt; auch wird auf sie in [1] verwiesen.
  • Einbaupositionen für die Radarsensoren an dem Schienenfahrzeug sind vergleichsweise niedrig gewählt, um unter einem möglichst flachen Winkel den Bereich vor dem Fahrzeug zu vermessen.
  • Die Kameras des Mulisensorsystems befinden sich vor Wettereinflüssen geschützt hinter einer Frontscheibe des Schienenfahrzeugs und sind damit in einer hohen Einbauposition. Die hohe Einbauposition der Kameras gewährt einen guten Blick auf den Beobachtungsbereich vor dem Fahrzeug.
  • Die einzelnen Sensorsysteme übertragen ihre Messergebnisse an eine zentrale Fusionseinheit. Dort wird aus den verschiedenen Messwerten ein Abbild der Umgebung vor dem Schienefahrzeug erstellt.
  • Dieses Abbild, eine Szenenrepräsentation, bildet eine Grundlage für eine Detektion von Hindernissen auf dem Fahrweg.
  • Nachteilig bei diesem aus [1] bekannten Sensorsystem zur Fahrwegüberwachung ist, dass insbesondere bei messtechnisch ungünstigen Umgebungsbedingungen, wie bei Dunkelheit und Regen, eine Genauigkeit und damit eine Sicherheit bei der Hinderniserkennung durch das Multisensorsystem vermindert sein kann.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Sensorsystem bzw. ein Verfahren zur Überwachung eines Fahrwegs einer autonomen mobilen Einheit zur Verfügung zu stellen, welches flexibel bei beliebigen Umgebungsbedingungen einsetzbar ist und die Überwachung eines Fahrwegs mit höherer Zuverlässigkeit und mit höherer Sicherheit als obiges bekannte System ermöglicht.
  • Diese Aufgabe wird durch das Sensorsystem zur Fahrwegüberwachung für eine mobile Einheit sowie durch das Verfahren, das Computerprogramm mit Programmcode-Mitteln und das Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit mit den Merkmalen gemäß dem jeweiligen unabhängigen Patentanspruch gelöst.
  • Das Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit weist auf:
    • – ein Radarüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ein Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird,
    • – ein Laserüberwachungssystem, welcher derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird,
    • – ein Videoüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird.
  • Neben mindestens diesen drei Überwachungssystemen, in der Regel realisiert durch entsprechende Sensoren bzw. Sensortypen, weist das Sensorsystem eine mit den Überwachungssystemen gekoppelte zentrale Kontrolleinheit auf, in welcher die Überwachungsinformationen der Überwachungssysteme zusammengeführt werden (Sensorfusion). Aus den Überwachungsinformationen der Überwachungssysteme ist eine Gesamtfahrwegsüberwachungsinformation ermittelbar, mit welcher Gesamtfahrwegsüberwachungsinformation der Fahrweg überwachbar ist.
  • Bei dem Verfahren zur Fahrwegüberwachung für eine autonome mobile Einheit wird:
    • – unter Verwendung eines Radarüberwachungssystems ein Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird,
    • – unter Verwendung eines Laserüberwachungssystems ebenfalls der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird,
    • – unter Verwendung eines Videoüberwachungssystems auch der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird.
  • Die Überwachungsinformationen der Überwachungssysteme werden zusammengeführt (Sensorfusion). Aus den Überwachungsinformationen der Überwachungssysteme wird eine Gesamtfahrwegsüberwachungsinformation ermittelt, mit welcher Gesamtfahrwegsüberwachungsinformation der Fahrweg überwacht wird.
  • Bei dem erfindungsgemäßen sensorunterstütztem Fahrwegüberwachungssystem handelt es sich um ein multifunktionales, kombiniertes Sicherheitssystem, welches sehr hohe Anforderungen, die an eine Messgenauigkeit, Reaktionszeit, Reichweite usw. des Systems gestellt werden, bei nahezu beliebigen Umgebungsbedingungen erfüllt.
  • Entsprechendes gilt analog für das erfindungsgemäße Verfahren.
  • Der Einsatz verschiedener bzw. verschiedenartiger Sensoren innerhalb des erfindungsgemäßen Multisensorsystems eröffnet für die genannte Sicherheitsaufgabe die Möglichkeit, die spezifischen Vorteile jedes einzelnen Sensors bzw. Sensortyps zu nutzen und die insgesamt von den Sensoren gemessene Information in einer Datenfusionseinrichtung auszuwerten.
  • Durch eine gewinnbringende Fusion der verschiedenen Messdaten entsteht ein Informationsbestand, der mehr Aussagekraft als die Summe der isoliert betrachteten Einzeldaten hat.
  • Die charakteristischen Eigenschaften von Sensoren bzw. Sensortypen für die Objektvermessung, deren Schwächen und Stärken, sind prinzipiell von der verwendeten Technologie bzw. vom verwendeten Typ abhängig.
  • Beispiele für die technologiebedingten Unterschiede bzw. Schwächen und Stärken sind die gute Entfernungsmessung der Radartechnik im Gegensatz zur guten Winkelmessung von Videosystemen sowie die von Umgebungsbedingungen relativ unabhängige hohe Genauigkeit der Laserscanner insgesamt.
  • Stellt man unter diesem Gesichtspunkt die verschiedenen Eigenschaften von Videosystemen, von Radarsensoren und Laserscannern gegenüber, so zeigt sich, dass die drei Technologien sich gegenseitig sehr gut ergänzen.
  • Die Bilder von Videokameras können als Grauwertmatrizen angesehen werden. Diese werden anhand passender Modellannahmen interpretiert und auf das Vorhandensein von Hindernissen untersucht. Aufgrund der hohen räumlichen Auflösung können so mit Videosystemen besonders gut die Winkel zu detektierten Objekten gemessen werden. Auch können bei bekannter Entfernung die Breite und Höhe eines Hindernisses über die Winkel zu den Außenkanten bestimmt werden.
  • Gerade die Entfernung kann aber mit monokularen Videosystemen nur ungenau ermittelt werden. Desweiteren ist die Videotechnik stark lichtabhängig und bei messtechnisch ungünstigen Umgebungsbedingungen, wie Dunkelheit und Regen, nur unzureichend einsetzbar.
  • Es ist deshalb sinnvoll, die Videosensorik durch ein bzw. mehrere Systeme zu ergänzen, das bzw. die die Entfernung auch bei schwierigen Umgebungsbedingungen gut messen kann bzw. können.
  • Hierfür bietet sich zum einen Radarsensorik an.
  • Sie ist in der Lage auch in großen Distanzen noch zuverlässig die Entfernung zu messen. Die Einschränkung einer vergleichsweise eher schlechteren Winkelauflösung und -genauigkeit bei Radarsystemen wird hingegen durch das Videosystem kompensiert.
  • Da aber auch die alleinige Kombination von Radar- und Videosensorik unter erwähnten schwierigen Umgebungsbedingungen Nachteile aufweist, ist es sinnvoll, eine weitere Technik zu integrieren, nämlich eine Lasertechnik.
  • Ein solcher Nachteil bei alleiniger Kombination von Radar- und Videosensorik wäre beispielsweise, dass eine Zuordnung von Messungen in einem Videobild zu Messungen durch den Radarsensor dadurch schwierig ist, dass der Radarsensor eine schlechte Winkelauflösung aufweist.
  • Die Lasertechnik hingegen zeichnet sich durch hohe Genauigkeit sowohl bei Winkel- und Entfernungsmessung aus.
  • Das derart kombiniert konzipierte, erfindungsgemäße Sensorsystem erreicht durch seine Sensorkombination hohe Flexibilität beim Einsatz unter nahezu beliebigen Umgebungsbedingungen sowie hohe Sicherheit und Zuverlässigkeit beim Überwachen von Fahrwegen.
  • Das Computerprogramm mit Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß des erfindungsgemäßen Verfahrens durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
  • Das Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß des erfindungsgemäßen Verfahrens durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
  • Das erfindungsgemäße System sowie das erfindungsgemäße Computerprogramm mit Programmcode-Mitteln sowie das erfindungsgemäße Computerprogramm-Produkt sind insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner nachfolgend erläuterten Weiterbildungen.
  • Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
  • Die im Weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf das erfindungsgemäße System, das erfindungsgemäße Verfahren sowie das erfindungsgemäße Computerprogramm mit Programmcode-Mitteln sowie das erfindungsgemäße Computerprogramm-Produkt.
  • Die Erfindung und die im Weiteren beschriebenen Weiterbildungen können sowohl in Software als auch in Hardware, beispielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden.
  • Ferner ist eine Realisierung der Erfindung oder einer im Weiteren beschriebenen Weiterbildung möglich durch ein computerlesbares Speichermedium, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder eine deren Weiterbildungen ausführt.
  • Auch kann die Erfindung oder jede im Weiteren beschriebene Weiterbildung durch ein Computerprogrammerzeugnis realisiert sein, welches ein Speichermedium aufweist, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder eine deren Weiterbildungen ausführt.
  • Ein erster Block von Weiterbildungen und Ausgestaltungen betrifft das Laserüberwachungssystem bzw. den Lasersensor [4].
  • Hierbei kann als Lasersensor ein Laserscanner verwendet werden. 2D- oder 3D-Laserscanner sind beide einsetzbar, wobei in den jeweiligen Fällen die Laserüberwachungsinformation eine 2D- bzw. 3D-Information einer Umgebung des Fahrwegs beinhaltet. Diese können in Form von entsprechenden 2D- oder 3D-Umgebungsmodellen vorliegen [4].
  • Weitergehend können mehrere Lasersensoren, wie die vorerwähnten Laserscanner, nebeneinander, sich jeweils unterstützend verwendet werden, beispielsweise derart, dass der oder die zusätzlichen Lasersensoren zu einer schnellen Abtastung besonders gefährdeter Regionen bzw. Ebenen herangezogen werden.
  • Ein zweiter Block von Weiterbildungen und Ausgestaltungen betrifft das Radarüberwachungssystem bzw. den Radarsensor [3].
  • Entsprechende 2D- oder 3D-Sensoren, analog zu denjenigen der Lasertechnik, sind jeweils in Alleinstellung oder auch in Kombination einsetzbar.
  • So kann es unter Umständen sinnvoll sein, einen Fernbereichsradar, beispielsweise einen gepulsten CW-Radar, in Kombination mit einem Nahbereichsradar, wie einem hochauflösenden Pulsradar, einzusetzen.
  • Ein nächster Block von Weiterbildungen und Ausgestaltungen betrifft das Videoüberwachungssystem bzw. den Videosensor [2], [5].
  • Hierzu eigenen sich CCD-Videokameras, welche mit Normal- oder Teleobjektiven ausgestattet sein können. Auch ist es möglich eine solche in Alleinstellung oder in Kombination mit weiteren Kameras zu verwenden.
  • In einer weiteren Ausgestaltung beobachten die einzelnen Sensorsysteme den Bereich vor dem Schienenfahrzeug zunächst unabhängig voneinander und vermessen Positionen und/oder gegebenenfalls Geschwindigkeiten von detektierten Objekten.
  • Dazu erfolgt in den jeweiligen Sensorsystemen eine spezifische Signalverarbeitung, da dort die meisten Randbedingungen, die einen Einfluss auf die Entstehung der Beobachtung haben, bekannt sind. Auf diese Weise wird eine verbesserte Verteilung der Verarbeitungslast zwischen den Sensorsystemen und der Sensor- bzw. Datenfusion erreicht und die Menge der zu übertragenden Daten wird reduziert.
  • Bei der Fusionierung der verschiedenen Messdaten des Multisensorsystems können Charakteristika, wie spezifische Stärken und Schwächen, individuelle (Mess-)Genauigkeiten, Ausfallwahrscheinlichkeiten und/oder Sicherheiten, der unterschiedlichen Sensorsysteme berücksichtigt werden.
  • So ist es beispielsweise möglich, bei der Ermittlung der Gesamtfahrwegüberwachungsinformation aus den Überwachungsinformationen diese jeweils entsprechend einer Sicherheit des jeweiligen Überwachungssystems zu berücksichtigen. Weiterfüh rend können die jeweiligen Sicherheiten von Umgebungsbedingungen der autonomen mobilen Einheit abhängig gemacht werden.
  • Die bei der Sensorfusion gebildete Gesamtfahrwegüberwachungsinformation beinhaltet ein Abbild der beobachteten Szene vor dem Fahrweg und damit im allgemeinen eine 3D-Information der Umgebung des Fahrwegs. Diese kann in Form eines 3D-Umgebungsmodells vorliegen.
  • Die erfindungsgemäß überwachbare mobile, autonome Einheit kann ein spurgebundenes Fahrzeug, wie ein an Schienen gebundenes (Schienen-)Fahrzeug oder ein straßengebundenes (Straßen-)Fahrzeug, sein.
  • Ein Ziel der Fahrwegüberwachung ist unter anderem auch die Erkennung eines Objekts bzw. eines Hindernisses auf dem Fahrweg der überwachbaren autonomen, mobilen Einheit. Dazu wird das fusionierte Umgebungsabbild (3D-Umgebungsmodell) entsprechend ausgewertet, wobei Bildverarbeitungstechniken einsetzbar sind, und dabei Objekte und Hindernisse erkannt bzw. detektiert. Anhand des Umgebungsabbilds wird entschieden, ob sich eines der detektierten Objekte auf bzw. in dem Fahrweg befindet.
  • In diesem Fall erfolgt eine entsprechende (Warn-)Meldung an eine Steuereinheit der mobilen Einheit, die entsprechend auf die Fahrt der mobilen Einheit einwirkt.
  • So kann beispielsweise bei der Detektion eines relevanten Hindernisses die Geschwindigkeit bis zum Stillstand reduziert bzw. entsprechend angepasst werden und/oder ein akustisches oder visuelles Warnsignal gegeben werden.
  • In Figuren ist ein Ausführungsbeispiel der Erfindung dargestellt, welches im Weiteren näher erläutert wird.
  • Es zeigen
  • 1a und 1b Skizzen eines autonomen, fahrerlosen Schienenfahrzeugs (CargoMover) mit einem Fahrwegüberwachungssystem;
  • 2 Skizze eines Aufbaus eines kombinierten Fahrwegüberwachungssystems mit unterschiedlichen Sensorsystemen mit den jeweiligen Sensordetektionsbereichen;
  • 3 strukturelle und funktionelle Systemübersicht des Fahrwegüberwachungssystems.
  • Ausführungsbeispiel: "CargoMover", ein autonomes, fahrerloses Schienenfahrzeug
  • 1a und 1b zeigen ein autonomes, fahrerloses Schienenfahrzeug, einen "CargoMover" 100.
  • Der CargoMover 100 ist ein fahrerloses, autonomes, schienengebundenes Transportsystem, welches nicht einer unmittelbaren Überwachung und Steuerung durch Bedienpersonal unterliegt, sondern selbständig und autonom seine (Transport-)Funktion erfüllt.
  • Um autonom agieren zu können, muss er Umgebungsbedingungen im Gleisbereich automatisch erfassen, dort Objekte und/oder Hindernisse erkennen und detektieren, diese entsprechend ihrer Bedeutung interpretieren und in Abhängigkeit davon regieren können.
  • Dazu ist er mit einem Sicherheitssystem, einem Multisensorsystem 110, ausgestattet, welches ihm die Durchführung der genannten Aufgaben ermöglicht. Insbesondere ermöglicht dieses Multisensorsystem 110, Abstände und Differenzgeschwindigkeiten zu sämtlichen Objekten bzw. Hindernissen in einem Beobachtungsbereich des CargoMovers 100 präzise zu messen.
  • Dieses Multisensorsystem 110 kombiniert Sensoren 120 unterschiedlicher Messtechniken, einer Lasertechnik, einer Radartechnik und einer Videotechnik, miteinander.
  • Im Detail umfasst das Multisensorsystem 110 des CargoMovers 100 ein Radarüberwachungssystem 124, umfassend einen rechten 121, einen mittleren 122 und einen linken 123 Radarsensor, ein Laserüberwachungssystem 132, umfassend einen unteren, festen 130 und einen oberen, schwenkbaren 131 3D-Laserscanner, sowie ein Videoüberwachungssystem 141, umfassend eine Videokamera 140.
  • Die einzelnen Sensorsysteme 124, 132, 141 übertragen ihre Messergebnisse an eine zentrale Fusionseinheit 150 des Multisensorsystems 110. Dort wird aus den verschiedenen Messwerten ein Abbild der Umgebung vor dem CargoMover 100 erstellt.
  • Dieses Abbild, eine Szenenrepräsentation, bildet eine Grundlage für die Erkennung bzw. Detektion von Objekten und Hindernissen auf dem Gleis 160.
  • Multisensorkonzept
  • An das Sicherheitssystem 100 bzw. an das Multisensorsystem 110 werden sehr hohe Anforderungen hinsichtlich der Sicherheit bei der Erkennung von Objekten und Hindernissen gestellt. Denn nur dann ist ein sicherer, autonomer Betrieb des CargoMovers 100 gewährleistbar bzw. möglich.
  • Daraus resultieren hohe Anforderungen in Bezug auf Messgenauigkeit, Reaktionszeit, Reichweite usw., die an das Multisensorsystem 110 gestellt werden.
  • Der Einsatz der verschiedenen, passend ausgewählten Sensorsysteme 124, 132, 141 innerhalb des Multisensorsystems 110 eröffnet für diese Aufgabe die Möglichkeit, die spezifischen Vorteile jedes einzelnen Sensortyps zu nutzen und die insge samt von den Sensoren gemessene Information in einer Datenfusionseinrichtung, der Fusionseinheit 150, auszuwerten.
  • Durch eine gewinnbringende Fusion der verschiedenen Messdaten entsteht ein Informationsbestand, der mehr Aussagekraft als die Summe der Einzeldaten hat.
  • Die charakteristischen Eigenschaften von Sensoren für die Objektvermessung sind prinzipiell von der verwendeten Technologie und anderen Designparametern abhängig. So zeichnet sich die Radartechnik insbesondere durch gute Entfernungsmessung aus im Gegensatz zur guten Winkelmessung von Videosystemen. Die Stärke einer Lasertechnik liegt in ihrer Genauigkeit sowohl bei Winkel- und Entfernungsmessung.
  • Stellt man unter diesem Gesichtspunkt die verschiedenen Eigenschaften bzw. Schwächen und Stärken von Videosystemen, von Radarsystemen und von Lasersystemen einander gegenüber, so zeigt sich, dass die Technologien sich gegenseitig sehr gut ergänzen.
  • Aufgrund des großen zu überwachenden Bereiches werden bei dem Multisensorsystems 110 des CargoMovers 100 jeweils mehrere Einzelsensoren desselben Sensortechnik, so bei dem Radar- 124 und dem Lasersystem 132, verwendet, die jeweils unterschiedliche Bereiche schwerpunktmäßig vor dem CargoMover 100 erfassen.
  • 2 zeigt das Multisensorsystem 110 des CargoMovers 100 mit den jeweiligen Detektionsbereichen 200 bzw. 210, 220, 230 der einzelnen Sensoren bzw. Sensorsystemen 124, 132, 141.
  • Es werden folgende Modellreihen von Sensoren als Basistypen für das Multisensorsystem 110 verwendet:
    Videokamera 140: JAI M10RS, 1/2 Zoll Chip, Progressive Scan, 782 × 582 Pixel mit Auto-Iris Objektiv COSM H1212E;
    Infrarot Laser Scanner 130, 131: Fa. Sick AG, LMS 221-30206 mit veränderlicher Winkelauflösung und damit korrelierter Scanzeit, einer davon schwenkbar montiert;
    Radarsensor 121, 122, 123: FMCW Radar-Modulen mit Patch Antennen, modifiziert.
  • Die Bilder der Videokamera 140 werden auch genutzt zur Bestimmung des Fahrwegverlaufs (vgl. 3, 311, 322).
  • Sensorfusion (3)
  • Die einzelnen Sensorsysteme 124, 132, 141 beobachten den Bereich vor dem CargoMover zunächst unabhängig voneinander und vermessen die Position und ggf. die Geschwindigkeit der detektierten Objekte bzw. Hindernisse.
  • Dazu erfolgt in den jeweiligen Sensorsystemen 124, 132, 141 eine spezifische Signalverarbeitung (vgl. 3, 310 bis 312, 320 bis 322), da dort die meisten Randbedingungen bekannt sind, die einen Einfluss auf die Entstehung der Beobachtung haben. Bei der spezifischen Signalverarbeitung werden die oben besprochenen Charakteristika bzw. Stärken und Schwächen der unterschiedlichen Sensorsysteme 124, 132, 141 berücksichtigt.
  • Ferner wird auf diese Weise eine bessere Verteilung der Datenverarbeitungslast zwischen den Sensorsystemen 124, 132, 141 und der Datenfusion erreicht und die Menge der zu übertragenden Daten wird reduziert.
  • Um aus den Messungen der verschiedenen Sensorsysteme 124, 132, 141 ein gutes Abbild der zu beobachtenden Szene vor dem CargoMover 100 zu erhalten (3D-Umgebungsmodell, vgl. 3, 330), werden die jeweiligen Messergebnisse bzw. Verarbeitungsergebnisse möglichst gewinnbringend vereint bzw. fusioniert (vgl. 3, 330).
  • Deshalb werden auch bei dieser Fusionierung (vgl. 3, 330) der verschiedenen Messdaten des Multisensorsystems 110 die oben besprochenen Charakteristika bzw. Stärken und Schwächen der unterschiedlichen Sensorsysteme 124, 132, 141 berücksichtigt. Dies erfolgt durch variabler Gewichtung der zu fusionierenden Messdaten.
  • Das Ziel der Datenfusion ist es dabei, ein möglich genaues Abbild der Umgebung (3D-Umgebungsmodell) des CargoMovers 100 zu erzeugen (vgl. 3, 330) sowie die Zustände (Position und Geschwindigkeit) der beobachteten Objekte sowie deren Entfernung (vgl. 3, 340) zum CargoMover 100 aus dem Umgebungsabbild bzw. aus den aktuellen und vorhergegangenen Messungen möglichst präzise zu bestimmen.
  • Das entstehende Umgebungsabbild (vgl. 3, 330) wird für die Interpretation der Szenen, d.h. in diesem Fall für die Entscheidung, ob sich eines der detektierten Objekte im Gleis 160 befindet, und für die anschließende Entfernungsbestimmung 340 genutzt.
  • 3 zeigt eine strukturelle und funktionelle Systemübersicht 300 des Multisensorsystems 110 des CargoMovers 100. Die Datenflüsse sind durch Pfeile in 3 gekennzeichnet.
  • Von den einzelnen Sensorsystemen 124, 132, 141 werden die jeweiligen Messergebnisse 310 bis 312, 320 bis 322 an die zentrale Fusionseinheit 150 übertragen.
  • Dort erfolgt unter anderem die Bestimmung des 3D-Umgebungsmodells 330, welches als Grundlage für die Identifizierung von Hindernissen sowie die Ermittlung der jeweiligen Entfernungen 340 dieser zum CargoMover 100 dient.
  • Auf Basis der einzelnen Sensorsignale der Sensorsysteme 124, 132, 141 wird insbesondere ermittelt:
    • – aus den Messsignalen des Radarsystems 124 eine 2D-Hindernisserkennung 312,
    • – aus den Messsignalen des Videosystems 141 ein 2D- 311 und daraus ein 3D-Streckenverlauf 321 sowie Hindernisse in Bodennähe (2D) 322,
    • – aus den Messsignalen des Lasersystems 132 eine 3D-Hinderniserkennung 320 und aus den Messsignalen des Lasersystems 132 in Kombination mit dem 2D-Streckenverlauf 311 eine Gleishöhe und eine Überhöhung 310, welche auch in die Ermittlung des 3D-Streckenverlaufs 321 einfließt.
  • Das 3D-Umgebungsmodell 330, eine entlang einer 3D-Kurve angeordnete Folge von 2D-Gitterkarten mit Lichtraumprofil, wird erstellt unter Verwendung der 2D-Hinderniserkennung 312, der Hindernisse in Bodennähe 322, des 3D-Streckenverlaufs 321 sowie der 3D-Hinderniserkennung 320.
  • Anschließend wird unter Verwendung des 3D-Umgebungsmodells 330 ein Hindernis identifiziert und die Entfernung dieses Hindernisses zum CargoMover 100 ermittelt 340.
  • Wird nun ein Hindernis als relevant, d.h. als auf dem Gleis 160 oder in dem Gleisbereich befindlich, erkannt und nähert sich der CargoMover 100 diesem auf weniger als einen vorgebbaren Sicherheitsabstand, in diesem Fall von 70m, so erfolgen entsprechende Meldungen von der Fusionseinheit 50 an eine Steuereinheit des CargoMovers 100.
  • Die Steuereinheit veranlasst notwendige Sicherheitsmassnahmen, die eine Kollision mit dem erkannten Hindernis ausschließen. So wird in diesem Fall ein Bremsvorgang eingeleitet, wobei die Geschwindigkeit des CargoMovers 100 kontinuierlich reduziert wird. Darüber hinaus gibt der CargoMover 100 ein akustisches und visuelles Warnsignal ab.
  • In diesem Dokument sind folgende Schriften zitiert:
    • [1] Kruse F., et al., "Multisensorsystem für schienengebundene Fahrzeuge", Symposium für Mobilität und Sicherheit.
    • [2] 3D-Szenenrekonstruktion aus Bilddaten (mittels CCD-Kameras), BMBF-Projekt, erhältlich am 23. September 2002 unter: http://ais.gmd.de/projects/Makro/reports/makro-report-VI-l.pdf.
    • [3] Mikrowellen-Radar, erhältlich am 23. September 2002 unter: http://www.elva-1.spb.ru/products/industrial/FMCW.html.
    • [4] H. Surmann, K. Lingemann, A. Nüchter, J. Hertzberg: „A 3D laser range finder for autonomous mobile robots" Proc. 32. ISR (International Symposium on Robotics) pp. 153-158, 2001 3D Laserscanner.
    • [5] CCD-Videokamera, erhältlich am 23. September 2002 unter: http://www.sony.de/professional/medical/kameras/dxc 990p. html.

Claims (21)

  1. Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit – mit einem Radarüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ein Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird, – mit einem Laserüberwachungssystem, welcher derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird, – mit einem Videoüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird, – sowie mit einer mit den Überwachungssystemen gekoppelten zentralen Kontrolleinheit, – in welcher die Überwachungsinformationen der Überwachungssysteme zusammengeführt werden und – mit welcher aus den Überwachungsinformationen der Überwachungssysteme eine Gesamtfahrwegsüberwachungsinformation ermittelbar ist, mit welcher Gesamtfahrwegsüberwachungsinformation der Fahrweg überwachbar ist.
  2. Sensorsystem nach Anspruch 1, mit mehreren Radarüberwachungssystemen und/oder mehreren Laserüberwachungssystemen und/oder mehreren Videoüberwachungssystemen, die alle mit der zentralen Kontrolleinheit gekoppelt sind.
  3. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem die Überwachungsinformationen jeweils eine 2D- oder 3D-Umgebungsinformation einer Umgebung des Fahrwegs beinhalten.
  4. Sensorsystem nach Anspruch 3, bei dem die Umgebungsinformation ein Umgebungsmodell beinhaltet.
  5. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem das Laserüberwachungssystem einen Laserscanner, insbesondere einen 3D-Laserscanner, aufweist.
  6. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem das Radarüberwachungssystem ein Radar auf Basis einer FMCW-Technik aufweist.
  7. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem das Videoüberwachungssystem eine CCD-Videokamera aufweist.
  8. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem bei der Ermittlung der Gesamtfahrwegüberwachungsinformation aus den Überwachungsinformationen diese jeweils entsprechend einer Sicherheit des jeweiligen Überwachungssystems berücksichtigt werden.
  9. Sensorsystem nach Anspruch 8, bei dem die jeweiligen Sicherheiten von Umgebungsbedingungen der autonomen mobilen Einheit abhängig sind.
  10. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem die Gesamtfahrwegüberwachungsinformation eine 3D-Information einer Umgebung des Fahrwegs beinhaltet
  11. Sensorsystem nach Anspruch 10, bei dem die 3D-Information ein 3D Umgebungsmodell ist.
  12. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem die mobile autonome Einheit ein spurgebundenes Fahrzeug, insbesondere ein fahrerloses Schienenfahrzeug, ist.
  13. Sensorsystem nach einem der vorangehenden Ansprüche, eingesetzt zur Erkennung eines Objekts auf dem Fahrweg, wobei das Objekt unter Verwendung der Gesamtfahrwegüberwachungsinformation als Hindernis identifiziert wird.
  14. Sensorsystem nach einem der vorangehenden Ansprüche, eingesetzt zu einer Überwachung einer Fahrt der autonomen mobilen Einheit auf dem Fahrweg, wobei während der Fahrt unter Verwendung des Sensorsystems der Fahrweg überwacht wird.
  15. Sensorsystem nach Anspruch 13 und Anspruch 14, eingesetzt bei einer überwachten Fahrt der autonomen mobilen Einheit, wobei auf die Fahrt der mobilen Einheit eingewirkt wird, wenn ein Objekt als ein Hindernis erkannt wird.
  16. Verfahren zur Fahrwegüberwachung für eine autonome mobile Einheit, bei dem – unter Verwendung eines Radarüberwachungssystems ein Fahrweg der autonomen mobilen Einheit überwacht wird, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird, – unter Verwendung eines Laserüberwachungssystems der Fahrweg der autonomen mobilen Einheit überwacht wird, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird, – unter Verwendung eines Videoüberwachungssystems der Fahrweg der autonomen mobilen Einheit überwacht wird, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird, – die Überwachungsinformationen der Überwachungssysteme zusammengeführt werden und – aus den Überwachungsinformationen der Überwachungssysteme eine Gesamtfahrwegüberwachungsinformation ermittelt wird, mit welcher der Fahrweg überwacht wird.
  17. Computerprogramm-Erzeugnis, das ein computerlesbares Speichermedium umfasst, auf dem ein Programm gespeichert ist, das es einem Computer ermöglicht, nachdem es in einen Speicher des Computers geladen worden ist, folgende Schritte durchzuführen zur Überwachung eines Fahrwegs für eine autonome mobile Einheit: – unter Verwendung eines Radarüberwachungssystems wird ein Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird, – unter Verwendung eines Laserüberwachungssystems wird der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Laserüberwachung eine Laderüberwachungsinformation erzeugt wird, – unter Verwendung eines Videoüberwachungssystems wird der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird, – die Überwachungsinformationen der Überwachungssysteme werden zusammengeführt und – aus den Überwachungsinformationen der Überwachungssysteme wird eine Gesamtfahrwegüberwachungsinformation ermittelt, mit welcher der Fahrweg überwacht wird.
  18. Computerlesbares Speichermedium, auf dem ein Programm gespeichert ist, das es einem Computer ermöglicht, nachdem es in einen Speicher des Computers geladen worden ist, folgende Schritte durchzuführen zur Überwachung eines Fahrwegs für eine autonome mobile Einheit: – unter Verwendung eines Radarüberwachungssystems wird ein Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird, – unter Verwendung eines Laserüberwachungssystems wird der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird, – unter Verwendung eines Videoüberwachungssystems wird der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird, – die Überwachungsinformationen der Überwachungssysteme werden zusammengeführt und – aus den Überwachungsinformationen der Überwachungssysteme wird eine Gesamtfahrwegüberwachungsinformation ermittelt, mit welcher der Fahrweg überwacht wird.
  19. Computerprogramm mit Programmcode-Mitteln, um alle Schritte gemäß Anspruch 16 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
  20. Computerprogramm mit Programmcode-Mitteln gemäß Anspruch 19, die auf einem computerlesbaren Datenträger gespeichert sind.
  21. Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, um alle Schritte gemäß Anspruch 16 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
DE10244127A 2002-09-23 2002-09-27 Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit Withdrawn DE10244127A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE10244127A DE10244127A1 (de) 2002-09-27 2002-09-27 Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit
AU2003270142A AU2003270142A1 (en) 2002-09-23 2003-09-02 Sensor system and method for monitoring the travel path of a mobile unit
EP03750482A EP1542893A1 (de) 2002-09-23 2003-09-02 Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit
PCT/EP2003/009753 WO2004028881A1 (de) 2002-09-23 2003-09-02 Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit
TW092126071A TW200424823A (en) 2002-09-27 2003-09-22 Sensor system for route monitoring of autonomous mobile unit and method for route monitoring thereof, and computer program product including storage medium that can be read by computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10244127A DE10244127A1 (de) 2002-09-27 2002-09-27 Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit

Publications (1)

Publication Number Publication Date
DE10244127A1 true DE10244127A1 (de) 2004-04-08

Family

ID=31983987

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10244127A Withdrawn DE10244127A1 (de) 2002-09-23 2002-09-27 Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit

Country Status (5)

Country Link
EP (1) EP1542893A1 (de)
AU (1) AU2003270142A1 (de)
DE (1) DE10244127A1 (de)
TW (1) TW200424823A (de)
WO (1) WO2004028881A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007096273A1 (de) * 2006-02-20 2007-08-30 Siemens Aktiengesellschaft Verfahren zur rechnergestützten überwachung des betriebs eines einen vorgegebenen streckenverlauf fahrenden fahrzeugs, insbesondere eines spurgebundenen schienenfahrzeugs
DE102006015036A1 (de) * 2006-03-31 2007-10-11 Siemens Ag Verfahren zur Fahrwegüberwachung
DE102012215544A1 (de) * 2012-08-31 2014-03-06 Siemens Aktiengesellschaft Überwachung einer Bahnstrecke
DE102014222900A1 (de) * 2014-11-10 2016-05-12 Bombardier Transportation Gmbh Betrieb eines Schienenfahrzeugs mit einem Bilderzeugungssystem
DE102015212019A1 (de) * 2015-06-29 2016-07-14 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen von Hindernissen vor einem Schienenfahrzeug
WO2018104191A1 (de) * 2016-12-06 2018-06-14 Siemens Aktiengesellschaft Automatisierte freiraumerkennung mittels differenzanalyse für fahrzeuge
DE102017205962A1 (de) * 2017-04-07 2018-10-11 Robert Bosch Gmbh Verfahren zum Betreiben eines Schienenfahrzeugs
DE102017207138A1 (de) * 2017-04-27 2018-10-31 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum rechnergestützten Erzeugen einer virtuellen Zugumgebung
DE102018205656A1 (de) * 2018-04-13 2019-10-17 Siemens Aktiengesellschaft Temperaturüberwachung zur Detektion von Funktionsbeeinträchtigungen von Radarsensoren von Schienenfahrzeugen
DE102022210974A1 (de) 2022-10-18 2024-04-18 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Kollisionsinformation bezüglich einer Kollisionsgefahr zwischen einem Schienenfahrzeug und einem Objekt
DE102022213909A1 (de) 2022-12-19 2024-06-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Kollisionsinformation bezüglich einer Kollisionsgefahr zwischen einem Schienenfahrzeug und einem Objekt

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200604047A (en) * 2004-07-22 2006-02-01 Siemens Ag Method to detect an obstruction on a railroad
IT1395012B1 (it) * 2009-07-24 2012-09-05 Esim Srl Elettronica Societa Impianti Meridionali Srl Sistema tins - tunnel inspection system
FR2976355B1 (fr) 2011-06-09 2013-06-21 Jean Luc Desbordes Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant.
ES2945310T3 (es) * 2011-09-30 2023-06-30 Siemens Mobility S A S Método y sistema para determinar la disponibilidad de una vía para un vehículo guiado
ES2401509B1 (es) * 2011-10-05 2014-03-05 Universidad De Almería Sistema de guiado para movimiento autónomo de vehículos en entornos estructurados.
TWI481892B (zh) 2012-12-13 2015-04-21 Ind Tech Res Inst 脈波雷達測距裝置及其測距演算法
US9387867B2 (en) 2013-12-19 2016-07-12 Thales Canada Inc Fusion sensor arrangement for guideway mounted vehicle and method of using the same
US9327743B2 (en) 2013-12-19 2016-05-03 Thales Canada Inc Guideway mounted vehicle localization system
DE102014206473A1 (de) * 2014-04-03 2015-10-08 Bombardier Transportation Gmbh Automatische Assistenz eines Fahrers eines fahrspurgebundenen Fahrzeugs, insbesondere eines Schienenfahrzeugs
DE102014212233A1 (de) * 2014-06-25 2015-12-31 Bombardier Transportation Gmbh Vorrichtung und Verfahren zur Erfassung einer Fahrzeugumgebung eines Schienenfahrzeugs sowie Schienenfahrzeug
EP2998184B1 (de) * 2014-09-18 2020-01-08 Siemens Rail Automation S.A.U. System und Verfahren zur automatischen Ortung und Aufzeichnen einer Bake
DE102016205392A1 (de) 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zur Validierung eines Hinderniserkennungssystems
DE102017206446A1 (de) * 2017-04-13 2018-10-18 Knorr-Bremse Systeme für Schienenfahrzeuge GmbH Fusion von infrastrukturbezogenen Daten, insbesondere von infrastrukturbezogenen Daten für Schienenfahrzeuge
DE102017218433A1 (de) * 2017-10-16 2019-04-18 Montratec Gmbh Fahrerloses Schienenfahrzeug und Transportsystem
DE102017219643A1 (de) * 2017-11-06 2019-05-09 Siemens Mobility GmbH Schienenfahrzeugortung
CN108255189A (zh) * 2018-01-31 2018-07-06 佛山市神风航空科技有限公司 一种电力巡检无人机系统
CN110550072B (zh) * 2019-08-29 2022-04-29 北京博途智控科技有限公司 一种铁路调车作业识别障碍物的方法、系统、介质及设备
DE102020210821A1 (de) 2020-08-27 2022-03-03 Siemens Mobility GmbH Verfahren zur Überprüfung eines Lichtraums für ein Schienenfahrzeug
DE102021206083A1 (de) * 2021-06-15 2022-12-15 Siemens Mobility GmbH Selbstjustierende Umfelderfassungseinrichtung für Schienenfahrzeuge
DE102022205020A1 (de) 2022-05-19 2023-11-23 Siemens Mobility GmbH Erstellung und Ausgabe einer Ausstiegsinformation in einem Schienenfahrzeug

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841246A1 (de) * 1998-09-09 2000-06-15 Eberhard Tauscheck Zugbegleitende Anlage zur aktuellen Analyse von Streckengefahren vor dem Zug
GB2371617A (en) * 2001-01-15 2002-07-31 Wayne Jeffrey Forsythe Railway safety system for detecting track obstruction
AT5086U3 (de) * 2001-12-07 2003-02-25 Plasser Bahnbaumasch Franz Arbeitsfahrzeug und verfahren zum führerlosen betrieb

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KRUSE,F., u.a.: Multi Sensor System for Obstacle Detection in Train Appliacations. In: German Radar Symposium GRS 2002, Bonn. Coué,C., u.a.: Multi-Sensor data fusion using bay- esian programming: an automotive appliaction. In: Intelligent Vehicle Symposium Juni 2002. IEEE, Vo- lume 2: S.442-447
KRUSE,F., u.a.: Multi Sensor System for Obstacle Detection in Train Appliacations. In: German Radar Symposium GRS 2002, Bonn. CouE,C., u.a.: Multi-Sensor data fusion using bay-esian programming: an automotive appliaction. In: Intelligent Vehicle Symposium Juni 2002. IEEE, Vo-lume 2: S.442-447 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007096273A1 (de) * 2006-02-20 2007-08-30 Siemens Aktiengesellschaft Verfahren zur rechnergestützten überwachung des betriebs eines einen vorgegebenen streckenverlauf fahrenden fahrzeugs, insbesondere eines spurgebundenen schienenfahrzeugs
DE102006015036A1 (de) * 2006-03-31 2007-10-11 Siemens Ag Verfahren zur Fahrwegüberwachung
DE102012215544A1 (de) * 2012-08-31 2014-03-06 Siemens Aktiengesellschaft Überwachung einer Bahnstrecke
US10144441B2 (en) 2014-11-10 2018-12-04 Bombardier Transportation Gmbh Operation of a rail vehicle comprising an image generation system
DE102014222900A1 (de) * 2014-11-10 2016-05-12 Bombardier Transportation Gmbh Betrieb eines Schienenfahrzeugs mit einem Bilderzeugungssystem
DE102015212019A1 (de) * 2015-06-29 2016-07-14 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen von Hindernissen vor einem Schienenfahrzeug
WO2018104191A1 (de) * 2016-12-06 2018-06-14 Siemens Aktiengesellschaft Automatisierte freiraumerkennung mittels differenzanalyse für fahrzeuge
DE102017205962A1 (de) * 2017-04-07 2018-10-11 Robert Bosch Gmbh Verfahren zum Betreiben eines Schienenfahrzeugs
DE102017205962B4 (de) 2017-04-07 2021-12-30 Robert Bosch Gmbh Verfahren zum Betreiben eines Schienenfahrzeugs
DE102017207138A1 (de) * 2017-04-27 2018-10-31 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum rechnergestützten Erzeugen einer virtuellen Zugumgebung
DE102018205656A1 (de) * 2018-04-13 2019-10-17 Siemens Aktiengesellschaft Temperaturüberwachung zur Detektion von Funktionsbeeinträchtigungen von Radarsensoren von Schienenfahrzeugen
DE102022210974A1 (de) 2022-10-18 2024-04-18 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Kollisionsinformation bezüglich einer Kollisionsgefahr zwischen einem Schienenfahrzeug und einem Objekt
DE102022213909A1 (de) 2022-12-19 2024-06-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Kollisionsinformation bezüglich einer Kollisionsgefahr zwischen einem Schienenfahrzeug und einem Objekt

Also Published As

Publication number Publication date
AU2003270142A1 (en) 2004-04-19
WO2004028881A1 (de) 2004-04-08
TW200424823A (en) 2004-11-16
EP1542893A1 (de) 2005-06-22

Similar Documents

Publication Publication Date Title
DE10244127A1 (de) Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102004016025B4 (de) Verfahren zur Klassifizierung eines Objektstandorts eines 3D-Objekts an einer Seite eines Transportfahrzeugs
DE69302975T2 (de) Fahrzeugpositionserfassungsanlage auf einer Spur
EP3218244B1 (de) Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem
DE112008001804B4 (de) Verfahren zum Bestimmen eines wahrscheinlichen Bewegungs-Aufenthaltsbereichs eines Lebewesens
WO2005081200A2 (de) Erfassungsvorrichtung für ein kraftfahrzeug
EP2033165B1 (de) Verfahren für die erfassung eines verkehrsraums
EP3259614B1 (de) Verfahren zur ermittlung einer ortsinformation eines kraftfahrzeugs bezüglich eines fahrkorridors und kraftfahrzeug
DE102016224212A1 (de) Automatisierte Freiraumerkennung mittels Differenzanalyse für Fahrzeuge
DE102018118528A1 (de) Verfahren und Vorrichtung zur Segment-übergreifenden Erfassung in einem Lidar-System
DE10151982A1 (de) Optoelektronische Erfassungseinrichtung
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102017212644A1 (de) Sensorsystem und Verfahren zum Ermitteln wenigstens einer Verkehrssituation
EP2756265A1 (de) Vorrichtung und verfahren zum bestimmen einer position eines fahrzeugs
DE102022103099A1 (de) Hinderniserfassungsvorrichtung, -verfahren und -programm
EP3109663B1 (de) Verfahren zum betrieb eines fahrerassistenzsystems eines kraftfahrzeugs und kraftfahrzeug
DE102020127206A1 (de) Prozess und system zur gemeinsamen nutzung von sensoren für einen autonomen fahrspurwechsel
EP3802257A1 (de) Steuerung eines kraftfahrzeugs
WO2019057252A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
DE102004050690A1 (de) Verfahren, Computer-Programm mit Programm-Code-Mitteln, Computer-Programm-Produkt und Gerät zur Modellierung der Umwelt eines autonomen mobilen Systems
DE102021117608A1 (de) Fahrzeugbasierte datenerfassung
WO2021156269A1 (de) Sensorsystem für ein fahrzeug zur überwachung eines horizontalen überwachungsbereichs von wenigstens 180°

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal
8165 Unexamined publication of following application revoked