EP1542893A1 - Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit - Google Patents

Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit

Info

Publication number
EP1542893A1
EP1542893A1 EP03750482A EP03750482A EP1542893A1 EP 1542893 A1 EP1542893 A1 EP 1542893A1 EP 03750482 A EP03750482 A EP 03750482A EP 03750482 A EP03750482 A EP 03750482A EP 1542893 A1 EP1542893 A1 EP 1542893A1
Authority
EP
European Patent Office
Prior art keywords
monitoring
route
mobile unit
information
autonomous mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP03750482A
Other languages
English (en)
French (fr)
Inventor
Jochen Bauer
Mark Christmann
Wendelin Feiten
Claudio Laloni
Peter Rummel
Harmut Scherer-Winner
Richard Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1542893A1 publication Critical patent/EP1542893A1/de
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/041Obstacle detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/34Control, warning or like safety means along the route or between vehicles or trains for indicating the distance between vehicles or trains by the transmission of signals therebetween
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L2210/00Vehicle systems
    • B61L2210/02Single autonomous vehicles

Definitions

  • CCD video cameras are suitable, which can be equipped with normal or telephoto lenses. It is also possible to use one in isolation or in combination with other cameras.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft eine Überwachung eines Fahrwegs einer autonomen mobilen Einheit, wie beispielsweise eines fahrerlosen spurgebundenen Verkehrsmittels, unter Verwendung eines Multisensorsystems, bei dem drei verschiedene Sensortypen, ein Lasersensor, ein Radarsensor und ein Videosensor, fusioniert werden und mit dem Fusionsergebnis der Fahrweg überwacht wird.

Description

SENSORSYSTEM UND VERFAHREN ZUR FAHRWEGÜBERWACHUNG FÜR EINE MOBILE EINHEIT
Beschreibung
Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode- Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit
Die Erfindung betrifft ein Sensorsystem zur Überwachung eines Fahrwegs einer autonomen mobilen Einheit, wie beispielsweise eines fahrerlosen, im Wesentlichen spurgebundenen Fahrzeugs, sowie ein entsprechendes Verfahren zur Fahrwegüberwachung, ein entsprechendes Computerprogramm mit Programmcode-Mitteln und auch ein entsprechendes Computerprogramm-Produkt.
Ein eben solches Sensorsystem zur Fahrwegüberwachung bei einem fahrerlosen, spurgebundenen Schienenfahrzeug, einem Verkehrsmittel Eisenbahn, ist aus [1] bekannt.
Fahrerlose bzw. automatisch fahrende Fahrzeuge sind autonome Systeme, welche nicht einer unmittelbaren Überwachung und
Steuerung durch Bedienpersonal unterliegen, sondern selbständig, d.h. autonom, ihre Funktion erfüllen. Dabei müssen sie Umgebungsbedingungen, unter denen sie agieren, erfassen und entsprechend diesen reagieren können.
Dazu bedürfen sie technischer Einrichtungen, beispielweise solcher zur Erkennung von Hindernissen vor dem Fahrzeug, insbesondere auf einem Fahrweg vor dem Fahrzeug.
Das aus [1] bekannte fahrerlose Schienenfahrzeug verwendet hierfür ein kombiniertes Sensorsystem bzw. eine leistungsfähige Sensorik, mit der Abstände und Differenzgeschwindigkeiten zu sämtlichen Objekten in einem Beobachtungsbereich des Schienenfahrzeugs präzise gemessen werden können.
Dieses kombinierte Sensorsystem, ein Multisensorsystem, besteht aus einer Vielzahl von einzelnen Komponenten (Einzel- sensoren) , die zusammen mindestens einen gleichen Sicherheitsstandard gewährleisten, wie er im herkömmlichen Schienenverkehr gilt.
Im Detail umfasst das bekannte Multisensorsystem eine schwenkbare Telekamera, realisiert durch eine CCD-Videokamera mit Teleobjektiv, einen Fernbereichsradar, realisiert durch ein gepulstes CW-Radar im 77 GHz Band, eine Übersichtskamera, in Form einer CCD-Videokamera mit Normalobjektiv, sowie ei Nahbereichsradarnetzwerk, realisiert durch mehrere hochauflö- sende Pulsradare in 24 GHz Band.
Entsprechende Einzelsensoren sowie deren grundlegende Techniken sind allgemein bekannt; auch wird auf sie in [1] verwie- sen.
Einbaupositionen für die Radarsensoren an dem Schienenfahrzeug sind vergleichsweise niedrig gewählt, um unter einem möglichst flachen Winkel den Bereich vor dem Fahrzeug zu ver- messen.
Die Kameras des Mulisensorsystems befinden sich vor Wettereinflüssen geschützt hinter einer Frontscheibe des Schienenfahrzeugs und sind damit in einer hohen Einbauposition. Die hohe Einbauposition der Kameras gewährt einen guten Blick auf den Beobachtungsbereich vor dem Fahrzeug.
Die einzelnen Sensorsysteme übertragen ihre Messergebnisse an eine zentrale Fusionseinheit. Dort wird aus den verschiedenen Messwerten ein Abbild der Umgebung vor dem Schienefahrzeug erstellt.
Dieses Abbild, eine Szenenrepräsentation, bildet eine Grundlage für eine Detektion von Hindernissen auf dem Fahrweg.
Nachteilig bei diesem aus [1] bekannten Sensorsystem zur Fahrwegüberwachung ist, dass insbesondere bei messtechnisch ungünstigen Umgebungsbedingungen, wie bei Dunkelheit und Regen, eine Genauigkeit und damit eine Sicherheit bei der Hinderniserkennung durch das Multisensorsystem vermindert sein kann.
Der Erfindung liegt die Aufgabe zugrunde, ein Sensorsystem bzw. ein Verfahren zur Überwachung eines Fahrwegs einer autonomen mobilen Einheit zur Verfügung zu stellen, welches flexibel bei beliebigen Umgebungsbedingungen einsetzbar ist und die Überwachung eines Fahrwegs mit höherer Zuverlässigkeit und mit höherer Sicherheit als obiges bekannte System ermöglicht.
Diese Aufgabe wird durch das Sensorsystem zur Fahrwegüberwa- chung für eine mobile Einheit sowie durch das Verfahren, das Computerprogramm mit Programmcode-Mitteln und das Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit mit den Merkmalen gemäß dem jeweiligen unabhängigen Patentanspruch gelöst.
Das Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit weist auf:
- ein Radarüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ein Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der
Radarüberwachung eine RadarüberwachungsInformation erzeugt wird, ein Laserüberwachungssystem, welcher derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird, ein Videoüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird. Neben mindestens diesen drei Überwachungssystemen, in der Regel realisiert durch entsprechende Sensoren bzw. Sensortypen, weist das Sensorsystem eine mit den Überwachungssystemen ge- koppelte zentrale Kontrolleinheit auf, in welcher die Überwachungsinformationen der Überwachungssysteme zusammengeführt werden (Sensorfusion) . Aus den Überwachungsinformationen der Überwachungssysteme ist eine Gesamtfahrwegsüberwachungsinfor- mation ermittelbar, mit welcher Gesamtfahrwegsüberwachungsin- formation der Fahrweg überwachbar ist.
Bei dem Verfahren zur Fahrwegüberwachung für eine autonome mobile Einheit wird: unter Verwendung eines RadarüberwachungsSystems ein Fahr- weg der autonomen mobilen Einheit überwacht, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird,
- unter Verwendung eines Laserüberwachungssystems ebenfalls der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird,
- unter Verwendung eines Videoüberwachungssystems auch der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Videoüberwachung eine Videoüberwachungsinformation er- zeugt wird.
Die Überwachungsinformationen der Überwachungssysteme werden zusammengeführt ( Sensorfusion) . Aus den Überwachungsinformationen der Überwachungssysteme wird eine Gesamtfahrwegsüber- wachungsinformation ermittelt, mit welcher Gesamtf ahrwegs- überwachungsinformation der Fahrweg überwacht wird.
Bei dem erfindungsgemäßen sensorunterstütztem Fahrwegüberwachungssystem handelt es sich um ein multifunktionales , kombi- niertes Sicherheitssystem, welches sehr hohe Anforderungen, die an eine Messgenauigkeit, Reaktionszeit, Reichweite usw. des Systems gestellt werden, bei nahezu beliebigen Umgebungsbedingungen erfüllt.
Entsprechendes gilt analog für das erfindungsgemäße Verfah- ren.
Der Einsatz verschiedener bzw. verschiedenartiger Sensoren innerhalb des erfindungsgemäßen Multisensorsystems eröffnet für die genannte Sicherheitsaufgabe die Möglichkeit, die spe- zifischen Vorteile jedes einzelnen Sensors bzw. Sensortyps zu nutzen und die insgesamt von den Sensoren gemessene Information in einer Datenfusionseinrichtung auszuwerten.
Durch eine gewinnbringende Fusion der verschiedenen Messdaten entsteht ein Informationsbestand, der mehr Aussagekraft als die Summe der isoliert betrachteten Einzeldaten hat.
Die charakteristischen Eigenschaften von Sensoren bzw. Sensortypen für die ObjektVermessung, deren Schwächen und Stär- ken, sind prinzipiell von der verwendeten Technologie bzw. vom verwendeten Typ abhängig.
Beispiele für die technologiebedingten Unterschiede bzw. Schwächen und Stärken sind die gute Entfernungsmessung der Radartechnik im Gegensatz zur guten Winkelmessung von Videosystemen sowie die von Umgebungsbedingungen relativ unabhängige hohe Genauigkeit der Laserscanner insgesamt.
Stellt man unter diesem Gesichtspunkt die verschiedenen Ei- genschaften von Videosystemen, von Radarsensoren und Laserscannern gegenüber, so zeigt sich, dass die drei Technologien sich gegenseitig sehr gut ergänzen.
Die Bilder von Videokameras können als Grauwertmatrizen ange- sehen werden. Diese werden anhand passender Modellannahmen interpretiert und auf das Vorhandensein von Hindernissen untersucht. Aufgrund der hohen räumlichen Auflösung können so mit Videosystemen besonders gut die Winkel zu detektierten Objekten gemessen werden. Auch können bei bekannter Entfernung die Breite und Höhe eines Hindernisses über die Winkel zu den Außenkanten bestimmt werden.
Gerade die Entfernung kann aber mit monokularen Videosystemen nur ungenau ermittelt werden. Desweiteren ist die Videotechnik stark lichtabhängig und bei messtechnisch ungünstigen Umgebungsbedingungen, wie Dunkelheit und Regen, nur unzurei- chend einsetzbar.
Es ist deshalb sinnvoll, die Nideosensorik durch ein bzw. mehrere Systeme zu ergänzen, das bzw. die die Entfernung auch bei schwierigen Umgebungsbedingungen gut messen kann bzw. können.
Hierfür bietet sich zum einen Radarsensorik an.
Sie ist in der Lage auch in großen Distanzen noch zuverlässig die Entfernung zu messen. Die Einschränkung einer vergleichsweise eher schlechteren Winkelauflösung und -genauigkeit bei Radarsystemen wird hingegen durch das Videosystem kompensiert .
Da aber auch die alleinige Kombination von Radar- und Video- sensorik unter erwähnten schwierigen Umgebungsbedingungen Nachteile aufweist, ist es sinnvoll, eine weitere Technik zu integrieren, nämlich eine Lasertechnik.
Ein solcher Nachteil bei alleiniger Kombination von Radar- und Videosensorik wäre beispielsweise, dass eine Zuordnung von Messungen in einem Videobild zu Messungen durch den Radarsensor dadurch schwierig ist, dass der Radarsensor eine schlechte Winkelauflösung aufweist.
Die Lasertechnik hingegen zeichnet sich durch hohe Genauigkeit sowohl bei Winkel- und Entfernungsmessung aus. Das derart kombiniert konzipierte, erfindungsgemäße Sensorsystem erreicht durch seine Sensorkombination hohe Flexibilität beim Einsatz unter nahezu beliebigen Umgebungsbedingungen sowie hohe Sicherheit und Zuverlässigkeit beim Überwachen von Fahrwegen.
Das Computerprogramm mit Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß des erfindungsgemäßen Verfahrens durchzuführen, wenn das Programm auf einem Computer ausge- führt wird.
Das Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß des erfindungsgemäßen Verfahrens durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
Das erfindungsgemäße System sowie das erfindungsgemäße Computerprogramm mit Programmcode-Mitteln sowie das erfindungsge- mäße Computerprogramm-Produkt sind insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner nachfolgend erläuterten Weiterbildungen.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Die im Weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf das erfindungsgemäße System, das erfindungsgemäße Verfahren sowie das erfindungsgemäße Computerprogramm mit Programmcode-Mitteln sowie das erfindungsgemäße Computerprogramm-Produkt .
Die Erfindung und die im Weiteren beschriebenen Weiterbildungen können sowohl in Software als auch in Hardware, bei- spielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden. Ferner ist eine Realisierung der Erfindung oder einer im Weiteren beschriebenen Weiterbildung möglich durch ein computerlesbares Speichermedium, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder eine deren Weiterbildungen ausführt.
Auch kann die Erfindung oder jede im Weiteren beschriebene Weiterbildung durch ein Computerprogrammerzeugnis realisiert sein, welches ein Speichermedium aufweist, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder eine deren Weiterbildungen ausführt .
Ein erster Block von Weiterbildungen und Ausgestaltungen be- trifft das Laserüberwachungssystem bzw. den Lasersensor [4] .
Hierbei kann als Lasersensor ein Laserscanner verwendet werden. 2D- oder 3D-Laserscanner sind beide einsetzbar, wobei in den jeweiligen Fällen die Laserüberwachungsinformation eine 2D- bzw. 3D-Information einer Umgebung des Fahrwegs beinhaltet. Diese können in Form von entsprechenden 2D- oder SD- Umgebungsmodellen vorliegen [4] .
Weitergehend können mehrere Lasersensoren, wie die vorerwähn- ten Laserscanner, nebeneinander, sich jeweils unterstützend verwendet werden, beispielsweise derart, dass der oder die zusätzlichen Lasersensoren zu einer schnellen Abtastung besonders gefährdeter Regionen bzw. Ebenen herangezogen werden.
Ein zweiter Block von Weiterbildungen und Ausgestaltungen betrifft das Radarüberwachungssystem bzw. den Radarsensor [3] .
Entsprechende 2D- oder 3D-Sensoren, analog zu denjenigen der Lasertechnik, sind jeweils in Alleinstellung oder auch in Kombination einsetzbar. So kann es unter Umständen sinnvoll sein, einen Fernbereichsradar, beispielsweise einen gepulsten CW-Radar, in Kombination mit einem Nahbereichsradar, wie einem hochauflösenden Pulsradar, einzusetzen.
Ein nächster Block von Weiterbildungen und Ausgestaltungen betrifft das Videoüberwachungssystem bzw. den Videosensor [2], [5].
Hierzu eigenen sich CCD-Videokameras, welche mit Normal- oder Teleobjektiven ausgestattet sein können. Auch ist es möglich eine solche in Alleinstellung oder in Kombination mit weiteren Kameras zu verwenden.
In einer weiteren Ausgestaltung beobachten die einzelnen Sensorsysteme den Bereich vor dem Schienenfahrzeug zunächst un- abhängig voneinander und vermessen Positionen und/oder gegebenenfalls Geschwindigkeiten von detektierten Objekten.
Dazu erfolgt in den jeweiligen Sensorsystemen eine spezifische Signalverarbeitung, da dort die meisten Randbedingungen, die einen Einfluss auf die Entstehung der Beobachtung haben, bekannt sind. Auf diese Weise wird eine verbesserte Verteilung der Verarbeitungslast zwischen den Sensorsystemen und der Sensor- bzw. Datenfusion erreicht und die Menge der zu übertragenden Daten wird reduziert.
Bei der Fusionierung der verschiedenen Messdaten des Multi- sensorsystems können Charakteristika, wie spezifische Stärken und Schwächen, individuelle (Mess-) Genauigkeiten, Ausfallwahrscheinlichkeiten und/oder Sicherheiten, der unterschiedlichen Sensorsysteme berücksichtigt werden.
So ist es beispielsweise möglich, bei der Ermittlung der Ge- samtfahrwegüberwachungsinformation aus den Überwachungsinformationen diese jeweils entsprechend einer Sicherheit des jeweiligen Überwachungssystems zu berücksichtigen. Weiterfüh- rend können die jeweiligen Sicherheiten von Umgebungsbedingungen der autonomen mobilen Einheit abhängig gemacht werden.
Die bei der Sensorfusion gebildete Gesamtfahrwegüberwachungs- Information beinhaltet ein Abbild der beobachteten Szene vor dem Fahrweg und damit im allgemeinen eine 3D-Information der Umgebung des Fahrwegs. Diese kann in Form eines SD- Umgebungsmodells vorliegen.
Die erfindungsgemäß überwachbare mobile, autonome Einheit kann ein spurgebundenes Fahrzeug, wie ein an Schienen gebundenes (Schienen-) Fahrzeug oder ein straßengebundenes (Straßen-) Fahrzeug, sein.
Ein Ziel der Fahrwegüberwachung ist unter anderem auch die
Erkennung eines Objekts bzw. eines Hindernisses auf dem Fahrweg der überwachbaren autonomen, mobilen Einheit. Dazu wird das fusionierte Umgebungsabbild (3D-Umgebungsmodell) entsprechend ausgewertet, wobei Bildverarbeitungstechniken einsetz- bar sind, und dabei Objekte und Hindernisse erkannt bzw. de- tektiert. Anhand des Umgebungsabbilds wird entschieden, ob sich eines der detektierten Objekte auf bzw. in dem Fahrweg befindet .
In diesem Fall erfolgt eine entsprechende (Warn-) Meldung an eine Steuereinheit der mobilen Einheit, die entsprechend auf die Fahrt der mobilen Einheit einwirkt.
So kann beispielsweise bei der Detektion eines relevanten Hindernisses die Geschwindigkeit bis zum Stillstand reduziert bzw. entsprechend angepasst werden und/oder ein akustisches oder visuelles Warnsignal gegeben werden.
In Figuren ist ein Ausführungsbeispiei der Erfindung darge- stellt, welches im Weiteren näher erläutert wird.
Es zeigen Figuren la und lb Skizzen eines autonomen, fahrerlosen Schienenfahrzeugs (CargoMover) mit einem Fahrwegüberwachungssystem;
Figur 2 Skizze eines Aufbaus eines kombinierten Fahrwegüberwachungssystems mit unterschiedlichen Sensorsystemen mit den jeweiligen Sensordetektionsbereichen;
Figur 3 strukturelle und funktionelle Systemübersicht des Fahrwegüberwachungssystems .
Ausführungsbeispiel: "CargoMover", ein autonomes, fahrerloses Schienenfahrzeug
Figuren la und lb zeigen ein autonomes, fahrerloses Schienenfahrzeug, einen "CargoMover" 100.
Der CargoMover 100 ist ein fahrerloses, autonomes, schienengebundenes Transportsystem, welches nicht einer unmittelbaren Überwachung und Steuerung durch Bedienpersonal unterliegt, sondern selbständig und autonom seine (Transport-) Funktion erfüllt.
• Um autonom agieren zu können, muss er Umgebungsbedingungen im Gleisbereich automatisch erfassen, dort Objekte und/oder Hindernisse erkennen und detektieren, diese entsprechend ihrer Bedeutung interpretieren und in Abhängigkeit davon regieren können.
Dazu ist er mit einem Sicherheitssystem, einem Multisensorsystem 110, ausgestattet, welches ihm die Durchführung der genannten Aufgaben ermöglicht. Insbesondere ermöglicht dieses Multisensorsystem 110, Abstände und Differenzgeschwindigkeiten zu sämtlichen Objekten bzw. Hindernissen in einem Beobachtungsbereich des CargoMovers 100 präzise zu messen. Dieses Multisensorsystem 110 kombiniert Sensoren 120 unterschiedlicher Messtechniken, einer Lasertechnik, einer Radartechnik und einer Videotechnik, miteinander.
Im Detail umfasst das Multisensorsystem 110 des CargoMovers 100 ein Radarüberwachungssystem 124, umfassend einen rechten 121, einen mittleren 122 und einen linken 123 Radarsensor, ein Laserüberwachungssystem 132, umfassend einen unteren, festen 130 und einen oberen, schwenkbaren 131 3D- Laserscanner, sowie ein Videoüberwachungssystem 141, umfassend eine Videokamera 140.
Die einzelnen Sensorsysteme 124, 132, 141 übertragen ihre Messergebnisse an eine zentrale Fusionseinheit 150 des Multi- sensorsystems 110. Dort wird aus den verschiedenen Messwerten ein Abbild der Umgebung vor dem CargoMover 100 erstellt.
Dieses Abbild, eine Szenenrepräsentation, bildet eine Grundlage für die Erkennung bzw. Detektion von Objekten und Hin- dernissen auf dem Gleis 160.
Multisensor onzept
An das Sicherheitssystem 100 bzw. an das Multisensorsystem 110 werden sehr hohe Anforderungen hinsichtlich der Sicherheit bei der Erkennung von Objekten und Hindernissen gestellt. Denn nur dann ist ein sicherer, autonomer Betrieb des CargoMovers 100 gewährleistbar bzw. möglich.
Daraus resultieren hohe Anforderungen in Bezug auf Messgenauigkeit, Reaktionszeit, Reichweite usw., die an das Multisensorsystem 110 gestellt werden.
Der Einsatz der verschiedenen, passend ausgewählten Sensor- Systeme 124, 132, 141 innerhalb des Multisensorsystems 110 eröffnet für diese Aufgabe die Möglichkeit, die spezifischen Vorteile jedes einzelnen Sensortyps zu nutzen und die insge- samt von den Sensoren gemessene Information in einer Datenfusionseinrichtung, der Fusionseinheit 150, auszuwerten.
Durch eine gewinnbringende Fusion der verschiedenen Messdaten entsteht ein Informationsbestand, der mehr Aussagekraft als die Summe der Einzeldaten hat.
Die charakteristischen Eigenschaften von Sensoren für die Objektvermessung sind prinzipiell von der verwendeten Technolo- gie und anderen Designparametern abhängig. So zeichnet sich die Radartechnik insbesondere durch gute Entfernungsmessung aus im Gegensatz zur guten Winkelmessung von Videosystemen. Die Stärke einer Lasertechnik liegt in ihrer Genauigkeit sowohl bei Winkel- und Entfernungsmessung.
Stellt man unter diesem Gesichtspunkt die verschiedenen Eigenschaften bzw. Schwächen und Stärken von Videosystemen, von Radarsystemen und von Lasersystemen einander gegenüber, so zeigt sich, dass die Technologien sich gegenseitig sehr gut ergänzen.
Aufgrund des großen zu überwachenden Bereiches werden bei dem Multisensorsystems 110 des CargoMovers 100 jeweils mehrere Einzelsensoren desselben Sensortechnik, so bei dem Radar- 124 und dem Lasersystem 132, verwendet, die jeweils unterschiedliche Bereiche schwerpunktmäßig vor dem CargoMover 100 erfassen.
Figur 2 zeigt das Multisensorsystem 110 des CargoMovers 100 mit den jeweiligen Detektionsbereichen 200 bzw. 210, 220, 230 der einzelnen Sensoren bzw. Sensorsystemen 124, 132, 141.
Es werden folgende Modellreihen von Sensoren als Basistypen für das Multisensorsystem 110 verwendet: Videokamera 140: JAI M10RS, 1/2 Zoll Chip, Progressive Scan, 782 x 582 Pixel mit Auto-Iris Objektiv COSM H1212E; Infrarot Laser Scanner 130, 131: Fa. Sick AG, LMS 221-30206 mit veränderlicher Winkelauflösung und damit korrelierter Scanzeit, einer davon schwenkbar montiert;
Radarsensor 121, 122, 123: FMCW Radar-Modulen mit Patch An- tennen, modifiziert.
Die Bilder der Videokamera 140 werden auch genutzt zur Bestimmung des Fahrwegverlaufs (vgl. Figur 3, 311, 322) .
Sensorfusion (Figur 3)
Die einzelnen Sensorsysteme 124, 132, 141 beobachten den Bereich vor dem CargoMover zunächst unabhängig voneinander und vermessen die Position und ggf. die Geschwindigkeit der de- tektierten Objekte bzw. Hindernisse.
Dazu erfolgt in den jeweiligen Sensorsystemen 124, 132, 141 eine spezifische Signalverarbeitung (vgl. Figur 3, 310 bis 312, 320 bis 322), da dort die meisten Randbedingungen be- kannt sind, die einen Einfluss auf die Entstehung der Beobachtung haben. Bei der spezifischen Signalverarbeitung werden die oben besprochenen Charakteristika bzw. Stärken und Schwächen der unterschiedlichen Sensorsysteme 124, 132, 141 berücksichtigt .
Ferner wird auf diese Weise eine bessere Verteilung der Datenverarbeitungslast zwischen den Sensorsystemen 124, 132, 141 und der Datenfusion erreicht und die Menge der zu übertragenden Daten wird reduziert.
Um aus den Messungen der verschiedenen Sensorsysteme 124, 132, 141 ein gutes Abbild der zu beobachtenden Szene vor dem CargoMover 100 zu erhalten (3D-Umgebungsmodell, vgl. Figur 3, 330) , werden die jeweiligen Messergebnisse bzw. Verarbei- tungsergebnisse möglichst gewinnbringend vereint bzw. fusioniert (vgl. Figur 3, 330) . Deshalb werden auch bei dieser Fusionierung (vgl. Figur 3, 330) der verschiedenen Messdaten des Multisensorsystems 110 die oben besprochenen Charakteristika bzw. Stärken und Schwächen der unterschiedlichen Sensorsysteme 124, 132, 141 be- rücksichtigt. Dies erfolgt durch variabler Gewichtung der zu fusionierenden Messdaten.
Das Ziel der Datenfusion ist es dabei, ein möglich genaues Abbild der Umgebung (3D-Umgebungsmodell) des CargoMovers 100 zu erzeugen (vgl. Figur 3, 330) sowie die Zustände (Position und Geschwindigkeit) der beobachteten Objekte sowie deren Entfernung (vgl. Figur 3, 340) zum CargoMover 100 aus dem Umgebungsabbild bzw. aus den aktuellen und vorhergegangenen Messungen möglichst präzise zu bestimmen.
Das entstehende Umgebungsabbild (vgl. Figur 3, 330) wird für die Interpretation der Szenen, d.h. in diesem Fall für die Entscheidung, ob sich eines der detektierten Objekte im Gleis 160 befindet, und für die anschließende Entfernungsbestimmung 340 genutzt.
Figur 3 zeigt eine strukturelle und funktionelle Systemübersicht 300 des Multisensorsystems 110 des CargoMovers 100. Die Datenflüsse sind durch Pfeile in Figur 3 gekennzeichnet.
Von den einzelnen Sensorsystemen 124, 132, 141 werden die jeweiligen Messergebnisse 310 bis 312, 320 bis 322 an die zentrale Fusionseinheit 150 übertragen.
Dort erfolgt unter anderem die Bestimmung des SD- Umgebungsmodells 330, welches als Grundlage für die Identifizierung von Hindernissen sowie die Ermittlung der jeweiligen Entfernungen 340 dieser zum CargoMover 100 dient.
Auf Basis der einzelnen Sensorsignale der Sensorsysteme 124, 132, 141 wird insbesondere ermittelt: - aus den Messsignalen des Radarsystems 124 eine 2D- Hindernisserkennung 312,
- aus den Messsignalen des Videosystems 141 ein 2D- 311 und daraus ein 3D-Streckenverlauf 321 sowie Hindernisse in Bo- dennähe (2D) 322, aus den Messsignalen des Lasersystems 132 eine SD- Hinderniserkennung 320 und aus den Messsignalen des Lasersystems 132 in Kombination mit dem 2D-Streckenverlauf 311 eine Gleishöhe und eine Überhöhung 310, welche auch in die Ermittlung des 3D-Streckenverlaufs 321 einfließt.
Das 3D-Umgebungsmodell 330, eine entlang einer 3D-Kurve angeordnete Folge von 2D-Gitterkarten mit Lichtraumprofil, wird erstellt unter Verwendung der 2D-Hinderniserkennung 312, der Hindernisse in Bodennähe 322, des 3D-Streckenverlaufs 321 sowie der 3D-Hinderniserkennung 320.
Anschließend wird unter Verwendung des 3D-Umgebungsmodells 330 ein Hindernis identifiziert und die Entfernung dieses Hindernisses zum CargoMover 100 ermittelt 340.
Wird nun ein Hindernis als relevant, d.h. als auf dem Gleis 160 oder in dem Gleisbereich befindlich, erkannt und nähert sich der CargoMover 100 diesem auf weniger als einen vorgeb- baren Sicherheitsabstand, in diesem Fall von 70m, so erfolgen entsprechende Meldungen von der Fusionseinheit 50 an eine Steuereinheit des CargoMovers 100.
Die Steuereinheit veranlasst notwendige Sicherheitsmassnah- men, die eine Kollision mit dem erkannten Hindernis ausschließen. So wird in diesem Fall ein Bremsvorgang eingeleitet, wobei die Geschwindigkeit des CargoMovers 100 kontinuierlich reduziert wird. Darüber hinaus gibt der CargoMover 100 ein akustisches und visuelles Warnsignal ab. In diesem Dokument sind folgende Schriften zitiert:
[1] Kruse F., et al., "Multisensorsystem für schienengebundene Fahrzeuge", Symposium für Mobilität und Sicherheit.
[2] 3D-Szenenrekonstruktion aus Bilddaten (mittels CCD- Kameras), BMBF-Projekt, erhältlich am 23. September 2002 unter: http: //ais . gmd.de/projects/Makro/reports/makro-report-VI- l.pdf.
[3] Mikrowellen-Radar, erhältlich am 23. September 2002 unter: http: //www. elva-1. spb.ru/products/industrial/FMCW.html.
[4] H. Surmann, K. Lingemann, A. Nüchter, J. Hertzberg: „A 3D laser ränge finder for autonomous mobile robotsλ Proc. 32. ISR (International Symposium on Robotics) pp. 153 - 158, 20013D Laserscanner.
[5] CCD-Videokamera, erhältlich am 23. September 2002 unter: http: //www. sony.de/professional/medical/kameras/dxc_990p. html.

Claims

Patentansprüche
1. Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit - mit einem Radarüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ein Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird, - mit einem Laserüberwachungssystem, welcher derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird, - mit einem Videoüberwachungssystem, welches derart an der autonomen mobilen Einheit angebracht ist, dass ebenfalls der Fahrweg der autonomen mobilen Einheit überwachbar ist, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird, - sowie mit einer mit den Überwachungssystemen gekoppelten zentralen Kontrolleinheit, in welcher die Überwachungsinformationen der Überwachungssysteme zusammengeführt werden und - mit welcher aus den Überwachungsinformationen der Über- wachungssysteme eine Gesa tfahrwegsüberwachungsinforma- tion ermittelbar ist, mit welcher Gesamtfahrwegsüberwa- chungsinformation der Fahrweg überwachbar ist.
2. Sensorsystem nach Anspruch 1, mit mehreren RadarüberwachungsSystemen und/oder mehreren Laserüberwachungssystemen und/oder mehreren Videoüberwachungssystemen, die alle mit der zentralen Kontrolleinheit gekoppelt sind.
3. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem die Überwachungsinformationen jeweils eine 2D- oder 3D-Umgebungsinformation einer Umgebung des Fahrwegs beinhalten.
4. Sensorsystem nach Anspruch 3, bei dem die UmgebungsInformation ein Umgebungsmodell beinhaltet.
5. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem das Laserüberwachungssystem einen Laserscanner, insbesondere einen 3D-Laserscanner, aufweist.
6. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem das Radarüberwachungssystem ein Radar auf Basis einer FMCW-Technik aufweist.
7. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem das Videoüberwachungssystem eine CCD-Videokamera aufweist .
8. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem bei der Ermittlung der Gesamtfahrwegüberwachungsin- formation aus den Überwachungsinformationen diese jeweils entsprechend einer Sicherheit des jeweiligen Überwachungssys- tems berücksichtigt werden.
9. Sensorsystem nach Anspruch 8, bei dem die jeweiligen Sicherheiten von Umgebungsbedingungen der autonomen mobilen Einheit abhängig sind.
10. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem die Gesamtfahrwegüberwachungsinformation eine 3D- Information einer Umgebung des Fahrwegs beinhaltet
11. Sensorsystem nach Anspruch 10, bei dem die 3D-Information ein 3D Umgebungsmodell ist
12. Sensorsystem nach einem der vorangehenden Ansprüche, bei dem die mobile autonome Einheit ein spurgebundenes Fahrzeug, insbesondere ein fahrerloses Schienenfahrzeug, ist.
13. Sensorsystem nach einem der vorangehenden Ansprüche, eingesetzt zur Erkennung eines Objekts auf dem Fahrweg, wobei das Objekt unter Verwendung der Gesa tfahrwegüberwachungsin- formation als Hindernis identifiziert wird.
14. Sensorsystem nach einem der vorangehenden Ansprüche, eingesetzt zu einer Überwachung einer Fahrt der autonomen mobilen Einheit auf dem Fahrweg, wobei während der Fahrt unter Verwendung des SensorSystems der Fahrweg überwacht wird.
15. Sensorsystem nach Anspruch 13 und Anspruch 14, eingesetzt bei einer überwachten Fahrt der autonomen mobilen Einheit, wobei auf die Fahrt der mobilen Einheit eingewirkt wird, wenn ein Objekt als ein Hindernis erkannt wird.
16. Verfahren zur Fahrwegüberwachung für eine autonome mobile Einheit, bei dem unter Verwendung eines Radarüberwachungssystems ein Fahrweg der autonomen mobilen Einheit überwacht wird, wobei bei der Radarüberwachung eine RadarüberwachungsInformation erzeugt wird, unter Verwendung eines Laserüberwachungssystems der Fahrweg der autonomen mobilen Einheit überwacht wird, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird, - unter Verwendung eines Videoüberwachungssystems der Fahrweg der autonomen mobilen Einheit überwacht wird, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird, die Überwachungsinformationen der Überwachungssysteme zu- sammengeführt werden und aus den Überwachungsinformationen der Überwachungssysteme eine Gesamtfahrwegüberwachungsinformation ermittelt wird, mit welcher der Fahrweg überwacht wird.
17. Computerprogramm-Erzeugnis, das ein computerlesbares
Speichermedium umfasst, auf dem ein Programm gespeichert ist, das es einem Computer ermöglicht, nachdem es in einen Speicher des Computers geladen worden ist, folgende Schritte durchzuführen zur Überwachung eines Fahrwegs für eine autono- me mobile Einheit:
- unter Verwendung eines Radarüberwachungssystems wird ein Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird, - unter Verwendung eines Laserüberwachungssystems wird der
Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird,
- unter Verwendung eines VideoüberwachungsSystems wird der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird,
- die Überwachungsinformationen der Überwachungssysteme werden zusammengeführt und - aus den Überwachungsinformationen der Überwachungssysteme wird eine Gesamtfahrwegüberwachungsinformation ermittelt, mit welcher der Fahrweg überwacht wird.
18. Computerlesbares Speichermedium, auf dem ein Programm ge- speichert ist, das es- einem Computer ermöglicht, nachdem es in einen Speicher des Computers geladen worden ist, folgende Schritte durchzuführen zur Überwachung eines Fahrwegs für eine autonome mobile Einheit: unter Verwendung eines Radarüberwachungssystems wird ein Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Radarüberwachung eine Radarüberwachungsinformation erzeugt wird, unter Verwendung eines Laserüberwachungssystems wird der Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Laserüberwachung eine Laserüberwachungsinformation erzeugt wird, - unter Verwendung eines Videoüberwachungssystems wird der
Fahrweg der autonomen mobilen Einheit überwacht, wobei bei der Videoüberwachung eine Videoüberwachungsinformation erzeugt wird, die ÜberwachungsInformationen der Überwachungssysteme wer- den zusammengeführt und aus den Überwachungsinformationen der Überwachungssysteme wird eine Gesamtfahrwegüberwachungsinformation ermittelt, mit welcher der Fahrweg überwacht wird.
19. Computerprogramm mit Programmcode-Mitteln, um alle
Schritte gemäß Anspruch 16 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
20. Computerprogramm mit Programmcode-Mitteln gemäß Anspruch 19, die auf einem Computerlesbaren Datenträger gespeichert sind.
21. Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, um alle Schritte gemäß Anspruch 16 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
EP03750482A 2002-09-23 2003-09-02 Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit Ceased EP1542893A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10244127 2002-09-23
DE10244127A DE10244127A1 (de) 2002-09-27 2002-09-27 Sensorsystem zur Fahrwegüberwachung für eine autonome mobile Einheit, Verfahren sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Überwachung eines Fahrwegs für eine autonome mobile Einheit
PCT/EP2003/009753 WO2004028881A1 (de) 2002-09-23 2003-09-02 Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit

Publications (1)

Publication Number Publication Date
EP1542893A1 true EP1542893A1 (de) 2005-06-22

Family

ID=31983987

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03750482A Ceased EP1542893A1 (de) 2002-09-23 2003-09-02 Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit

Country Status (5)

Country Link
EP (1) EP1542893A1 (de)
AU (1) AU2003270142A1 (de)
DE (1) DE10244127A1 (de)
TW (1) TW200424823A (de)
WO (1) WO2004028881A1 (de)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200604047A (en) * 2004-07-22 2006-02-01 Siemens Ag Method to detect an obstruction on a railroad
DE102006007788A1 (de) * 2006-02-20 2007-08-30 Siemens Ag Verfahren zur rechnergestützten Überwachung des Betriebs eines einen vorgegebenen Streckenverlauf fahrenden Fahrzeugs, insbesondere eines spurgebundenen Schienenfahrzeugs
DE102006015036A1 (de) * 2006-03-31 2007-10-11 Siemens Ag Verfahren zur Fahrwegüberwachung
IT1395012B1 (it) * 2009-07-24 2012-09-05 Esim Srl Elettronica Societa Impianti Meridionali Srl Sistema tins - tunnel inspection system
FR2976355B1 (fr) 2011-06-09 2013-06-21 Jean Luc Desbordes Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant.
EP2760724B1 (de) * 2011-09-30 2023-03-01 Siemens Mobility S.A.S. Verfahren und vorrichtung zur erkennung der verfügbarkeit des gleises für ein spurgebundenes fahrzeug
ES2401509B1 (es) * 2011-10-05 2014-03-05 Universidad De Almería Sistema de guiado para movimiento autónomo de vehículos en entornos estructurados.
DE102012215544A1 (de) * 2012-08-31 2014-03-06 Siemens Aktiengesellschaft Überwachung einer Bahnstrecke
TWI481892B (zh) 2012-12-13 2015-04-21 Ind Tech Res Inst 脈波雷達測距裝置及其測距演算法
US9387867B2 (en) * 2013-12-19 2016-07-12 Thales Canada Inc Fusion sensor arrangement for guideway mounted vehicle and method of using the same
US9327743B2 (en) 2013-12-19 2016-05-03 Thales Canada Inc Guideway mounted vehicle localization system
DE102014206473A1 (de) * 2014-04-03 2015-10-08 Bombardier Transportation Gmbh Automatische Assistenz eines Fahrers eines fahrspurgebundenen Fahrzeugs, insbesondere eines Schienenfahrzeugs
DE102014212233A1 (de) * 2014-06-25 2015-12-31 Bombardier Transportation Gmbh Vorrichtung und Verfahren zur Erfassung einer Fahrzeugumgebung eines Schienenfahrzeugs sowie Schienenfahrzeug
PT2998184T (pt) * 2014-09-18 2020-03-02 Siemens Rail Automation S A U Sistema e método para localizar e registar automaticamente um farol
DE102014222900A1 (de) 2014-11-10 2016-05-12 Bombardier Transportation Gmbh Betrieb eines Schienenfahrzeugs mit einem Bilderzeugungssystem
DE102015212019A1 (de) * 2015-06-29 2016-07-14 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen von Hindernissen vor einem Schienenfahrzeug
DE102016205392A1 (de) 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zur Validierung eines Hinderniserkennungssystems
DE102016224212A1 (de) * 2016-12-06 2018-06-07 Siemens Aktiengesellschaft Automatisierte Freiraumerkennung mittels Differenzanalyse für Fahrzeuge
DE102017205962B4 (de) * 2017-04-07 2021-12-30 Robert Bosch Gmbh Verfahren zum Betreiben eines Schienenfahrzeugs
DE102017206446A1 (de) * 2017-04-13 2018-10-18 Knorr-Bremse Systeme für Schienenfahrzeuge GmbH Fusion von infrastrukturbezogenen Daten, insbesondere von infrastrukturbezogenen Daten für Schienenfahrzeuge
DE102017207138A1 (de) * 2017-04-27 2018-10-31 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum rechnergestützten Erzeugen einer virtuellen Zugumgebung
DE102017218433A1 (de) * 2017-10-16 2019-04-18 Montratec Gmbh Fahrerloses Schienenfahrzeug und Transportsystem
DE102017219643A1 (de) * 2017-11-06 2019-05-09 Siemens Mobility GmbH Schienenfahrzeugortung
CN108255189A (zh) * 2018-01-31 2018-07-06 佛山市神风航空科技有限公司 一种电力巡检无人机系统
DE102018205656A1 (de) * 2018-04-13 2019-10-17 Siemens Aktiengesellschaft Temperaturüberwachung zur Detektion von Funktionsbeeinträchtigungen von Radarsensoren von Schienenfahrzeugen
CN110550072B (zh) * 2019-08-29 2022-04-29 北京博途智控科技有限公司 一种铁路调车作业识别障碍物的方法、系统、介质及设备
EP3812239B1 (de) 2019-10-21 2023-10-04 Siemens Mobility GmbH Rechnergestützte plattform zur darstellung einer bahninfrastruktur und verfahren zu deren betrieb
DE102020210821A1 (de) 2020-08-27 2022-03-03 Siemens Mobility GmbH Verfahren zur Überprüfung eines Lichtraums für ein Schienenfahrzeug
DE102021206083A1 (de) * 2021-06-15 2022-12-15 Siemens Mobility GmbH Selbstjustierende Umfelderfassungseinrichtung für Schienenfahrzeuge
DE102022205020A1 (de) 2022-05-19 2023-11-23 Siemens Mobility GmbH Erstellung und Ausgabe einer Ausstiegsinformation in einem Schienenfahrzeug
DE102022210974A1 (de) 2022-10-18 2024-04-18 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Kollisionsinformation bezüglich einer Kollisionsgefahr zwischen einem Schienenfahrzeug und einem Objekt
DE102022213909A1 (de) 2022-12-19 2024-06-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Kollisionsinformation bezüglich einer Kollisionsgefahr zwischen einem Schienenfahrzeug und einem Objekt

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841246A1 (de) * 1998-09-09 2000-06-15 Eberhard Tauscheck Zugbegleitende Anlage zur aktuellen Analyse von Streckengefahren vor dem Zug
GB2371617A (en) * 2001-01-15 2002-07-31 Wayne Jeffrey Forsythe Railway safety system for detecting track obstruction
AT5086U3 (de) * 2001-12-07 2003-02-25 Plasser Bahnbaumasch Franz Arbeitsfahrzeug und verfahren zum führerlosen betrieb

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2004028881A1 *

Also Published As

Publication number Publication date
TW200424823A (en) 2004-11-16
DE10244127A1 (de) 2004-04-08
WO2004028881A1 (de) 2004-04-08
AU2003270142A1 (en) 2004-04-19

Similar Documents

Publication Publication Date Title
EP1542893A1 (de) Sensorsystem und verfahren zur fahrwegüberwachung für eine mobile einheit
EP3497476B1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE102017203838B4 (de) Verfahren und System zur Umfelderfassung
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE69731009T2 (de) System zum Erkennen von Hindernissen
EP3218244B1 (de) Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
WO2005081200A2 (de) Erfassungsvorrichtung für ein kraftfahrzeug
DE10151982A1 (de) Optoelektronische Erfassungseinrichtung
DE102018122374B4 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
DE102016224212A1 (de) Automatisierte Freiraumerkennung mittels Differenzanalyse für Fahrzeuge
WO2013037532A1 (de) Vorrichtung und verfahren zum bestimmen einer position eines fahrzeugs
EP1286181A1 (de) Führung von Kraftfahrzeugen
EP3109663B1 (de) Verfahren zum betrieb eines fahrerassistenzsystems eines kraftfahrzeugs und kraftfahrzeug
DE102019131667A1 (de) Fahrzeug und verfahren zur voraussage einer kollision
EP3802257A1 (de) Steuerung eines kraftfahrzeugs
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
DE102020127206A1 (de) Prozess und system zur gemeinsamen nutzung von sensoren für einen autonomen fahrspurwechsel
DE102004050690A1 (de) Verfahren, Computer-Programm mit Programm-Code-Mitteln, Computer-Programm-Produkt und Gerät zur Modellierung der Umwelt eines autonomen mobilen Systems
DE102017218932B4 (de) Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
WO2021156269A1 (de) Sensorsystem für ein fahrzeug zur überwachung eines horizontalen überwachungsbereichs von wenigstens 180°
EP2856205B1 (de) Verfahren und vorrichtung zur objektdetektion
DE102020102929B4 (de) Verbundsystem mit einem Sicherheitssystem, einem Gleisabschnitt und einem Zug mit zumindest einem autonom fahrenden Schienenfahrzeug

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20050204

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

17Q First examination report despatched

Effective date: 20050617

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20070322