DE102018222723A1 - Verfahren und Einrichtung zur Objekterkennung - Google Patents

Verfahren und Einrichtung zur Objekterkennung Download PDF

Info

Publication number
DE102018222723A1
DE102018222723A1 DE102018222723.3A DE102018222723A DE102018222723A1 DE 102018222723 A1 DE102018222723 A1 DE 102018222723A1 DE 102018222723 A DE102018222723 A DE 102018222723A DE 102018222723 A1 DE102018222723 A1 DE 102018222723A1
Authority
DE
Germany
Prior art keywords
signal
detection area
radio
evaluation
sensor device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018222723.3A
Other languages
English (en)
Inventor
Bernhard Evers
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Mobility GmbH
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Priority to DE102018222723.3A priority Critical patent/DE102018222723A1/de
Priority to PCT/EP2019/082177 priority patent/WO2020126304A1/de
Publication of DE102018222723A1 publication Critical patent/DE102018222723A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

Die Erfindung betrifft ein Verfahren zur Objekterkennung in einem Erkennungsbereich (9), bei dem wenigstens ein optisch und/oder funkbasiert für den Erkennungsbereich (9) ermitteltes Signal und wenigstens mittels Fibersensing für den Erkennungsbereich (9) ermitteltes Signal ausgewertet werden, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt (14) im Erkennungsbereich (9) hinweist.Die Erfindung betrifft auch eine Einrichtung zur Objekterkennung.

Description

  • Verfahren und Einrichtungen zur Objekterkennung sind eine wichtige Technologie, die beispielsweise zur Hinderniserkennung bei autonom fahrenden Fahrzeugen Verwendung findet. Dabei ist eine hohe Zuverlässigkeit bei der Objekterkennung von Objekten in einem Erkennungsbereich wichtig. Hierbei gilt es, eine möglichst hohe Sicherheit der Objekterkennung zu erreichen.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Einrichtung zur Objekterkennung bereitzustellen, die eine gegenüber bekannten Verfahren und Einrichtungen erhöhte Sicherheit bei der Objekterkennung bietet.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Objekterkennung in einem Erkennungsbereich, bei dem wenigstens ein optisch und/oder funkbasiert für den Erkennungsbereich ermitteltes Signal und wenigstens ein mittels Fibersensing für den Erkennungsbereich ermitteltes Signal ausgewertet werden, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich hinweist.
  • Die Aufgabe wird ferner gelöst durch eine Einrichtung zur Objekterkennung, mit wenigstens einer ersten Sensoreinrichtung, die zur optisch und/oder funkbasierten Überwachung eines Erkennungsbereichs ausgebildet ist, mit wenigstens einer zweiten Sensoreinrichtung, die zur Überwachung des Erkennungsbereichs mittels Fibersensing ausgebildet ist, und mit wenigstens einer mit der ersten und der zweiten Sensoreinrichtung verbundenen Auswerteeinrichtung, die zur Auswertung eines Signals der ersten Sensoreinrichtung und eines Signals der zweiten Sensoreinrichtung ausgebildet ist, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich hinweist.
  • Die erfindungsgemäße Lösung hat den Vorteil, dass die Verlässlichkeit, Plausibilität und Sicherheit der Objekterkennung erhöht wird, weil sowohl optisch und/oder funkbasiert ermittelte Signale als auch mittels Fibersensing ermittelte Signale ausgewertet werden. Diese unabhängig voneinander ermittelten Signale und Sensoreinrichtungen werden getrennt voneinander oder auch kombiniert ausgewertet, um ein Objekt im Erkennungsbereich zuverlässiger zu erkennen.
  • Die optisch und/oder funkbasiert ermittelten Signale werden beispielsweise durch Radar oder Lidar ermittelt.
  • Die durch Fibersensing ermittelten Signale werden in an sich bekannter Weise mit Hilfe einer Analyse von Licht, das durch ein Lichtwellenleiter geleitet wurde, ermittelt. Unter Fibersensing wird im Allgemeinen ein faseroptischer Sensor verstanden, also ein spezieller Messaufnehmer für optische Messverfahren auf Grundlage von Lichtwellenleitern. Bei solchen faseroptischen Sensoren wird die Messgröße nicht durch eine elektrische Größe repräsentiert bzw. übertragen, sondern durch eine optische Größe.
  • Die Erfindung kann durch vorteilhafte Ausgestaltungen weiterentwickelt werden, die im Folgenden beschrieben sind.
  • So können das optisch und/oder funkbasiert für den Erkennungsbereich ermittelte Signal und das mittels Fibersensing für den Erkennungsbereich ermittelte Signal separat ausgewertet werden, um jeweils wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich hinweist. Diese separate Auswertung hat den Vorteil, dass die unterschiedlichen Signale separat voneinander auf für sie optimale Weise ausgewertet werden können. Auch die Ergebnisse der Auswertungen lassen sich separat auswerten. Insbesondere kann die Auswertung des optisch und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierenden Signals verglichen werden. So kann beispielsweise geschaut werden, ob die Auswertungen in die gleiche Richtung gehen bzw. zum gleichen Ergebnis kommen und damit die Wahrscheinlichkeit der Objekterkennung sehr hoch ist. Falls die Auswertungen zu unterschiedlichen Ergebnissen kommen, bestehen dagegen Zweifel und es sind eher weitere Untersuchungen nötig.
  • Um die Zuverlässigkeit der Objekterkennung weiter zu erhöhen, können das wenigstens eine optisch und/oder funkbasiert ermittelte Signal und/oder das wenigstens eine mittels Fibersensing ermittelte Signal mit Hilfe von künstlicher Intelligenz - KI - ausgewertet werden. Objekte im Erkennungsbereich können so mit Hilfe künstlicher Intelligenz identifiziert werden. Dabei kann es sich beispielsweise um die Anwendung von Deep Learning Verfahren handeln, die auf künstlichen neuronalen Netzen basieren. Künstliche neuronale Netze bestehen aus miteinander verbundenen künstlichen Neuronen. Die Eingänge eines künstlichen Neurons werden gewichtet und aufsummiert. Abhängig von der Aktivierungsfunktion, die hier im Zusammenhang mit der Objekterkennung steht, werden die Ausgänge des künstlichen Neurons anschließend aktiviert. Künstliche neuronale Netze lernen, indem sie trainiert werden. Dabei werden die Gewichte zwischen den künstlichen Neuronen geändert, bis die Ausgabeschicht mit den Ausgängen das gewünschte Ergebnis zeigt. Bei dem erfindungsgemäßen Verfahren zur Objekterkennung kann durch die Anwendung von künstlicher Intelligenz die Wahrscheinlichkeit der Objekterkennung erheblich gesteigert werden. Hierfür sollte ein ausreichendes Training absolviert werden. Dabei kann künstliche Intelligenz sowohl für die Auswertung des optisch und/oder funkbasiert ermittelten Signals oder alternativ bzw. zusätzlich für die Auswertung des mittels Fibersensing ermittelten Signals verwendet werden. Auch können die optisch und/oder funkbasiert ermittelten Signale mit dem mittels Fibersensing ermittelten Signal zusammengeführt und gemeinsam mittels künstlicher Intelligenz ausgewertet werden.
  • Ferner können ein durch Auswertung des optischen und/oder funkbasierten Signals ermitteltes Objekt mit einem durch Auswertung des auf Fibersensing basierenden Signals ermittelten Objekt verglichen werden. Dies hat den Vorteil, dass die beiden Auswertungen zunächst völlig separat ablaufen und unabhängig voneinander ein Objekt mit bestimmten Kriterien erkennen. Nur wenn diese Kriterien des Objekts der beiden Auswertungen gleich sind, kann von einer hohen Wahrscheinlichkeit bei der Objekterkennung ausgegangen werden. Die Objekte können dabei insbesondere aus einer Auswahl von vorbekannten Objekten ausgewählt werden.
  • In einer vorteilhaften Ausgestaltung der Einrichtung zur Objekterkennung kann die Auswerteeinrichtung zum Vergleichen der Auswertung des optischen und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierten Signals ausgebildet sein. Dies hat den Vorteil, dass durch den Vergleich die Plausibilität und damit die Sicherheit der Objekterkennung erhöht werden kann.
  • Ferner kann die Auswerteeinrichtung zum Auswerten des wenigstens einen optisch und/oder funkbasiert ermittelten Signals und/oder des wenigstens einen mittels Fibersensing ermittelten Signals mit Hilfe von künstlicher Intelligenz ausgebildet sein. Dies hat den bereits oben beschriebenen Vorteil, dass die Sicherheit der Objekterkennung mittels künstlicher Intelligenz erhöht werden kann.
  • Um eine vom Fahrzeug unabhängige Einrichtung zu erhalten, können die erste und/oder die zweite Sensoreinrichtung streckenseitig angeordnet sein. Bei der streckenseitigen Anordnung wird das Ergebnis der Objekterkennung an das Fahrzeug übertragen und dort beispielsweise zur Steuerung des Fahrzeugs verwendet. Ansonsten kann die erste Sensoreinrichtung fahrzeugseitig und die zweite Sensoreinrichtung streckenseitig angeordnet sein. Die Übermittlung der Signale zu der Auswerteeinrichtung kann kabelgebunden, aber auch kabellos, wie z. B. funkbasiert, erfolgen.
  • Die Erfindung betrifft weiterhin ein autonom fahrendes Fahrzeug, das eine Einrichtung zur Objekterkennung nach einer der zuvor genannten Ausführungsformen umfasst. In einer vorteilhaften Ausgestaltung kann das Fahrzeug insbesondere ein spurgebundenes Fahrzeug sein, wie beispielsweise ein Schienenfahrzeug.
  • Im Folgenden wird die Erfindung mit Bezug auf die beigefügten Zeichnungen erläutert.
  • Es zeigen:
    • 1 eine schematische Darstellung eines erfindungsgemäßen Fahrzeugs mit einer beispielhaften Ausführungsform einer erfindungsgemäßen Einrichtung zur Objekterkennung;
    • 2 eine schematische Darstellung eines Flussdiagramms zu einer beispielhaften Ausführungsform des erfindungsgemäßen Verfahrens zur Objekterkennung;
    • 3 eine schematische Darstellung eines Flussdiagramms einer weiteren beispielhaften Ausführungsform des Verfahrens zur Objekterkennung.
  • Im Folgenden wird die Erfindung zunächst mit Bezug auf die schematische Darstellung in 1 beschrieben.
  • 1 zeigt eine eisenbahntechnische Anlage 1 mit einem Schienenfahrzeug 2, das sich in einer Fahrtrichtung 3 auf einer von Schienen gebildeten Fahrstrecke 4 bewegt. Das Schienenfahrzeug 2 ist beispielsweise eine Lokomotive und für einen automatischen bzw. autonomen Fahrbetrieb ausgebildet.
  • Die eisenbahntechnische Anlage 1 umfasst weiterhin einen entlang der Fahrstrecke verlaufenden Lichtwellenleiter 5, der mit einer Sensoreinheit 6 verbunden ist.
  • Das Schienenfahrzeug 2 umfasst einen Radarsensor 7 und einen Lidarsensor 8, die beide Teil einer ersten Sensoreinrichtung 9 sind. Die erste Sensoreinrichtung 9 ist zur optischen und/oder funkbasierten Überwachung eines in der Fahrtrichtung 3 vor dem Schienenfahrzeug 2 liegenden Erkennungsbereiches 9 ausgebildet.
  • Auf dem Schienenfahrzeug 2 ist weiterhin eine Auswerteeinrichtung 10 angeordnet, die beispielsweise über ein Kabel mit der ersten Sensoreinrichtung 9 verbunden ist.
  • Der streckenseitig angeordnete Lichtwellenleiter 5 und die ebenfalls streckenseitig angeordnete Sensoreinheit 6 sind Teil einer zweiten Sensoreinrichtung 11, die zur Überwachung des Erkennungsbereiches 9 mittels Fibersensing ausgebildet ist.
  • Unter Fibersensing wird hier das Erfassen von Signalen mittels des Lichtwellenleiters 5 verstanden, wie es beispielsweise in der EP 3 275 763 A1 oder WO 2011/027166 A1 beschrieben ist.
  • Die zweite Sensoreinrichtung 11 ist hier mittels drahtloser Datenkommunikation 12 mit der Auswerteeinrichtung 10 verbunden. Die drahtlose Datenkommunikation 12 kann beispielsweise per WLAN, LTE oder GSM-R erfolgen. Die Auswerteeinrichtung 10 ist zur erfindungsgemäßen Auswertung von Signalen der ersten Sensoreinrichtung 13 und von Signalen der zweiten Sensoreinrichtung 11 ausgebildet. Bei der Signalauswertung durch die Auswerteeinrichtung 10 werden die Signale der ersten Sensoreinrichtung 13 und der zweiten Sensoreinrichtung 11 analysiert, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt 14 im Erkennungsbereich 9 hinweist. Das Objekt 14 im Erkennungsbereich 9 wird durch den Lidarsensor 8 optisch detektiert und durch den Radarsensor 7 funkbasiert detektiert. In dem Lichtwellenleiter 5 ruft das Objekt 14 eine Veränderung hervor, die von der Sensoreinheit 6 detektierbar ist. Diese Veränderung wird z. B. durch eine Bewegung des Objektes ausgelöst. Auf diese Weise lässt sich auch im Signal der zweiten Sensoreinrichtung 11 eine Signatur erkennen, die auf das Objekt 14 im Erkennungsbereich 9 hinweist. Durch die Kombination der ersten Sensoreinrichtung 13 und der zweiten Sensoreinrichtung 11 wird erfindungsgemäß eine höhere Sicherheit bei der Objekterkennung im Erkennungsbereich 9 erreicht.
  • Die erste Sensoreinrichtung 13 und die Auswerteeinrichtung 10 sind bei der beispielhaften Ausführungsform in 1 fahrzeugseitig am Schienenfahrzeug 2 und die zweite Sensoreinrichtung 11 streckenseitig neben der Fahrstrecke 4 angeordnet. Alternativ können die erste Sensoreinrichtung 13 und auch die Auswerteeinrichtung 10 ebenfalls streckenseitig angeordnet sein.
  • Unabhängig von der Positionierung wird eine Information über das erkannte Objekt 14 von der Auswerteeinrichtung 10 an eine Fahrzeugsteuerung 15 übermittelt, die diese Information entsprechend weiterverarbeitet und bei der Steuerung des Fahrzeugs 2 berücksichtigt.
  • Im Folgenden wird das erfindungsgemäße Verfahren zur Objekterkennung mit Bezug auf die beispielhafte Ausführungsform in 2 beschrieben.
  • Zunächst liefern die erste Sensoreinrichtung 13 und die zweite Sensoreinrichtung 11 jeweils Signale zur Überwachung des Erkennungsbereichs 9 an die Auswerteinrichtung 10. Anschließend werden die optisch und/oder funkbasiert für den Erkennungsbereich 9 ermittelten Signale der ersten Sensoreinrichtung 13 im Schritt 16 in der Auswerteinrichtung 10 mit Hilfe von künstlicher Intelligenz ausgewertet.
  • Die Auswertung mittels künstlicher Intelligenz basiert hier beispielsweise auf Deep Learning Verfahren, die auf künstlichen neuronalen Netzen basieren. Solche künstlichen neuronalen Netze bestehen z. B. aus miteinander verbundenen künstlichen Neuronen, die innerhalb der Auswerteinrichtung 10 ausgebildet sind. Die Eingänge jedes künstlichen Neurons werden gewichtet und aufsummiert. Abhängig von einer Aktivierungsfunktion werden anschließend die Ausgänge des künstlichen Neurons aktiviert. Derartige neuronale Netze lernen, indem sie trainiert werden. Dabei werden die Gewichte zwischen den künstlichen Neuronen geändert, bis die Ausgabeschicht mit den Ausgängen das gewünschte Ergebnis zeigt.
  • Für das erfindungsgemäße Verfahren zur Objekterkennung bedeutet dies, dass die Einrichtung durch Training der künstlichen Intelligenz zu einer immer zuverlässigeren Objekterkennung führt.
  • Die mittels Fibersensing für den Erkennungsbereich 9 ermittelten Signale der zweiten Sensoreinrichtung 11 werden in 2 separat an die Auswerteeinrichtung 10 an Schritt 17 übermittelt. Im Schritt 17 führt die Auswerteeinrichtung 10 mit diesem Signal eine auf einer Mustererkennung basierenden Objekterkennung durch.
  • Um die Sicherheit bzw. Plausibilität der Objekterkennung zu erhöhen, vergleicht die Auswerteeinrichtung 10 die Ergebnisse der Objekterkennung im Schritt 16 mit den Ergebnissen der Objekterkennung im Schritt 17. Dieser Vergleich der Ergebnisse ist im Schritt 18 in 2 dargestellt. Durch den Vergleich wird eine hohe Sicherheit der Objekterkennung erreicht.
  • Bei dem Verfahren gemäß 2 können beim Vergleich im Schritt 18 sowohl erkannte Objekte miteinander verglichen werden oder aber auch lediglich die Signaturen, die gegebenenfalls auf ein im Erkennungsbereich 9 vorhandenes Objekt hinweisen.
  • In 3 ist eine Alternative Ausführungsform des erfindungsgemäßen Verfahrens zur Objekterkennung dargestellt. Der Einfachheit halber wird lediglich auf die Unterschiede zum Verfahren nach 2 eingegangen.
  • Bei dem in 3 dargestellten Verfahren werden die Signale der ersten Sensoreinrichtung 13 und der zweiten Sensoreinrichtung 11 gemeinsam an die Auswerteeinrichtung 10 übermittelt. In der Auswerteeinrichtung 10 wird in dem dargestellten Schritt 19 sowohl für die auf Fibersensing basierenden Signale als auch die optisch und/oder funkbasiert ermittelten Signale eine Objekterkennung mit Hilfe künstlicher Intelligenz durchgeführt. Dabei werden nun auch die auf Fibersensing beruhenden Signale als weitere Eingangsgröße für die künstliche Intelligenz und damit für das neuronale Netzwerk zusammen mit den Signalen eingespeist, die auf optisch und/oder funkbasierter Überwachung beruhen. Dadurch entsteht innerhalb der Auswerteeinrichtung 10 ein umfangreiches neuronales Netzwerk mit Eingangsgrößen, die sowohl auf Signalen aus optischer und/oder funkbasierter Überwachung als auch auf Signalen aus einer fibersensing-basierten Überwachung beruhen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 3275763 A1 [0024]
    • WO 2011/027166 A1 [0024]

Claims (12)

  1. Verfahren zur Objekterkennung in einem Erkennungsbereich (9), bei dem wenigstens ein optisch und/oder funkbasiert für den Erkennungsbereich (9) ermitteltes Signal und wenigstens ein mittels Fibersensing für den Erkennungsbereich (9) ermitteltes Signal ausgewertet werden, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich (9) hinweist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das optisch und/oder funkbasiert für den Erkennungsbereich (9) ermitteltes Signal und das mittels Fibersensing für den Erkennungsbereich (9) ermitteltes Signal separat ausgewertet werden, um jeweils wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich (9) hinweist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Auswertung des optisch und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierten Signals verglichen wird.
  4. Verfahren nach einem der oben genannten Ansprüche, dadurch gekennzeichnet, dass das wenigstens eine optisch und/oder funkbasiert ermitteltes Signal und/oder das wenigstens eine mittels Fibersensing ermittelte Signal mit Hilfe von künstlicher Intelligenz ausgewertet wird.
  5. Verfahren nach einem der oben genannten Ansprüche, dadurch gekennzeichnet, dass ein durch Auswertung des optischen und/oder funkbasierten Signals ermitteltes Objekt (14) mit einem durch Auswertung des auf Fibersensing basierenden Signals ermittelten Objekt (14) verglichen wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Objekte (14) jeweils aus einer Auswahl von vorbekannten Objekten ausgewählt wurden.
  7. Einrichtung zur Objekterkennung, mit wenigstens einer ersten Sensoreinrichtung (13), die zur optisch und/oder funkbasierten Überwachung eines Erkennungsbereichs (9) ausgebildet ist, mit wenigstens einer zweiten Sensoreinrichtung (11), die zur Überwachung des Erkennungsbereichs (9) mittels Fibersensing ausgebildet ist, und mit wenigstens einer mit der ersten und der zweiten Sensoreinrichtung (13, 11) verbundenen Auswerteeinrichtung (10), die zur Auswertung eines Signals der ersten Sensoreinrichtung (13) und eines Signals der zweiten Sensoreinrichtung (11) ausgebildet ist, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt (14) im Erkennungsbereich (9) hinweist.
  8. Einrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Auswerteeinrichtung (10) zum Vergleichen der Auswertung des optisch und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierten Signals ausgebildet ist.
  9. Einrichtung nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die Auswerteeinrichtung (10) zum Auswerten des wenigstens einen optisch und/oder funkbasiert ermittelten Signals und/oder des wenigstens einen mittels Fibersensing ermittelten Signals mit Hilfe von künstlicher Intelligenz ausgebildet ist.
  10. Einrichtung nach Anspruch 7, 8 oder 9, dadurch gekennzeichnet, dass die erste und/oder die zweite Sensoreinrichtung streckenseitig angeordnet sind.
  11. Autonom fahrendes Fahrzeug, dadurch gekennzeichnet, dass das Fahrzeug eine Einrichtung zur Objekterkennung nach einem der zuvor genannten Ansprüche 7 bis 10 umfasst.
  12. Fahrzeug nach Anspruch 11, dadurch gekennzeichnet, dass das Fahrzeug ein spurgebundenes Fahrzeug ist.
DE102018222723.3A 2018-12-21 2018-12-21 Verfahren und Einrichtung zur Objekterkennung Withdrawn DE102018222723A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018222723.3A DE102018222723A1 (de) 2018-12-21 2018-12-21 Verfahren und Einrichtung zur Objekterkennung
PCT/EP2019/082177 WO2020126304A1 (de) 2018-12-21 2019-11-22 Verfahren und einrichtung zur objekterkennung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018222723.3A DE102018222723A1 (de) 2018-12-21 2018-12-21 Verfahren und Einrichtung zur Objekterkennung

Publications (1)

Publication Number Publication Date
DE102018222723A1 true DE102018222723A1 (de) 2020-06-25

Family

ID=68887372

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018222723.3A Withdrawn DE102018222723A1 (de) 2018-12-21 2018-12-21 Verfahren und Einrichtung zur Objekterkennung

Country Status (2)

Country Link
DE (1) DE102018222723A1 (de)
WO (1) WO2020126304A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011027166A1 (en) 2009-09-03 2011-03-10 Westinghouse Brake And Signal Holdings Limited Railway systems using acoustic monitoring
US20120075121A1 (en) * 2010-09-24 2012-03-29 O'hara Michael J Airport incursion notification system
DE102015212019A1 (de) * 2015-06-29 2016-07-14 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen von Hindernissen vor einem Schienenfahrzeug
DE102016205339A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug
DE102016205330A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug
EP3275763A1 (de) 2016-07-27 2018-01-31 Frauscher sensortechnik GmbH Auswertungseinheit für eine sensoranordnung zur eisenbahnüberwachung, sensoranordnung und zugehöriges verfahren

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012218362A1 (de) * 2012-10-09 2014-04-24 Bayerische Motoren Werke Aktiengesellschaft Schätzung des Straßentyps mithilfe von sensorbasierten Umfelddaten
CN108099957B (zh) * 2017-12-14 2020-07-10 西北铁道电子股份有限公司 一种基于障碍物检测与识别的机车作业方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011027166A1 (en) 2009-09-03 2011-03-10 Westinghouse Brake And Signal Holdings Limited Railway systems using acoustic monitoring
US20120075121A1 (en) * 2010-09-24 2012-03-29 O'hara Michael J Airport incursion notification system
DE102015212019A1 (de) * 2015-06-29 2016-07-14 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen von Hindernissen vor einem Schienenfahrzeug
DE102016205339A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug
DE102016205330A1 (de) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Verfahren und System zum Erkennen von Hindernissen in einem Gefahrraum vor einem Schienenfahrzeug
EP3275763A1 (de) 2016-07-27 2018-01-31 Frauscher sensortechnik GmbH Auswertungseinheit für eine sensoranordnung zur eisenbahnüberwachung, sensoranordnung und zugehöriges verfahren

Also Published As

Publication number Publication date
WO2020126304A1 (de) 2020-06-25

Similar Documents

Publication Publication Date Title
EP3445635B1 (de) Verfahren zum betreiben einer ortungseinrichtung sowie ortungseinrichtung
EP2882629B1 (de) Verfahren zum betreiben eines mobilen gerätes in einem eisenbahnsystem, eisenbahnsystem und mobiles gerät
DE102017214611A1 (de) Verfahren zum Überprüfen eines Reaktionssignals einer Fahrzeugkomponente sowie Überprüfungsvorrichtung und Kraftfahrzeug
WO2014048718A2 (de) Verfahren zum betreiben eines schienenfahrzeugs in einem eisenbahnsystem und eisenbahnsystem
DE102018210779A1 (de) Verfahren und System zur Rettungsgassenbildung durch ein Fahrzeug
EP3073287B1 (de) Verfahren und vorrichtung zum bestimmen einer blindheit eines jeden sensors einer sensorgruppe
DE102018217118B4 (de) Verfahren zum Erstellen einer Fehlerdiagnose eines Antriebsstrangs eines elektrisch betriebenen Kraftfahrzeugs und Kraftfahrzeug
DE102007062566A1 (de) Kraftfahrzeug
DE102018222723A1 (de) Verfahren und Einrichtung zur Objekterkennung
DE102016206077A1 (de) Verfahren und Vorrichtung zum Bestimmen einer sicherheitskritischen Gierbewegung eines Fahrzeugs
DE102021203484B3 (de) Verfahren zum Erstellen einer Führungstrajektorie für ein erstes Kraftfahrzeug, Verfahren zum Steuern eines Kraftfahrzeugs sowie Verfahren zum Betreiben eines Kraftfahrzeugs
DE102019007642A1 (de) Verfahren zur Prädiktion von Seitenwind
DE102018004429A1 (de) Verfahren zum Testen eines Bremsassistenzsystems für ein Fahrzeug
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
DE102010021942A1 (de) Vorrichtung zur automatischen Regelung der Geschwindigkeit und der Lenkung eines einem Führungsfahrzeug eines Konvois folgenden Folgefahrzeuges
EP4186775A1 (de) Verfahren und vorrichtung zum erkennen von eigenschaften eines fahrzeugs
EP1240479B1 (de) Verfahren zur signalauswertung einer optoelektronischen weg- oder winkelmesseinrichtung sowie verwendung eines solchen verfahrens
EP3772017A1 (de) Bahnsignalerkennung für autonome schienenfahrzeuge
DE19522257A1 (de) Verfahren zur Erkennung von Manipulationen an einer mit einem Impulsgeber durchgeführten Messung einer von einem Fahrzeug zurückgelegten Wegstrecke
DE102016001231A1 (de) Verfahren zur Bestimmung einer Fahrtroute
DE102009057877B4 (de) Verfahren und Vorrichtung zur bildgebenden, optischen Messung von Kräften, Auslenkungen, Rotationen und Verwindungen in Fahrleitungen elektrisch betriebenen Verkehrs
DE102017009874A1 (de) Verfahren zum Lokalisieren eines Fremdfahrzeugs
DE102012219901A1 (de) Verfahren und Vorrichtung zur Erhöhung der Haltegenauigkeit eines bewegten Objektes
EP3796172B1 (de) Verfahren zur überwachung von ausgangssignalen
DE102021131606A1 (de) Verfahren zum Trainieren eines KI-Systems zur Vorhersage einer Fahrzeugperformance und/oder eines Fahrbahnzustandes; System; Fahrzeug; KI-System; Verwendung eines trainierten KI-Systems

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B61L0023000000

Ipc: B61L0023040000

R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee