WO2020126304A1 - Method and device for object detection - Google Patents

Method and device for object detection Download PDF

Info

Publication number
WO2020126304A1
WO2020126304A1 PCT/EP2019/082177 EP2019082177W WO2020126304A1 WO 2020126304 A1 WO2020126304 A1 WO 2020126304A1 EP 2019082177 W EP2019082177 W EP 2019082177W WO 2020126304 A1 WO2020126304 A1 WO 2020126304A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
detection area
radio
fiber sensing
evaluation
Prior art date
Application number
PCT/EP2019/082177
Other languages
German (de)
French (fr)
Inventor
Bernhard Evers
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Publication of WO2020126304A1 publication Critical patent/WO2020126304A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • Methods and devices for object detection are an important technology that is used, for example, for obstacle detection in autonomously driving vehicles.
  • a high level of reliability in object detection of objects in a detection area is important. It is important to achieve the highest possible level of object detection security.
  • the object is achieved according to the invention by a method for object detection in a detection area, in which at least one signal determined optically and / or radio-based for the detection area and at least one signal determined by means of fiber sensing for the detection area are evaluated, by at least one signature to recognize that indicates at least one object in the detection area.
  • the object is further achieved by a device for object detection, with at least one first sensor device, which is designed for optical and / or radio-based monitoring of a detection area, with at least one second sensor device, which is designed for monitoring the detection area by means of fiber sensing, and with at least one evaluation device connected to the first and the second sensor device, which is designed to evaluate a signal from the first sensor device and a signal from the second sensor device in order to recognize at least one signature which indicates at least one object in the detection area.
  • the solution according to the invention has the advantage that the reliability, plausibility and security of the object detection is increased because both optically and / or radio-based signals as well as signals determined by means of fiber sensing are evaluated. These signals and sensor devices, which are determined independently of one another, are evaluated separately from one another or else in combination in order to reliably detect an object in the detection area.
  • the optically and / or radio-based signals are determined, for example, by radar or lidar.
  • Fiber sensing is generally understood to mean a fiber optic sensor, i.e. a special measuring sensor for optical measuring methods based on optical fibers.
  • the measured variable is not represented or transmitted by an electrical variable, but by an optical variable.
  • the at least one optically and / or radio-based signal and / or the at least one signal determined by means of fiber sensing are evaluated with the aid of artificial intelligence - Kl.
  • Objects in the detection area can be identified with the help of artificial intelligence.
  • deep learning processes based on artificial neural networks can be used.
  • Artificial neural networks consist of interconnected artificial neurons. The inputs of an artificial neuron are weighted and summed up. Depending on the activation function, which is related to object detection, the outputs of the artificial neuron are then activated. Learn artificial neural networks by training them. The weights between the artificial neurons are changed until the output Layer with the outputs shows the desired result.
  • the probability of object detection can be significantly increased by using artificial intelligence. Adequate training should be completed for this.
  • Artificial intelligence can be used both for the evaluation of the optically and / or radio-based signal or alternatively or additionally for the evaluation of the signal determined by means of fiber sensing.
  • the optically and / or radio-based signals can also be combined with the signal determined by means of fiber sensing and evaluated together using artificial intelligence.
  • the signal determined optically and / or radio-based for the detection area and the signal determined by means of fiber sensing for the detection area can be evaluated separately in order to recognize at least one signature each, which indicates at least one object in the detection area.
  • This separate evaluation has the advantage that the different signals can be evaluated separately from one another in an optimal way for them.
  • the results of the evaluations can also be evaluated separately.
  • the evaluation of the optical and / or radio-based signal can be compared with the evaluation of the signal based on fiber sensing. For example, you can see whether the evaluations go in the same direction or come to the same result and the probability of object detection is very high. If the evaluations come to different results, however, there are doubts and more investigations are necessary.
  • an object determined by evaluating the optical and / or radio-based signal can be determined by evaluating the signal based on fiber sensing Object to be compared. This has the advantage that the evaluations initially run completely separately and recognize an object with certain criteria independently of each other. Only if these criteria of the object of the two evaluations are the same can one assume a high probability of object recognition.
  • the objects can in particular be selected from a selection of previously known objects.
  • the evaluation device can be designed to compare the evaluation of the optical and / or radio-based signal with the evaluation of the signal based on fiber sensing. This has the advantage that the comparison can increase the plausibility and thus the security of the object recognition.
  • the evaluation device can be designed to evaluate the at least one optically and / or radio-based signal and / or the at least one signal determined by means of fiber sensing with the aid of artificial intelligence. This has the advantage already described above that the security of object detection can be increased by means of artificial intelligence.
  • the first and / or the second sensor device can be arranged on the track side.
  • the result of the object detection is transmitted to the vehicle and used there, for example, to control the vehicle.
  • the first sensor device can be arranged on the vehicle side and the second sensor device on the track side.
  • the transmission of the signals to the evaluation device can be wired, but also wireless, such as. B. radio-based.
  • the invention further relates to an autonomously driving vehicle, which has a device for object detection according to one of the includes the aforementioned embodiments.
  • the vehicle can in particular be a track-bound vehicle, such as a rail vehicle.
  • Fig. 1 is a schematic representation of a vehicle according to the invention with an exemplary embodiment of a device according to the invention for object detection;
  • Fig. 2 is a schematic representation of a flow diagram for an exemplary embodiment of the method according to the invention for object detection
  • Fig. 3 is a schematic representation of a flow diagram of another exemplary embodiment of the method for object detection.
  • Fig. 1 shows a railway system 1 with a rail vehicle 2, which moves in a direction 3 on egg ner route 4 formed by rails.
  • the rail vehicle 2 is, for example, a locomotive and is designed for an automatic or autonomous ferry operation.
  • the railway system 1 further comprises an optical fiber 5 extending along the route, which is connected to a sensor unit 6.
  • the rail vehicle 2 comprises a radar sensor 7 and a lidar sensor 8, both of which are part of a first sensor device 9.
  • the first sensor device 9 is designed for optical and / or radio-based monitoring of a detection area 9 lying in the direction of travel 3 in front of the rail vehicle 2.
  • An evaluation device 10 is further arranged on the rail vehicle 2 and is connected to the first sensor device 9, for example via a cable.
  • the optical waveguide 5 arranged on the track side and the sensor unit 6 likewise arranged on the track side are part of a second sensor device 11 which is designed to monitor the detection area 9 by means of fiber sensing.
  • Fiber sensing is understood here to mean the detection of signals by means of the optical waveguide 5, as is described, for example, in EP 3 275 763 A1 or WO 2011/027166 A1.
  • the second sensor device 11 is connected here by means of wireless data communication 12 to the evaluation device 10.
  • Wireless data communication 12 can take place, for example, via WLAN, LTE or GSM-R.
  • the evaluation device 10 is designed for the evaluation according to the invention of signals from the first sensor device 13 and from signals of the second sensor device 11.
  • the signals of the first sensor device 13 and the second sensor device 11 are analyzed in order to recognize at least one signature which indicates at least one object 14 in the detection area 9.
  • the object 14 in the detection area 9 is optically detected by the lidar sensor 8 and detected by radio by the radar sensor 7.
  • the object 14 causes a change that can be detected by the sensor unit 6. This change is e.g. B. by a movement of the Object triggered.
  • a signature can also be recognized in the signal from the second sensor device 11, which indicates the object 14 in the detection area 9.
  • the combination of the first sensor device 13 and the second sensor device 11 achieves a higher level of security in object detection in the detection area 9.
  • the first sensor device 13 and the evaluation device 10 are arranged on the vehicle side on the rail vehicle 2 and the second sensor device 11 on the track side next to the route 4.
  • the first sensor device 13 and also the evaluation device 10 can also be arranged on the track side.
  • information about the detected object 14 is transmitted from the evaluation device 10 to a vehicle controller 15, which processes this information accordingly and takes it into account when controlling the vehicle 2.
  • the first sensor device 13 and the second sensor device 11 each deliver signals for monitoring the detection area 9 to the evaluation device 10. Then, the signals of the first sensor device 13 determined optically and / or radio-based for the detection area 9 in step 16 in FIG Evaluation device 10 evaluated with the help of artificial intelligence.
  • the evaluation using artificial intelligence is based here, for example, on deep learning methods that are based on artificial neural networks.
  • artificial neuronal networks exist z. B. from interconnected artificial neurons that are evaluated within the evaluation device 10 forms are. The inputs of each artificial neuron are weighted and summed up. Depending on an activation function, the outputs of the artificial neuron are then activated.
  • Such neural networks learn by being trained. The weights between the artificial neurons are changed until the output layer with the outputs shows the desired result.
  • the signals of the second sensor device 11 determined by means of fiber sensing for the detection area 9 are transmitted separately in FIG. 2 to the evaluation device 10 at step 17.
  • the evaluation device 10 uses this signal to carry out an object recognition based on a pattern recognition.
  • the evaluation device 10 compares the results of the object detection in step 16 with the results of the object detection in step 17. This comparison of the results is shown in step 18 in FIG. 2. The comparison achieves a high level of security for object detection.
  • Step 18 both recognized objects are compared with one another or else only the signatures, which possibly indicate an object present in the recognition area 9.
  • FIG. 3 shows an alternative embodiment of the method for object recognition according to the invention.
  • the signals from the first sensor device 13 and the second sensor device 11 are transmitted together to the evaluation device 10.
  • object recognition is carried out with the aid of artificial intelligence both for the signals based on fiber sensing and for the optically and / or radio-based signals.
  • the signals based on fiber sensing are now fed in as a further input variable for artificial intelligence and thus for the neural network together with the signals based on optical and / or radio-based monitoring.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

The invention relates to a method for object detection in a detection region (9), in which at least one signal, which has been determined optically and/or in a radio-based manner for the detection region (9), and at least one signal, which has been determined by means of fiber sensing for the detection region, are evaluated in order to identify at least one signature which is indicative of at least one object (14) in the detection region (9). The invention also relates to a device for object detection.

Description

Beschreibung description
Verfahren und Einrichtung zur Objekterkennung Method and device for object detection
Verfahren und Einrichtungen zur Objekterkennung sind eine wichtige Technologie, die beispielsweise zur Hinderniserken nung bei autonom fahrenden Fahrzeugen Verwendung findet. Da bei ist eine hohe Zuverlässigkeit bei der Objekterkennung von Objekten in einem Erkennungsbereich wichtig. Hierbei gilt es, eine möglichst hohe Sicherheit der Objekterkennung zu errei chen . Methods and devices for object detection are an important technology that is used, for example, for obstacle detection in autonomously driving vehicles. A high level of reliability in object detection of objects in a detection area is important. It is important to achieve the highest possible level of object detection security.
Es ist daher die Aufgabe der vorliegenden Erfindung, ein Ver fahren und eine Einrichtung zur Objekterkennung bereitzustel len, die eine gegenüber bekannten Verfahren und Einrichtungen erhöhte Sicherheit bei der Objekterkennung bietet. It is therefore the object of the present invention to provide a method and a device for object detection which offers increased security in object detection compared to known methods and devices.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Objekterkennung in einem Erkennungsbereich, bei dem we nigstens ein optisch und/oder funkbasiert für den Erkennungs bereich ermitteltes Signal und wenigstens ein mittels Fiber- sensing für den Erkennungsbereich ermitteltes Signal ausge wertet werden, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich hinweist. The object is achieved according to the invention by a method for object detection in a detection area, in which at least one signal determined optically and / or radio-based for the detection area and at least one signal determined by means of fiber sensing for the detection area are evaluated, by at least one signature to recognize that indicates at least one object in the detection area.
Die Aufgabe wird ferner gelöst durch eine Einrichtung zur Ob jekterkennung, mit wenigstens einer ersten Sensoreinrichtung, die zur optisch und/oder funkbasierten Überwachung eines Er kennungsbereichs ausgebildet ist, mit wenigstens einer zwei ten Sensoreinrichtung, die zur Überwachung des Erkennungsbe reichs mittels Fibersensing ausgebildet ist, und mit wenigs tens einer mit der ersten und der zweiten Sensoreinrichtung verbundenen Auswerteeinrichtung, die zur Auswertung eines Signals der ersten Sensoreinrichtung und eines Signals der zweiten Sensoreinrichtung ausgebildet ist, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erken nungsbereich hinweist. Die erfindungsgemäße Lösung hat den Vorteil, dass die Ver lässlichkeit, Plausibilität und Sicherheit der Objekterken nung erhöht wird, weil sowohl optisch und/oder funkbasiert ermittelte Signale als auch mittels Fibersensing ermittelte Signale ausgewertet werden. Diese unabhängig voneinander er mittelten Signale und Sensoreinrichtungen werden getrennt voneinander oder auch kombiniert ausgewertet, um ein Objekt im Erkennungsbereich zuverlässiger zu erkennen. The object is further achieved by a device for object detection, with at least one first sensor device, which is designed for optical and / or radio-based monitoring of a detection area, with at least one second sensor device, which is designed for monitoring the detection area by means of fiber sensing, and with at least one evaluation device connected to the first and the second sensor device, which is designed to evaluate a signal from the first sensor device and a signal from the second sensor device in order to recognize at least one signature which indicates at least one object in the detection area. The solution according to the invention has the advantage that the reliability, plausibility and security of the object detection is increased because both optically and / or radio-based signals as well as signals determined by means of fiber sensing are evaluated. These signals and sensor devices, which are determined independently of one another, are evaluated separately from one another or else in combination in order to reliably detect an object in the detection area.
Die optisch und/oder funkbasiert ermittelten Signale werden beispielsweise durch Radar oder Lidar ermittelt. The optically and / or radio-based signals are determined, for example, by radar or lidar.
Die durch Fibersensing ermittelten Signale werden in an sich bekannter Weise mit Hilfe einer Analyse von Licht, das durch ein Lichtwellenleiter geleitet wurde, ermittelt. Unter Fiber sensing wird im Allgemeinen ein faseroptischer Sensor ver standen, also ein spezieller Messaufnehmer für optische Mess verfahren auf Grundlage von Lichtwellenleitern. Bei solchen faseroptischen Sensoren wird die Messgröße nicht durch eine elektrische Größe repräsentiert bzw. übertragen, sondern durch eine optische Größe. The signals determined by fiber sensing are determined in a manner known per se with the aid of an analysis of light which has been passed through an optical waveguide. Fiber sensing is generally understood to mean a fiber optic sensor, i.e. a special measuring sensor for optical measuring methods based on optical fibers. In such fiber-optic sensors, the measured variable is not represented or transmitted by an electrical variable, but by an optical variable.
Um die Zuverlässigkeit der Objekterkennung zu erhöhen, werden das wenigstens eine optisch und/oder funkbasiert ermittelte Signal und/oder das wenigstens eine mittels Fibersensing er mittelte Signal mit Hilfe von künstlicher Intelligenz - Kl ausgewertet. Objekte im Erkennungsbereich können so mit Hilfe künstlicher Intelligenz identifiziert werden. Dabei kann es sich beispielsweise um die Anwendung von Deep Learning Ver fahren handeln, die auf künstlichen neuronalen Netzen basie ren. Künstliche neuronale Netze bestehen aus miteinander ver bundenen künstlichen Neuronen. Die Eingänge eines künstlichen Neurons werden gewichtet und aufsummiert. Abhängig von der Aktivierungsfunktion, die hier im Zusammenhang mit der Ob jekterkennung steht, werden die Ausgänge des künstlichen Neu rons anschließend aktiviert. Künstliche neuronale Netze ler nen, indem sie trainiert werden. Dabei werden die Gewichte zwischen den künstlichen Neuronen geändert, bis die Ausgabe- Schicht mit den Ausgängen das gewünschte Ergebnis zeigt. Bei dem erfindungsgemäßen Verfahren zur Objekterkennung kann durch die Anwendung von künstlicher Intelligenz die Wahr scheinlichkeit der Objekterkennung erheblich gesteigert wer den. Hierfür sollte ein ausreichendes Training absolviert werden. Dabei kann künstliche Intelligenz sowohl für die Aus wertung des optisch und/oder funkbasiert ermittelten Signals oder alternativ bzw. zusätzlich für die Auswertung des mit tels Fibersensing ermittelten Signals verwendet werden. Auch können die optisch und/oder funkbasiert ermittelten Signale mit dem mittels Fibersensing ermittelten Signal zusammenge führt und gemeinsam mittels künstlicher Intelligenz ausgewer tet werden. In order to increase the reliability of the object detection, the at least one optically and / or radio-based signal and / or the at least one signal determined by means of fiber sensing are evaluated with the aid of artificial intelligence - Kl. Objects in the detection area can be identified with the help of artificial intelligence. For example, deep learning processes based on artificial neural networks can be used. Artificial neural networks consist of interconnected artificial neurons. The inputs of an artificial neuron are weighted and summed up. Depending on the activation function, which is related to object detection, the outputs of the artificial neuron are then activated. Learn artificial neural networks by training them. The weights between the artificial neurons are changed until the output Layer with the outputs shows the desired result. In the method for object detection according to the invention, the probability of object detection can be significantly increased by using artificial intelligence. Adequate training should be completed for this. Artificial intelligence can be used both for the evaluation of the optically and / or radio-based signal or alternatively or additionally for the evaluation of the signal determined by means of fiber sensing. The optically and / or radio-based signals can also be combined with the signal determined by means of fiber sensing and evaluated together using artificial intelligence.
Die Erfindung kann durch vorteilhafte Ausgestaltungen weiter entwickelt werden, die im Folgenden beschrieben sind. The invention can be further developed by advantageous configurations which are described below.
So können das optisch und/oder funkbasiert für den Erken nungsbereich ermittelte Signal und das mittels Fibersensing für den Erkennungsbereich ermittelte Signal separat ausgewer tet werden, um jeweils wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich hinweist. Diese separate Auswertung hat den Vorteil, dass die unter schiedlichen Signale separat voneinander auf für sie optimale Weise ausgewertet werden können. Auch die Ergebnisse der Aus wertungen lassen sich separat auswerten. Insbesondere kann die Auswertung des optisch und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierenden Signals ver glichen werden. So kann beispielsweise geschaut werden, ob die Auswertungen in die gleiche Richtung gehen bzw. zum glei chen Ergebnis kommen und damit die Wahrscheinlichkeit der Ob jekterkennung sehr hoch ist. Falls die Auswertungen zu unter schiedlichen Ergebnissen kommen, bestehen dagegen Zweifel und es sind eher weitere Untersuchungen nötig. For example, the signal determined optically and / or radio-based for the detection area and the signal determined by means of fiber sensing for the detection area can be evaluated separately in order to recognize at least one signature each, which indicates at least one object in the detection area. This separate evaluation has the advantage that the different signals can be evaluated separately from one another in an optimal way for them. The results of the evaluations can also be evaluated separately. In particular, the evaluation of the optical and / or radio-based signal can be compared with the evaluation of the signal based on fiber sensing. For example, you can see whether the evaluations go in the same direction or come to the same result and the probability of object detection is very high. If the evaluations come to different results, however, there are doubts and more investigations are necessary.
Ferner können ein durch Auswertung des optischen und/oder funkbasierten Signals ermitteltes Objekt mit einem durch Aus wertung des auf Fibersensing basierenden Signals ermittelten Objekt verglichen werden. Dies hat den Vorteil, dass die bei den Auswertungen zunächst völlig separat ablaufen und unab hängig voneinander ein Objekt mit bestimmten Kriterien erken nen. Nur wenn diese Kriterien des Objekts der beiden Auswer tungen gleich sind, kann von einer hohen Wahrscheinlichkeit bei der Objekterkennung ausgegangen werden. Die Objekte kön nen dabei insbesondere aus einer Auswahl von vorbekannten Ob jekten ausgewählt werden. Furthermore, an object determined by evaluating the optical and / or radio-based signal can be determined by evaluating the signal based on fiber sensing Object to be compared. This has the advantage that the evaluations initially run completely separately and recognize an object with certain criteria independently of each other. Only if these criteria of the object of the two evaluations are the same can one assume a high probability of object recognition. The objects can in particular be selected from a selection of previously known objects.
In einer vorteilhaften Ausgestaltung der Einrichtung zur Ob jekterkennung kann die Auswerteeinrichtung zum Vergleichen der Auswertung des optischen und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierten Signals ausgebildet sein. Dies hat den Vorteil, dass durch den Ver gleich die Plausibilität und damit die Sicherheit der Ob jekterkennung erhöht werden kann. In an advantageous embodiment of the device for object detection, the evaluation device can be designed to compare the evaluation of the optical and / or radio-based signal with the evaluation of the signal based on fiber sensing. This has the advantage that the comparison can increase the plausibility and thus the security of the object recognition.
Ferner kann die Auswerteeinrichtung zum Auswerten des wenigs tens einen optisch und/oder funkbasiert ermittelten Signals und/oder des wenigstens einen mittels Fibersensing ermittel ten Signals mit Hilfe von künstlicher Intelligenz ausgebildet sein. Dies hat den bereits oben beschriebenen Vorteil, dass die Sicherheit der Objekterkennung mittels künstlicher Intel ligenz erhöht werden kann. Furthermore, the evaluation device can be designed to evaluate the at least one optically and / or radio-based signal and / or the at least one signal determined by means of fiber sensing with the aid of artificial intelligence. This has the advantage already described above that the security of object detection can be increased by means of artificial intelligence.
Um eine vom Fahrzeug unabhängige Einrichtung zu erhalten, können die erste und/oder die zweite Sensoreinrichtung stre ckenseitig angeordnet sein. Bei der streckenseitigen Anord nung wird das Ergebnis der Objekterkennung an das Fahrzeug übertragen und dort beispielsweise zur Steuerung des Fahr zeugs verwendet. Ansonsten kann die erste Sensoreinrichtung fahrzeugseitig und die zweite Sensoreinrichtung streckensei tig angeordnet sein. Die Übermittlung der Signale zu der Aus werteeinrichtung kann kabelgebunden, aber auch kabellos, wie z. B. funkbasiert, erfolgen. In order to obtain a device independent of the vehicle, the first and / or the second sensor device can be arranged on the track side. In the trackside arrangement, the result of the object detection is transmitted to the vehicle and used there, for example, to control the vehicle. Otherwise, the first sensor device can be arranged on the vehicle side and the second sensor device on the track side. The transmission of the signals to the evaluation device can be wired, but also wireless, such as. B. radio-based.
Die Erfindung betrifft weiterhin ein autonom fahrendes Fahr zeug, das eine Einrichtung zur Objekterkennung nach einer der zuvor genannten Ausführungsformen umfasst. In einer vorteil haften Ausgestaltung kann das Fahrzeug insbesondere ein spur gebundenes Fahrzeug sein, wie beispielsweise ein Schienen fahrzeug . The invention further relates to an autonomously driving vehicle, which has a device for object detection according to one of the includes the aforementioned embodiments. In an advantageous embodiment, the vehicle can in particular be a track-bound vehicle, such as a rail vehicle.
Im Folgenden wird die Erfindung mit Bezug auf die beigefügten Zeichnungen erläutert. The invention is explained below with reference to the accompanying drawings.
Es zeigen: Show it:
Fig. 1 eine schematische Darstellung eines erfindungs gemäßen Fahrzeugs mit einer beispielhaften Aus führungsform einer erfindungsgemäßen Einrich tung zur Objekterkennung; Fig. 1 is a schematic representation of a vehicle according to the invention with an exemplary embodiment of a device according to the invention for object detection;
Fig. 2 eine schematische Darstellung eines Flussdia gramms zu einer beispielhaften Ausführungsform des erfindungsgemäßen Verfahrens zur Objekter kennung; Fig. 2 is a schematic representation of a flow diagram for an exemplary embodiment of the method according to the invention for object detection;
Fig. 3 eine schematische Darstellung eines Flussdia gramms einer weiteren beispielhaften Ausfüh rungsform des Verfahrens zur Objekterkennung. Fig. 3 is a schematic representation of a flow diagram of another exemplary embodiment of the method for object detection.
Im Folgenden wird die Erfindung zunächst mit Bezug auf die schematische Darstellung in Fig. 1 beschrieben. The invention is first described below with reference to the schematic illustration in FIG. 1.
Fig. 1 zeigt eine eisenbahntechnische Anlage 1 mit einem Schienenfahrzeug 2, das sich in einer Fahrtrichtung 3 auf ei ner von Schienen gebildeten Fahrstrecke 4 bewegt. Das Schie nenfahrzeug 2 ist beispielsweise eine Lokomotive und für ei nen automatischen bzw. autonomen Fährbetrieb ausgebildet. Fig. 1 shows a railway system 1 with a rail vehicle 2, which moves in a direction 3 on egg ner route 4 formed by rails. The rail vehicle 2 is, for example, a locomotive and is designed for an automatic or autonomous ferry operation.
Die eisenbahntechnische Anlage 1 umfasst weiterhin einen ent lang der Fahrstrecke verlaufenden Lichtwellenleiter 5, der mit einer Sensoreinheit 6 verbunden ist. Das Schienenfahrzeug 2 umfasst einen Radarsensor 7 und einen Lidarsensor 8, die beide Teil einer ersten Sensoreinrichtung 9 sind. Die erste Sensoreinrichtung 9 ist zur optischen und/oder funkbasierten Überwachung eines in der Fahrtrichtung 3 vor dem Schienenfahrzeug 2 liegenden Erkennungsbereiches 9 ausgebildet . The railway system 1 further comprises an optical fiber 5 extending along the route, which is connected to a sensor unit 6. The rail vehicle 2 comprises a radar sensor 7 and a lidar sensor 8, both of which are part of a first sensor device 9. The first sensor device 9 is designed for optical and / or radio-based monitoring of a detection area 9 lying in the direction of travel 3 in front of the rail vehicle 2.
Auf dem Schienenfahrzeug 2 ist weiterhin eine Auswerteein richtung 10 angeordnet, die beispielsweise über ein Kabel mit der ersten Sensoreinrichtung 9 verbunden ist. An evaluation device 10 is further arranged on the rail vehicle 2 and is connected to the first sensor device 9, for example via a cable.
Der streckenseitig angeordnete Lichtwellenleiter 5 und die ebenfalls streckenseitig angeordnete Sensoreinheit 6 sind Teil einer zweiten Sensoreinrichtung 11, die zur Überwachung des Erkennungsbereiches 9 mittels Fibersensing ausgebildet ist . The optical waveguide 5 arranged on the track side and the sensor unit 6 likewise arranged on the track side are part of a second sensor device 11 which is designed to monitor the detection area 9 by means of fiber sensing.
Unter Fibersensing wird hier das Erfassen von Signalen mit tels des Lichtwellenleiters 5 verstanden, wie es beispiels weise in der EP 3 275 763 Al oder WO 2011/027166 Al beschrie ben ist. Fiber sensing is understood here to mean the detection of signals by means of the optical waveguide 5, as is described, for example, in EP 3 275 763 A1 or WO 2011/027166 A1.
Die zweite Sensoreinrichtung 11 ist hier mittels drahtloser Datenkommunikation 12 mit der Auswerteeinrichtung 10 verbun den. Die drahtlose Datenkommunikation 12 kann beispielsweise per WLAN, LTE oder GSM-R erfolgen. Die Auswerteeinrichtung 10 ist zur erfindungsgemäßen Auswertung von Signalen der ersten Sensoreinrichtung 13 und von Signalen der zweiten Sensorein richtung 11 ausgebildet. Bei der Signalauswertung durch die Auswerteeinrichtung 10 werden die Signale der ersten Sen soreinrichtung 13 und der zweiten Sensoreinrichtung 11 analy siert, um wenigstens eine Signatur zu erkennen, die auf we nigstens ein Objekt 14 im Erkennungsbereich 9 hinweist. Das Objekt 14 im Erkennungsbereich 9 wird durch den Lidarsensor 8 optisch detektiert und durch den Radarsensor 7 funkbasiert detektiert. In dem Lichtwellenleiter 5 ruft das Objekt 14 ei ne Veränderung hervor, die von der Sensoreinheit 6 detektier- bar ist. Diese Veränderung wird z. B. durch eine Bewegung des Objektes ausgelöst. Auf diese Weise lässt sich auch im Signal der zweiten Sensoreinrichtung 11 eine Signatur erkennen, die auf das Objekt 14 im Erkennungsbereich 9 hinweist. Durch die Kombination der ersten Sensoreinrichtung 13 und der zweiten Sensoreinrichtung 11 wird erfindungsgemäß eine höhere Sicher heit bei der Objekterkennung im Erkennungsbereich 9 erreicht. The second sensor device 11 is connected here by means of wireless data communication 12 to the evaluation device 10. Wireless data communication 12 can take place, for example, via WLAN, LTE or GSM-R. The evaluation device 10 is designed for the evaluation according to the invention of signals from the first sensor device 13 and from signals of the second sensor device 11. When the signal is evaluated by the evaluation device 10, the signals of the first sensor device 13 and the second sensor device 11 are analyzed in order to recognize at least one signature which indicates at least one object 14 in the detection area 9. The object 14 in the detection area 9 is optically detected by the lidar sensor 8 and detected by radio by the radar sensor 7. In the optical waveguide 5, the object 14 causes a change that can be detected by the sensor unit 6. This change is e.g. B. by a movement of the Object triggered. In this way, a signature can also be recognized in the signal from the second sensor device 11, which indicates the object 14 in the detection area 9. The combination of the first sensor device 13 and the second sensor device 11 achieves a higher level of security in object detection in the detection area 9.
Die erste Sensoreinrichtung 13 und die Auswerteeinrichtung 10 sind bei der beispielhaften Ausführungsform in Figur 1 fahr zeugseitig am Schienenfahrzeug 2 und die zweite Sensorein richtung 11 streckenseitig neben der Fahrstrecke 4 angeord net. Alternativ können die erste Sensoreinrichtung 13 und auch die Auswerteeinrichtung 10 ebenfalls streckenseitig an geordnet sein. In the exemplary embodiment in FIG. 1, the first sensor device 13 and the evaluation device 10 are arranged on the vehicle side on the rail vehicle 2 and the second sensor device 11 on the track side next to the route 4. Alternatively, the first sensor device 13 and also the evaluation device 10 can also be arranged on the track side.
Unabhängig von der Positionierung wird eine Information über das erkannte Objekt 14 von der Auswerteeinrichtung 10 an eine Fahrzeugsteuerung 15 übermittelt, die diese Information ent sprechend weiterverarbeitet und bei der Steuerung des Fahr zeugs 2 berücksichtigt. Regardless of the positioning, information about the detected object 14 is transmitted from the evaluation device 10 to a vehicle controller 15, which processes this information accordingly and takes it into account when controlling the vehicle 2.
Im Folgenden wird das erfindungsgemäße Verfahren zur Ob jekterkennung mit Bezug auf die beispielhafte Ausführungsform in Figur 2 beschrieben. The method according to the invention for object recognition is described below with reference to the exemplary embodiment in FIG. 2.
Zunächst liefern die erste Sensoreinrichtung 13 und die zwei te Sensoreinrichtung 11 jeweils Signale zur Überwachung des Erkennungsbereichs 9 an die Auswerteinrichtung 10. Anschlie ßend werden die optisch und/oder funkbasiert für den Erken nungsbereich 9 ermittelten Signale der ersten Sensoreinrich tung 13 im Schritt 16 in der Auswerteinrichtung 10 mit Hilfe von künstlicher Intelligenz ausgewertet. First, the first sensor device 13 and the second sensor device 11 each deliver signals for monitoring the detection area 9 to the evaluation device 10. Then, the signals of the first sensor device 13 determined optically and / or radio-based for the detection area 9 in step 16 in FIG Evaluation device 10 evaluated with the help of artificial intelligence.
Die Auswertung mittels künstlicher Intelligenz basiert hier beispielsweise auf Deep Learning Verfahren, die auf künstli chen neuronalen Netzen basieren. Solche künstlichen neurona len Netze bestehen z. B. aus miteinander verbundenen künstli chen Neuronen, die innerhalb der Auswerteinrichtung 10 ausge- bildet sind. Die Eingänge jedes künstlichen Neurons werden gewichtet und aufsummiert. Abhängig von einer Aktivierungs funktion werden anschließend die Ausgänge des künstlichen Neurons aktiviert. Derartige neuronale Netze lernen, indem sie trainiert werden. Dabei werden die Gewichte zwischen den künstlichen Neuronen geändert, bis die Ausgabeschicht mit den Ausgängen das gewünschte Ergebnis zeigt. The evaluation using artificial intelligence is based here, for example, on deep learning methods that are based on artificial neural networks. Such artificial neuronal networks exist z. B. from interconnected artificial neurons that are evaluated within the evaluation device 10 forms are. The inputs of each artificial neuron are weighted and summed up. Depending on an activation function, the outputs of the artificial neuron are then activated. Such neural networks learn by being trained. The weights between the artificial neurons are changed until the output layer with the outputs shows the desired result.
Für das erfindungsgemäße Verfahren zur Objekterkennung bedeu tet dies, dass die Einrichtung durch Training der künstlichen Intelligenz zu einer immer zuverlässigeren Objekterkennung führt . For the method according to the invention for object detection, this means that the device leads to an increasingly reliable object detection by training the artificial intelligence.
Die mittels Fibersensing für den Erkennungsbereich 9 ermit telten Signale der zweiten Sensoreinrichtung 11 werden in Fig. 2 separat an die Auswerteeinrichtung 10 an Schritt 17 übermittelt. Im Schritt 17 führt die Auswerteeinrichtung 10 mit diesem Signal eine auf einer Mustererkennung basierenden Objekterkennung durch. The signals of the second sensor device 11 determined by means of fiber sensing for the detection area 9 are transmitted separately in FIG. 2 to the evaluation device 10 at step 17. In step 17, the evaluation device 10 uses this signal to carry out an object recognition based on a pattern recognition.
Um die Sicherheit bzw. Plausibilität der Objekterkennung zu erhöhen, vergleicht die Auswerteeinrichtung 10 die Ergebnisse der Objekterkennung im Schritt 16 mit den Ergebnissen der Ob jekterkennung im Schritt 17. Dieser Vergleich der Ergebnisse ist im Schritt 18 in Fig. 2 dargestellt. Durch den Vergleich wird eine hohe Sicherheit der Objekterkennung erreicht. In order to increase the security or plausibility of the object detection, the evaluation device 10 compares the results of the object detection in step 16 with the results of the object detection in step 17. This comparison of the results is shown in step 18 in FIG. 2. The comparison achieves a high level of security for object detection.
Bei dem Verfahren gemäß Fig. 2 können beim Vergleich im 2 can be compared in the
Schritt 18 sowohl erkannte Objekte miteinander verglichen werden oder aber auch lediglich die Signaturen, die gegebe nenfalls auf ein im Erkennungsbereich 9 vorhandenes Objekt hinweisen . Step 18, both recognized objects are compared with one another or else only the signatures, which possibly indicate an object present in the recognition area 9.
In Figur 3 ist eine Alternative Ausführungsform des erfin dungsgemäßen Verfahrens zur Objekterkennung dargestellt. Der Einfachheit halber wird lediglich auf die Unterschiede zum Verfahren nach Fig. 2 eingegangen. Bei dem in Fig. 3 dargestellten Verfahren werden die Signale der ersten Sensoreinrichtung 13 und der zweiten Sensorein richtung 11 gemeinsam an die Auswerteeinrichtung 10 übermit telt. In der Auswerteeinrichtung 10 wird in dem dargestellten Schritt 19 sowohl für die auf Fibersensing basierenden Signa le als auch die optisch und/oder funkbasiert ermittelten Sig nale eine Objekterkennung mit Hilfe künstlicher Intelligenz durchgeführt. Dabei werden nun auch die auf Fibersensing be ruhenden Signale als weitere Eingangsgröße für die künstliche Intelligenz und damit für das neuronale Netzwerk zusammen mit den Signalen eingespeist, die auf optisch und/oder funkba sierter Überwachung beruhen. Dadurch entsteht innerhalb der Auswerteeinrichtung 10 ein umfangreiches neuronales Netzwerk mit Eingangsgrößen, die sowohl auf Signalen aus optischer und/oder funkbasierter Überwachung als auch auf Signalen aus einer fibersensing-basierten Überwachung beruhen. FIG. 3 shows an alternative embodiment of the method for object recognition according to the invention. For the sake of simplicity, only the differences from the method according to FIG. 2 are dealt with. In the method shown in FIG. 3, the signals from the first sensor device 13 and the second sensor device 11 are transmitted together to the evaluation device 10. In the evaluation device 10, in the step 19 shown, object recognition is carried out with the aid of artificial intelligence both for the signals based on fiber sensing and for the optically and / or radio-based signals. The signals based on fiber sensing are now fed in as a further input variable for artificial intelligence and thus for the neural network together with the signals based on optical and / or radio-based monitoring. This results in an extensive neural network within the evaluation device 10 with input variables which are based both on signals from optical and / or radio-based monitoring and on signals from fiber-sensing-based monitoring.

Claims

Patentansprüche Claims
1. Verfahren zur Objekterkennung in einem Erkennungsbereich (9) , 1. Method for object detection in a detection area (9),
bei dem wenigstens ein optisch und/oder funkbasiert für den Erkennungsbereich (9) ermitteltes Signal und wenigstens ein mittels Fibersensing für den Erkennungsbereich (9) ermittel tes Signal ausgewertet werden, um wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich (9) hinweist, wobei in which at least one signal determined optically and / or radio-based for the detection area (9) and at least one signal determined by means of fiber sensing for the detection area (9) are evaluated in order to recognize at least one signature that relates to at least one object in the detection area (9 ) indicates where
das wenigstens eine optisch und/oder funkbasiert ermitteltes Signal und/oder das wenigstens eine mittels Fibersensing er mittelte Signal mit Hilfe von künstlicher Intelligenz ausge wertet wird. the at least one optically and / or radio-based signal and / or the at least one signal determined by means of fiber sensing is evaluated with the aid of artificial intelligence.
2. Verfahren nach Anspruch 1, 2. The method according to claim 1,
d a d u r c h g e k e n n z e i c h n e t , dass d a d u r c h g e k e n n z e i c h n e t that
das optisch und/oder funkbasiert für den Erkennungsbereich (9) ermitteltes Signal und das mittels Fibersensing für den Erkennungsbereich (9) ermitteltes Signal separat ausgewertet werden, um jeweils wenigstens eine Signatur zu erkennen, die auf wenigstens ein Objekt im Erkennungsbereich (9) hinweist. the signal determined optically and / or radio-based for the detection area (9) and the signal determined by means of fiber sensing for the detection area (9) are evaluated separately in order to recognize at least one signature each which indicates at least one object in the detection area (9).
3. Verfahren nach Anspruch 1 oder 2, 3. The method according to claim 1 or 2,
d a d u r c h g e k e n n z e i c h n e t , dass d a d u r c h g e k e n n z e i c h n e t that
die Auswertung des optisch und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierten Signals vergli chen wird. the evaluation of the optical and / or radio-based signal is compared with the evaluation of the signal based on fiber sensing.
4. Verfahren nach einem der oben genannten Ansprüche, d a d u r c h g e k e n n z e i c h n e t , dass 4. The method according to any one of the above claims, d a d u r c h g e k e n n z e i c h n t that
ein durch Auswertung des optischen und/oder funkbasierten Signals ermitteltes Objekt (14) mit einem durch Auswertung des auf Fibersensing basierenden Signals ermittelten Objekt (14) verglichen wird. an object (14) determined by evaluating the optical and / or radio-based signal is compared with an object (14) determined by evaluating the signal based on fiber sensing.
5. Verfahren nach Anspruch 4 d a d u r c h g e k e n n z e i c h n e t , dass 5. The method according to claim 4 characterized in that
die Objekte (14) jeweils aus einer Auswahl von vorbekanntenthe objects (14) each from a selection of previously known
Objekten ausgewählt wurden. Objects have been selected.
6. Einrichtung zur Objekterkennung, 6. facility for object recognition,
mit wenigstens einer ersten Sensoreinrichtung (13), die zur optisch und/oder funkbasierten Überwachung eines Erkennungs bereichs (9) ausgebildet ist, with at least one first sensor device (13), which is designed for optical and / or radio-based monitoring of a detection area (9),
mit wenigstens einer zweiten Sensoreinrichtung (11), die zur Überwachung des Erkennungsbereichs with at least one second sensor device (11) for monitoring the detection area
(9) mittels Fibersensing ausgebildet ist, und (9) is formed by means of fiber sensing, and
mit wenigstens einer mit der ersten und der zweiten Sen soreinrichtung (13, 11) verbundenen Auswerteeinrichtungwith at least one evaluation device connected to the first and second sensor devices (13, 11)
(10), die zur Auswertung eines Signals der ersten Sensorein richtung (13) und eines Signals der zweiten Sensoreinrichtung(10) for evaluating a signal of the first sensor device (13) and a signal of the second sensor device
(11) ausgebildet ist, um wenigstens eine Signatur zu erken nen, die auf wenigstens ein Objekt (14) im Erkennungsbereich (9) hinweist. (11) is designed to recognize at least one signature that indicates at least one object (14) in the detection area (9).
7. Einrichtung nach Anspruch 6, 7. Device according to claim 6,
d a d u r c h g e k e n n z e i c h n e t , dass d a d u r c h g e k e n n z e i c h n e t that
die Auswerteeinrichtung (10) zum Vergleichen der Auswertung des optisch und/oder funkbasierten Signals mit der Auswertung des auf Fibersensing basierten Signals ausgebildet ist. the evaluation device (10) is designed to compare the evaluation of the optical and / or radio-based signal with the evaluation of the signal based on fiber sensing.
8. Einrichtung nach Anspruch 6 oder 7, 8. Device according to claim 6 or 7,
d a d u r c h g e k e n n z e i c h n e t , dass d a d u r c h g e k e n n z e i c h n e t that
die Auswerteeinrichtung (10) zum Auswerten des wenigstens ei nen optisch und/oder funkbasiert ermittelten Signals und/oder des wenigstens einen mittels Fibersensing ermittelten Signals mit Hilfe von künstlicher Intelligenz ausgebildet ist. the evaluation device (10) is designed to evaluate the at least one optically and / or radio-based signal and / or the at least one signal determined by means of fiber sensing with the aid of artificial intelligence.
9. Einrichtung nach Anspruch 6, 7 oder 8, 9. Device according to claim 6, 7 or 8,
d a d u r c h g e k e n n z e i c h n e t , dass d a d u r c h g e k e n n z e i c h n e t that
die erste und/oder die zweite Sensoreinrichtung streckensei tig angeordnet sind. the first and / or the second sensor device are arranged on the track side.
10. Autonom fahrendes Fahrzeug, d a d u r c h g e k e n n z e i c h n e t , dass das Fahrzeug eine Einrichtung zur Objekterkennung nach einem der zuvor genannten Ansprüche 6 bis 9 umfasst. 11. Fahrzeug nach Anspruch 10, 10. Autonomous vehicle, characterized in that the vehicle comprises a device for object detection according to one of the preceding claims 6 to 9. 11. Vehicle according to claim 10,
d a d u r c h g e k e n n z e i c h n e t , dass das Fahrzeug ein spurgebundenes Fahrzeug ist. d a d u r c h g e k e n n z e i c h n e t that the vehicle is a track-bound vehicle.
PCT/EP2019/082177 2018-12-21 2019-11-22 Method and device for object detection WO2020126304A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018222723.3 2018-12-21
DE102018222723.3A DE102018222723A1 (en) 2018-12-21 2018-12-21 Method and device for object detection

Publications (1)

Publication Number Publication Date
WO2020126304A1 true WO2020126304A1 (en) 2020-06-25

Family

ID=68887372

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/082177 WO2020126304A1 (en) 2018-12-21 2019-11-22 Method and device for object detection

Country Status (2)

Country Link
DE (1) DE102018222723A1 (en)
WO (1) WO2020126304A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011027166A1 (en) 2009-09-03 2011-03-10 Westinghouse Brake And Signal Holdings Limited Railway systems using acoustic monitoring
WO2014056746A1 (en) * 2012-10-09 2014-04-17 Bayerische Motoren Werke Aktiengesellschaft Estimating a street type using sensor-based surroundings data
EP3275763A1 (en) 2016-07-27 2018-01-31 Frauscher sensortechnik GmbH Evaluation unit for a sensor arrangement for railway monitoring, sensor arrangement and corresponding method
CN108099957A (en) * 2017-12-14 2018-06-01 西北铁道电子股份有限公司 A kind of locomotive shunting method and system based on detection of obstacles with identification

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012039776A1 (en) * 2010-09-24 2012-03-29 QinetiQ North America, Inc. Airport incursion notification system
DE102015212019A1 (en) * 2015-06-29 2016-07-14 Siemens Aktiengesellschaft Method and device for detecting obstacles in front of a rail vehicle
DE102016205339A1 (en) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Method and system for detecting obstacles in a danger area in front of a rail vehicle
DE102016205330A1 (en) * 2016-03-31 2017-10-05 Siemens Aktiengesellschaft Method and system for detecting obstacles in a danger area in front of a rail vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011027166A1 (en) 2009-09-03 2011-03-10 Westinghouse Brake And Signal Holdings Limited Railway systems using acoustic monitoring
WO2014056746A1 (en) * 2012-10-09 2014-04-17 Bayerische Motoren Werke Aktiengesellschaft Estimating a street type using sensor-based surroundings data
EP3275763A1 (en) 2016-07-27 2018-01-31 Frauscher sensortechnik GmbH Evaluation unit for a sensor arrangement for railway monitoring, sensor arrangement and corresponding method
CN108099957A (en) * 2017-12-14 2018-06-01 西北铁道电子股份有限公司 A kind of locomotive shunting method and system based on detection of obstacles with identification

Also Published As

Publication number Publication date
DE102018222723A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
EP3445635B1 (en) Method for operating a positioning device, and positioning device
DE102015208058A1 (en) Automated parking system
DE102015224192A1 (en) Recognition of an open space
DE19510522A1 (en) Method and device for controlling or regulating the brake system of a vehicle
EP3792150B1 (en) Detection of hands-off situations based on swarm data
DE102008042277A1 (en) Method for determining frictional connection or force transfer, particularly controlling units, particularly for person, involves detecting frictional connection or force transfer of defined size by sensor
DE19727225B4 (en) System for detecting an object on a road
DE102018217118B4 (en) Method for creating a fault diagnosis for a drive train of an electrically operated motor vehicle and motor vehicle
DE102005023726B4 (en) Method and device for avoiding unwanted influences of double sensors
WO2020126304A1 (en) Method and device for object detection
EP3073463B1 (en) Vehicle detection apparatus
DE102007062566A1 (en) motor vehicle
EP3831515B1 (en) Detection of smoke events and electron beam melting system
DE102021203484B3 (en) Method for creating a guidance trajectory for a first motor vehicle, method for controlling a motor vehicle and method for operating a motor vehicle
DE102010021942B4 (en) Device for automatically controlling the speed and steering of a follower vehicle following a leading vehicle of a convoy
EP0750178A2 (en) Method for detecting manipulations in the measurement of a distance travelled by a vehicle and measured through a pulse generator
EP4186775A1 (en) Method and device for detecting the properties of a vehicle
DE102009057877B4 (en) Method and device for the imaging, optical measurement of forces, deflections, rotations and torsions in catenaries electrically operated traffic
EP1240479B1 (en) Method for evaluating the signals of an optoelectronic displacement or angle measuring device and implementation of said method
DE102011087339A1 (en) Method for detecting measurement error of velocity of vehicle e.g. rail vehicle, involves determining characteristic parameter of detected measuring object and determining deviation of detected measuring object from desired target
DE102017111700B4 (en) Method and device for detecting rain on a pane
DE102019218078A1 (en) Determination of a situation in the environment of a motor vehicle
EP3796172B1 (en) Method for monitoring output signals
DE102012219901A1 (en) Method for increasing positioning accuracy of moving object e.g. rail-mounted vehicle to predetermined stop point, involves approaching optical detection device of moving object to stop to detect generation of output signal
DE102021202919A1 (en) Device and method for diagnosing at least one light signal transmitter

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19820996

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19820996

Country of ref document: EP

Kind code of ref document: A1