WO2018211056A1 - Simulationsvorrichung für eine kraftfahrzeugüberwachung - Google Patents

Simulationsvorrichung für eine kraftfahrzeugüberwachung Download PDF

Info

Publication number
WO2018211056A1
WO2018211056A1 PCT/EP2018/063039 EP2018063039W WO2018211056A1 WO 2018211056 A1 WO2018211056 A1 WO 2018211056A1 EP 2018063039 W EP2018063039 W EP 2018063039W WO 2018211056 A1 WO2018211056 A1 WO 2018211056A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
light
computer
radar
lidar
Prior art date
Application number
PCT/EP2018/063039
Other languages
English (en)
French (fr)
Inventor
Michael Konrad
Original Assignee
Konrad Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102018111709.4A external-priority patent/DE102018111709A1/de
Application filed by Konrad Gmbh filed Critical Konrad Gmbh
Priority to US16/613,874 priority Critical patent/US11353551B2/en
Priority to EP18743396.6A priority patent/EP3625585B1/de
Priority to CN201880047234.8A priority patent/CN111183366B/zh
Publication of WO2018211056A1 publication Critical patent/WO2018211056A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/54Simulation of radar

Definitions

  • the invention relates to a simulation device for a motor vehicle monitoring according to the preamble of claim 1 and a method according to claim 7.
  • test apparatus for testing whilhheisÜ facilities of a motor vehicle
  • the test apparatus comprises a test unit, which is positionable in a surrounding area of a motor vehicle to be tested.
  • the test unit 1 has at least one test device for testing a safety-related device of a motor vehicle with at least one data processing means.
  • US 2014/0036084 A1 There, a lens arrangement is disclosed in a motor vehicle, woebi the lens detects the distance of the detected objects in the range of visibility of the lens and transmitted to a computer.
  • these sensors are used to monitor the environment of the vehicle.
  • driver assistance systems are crucially dependent on these sensors in order to be able to operate accident-free.
  • LiDAR abbreviation for light detection and ranging
  • Light measuring systems are used in addition to other applications for optical distance and speed measurement.
  • LiDAR light measuring systems emit light and measure the running time, in which the light returns to the LiDAR light measuring system after reflection on an object. The known speed of light is followed by the distance of the object from the LiDAR light metering system.
  • distance measurements in the range of a few centimeters to several hundreds of thousands of kilometers are possible.
  • Important areas of application for LiDAR light measuring systems have a measuring range for the distance of about 1 m up to a few 100 m. Examples of these application areas are mobile instruments for optical distance measurement and LiDAR light measurement systems for the automotive application field, namely driver assistance systems and autonomous driving.
  • a method is needed to perform measurements at defined distances. For this purpose, measuring distances of these defined lengths are needed in the simplest case.
  • defined ambient conditions with regard to the environment, such as temperature, humidity and extraneous light along the measuring path as well as defined optical properties of the test object are also required. Compliance with the ambient conditions makes a considerable claim on the space required for measuring sections. Test tracks for distances over about 10 m in length are therefore complicated to implement.
  • the LiDAR light measuring systems are equipped with several channels which, like a conventional camera, record an image with an opening angle, the space requirement is increased compared to the linear distance measuring system.
  • a LiDAR light receiving sensor with a horizontal opening angle of 360 °, a vertical opening angle of 45 ° and a maximum measuring distance of 100 m, a measuring station of 200 m diameter and a height of 83 m is required.
  • a test system In addition to the simple test of LiDAR light measuring systems at fixed distances, the requirement of a test system is to provide a moving scene. This is especially necessary to test LiDAR sensors in application development. For example, to test the behavior of LiDAR light metering systems in the autonomous driving application, trips must be made taking sensor data. But then only this scenery of the carried out ride can be tested. Changes, for example, in the development of the object of the invention The object of the present invention is to overcome the disadvantages of the prior art. In particular, a simulation device is to be provided which can control all different sensors used in a simulation device quickly and easily under realistic conditions.
  • the invention makes it possible to present any moving scenery to the LiDAR light measuring system. Instead of the time delay light signal coming back from the measurement object to the sensor in the case of a measurement path, the time-delayed light signal is generated via an adjustable delay path.
  • the light signal emitted by the LiDAR light measuring system is detected by a photodetector and the further propagation is blocked by a light trap, for example.
  • the time of detection of the light signal emitted by the LiDAR light measuring system is used as the trigger time for the generation of the time-delayed signal.
  • a delayed signal relative to the trigger is generated.
  • the time delay based on a minimum delay caused by the electronics can be arbitrarily set and changed.
  • the generation of the time-delayed signal is done by means of an electronic time delay unit.
  • the change of the time delay also occurs electronically and is preferably in a range of> 10 s-1.
  • the time-delayed signal is used to generate a light signal by means of a suitable fast amplifier.
  • the signal regularly represents a light signal.
  • the light signal is preferably generated by an LED or a laser diode.
  • the LED includes an LED driver.
  • the laser diode in turn includes a laser diode driver.
  • a laser diode also called a semiconductor laser
  • LED light-emitting diode
  • a laser diode is a semiconductor component that is related to the light-emitting diode (LED) but that generates laser radiation.
  • a pn junction is operated with high doping at high current densities.
  • the choice of the semiconductor material determines the emitted wavelength, whereby today a spectrum of infrared to ultraviolet is covered.
  • the light signal generated in this way is directed to the Li DAR light measuring system and interpreted by it as an object in the distance corresponding to the delay time.
  • variable time-delayed signals corresponding to a moving 1 to 3-dimensional scene, which are adapted synchronously to the scenery at runtime.
  • ADAS Advanced driver assistance systems
  • a simulation device has the particular advantage over the prior art that it is no longer necessary to test each type of sensor used in its own simulation environment adapted for these sensors. Rather, it can be achieved by a combination of the simulation pattern that all the sensors used for vehicle monitoring, for example in the context of autonomous driving, can be tested and tested as realistically as possible.
  • radar sensors, camera sensors and LiDAR light-receiving sensors are used in the context of the aforementioned vehicle monitoring.
  • Each type of sensor requires a dedicated simulation environment, so it takes a lot of time to test each type of sensor in its environment.
  • a single computer should ensure all the necessary steps to stimulate the addressed sensors in a cost-effective manner and thereby make the results of the sensors in the context of Sol st-matching.
  • Radar sensor should be controlled or stimulated by a radar signal generator.
  • the camera sensor is to be tested via a selection of lenses then, for example, if an autofocusing in the desired manner to different distances.
  • the LiDAR light-receiving sensor is to be tested by, for example, delaying a LiDAR light signal from a LiDAR light transmitter or by using an external light transmitter. In doing so, a certain distance for the LiDAR light-receiving sensor is simulated by either returning the recorded LiDAR light signal delayed or sending a light signal after a certain period of time after activating the LiDAR light-receiving sensor.
  • the computer performs a first SolMst calibration to control the radar sensor.
  • the computer checks whether the radar signals sent by the radar signal transmitter also correspond to the requirements, ie the actual values, by the radar sensor.
  • the computer also performs a second SolMst adjustment to control the camera sensor.
  • the computer compares whether the camera sensor makes automatic focusing or focusing in a certain time depending on the selection of the lens.
  • the computer can also bring another lens used, which simulates, for example, a further distance, the camera sensor then automatically focussing on the further distance the test image in a certain time, depending on the specification of the technical requirements.
  • a third SolMst calibration is performed to control the LiDAR light-receiving sensor. It uses either the LiDAR light signal of the LiDAR light transmitter or the light signal of an autonomous light transmitter.
  • the computer controls whether the Time delay between the activation of the Li DAR light receiving sensor, the delayed sending of the light signal and the reception of the light signal by the LiDAR light receiving sensor corresponds to the values stored in the computer.
  • the radar sensor, the lens and the light emitter in a time window of less than 50 ms synchronously control the radar sensor, the camera sensor and the light-receiving sensor.
  • synchronous control can be carried out a mutual control of the functionality of the radar sensor, the camera sensor and the light-receiving sensor.
  • the time window of 50 ms is the maximum permissible deviation in order to ensure mutual control of the components.
  • the radar sensor can be tested, for example, as a function of the light-receiving sensor. Or the Lichtempfangssesnsor depending on the camera sensor. For example, if the camera sensor sees something, but the light receiving sensor does not, then there is a fault, which are displayed by the computer. If this does not happen, then a faulty component is installed, which must be replaced.
  • Figure 1 is a schematic view of a simulation device according to the invention
  • Figure 2 is a schematic circuit diagram
  • Figure 3 shows an embodiment of a part of Figure 1
  • FIGS. 4-6 show a further embodiment
  • FIG. 1 shows a motor vehicle 10 which, for example, has a LiDAR light receiving sensor 1 in the context of autonomous driving. Furthermore, a radar sensor 2 and a camera sensor 3 are shown schematically.
  • the LiDAR light receiving sensor 1 is stimulated by a light emitter 7. This can be carried out, for example, as described in FIG. However, it is also conceivable that a LiDAR light transmitter 12, for example, is put out of action and an autonomous light transmitter 7 controlled by a computer 4 is actuated. In this case, the computer 4 determines the time duration between the start of readiness for reception of the LiDAR light-receiving sensor 1 and the emission of a light signal 9 by the light emitter 7 in order to simulate a corresponding proximity or distance of a reflection.
  • the LiDAR light receiving sensor 1 is just like the light emitter 7 connected to the computer 4 via a data line or via a radio line. Through this connection, the data obtained from the LiDAR-not receiving sensor 1 are transmitted to the computer 4.
  • the lens 6 is intended to show the camera sensor 3 a test image 1 1 at a defined distance, wherein the test image 1 1 is always arranged at an actual distance corresponding unspecified distance, because the lens 6 gives the camera sensor 3 the impression that For example, the test image is farther away than it actually is.
  • the camera sensor 3, as well as the lens 6 is also connected to the computer 4 via the data line or radio line.
  • the selection of the lens 6 is determined in particular by the computer.
  • the computer 4 defines the distance to be checked, which is to be recorded by the camera sensor 3 and also to be automatically displayed, for example.
  • This automatic focusing can be simulated by selecting the lens 6 at a distance of x meters. If a different lens is selected, a simulation for the automatic focusing can be tested, for example for x + 10 - meters.
  • the radar sensor 2 is shown, which is to be stimulated by a radar signal generator 5.
  • the radar signal generator 5 simulates a radar signal 8, which is perceived as an echo in the context of the Doppler effect by the radar sensor 2.
  • the radar sensor 2 and the radar signal generator 5 are also connected via the data line or radio line to the computer 4 and transmit in this way the data obtained for example by the radar sensor 2 to the computer 4.
  • the computer 4 determines in such a case, if and when the radar signal generator 5 is to transmit a radar signal 8.
  • FIG. 2 shows a schematic circuit diagram for the exemplary embodiment that not only a LiDAR light reception sensor 1 of a LiDAR light measurement system 13 is used, but also a LiDAR light signal transmitter 12.
  • the emitted LiDAR light signal of the LiDAR light signal transmitter 12 is first conducted into a photodetector 14.
  • a photodetector 14 for example, an optical detector, optoelectronic sensor or other electronic components is referred to convert the light using the photoelectric effect in an electrical signal or show a dependent of the incident radiation electrical resistance.
  • the term also names applications which have integrated such a radiation-measuring component.
  • the signal picked up by the photodetector 14 is then forwarded to an amplifier 15, which enhances the signal and amplifies it for further processing.
  • a computer 4 monitors the comparator 1 6 and the transmission of the signal to a delay element 17, which passes on the transmission of the signal to an LED driver 18 in a defined form and influenced by the computer 4 with different time delay.
  • the LED driver 18 in turn illuminates an LED 19 (Light Emitting Diode) or a laser diode for emitting the signal in an optical system 20.
  • the LiDAR light receiving sensor 1 receives the light signal of the optical system 20.
  • the inventive method for simulating a detection environment for the computer controls on the one hand the radar sensor 2 and the camera sensor 3 and the LiDAR light receiving sensor 1 and on the other side the radar signal generator 5, the selection of the lens 6 and the light emitter. 7
  • the computer 4 performs a first SollVIst adjustment for controlling the radar sensor 2 by.
  • the computer 4 checks whether the radar signals 8 sent by the radar signal transmitter 5 also correspond to the requirements, ie the actual values, by the radar sensor 2.
  • the computer 4 performs a second SollVIst adjustment for controlling the camera sensor 3 by.
  • the computer 4 compares whether the camera sensor 3, depending on the selection of the lens 6 in a certain time, performs an automatic focusing or focusing.
  • the computer 4 can also bring another lens used, which simulates, for example, a further distance, the camera sensor 3 then on the further distance the test image 1 1 again in a certain time, depending on the specification of the technical requirements, automatically focusing must.
  • a third sol st adjustment for controlling the LiDAR light receiving sensor 1 is performed.
  • either the LiDAR light signal of the LiDAR light emitter 12 is used or the light signal of an autonomous light emitter 7.
  • the computer 4 controls whether the time delay between the activation of the LiDAR light receiving sensor 1, the delayed sending of the light signal and the reception of the light signal the LiDAR light receiving sensor 1 corresponds to the values stored in the computer 4.
  • FIG. 3 shows part of FIG. 1 in the context of an exemplary embodiment.
  • the LiDAR light receiving sensor 1 becomes static during the Simulation held. It is shown a simulation device which is arranged on a common substrate 21. In this case, the LiDAR light-receiving sensor 1 is arranged at a specific distance from the substrate 21.
  • a holder 22 is shown which serves to receive a plurality of light transmitters 23, 24.
  • a plurality of other light transmitters can be attached, which are shown in FIG. 3 but are not further named.
  • the light emitter 23 and the further light emitter 24 are held in the same plane by the holder. This means in this embodiment at an equal distance from the ground 20. They are arranged side by side. This in turn means that the light emitter 23 and the further light emitter 24 are arranged here in a partial circular form with centric alignment with the LiDAR light receiving sensor 1.
  • FIG. 4 shows a rotary head 23 in which the LiDAR light-receiving sensor 1 is recorded rotating.
  • an axis 24 is shown, on which the rotary head 23 is seated.
  • FIG. 5 shows a light transmitter strip 25.
  • side of the light emitter strip 25 is easy to see how a first light emitter 27.1 is arranged and how additional other first light emitter 27.2, 27.3 below and above the central first light emitter 27.1 are arranged.
  • FIG. 6 shows a plan view of a simulation device according to the invention. There, in the center of a light bar cylinder 28, the rotary head 23 is shown, which rotates in the direction of the rotation arrow 26.
  • the light bar cylinder 28 consists of the light emitter bar 25 and the other light emitter bar 29 and other light emitter bars, not shown but shown in Figure 6, which together close the circle around the rotary head 23 in order to simulate a 360 ° environment.
  • Figures 7 and 8 a third Au holderssbeil is shown.
  • Figure 7 shows the view from above and Figure 8 is the sectional side view.
  • the rotary head 23 is again shown, which is also arranged to rotate by 360 °.
  • the rotary head 23 is surrounded by a light ring 30 in FIG.
  • the light ring 30 may be made of plastic in a 3D printing process.
  • the light ring 30 consists of a plurality of superimposed rings 31 .1 - 31 .9., Which are shielded from each other light-tight.
  • a zero degree adjustment 32 is shown in FIG.
  • the computer is informed of the signal passing through the Nullgradejustage 32, so due to the Rotationsgeschwindigeit the rotary head 23 and the time of passing through the Nullgradjustage 32 always the exact position of the light receiving sensor 1 can be determined. Consequently, the position of the light receiving sensor 1 can be detected as a function of elapsed time since the zero degree adjustment 32 has passed and the rotation speed.
  • This is possible precisely in response to a transmitter 33 emitting a transmitter light here in the form of the transmitter light arrow 35, the transmitter light propagating throughout the light ring 30 and being visible to the light receiver sensor 1.
  • a receiver return signal 36 is sent, which is detected by a receiver 34.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft eine Simulationsvorrichtung für eine Kraftfahrzeugüberwachung, wobei ein Radarsensor (2) und ein Kamerasensor (3) und ein LiDAR-Lichtempfangssensor (1) und ein Rechner (4) vorhanden ist, wobei der Radarsensor (2) über ein Radarsignalgeber ansteuerbar ist, und der Kamerasensor (3) über eine Linse ansteuerbar ist, und der LiDAR – Lichtempfangssensor (1) über einen Lichtsender ansteuerbar ist.

Description

Simulationsvorrichtung für eine Kraftfahrzeugüberwachung
Technisches Gebiet
Die Erfindung betrifft eine Simulationsvorrichtung für eine Kraftfahrzeugüberwachung nach dem Oberbegriff des Anspruchs 1 und ein Verfahren nach den Anspruch 7. Stand der Technik
Aus dem Stand der Technik ist bekannt, dass im Rahmen einer Kraftfahrzeugüberwachung Kamerasensoren, Radarsensoren und LiDAR Lichtmesssysteme bekannt und gebräuchlich.
In diesem Zusamenhang wird auf die DE 10 2014 217 524 A1 hingewiesen. Dort ist eine Prüfvorrichtung zur Prüfung von sicherhheistechnischen Einrichtungen eines Kraftfahrzeuges, wobei die Prüfvorrichtung eine Prüfeinheit umfasst, die in einem Umgebungsbereich eines zu prüfenden Kraftfahrzeuges positionierbar ist. Ferner weist die Prüfeinheit 1 zumindest ein Prüfmittel zum Prüfen einer sicherheitstechnischen Einrichtung eines Kraftfahrzeuges mit zumindest einem Datenverarbeitungsmittel auf. Weiter wird auf die US 2014/0036084 A1 hingewiesen. Dort ist eine Linsenanordnung in einem Kraftfahrzeug offenbart, woebi die Linse die Entfernung der erfassten gegenstände im Bereich der Sichtweite der Linse erfasst und an einen Rechner übermittelt.
Gerade im Bereich des autonomen Fahrens kommen diese Sensoren zur Überwachung der Umgebung des Fahrzeugs zum Einsatz. Neben dem autonomen Fahren sind auch sogenannte Fahrassistenzsysteme entscheidend auf diese Sensoren angewiesen, um unfallfrei tätig werden zu können.
Im Rahmen der Qualitäts- und Funktionskontrolle der eingesetzten Sensoren werden aufwändige Arbeiten notwendig. So werden beispielsweise größere dreidimensionale Szenerien mit Personen und Sachen nachgestellt, um die Sensoren entsprechend testen zu können. Diese Aufbauten sind zeit- und kostenintensiv.
LiDAR (Abkürzug für Light detection and ranging) Lichtmesssysteme werden neben weiteren Anwendungen zur optischen Abstands- und Geschwindigkeitsmessung eingesetzt. LiDAR Lichtmesssysteme senden Licht aus und messen die Laufzeit, in der das Licht nach der Reflexion an einem Objekt wieder zum LiDAR Lichtmesssystem zurückkommt. Aus der bekannten Geschwindigkeit des Lichts folgt die Entfernung des Objekts vom LiDAR Lichtmesssystem. Je nach Auslegung eines LiDAR Lichtmesssystems sind Entfernungsmessungen im Bereich von wenigen Zentimetern bis zu mehreren Hunderttausend Kilometern möglich.
Wichtige Anwendungsbereiche für LiDAR Lichtmesssysteme besitzen einen Messbereich für den Abstand von etwa 1 m bis zu wenigen 100 m. Beispiele dieser Anwendungsbereiche sind mobile Instrumente zur optischen Entfernungsmessung und LiDAR Lichtmesssysteme für das Anwendungsfeld Automotive, nämlich Fahrerassistenzsysteme und autonomes Fahren. Für den Test von LiDAR Lichtmesssystemen, beispielsweise in der industriellen Qualitätskontrolle, wird eine Methode benötigt, Messungen bei definierten Entfernungen durchzuführen. Dazu werden im einfachsten Fall Messstrecken dieser definierten Längen benötigt. Für Qualitätskontrollen werden ebenfalls definierte Umgebungsbedingungen bezüglich Umwelt, wie Temperatur, Feuchte und Fremdlicht entlang der Messstrecke sowie definierte optische Eigenschaften des Messobjekts benötigt. Die Einhaltung der Umgebungsbedingungen stellt einen erheblichen Anspruch an den Platzbedarf für Messstrecken. Teststrecken für Entfernungen über etwa 10 m Länge sind deshalb aufwändig zu realisieren.
Ist das LiDAR Lichtmesssysteme mit mehreren Kanälen ausgestattet, die, analog einer herkömmlichen Kamera, ein Bild mit einem Öffnungswinkel aufnehmen, so erhöht sich der Platzbedarf im Vergleich zum linearen Entfernungsmesssystem. Für einen LiDAR - Lichtempfangssensor mit einem horizontalen Öffnungswinkel von 360°, einem vertikalen Öffnungswinkel von 45° und einer maximalen Messdistanz von 100 m wird ein Messplatz von 200 m Durchmesser und einer Höhe von 83 m benötigt.
Neben dem einfachen Test von LiDAR Lichtmesssystemen bei festen Entfernungen besteht der Anspruch an ein Testsystem darin, eine bewegte Szenerie bereitzustellen. Dies ist insbesondere notwendig, um in der Applikationsentwicklung LiDAR Sensoren zu testen. Um beispielsweise das Verhalten von LiDAR Lichtmesssystemen in der Anwendung autonomes Fahren zu testen, müssen Fahrten durchgeführt werden wobei Sensordaten aufgenommen werden. Dann kann aber nur diese Szenerie der durchgeführten Fahrt getestet werden. Änderungen, die beispielsweise in der Entwicklung der Aufgabe der Erfindung Die Aufgabe der vorliegenden Erfindung ist es, die Nachteile aus dem Stand der Technik zu überwinden. Insbesondere soll eine Simulationsvorrichtung bereitgestellt werden, die alle unterschiedlichen eingesetzten Sensoren in einer Simulationsvorrichtung schnell und einfach unter realistischen Bedingungen kontrollieren können.
Lösung der Aufgabe
Zur Lösung der Aufgabe führen die Merkmale nach dem Anspruch 1 und 7.
Vorteilhafte Ausgestaltungen sind in den Unteransprüchen beschrieben.
Die Erfindung erlaubt es, dem LiDAR Lichtmesssystem jede beliebige bewegte Szenerie zu präsentieren. Anstelle des bei einer Messstrecke vom Messobjekt zum Sensor zurückkommende zeitverzögerte Lichtsignals wird das zeitverzögerte Lichtsignal über eine einstellbare Verzögerungsstrecke generiert.
Das vom LiDAR Lichtmesssystem ausgesandte Lichtsignal wird mit einem Photodetektor detektiert und die weitere Ausbreitung beispielsweise durch eine Lichtfalle abgeblockt. Der Zeitpunkt der Detektion des von LiDAR Lichtmesssystem ausgehenden Lichtsignals wird als Triggerzeitpunkt für die Erzeugung des zeitverzögerten Signals verwendet.
Ein mit Bezug zum Trigger zeitverzögertes Signal wird generiert. In der Erfindung kann die Zeitverzögerung ausgehend von einer durch die Elektronik bedingten Minimalverzögerung beliebig eingestellt und verändert werden. Die Erzeugung des zeitverzögerten Signals geschieht mittels einer elektronischen Zeitverzögerungseinheit. Die Änderung der Zeitverzögerung erfolgt ebenfalls elektronisch und ist vorzugsweise in einem Bereich von >10 s-1 . Das zeitverzögerte Signal wird zur Erzeugung eines Lichtsignals mittels eines geeigneten schnellen Verstärkers verwendet. Das Signal stellt regelmässig ein Lichtsignal dar. Das Lichtsignal wird bevorzugt von einer LED oder einer Laserdiode erzeugt. Die LED umfasst dabei einen LED-Treiber. Die Laserdiode wiederum umfasst einen Laserdioden-Treiber. Eine Laserdiode (auch Halbleiterlaser genannt) ist ein mit der Leuchtdiode (LED) verwandtes Halbleiter-Bauteil, das jedoch Laserstrahlung erzeugt. In Laserdioden wird ein p-n-Übergang mit starker Dotierung bei hohen Stromdichten betrieben. Die Wahl des Halbleitermaterials bestimmt dabei die emittierte Wellenlänge, wobei heute ein Spektrum von Infrarot bis Ultraviolett abgedeckt wird.
Das so erzeugte Lichtsignal wird auf das Li DAR Lichtmesssystem geleitet und von diesem als Objekt in der Entfernung entsprechend der Verzögerungszeit interpretiert. Für jeden Kanal des LiDAR Lichtmesssystems gibt es eine solche von den anderen Kanälen unabhängige Signalkette. Dadurch ist es möglich für das LiDAR System eine simulierte bewegte Umgebung zu generieren.
Erzeugung von veränderbaren zeitverzögerten Signalen die einer bewegten 1 bis 3 dimensionalen Szene entsprechen, welche zur Laufzeit synchron an die Szenerie angepasst werden.
Skalierbarkeit in der Kanal Anzahl von einem Kanal bis zur Auflösung des verwendeten Optischen System zur Entfernungsmessung
Skalierbarkeit in Entfernung ausgehend von einem Mindestabstand der begrenzt ist durch die Reaktionsgeschwindigkeit der verwendeten elektronischen Komponenten zur Detektion von Lichtimpulsen über die Zeitverzögerungsglieder bis zur Lichterzeugung bis hin zum maximalen Erfassungsbereiches des optischen Systems.
Insbesondere für den Einsatz im zeitsynchronen Verbund von mehreren unterschiedlichen Sensor Simulatoren zur Visualisierung von virtuellen Realitäten. Insbesondere für den Bereich von ADAS (Advanced driver assistance Systems)
Einstellbarkeit einer statischen Zeitverzögerung welcher einer statischen Entfernung entspricht.
Eine erfindungsgemäße Simulationsvorrichtung hat gegenüber dem Stand der Technik insbesondere den Vorteil, dass nicht mehr jede Art von eingesetzten Sensoren in einer eigenen für diese Sensoren angepassten Simulationsumgebung getestet werden müssen. Vielmehr kann durch eine Kombination der Simulationsmuster erreicht werden, dass sämtliche eingesetzten Sensoren zur Fahrzeugüberwachung, beispielsweise im Rahmen des autonomen Fahrens, möglichst realitätsnah geprüft und getestet werden können. In der Regel kommen im Rahmen der angesprochenen Kraftahrzeugüberwachung Radarsensoren, Kamerasensoren und LiDAR - Lichtempfangssensoren zum Einsatz.
Jede Art von Sensor benötigt eine eigens auf die Bedürfnisse des Sensors abgestimmte Simulationsumgebung, sodass es sehr zeitintensiv ist, wenn jede Art von Sensor jeweils in der entsprechenden Umgebung getestet werden muss.
Eine Kombination aller oben genannten Sensorenarten war bisher nicht möglich, da insbesondere die LiDAR - Lichtempfangssensoren nicht in einer entsprechenden Art und Weise getestet werden konnten. Dies soll mit der vorliegenden Erfindung abgestellt werden.
Dabei soll idealerweise ein einziger Rechner alle notwendigen Schritte zur Stimulation der angesprochenen Sensoren in einer kostengünstigen Art und Weise gewährleisten und dabei auch die Ergebnisse der Sensoren im Rahmen von Sol st-Abgleichen vornehmen. Radarsensor soll dabei über einen Radarsignalgeber angesteuert bzw. stimuliert werden. Der Kamerasensor soll über eine Auswahl von Linsen daraufhin getestet werden, ob beispielsweise eine Autofokussierung in der gewünschten Art und Weise auf unterschiedliche Entfernungen erfolgt.
Zuletzt soll der LiDAR - Lichtempfangssensor durch beispielsweise Verzögerung eines LiDAR - Lichtsignals eines LiDAR - Lichtsenders oder durch Einsatz eines externen Lichtsenders getestet werden. Dabei wird eine bestimmte Entfernung für den LiDAR - Lichtempfangssensor dadurch simuliert, dass das aufgenommene LiDAR - Lichtsignal entweder verzögert zurückgegeben wird oder ein Lichtsignal erst nach einer gewissen Zeitspanne nach dem Aktivieren des LiDAR - Lichtempfangssensors abgesendet wird. Dabei führt der Rechner einen ersten SolMst-Abgleich zur Kontrolle des Radarsensors durch. Dabei überprüft der Rechner, ob die vom Radarsignalgeber gesandten Radarsignale auch durch den Radarsensor den Anforderungen, also den Ist-Werten entsprechen. Weiter führt der Rechner einen zweiten SolMst-Abgleich zur Kontrolle des Kamerasensors durch. Dabei vergleicht der Rechner, ob der Kamerasensor je nach Auswahl der Linse in einer bestimmten Zeit eine automatische Scharfstellung bzw. Fokussierung vornimmt. Dabei kann der Rechner auch eine andere Linse zum Einsatz bringen, die beispielsweise eine weitere Entfernung simuliert, wobei der Kamerasensor dann auf die weitere Entfernung das Testbild wieder in einer bestimmten Zeit, je nach Vorgabe der technischen Anforderungen, automatisch Fokussierung muss.
Auch wird ein dritter SolMst-Abgleich zur Kontrolle des LiDAR - Lichtempfangssensors durchgeführt. Dabei wird entweder das LiDAR - Lichtsignal des LiDAR-Lichtsenders verwendet oder das Lichtsignal eines autonomen Lichtsenders. Dabei kontrolliert der Rechner, ob die Zeitverzögerung zwischen dem Aktivieren des Li DAR - Lichtempfangssensors, dem verzögerten Absenden des Lichtsignals und dem Empfang des Lichtsignals durch den LiDAR - Lichtempfangssensors den im Rechner hinterlegten Werten entspricht.
Wichtig ist in diesem Zusammenhang, dass der Radarsignalgeber, die Linse und der Lichtsender in einem Zeitfenster von weniger als 50 ms den Radarsensor, den Kamerasensor und den Lichtempfangssensor synchron ansteuern. Durch die synchrone Ansteuerung kann dabei eine gegenseitige Kontrolle der Funktionalität des Radarsensors, des Kamerasensors und des Lichtempfangssensors erfolgen. Das Zeitfenster von 50 ms ist die maximale zulässige Abweichung, um eine gegenseitige Kontrolle der Bauteile zu gewährleisten. Auf diese Weise kann der Radarsensor beispielsweise in Abhängigkeit des Lichtempfangssensors getestet werden. Oder der Lichtempfangssesnsor in Abhängigkeit des Kamerasensors. Denn sieht beispielsweise der Kamerasensor etwas, aber der Lichtempfangssesnsor nicht, so liegt ein Störfall vor, welcher durch den Rechner angezeigt werden. Sollte dies nicht geschehen, so ist ein fehlerhaftes Bauteil verbaut, was ausgetauscht werden muss.
Figurenbeschreibung
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnungen; diese zeigen in:
Figur 1 eine schematische Ansicht eine erfindungsgemässen Simulationsvorrichtung Figur 2 eine schematische Schaltdarstellung;
Figur 3 ein Ausführungsbeispiel für einen Teil der Figur 1 ;
Figuren 4-6 ein weiteres Ausführungsbeispiel;
Figuren 7 und 8 noch ein drittes Ausführungsbeispiel.
Ausführungsbeispiel In Figur 1 ist ein Kraftfahrzeug 10 gezeigt, welches beispielsweise im Rahmen des autonomen Fahrens über ein LiDAR- Lichtempfangssensor 1 verfügt. Weiter ist schematisch ein Radarsensor 2 und ein Kamerasensor 3 gezeigt.
Der LiDAR - Lichtempfangssensor 1 wird durch einen Lichtsender 7 stimuliert. Dies kann beispielsweise derart durchgeführt werden, wie es in der Figur 2 beschrieben ist. Es ist aber auch denkbar, dass ein LiDAR - Lichtsender 12 beispielsweise ausser Funktion gesetzt wird und ein autonomer über einen Rechner 4 gesteuerter Lichtsender 7 angestuert wird. Dabei bestimmt der Rechner 4 die Zeitdauer zwischen dem Beginn der Empfangsbereitschaft des LiDAR - Lichtempfangssensors 1 und der Aussendung eines Lichtsignals 9 durch den Lichtsender 7, um eine entsprechende Nähe oder Entfernung einer Reflexion zu simulieren. Der LiDAR - Lichtempfangssensor 1 ist genauso wie der Lichtsender 7 mit dem Rechner 4 über eine Datenleitung oder über eine Funkleitung verbunden. Durch diese Verbindung werden die gewonnenen Daten des LiDAR - nicht Empfangssensors 1 an den Rechner 4 übermittelt.
Weiter ist in der Figur 1 eine Linse 6 gezeigt. Die Linse 6 soll dabei dem Kamerasensor 3 ein Testbild 1 1 in einer definierten Entfernung zeigen, wobei das Testbild 1 1 immer in einer tatsächlichen Entfernung angeordnet ist, die nicht näher definierten Entfernung entspricht, weil die Linse 6 dem Kamerasensor 3 den Eindruck vermittelt, dass das Testbild beispielsweise weiter entfernt ist, als dies tatsächlich der Fall ist.
Der Kamerasensor 3, sowie die Linse 6 ist ebenfalls über die Datenleitung oder Funkleitung mit dem Rechner 4 verbunden. Dabei wird insbesondere durch den Rechner die Auswahl der Linse 6 bestimmt. Durch die Auswahl der Linse 6 definiert der Rechner 4 den zu prüfenden Entfernungsabstand, welche durch den Kamerasensor 3 aufgenommen und auch beispielsweise automatisch ausgestellt werden soll. Diese automatische Scharfstellung kann durch die Auswahl der Linse 6 in einer Entfernung von x-Metern simuliert werden. Wird eine andere Linse ausgewählt, so kann eine Simulation für die automatische Scharfstellung beispielsweise für x+10 - Meter getestet werden.
Daneben ist der Radarsensor 2 gezeigt, welcher über einen Radarsignalgeber 5 stimuliert werden soll. Dabei simuliert der Radarsignalgeber 5 ein Radarsignal 8, welches wie ein Echo im Rahmen des Dopplereffekts durch den Radarsensor 2 wahrgenommen wird.
Der Radarsensor 2 und der Radarsignalgeber 5 sind ebenfalls über die Datenleitung oder Funkleitung mit dem Rechner 4 verbunden und übermitteln auf diese Weise die zum Beispiel durch den Radarsensor 2 gewonnenen Daten an den Rechner 4. Der Rechner 4 bestimmt in einem solchen Fall auch, ob und wann der Radarsignalgeber 5 ein Radarsignal 8 übermitteln soll.
In Figur 2 ist eine schematische Schaltdarstellung für das Ausführungsbeispuiel gezeigt, dass nicht nur ein LiDAR - Lichtempfangssensor 1 eines LiDAR - Lichmesssystems 13 genutzt wird, sondern auch ein LiDAR - Lichtsignalgeber 12.
In einem solchen Fall wird das ausgesandte LiDAR - Lichtsignal des LiDAR - Lichtsignalgebers 12 zunächst in einen Photodetector 14 geleitet. Als Photodetector 14 wird beispielsweise ein optischer Detektor, optoelektronischer Sensor oder andere elektronische Bauelemente bezeichnet, die Licht unter Benutzung des photoelektrischen Effekts in ein elektrisches Signal umwandeln oder einen von der einfallenden Strahlung abhängigen elektrischen Widerstand zeigen. Mit dem Begriff werden aber auch Applikationen benannt, die ein solches strahlungsmessendes Bauteil integriert haben.
Das vom Photodetector 14 aufgenommene Signal wird anschliessend in einen Verstärker 15 weitergeleitet, welcher das Signal aufwertet und für die weitere Verarbeitung verstärkt.
Danach wird das Signal in einen Komperator 1 6 weitergegeben. Dabei überwacht ein Rechner 4 den Komperator 1 6 und die Weitergabe des Signals an ein Verzögerungsglied 17, welches die Weitergabe des Signals an einen LED-Treiber 18 in definierter Form und beeinflusst vom Rechner 4 mit unterschiedlicher zeitlicher Verzögerung weitergibt.
Der LED-Treiber 18 wiederum bringt eine LED 19 (Light Emitting Diode) oder eine Laserdiode zur Abgabe des Signals in einem optischen System 20 zum Leuchten. Nachdem das Signal durch die LED 19 oder die Laserdiode im optischen System 20 in ein Lichtsignal umgewandelt wurde, empfängt der LiDAR - Lichtempfangssensor 1 das Lichtsignal des optischen Systems 20. In dem erfindungsgemäßen Verfahren zu Simulation einer Detektionsumgebung für steuert der Rechner auf der einen Seite den Radarsensor 2 und den Kamerasensor 3 und den LiDAR Lichtempfangssensor 1 und auf der anderen Seite den Radarsignalgeber 5, die Auswahl der Linse 6 und den Lichtsender 7.
Dabei führt der Rechner 4 einen ersten SollVIst-Abgleich zur Kontrolle des Radarsensors 2 durch. Dabei überprüft der Rechner 4, ob die vom Radarsignalgeber 5 gesandten Radarsignale 8 auch durch den Radarsensor 2 den Anforderungen, also den Ist-Werten entsprechen.
Weiter führt der Rechner 4 einen zweiten SollVIst-Abgleich zur Kontrolle des Kamerasensors 3 durch. Dabei vergleicht der Rechner 4, ob der Kamerasensor 3 je nach Auswahl der Linse 6 in einer bestimmten Zeit eine automatische Scharfstellung bzw. Fokussierung vornimmt. Dabei kann der Rechner 4 auch eine andere Linse zum Einsatz bringen, die beispielsweise eine weitere Entfernung simuliert, wobei der Kamerasensor 3 dann auf die weitere Entfernung das Testbild 1 1 wieder in einer bestimmten Zeit, je nach Vorgabe der technischen Anforderungen, automatisch Fokussierung muss.
Auch wird ein dritter Sol st-Abgleich zur Kontrolle des LiDAR - Lichtempfangssensors 1 durchgeführt. Dabei wird entweder das LiDAR - Lichtsignal des LiDAR-Lichtsenders 12 verwendet oder das Lichtsignal eines autonomen Lichtsenders 7. Dabei kontrolliert der Rechner 4, ob die Zeitverzögerung zwischen dem Aktivieren des LiDAR - Lichtempfangssensors 1 , dem verzögerten Absenden des Lichtsignals und dem Empfang des Lichtsignals durch den LiDAR - Lichtempfangssensors 1 den im Rechner 4 hinterlegten Werten entspricht.
In Figur 3 ist ein Teil der Figur 1 im Rahmen eines Ausführungsbeipiels gezeigt. Und zwar wird der LiDAR - Lichtempfangssensor 1 hier statisch während der Simulation gehalten. Es ist eine Simulationsvorrichtung gezeigt, welche auf einem gemeinsamen Untergrund 21 angeordnet ist. Dabei ist der LiDAR - Lichtempfangssensor 1 in einem bestimmten Abstand zu dem Untergrund 21 angeordnet. Ausserdem ist eine Halterung 22 gezeigt, welche zur Aufnahme mehrerer Lichtsender 23, 24 dient. Daneben kann eine Vielzahl von anderen Lichtsendern angebracht werden, die zwar in der Figur 3 gezeigt, aber nicht weiter benannt sind.
Der Lichtsender 23 und der weitere Lichtsender 24 werden durch die Halterung in der gleichen Ebene gehalten. Das bedeutet in diesem Ausführungsbeispiel in einem gleichen Abstand zu dem Untergrund 20. Sie sind nebeneinander angeordnet. Das wiederum bedeutet, dass der Lichtsender 23 und der weitere Lichtsender 24 hier in einer Teilkreisform mit zentrischer Ausrichtung zum LiDAR - Lichtempfangssensor 1 angeordnet sind.
In den Figuren 4 bis 6 ist ein Teil der Figur 1 im Rahmen eines weiteren Ausführungsbeipiels gezeigt. Und zwar wird der LiDAR - Lichtempfangssensor 1 hier während der Simulation um 360° rotiert. Figur 4 zeigt einen Rotationskopf 23, in welchem der LiDAR - Lichtempfangssensor 1 mitrotieren aufgenommen ist. Ausserdem ist eine Achse 24 gezeigt, auf welcher der Rotationskopf 23 aufsitzt.
Daneben zeigen die beiden Rotationspfeile 26 die Rotationsrichtung in diesem Ausführungsbeispiel.
In Figur 5 ist eine Lichtsenderleiste 25 gezeigt. In der normalerweise zu dem Rotationskopf 23 zugewandten Seite der Lichtsenderleiste 25 ist gut zu erkennen, wie ein erster Lichtsender 27.1 angeordnet ist und wie zusätzliche andere erste Lichtsender 27.2, 27.3 unterhalb und oberhalb des zentralen ersten Lichtsenders 27.1 angeordnet sind. In Figur 6 ist eine Draufsicht auf eine erfindungsgemässe Simulationsvorrichtung gezeigt. Dort ist im Zentrum eines Lichtleistenzylinders 28 der Rotationskopf 23 gezeigt, welcher in Richtung des Rotationspfeils 26 rotiert.
Dabei besteht der Lichtleistenzylinder 28 aus der Lichtsenderleiste 25 und der weiteren Lichtsenderleiste 29 und weiteren nicht beschriebenen aber in der Figur 6 gezeigten Lichtsenderleisten, die gemeinsam den Kreis um den Rotationskopf 23 schliessen, um eine 360° - Umgebung simulieren zu können.
In den Figuren 7 und 8 ist ein drittes Auführungsbeil gezeigt. Dabei zeigt die Figur 7 die Ansicht von oben und die Figur 8 die geschnittene Seitenansicht. In den beiden Figuren ist wieder der Rotationskopf 23 gezeigt, welcher ebenfalls um 360° rotierend angeordnet ist.
Der Rotationskopf 23 ist in der Figur 7 von einem Lichtring 30 umgeben. Der Lichtring 30 kann in einem 3D-Druckverfahren aus Kunststoff hergestellt werden. Der Lichtring 30 besteht aus eine Vielzahl übereinanderliegender Ringe 31 .1 - 31 .9., welche voneinander lichtdicht abgeschirmt sind.
In der Figur 7 ist ausserdem eine Nullgradjustage 32 gezeigt. Bei Durchschreiten des Lichtempfangssensors 1 an der Nullgradjustage 32 wird dem Rechner das Signal des Durchschreitens der Nullgradjustage 32 mitgeteilt, sodass aufgrund der Rotationsgeschwindigeit des Rotationskopfes 23 und dem Zeitpunkt des Durchschreitens der Nullgradjustage 32 immer die genaue Position des Lichtempfangssensors 1 ermittelbar ist. Folglich kann die Position des Lichtempfangssensors 1 in Abhängigkeit der vergangenen Zeit seit Passieren der Nullgradjustage 32, und der Rotationsgeschwindigkeit ermittelt werden. Dies ist gerade in Abhängigkeit davon möglich, wenn ein Sender 33 ein Senderlicht hier in Form des Senderlichtpfeils 35 abstrahlt, wobei das Senderlicht im gesamten Lichtring 30 ausbreitet und sichtbar ist für den Lichtempfangssensor 1 . Bei der jeweiligen Position des Lichtempfangssensors 1 wird wiederum ein Empfängerrücksignal 36 abgesendet, welches von einem Empfänger 34 detektiert wird.
Auf diese Weise ist eine Detektion der Position und der Funktionstüchtigkeit des Lichtempfangssensors 1 ermittelbar.
Obwohl nur eine/einige bevorzugte Ausführungsbeispiel/e der Erfindung beschrieben und dargestellt wurde/n, ist es offensichtlich, dass der Fachmann zahlreiche Modifikationen hinzufügen kann, ohne Wesen und Umfang der Erfindung zu verlassen.
Bezugszeichenliste
1 LiDAR-Lichtempfangssensor
2 Radarsensor
3 Kamerasensor
4 Rechner
5 Radarsignalgeber
6 Linse
7 Lichtsender
8 Radarsignal
9 Lichtsignal
10 Kraftfahrzeug
1 1 Testbild
12 □ DAR - Lichtsender
13 Li DAR - Lichtmessystem
14 Photodetector
15 Verstärker
16 Komperator
17 Verzögerungsglied
18 LED - Treiber
19 LED
20 Optisches System
21 Untergrund
22 Halterung
23 Rotationskopf
24 Achse
25 Lichtsenderleiste
26 Rotationspfeil
27 Lichtsender
28 Lichtleistenzylinder
29 Weitere Lichtsenderleiste
30 Lichtring
31 Ring
32 Nullgradjustage
33 Sender
34 Empfänger
35 Senderlichtpfeil
36 Empfängerrücksignal

Claims

Patentansprüche
1 . Simulationsvorrichtung für eine Kraftfahrzeugüberwachung, wobei ein Radarsensor (2) und ein Kamerasensor (3) und ein LiDAR- Lichtempfangssensor (1 ) und ein Rechner (4) vorhanden ist, dadurch gekennzeichnet, dass der Radarsensor (2) über ein Radarsignalgeber ansteuerbar ist, und
der Kamerasensor (3) über eine Linse ansteuerbar ist, und
der LiDAR - Lichtempfangssensor (1 ) über einen Lichtsender (7, 12, 27.1 , 27.2, 27.3) ansteuerbar ist, wobei der Radarsignalgeber, die Linse und der Lichtsender (7, 12, 27.1 , 27.2, 27.3) in einem Zeitfenster von weniger als 50 ms den Radarsensor (2), den Kamerasensor (3) und den Lichtempfangssensor (1 ) synchron ansteuern.
2. Simulationsvorrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass der Radarsensor (2), der Kamerasensor (3) und der LiDAR - Lichtempfangssensor
(1 ) mit dem Rechner (4) verbunden sind.
3. Simulationsvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass der Radarsignalgeber (5), die Linse (6) und der Lichtsender (7, 12, 27.1 , 27.2, 27.3) mit dem Rechner (4) verbunden sind.
4. Simulationsvorrichtung nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass der Radarsignalgeber (5) durch den Rechner (4) aktivierbar ist, wobei durch den Rechner (4) ein erster Soll/Ist-Abgleich des Empfangs des Radarsensors (2) dürchführbar ist.
5. Simulationsvorrichtung nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Linse (6) mit dem Kamerasensor (3) in Wirkverbindung bringbar ist, wobei der Rechner (4) einen zweiten Soll/Ist- Abgleich der Fokussierung des Kamerasensors (3) durchführt.
6. Simulationsvorrichtung nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass der Lichtsender (7, 12, 27.1 , 27.2, 27.3) durch den Rechner (4) aktivierbar ist, wobei durch den Rechner (4) ein dritter Soll/Ist - Abgleich des Empfangs des LiDAR- Lichtempfangssensors (1 ) durchführbar ist.
7. Verfahren zur Simulation einer Detektionsumgebung für einen Radarsensor (2) und einen Kamerasensor (3) und einen LiDAR - Lichtempfangssensor (1 ), mit einem Lichtsender (7, 12, 27.1 , 27.2, 27.3), gekennzeichnet durch folgende Schritte:
- der Radarsensor (2) wird durch ein Radarsignal (8) des Radarsignalgebers (5) angesteuert;
- der Rechner (4) überwacht den Radarsignalgeber (5) und den Radarsensor (2);
- der Rechner (4) führt einen ersten SolMst-Abgleich durch;
- der Kamerasensor (3) wird durch eine Linse (6) angesteuert;
- der Rechner (4) überwacht die Linse (6) und den Kamerasensor (3);
- der Rechner (4) führt einen zweiten SolMst-Abgleich durch;
- der LiDAR - Lichtempfangssensor (1 ) wird durch ein Lichtsignal des Lichtsenders (7, 12, 27.1 , 27.2, 27.3) aktiviert;
- der LiDAR - Lichtempfangssensor (1 ) registriert das Lichtsignal (9);
- der Rechner (4) führt einen dritten SolMst-Abgleich durch, wobei - der Radarsignalgeber, die Linse und der Lichtsender (7, 12, 27.1 , 27.2, 27.3) steuern in einem Zeitfenster von weniger als 50 ms den Radarsensor (2), den Kamerasensor (3) und den Lichtempfangssensor (1 ) synchron an.
PCT/EP2018/063039 2017-05-18 2018-05-18 Simulationsvorrichung für eine kraftfahrzeugüberwachung WO2018211056A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/613,874 US11353551B2 (en) 2017-05-18 2018-05-18 Simulation device for monitoring a motor vehicle
EP18743396.6A EP3625585B1 (de) 2017-05-18 2018-05-18 Simulationsvorrichtung für eine kraftfahrzeugüberwachung
CN201880047234.8A CN111183366B (zh) 2017-05-18 2018-05-18 用于监控机动车的模拟装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102017110908.0 2017-05-18
DE102017110908 2017-05-18
DE102018111709.4A DE102018111709A1 (de) 2017-05-18 2018-05-16 Simulationsvorrichtung für eine Kraftfahrzeugüberwachung
DE102018111709.4 2018-05-16

Publications (1)

Publication Number Publication Date
WO2018211056A1 true WO2018211056A1 (de) 2018-11-22

Family

ID=62981162

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/063039 WO2018211056A1 (de) 2017-05-18 2018-05-18 Simulationsvorrichung für eine kraftfahrzeugüberwachung

Country Status (1)

Country Link
WO (1) WO2018211056A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021224254A1 (de) * 2020-05-05 2021-11-11 Robert Bosch Gmbh Testvorrichtung für einen aktiven optischen sensor
EP4060377A1 (de) * 2021-03-15 2022-09-21 dSPACE GmbH Vorrichtung und verfahren zur isolation eines triggersignals eines lidar-sensors sowie testsystem
DE102021108877A1 (de) 2021-04-09 2022-10-13 Horiba Europe Gmbh Laserprojektionsvorrichtung für LIDAR-Testsystem

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8368876B1 (en) * 2008-10-17 2013-02-05 Odyssey Space Research, L.L.C. Calibration system and method for imaging flash LIDAR systems
US20140036084A1 (en) 2011-04-18 2014-02-06 Magna Electronics, Inc. Vehicular camera with variable focus capability
DE102014217524A1 (de) 2014-09-02 2016-03-03 Maha Maschinenbau Haldenwang Gmbh & Co. Kg Prüfvorrichtung und Prüfanordnung
DE102014118625A1 (de) * 2014-12-15 2016-06-16 Valeo Schalter Und Sensoren Gmbh Sensoranordnung für einen Prüfstand eines Fahrerassistenzsystems eines Kraftfahrzeugs, Prüfstand sowie dazugehöriges Verfahren
US9575161B1 (en) * 2015-10-22 2017-02-21 Uniquesec Ab System for generating virtual radar signatures

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8368876B1 (en) * 2008-10-17 2013-02-05 Odyssey Space Research, L.L.C. Calibration system and method for imaging flash LIDAR systems
US20140036084A1 (en) 2011-04-18 2014-02-06 Magna Electronics, Inc. Vehicular camera with variable focus capability
DE102014217524A1 (de) 2014-09-02 2016-03-03 Maha Maschinenbau Haldenwang Gmbh & Co. Kg Prüfvorrichtung und Prüfanordnung
DE102014118625A1 (de) * 2014-12-15 2016-06-16 Valeo Schalter Und Sensoren Gmbh Sensoranordnung für einen Prüfstand eines Fahrerassistenzsystems eines Kraftfahrzeugs, Prüfstand sowie dazugehöriges Verfahren
US9575161B1 (en) * 2015-10-22 2017-02-21 Uniquesec Ab System for generating virtual radar signatures

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021224254A1 (de) * 2020-05-05 2021-11-11 Robert Bosch Gmbh Testvorrichtung für einen aktiven optischen sensor
EP4060377A1 (de) * 2021-03-15 2022-09-21 dSPACE GmbH Vorrichtung und verfahren zur isolation eines triggersignals eines lidar-sensors sowie testsystem
DE102021108877A1 (de) 2021-04-09 2022-10-13 Horiba Europe Gmbh Laserprojektionsvorrichtung für LIDAR-Testsystem
WO2022214240A1 (de) 2021-04-09 2022-10-13 Horiba Europe Gmbh Laserprojektionsvorrichtung für lidar-testsystem

Similar Documents

Publication Publication Date Title
EP3404441A1 (de) Simulationsvorrichtung für ein lidar-lichtmesssystem
EP3404442A1 (de) Simulationsvorrichtung für ein rotierendes lidar-lichtmesssystem
WO2018211056A1 (de) Simulationsvorrichung für eine kraftfahrzeugüberwachung
EP3374793A1 (de) Verfahren und vorrichtung zur optischen distanzmessung
EP3091369B1 (de) Laserscanner
EP0895604B1 (de) Verfahren und messeinrichtung zur bestimmung der lage eines objekts
DE102019106129A1 (de) Testeinheit und Verfahren zum Prüfen einer LIDAR-Einheit für ein Fahrzeug
EP2937715A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung von Messinformationen aus einem Überwachungsbereich
EP3203263A1 (de) Optoelektronischer sensor und verfahren zum erfassen von objekten
DE102013018547A1 (de) Verfahren und Einrichtung zur Ausrichtung eines optischen Abbildungssystems
DE202016005126U1 (de) Optische Vorrichtung
DE102013007886B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
EP3220164A1 (de) Verfahren zum betreiben eines abstandsmessenden überwachungssensors und überwachungssensor
DE102015217912A1 (de) Verfahren zur Laufzeitkalibrierung eines Lidarsensors
WO2019121435A1 (de) Optisches scansystem und verfahren zur kalibrierung des optischen scansystems
DE102018214140A1 (de) LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
EP3330741A1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten in einem erfassungsbereich
EP3625585B1 (de) Simulationsvorrichtung für eine kraftfahrzeugüberwachung
DE102009010460B4 (de) Vorrichtung und Verfahren zum Bestimmen der Nachlaufzeit einer Maschine
DE102017209259A1 (de) Lidarsystem
DE202014102335U1 (de) Sensorsystem
DE102013007859B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
EP2955543A1 (de) Prüfvorrichtung, Prüfanordnung und Verfahren zum Testen eines optischen Abstands- und Geschwindigkeitsmessers
WO2018215250A1 (de) Verfahren und vorrichtung zur objekterfassung und lidar-system
DE102019121552A1 (de) Prüfstand zum Test eines Lidar-Sensors

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18743396

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018743396

Country of ref document: EP

Effective date: 20191218