DE102009028578A1 - Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement - Google Patents

Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement Download PDF

Info

Publication number
DE102009028578A1
DE102009028578A1 DE102009028578A DE102009028578A DE102009028578A1 DE 102009028578 A1 DE102009028578 A1 DE 102009028578A1 DE 102009028578 A DE102009028578 A DE 102009028578A DE 102009028578 A DE102009028578 A DE 102009028578A DE 102009028578 A1 DE102009028578 A1 DE 102009028578A1
Authority
DE
Germany
Prior art keywords
detected
intensity
radiation
environment
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102009028578A
Other languages
German (de)
Inventor
Martin Mueller
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102009028578A priority Critical patent/DE102009028578A1/en
Publication of DE102009028578A1 publication Critical patent/DE102009028578A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

The method involves scanning a detection area of the periphery with a scanning beam (111A), and detecting a radiation. The intensity of the radiation of the scanning beam is detected as a function of the displacement. The threshold is provided for the amplitude of the intensity curve and is cohesive to the disturbance of the display requirements, if the provided threshold value exceeds over a predetermined displacement interval. An independent claim is also included for a device for periphery recognition with a lidar sensor.

Description

Stand der TechnikState of the art

Die Erfindung betrifft ein Verfahren für die Umfelderfassung mit einer Lidarsensorik nach dem Oberbegriff des Anspruchs 1. Unter Umfeld soll in diesem Zusammenhang insbesondere das Umfeld eines Fahrzeugs verstanden werden, das mit einer Lidarsensorik ausgerüstet ist. Unter Lidarsensorik soll im Rahmen der vorliegenden Erfindung die Sensoreinrichtung eines Fahrerassistenzsystems verstanden werden, die mindestens einen Lidarsensor umfasst (LIDAR = Light Detecting And Ranging). Insbesondere ist der Lidarsensor ein so genannter Laserscanner, mit dem das Umfeld punktweise abgetastet wird und aus der zurück gestreuten Strahlung die Position und die Entfernung von Objekten in dem Umfeld bestimmt werden können. Die Funktionsweise eines Lidarsensors ist abhängig von den herrschenden Witterungsbedingungen. So wirken sich Nebel, Regen, Schneeflocken und/oder aufspritzender Gischt mehr oder weniger stark auf die Ausbreitung des Laserlichts und damit auch auf die Rückstreuung des ausgesandten Lichtimpulses aus. Weiterhin können nasse oder matschige Oberflächen infolge ihrer geänderten Absorptions- und Reflexionseigenschaften die Detektionsleistung eingesetzter Sensoren nachteilig beeinflussen. Aus der Rückstreuintensität ausgesandter Lichtimpulse wird zwischen unterschiedlichen Objekten, wie beispielsweise einem aufrecht stehenden Körper oder der Oberfläche einer Straße, unterschieden. Witterungseinflüsse, wie beispielsweise Regen, werden durch das relative Verhalten zwischen benachbarten Messwerten (z. B. bei einem Laserscanner) sowie einem zeitlichen Tracking von Objekten von Objekten isoliert und geglättet. Zum Beispiel werden plötzlich auftretende Objekte, die sehr klein sind und zudem sehr nahe an einem Fahrzeug liegen, als Regentropfen interpretiert. Als grundlegendes Detektionsprinzip für eine Unterscheidung zwischen Objekten und Witterungseinflüssen wird für eine Klassifikation die Änderung der Signalintensität über der Zeit herangezogen.The The invention relates to a method for environment detection with a Lidarsensorik according to the preamble of claim 1. sub Environment should in this context, in particular the environment of a Vehicle understood to be equipped with a Lidarsensorik is. Under Lidarsensorik is intended in the context of the present invention the sensor device of a driver assistance system are understood, which comprises at least one lidar sensor (LIDAR = Light Detecting And Ranging). In particular, the Lidarsensor is a so-called Laser scanner with which the environment is scanned point by point and from the backscattered radiation the position and the Removal of objects in the environment can be determined. The operation of a lidar sensor depends on the prevailing weather conditions. This is how fog, rain, Snowflakes and / or sprayed spray more or less strong on the propagation of the laser light and thus also on the backscatter of the emitted light pulse. Furthermore, can wet or muddy surfaces as a result of their changed Absorption and reflection properties the detection performance used sensors adversely affect. From the backscatter intensity emitted light pulses is between different objects, such as an upright body or the surface of a road, distinguished. Weather; such as rain, are due to the relative behavior between adjacent measured values (eg with a laser scanner) as well as a temporal tracking of objects isolated from objects and smoothed. For example, suddenly appearing objects that are very small and also very close to a vehicle, as Raindrops interpreted. As a basic detection principle for a distinction between objects and weather conditions is for a classification the change of Signal intensity over time used.

Aus US 5 592 157 A sind eine Einrichtung und ein Verfahren für die Bestimmung der relativen Sichtbarkeit bekannt. Die Einrichtung umfasst einen Entfernungsmesser und einen in Abstand davon angeordneten Reflektor. Bei idealen Ausbreitungsbedingungen wird eine Messung durchgeführt und in einer Speichereinrichtung als Referenzwert gespeichert. Spätere Messungen werden mit dem gespeicherten Referenzwert verglichen, um Rückschlüsse auf die aktuellen Sichtverhältnisse zu ziehen. Bei schlechten Sichtbedingungen kann ein Warnsignal ausgegeben werden.Out US Pat. No. 5,592,157 A There is a known device and method for determining relative visibility. The device comprises a rangefinder and a reflector spaced therefrom. Under ideal propagation conditions, a measurement is taken and stored in a memory device as a reference value. Later measurements are compared with the stored reference value to draw conclusions about the current visibility. In poor visibility conditions, a warning signal can be output.

Aus US 5 489 982 A ist ein Verfahren für die Bestimmung der Sichtweite bekannt. Dazu wird die zurückgestreute Strahlung eines Lichtsignals erfasst und mit einer spezifischen Kurve verglichen. Der eventuell störende Effekt eines sich in Strahlausbreitungsrichtung befindlichen Hindernisses wird kompensiert.Out US 5,489,982 A a method for determining the visibility is known. For this purpose, the backscattered radiation of a light signal is detected and compared with a specific curve. The possibly disturbing effect of an obstacle located in the beam propagation direction is compensated.

Aus US 52066798 A ist eine Lidareinrichtung für die Messung atmosphärischer Störungen bekannt, die einen Sender für linear polarisierte Strahlung umfasst. Eine Empfangseinrichtung ist für den Empfang von Streustrahlung mit zwei Polarisationsrichtungen aus dem Bereich des Sendekonus ausgelegt. Weiterhin erfasst die Empfangseinrichtung Streustrahlung aus einem außerhalb des Sendekonus liegenden Raumwinkelbereich. Durch Auswertung der gestreuten Strahlung können Objekte in dem Ausbreitungsbereich und atmosphärische Störungen, wie beispielsweise Nebel, Regen, Schnee erfasst werden.Out US 52066798 A For example, a lidar device for the measurement of atmospheric disturbances is known which comprises a transmitter for linearly polarized radiation. A receiving device is designed for the reception of stray radiation with two polarization directions from the range of the transmission cone. Furthermore, the receiving device detects stray radiation from a solid angle range outside the transmission cone. By evaluating the scattered radiation, objects in the propagation area and atmospheric disturbances such as fog, rain, snow can be detected.

Aus GB 1150502 A ist ein Messsystem für die Messung der Sichtweite bekannt. Bei diesem Messsystem wird Laserimpuls ausgesandt. Der an der Atmosphäre reflektierte Laserimpuls wird empfangen und ausgewertet. Insbesondere werden ausgewertet, das Maximum des reflektierten Impulses, die Breite des reflektierten Impulses und die Gestalt der abfallenden Flanke des reflektierten Impulses.Out GB 1150502 A is a measuring system for measuring the visibility known. In this measuring system laser pulse is emitted. The reflected at the atmosphere laser pulse is received and evaluated. In particular, the maximum of the reflected pulse, the width of the reflected pulse and the shape of the falling edge of the reflected pulse are evaluated.

Nicht bekannt sind Verfahren, die lediglich aufgrund einer Änderung der Intensität auf das Vorhandensein eines Objekts schließen, sowie Verfahren, die interne Schwellwerte auf Basis verfügbarer Umfeldinformationen (wie zum Beispiel statische Objekte und/oder aktuelle Witterungsbedingungen) anpassen. Ebenso gibt es bisher keine Verfahren, die Messungen mehrerer Messstrahlen miteinander verrechnen.Not Known are methods that merely due to a change close the intensity to the presence of an object, and procedures, the internal thresholds based on available environment information (such as static objects and / or current weather conditions) to adjust. Likewise, there are currently no methods that measure several Compute measuring beams with each other.

Offenbarung der ErfindungDisclosure of the invention

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, das eine zuverlässige Umfelderfassung mit einer Lidarsensorik auch unter schlechten Witterungsbedingungen ermöglicht.Of the Invention has for its object to provide a method which a reliable environment detection with a Lidarsensorik even under bad weather conditions.

Diese Aufgabe wird durch das in Anspruch 1 genannte Verfahren gelöst. Die Erfindung bietet insbesondere den Vorteil, dass durch die witterungsabhängige Erfassung der Sichtweitenverhältnisse relevante Umfeldobjekte auch noch bei schwierigen Sichtverhältnissen, wie insbesondere Nebel, erkannt werden können. Weiterhin kann bei Störungen, wie Gischt oder dergleichen, die Gefahr von Fehlmessungen erkannt und durch eine Korrektur berücksichtigt werden. Zusätzlich kann die aktuell vorliegende Sichtweite erkannt werden. Auch ist die Erkennung der Art und Stärke von die Sicht beeinträchtigenden Niederschlägen möglich. Diese Information kann vorteilhaft für die Steuerung weiterer Bordsysteme eingesetzt werden. So können auf der Videosensorik basierende Funktionen eines Fahrerassistenzsystems in einen speziellen Modus, beispielsweise empfindlicher geschaltet werden. Alternativ kann, bei besonders schlechten Sichtbedingungen, die Videosensorik völlig abgeschaltet und ein entsprechender Hinweis für den Fahrer ausgegeben werden. Weiterhin können Nebelscheinwerfer automatisch ein- und ausgeschaltet und Wisch-Wasch-Anlagen besonders fein geregelt werden. Durch modellbasiertes Vorabwissen über das befahrene Umfeld und darin vorhandene Objekte können aktuelle Messdaten der Lidarsensorik noch gezielter ausgewertet werden. Dadurch kann die Detektionsgenauigkeit für unbekannte Objekte vorteilhaft gesteigert werden. Über die gemeinsame Steuerung mehrerer Abtaststrahlen und deren Konzentration auf ein potentielles Zielobjekt können die Detektionsreichweite und die Robustheit der Messungen gesteigert werden. Weitere Vorteile ergeben sich aus den Unteransprüchen, der Beschreibung und der Zeichnung.This object is achieved by the method mentioned in claim 1. In particular, the invention offers the advantage that environmental objects which are relevant due to the weather-dependent detection of the visibility ratios can also be detected even in difficult visibility conditions, such as, in particular, fog. Furthermore, in the case of disturbances, such as spray or the like, the risk of incorrect measurements can be recognized and taken into account by a correction. In addition, the current visibility can be detected. It is also possible to detect the type and intensity of rainfall affecting visibility. This information can be provided Partly used for the control of other on-board systems. Thus, functions based on the video sensor technology of a driver assistance system can be switched to a special mode, for example more sensitive. Alternatively, in particularly poor visibility conditions, the video sensor can be completely switched off and a corresponding note for the driver to be issued. Furthermore, fog lights can be switched on and off automatically and wiper-washing systems can be controlled very finely. Using model-based preliminary knowledge of the environment being traveled and the objects present in it, current measured data from lidar sensors can be evaluated even more purposefully. As a result, the detection accuracy for unknown objects can be advantageously increased. The joint control of several scanning beams and their concentration on a potential target object can increase the detection range and the robustness of the measurements. Further advantages emerge from the subclaims, the description and the drawing.

Ausführungsbeispiele der Erfindung werden im Folgenden unter Bezug auf die Zeichnung näher erläutert. Dabei zeigt:embodiments The invention will be described below with reference to the drawing explained in more detail. Showing:

1 die von einem Objekt zurück gestreute Strahlung bei idealen Witterungsbedingungen; 1 the radiation scattered back from an object in ideal weather conditions;

2 die von einem Objekt zurück gestreute Strahlung bei leichtem Nebel; 2 the radiation scattered back from an object in light fog;

3 die von einem Objekt zurück gestreute Strahlung bei dichtem Nebel; 3 the radiation scattered back from an object in dense fog;

4 die von einem Objekt zurück gestreute Strahlung bei idealen Witterungsbedingungen; 4 the radiation scattered back from an object in ideal weather conditions;

5 die von einem Objekt zurück gestreute Strahlung bei Gischt und Absorption an einem Fahrzeug; 5 the radiation scattered back from an object in the case of spray and absorption on a vehicle;

6 die von einem Objekt zurück gestreute Strahlung bei Gischt und weiterer Ausbreitung; 6 the radiation scattered back from an object in the case of spray and further propagation;

7 ein als Zielobjekt detektiertes Fahrzeug und durch Sternsymbole angedeutete Messstrahlen; 7 a vehicle detected as a target and measuring beams indicated by star symbols;

8 ein als Zielobjekt detektiertes, in Bewegung befindliches Fahrzeug und durch Sternsymbole angedeutete Messstrahlen; 8th a moving vehicle detected as a target object and measuring beams indicated by star symbols;

9 eine Seitenansicht auf einen Messstrahl und von diesem erfasste Ziele; 9 a side view of a measuring beam and detected by this goals;

10 das aufgrund der in 8 dargestellten Verkehrssituation zu erwartende Intensitätsbild der zurück gestreuten Strahlung; 10 that due to the in 8th illustrated traffic situation expected intensity image of the backscattered radiation;

11 das Intensitätsbild bei Vorhandensein eines weiteren Objekts; 11 the intensity image in the presence of another object;

12 eine Einrichtung für die Durchführung des Verfahrens; 12 a facility for carrying out the process;

13 eine Einrichtung mit Beleuchtung eines Ziels durch mehrere Abtaststrahlen; 13 a device with illumination of a target by a plurality of scanning beams;

14 ein Diagramm mit Darstellung der reflektierten Intensität als Funktion der Entfernung; 14 a diagram showing reflected intensity as a function of distance;

15 das in 14 dargestellte Diagramm mit zusätzlichen Schwellwerten; 15 this in 14 illustrated diagram with additional thresholds;

16 ein Diagramm mit einem erhöhten Schwellwert; 16 a diagram with an increased threshold;

17 ein Diagramm mit einem abgesenkten Schwellwert; 17 a diagram with a lowered threshold;

18 ein Diagramm mit drei in unterschiedlichen Entfernungen detektierten Objekten. 18 a diagram with three objects detected at different distances.

Die in 1 dargestellte Kurve (Intensitätskurve) zeigt den Intensitätsverlauf der an einem Objekt in dem Umfeld eines Egofahrzeugs zurück gestreuten Strahlung bei idealen Witterungsbedingungen. Angenommen ist, dass das Fahrzeug mit einer Lidarsensorik ausgestattet ist, die mindestens einen Lichtsender und mindestens einen Lichtempfänger umfasst. Der Lichtsender (Laser) emittiert Strahlung, die auf das genannte Objekt trifft, von diesem Objekt reflektiert wird und von dem Lichtempfänger der Lidarsensorik erfasst wird. In der in 1 abgebildeten Kurve ist die Intensität IR der zurückgestreuten Strahlung als Funktion der Entfernung D dargestellt. Bei den hier unterstellten idealen Ausbreitungsbedingungen für die Strahlung wird die reflektierte Strahlung in Form des in 1 dargestellten kurzen Pulses zurückgeworfen, der beispielsweise bei einem beliebig wählbaren Amplitudenwert, beispielsweise bei der Hälfte des Maximalwerts, die Breite B habe. Dieser Wert B kann zweckmäßig als Referenzwert für die Feststellung von Änderungen der Impulsform benutzt werden, um beispielsweise wittererungsbedingte Einflüsse zu erfassen. Aus dem dargestellten Kurvenverlauf kann geschlossen werden, dass sich in der Entfernung D1 von dem Lidarsensor ein die Strahlung reflektierendes Objekt befindet.In the 1 illustrated curve (intensity curve) shows the intensity profile of the backscattered at an object in the environment of an ego vehicle radiation in ideal weather conditions. It is assumed that the vehicle is equipped with a Lidarsensorik comprising at least one light emitter and at least one light receiver. The light emitter (laser) emits radiation which impinges on said object, is reflected by this object and is detected by the light receiver of the lidar sensor system. In the in 1 The curve IR depicted represents the intensity IR of the backscattered radiation as a function of the distance D. With the ideal propagation conditions for the radiation assumed here, the reflected radiation in the form of the in 1 reflected back, for example, at an arbitrarily selectable amplitude value, for example at half of the maximum value, the width B have. This value B can be suitably used as a reference value for the detection of changes in the pulse shape, for example to detect weather-related influences. From the illustrated curve, it can be concluded that a radiation-reflecting object is located at the distance D1 from the lidar sensor.

Die Darstellung in 2 gibt die Situation bei verschlechterten Sichtbedingungen, etwa bei leichtem Nebel, wieder. Hier erreicht den Lichtempfänger der Lidarsensorik von Anfang an, bzw. schon von geringer Entfernung von der Sendestelle beginnend, eine gewisse Menge an Streustrahlung. Das in einer bestimmten Entfernung D1 befindliche Objekt kann immer noch einigermaßen sicher durch die vergleichsweise höhere Amplitude der Streustrahlung erkannt werden, die von dem in der Entfernung D1 befindlichen Objekt reflektiert worden ist. Die dargestellte Kurve kann dadurch erfasst und ausgewertet werden, dass die Intensität IR der zurückgestreuten Strahlung eines Abtaststrahls als Funktion der Entfernung erfasst wird, und dass weiterhin ein Schwellwert für die Amplitude der Intensitätskurve vorgegeben wird. Beispielsweise wird ein Schwellwert IR1 vorgegeben, wie in 2 dargestellt. Wenn nun entlang eines Abtaststrahls die zurückgestreute Intensität IR als Funktion der Entfernung D von dem Sendeort erfasst wird, zeigt sich, dass der vorgegebene Grenzwert IR1 über einen größeren Entfernungsbereich überschritten wird, wobei der betrachtete Entfernungsbereich bereits an der Sendestelle beginnt. Dieser Entfernungsbereich ist zudem größer als die in 1 dargestellte Breite B. Aus diesem Messergebnis lässt sich ableiten, dass eine atmosphärische Störung vorliegt, die die Ausbreitung des Abtaststrahls über einen längeren Teil seines Ausbreitungswegs beeinflusst und insbesondere zu einer erhöhten Rückstreuung aus allen Entfernungsbereichen führt. Bei der die Sichtweite beeinträchtigenden atmosphärischen Störung kann es sich beispielsweise um Dunst, leichten Nebel, Schnee, Regen oder dergleichen handeln.The representation in 2 gives the situation in deteriorated visibility conditions, such as in light fog, again. Here, the light receiver of the Lidarsensorik reached from the beginning, or even starting from a small distance from the transmitting station, a certain amount of scattered radiation. The object located at a certain distance D1 can still be reasonably safe due to the comparatively higher amplitude of the scattered radiation which has been reflected by the object located at the distance D1. The illustrated curve can be detected and evaluated by detecting the intensity IR of the backscattered radiation of a scanning beam as a function of the distance, and furthermore by prescribing a threshold value for the amplitude of the intensity curve. For example, a threshold value IR1 is specified, as in FIG 2 shown. If, along a scanning beam, the backscattered intensity IR is detected as a function of the distance D from the transmission location, it turns out that the predetermined limit value IR1 is exceeded over a larger distance range, the range of distances under consideration already starting at the transmission location. This distance range is also larger than the in 1 shown width B. From this measurement result can be derived that there is an atmospheric disturbance, which influences the propagation of the scanning beam over a longer part of its propagation path and in particular leads to an increased backscatter from all distance ranges. The visual disturbance affecting the atmospheric disturbance may be, for example, mist, light fog, snow, rain or the like.

3 zeigt die Situation bei sehr schlechten Sichtbedingungen, beispielsweise bei dichtem Nebel. Bei allen Messstrahlen ist hier schon aus geringer Entfernung ein noch höherer Anteil an zurückgestreuter Strahlung zu finden, der den vorgegebenen Schwellwert IR1 weit übersteigt. Die Rückstreuung stammt auch aus einem Entfernungsbereich, dessen Länge die oben erläuterte Breite B weit übersteigt. Aus den Rückstreuwerten kann auf die Dichte des Nebels geschlossen werden. Je dichter der Nebel ist, desto stärker ist die Intensität der zurückgestreuten Strahlung. Die Messwerte können vorteilhaft für eine entsprechende Anpassung von Detektionsschwellen in der Lidarsensorik verwendet werden. Dies wird weiter unten mit Bezug auf 14 bis 17 erläutert. Die Position eines in der Entfernung D1 befindlichen Objekts kann durch das plötzliche Absinken der Intensität der zurückgestreuten Strahlung erkannt werden, die aus einer Entfernung größer D1 empfangen wird. 3 shows the situation in very poor visibility conditions, for example in dense fog. For all measuring beams, an even higher proportion of backscattered radiation can be found from a small distance, which far exceeds the predetermined threshold value IR1. The backscatter also comes from a distance range whose length far exceeds the width B explained above. From the backscatter values it is possible to deduce the density of the mist. The denser the fog, the stronger the intensity of the backscattered radiation. The measured values can advantageously be used for a corresponding adaptation of detection thresholds in the lidar sensor system. This will be further below with reference to 14 to 17 explained. The position of an object located at the distance D1 can be detected by the sudden decrease in the intensity of the backscattered radiation received from a distance greater than D1.

Anhand der Darstellungen in 4, 5 und 6 wird im Folgenden die Situation bei durch Gischt oder Ähnliches verschlechterten Sichtbedingungen dargestellt. Gischt wird beispielsweise durch Fahrzeuge erzeugt, die im Vorbeifahren auf der Fahrbahn vorhandenes Wasser aufwirbeln und zerstäuben. Die Gischtwolke ist in ihrer Ausdehnung begrenzt und umgibt im Wesentlichen das fahrende Fahrzeug. Nach Passieren des Fahrzeugs sinken aufgewirbelte Wassertröpfchen zurück auf den Boden und die zunächst an diesem Ort erzeugte Gischtwolke löst sich demzufolge wieder auf. Zum Vergleich zeigt 4 nochmals, wie schon 1, den Intensitätsverlauf der an einem Objekt in dem Umfeld des Fahrzeugs zurück gestreuten Strahlung bei idealen Witterungsbedingungen. Die in 5 dargestellte Kurve entspricht einer Situation, bei der der Abtaststrahl der Lidarsensorik sich zunächst durch aufgewirbelte Gischt hindurch ausbreitet und dann auf ein Objekt trifft, an dem er reflektiert wird. Die reflektierte Strahlungsintensität steigt im Wesentlichen kontinuierlich bis zu einem Maximalwert bei der Entfernung D1 an und fällt danach steil ab. Für ein Entfernungsintervall DE-DA übersteigt die aus diesem Entfernungsbereich zurückgestreute Intensität einen vorgegebenen Schwellwert IR2. Dieses Entfernungsintervall hat eine Breite B1, die größer ist als die in 4 dargestellte Breite B. Daraus kann geschlossen werden, dass eine die Ausbreitung und Rückstreuung des Abtaststrahls beeinflussende Störung sich über einen längeren Bereich des Ausbreitungswegs des Abtaststrahls erstreckt, jedoch lokal begrenzt ist. Die lokale Begrenzung lässt sich auch noch dadurch verifizieren, dass im Nahbereich des Sendeorts keine Störung feststellbar ist. Aus dem steilen Abfall der reflektierten Intensität bei Entfernungen größer als D1 kann wiederum auf die Anwesenheit eines reflektierenden Objekts etwa in der Entfernung D1 geschlossen werden. Da die Störung mit der Breite B1 in der 4 Nachbarschaft des in der Entfernung D1 befindlichen Objekts festgestellt wird, kann geschlossen werden, dass es sich um eine durch das Objekt selbst verursachte Störung handelt. Sofern sich das Störgebiet mit dem sich bewegenden Objekt bewegt, kann diese Annahme noch verifiziert werden. Bei entsprechenden Witterungsbedingungen, wie zum Beispiel Nässe auf der Fahrbahn, spricht die Wahrscheinlichkeit dafür, dass die Störung durch eine Gischtwolke verursacht ist, die durch ein sich bewegendes Objekt aufgewirbelt worden ist.Based on the illustrations in 4 . 5 and 6 In the following, the situation is shown in view of conditions deteriorated by spray or the like. Spray is generated, for example, by vehicles which stir up and atomise existing water as it passes on the road. The spray cloud is limited in extent and essentially surrounds the moving vehicle. After passing the vehicle, whirled up water droplets sink back to the ground and the spray cloud initially generated at this location dissolves again accordingly. For comparison shows 4 again, as already 1 , The intensity profile of the backscattered at an object in the environment of the vehicle radiation in ideal weather conditions. In the 5 The curve shown corresponds to a situation in which the scanning beam of Lidarsensorik first propagates through whirled spray and then encounters an object on which it is reflected. The reflected radiation intensity increases substantially continuously up to a maximum value at the distance D1 and then drops steeply. For a distance interval DE-DA, the intensity scattered back from this distance range exceeds a predetermined threshold value IR2. This range interval has a width B1 that is greater than that in 4 shown width B. It can be concluded that a propagation and backscatter of the scanning interfering disturbance extends over a longer range of the propagation path of the scanning beam, but is locally limited. The local limitation can also be verified by the fact that no disturbance can be detected in the vicinity of the transmission location. From the steep drop of the reflected intensity at distances greater than D1, it is possible in turn to deduce the presence of a reflecting object approximately at the distance D1. Since the perturbation having the width B1 is detected in the vicinity of the object located at the distance D1, it can be concluded that it is a perturbation caused by the object itself. If the fault area moves with the moving object, this assumption can still be verified. In appropriate weather conditions, such as wetness on the road, the likelihood that the disturbance is caused by a spray cloud that has been whirled up by a moving object speaks for itself.

Die in 6 dargestellte Kurve entspricht einer Situation, bei der der Abtaststrahl nur auf Gischt trifft. Die Kurve zeigt nur ein vergleichsweise flaches Maximum, also eine höhere Intensität der zurückgestreuten Strahlung über einen größeren Entfernungsbereich DE-DA, der eine Breite B2 aufweist, die die Breite B in 4 übersteigt. Da keine stärkere Reflexion an einem im Gischt verborgenen Objekt erfolgt, kann unterstellt werden, dass es sich um eine lokale Störung handelt, die beispielsweise durch ein vorbei fahrendes Fahrzeug verursacht worden ist.In the 6 The curve shown corresponds to a situation in which the scanning jet only encounters spray. The curve shows only a comparatively flat maximum, ie a higher intensity of the backscattered radiation over a larger distance range DE-DA, which has a width B2 which is the width B in 4 exceeds. Since no stronger reflection takes place on an object hidden in the spray, it can be assumed that this is a local disturbance that has been caused, for example, by a passing vehicle.

7 verdeutlicht weiter die schon zuvor anhand der 5 und 6 beschriebene Situation. Dargestellt ist die Heckansicht eines vor dem Egofahrzeug fahrenden und von einer Gischtwolke 70 eingehüllten Fahrzeugs 71. Durch die Sternsymbole sind Abtaststrahlen 72.1,72.2, 72.3, 72.4, 72.5, 72.6 des Lidarsensors des Egofahrzeugs angedeutet, die auf die Gischtwolke 70 und/oder das Fahrzeug 71 auftreffen und dort reflektiert werden. Dabei ergeben die die Gischtwolke 70 und das Fahrzeug 71 treffenden Abtaststrahlen 72.3 und 72.4 die in 5 dargestellte Kurve. Die lediglich auf die Gischtwolke auftreffenden Abtaststrahlen 72.1, 72.2, 72.5 und 72.6 führen zu der in 6 Kurve. Bei einem Lidarsensor mit entsprechender Auflösung wird es immer Abtaststrahlen 72.3, 72.4 (im Folgenden auch „Zentralstrahlen” genannt) geben, die von Abtaststrahlen wie 72.1, 72.2, 72.5 und 72.6 (im Folgenden auch „Randstrahlen” genannt) umrandet sind. Bei der Auswertung der von den Abtaststrahlen ausgehenden Reflexionen kann anhand der Kurven gemäß 5 und 6 festgestellt werden, ob der Abtaststrahl an einem von Gischt umgebenen Objekt, wie hier dem Fahrzeug 71 oder nur an einer Gischtwolke reflektiert wird. Durch Kombination, insbesondere Subtraktion, der Reflexionswerte der Abtaststrahlen 72.3, 72.4 und 72.12, 72.2, 72.5, 72.6 kann, zumindest näherungsweise, die ideale Messkurve gemäß 4 abgeleitet werden. Die Breite eines Objekts kann somit dadurch relativ genau bestimmt werden, dass Abtaststrahlen knapp neben dem Objekt, die also im Wesentlichen nur ein Gischtsignal enthalten, nicht zu der Objektbreite hinzugerechnet werden. Als Erkennungsmöglichkeit dienen ein Fehlen der abfallenden Flanke und/oder eine schwächere Gesamtintensität und/oder eine flachere ansteigende Flanke und/oder eine flachere abfallende Flanke. Um die Entfernung eines Objekts möglichst genau bestimmen zu können, kann zweckmäßig der Intensitätsverlauf von als Randstrahl erkannter Strahlen von dem Intensitätsverlauf der das Objekt treffenden und an diesem reflektierten Strahlen abgezogen werden. In dem auf diese Weise korrigierten Signalverlauf können sowohl die ansteigende Flanke als auch die abfallende Flanke als auch der Maximalwert des Signals als korrigierter Entfernungswert verwendet werden. Die Erkennung und Unterscheidung von Randstrahlen und Zentralstrahlen kann vorteilhaft noch dadurch verbessert werden, dass die reflektierte Intensität IR benachbarter Strahlen daraufhin geprüft wird, ob sie auf einem Intervall einen vorgegebenen Differenzwert oder einen vorgegebenen Prozentualwert über- oder unterschreitet. Störungen, die nur in manchen Strahlen auftreten, können vorteilhaft auch dadurch reduziert werden, dass die Strahlintensitäten der reflektierten Strahlung einzelner Strahlen durch logische Verknüpfungen miteinander verbunden werden. Beispielsweise durch eine UND- oder eine ODER-Verknüpfung, eine Multiplikation oder eine Addition. Auf diese Weise können Störungen entweder ganz ausgeblendet oder zumindest derart reduziert werden, dass die Erkennung eines Objekts nicht weiter behindert wird. Bei Erfassung eines Objektws kann die vom Sensor erfasste und weitergeleitete Datenmenge vorteilhaft dadurch reduziert werden, dass zusätzlich zu der Objektentfernung die Breite eines Objekts lediglich durch die Winkelangaben der Strahlen übermittelt wird, die jeweils die linke und rechte Kante des Objekts berühren. 7 further clarifies the already before on the basis of 5 and 6 described situation. Shown is the rear view of a driving in front of the ego vehicle and a spray cloud 70 enveloped vehicle 71 , The star symbols are scanning beams 72.1 . 72.2 . 72.3 . 72.4 . 72.5 . 72.6 of the lidar sensor of the ego vehicle indicated on the spray cloud 70 and / or the vehicle 71 hit and reflected there. In doing so result the the spray cloud 70 and the vehicle 71 meeting scanning beams 72.3 and 72.4 in the 5 illustrated curve. The only incident on the spray cloud scanning beams 72.1 . 72.2 . 72.5 and 72.6 lead to the in 6 Curve. With a lidar sensor with appropriate resolution, it will always be scanning 72.3 . 72.4 (hereinafter also called "central rays"), which are provided by scanning beams such as 72.1 . 72.2 . 72.5 and 72.6 (also referred to below as "marginal rays") are outlined. When evaluating the reflections emanating from the scanning beams, it is possible to use the curves in accordance with FIG 5 and 6 be determined whether the scanning beam on an object surrounded by spray, as here the vehicle 71 or reflected only on a spray cloud. By combination, in particular subtraction, of the reflection values of the scanning beams 72.3 . 72.4 and 72.12 . 72.2 . 72.5 . 72.6 can, at least approximately, the ideal trace according to 4 be derived. The width of an object can thus be determined relatively accurately by the fact that scanning beams close to the object, which essentially contain only one gating signal, are not added to the object width. The detection possibility is a lack of the falling edge and / or a weaker overall intensity and / or a flatter rising edge and / or a flatter falling edge. In order to be able to determine the distance of an object as accurately as possible, it is expedient to subtract the intensity profile of rays detected as marginal rays from the intensity profile of the rays striking the object and reflected therefrom. In the waveform corrected in this way, both the rising edge and the falling edge and the maximum value of the signal can be used as the corrected distance value. The recognition and differentiation of marginal rays and central rays can advantageously be further improved by checking the reflected intensity IR of adjacent rays as to whether it exceeds or falls below a predetermined difference value or a predetermined percentage value over an interval. Disturbances which only occur in some of the beams can advantageously also be reduced by connecting the beam intensities of the reflected radiation of individual beams to one another by logic operations. For example, by an AND or an OR, a multiplication or an addition. In this way, disturbances can either be completely blanked out or at least reduced in such a way that the recognition of an object is not hindered further. Upon detection of an object, the amount of data detected and relayed by the sensor can advantageously be reduced by transmitting, in addition to the object distance, the width of an object only by the angle information of the beams touching the left and right edges of the object.

Durch die Beobachtung der zeitlichen Veränderung dieser Zentral- und Randstrahlen kann dann auch vorteilhaft auf die Anwesenheit eines sich bewegenden Objekts in dem Umfeld des Egofahrzeugs geschlossen werden. Dies wird im Folgenden beispielhaft unter Bezug auf 8 erläutert. 8 zeigt wiederum ein von einer Gischtwolke 70 eingehülltes Fahrzeug 71 in Heckansicht, das sich zum Zeitpunkt t1 an der Position P1 und zum Zeitpunkt t2 an der Position P2 befindet. Die Position P1 entspricht dabei der in 7 dargestellten Position des Fahrzeugs 71. In der Position P1 wird das Fahrzeug 71 von den Zentralstrahlen 72.3, 72.4 erfasst, die entsprechend ein an dem Fahrzeug 71 zurückgestreutes Signal liefern. Dagegen tragen die Strahlen 72.1, 72.2 72.5, 72.6 und 72.7 nicht zu dem durch das Objekt verursachten Streuanteil bei, da sie nicht auf das Fahrzeug 71 auftreffen. Zum Zeitpunkt t2 befindet sich das Fahrzeug 71 an der Position P2. Jetzt sind die Strahlen 72.5 und 72.6 Zentralstrahlen in dem oben beschriebenen Sinn, da sie auf das Fahrzeug 71 an der Position P2 auftreffen und von diesem reflektiert werden. Dagegen sind jetzt die Strahlen 72.1, 72.2, 72.3, 72.4 und 72.7 Randstrahlen in dem oben definierten Sinn, da sie nicht auf das Fahrzeug 71 auftreffen und demzufolge nicht an diesem reflektiert werden. Durch die Beobachtung der zeitabhängigen Änderungen der Reflexionsbeiträge der einzelnen Abtaststrahlen kann somit festgestellt werden, dass das Fahrzeug 71 sich von Position P1 auf Position P2 fortbewegt hat.By observing the temporal change of these central and marginal rays, the presence of a moving object in the environment of the ego vehicle can then also be advantageously concluded. This will be exemplified below with reference to 8th explained. 8th again shows one of a spray cloud 70 wrapped vehicle 71 in the rear view, which is at the position P1 at the time t1 and at the position P2 at the time t2. The position P1 corresponds to the in 7 shown position of the vehicle 71 , In position P1 becomes the vehicle 71 from the central rays 72.3 . 72.4 recorded accordingly to the vehicle 71 provide backscattered signal. By contrast, the rays carry 72.1 . 72.2 72.5 . 72.6 and 72.7 not to the amount of scatter caused by the object, as it does not affect the vehicle 71 incident. At time t2 is the vehicle 71 at position P2. Now the rays are 72.5 and 72.6 Central rays in the sense described above, as they affect the vehicle 71 at the position P2 and reflected by this. The rays are against it now 72.1 . 72.2 . 72.3 . 72.4 and 72.7 Edge rays in the sense defined above, as they are not on the vehicle 71 and therefore not reflected on it. By observing the time-dependent changes in the reflection contributions of the individual scanning beams can thus be determined that the vehicle 71 has moved from position P1 to position P2.

Sind Einzelheiten des Umfelds, sowie die jeweilige Position und die Abmessungen darin befindlicher Objekte bereits bekannt, dann kann eine noch präzisere Messung bzw. verbesserte Erkennungsgenauigkeit durch Zugrundelegung eines Umfeldmodells erreicht werden. Das Umfeldmodell kann beispielsweise auf Daten digitaler Karten und/oder zu einem früheren Zeitpunkt gewonnenen Messwerten einer Umfeldsensorik aufgebaut sein. Mit Hilfe dieses Umfeldmodells kann an einer beliebigen Position eines Egofahrzeugs in dem bekannten Umfeld eine aufgrund der dort vorhandenen Objekte zu erwartende Reflexionskurve abgeleitet werden. Die erwartete Intensität der rückgestreuten Strahlung könnte anhand von Kartendaten (also als ortsfeste Information), aus Informationen anderer Sensoren oder mit Hilfe von Informationen aus vorherigen Sensormessungen berechnet werden. Eventuell hat man beispielsweise in einer zuvor stattgefundenen Messung, die beispielsweise eine Sekunde vorher stattgefunden hat, ein Objekt im Abstand von etwa 8 m mit einer bestimmten Geschwindigkeit bekannt. Dann könnte man dieses zuvor erfasste Objekt bei einer späteren Messung, die beispielsweise eine Sekunde später stattfindet, etwa in einem Abstand von 7 m erwarten. Hieraus kann also eine Hypothese oder Prognose erstellt werden. Im Idealfall würde das Fahrerassistenzsystem melden, dass die Hypothese korrekt war. Es könnten aber auch nur Korrekturen gemeldet werden, wie zum Beispiel, dass der Abstand bei der zweiten Messung nicht 7 m, sondern 7,30 m beträgt. Das führt zu einer Datenkompression. Man überträgt die Änderungen zwischen aufeinander folgenden Messungen und begrenzt damit die Datenmenge. Entsprechend kann nicht nur die Änderung zwischen zwei Messungen; sondern auch die Änderung zwischen einer Prognose und einer Messung übertragen werden. Dies wird im Folgenden anhand der Darstellungen in 9, 10 und 11 erläutert. In 9 ist mit Bezugsziffer 93 ein Egofahrzeug bezeichnet, das ein Fahrerassistenzsystem mit einer Lidarsensorik aufweist. Der hier breit gefächert dargestellte Abtaststrahl des Lidarsystems trägt die Bezugsziffer 91. Mit 92 ist ein bekanntes Objekt in dem bekannten Umfeld bezeichnet. Beispielsweise kann es sich um eine Wegbegrenzung oder dergleichen handeln. Mit 90 ist ein von dem Abtaststrahl 91 der Lidarsensorik des Egofahrzeugs 93 erfasstes Fremdfahrzeug bezeichnet. Aufgrund der in 9 dargestellten Situation ergibt sich der in 10 dargestellte Verlauf der Intensität IR der reflektierten Strahlung der Abtaststrahlen. Aufgrund des herangezogenen Umfeldmodells ist mit einem Reflexionsmaximum M82 in der Entfernung D1 zu rechnen, das von dem bekannten Objekt 92 herrührt. Ein zweites Maximum M90.1 stammt von der Reflexion des Abtaststrahls 91 an der Front 90.1 des Fahrzeugs 90. Ein drittes Maximum M90.2 stammt von einer Reflexion des Abtaststrahls 91 an der Windschutzscheibe 90.2 des Fahrzeugs 90. Treten stärkere Abweichungen zwischen den auf Grundlage des Umfeldmodells erwarteten Reflexionswerten und den aktuellen Messwerten auf, so kann direkt auf ein weiteres, aus dem Umfeldmodell nicht bekanntes Objekt geschlossen werden. Eine derartige Situation ist anhand der in 11 dargestellten Kurve verdeutlicht. Eine Reflexion mit dem Maximum M100 stammt von einem neu detektierten Objekt in der Entfernung D0, das in dem Umfeldmodell noch nicht berücksichtigt ist. Vorteilhaft bei der Zugrundelegung eines Umfeldmodells ist, dass bei der Verarbeitung der Messwerte nur ggf. auftretende Änderungen zu dem aufgrund des Umfeldmodells erwarteten Verlauf berücksichtigt werden müssen. In 11 sind 4 Peaks oder Maxima zu erkennen. Es müssen jedoch lediglich noch die Signalwerte für das neu aufgetretene Objekt mit dem Maximum M100 übertragen und verarbeitet werden. Für die weiteren aus dem Umfeldmodell bekannten Objekte reicht ein einziges Bit für die weitere Verarbeitung aus, das angibt, ob diese Objekte an dem erwarteten Ort vorhanden sind oder nicht.If details of the environment, as well as the respective position and the dimensions of objects therein are already known, then an even more precise measurement or improved recognition accuracy can be achieved by using an environment model. The environment model can be constructed, for example, on data from digital maps and / or measured values obtained from an environment sensor system at an earlier point in time. With the aid of this environment model, a reflection curve to be expected on the basis of the objects present there can be derived at any position of an ego vehicle in the known environment. The expected intensity of the backscattered radiation could be calculated from map data (that is, stationary information), information from other sensors, or information from previous sensor measurements. Eventually, for example, in an earlier measurement, which took place, for example, one second before, an object at a distance of about 8 m has been known at a certain speed. Then you could expect this previously detected object at a later measurement, which takes place, for example, a second later, approximately at a distance of 7 m. From this a hypothesis or prognosis can be created. Ideally, the driver assistance system would report that the hypothesis was correct. It However, only corrections could be reported, such as that the distance in the second measurement is not 7 m, but 7.30 m. This leads to data compression. It transfers the changes between successive measurements, limiting the amount of data. Accordingly, not only the change between two measurements; but also the change between a forecast and a measurement are transmitted. This is explained below with reference to the illustrations in 9 . 10 and 11 explained. In 9 is with reference number 93 an ego vehicle, which has a driver assistance system with a Lidarsensorik. The scanning beam of the lidar system shown here in a wide range bears the reference number 91 , With 92 is a known object referred to in the known environment. For example, it may be a travel limit or the like. With 90 is one of the scanning beam 91 the Lidarsensorik of the ego vehicle 93 detected foreign vehicle referred. Due to the in 9 shown situation results in 10 illustrated course of the intensity IR of the reflected radiation of the scanning beams. Due to the environment model used, a reflection maximum M82 at the distance D1 is to be expected, that of the known object 92 arises. A second maximum M90.1 originates from the reflection of the scanning beam 91 at the frontline 90.1 of the vehicle 90 , A third maximum M90.2 comes from a reflection of the scanning beam 91 on the windshield 90.2 of the vehicle 90 , If stronger deviations occur between the reflection values expected on the basis of the environment model and the current measured values, then it is possible to deduce directly from another object not known from the environment model. Such a situation is based on the in 11 illustrated curve illustrates. A reflection with the maximum M100 comes from a newly detected object in the distance D0, which is not yet included in the environmental model. An advantage of using an environment model is that when processing the measured values, only any changes that may occur must be taken into account for the course that is expected based on the environment model. In 11 There are 4 peaks or maxima. However, only the signal values for the newly occurred object with the maximum M100 have to be transmitted and processed. For the other objects known from the environment model, a single bit is sufficient for further processing, which indicates whether or not these objects are present at the expected location.

Es gibt mehrere Möglichkeiten der Ausgestaltung. Denkbar ist zum Beispiel, dass ein Steuergerät in dem Egofahrzeug der Lidarsensorik eine Beschreibung des Umfelds übermittelt, die Daten von Objekten, wie Position, Richtung, Geschwindigkeit umfasst. Weiterhin können durch andere Sensoren erfasste Witterungsbedingungen bereitgestellt werden. Die Lidarsensorik kann dann daraus für jeden Abtaststrahl die zu erwartende Intensitätsverteilung ermitteln. Da das erwähnte Steuergerät die identische Vorhersage umsetzen kann, müssen nur noch die von der Lidarsensorik gemessenen Abweichungen über eine die Lidarsensorik mit dem Steuergerät verbindende Datenleitung übertragen werden. Dadurch kann vorteilhaft auch ein einfacher, nur einzielfähiger Sensor in einer Situation mit mehreren zu erfassenden Objekten eingesetzt werden. Dies wird noch weiter unten unter Bezug auf 18 erläutert.There are several options for the design. It is conceivable, for example, that a control device in the ego vehicle of the lidar sensor system transmits a description of the environment which comprises data of objects such as position, direction, speed. Furthermore, weather conditions detected by other sensors can be provided. The lidar sensor can then determine the expected intensity distribution for each scanning beam. Since the mentioned control unit can implement the identical prediction, only the deviations measured by the lidar sensor system have to be transmitted via a data line connecting the lidar sensor system to the control unit. As a result, it is advantageously also possible to use a simple, only single-capable sensor in a situation with several objects to be detected. This will be discussed further below with reference to 18 explained.

Die aus dem Umfeldmodell ableitbaren Informationen über das Umfeld und dort anzutreffende Objekte können vorteilhaft auch zu einer Reichweitensteigerung eingesetzt werden. Hierzu werden, wie in 12 dargestellt, mehrere Abtaststrahlen 121a, 122a, 123a von verschiedenen, möglichst weit voneinander entfernt angeordneten Sendeorten 121, 122, 123 auf ein Objekt 120 gerichtet, dessen Position aus dem Umfeldmodell bekannt ist. Alternativ kann, bei Ausstattung eines Fahrzeugs mit entsprechenden zusätzlichen Sensoren, wie beispielsweise einem Videosystem, einem Radarsystem und/oder einem C2X-System, die Position eines relevanten Objekts auch durch diese Systeme erfasst werden. Die Abtaststrahlen der Lidarsensorik können dann vorteilhaft auf das von einem anderen Sensorsystem bereits erkannte Ziel konzentriert werden. Dadurch addieren sich die Sendeleistungen der verschiedenen Abtaststrahlen im Fernbereich. Und es kann somit auch bei schlechten Witterungsbedingungen mit einem hinreichend starken Echo von dem entfernten Objekt 120 gerechnet werden, das somit besser von einer an mindestens einem der Sendeorte 121, 122, 123 vorhanden Empfangseinrichtung einer Lidarsensorik erfassbar ist. Dabei ist es wichtig, dass bei Verwendung nur eines einzigen Empfängers die Strahlimpulse möglichst gleichzeitig an dem Objekt antreffen. Im Nahbereich laufen die Abtaststrahlen dagegen getrennt. Dadurch können die Grenzwerte für die Augensicherheit eingehalten werden.The information about the environment and objects to be derived from the environment model can advantageously also be used to increase the reach. For this purpose, as in 12 shown, several scanning beams 121 . 122a . 123a from different transmission locations arranged as far as possible from each other 121 . 122 . 123 on an object 120 directed whose position is known from the environment model. Alternatively, if a vehicle is equipped with corresponding additional sensors, such as a video system, a radar system and / or a C2X system, the position of a relevant object can also be detected by these systems. The scanning beams of the lidar sensor can then be advantageously concentrated on the target already recognized by another sensor system. As a result, the transmission powers of the various scanning beams add up in the long-range. And it can thus also in bad weather conditions with a sufficiently strong echo from the distant object 120 be calculated so that better of one at least one of the transmission locations 121 . 122 . 123 present receiving device a Lidarsensorik is detected. It is important that when using only a single receiver, the beam pulses meet as possible at the same time on the object. At close range, however, the scanning beams are separated. As a result, the limits for eye safety can be met.

12 verdeutlicht eine Einrichtung zur Durchführung des erfindungsgemäßen Verfahrens. Die Einrichtung umfasst eine in einem Fahrzeug 110 angeordnete Lidarsensorik 111. Die Lidarsensorik 111 erzeugt Abtaststrahlen 111A, mit denen das Umfeld des Fahrzeugs 110 abgetastet wird. An einem Objekt 112 in dem Umfeld des Fahrzeugs 110 werden die Abtaststrahlen 111A reflektiert. Reflektierte Abtaststrahlen 111A werden von der Lasersensorik erfasst und ausgewertet. Aus der reflektierten Intensität und der Laufzeit können Position und Abstand eines Objekts 112 bestimmt werden. 12 illustrates a device for carrying out the method according to the invention. The device includes one in a vehicle 110 arranged Lidarsensorik 111 , The Lidarsensorik 111 generates scanning beams 111A with which the environment of the vehicle 110 is scanned. On an object 112 in the environment of the vehicle 110 become the scanning beams 111A reflected. Reflected scanning beams 111A are detected and evaluated by the laser sensor. From the reflected intensity and the runtime, position and distance of an object can be determined 112 be determined.

Im Folgenden wird, unter Bezug auf die Darstellungen in 14 bis 17, die Anpassung von Detektionsschwellen erläutert. 14 zeigt beispielsweise den Verlauf der reflektierten Intensität IR als Funktion der Entfernung D, wie er von einem Sensor erfasst wird. Durch eine zweckmäßige Verarbeitung der Sensorsignale, die bereits sensorintern oder in einer dem Sensor zugeordneten Schaltungsanordnung erfolgen kann, wird der Datenfluss reduziert, so dass nur eine reduzierte Information für eine Weiterverarbeitung bereitgestellt wird. Typischerweise kann dies durch einen Schwellenvergleich und/oder durch eine Maximumsuche erfolgen. Wie aus 15 ersichtlich ist, wird, bei Festlegung eines Schwellwerts S15, dieser Schwellwert in den Entfernungen DA, DB, DC überschritten. Beispielsweise bei einer witterungsbedingten Störung durch Nebel erwartet man eine im Wesentlichen von der Entfernung unabhängige hohe Rückstreuung. Um ein interessantes Objekt in der Entfernung DE dennoch sicher erkennen zu können, kann zweckmäßig, wie aus 16 hervorgeht, der Schwellwert auf den Wert S167 angehoben werden. Bei guten Sichtbedingunge3n dagegen, kann, wie aus 17 hervorgeht, der Schwellwert auf den Wert S17 abgesenkt werden. Dann können Objekte in den Entfernungen DA, DB, DC gut erkannt werden.The following is, with reference to the representations in 14 to 17 , which explains adaptation of detection thresholds. 14 shows For example, the course of the reflected intensity IR as a function of the distance D, as it is detected by a sensor. By a suitable processing of the sensor signals, which can already be done inside the sensor or in a circuit associated with the sensor, the data flow is reduced, so that only a reduced information for further processing is provided. Typically, this can be done by a threshold comparison and / or by a maximum search. How out 15 can be seen, this threshold is exceeded in the distances DA, DB, DC, when setting a threshold value S15. For example, in the event of a weather-related disturbance due to fog, one expects a high backscatter which is essentially independent of the distance. Nevertheless, in order to be able to reliably recognize an interesting object in the distance DE, it may be expedient how 16 the threshold is raised to the value S167. In good Sichtbedingunge3n on the other hand, how can 17 indicates that the threshold value is lowered to the value S17. Then objects in the distances DA, DB, DC can be recognized well.

Im Folgenden wird, unter Bezug auf 18, erläutert, auf welche Weise ein eigentlich nur einzielfähiger Sensor vorteilhaft auch für die Erfassung mehrerer Ziele bzw. Objekte eingesetzt werden kann. Unter einem einzielfähigen Sensor ist, im Allgemeinen und im Zusammenhang mit dieser Erfindung, ein Sensor zu verstehen, der, auf Basis der zurückgestreuten Strahlung, nur ein einziges Objekt extrahieren/detektieren kann. Dies ist beispielsweise bedingt durch den Einsatz vergleichsweise einfacher Rechnerkerne oder auch durch die Gestaltung der Empfängerbausteine. 18 zeigt die reflektierte Intensität IR als Funktion des Abstands D. In Ausbreitungsrichtung eines Suchstrahls des Sensors befinden sich beispielsweise drei Objekte O1, O2, O3 in den Entfernungen DA, DB und DC. Bei einem nur einzielfähigen Sensor kann es dabei vorkommen, dass der Sensor nur ein einziges Objekt von den dreien auswählen muss und die anderen beiden Objekte dabei einfach unterschlägt oder dass der Sensor nach Erfassen des ersten Objekts einfach „geblendet” und daher nicht mehr in der Lage ist, weitere Objekte zu erfassen. Wenn der Sensor in dem zuvor beschriebenen Sinne nur einzielfähig ist, kann man durch Erfassen von Abweichungen zur Vorhersage eine Pseudo-Mehrzielfähigkeit erreichen. Insbesondere kann ein nur einzielfähiger Sensor durch Witterungseinflüsse stark beeinträchtigt werden, weil er, beispielsweise bei Regenwetter, das eigentlich wichtige Objekt verliert und stattdessen z. B. nur noch Regentropfen erfasst. Mit einer Pseudo-Mehrzielfähigkeit würde der Sensor zwar die Regentropfen auch noch erfassen, das bereits erkannte wichtige Objekt dabei aber nicht verlieren. Eine Pseudo-Mehrzielfähigkeit kann vorteilhaft dadurch erreicht werden, dass der Sensor nur für bestimmte Entfernungsabschnitte im Signalverlauf „scharfgeschaltet” wird. Wenn der Suchstrahl des Sensors in einem ersten Abtastvorgang das erste Objekt O1 in der Entfernung DA erfasst hat, ließe sich dieser Reflex in einer zweiten Messung ignorieren. Dadurch könnte in dem zweiten Messvorgang das zweite Objekt O2 in der Entfernung DB erfasst werden. Weiterhin könnten, bei einer dritten Messung, die von den Objekten O1 und O2 in den Entfernungen DA und DB stammenden Reflexe unterdrückt werden, um ein drittes Objekt in der Entfernung DC zu erfassen. Anschließend können die beschriebenen Schritte wiederholt werden, um die erfassten Ziele weiter zu verfolgen.The following will, with reference to 18 , explains in which way an actually only single-capable sensor can advantageously also be used for the detection of multiple targets or objects. A single-purpose sensor, in general and in the context of this invention, is to be understood as meaning a sensor which, on the basis of the backscattered radiation, can only extract / detect a single object. This is for example due to the use of relatively simple computer cores or by the design of the receiver modules. 18 shows the reflected intensity IR as a function of the distance D. In the propagation direction of a search beam of the sensor are, for example, three objects O1, O2, O3 in the distances DA, DB and DC. In the case of an only single-capable sensor, it may happen that the sensor only has to select a single object from the three and simply omits the other two objects or that the sensor simply "blinds" after detecting the first object and is therefore no longer able to do so is to capture more objects. If the sensor is single-capable in the sense described above, one can achieve pseudo-multipoint capability by detecting deviations from the prediction. In particular, an only einielfähiger sensor can be greatly affected by weather conditions, because he, for example, in rainy weather, the actually important object loses and instead z. B. only detected raindrops. With a pseudo-multipoint capability, the sensor would still detect the raindrops, but not lose the already recognized important object. A pseudo-multi-target capability can advantageously be achieved by "arming" the sensor only for certain distance sections in the signal path. If the search beam of the sensor has detected the first object O1 in the distance DA in a first scanning process, this reflex could be ignored in a second measurement. As a result, in the second measuring process, the second object O2 could be detected at the distance DB. Furthermore, in a third measurement, the reflections from the objects O1 and O2 in the distances DA and DB could be suppressed to detect a third object at the distance DC. Thereafter, the steps described may be repeated to further pursue the goals.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - US 5592157 A [0002] US 5592157 A [0002]
  • - US 5489982 A [0003] - US 5489982 A [0003]
  • - US 52066798 A [0004] - US 52066798 A [0004]
  • - GB 1150502 A [0005] - GB 1150502 A [0005]

Claims (14)

Verfahren für die Umfelderfassung mit mindestens einer Lidarsensorik (111), bei dem ein Erfassungsbereich des Umfelds mit einem Abtaststrahl (72.1, 72.2, ... 72.6) abgetastet wird und an Objekten im Umfeld reflektierte Strahlung erfasst und ausgewertet wird, dadurch gekennzeichnet, dass die Intensität (IR) der zurückgestreuten Strahlung eines Abtaststrahls als Funktion der Entfernung (D) erfasst wird (Intensitätskurve), dass ein Schwellwert (IR1, IR2) für die Amplitude der Intensitätskurve vorgegeben wird, und dass auf eine Störung der Ausbreitungsbedingungen geschlossen wird, wenn der vorgegebene Schwellwert (IR1, IR2) wenigstens über ein vorgebbares Entfernungsintervall (DE-DA) überschritten wird, dessen Länge einen vorgebbaren Wert (B) übersteigt.Method for the surroundings detection with at least one lidar sensor system ( 111 ), in which a detection range of the environment with a scanning beam ( 72.1 . 72.2 , ... 72.6 ) is scanned and reflected radiation is detected and evaluated on objects in the environment, characterized in that the intensity (IR) of the backscattered radiation of a scanning beam as a function of the distance (D) is detected (intensity curve) that a threshold value (IR1, IR2) is specified for the amplitude of the intensity curve, and that it is concluded that there is a disturbance of the propagation conditions when the predetermined threshold value (IR1, IR2) is exceeded at least over a predefinable distance interval (DE-DA) whose length exceeds a predefinable value (B). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass auf eine witterungsbedingte Ausbreitungsstörung (wie zum Beispiel, Regen, Schnee, Nebel oder dergleichen) geschlossen wird, wenn den vorgegebenen Schwellwert der Amplitude (IR1, IR2) überschreitende Amplitudenwerte bereits aus einem in der Nähe des Lidarsensors beginnenden Entfernungsbereich erfasst werden.Method according to claim 1, characterized in that that on a weather-related propagation disturbance (such for example, rain, snow, fog or the like) closed becomes when the predetermined threshold value of the amplitude (IR1, IR2) exceeds Amplitude values already from one near the lidar sensor beginning distance range are detected. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf eine witterungs- und verkehrsbedingte lokal begrenzte Ausbreitungsstörung (wie zum Beispiel Gischt oder dergleichen) geschlossen wird, wenn den vorgegebenen Schwellwert der Amplitude (IR1, IR2) überschreitende Amplitudenwerte in einem von dem Lidarsensor entfernten Entfernungsintervall erfasst werden.Method according to one of the preceding claims, characterized in that on a weather and traffic related localized propagation disturbance (such as spray or the like) when the predetermined threshold the amplitude (IR1, IR2) exceeding amplitude values be detected in a distance interval remote from the lidar sensor. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei dem Auftreten von witterungsbedingten Ausbreitungsstörungen die Position eines Objekts in dem Umfeld dadurch erfasst wird, dass eine durch Ausbreitungsstörungen gestörte Intensitätskurve auf das Vorhandensein einer abfallenden Flanke überprüft wird.Method according to one of the preceding claims, characterized in that in the occurrence of weather-related Propagation disorders the position of an object in the Environment is captured by one caused by propagation disturbances disturbed intensity curve on the presence a falling edge is checked. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Intensitätskurven mehrerer Abtaststrahlen erfasst werden und dass durch Vergleich der Intensitätswerte die Abmessungen eines Objekts bestimmt werden.Method according to one of the preceding claims, characterized in that the intensity curves of several Scanning beams are detected and that by comparing the intensity values the dimensions of an object are determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Intensitätskurven mehrerer Abtaststrahlen in einem ersten Zeitintervall erfasst werden und dass durch Vergleich der Intensitätswerte die Abmessungen eines Objekts bestimmt werden, dass die Intensitätswerte der Abtaststrahlen in einem folgenden Zeitintervall erfasst werden, dass die Intensitätswerte der Abtaststrahlen miteinander verglichen werden und dass aus einer Änderung der Intensitätswerte auf eine Bewegung eines erfassten Objekts geschlossen wird.Method according to one of the preceding claims, characterized in that the intensity curves of several Scanning beams are detected in a first time interval and that by comparing the intensity values the dimensions An object can be determined that the intensity values the scanning beams are detected in a subsequent time interval, that the intensity values of the scanning beams are related to each other be compared and that from a change in the intensity values is closed to a movement of a detected object. Verfahren für die Umfelderfassung mit mindestens einer Lidarsensorik, dadurch gekennzeichnet, dass mehrere Abtaststrahlen (121a, 122a, 123a) der Lidarsensorik (111) von unterschiedlichen Sendeorten (121, 122, 123) auf ein Objekt (120) in dem Umfeld gerichtet werden, und dass die an dem Objekt reflektierte Strahlung von mindestens einem Strahlungsempfänger der Lidarsensorik (111) erfasst wird.Method for detecting the surroundings with at least one lidar sensor, characterized in that a plurality of scanning beams ( 121 . 122a . 123a ) of Lidarsensorik ( 111 ) from different transmission locations ( 121 . 122 . 123 ) on an object ( 120 ) are directed in the environment, and that the radiation reflected at the object of at least one radiation receiver of Lidarsensorik ( 111 ) is detected. Verfahren für die Umfelderfassung mit mindestens einer Lidarsensorik, dadurch gekennzeichnet, dass die Lidarsensorik aus einer bekannten Umfeldbeschreibung ein aufgrund der bekannten Umfeldsituation zu erwartendes Reflektanzbild prognostiziert, dass durch Messung mittels Abtaststrahlen ein aktuelles Reflektanzbild gewonnen wird, dass das prognostizierte Reflektanzbild mit dem aktuell gemessenen Reflektanzbild verglichen wird, und dass bei Feststellung einer Differenz auf das Vorhandensein eines fremden Objekts geschlossen wird.Procedure for the environment detection with at least a Lidarsensorik, characterized in that the Lidarsensorik from a known environment description a due to the known Environment situation expected reflectance picture predicts that by measuring by means of scanning a current reflectance image is obtained, that the predicted reflectance image with the current measured reflectance image is compared, and that upon detection a difference to the presence of a foreign object is closed becomes. Verfahren für die Umfelderfassung mit mindestens einer Lidarsensorik, dadurch gekennzeichnet, dass die Lidarsensorik aus einer bekannten Umfeldbeschreibung ein aufgrund der Umfeldsituation zu erwartendes Reflektanzbild prognostiziert, dass durch Messung mittels Abtaststrahlen ein aktuelles Reflektanzbild gewonnen wird, dass das prognostizierte Reflektanzbild mit dem aktuell gemessenen Reflektanzbild verglichen wird, und das bei Feststellung einer Differenz auf eine Veränderung der Sichtbedingungen geschlossen wird.Procedure for the environment detection with at least a Lidarsensorik, characterized in that the Lidarsensorik from a known environment description due to the surrounding situation expected reflectance image predicts that by measurement a current reflectance image is obtained by means of scanning beams, that the predicted reflectance image with the currently measured Reflectance image is compared, and the determination of a difference is concluded on a change in the visibility conditions. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einem einzielfähigen Sensor ein in einem ersten Abtastvorgang in einer Entfernung (DA) erfasstes erstes Objekt (O1) bei einem zweiten Abtastvorgang unterdrückt wird, um in folgenden Abtastvorgängen ggf. in der gleichen Strahlausbreitungsrichtung des Sensors liegende weitere Objekte (O2, O3) zu erfassen.Method according to one of the preceding claims, characterized in that in a einielfähigen sensor a detected in a first scan at a distance (DA) first object (O1) is suppressed in a second scan If necessary, in the following scans in the same Beam propagation direction of the sensor lying other objects (O2, O3). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Erfassung veränderter Sichtbedingungen Schwellwerte (S15, S16, S17) der Lidarsensorik beeinflusst werden.Method according to one of the preceding claims, characterized in that at the detection changed View conditions Threshold values (S15, S16, S17) of the lidar sensor system to be influenced. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei Erfassung schlechter Sichtbedigungen, die eine ordnungsgemäße Funktionsweise der Lidarsensorik in Frage stellen, die Lidarsensorik zumindest zeitweilig außer Betrieb gesetzt wird, und dass dem Fahrer ein entsprechender Hinweis gegeben wird.Method according to one of the preceding claims, characterized in that when detecting poor visibility conditions, the proper functioning of Lidarsensorik in question, the Lidarsensorik at least temporarily out of service is set, and that the driver is given a corresponding indication becomes. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die erfindungsgemäß erfassten Informationen über witterungsbedingte Störungen in dem Umfeld für die Steuerung von Bordsystemen des Fahrzeugs verwendet werden.Method according to one of the preceding claims, characterized in that the inventively detected Information about weather-related disturbances in the environment for the control of on-board systems of the vehicle be used. Einrichtung zur Durchführung wenigstens eines der vorstehenden Verfahren, mit einer Lidarsensorik (111), die Abtaststrahlen (111a) erzeugt und reflektierte Abtaststrahlen (111a) erfasst und auswertet.Device for carrying out at least one of the above methods, with a lidar sensor system ( 111 ), the scanning beams ( 111 ) and reflected scanning beams ( 111 ) recorded and evaluated.
DE102009028578A 2009-08-17 2009-08-17 Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement Pending DE102009028578A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009028578A DE102009028578A1 (en) 2009-08-17 2009-08-17 Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009028578A DE102009028578A1 (en) 2009-08-17 2009-08-17 Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement

Publications (1)

Publication Number Publication Date
DE102009028578A1 true DE102009028578A1 (en) 2011-02-24

Family

ID=43495146

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009028578A Pending DE102009028578A1 (en) 2009-08-17 2009-08-17 Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement

Country Status (1)

Country Link
DE (1) DE102009028578A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011339A1 (en) 2016-09-21 2017-03-02 Daimler Ag Method for functional testing of a lidar device and lidar device for a motor vehicle
CN110476080A (en) * 2017-04-07 2019-11-19 罗伯特·博世有限公司 Laser radar apparatus and method for being scanned to scan angle and for analyzing processing detector
DE102018125715A1 (en) 2018-10-17 2020-04-23 Valeo Schalter Und Sensoren Gmbh Method for detecting at least particle compositions in a monitoring area with an optical detection device and detection device
DE102018127712A1 (en) 2018-11-07 2020-05-07 Valeo Schalter Und Sensoren Gmbh Method for recognizing at least one tire track for a motor vehicle by means of an optoelectronic sensor, optoelectronic sensor and motor vehicle
DE102018127714A1 (en) 2018-11-07 2020-05-07 Valeo Schalter Und Sensoren Gmbh Method for determining a current detection range of an optoelectronic sensor by comparing two intensity values, an optoelectronic sensor and a motor vehicle
DE102018221448A1 (en) * 2018-12-11 2020-06-18 Conti Temic Microelectronic Gmbh Procedure for determining visibility
DE102018133457A1 (en) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Method and system for providing environmental data
DE102019208504A1 (en) * 2019-06-12 2020-12-17 Robert Bosch Gmbh Position determination based on environmental observations
US20200408919A1 (en) * 2018-03-12 2020-12-31 Mitsubishi Electric Corporation Fog determination apparatus, fog determination method, and computer readable medium
DE102022132310A1 (en) 2022-12-06 2024-06-06 Sick Ag Optoelectronic sensor and method for detecting and determining the distance of objects

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1150502A (en) 1965-06-17 1969-04-30 Sperry Rand Corp Visibility Measuring System
US5206698A (en) 1988-10-05 1993-04-27 DLR Deutsche Forschungsanstalt fur Luft-und Raumfahrt Lidar arrangement for measuring atmospheric turbidities
US5489982A (en) 1993-01-12 1996-02-06 Daimler-Benz Ag Method for determining a visual range
US5592157A (en) 1992-10-05 1997-01-07 Leica Ag Relative visibility measuring process and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1150502A (en) 1965-06-17 1969-04-30 Sperry Rand Corp Visibility Measuring System
US5206698A (en) 1988-10-05 1993-04-27 DLR Deutsche Forschungsanstalt fur Luft-und Raumfahrt Lidar arrangement for measuring atmospheric turbidities
US5592157A (en) 1992-10-05 1997-01-07 Leica Ag Relative visibility measuring process and device
US5489982A (en) 1993-01-12 1996-02-06 Daimler-Benz Ag Method for determining a visual range

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011339A1 (en) 2016-09-21 2017-03-02 Daimler Ag Method for functional testing of a lidar device and lidar device for a motor vehicle
CN110476080A (en) * 2017-04-07 2019-11-19 罗伯特·博世有限公司 Laser radar apparatus and method for being scanned to scan angle and for analyzing processing detector
CN110476080B (en) * 2017-04-07 2023-12-26 罗伯特·博世有限公司 Lidar device and method for scanning a scanning angle and for analyzing a treatment detector
US20200408919A1 (en) * 2018-03-12 2020-12-31 Mitsubishi Electric Corporation Fog determination apparatus, fog determination method, and computer readable medium
DE102018125715A1 (en) 2018-10-17 2020-04-23 Valeo Schalter Und Sensoren Gmbh Method for detecting at least particle compositions in a monitoring area with an optical detection device and detection device
WO2020078983A1 (en) 2018-10-17 2020-04-23 Valeo Schalter Und Sensoren Gmbh Method for detecting at least particle compositions in a monitoring region by means of an optical detection device, and detection device
DE102018127712A1 (en) 2018-11-07 2020-05-07 Valeo Schalter Und Sensoren Gmbh Method for recognizing at least one tire track for a motor vehicle by means of an optoelectronic sensor, optoelectronic sensor and motor vehicle
DE102018127714A1 (en) 2018-11-07 2020-05-07 Valeo Schalter Und Sensoren Gmbh Method for determining a current detection range of an optoelectronic sensor by comparing two intensity values, an optoelectronic sensor and a motor vehicle
DE102018221448A1 (en) * 2018-12-11 2020-06-18 Conti Temic Microelectronic Gmbh Procedure for determining visibility
WO2020119866A1 (en) * 2018-12-11 2020-06-18 Conti Temic Microelectronic Gmbh Method for determining a visibility
WO2020126447A1 (en) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Method and system for providing environmental data
DE102018133457B4 (en) 2018-12-21 2020-07-09 Volkswagen Aktiengesellschaft Method and system for providing environmental data
DE102018133457A1 (en) 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Method and system for providing environmental data
DE102019208504A1 (en) * 2019-06-12 2020-12-17 Robert Bosch Gmbh Position determination based on environmental observations
DE102022132310A1 (en) 2022-12-06 2024-06-06 Sick Ag Optoelectronic sensor and method for detecting and determining the distance of objects

Similar Documents

Publication Publication Date Title
DE102009028578A1 (en) Method for periphery recognition with lidar sensor, involves scanning detection area of periphery with scanning beam, and detecting radiation, where intensity of radiation of scanning beam is detected as function of displacement
EP2191298B1 (en) Method for determining a distance by means of an optoelectronic image sensor
EP1910866B1 (en) Method for determining the depth of a parking space using ultrasonic sensors and associated system
EP2800982B1 (en) Method and device for measuring the speed of a vehicle independently of the wheels
EP2191293B1 (en) Object classification method, parking assistance method, and parking assistance system
DE102006049879B4 (en) Radar system for automobiles
EP2401630B1 (en) Method for detecting icing at an angle-resolving radar sensor in a driver assistance system for motor vehicles
DE102010027647A1 (en) Laser-based method for friction coefficient classification in motor vehicles
DE102013008953B4 (en) Method for operating a radar device of a vehicle, in particular of a motor vehicle, and radar device for a vehicle, in particular a motor vehicle
DE102016108756A1 (en) Radar sensor device for a motor vehicle, driver assistance system, motor vehicle and method for detecting an object
DE102016100732B4 (en) Method for operating an ultrasonic sensor of a motor vehicle. Ultrasonic sensor device, driver assistance system and motor vehicle
DE102017119042A1 (en) Prevention of blind spot warnings due to spray
DE102010062378B4 (en) Method and device for environment detection with a lidar sensor
EP3977161A1 (en) Method and driver assistance system for classifying objects in the area around a motor vehicle
DE102015122413B4 (en) Method for operating an ultrasonic sensor of a motor vehicle, ultrasonic sensor device, driver assistance system and motor vehicle
DE112012001695B4 (en) Detection of ice on a vehicle window using an internal temperature sensor
DE102015119658A1 (en) Method for detecting an environmental region of a motor vehicle with object classification, control device, driver assistance system and motor vehicle
EP3867666B1 (en) Method for detecting at least particle compositions in a monitoring region by means of an optical detection device, and detection device
DE102009046597A1 (en) Light detecting and ranging system's atmospheric influences reducing method for driver assistant system for detecting pedestrian in surrounding of motor vehicle, involves determining whether object is stationary object or movable object
DE102011081755B4 (en) Method for measuring the transverse dynamics of an object
DE102018126592A1 (en) Method for detecting transmission disturbances in relation to light of at least one window of a housing of an optical detection device and optical detection device
DE102019211375B4 (en) Motor vehicle with a radar sensor and method for operating the motor vehicle
DE102012025466A1 (en) Method for distinguishing between a target object and an atmospheric component during a measurement with the aid of an optoelectronic sensor device of a motor vehicle, sensor device and motor vehicle
DE102021210082B3 (en) Method for characterizing an object in an area surrounding a motor vehicle
DE102019210480A1 (en) Method and device for determining an environmental condition in the vicinity of a means of transport on the basis of an ultrasonic sensor of the means of transport

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication