DE102017112787A1 - Method for detecting a spatial position of an object in an environmental region of a motor vehicle, lidar sensor device, driver assistance system and motor vehicle - Google Patents

Method for detecting a spatial position of an object in an environmental region of a motor vehicle, lidar sensor device, driver assistance system and motor vehicle Download PDF

Info

Publication number
DE102017112787A1
DE102017112787A1 DE102017112787.9A DE102017112787A DE102017112787A1 DE 102017112787 A1 DE102017112787 A1 DE 102017112787A1 DE 102017112787 A DE102017112787 A DE 102017112787A DE 102017112787 A1 DE102017112787 A1 DE 102017112787A1
Authority
DE
Germany
Prior art keywords
angle
determined
test
correction
light beams
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017112787.9A
Other languages
German (de)
Inventor
Ondrej Kozak
Petr Krejci
Yaron Sela
Pavel Zednik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102017112787.9A priority Critical patent/DE102017112787A1/en
Priority to PCT/EP2018/064672 priority patent/WO2018224453A1/en
Publication of DE102017112787A1 publication Critical patent/DE102017112787A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erkennung einer räumlichen Lage eines Objektes (7) in einem Umgebungsbereich (4) eines Kraftfahrzeugs (1) relativ zu dem Kraftfahrzeug (1) anhand eines an dem Objekt (7) reflektierten Empfangssignals (E), welches in Lichtstrahlen (11) von Empfangselementen einer Lidar-Sensorvorrichtung (3) empfangen wird, wobei durch die Empfangselemente in den Lichtstrahlen (11) zu Reflexionspunkten (R) auf einer Oberfläche (9) des Objektes (7) korrespondierende Detektionspunkte (D) identifiziert werden, unter der Annahme, dass sich die Detektionspunkte (D) auf einer Strahlachse (S) der jeweiligen Lichtstrahlen (11) befinden, eine Initialoberflächenlinie (14) in Abhängigkeit von den Detektionspunkten (D) bestimmt wird, Winkel (β) zwischen der Initialoberflächenlinie (14) und der Strahlachse (S) der jeweiligen Lichtstrahlen (11) bestimmt werden, die Detektionspunkte (D) innerhalb der jeweiligen Lichtstrahlen (11) um von den jeweiligen Winkeln (β) abhängige Korrekturwinkel (γ) relativ zur Strahlachse (S) der jeweiligen Lichtstrahlen (11) verschoben werden, in Abhängigkeit von den verschobenen Detektionspunkten (D') eine Finaloberflächenlinie (15), durch welche eine Lage der Reflexionspunkte (R) auf der Oberfläche (9) relativ zur Lidar-Sensorvorrichtung (3) beschrieben wird, bestimmt wird, und die räumliche Lage des Objektes (7) zu dem Kraftfahrzeug (1) anhand der Finaloberflächenlinie (15) bestimmt wird. Die Erfindung betrifft außerdem eine Lidar-Sensorvorrichtung (3), ein Fahrerassistenzsystem (2) sowie ein Kraftfahrzeug (1).The invention relates to a method for detecting a spatial position of an object (7) in a surrounding area (4) of a motor vehicle (1) relative to the motor vehicle (1) on the basis of a received signal (E) reflected on the object (7), which light beams (11) is received by receiving elements of a lidar sensor device (3), wherein by the receiving elements in the light beams (11) to reflection points (R) on a surface (9) of the object (7) corresponding detection points (D) are identified, below Assuming that the detection points (D) are located on a beam axis (S) of the respective light beams (11), an initial surface line (14) is determined as a function of the detection points (D), angle (β) between the initial surface line (14) and the beam axis (S) of the respective light beams (11) are determined, the detection points (D) within the respective light beams (11) are dependent on the respective angles (β) correction angle (γ) relative to the beam axis (S) of the respective light beams (11) are shifted, depending on the shifted detection points (D ') a final surface line (15), by which a position of the reflection points (R) on the surface (9 ) is determined relative to the lidar sensor device (3) is determined, and the spatial position of the object (7) to the motor vehicle (1) based on the final surface line (15) is determined. The invention also relates to a lidar sensor device (3), a driver assistance system (2) and a motor vehicle (1).

Description

Die Erfindung betrifft ein Verfahren zur Erkennung einer räumlichen Lage eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs relativ zu dem Kraftfahrzeug anhand eines an dem Objekt reflektierten Empfangssignals, welches in mehreren Lichtstrahlen von Empfangselementen einer Lidar-Sensorvorrichtung empfangen wird. Die Erfindung betrifft außerdem eine Lidar-Sensorvorrichtung, ein Fahrerassistenzsystem sowie ein Kraftfahrzeug.The invention relates to a method for detecting a spatial position of an object in an environmental region of a motor vehicle relative to the motor vehicle on the basis of a received signal reflected on the object, which is received in a plurality of light beams of receiving elements of a lidar sensor device. The invention also relates to a lidar sensor device, a driver assistance system and a motor vehicle.

Vorliegend richtet sich das Interesse auf Lidar-Sensorvorrichtungen, kurz Lidar-Sensoren, welche beispielsweise an einem Kraftfahrzeug angeordnet werden können, um einen Umgebungsbereich des Kraftfahrzeugs zu überwachen. Insbesondere kann der Umgebungsbereich hinsichtlich des Vorhandenseins von Objekten, beispielsweise von Wänden, anderen Kraftfahrzeugen, etc., überwacht werden. Dazu können die Lidar-Sensoren ein Sendesignal in Form von einem Lichtpuls aussenden und den an einem Objekt in dem Umgebungsbereich reflektierten Lichtpuls als Empfangssignal wieder empfangen. Anhand einer Laufzeit des Lichtpulses zwischen Aussenden und Empfangen kann ein Abstand des Objektes zu dem Kraftfahrzeug bestimmt werden. Dabei können die Lidar-Sensoren auch winkelauflösend ausgebildet sein und zusätzlich zu dem Abstand des Objektes eine Orientierung des Objektes zu der Lidar-Sensorvorrichtung erfassen. Der Abstand und die Orientierung des Objektes relativ zum Kraftfahrzeug können als Lageinformation über das Objekt einem Fahrerassistenzsystem des Kraftfahrzeugs bereitgestellt werden, welches beispielsweise anhand der Lageinformation eine Maßnahme zur Vermeidung einer Kollision des Kraftfahrzeugs mit dem Objekt einleiten kann. Eine solche kollisionsvermeidende Maßnahme kann beispielsweise die Ausgabe eines Warnsignals und/oder das automatische Abbremsen des Kraftfahrzeugs sein.In the present case, the focus is on lidar sensor devices, in short lidar sensors, which can be arranged, for example, on a motor vehicle in order to monitor an environmental region of the motor vehicle. In particular, the surrounding area may be monitored for the presence of objects, such as walls, other vehicles, etc. For this purpose, the lidar sensors can emit a transmission signal in the form of a light pulse and receive the light pulse reflected on an object in the surrounding area as a reception signal again. Based on a transit time of the light pulse between transmission and reception, a distance of the object to the motor vehicle can be determined. In this case, the lidar sensors can also be designed with angular resolution and, in addition to the distance of the object, detect an orientation of the object to the lidar sensor device. The distance and the orientation of the object relative to the motor vehicle can be provided as position information about the object a driver assistance system of the motor vehicle, which can initiate a measure for avoiding a collision of the motor vehicle with the object, for example, based on the position information. Such a collision avoiding measure may be, for example, the output of a warning signal and / or the automatic braking of the motor vehicle.

Probleme ergeben sich dann, wenn die Lidar-Sensorvorrichtung beispielsweise eine kostengünstige („cost effective“) Lidar-Sensorvorrichtung ist, welche eine geringe Winkelauflösung aufweist. Durch die geringe Winkelauflösung kann es vorkommen, dass die erfasste Lage des Objektes von der tatsächlichen Lage des Objektes in dem Umgebungsbereich abweicht. Daraus kann sich beispielsweise der Nachteil ergeben, dass die kollisionsvermeidende Maßnahme zu früh oder nicht rechtzeitig eingeleitet wird. Problems arise when the lidar sensor device is, for example, a cost-effective lidar sensor device which has a low angular resolution. Due to the low angular resolution, it may happen that the detected position of the object deviates from the actual position of the object in the surrounding area. This may, for example, result in the disadvantage that the collision-avoiding measure is initiated too early or not in good time.

Es ist Aufgabe der vorliegenden Erfindung, eine Lösung bereitzustellen, wie eine Winkelauflösung von Lidar-Sensorvorrichtungen verbessert werden kann, sodass räumliche Lagen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs besonders genau erfasst werden können.It is an object of the present invention to provide a solution, as an angular resolution of lidar sensor devices can be improved, so that spatial locations of objects in a surrounding area of a motor vehicle can be detected particularly accurately.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Lidar-Sensorvorrichtung, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.This object is achieved by a method by a lidar sensor device, by a driver assistance system and by a motor vehicle having the features according to the respective independent claims. Advantageous embodiments of the invention are subject of the dependent claims, the description and the figures.

Gemäß einer Ausführungsform eines Verfahrens zur Erkennung einer räumlichen Lage eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs relativ zu dem Kraftfahrzeug anhand eines an dem Objekt reflektierten Empfangssignals, welches insbesondere in mehreren Lichtstrahlen von Empfangselementen einer Lidar-Sensorvorrichtung empfangen wird, werden durch die Empfangselemente in den jeweiligen Lichtstrahlen zu Reflexionspunkten auf einer Oberfläche des Objektes korrespondierende Detektionspunkte identifiziert. Unter der Annahme, dass sich die Detektionspunkte auf einer Strahlachse der jeweiligen Lichtstrahlen befinden, kann eine Initialoberflächenlinie in Abhängigkeit von den Detektionspunkten bestimmt werden. Insbesondere werden für die Lichtstrahlen Winkel zwischen der Initialoberflächenlinie und der Strahlachse der jeweiligen Lichtstrahlen bestimmt, die Detektionspunkte innerhalb der jeweiligen Lichtstrahlen um von den jeweiligen Winkeln abhängige Korrekturwinkel relativ zur Strahlachse der jeweiligen Lichtstrahlen verschoben und in Abhängigkeit von den verschobenen Detektionspunkten eine Finaloberflächenlinie bestimmt. Schließlich kann die räumliche Lage des Objektes zu dem Kraftfahrzeug anhand der Finaloberflächenlinie bestimmt werden.According to an embodiment of a method for detecting a spatial position of an object in an environmental region of a motor vehicle relative to the motor vehicle on the basis of a received signal reflected on the object, which is received in particular in a plurality of light beams of receiving elements of a lidar sensor device, by the receiving elements in the respective Light rays to reflection points on a surface of the object corresponding detection points identified. Assuming that the detection points are on a beam axis of the respective light beams, an initial surface line may be determined depending on the detection points. Specifically, for the light beams, angles between the initial surface line and the beam axis of the respective light beams are determined, the detection points within the respective light beams are shifted by correction angles depending on the respective angles relative to the beam axis of the respective light beams, and a final surface line is determined depending on the shifted detection points. Finally, the spatial position of the object to the motor vehicle can be determined on the basis of the final surface line.

Gemäß einer besonders bevorzugten Ausführungsform eines Verfahrens zur Erkennung einer räumlichen Lage eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs relativ zu dem Kraftfahrzeug anhand eines an dem Objekt reflektierten Empfangssignals, welches in mehreren Lichtstrahlen von Empfangselementen einer Lidar-Sensorvorrichtung empfangen wird, werden durch die Empfangselemente in den jeweiligen Lichtstrahlen zu Reflexionspunkten auf einer Oberfläche des Objektes korrespondierende Detektionspunkte identifiziert. Unter der Annahme, dass sich die Detektionspunkte auf einer Strahlachse der jeweiligen Lichtstrahlen befinden, wird eine Initialoberflächenlinie in Abhängigkeit von den Detektionspunkten bestimmt. Darüber hinaus werden für die Lichtstrahlen Winkel zwischen der Initialoberflächenlinie und der Strahlachse der jeweiligen Lichtstrahlen bestimmt, die Detektionspunkte innerhalb der jeweiligen Lichtstrahlen um von den jeweiligen Winkeln abhängige Korrekturwinkel relativ zur Strahlachse der jeweiligen Lichtstrahlen verschoben und in Abhängigkeit von den verschobenen Detektionspunkten eine Finaloberflächenlinie bestimmt. Schließlich wird die räumliche Lage des Objektes zu dem Kraftfahrzeug anhand der Finaloberflächenlinie bestimmt.According to a particularly preferred embodiment of a method for detecting a spatial position of an object in an environmental region of a motor vehicle relative to the motor vehicle from a reflected on the object receiving signal received in a plurality of light beams of receiving elements of a lidar sensor device, by the receiving elements in the respective light rays to reflection points on a surface of the object corresponding detection points identified. Assuming that the detection points are on a beam axis of the respective light beams, an initial surface line is determined depending on the detection points. In addition, for the light beams, angles between the initial surface line and the beam axis of the respective light beams are determined, the detection points within the respective light beams are shifted by correction angles depending on the respective angles relative to the beam axis of the respective light beams, and a final surface line is determined depending on the shifted detection points. Finally, the spatial position of the object becomes the motor vehicle determined by the final surface line.

Die Lidar-Sensorvorrichtung (Lidar-„Light detection and ranging“) kann insbesondere die räumliche Lage der dem Kraftfahrzeug zugewandten Oberfläche des Objektes zu der Lidar-Sensorvorrichtung erfassen. Dazu kann die Lidar-Sensorvorrichtung einen radialen Abstand der Oberfläche relativ zur Lidar-Sensorvorrichtung sowie einen Neigungswinkel der Oberfläche, beispielsweise einen horizontalen Neigungswinkel, bezüglich einer Blickrichtung der Lidar-Sensorvorrichtung erfassen. Die Lidar-Sensorvorrichtung kann Sendesignale in Form von Lichtpulsen aussenden und die in dem Umgebungsbereich an der Oberfläche eines Objektes reflektierten Lichtpulse als Empfangssignale wieder empfangen. Die Lidar-Sensorvorrichtung ist vorliegend insbesondere als eine Flash-Lidar-Sensorvorrichtung ausgebildet, bei welchen während eines Messzyklus zumindest ein den Umgebungsbereich ausleuchtendes Sendesignal ausgesendet wird. Als das Sendesignal wird also Licht in mehrere Senderichtungen ausgesendet, wobei das Empfangssignal während des Messzyklus aus mehreren Empfangsrichtungen bzw. Reflexionsrichtungen wieder empfangen werden kann. Dazu sind das Sendesignal und das Empfangssignal insbesondere kegelförmige Lichtstrahlen, welche jeweils einen horizontalen Gesamtöffnungswinkel, beispielsweise 60°, und einen vertikalen Gesamtöffnungswinkel, beispielsweise 10°, aufweisen . Durch den im Vergleich zum horizontalen Gesamtöffnungswinkel geringeren vertikalen Gesamtöffnungswinkel, welcher einen Erfassungsbereich der Lidar-Sensorvorrichtung entlang einer Fahrzeughochachse repräsentiert, können Bodenechos zumindest reduziert werden. Solche Bodenechos sind Detektionspunkte, welche mit Reflexionspunkten auf einer Fahrbahn des Kraftfahrzeugs korrespondieren.The lidar sensor device (lidar "light detection and ranging") can in particular detect the spatial position of the motor vehicle-facing surface of the object to the lidar sensor device. For this purpose, the lidar sensor device can detect a radial distance of the surface relative to the lidar sensor device and an inclination angle of the surface, for example a horizontal inclination angle, with respect to a viewing direction of the lidar sensor device. The lidar sensor device can emit transmission signals in the form of light pulses and receive the reflected in the surrounding area at the surface of an object light pulses as received signals again. In the present case, the lidar sensor device is designed in particular as a flash lidar sensor device, in which at least one transmission signal illuminating the surrounding region is emitted during a measuring cycle. As the transmission signal, light is thus emitted in a plurality of transmission directions, wherein the reception signal can be received again during the measurement cycle from a plurality of reception directions or reflection directions. For this purpose, the transmission signal and the reception signal are, in particular, cone-shaped light beams which each have a horizontal total opening angle, for example 60 °, and a vertical total opening angle, for example 10 °. As a result of the lower total vertical opening angle, which represents a detection range of the lidar sensor device along a vertical vehicle axis, compared to the total horizontal opening angle, bottom echoes can at least be reduced. Such ground echoes are detection points which correspond to reflection points on a roadway of the motor vehicle.

Das Empfangssignal wird in mehreren Lichtstrahlen, beispielsweise in sechzehn Lichtstrahlen, empfangen. Jeder Lichtstrahl ist dabei ein Teilbereich des Empfangssignals. Zum Empfangen der Lichtstrahlen des Empfangssignals weist die Lidar-Sensorvorrichtung, welche als eine Solid-State-Lidar-Sensorvorrichtung ausgebildet sein kann, eine Empfangseinrichtung mit mehreren Empfangselementen, beispielsweise mit sechzehn Empfangselementen, auf. Die Empfangselemente können beispielsweise Photodetektoren in Form von lichtsensitiven Halbleiterbauelementen, beispielsweise Photodioden, aufweisen. Die Empfangselemente können beispielsweise in einer Matrix, also spaltenweise und/oder zeilenweise, angeordnet sein. Jedem Empfangselement kann eine Reflexionsrichtung bzw. ein Reflexionswinkel zugeordnet sein. Die Winkelmessung erfolgt hier also empfängerseitig durch das Bereitstellen mehrerer Empfangselemente. Insbesondere empfängt ein Empfangselement nur Lichtstrahlen, deren Strahlachse entlang der zugehörigen Reflexionsrichtung orientiert ist. Somit ist jedem Empfangselement ein Strahlachsenwinkel des zugehörigen Lichtstrahls zugeordnet, welcher mit einem Reflexionswinkel korrespondiert. Anhand des den Lichtstrahl empfangenden Empfangselementes sowie anhand des zugehörigen Strahlachsenwinkels können also die Richtung, aus welcher der Lichtstrahl auf die Empfangseinrichtung fällt, und damit der Reflexionswinkel bestimmt werden.The received signal is received in a plurality of light beams, for example, in sixteen light beams. Each light beam is a subregion of the received signal. For receiving the light beams of the received signal, the lidar sensor device, which can be embodied as a solid-state lidar sensor device, has a receiving device with a plurality of receiving elements, for example with sixteen receiving elements. The receiving elements may, for example, photodetectors in the form of light-sensitive semiconductor devices, such as photodiodes have. The reception elements can be arranged, for example, in a matrix, that is, column by column and / or row by row. Each receiving element can be assigned a reflection direction or a reflection angle. The angle measurement is thus here on the receiver side by providing several receiving elements. In particular, a receiving element receives only light beams whose beam axis is oriented along the associated reflection direction. Thus, each receiving element is associated with a beam axis angle of the associated light beam, which corresponds to a reflection angle. On the basis of the light beam receiving receiving element and on the basis of the associated beam axis angle so the direction from which the light beam falls on the receiving device, and thus the reflection angle can be determined.

Ein Lichtstrahl beschreibt einen Verlauf der Intensität des aus der Richtung der Strahlachse des Lichtstrahls reflektierten Lichtes über die Zeit. Dieser Verlauf kann nach Intensitätsspitzen bzw. Intensitätspeaks durchsucht werden, welche die Detektionspunkte, sogenannte Echos, repräsentieren. Diese Detektionspunkte korrespondieren zu Reflexionspunkten an der Oberfläche des Objektes. Anhand eines zu dem Detektionspunkt gehörigen Zeitpunkts bzw. Zeitstempels innerhalb des Verlaufes kann ein Abstand des mit dem Detektionspunkt korrespondierenden Reflexionspunktes zu der Lidar-Sensorvorrichtung bestimmt werden. Da jedes Empfangselement mit einem bestimmten Reflexionswinkel korrespondiert, kann anhand des Empfangselementes für den Detektionspunkt des empfangenen Lichtstrahls zusätzlich zu dem Abstand der Reflexionswinkel bestimmt werden. Es kann also für jeden Detektionspunkt die räumliche Lage des zu dem Detektionspunkt korrespondierenden Reflexionspunktes bestimmt werden. Somit kann der Umgebungsbereich Reflexionspunkte-basiert abgebildet werden.A light beam describes a course of the intensity of the reflected light from the direction of the beam axis of the light beam over time. This course can be searched for intensity peaks or intensity peaks, which represent the detection points, so-called echoes. These detection points correspond to reflection points on the surface of the object. Based on a time point or time stamp belonging to the detection point within the course, a distance of the reflection point corresponding to the detection point to the lidar sensor device can be determined. Since each receiving element corresponds to a specific reflection angle, the reflection angle can be determined in addition to the distance on the basis of the receiving element for the detection point of the received light beam. Thus, for each detection point, the spatial position of the reflection point corresponding to the detection point can be determined. Thus, the surrounding area can be imaged reflection point-based.

Die Lichtstrahlen weisen dabei jeweils einen Öffnungswinkel auf, durch welchen eine Winkelauflösung der Lidar-Sensorvorrichtung eingestellt bzw. festgelegt wird. Beispielsweise kann jedes Empfangselement einen Öffnungswinkel von 4°in horizontaler und 4°in vertikaler Richtung aufweisen. Der Öffnun gswinkel wird insbesondere durch die Größe und Anzahl der Empfangselemente bestimmt. Wird nun in einem Lichtstrahl von dem den Lichtstrahl empfangenden Empfangselement ein Detektionspunkt identifiziert, so wird zunächst davon ausgegangen, dass sich der Detektionspunkt auf der Strahlachse des zugehörigen Lichtstrahls befindet. Es wird also davon ausgegangen, dass der Reflexionswinkel exakt dem Strahlachsenwinkel entspricht. Unter dieser Annahme wird basierend auf den empfangenden Detektionspunkten mehrerer Lichtstrahlen die Initialoberflächenlinie bestimmt. Insbesondere werden mittels der Empfangselemente anhand der Detektionspunkte der jeweiligen Lichtstrahlen Abstandswerte der mit den Detektionspunkten korrespondierenden Reflexionspunkte bestimmt und die Initialoberflächenlinie in Abhängigkeit von den Abstandswerten und Strahlachsenwinkeln der jeweiligen Lichtstrahlen bestimmt. Aus den Abstandswerten der einzelnen Reflexionspunkte sowie aus den zugehörigen Strahlachsenwinkeln können der Abstand und der Neigungswinkel der Initialoberflächenlinie bestimmt werden. Die Initialoberflächenlinie repräsentiert also eine erste Schätzung einer räumlichen Lage der mit den Detektionspunkten korrespondierenden Reflexionspunkte auf der Oberfläche des Objektes und damit eine erste Schätzung der räumlichen Lage der Oberfläche des Objektes zu der Lidar-Sensorvorrichtung.The light beams each have an opening angle, by which an angular resolution of the lidar sensor device is set or fixed. For example, each receiving element can have an opening angle of 4 ° in the horizontal and 4 ° in the vertical direction. The opening angle is determined in particular by the size and number of the receiving elements. If a detection point is now identified in a light beam from the receiving element receiving the light beam, it is initially assumed that the detection point is located on the beam axis of the associated light beam. It is therefore assumed that the reflection angle corresponds exactly to the beam axis angle. Under this assumption, the initial surface line is determined based on the receiving detection points of a plurality of light beams. In particular, distance values of the reflection points corresponding to the detection points are determined by means of the reception elements on the basis of the detection points of the respective light beams, and the initial surface line is determined as a function of the distance values and beam axis angles of the respective light beams. From the distance values of the individual reflection points as well as the associated values Beam axis angles, the distance and the angle of inclination of the initial surface line can be determined. The initial surface line thus represents a first estimate of a spatial position of the reflection points corresponding to the detection points on the surface of the object and thus a first estimate of the spatial position of the surface of the object to the lidar sensor device.

Aus der Annahme, dass sich die Detektionspunkte auf der Strahlachse der zugehörigen Lichtstrahlen befinden, kann sich ein Messfehler bei der Reflexionswinkelmessung ergeben. Der Messfehler ist eine Differenz zwischen dem realen Reflexionspunkt und dem anhand des Detektionspunktes bestimmten Reflexionspunkt. Der Messfehler kann umso größer sein, je größer der Öffnungswinkel des Lichtstrahls ist und je mehr dadurch der Reflexionswinkel von dem Strahlachsenwinkel abweichen kann. Daher kann der Messfehler bis zu einem halben Öffnungswinkel des Lichtstrahls betragen. Dieser Fehler vergrößert sich insbesondere, je stärker die Oberfläche des Objektes bezüglich der Lidar-Sensorvorrichtung verkippt bzw. geneigt ist. Dies resultiert insbesondere daraus, dass die reflektierten Lichtstrahlen der Radargleichung unterliegen, die eine von den Empfangselementen registrierte Leistung bzw. Intensität in Abhängigkeit von einer Sendeleistung, dem Abstand und Eigenschaften des reflektierenden Objektes beschreibt. Die Radargleichung besagt, dass die Leistung bzw. Intensität des erfassten Lichtstrahls mit der vierten Potenz des Abstands des Objektes fällt. Diese Radargleichung ist der Haupteinflussfaktor des Messfehlers bei stark geneigten Oberflächen.From the assumption that the detection points are located on the beam axis of the associated light beams, a measurement error in the reflection angle measurement may result. The measurement error is a difference between the real reflection point and the reflection point determined from the detection point. The measurement error can be greater, the greater the opening angle of the light beam and the more that the reflection angle can deviate from the beam axis angle. Therefore, the measurement error can be up to half the opening angle of the light beam. This error increases in particular, the more the surface of the object with respect to the lidar sensor device is tilted or inclined. This results, in particular, from the fact that the reflected light beams are subject to the radar equation which describes a power or intensity registered by the receiving elements as a function of a transmission power, the distance and properties of the reflecting object. The radar equation states that the power or intensity of the detected light beam falls with the fourth power of the distance of the object. This radar equation is the main influencing factor of the measurement error on steeply inclined surfaces.

Um den Messfehler zu kompensieren, werden für die Lichtstrahlen die Winkel zwischen der Initialoberflächenlinie und den Strahlachsen der Lichtstrahlen bestimmt. Insbesondere wird für jeden Lichtstrahl, in welchem ein Detektionspunkt identifiziert wurde, ein Winkel zwischen der Strahlachse des Lichtstrahls und der Initialoberflächenlinie bestimmt. Dann wird insbesondere in jedem Lichtstrahl der Detektionspunkt um den von dem Winkel abhängigen Korrekturwinkel innerhalb des Lichtstrahls verschoben. Es wird also insbesondere für jeden Detektionspunkt eine Intrastrahlpositionierung in Abhängigkeit von dem Winkel zwischen der Initialoberflächenlinie und der Strahlachse des zugehörigen Lichtstrahls durchgeführt. Basierend auf den verschobenen Detektionspunkten wird die Finaloberflächenlinie bestimmt, durch welche eine räumliche Lage der Reflexionspunkte auf der Oberfläche relativ zur Lidar-Sensorvorrichtung beschrieben wird. Insbesondere wird die Finaloberflächenlinie in Abhängigkeit von den Abstandswerten und den Korrekturwinkeln der jeweiligen Lichtstrahlen bestimmt. Unter der Annahme, dass die Finaloberflächenlinie auf der Oberfläche des Objektes verläuft, also eine tatsächlichen Lage der Reflexionspunkte auf der Objektoberfläche beschreibt, wird die räumliche Lage des Objektes zu dem Kraftfahrzeug bestimmt.To compensate for the measurement error, the angles between the initial surface line and the beam axes of the light beams are determined for the light beams. In particular, for each light beam in which a detection point has been identified, an angle between the beam axis of the light beam and the initial surface line is determined. Then, in particular in each light beam, the detection point is shifted by the angle-dependent correction angle within the light beam. Thus, in particular for each detection point, an intra-beam positioning is carried out as a function of the angle between the initial surface line and the beam axis of the associated light beam. Based on the shifted detection points, the final surface line is determined by which a spatial position of the reflection points on the surface relative to the lidar sensor device is described. In particular, the final surface line is determined depending on the distance values and the correction angles of the respective light beams. Assuming that the final surface line runs on the surface of the object, ie describes an actual position of the reflection points on the object surface, the spatial position of the object to the motor vehicle is determined.

Aus dem Verfahren ergibt sich der Vorteil, dass auch kostengünstige Lidar-Sensorvorrichtungen mit einer geringen Winkelauflösung zur Überwachung des Umgebungsbereiches des Kraftfahrzeugs verwendet werden können, da der aus der Winkelauflösung resultierende Messfehler im Betrieb der Lidar-Sensorvorrichtung besonders einfach kompensiert werden kann.From the method, there is the advantage that low-cost lidar sensor devices with a low angular resolution can also be used to monitor the surrounding area of the motor vehicle since the measurement error resulting from the angular resolution can be compensated particularly easily during operation of the lidar sensor device.

Dabei kann vorgesehen sein, dass die Initialoberflächenlinie basierend auf den Detektionspunkten und die Finaloberflächenlinie basierend auf den verschobenen Detektionspunkten mittels Ausgleichsrechnung bestimmt werden. Es wird also als die Initialoberflächenlinie eine Kurve bestimmt bzw. geschätzt, welche die Abstandswerte und die zugehörigen Strahlachsenwinkel bestmöglich abbildet bzw. repräsentiert. Die Initialoberflächenlinie wird also mittels Linienanpassung bzw. „Curve Fitting“ als eine Initialausgleichslinie bestimmt. Als die Finaloberflächenlinie wird eine Kurve bestimmt, welche die Abstandswerte und die zugehörigen Korrekturwinkel bestmöglich abbildet. Die Finaloberflächenlinie wird also als eine Finalausgleichslinie bestimmt. Mittels Ausgleichsrechnung können die Initialoberflächenlinie und die Finaloberflächenlinie besonders schnell und einfach bestimmt werden.It can be provided that the initial surface line based on the detection points and the final surface line based on the shifted detection points are determined by means of compensation calculation. Thus, a curve is determined or estimated as the initial surface line, which represents or represents the distance values and the associated beam axis angles in the best possible way. The initial surface line is thus determined by means of line fitting or "curve fitting" as an initial compensation line. As the final surface line, a curve is determined which optimally maps the distance values and the associated correction angles. The final surface line is thus determined as a final compensation line. Using the compensation calculation, the initial surface line and the final surface line can be determined very quickly and easily.

Es erweist sich als vorteilhaft, wenn für die Bestimmung der Finaloberflächenlinie eine Korrekturliste vorbestimmt wird, in welcher vorbestimmten Winkeln vorbestimmte Korrekturwinkel zugeordnet werden, wobei in Abhängigkeit von dem erfassten Winkel zwischen der Strahlachse eines jeweiligen Lichtstrahls und der Initialoberflächenlinie einer der vorbestimmten Korrekturwinkel aus der Korrekturliste als der Korrekturwinkel für den jeweiligen Lichtstrahl ausgewählt und vorgegeben wird. Die Korrekturliste kann beispielweise in einer Speichereinrichtung der Lidar-Sensorvorrichtung hinterlegt werden und im Betrieb der Lidar-Sensorvorrichtung, beispielsweise von einer Auswerteeinrichtung der Lidar-Sensorvorrichtung, zum Kompensieren des Messfehlers ausgelesen werden. Die Korrekturliste kann beispielsweise eine Kennlinie und/oder eine Umsetzungstabelle bzw. „Look-up“-Tabelle (LUT) sein. Die Korrekturliste beschreibt einen Zusammenhang zwischen Werten des Winkels zwischen Strahlachse und Initialoberflächenlinie und Werten des Korrekturwinkels zum Verschieben der Detektionspunkte. Unter Zuhilfenahme der Korrekturliste kann der Messfehler während des Betriebs der Lidar-Sensorvorrichtung, in welcher die Lidar-Sensorvorrichtung den Umgebungsbereich des Kraftfahrzeugs überwacht, besonders schnell und ohne großen Rechenaufwand kompensiert werden.It proves to be advantageous if, for the determination of the final surface line, a correction list is predefined in which predetermined angles predetermined correction angles are assigned, one of the predetermined correction angles from the correction list being dependent on the detected angle between the beam axis of a respective light beam and the initial surface line the correction angle for the respective light beam is selected and specified. The correction list can, for example, be stored in a memory device of the lidar sensor device and be read during operation of the lidar sensor device, for example by an evaluation device of the lidar sensor device, to compensate for the measurement error. The correction list can be, for example, a characteristic curve and / or a look-up table (LUT). The correction list describes a relationship between values of the angle between beam axis and initial surface line and values of the correction angle for shifting the detection points. With the aid of the correction list, the measurement error during operation of the lidar sensor device, in which the lidar sensor device monitors the surrounding area of the motor vehicle, can be compensated particularly quickly and without great computation effort.

Insbesondere wird die Korrekturliste in Abhängigkeit von einer Winkelauflösung der Lidar-Sensorvorrichtung bestimmt, indem die Korrekturwinkel in Abhängigkeit von einem, die Winkelauflösung der Lidar-Sensorvorrichtung festlegenden Öffnungswinkel der jeweiligen Lichtstrahlen vorbestimmt werden. Die Öffnungswinkel der jeweiligen Lichtstrahlen und damit das Auflösungsvermögen der Lidar-Sensorvorrichtung in Winkelrichtung können beispielsweise in Abhängigkeit von einer Anzahl an Empfangselementen und dem Gesamtöffnungswinkel des Empfangssignals bestimmt werden. Die horizontale Auflösung ist insbesondere abhängig von dem horizontalen Gesamtöffnungswinkel des Empfangssignals sowie einer Anzahl der Empfangselemente in einer Zeile der Matrix. Die vertikale Auflösung ist insbesondere abhängig von dem vertikalen Gesamtöffnungswinkel des Empfangssignals sowie einer Anzahl der Empfangselemente in einer Spalte der Matrix. Dabei kann die Korrekturliste für eine Lidar-Sensorvorrichtung aufweisend eine bestimmten Winkelauflösung bestimmt werden, beispielsweise gemessen werden, und dann an Lidar-Sensorvorrichtungen mit anderen Winkelauflösungen angepasst werden. So kann für jede Lidar-Sensorvorrichtung der von der Auflösung verursachte Messfehler besonders exakt kompensiert werden, sodass räumliche Lagen der Objekte in dem Umgebungsbereich des Kraftfahrzeugs mit hoher Genauigkeit erkannt werden können. In particular, the correction list is determined as a function of an angular resolution of the lidar sensor device by predetermining the correction angles as a function of an opening angle of the respective light beams defining the angular resolution of the lidar sensor device. The aperture angles of the respective light beams and thus the resolution capability of the lidar sensor device in the angular direction can be determined, for example, as a function of a number of receiving elements and the total aperture angle of the received signal. The horizontal resolution is particularly dependent on the horizontal total aperture angle of the received signal and a number of the receiving elements in a row of the matrix. In particular, the vertical resolution is dependent on the vertical total aperture angle of the received signal and a number of the receiving elements in a column of the matrix. In this case, the correction list for a lidar sensor device having a specific angular resolution can be determined, for example measured, and then adapted to lidar sensor devices with different angular resolutions. Thus, for each lidar sensor device, the measurement error caused by the resolution can be compensated for particularly accurately, so that spatial positions of the objects in the surrounding area of the motor vehicle can be detected with high accuracy.

In einer Weiterbildung der Erfindung wird die Korrekturliste anhand einer Testlinie bestimmt wird, wobei bei einem ersten vorbestimmten Testwinkel zwischen der Testlinie und der Strahlachse eines ersten Lichtstrahls eine erste Position des Detektionspunktes in dem ersten Lichtstrahl bestimmt wird, bei einem zweiten vorbestimmten Testwinkel zwischen der Testlinie und der Strahlachse eines zweiten Lichtstrahls eine zweite Position des Detektionspunktes in dem zweiten Lichtstrahl bestimmt wird, und die Korrekturliste in Abhängigkeit von dem ersten Testwinkel, dem zweiten Testwinkel, der ersten Position und der zweiten Position bestimmt wird.In a development of the invention, the correction list is determined on the basis of a test line, wherein at a first predetermined test angle between the test line and the beam axis of a first light beam a first position of the detection point in the first light beam is determined, at a second predetermined test angle between the test line and the beam axis of a second light beam, a second position of the detection point in the second light beam is determined, and the correction list is determined in dependence on the first test angle, the second test angle, the first position and the second position.

Bei dieser Ausführungsform wird die Finaloberflächenlinie in Form von der Testlinie vorgegeben, indem für die Testlinie vorbestimmte und damit bekannte Testwinkel relativ zu der Strahlachse der jeweiligen Lichtstrahlen vorgegeben werden. Durch Vorgegeben der Testwinkel der Testlinie kann also die Lage der Finaloberflächenlinie als bekannt vorausgesetzt werden. Anhand der bekannten Testwinkel können dann die tatsächlichen Positionen innerhalb der Lichtstrahlen bzw. tatsächliche Winkel der Detektionspunkte zu der Strahlachse der Lichtstrahlen bestimmt werden. Diese tatsächlichen Winkel können dann als die zu den Testwinkel gehörigen Korrekturwinkel bestimmt werden.In this embodiment, the final surface line is predetermined in the form of the test line by predetermining predetermined and therefore known test angles relative to the beam axis of the respective light beams for the test line. By specifying the test angle of the test line, therefore, the position of the final surface line can be assumed to be known. On the basis of the known test angles, the actual positions within the light beams or actual angles of the detection points to the beam axis of the light beams can then be determined. These actual angles can then be determined as the correction angles associated with the test angles.

Insbesondere wird in einer ersten Testmessung zum Erfassen der ersten Position ein Testobjekt aufweisend die Testlinie in einer ersten Testlage zu der Lidar-Sensorvorrichtung positioniert, sodass die Testlinie den ersten Testwinkel zur Strahlachse des ersten Lichtstrahls aufweist, und in einer zweiten Testmessung zum Erfassen der zweiten Position wird das Testobjekt in einer zweiten Testlage zu der Lidar-Sensorvorrichtung positioniert, sodass die Testlinie den zweiten Testwinkel zur Strahlachse des zweiten Lichtstrahls aufweist. Die Testlagen des Testobjektes werden also durch Vorgeben des jeweiligen Testwinkels und insbesondere eines jeweiligen Testabstands eines Reflexionspunktes auf der Testlinie vorgegeben. Zur Durchführung der ersten Testmessung wird das Testobjekt also derart zu der Lidar-Sensorvorrichtung positioniert werden, dass die Testlinie, welche innerhalb der Oberfläche des Testobjektes verläuft, den ersten Testwinkel zur Strahlachse des in der ersten Testmessung empfangenen ersten Lichtstrahls aufweist. Dann wird der zu einem Reflexionspunkt auf der Oberfläche des Testobjektes korrespondierende Detektionspunkt identifiziert und die erste Position bzw. ein erster Winkel des Detektionspunktes zu der Strahlachse in dem ersten Lichtstrahl bestimmt. Zur Durchführung der zweiten Testmessung kann das Testobjekt derart zu der Lidar-Sensorvorrichtung positioniert werden, dass die Testlinie den zweiten Testwinkel zur Strahlachse des in der zweiten Testmessung empfangenen zweiten Lichtstrahls aufweist. Dann wird die zweite Position bzw. ein zweiter Winkel des zu einem Reflexionspunkt auf der Oberfläche des Testobjektes korrespondierenden Detektionspunktes zu der Strahlachse des zweiten Lichtstrahls bestimmt.In particular, in a first test measurement for detecting the first position, a test object having the test line is positioned in a first test position to the lidar sensor device, so that the test line has the first test angle to the beam axis of the first light beam, and in a second test measurement for detecting the second position the test object is positioned in a second test position to the lidar sensor device, so that the test line has the second test angle to the beam axis of the second light beam. The test layers of the test object are thus predefined by specifying the respective test angle and in particular a respective test distance of a reflection point on the test line. In order to carry out the first test measurement, the test object is thus positioned relative to the lidar sensor device such that the test line which runs within the surface of the test object has the first test angle to the beam axis of the first light beam received in the first test measurement. Then, the detection point corresponding to a reflection point on the surface of the test object is identified and the first position or a first angle of the detection point to the beam axis in the first light beam is determined. To carry out the second test measurement, the test object can be positioned relative to the lidar sensor device such that the test line has the second test angle to the beam axis of the second light beam received in the second test measurement. Then the second position or a second angle of the detection point corresponding to a reflection point on the surface of the test object is determined relative to the beam axis of the second light beam.

Vorzugsweise wird der erste Testwinkel mit einem Wert zwischen 80°und 100°, insbesondere 90°, vorgegeben und der zweite Testwin kel mit einem Wert von höchstens 10°vorgegeben. Insbesondere wird für einen anhand der ersten Position bestimmten ersten Korrekturwinkel ein Wert von 0°bestimmt und für einen anhand der zweiten Position bestimmten zweiten Korrekturwinkel ein Wert des halben Öffnungswinkels der Lichtstrahlen bestimmt. Die Testwinkel der Testlinie des Testobjektes zu der Strahlachse des jeweiligen Lichtstrahls entsprechen insbesondere Extremwinkeln. Durch Vorgeben des ersten Testwinkels ist die Testlinie insbesondere senkrecht zu der Strahlachse des ersten Lichtstrahls orientiert. Durch Vorgeben des zweiten Testwinkels ist die Testlinie insbesondere nahezu parallel zu der Strahlachse des zweiten Lichtstrahls orientiert. Aus diesen beiden Extremfällen können die Wertebereiche der Winkelbeträge und der Korrekturwinkelbeträge bestimmt werden. So kann im Betrieb der Lidar-Sensorvorrichtung ein Objekt, welches eine beliebige räumliche Lage zu dem Kraftfahrzeug aufweist, mit hoher Genauigkeit erkannt werden.Preferably, the first test angle with a value between 80 ° and 100 °, in particular 90 °, given and the second Testwin angle specified with a value of at most 10 °. In particular, a value of 0 ° is determined for a first correction angle determined using the first position, and a value of half the opening angle of the light beams is determined for a second correction angle determined using the second position. The test angles of the test line of the test object to the beam axis of the respective light beam correspond in particular extreme angles. By specifying the first test angle, the test line is oriented in particular perpendicular to the beam axis of the first light beam. By specifying the second test angle, the test line is oriented, in particular, almost parallel to the beam axis of the second light beam. From these two extreme cases, the value ranges of the angle amounts and the correction angle amounts can be determined. Thus, during operation of the lidar sensor device, an object which has an arbitrary spatial position relative to the motor vehicle can be detected with high accuracy.

In einer Weiterbildung der Erfindung werden der erste Testwinkel und der zweite Testwinkel als Grenzen des Wertebereiches von Beträgen der vorbestimmten Winkel der Korrekturliste bestimmt. Der anhand der ersten Position bestimmte erste Korrekturwinkel sowie der anhand der zweiten Position bestimmte zweite Korrekturwinkel werden als Grenzen des Wertebereiches von Beträgen der Korrekturwinkel der Korrekturliste bestimmt. Wenn beispielsweise erfasst wird, dass die Initialoberflächenlinie senkrecht zu der Strahlachse eines Lichtstrahles steht, der Winkel also in etwa dem ersten Testwinkel entspricht, so ist insbesondere keine Korrektur nötig. Der Korrekturwinkel ist also der erste Korrekturwinkel von 0°. Die Detektionspunkte müssen nicht verschoben werden und die Finaloberflächenlinie entspricht der Initialoberflächenlinie. Wenn beispielsweise erfasst wird, dass die Initialoberflächenlinie in etwa parallel zu der Strahlachse eines Lichtstrahles steht, der Winkel also dem zweiten Testwinkel entspricht, so ist eine Korrektur mit dem maximalen Wert, also dem zweiten Korrekturwinkel, nötig. Die Detektionspunkte werden also maximal, insbesondere an einen Rand des Lichtstrahls, verschoben. Ein Vorzeichen der Korrekturwinkel und damit ein Vorzeichen der Verschiebung des Detektionspunktes relativ zur Strahlachse sind abhängig von einem Vorzeichen des Winkels zwischen der Initialoberflächenlinie und der Strahlachse. Die Korrekturwinkelwerte zwischen dem ersten und dem zweiten Korrekturwinkel können interpoliert oder gemessen werden. In one development of the invention, the first test angle and the second test angle are determined as limits of the range of values of the predetermined angle of the correction list. The first correction angle determined on the basis of the first position and the second correction angle determined on the basis of the second position are determined as limits of the value range of amounts of the correction angles of the correction list. If, for example, it is detected that the initial surface line is perpendicular to the beam axis of a light beam, that is to say the angle approximately corresponds to the first test angle, in particular no correction is necessary. The correction angle is therefore the first correction angle of 0 °. The detection points do not have to be shifted and the final surface line corresponds to the initial surface line. If, for example, it is detected that the initial surface line is approximately parallel to the beam axis of a light beam, ie, the angle corresponds to the second test angle, then a correction with the maximum value, that is, the second correction angle, is necessary. The detection points are thus maximally, in particular to an edge of the light beam, moved. A sign of the correction angle and thus a sign of the displacement of the detection point relative to the beam axis are dependent on a sign of the angle between the initial surface line and the beam axis. The correction angle values between the first and second correction angles may be interpolated or measured.

Vorzugsweise werden für die Korrekturliste drei Winkelbereiche vorgegeben, wobei einem ersten Winkelbereich zwischen dem ersten Testwinkel und einem ersten Zwischenwinkel der erste Korrekturwinkel zugeordnet wird, einem an den ersten Winkelbereich angrenzenden zweiten Winkelbereich zwischen dem ersten Zwischenwinkel und einem zweiten Zwischenwinkel ein linearer Korrekturwinkelbereich zwischen dem ersten und dem zweiten Korrekturwinkel zugeordnet wird und einem an den zweiten Winkelbereich angrenzenden dritten Winkelbereich zwischen dem zweiten Zwischenwinkel und dem zweiten Testwinkel der zweite Korrekturwinkel zugeordnet wird. Preferably, three angular ranges are predefined for the correction list, a first angle range between the first test angle and a first intermediate angle being assigned the first correction angle, a second angle range between the first intermediate angle and a second intermediate angle adjoining the first angle range a linear correction angle range between the first and is assigned to the second correction angle and a second angle range adjacent to the third angle range between the second intermediate angle and the second test angle of the second correction angle is assigned.

Für erfasste Winkelbeträge aus dem ersten Winkelbereich wird also der konstante erste Korrekturwinkel vorgegeben. Der erste Zwischenwinkel kann beispielsweise 60° betragen. Beispielsweise wird für erfasste Winkel zwischen 60°und 90°keine Verschiebung der Detektionspunkte durchgeführt, da der erste Korrekturwinkel insbesondere 0°beträgt. Für erfasste Winkelbeträge aus dem dritten Winkelbereich wird der konstante zweite Korrekturwinkel vorgegeben. Der zweite Zwischenwinkel kann beispielsweise 30°betragen. Für Winkel zwischen 0° und 30°werden die Detektionspunkte insbesondere um den halben Öffnungswinkel relativ zur Strahlachse und damit an den Rand des Lichtstrahls verschoben. Für erfasste Winkelbeträge mit Werten zwischen dem ersten und dem dritten Winkelbereich werden die Korrekturwerte linear an den erfassten Winkel angepasst. Durch das Vorgeben von nur drei Winkelbereichen kann die Finaloberflächenlinie besonders schnell und einfach bestimmt werden.For detected angular amounts from the first angular range, therefore, the constant first correction angle is predetermined. The first intermediate angle can be, for example, 60 °. For example, no shift of the detection points is performed for detected angles between 60 ° and 90 °, since the first correction angle is in particular 0 °. For detected angle amounts from the third angular range, the constant second correction angle is specified. The second intermediate angle can be for example 30 °. For angles between 0 ° and 30 °, the detection points are shifted in particular by half the opening angle relative to the beam axis and thus to the edge of the light beam. For detected angular amounts having values between the first and third angular ranges, the correction values are linearly adjusted to the detected angle. By specifying only three angular ranges, the final surface line can be determined particularly quickly and easily.

Die Erfindung betrifft außerdem eine Lidar-Sensorvorrichtung zum Erfassen einer räumlichen Lage eines Objektes in einem Umgebungsbereich eines Kraftfahrzeugs relativ zu dem Kraftfahrzeug. Gemäß einer Ausführungsform der Erfindung umfasst die Lidar-Sensorvorrichtung insbesondere eine Empfangseinrichtung zum Erfassen eines von dem Objekt reflektierten Empfangssignals und eine Auswerteeinrichtung. Insbesondere weist die Empfangseinrichtung Empfangselemente auf, welche dazu ausgelegt sind, Lichtstrahlen des Empfangssignals zu empfangen und in den Lichtstrahlen zu Reflexionspunkten auf einer Oberfläche des Objektes korrespondierende Detektionspunkte zu identifizieren. Die Auswerteeinrichtung kann dazu ausgelegt sein, unter der Annahme, dass sich die Detektionspunkte auf einer Strahlachse der jeweiligen Lichtstrahlen befinden, eine Initialoberflächenlinie in Abhängigkeit von den Detektionspunkten zu bestimmen, Winkel zwischen der Initialoberflächenlinie und der Strahlachse der jeweiligen Lichtstrahlen zu bestimmen, die Detektionspunkte innerhalb der jeweiligen Lichtstrahlen um von den jeweiligen Winkeln abhängige Korrekturwinkel relativ zur Strahlachse der jeweiligen Lichtstrahlen zu verschieben, in Abhängigkeit von den verschobenen Detektionspunkten eine Finaloberflächenlinie zu bestimmen und die Lage des Objektes zu dem Kraftfahrzeug anhand der Finaloberflächenlinie zu bestimmen.The invention also relates to a lidar sensor device for detecting a spatial position of an object in an environmental region of a motor vehicle relative to the motor vehicle. According to one embodiment of the invention, the lidar sensor device in particular comprises a receiving device for detecting a received signal reflected by the object and an evaluation device. In particular, the receiving device has receiving elements which are designed to receive light beams of the received signal and to identify detection points corresponding to reflection points on a surface of the object in the light beams. The evaluation device can be designed, on the assumption that the detection points are located on a beam axis of the respective light beams, to determine an initial surface line as a function of the detection points, to determine angles between the initial surface line and the beam axis of the respective light beams, the detection points within the respective light beams to shift from the respective angles dependent correction angle relative to the beam axis of the respective light beams, depending on the shifted detection points to determine a final surface line and to determine the position of the object to the motor vehicle from the final surface line.

Besonders bevorzugt umfasst die Lidar-Sensorvorrichtung eine Empfangseinrichtung zum Erfassen eines von dem Objekt reflektierten Empfangssignals und eine Auswerteeinrichtung. Die Empfangseinrichtung umfasst Empfangselemente, welche dazu ausgelegt sind, Lichtstrahlen des Empfangssignals zu empfangen und in den Lichtstrahlen zu Reflexionspunkten auf einer Oberfläche des Objektes korrespondierende Detektionspunkte zu identifizieren. Darüber hinaus ist die Auswerteeinrichtung dazu ausgelegt, unter der Annahme, dass sich die Detektionspunkte auf einer Strahlachse der jeweiligen Lichtstrahlen befinden, eine Initialoberflächenlinie in Abhängigkeit von den Detektionspunkten zu bestimmen, Winkel zwischen der Initialoberflächenlinie und der Strahlachse der jeweiligen Lichtstrahlen zu bestimmen, die Detektionspunkte innerhalb der jeweiligen Lichtstrahlen um von dem jeweiligen Winkeln abhängige Korrekturwinkel relativ zur Strahlachse der jeweiligen Lichtstrahlen zu verschieben, in Abhängigkeit von den verschobenen Detektionspunkten eine Finaloberflächenlinie zu bestimmen und die räumliche Lage des Objektes zu dem Kraftfahrzeug anhand der Finaloberflächenlinie zu bestimmen.Particularly preferably, the lidar sensor device comprises a receiving device for detecting a received signal reflected by the object and an evaluation device. The receiving device comprises receiving elements which are designed to receive light beams of the received signal and to identify detection points corresponding to reflection points on a surface of the object in the light beams. Moreover, the evaluation device is configured to determine, assuming that the detection points are on a beam axis of the respective light beams, an initial surface line depending on the detection points, angles between the initial surface line and the beam axis of the respective light beams, the detection points within of the respective light beams to shift from the respective angles dependent correction angle relative to the beam axis of the respective light beams, depending on the shifted detection points to determine a final surface line and the spatial position of the object to the motor vehicle based on the final surface line to determine.

Die Lidar-Sensorvorrichtung kann außerdem eine Sendeeinrichtung zum Aussenden eines Sendesignals in Form von einem Lichtpuls aufweisen, welcher an Objekten in dem Umgebungsbereich reflektiert wird und welcher von der Empfangseinrichtung als Empfangssignal wieder empfangen werden kann. Die Lidar-Sensorvorrichtung ist insbesondere als eine kostengünstige Lidar-Sensorvorrichtung ausgebildet, welche dazu ausgelegt ist, einen durch eine geringe Winkelauflösung verursachten Messfehler zu kompensieren.The lidar sensor device may also have a transmitting device for transmitting a transmission signal in the form of a light pulse, which is reflected at objects in the surrounding area and which can be received again by the receiving device as a received signal. The lidar sensor device is designed, in particular, as an inexpensive lidar sensor device, which is designed to compensate for a measurement error caused by a low angular resolution.

Ferner betrifft die Erfindung ein Fahrerassistenzsystem für ein Kraftfahrzeug mit zumindest einer erfindungsgemäßen Lidar-Sensorvorrichtung. Das Fahrerassistenzsystem ist insbesondere dazu ausgelegt, eine vorbestimmte Assistenzfunktion basierend auf der von der zumindest einen Lidar-Sensorvorrichtung erfassten Lage des Objektes relativ zum Kraftfahrzeug auszuführen. Beispielseise kann das Fahrerassistenzsystem eine Maßnahme zum Vermeiden einer Kollision zwischen dem Kraftfahrzeug und dem Objekt auslösen, wenn durch das Fahrerassistenzsystem anhand der Lage des Objektes erkannt wurde, dass sich das Objekt in einem kritischen Teilbereich des Umgebungsbereiches befindet und eine Kollision mit dem Objekt bevorsteht. Eine solche kollisionsvermeidende Maßnahme kann beispielsweise die Ausgabe eines Warnsignals und/oder ein automatisches Abbremsen des Kraftfahrzeugs sein.Furthermore, the invention relates to a driver assistance system for a motor vehicle with at least one lidar sensor device according to the invention. The driver assistance system is in particular configured to execute a predetermined assistance function based on the position of the object relative to the motor vehicle detected by the at least one lidar sensor device. By way of example, the driver assistance system can trigger a measure for avoiding a collision between the motor vehicle and the object if it has been detected by the driver assistance system based on the position of the object that the object is located in a critical subarea of the surrounding area and a collision with the object is imminent. Such a collision avoiding measure may be, for example, the output of a warning signal and / or an automatic braking of the motor vehicle.

Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Das Kraftfahrzeug kann beispielsweise als ein Personenkraftwagen, ein Lastkraftwagen oder ein Motorrad ausgebildet sein.A motor vehicle according to the invention comprises a driver assistance system according to the invention. The motor vehicle may be formed, for example, as a passenger car, a truck or a motorcycle.

Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Lidar-Sensorvorrichtung, für das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug.The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the lidar sensor device according to the invention, to the driver assistance system according to the invention and to the motor vehicle according to the invention.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description, as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures, can be used not only in the respectively specified combination but also in other combinations or in isolation, without the frame to leave the invention. Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, but which emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim. Moreover, embodiments and combinations of features, in particular by the embodiments set out above, are to be regarded as disclosed, which go beyond or deviate from the combinations of features set out in the back references of the claims.

Dabei zeigen:

  • 1 eine schematische Darstellung einer Ausführungsform eines erfindungsgemäßen Kraftfahrzeugs;
  • 2 eine schematische Darstellung eines Empfangssignals mit mehreren Lichtstrahlen;
  • 3 eine schematische Darstellung eines Intensitätsverlaufs eines Lichtstrahls;
  • 4 eine schematische Darstellung einer Testlinie aufweisend einen ersten Winkel zu einer Strahlachse eines Lichtstrahls;
  • 5 eine schematische Darstellung einer Testlinie aufweisend einen zweiten Winkel zu einer Strahlachse eines Lichtstrahls; und
  • 6 eine schematische Darstellung eines Zusammenhangs von Winkeln zwischen Strahlachsen und einer Testlinie und Korrekturwinkeln.
Showing:
  • 1 a schematic representation of an embodiment of a motor vehicle according to the invention;
  • 2 a schematic representation of a received signal with a plurality of light beams;
  • 3 a schematic representation of an intensity profile of a light beam;
  • 4 a schematic representation of a test line having a first angle to a beam axis of a light beam;
  • 5 a schematic representation of a test line having a second angle to a beam axis of a light beam; and
  • 6 a schematic representation of a relationship of angles between beam axes and a test line and correction angles.

In den Figuren sind gleiche sowie funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figures, identical and functionally identical elements are provided with the same reference numerals.

1 zeigt ein Kraftfahrzeug 1 gemäß einer Ausführungsform der vorliegenden Erfindung. Das Kraftfahrzeug 1 ist im vorliegenden Fall als ein Personenkraftwagen ausgebildet. Das Kraftfahrzeug 1 weist ein Fahrerassistenzsystem 2 mit zumindest einer Lidar-Sensorvorrichtung 3 auf, welche zum Überwachen eines Umgebungsbereiches 4 des Kraftfahrzeugs 1 ausgebildet ist. Die Lidar-Sensorvorrichtung 3 ist insbesondere als ein Flash-Lidar-Sensor ausgestaltet, welcher den Umgebungsbereich 4 mittels eines Sendesignals in Form von einem Lichtpuls ausleuchtet und den in dem Umgebungsbereich 4 reflektierten Lichtpuls als Empfangssignal wieder empfängt. Dazu weist die Lidar-Sensorvorrichtung 3 eine Sendeeinrichtung 5 zum Aussenden des Sendesignals, eine Empfangseinrichtung 6 zum Empfangen des an einem Objekt 7 in dem Umgebungsbereich 4 reflektieren Empfangssignals sowie eine Auswerteeinrichtung 8 auf. Die Lidar-Sensorvorrichtung 3 ist dazu ausgelegt, einen Abstand des Objektes 7 zu dem Kraftfahrzeug 1 sowie eine Orientierung einer Oberfläche 9 des Objektes 7 zu dem Kraftfahrzeug 1 bestimmen. Der Abstand sowie die Orientierung können als Informationen über eine räumliche Lage des Objektes 7 zu dem Kraftfahrzeug 1 einer Steuereinrichtung 10 des Fahrerassistenzsystems 2 bereitgestellt werden. Die Steuereinrichtung 10 kann basierend auf der Lageinformation beispielsweise eine Maßnahme zur Vermeidung einer Kollision des Kraftfahrzeugs 1 mit dem Objekt 7 einleiten. 1 shows a motor vehicle 1 according to an embodiment of the present invention. The car 1 is designed in the present case as a passenger car. The car 1 has a driver assistance system 2 with at least one lidar sensor device 3 which is used to monitor a surrounding area 4 of the motor vehicle 1 is trained. The lidar sensor device 3 is designed in particular as a flash lidar sensor, which surrounds the environment 4 by means of a transmission signal in the form of a light pulse illuminates and in the surrounding area 4 reflected light pulse as received signal again. For this purpose, the lidar sensor device 3 a transmitting device 5 for transmitting the transmission signal, a receiving device 6 to receive the on an object 7 in the surrounding area 4 reflect received signal and an evaluation 8th on. The lidar sensor device 3 is designed to be a distance of the object 7 to the motor vehicle 1 as well as an orientation of a surface 9 of the object 7 to the motor vehicle 1 determine. The distance as well as the orientation can be considered information about a spatial location of the object 7 to the motor vehicle 1 a control device 10 of the driver assistance system 2 to be provided. The control device 10 For example, based on the location information, a measure to avoid a collision of the motor vehicle 1 with the object 7 initiate.

Beispielsweise kann die Sendeeinrichtung 5 der Lidar-Sensorvorrichtung 3 während eines Messzyklus mehrere Lichtpulse aussenden. Die Empfangseinrichtung 6 kann den reflektierten Lichtpuls als Empfangssignal E (siehe 2) in mehreren Lichtstrahlen 11 bzw. Reflexionen wieder empfangen. Dazu weist die Empfangseinrichtung 6 mehrere Empfangselemente auf, wobei jedes Empfangselement insbesondere nur Lichtstrahlen 11 aus einer bestimmten Reflexionsrichtung empfängt. Anders ausgedrückt empfängt jedes Empfangselement nur Lichtstrahlen 11, welche aus der ihm zugeordneten Reflexionsrichtung bzw. einem ihm zugeordneten Reflexionswinkel auf die Empfangseinrichtung 6 treffen. In den von den Empfangselementen empfangenen Lichtstrahlen 11 werden zunächst Detektionspunkte D identifiziert, welche zu Reflexionspunkten R auf der Oberfläche 9 des Objektes 7 korrespondieren. Dazu wird für jeden Lichtstrahl 11 ein Intensitätsverlauf 12 von Intensitäten I des Lichtstrahls 11 über die Zeit t, wie er in 3 gezeigt ist, nach Intensitätsspitzen P1, P2 durchsucht, welche die Detektionspunkte D1, D2, sogenannte Echos, repräsentieren. Anhand eines Zeitstempels t1 einer ersten Intensitätsspitze P1 kann über Laufzeitmessung eine erste Distanz d1 eines zu dem Detektionspunkt D1 korrespondierenden Reflexionspunktes R auf der Oberfläche 9 des Objektes 7 bestimmt werden. Anhand eines zweiten Zeitstempels t2 der zweiten Intensitätsspitze P2 kann eine zweite Distanz d2 eines zu dem Detektionspunkt D2 korrespondierenden Reflexionspunktes R auf der Oberfläche 9 des Objektes 7 bestimmt werden.For example, the transmitting device 5 the lidar sensor device 3 send out several light pulses during one measuring cycle. The receiving device 6 can the reflected light pulse as the received signal E (see 2 ) in several light beams 11 or reflections received again. For this purpose, the receiving device 6 a plurality of receiving elements, each receiving element in particular only light rays 11 receives from a particular reflection direction. In other words, each receiving element receives only light rays 11 , which from its associated reflection direction or its associated reflection angle to the receiving device 6 to meet. In the light beams received by the receiving elements 11 are first detection points D identifies which to reflection points R on the surface 9 of the object 7 correspond. This is done for every ray of light 11 an intensity course twelve of intensities I of the light beam 11 over time t as he is in 3 shown after intensity peaks P1 . P2 searched which are the detection points D1 . D2 , so-called echoes represent. Based on a timestamp t1 a first intensity peak P1 can take a runtime measurement a first distance d1 one to the detection point D1 corresponding reflection point R on the surface 9 of the object 7 be determined. Based on a second timestamp t2 the second intensity peak P2 can be a second distance d2 one to the detection point D2 corresponding reflection point R on the surface 9 of the object 7 be determined.

Da es innerhalb eines einzelnen Lichtstrahls 11 nur möglich ist, die radialen Abstände d1, d2 der Reflexionspunkte R auf der Oberfläche 9 des Objektes 7 zu der Lidar-Sensorvorrichtung 3 zu bestimmen, wird anhand des den Detektionspunkt D erfassenden Empfangselementes der Reflexionswinkel bestimmt. Eine Winkelauflösung der Lidar-Sensorvorrichtung 3 ist abhängig von einem jeweiligen Öffnungswinkel oder Lichtstrahlen 11. Dabei wird zunächst der in einem Lichtstrahl 11 erfasste Detektionspunkt D auf eine sich in der Mitte des Lichtstrahls 11 befindliche Strahlachse S in dem anhand der Laufzeit bestimmten Abstand d gesetzt. Es wird also davon ausgegangen, dass der Reflexionswinkel einem Strahlachsenwinkel des Lichtstrahls 11 entspricht. Die tatsächliche Reflexion tritt jedoch irgendwo innerhalb eines durch den Öffnungswinkel α begrenzten Bereichs zwischen Rändern 13 des Lichtstrahls 11 in dem gemessenen radialen Abstand d auf. Dies bedeutet, dass ein Messfehler in Winkelrichtung, also eine Differenz zwischen der realen Reflexion und der Interpretation, bis zum Wert des halben Öffnungswinkel α/2 des Lichtstrahls 11 betragen kann.As it is within a single beam of light 11 only possible is the radial distances d1 . d2 the reflection points R on the surface 9 of the object 7 to the lidar sensor device 3 to determine is based on the the detection point D detecting receiving element of the reflection angle determined. An angular resolution of the lidar sensor device 3 is dependent on a respective opening angle or light rays 11 , Here, first in a light beam 11 detected detection point D on one in the middle of the light beam 11 located beam axis S in the distance determined by the transit time d set. It is therefore assumed that the reflection angle of a beam axis angle of the light beam 11 equivalent. However, the actual reflection occurs somewhere within a through the opening angle α limited area between edges 13 of the light beam 11 in the measured radial distance d on. This means that a measurement error in the angular direction, ie a difference between the real reflection and the interpretation, up to the value of half the opening angle α / 2 of the light beam 11 can amount.

Anhand der Detektionspunkte D wird unter der Annahme, dass sich die Detektionspunkte D in der Mitte des jeweiligen Lichtstrahls 11, also auf der Strahlachse S, befinden, eine Initialoberflächenlinie 14 bestimmt. Die Initialoberflächenlinie 14, welche beispielsweise mittels Ausgleichsrechnung bestimmt werden kann, beschreibt einen ersten näherungsweisen Zusammenhang zwischen den radialen Abständen der Reflexionspunkte R und den Reflexionswinkeln der Reflexionspunkte R. Durch die Initialoberflächenlinie 14 wird also eine Lage der Oberfläche 9 des Objektes 7 zu der Lidar-Sensorvorrichtung 3 vorerst geschätzt.Based on the detection points D is assuming that the detection points D in the middle of the respective light beam 11 , so on the beam axis S , an initial surface line 14 certainly. The initial surface line 14 , which can be determined for example by means of compensation calculation, describes a first approximate relationship between the radial distances of the reflection points R and the reflection angles of the reflection points R , Through the initial surface line 14 becomes a position of the surface 9 of the object 7 to the lidar sensor device 3 initially appreciated.

Um den Fehler, welcher aus der Festlegung des Reflexionswinkels als Strahlachsenwinkel resultiert, zu kompensieren, wird eine sogenannte Intrastrahlpositionierung durchgeführt. Dazu wird für jeden Lichtstrahl 11 ein Winkel β zwischen der Strahlachse S und der Initialoberflächenlinie 14 bestimmt wird. Dann wird der Detektionspunkt D innerhalb des Lichtstrahls 11 um einen von dem Winkel β abhängigen Korrekturwinkel γ verschoben. Basierend auf den verschobenen Detektionspunkten D' wird eine Finaloberflächenlinie 15, beispielsweise mittels Ausgleichsrechnung, bestimmt, welche die tatsächliche Lage der Reflexionspunkte R auf der Oberfläche 9 des Objektes 7 repräsentiert. Anhand dieser Finaloberflächenlinie 15 kann die Lage des Objektes 7 zu dem Kraftfahrzeug 1 bestimmt werden.In order to compensate the error resulting from the determination of the reflection angle as the beam axis angle, so-called intra-beam positioning is performed. This is done for every ray of light 11 an angle β between the beam axis S and the initial surface line 14 is determined. Then the detection point D within the light beam 11 by a correction angle dependent on the angle β γ postponed. Based on the shifted detection points D ' becomes a final surface line 15 For example, by means of compensation calculation, which determines the actual position of the reflection points R on the surface 9 of the object 7 represents. Based on this final surface line 15 can the location of the object 7 to the motor vehicle 1 be determined.

Anhand von 4, 5 und 6 wird ein Zusammenhang zwischen dem Winkel β und dem Korrekturwinkel γ erläutert. In 4 ist ein erster Lichtstrahl 11' gezeigt, dessen Strahlachse S einen vorbestimmten ersten Testwinkel β1 zu einer vorbestimmten Testlinie 16 aufweist. Der erste Testwinkel β1 beträgt insbesondere 90°, sodass die Testlinie 16 senkrecht zu der Strahlachse S des ersten Lichtstrahls 11' orientiert ist. In 5 ist ein zweiter Lichtstrahl 11" gezeigt, dessen Strahlachse S einen vorbestimmten zweiten Testwinkel β2 zu der vorbestimmten Testlinie 16 aufweist. Der zweite Testwinkel β2 ist insbesondere kleiner als 10°, sodass die Test linie 16 nahezu parallel zu der Strahlachse S des zweiten Lichtstrahls 11" orientiert ist. Beim Bestimmen der tatsächlichen Position der Detektionspunkte D in den Lichtstrahlen 11', 11" wird davon ausgegangen, dass derjenige Reflexionspunkt R, welcher sich am nächsten an dem Empfangselement befindet, die höchste Intensität aufweist. Welcher Reflexionspunkt R sich dabei am nächsten an dem Empfangselement befindet, ist abhängig von dem Winkel β zwischen der Testlinie 16 und der Strahlachse S.Based on 4 . 5 and 6 becomes a relationship between the angle β and the correction angle γ explained. In 4 is a first ray of light 11 ' shown, whose beam axis S a predetermined first test angle β1 to a predetermined test line 16 having. The first test angle β1 is in particular 90 °, so the test line 16 perpendicular to the beam axis S of the first light beam 11 ' is oriented. In 5 is a second ray of light 11 " shown, whose beam axis S a predetermined second test angle β2 to the predetermined test line 16 having. The second test angle β2 is in particular less than 10 °, so that the test line 16 almost parallel to the beam axis S of the second light beam 11 " is oriented. When determining the actual position of the detection points D in the rays of light 11 ' . 11 " it is assumed that the reflection point R which is closest to the receiving element having the highest intensity. Which reflection point R is closest to the receiving element is dependent on the angle β between the test line 16 and the beam axis S ,

In 4 haben alle Reflexionspunkte R auf der Testlinie 16 in etwa denselben radialen Abstand zu dem Empfangselement. Daher wird erwartet, dass sich der Detektionspunkt D in der Mittel des Lichtstrahls 11' auf der Strahlachse S befindet. In diesem Fall hat die Radargleichung, welche besagt, dass eine Leistung bzw. Intensität des Empfangssignals mit der vierten Potenz der Objektdistanz sinkt, nahezu keinen Einfluss. Die Messung ist hauptsächlich durch eine Nichtlinearität des Empfangselementes, beispielsweise einer Fotodiode, beeinflusst, welche für Reflexionen in der Mitte des Lichtstrahls 11' die höchste Sensitivität aufweist.In 4 have all reflection points R on the test line 16 approximately the same radial distance to the receiving element. Therefore, it is expected that the detection point D in the middle of the ray of light 11 ' on the beam axis S located. In this case, the radar equation, which states that a power or intensity of the received signal decreases with the fourth power of the object distance, has almost no influence. The measurement is mainly influenced by a non-linearity of the receiving element, for example a photodiode, which is responsible for reflections in the center of the light beam 11 ' has the highest sensitivity.

In 5 verläuft ein relativ großer Abschnitt der Testlinie 16 innerhalb des zweiten Lichtstrahls 16". Aufgrund dieser schrägen Lage der Testlinie 16 befindet sich derjenige Reflexionspunkt R, welcher den Intensitätspeak verursacht und für den der Abstandswert d bestimmt wird, am linken Rand 13 des zweiten Lichtstrahls 11'. Würde nun der Detektionspunkt D auf die Strahlachse S gelegt, würde dem realen, tatsächlichen Reflexionspunkt auf der Strahlachse S ein falscher Reflexionswinkel zugeordnet.In 5 runs a relatively large section of the test line 16 within the second light beam 16 " , Because of this oblique position of the test line 16 is the reflection point R which causes the intensity peak and for the distance value d is determined, on the left edge 13 of the second light beam 11 ' , Would now the detection point D on the beam axis S would put the real, actual reflection point on the beam axis S associated with an incorrect reflection angle.

Für Objektoberflächenlinien von Objekten mit Winkeln β zwischen den zwei Extremwinkeln β1, β2 verschiebt sich somit der tatsächliche Reflexionspunkt von der Mitte des Lichtstrahls 11 zu dem jeweiligen Rand 13. Um dies abzubilden, werden die Detektionspunkte D um die Korrekturwinkel γ verschoben. Dadurch werden die verschobenen Detektionspunkte D' bestimmt, welche die realen Reflexionspunkte R abbilden sollen. Eine Richtung der Verschiebung eines Detektionspunktes D ist dabei abhängig von einem Vorzeichen des Winkels β. Zusammenhänge 17, 18 zwischen dem Winkel β und dem Korrekturwinkel γ sind in 6 gezeigt. Die Zusammenhänge 17, 18 können beispielsweise basierend auf Messungen bestimmt werden, bei welchen die Korrekturwinkel γ in Abhängigkeit von den Testwinkeln β1, β2 bestimmt werden. Die Zusammenhänge 17, 18 sind hier nur für positive Winkel β dargestellt. Der Zusammenhang zwischen negativen Winkeln β und dem Korrekturwinkel ist analog.For object surface lines of objects with angles β between the two extreme angles β1 . β2 Thus, the actual reflection point shifts from the center of the light beam 11 to the respective edge 13 , To represent this, the detection points become D around the correction angle γ postponed. This will cause the shifted detection points D 'determines which the real reflection points R should map. A direction of displacement of a detection point D depends on a sign of the angle β , relationships 17 . 18 between the angle β and the correction angle γ are in 6 shown. Contexts 17 . 18 can be determined, for example, based on measurements in which the correction angles γ depending on the test angles β1 . β2 be determined. Contexts 17 . 18 are here only for positive angles β shown. The connection between negative angles β and the correction angle is analog.

Der Zusammenhang 17 zeigt dabei einen glatten Verlauf, bei welchem jedem Winkel β ein Korrekturwinkel γ zugeordnet ist. Wenn der Winkel β zwischen der Initialoberflächenlinie 14 und der Strahlachse S beispielsweise dem ersten Testwinkel β1, hier 90°, entspricht, so wird ein erster Korrekturw inkel γ1, insbesondere 0°, vorgegeben. Der Detektionspunkt D wird also nicht innerhalb des Lichtstrahls 11 verschoben. Wenn der Winkel β zwischen der Initialoberflächenlinie 14 und der Strahlachse S beispielsweise dem zweiten Testwinkel β2, hier nahezu 0°, entspricht, so wird ein zweiter Korrekturwinkel γ2, insbesondere -α/2, vorgegeben. Der Detektionspunkt D wird also innerhalb des Lichtstrahls 11 in negativer Richtung auf den Strahlrand 13 geschoben. Für Winkel β zwischen den Testwinkel β1, β2 wird der entsprechende Korrekturwinkel γ aus dem Zusammenhang 17 bestimmt.The relationship 17 shows a smooth course, in which each angle β a correction angle γ assigned. When the angle β between the initial surface line 14 and the beam axis S for example, the first test angle β1 , here 90 °, corresponds to, so is a first Korrekturw inkel γ1 , in particular 0 °, given. The detection point D So it will not be within the light beam 11 postponed. When the angle β between the initial surface line 14 and the beam axis S for example, the second test angle β2 , here almost 0 °, corresponds, so is a second correction angle γ2 , in particular -α / 2, given. The detection point D So it is within the light beam 11 in the negative direction on the beam edge 13 pushed. For angles β between the test angles β1 . β2 becomes the corresponding correction angle γ out of context 17 certainly.

Bei Zusammenhang 18 sind die Winkel β in drei Winkelbereiche 19, 20, 21 unterteilt. Für sämtliche Winkel β des ersten Winkelbereiches 19, beispielsweise von 60°bis 90°, wird der erste Korrekturwinkel γ1, beispielsweise 0°, vorgegeben. Für sämtliche Win kel β des dritten Winkelbereiches 21, beispielsweise von 0°b is 30°, wird der zweite Korrekturwinkel γ, beispielsweise -α/2, vorgegeben. Für sämtliche Winkel β des zweiten Winkelbereiches 2, beispielsweise von 30°bis 60°, wird der Korrekt urwinkel γ linear mit dem Winkel β erhöht.In context 18 are the angles β in three angular ranges 19 . 20 . 21 divided. For all angles β of the first angle range 19 For example, from 60 ° to 90 °, the first correction angle γ1 , for example 0 °, given. For all angles β of the third angular range 21 For example, from 0 ° to 30 °, the second correction angle γ , for example -α / 2, given. For all angles β of the second angular range 2 For example, from 30 ° to 60 °, the correct angle is Urwinkel γ linear with the angle β elevated.

Die Zusammenhänge 17, 18 können beispielsweise als Korrekturlisten in einer Speichereinrichtung des Lidar-Sensorvorrichtung 3 hinterlegt sein und von der Auswerteeinrichtung 8 zum Verschieben der Detektionspunkte D ausgelesen werden. Somit kann ein Messfehler der Lidar-Sensorvorrichtung 3 besonders schnell und einfach kompensiert werden.Contexts 17 . 18 may, for example, as correction lists in a memory device of the lidar sensor device 3 be deposited and by the evaluation 8th to move the detection points D be read out. Thus, a measurement error of the lidar sensor device 3 be compensated very quickly and easily.

Claims (14)

Verfahren zur Erkennung einer räumlichen Lage eines Objektes (7) in einem Umgebungsbereich (4) eines Kraftfahrzeugs (1) relativ zu dem Kraftfahrzeug (1) anhand eines an dem Objekt (7) reflektierten Empfangssignals (E), welches in mehreren Lichtstrahlen (11) von Empfangselementen einer Lidar-Sensorvorrichtung (3) empfangen wird, wobei a) durch die Empfangselemente in den Lichtstrahlen (11) zu Reflexionspunkten (R) auf einer Oberfläche (9) des Objektes (7) korrespondierende Detektionspunkte (D) identifiziert werden, b) unter der Annahme, dass sich die Detektionspunkte (D) auf einer Strahlachse (S) der jeweiligen Lichtstrahlen (11) befinden, eine Initialoberflächenlinie (14) in Abhängigkeit von den Detektionspunkten (D) bestimmt wird, c) Winkel (β) zwischen der Initialoberflächenlinie (14) und der Strahlachse (S) der jeweiligen Lichtstrahlen (11) bestimmt werden, d) die Detektionspunkte (D) innerhalb der jeweiligen Lichtstrahlen (11) um von den jeweiligen Winkeln (β) abhängige Korrekturwinkel (γ) relativ zur Strahlachse (S) der jeweiligen Lichtstrahlen (11) verschoben werden, e) in Abhängigkeit von den verschobenen Detektionspunkten (D') eine Finaloberflächenlinie (15) bestimmt wird, und f) die räumliche Lage des Objektes (7) zu dem Kraftfahrzeug (1) anhand der Finaloberflächenlinie (15) bestimmt wird.Method for detecting a spatial position of an object (7) in a surrounding area (4) of a motor vehicle (1) relative to the motor vehicle (1) on the basis of a received signal (E) reflected at the object (7), which is emitted in a plurality of light beams (11) a) by the receiving elements in the light beams (11) to reflection points (R) on a surface (9) of the object (7) corresponding detection points (D) are identified, b) assuming that the detection points (D) are on a beam axis (S) of the respective light beams (11), an initial surface line (14) is determined in dependence on the detection points (D), c) angle (β) between the initial surface line (14) and the beam axis (S) of the respective light beams (11) are determined; d) the detection points (D) within the respective light beams (11) are dependent on the respective angles (β) (e) are shifted relative to the beam axis (S) of the respective light beams (11), e) a final surface line (15) is determined as a function of the shifted detection points (D '), and f) the spatial position of the object (7) to the motor vehicle (1) on the basis of the final surface line (15) is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in Schritt b) mittels der Empfangselemente anhand der Detektionspunkte (D) der jeweiligen Lichtstrahlen (11) Abstandswerte (d) der mit den Detektionspunkten (D) korrespondierenden Reflexionspunkte (R) bestimmt werden und die Initialoberflächenlinie (14) in Abhängigkeit von den Abstandswerten (d) und Strahlachsenwinkeln der jeweiligen Lichtstrahlen (11) bestimmt wird, und in Schritt e) die Finaloberflächenlinie (15) in Abhängigkeit von den Abstandswerten (d) und den Korrekturwinkeln (γ) der jeweiligen Lichtstrahlen (11) bestimmt wird.Method according to Claim 1 , characterized in that in step b) by means of the receiving elements on the basis of the detection points (D) of the respective light beams (11) distance values (d) of the detection points (D) corresponding reflection points (R) are determined and the initial surface line (14) in dependence is determined from the distance values (d) and beam axis angles of the respective light beams (11), and in step e), the final surface line (15) is determined in accordance with the distance values (d) and the correction angles (γ) of the respective light beams (11). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Initialoberflächenlinie (14) basierend auf den Detektionspunkten (D) und die Finaloberflächenlinie (15) basierend auf den verschobenen Detektionspunkten (D') mittels Ausgleichsrechnung bestimmt werden.Method according to Claim 1 or 2 characterized in that the initial surface line (14) is determined based on the detection points (D) and the final surface line (15) based on the shifted detection points (D ') by means of compensation calculation. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für die Bestimmung der Finaloberflächenlinie (14) eine Korrekturliste (17, 18) vorbestimmt wird, in welcher vorbestimmten Winkeln vorbestimmte Korrekturwinkel zugeordnet werden, wobei in Abhängigkeit von dem erfassten Winkel (β) zwischen der Strahlachse (S) eines jeweiligen Lichtstrahles (11) und der Initialoberflächenlinie (14) einer der vorbestimmten Korrekturwinkel aus der Korrekturliste (17, 18) als der Korrekturwinkel (γ) für den jeweiligen Lichtstrahl (11) ausgewählt und vorgegeben wird.Method according to one of the preceding claims, characterized in that for the determination of the final surface line (14) a correction list (17, 18) is predetermined, in which predetermined angles predetermined correction angles are assigned, wherein in dependence on the detected angle (β) between the Beam axis (S) of a respective light beam (11) and the initial surface line (14) one of the predetermined correction angle from the correction list (17, 18) as the correction angle (γ) for the respective light beam (11) is selected and specified. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Korrekturliste (17, 18) in Abhängigkeit von einer Winkelauflösung der Lidar-Sensorvorrichtung (3) bestimmt wird, indem die Korrekturwinkel in Abhängigkeit von einem, die Winkelauflösung der Lidar-Sensorvorrichtung (3) festlegenden Öffnungswinkel (α) der jeweiligen Lichtstrahlen (11) vorbestimmt werden.Method according to Claim 4 , characterized in that the correction list (17, 18) in dependence on an angular resolution of the lidar sensor device (3) is determined by the correction angle in dependence on a, the angular resolution of the lidar sensor device (3) defining the opening angle (α) of respective light beams (11) are predetermined. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass die Korrekturliste (17, 18) anhand einer Testlinie (16) bestimmt wird, wobei bei einem ersten vorbestimmten Testwinkel (β1) zwischen der Testlinie (16) und der Strahlachse (S) eines ersten Lichtstrahls (11') eine erste Position des Detektionspunktes (D) in dem ersten Lichtstrahl (11') bestimmt wird, bei einem zweiten vorbestimmten Testwinkel (β2) zwischen der Testlinie (16) und der Strahlachse (S) eines zweiten Lichtstrahls (11") eine zweite Position des Detektionspunktes (D) in dem zweiten Lichtstrahl (11") bestimmt wird, und die Korrekturliste (17, 18) in Abhängigkeit von dem ersten Testwinkel (β1), dem zweiten Testwinkel (β2), der ersten Position und der zweiten Position bestimmt wird.Method according to Claim 4 or 5 , characterized in that the correction list (17, 18) is determined on the basis of a test line (16), wherein at a first predetermined test angle (β1) between the test line (16) and the beam axis (S) of a first light beam (11 ') first position of the detection point (D) in the first light beam (11 ') is determined, at a second predetermined test angle (β2) between the test line (16) and the beam axis (S) of a second light beam (11 ") a second position of the detection point (D) is determined in the second light beam (11 "), and the correction list (17, 18) is determined depending on the first test angle (β1), the second test angle (β2), the first position and the second position. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass in einer ersten Testmessung zum Erfassen der ersten Position ein Testobjekt aufweisend die Testlinie (16) in einer ersten Testlage zu der Lidar-Sensorvorrichtung (3) positioniert wird, sodass die Testlinie (16) den ersten Testwinkel (β1) zur Strahlachse (S) des ersten Lichtstrahls (11') aufweist, und in einer zweiten Testmessung zum Erfassen der zweiten Position das Testobjekt in einer zweiten Testlage zu der Lidar-Sensorvorrichtung (3) positioniert wird, sodass die Testlinie (16) den zweiten Testwinkel (β2) zur Strahlachse (S) des zweiten Lichtstrahls (11") aufweist.Method according to Claim 6 characterized in that in a first test measurement for detecting the first position, a test object having the test line (16) is positioned in a first test position to the lidar sensor device (3), so that the test line (16) the first test angle (β1) Beam axis (S) of the first light beam (11 '), and in a second test measurement for detecting the second position, the test object is positioned in a second test position to the lidar sensor device (3), so that the test line (16) the second test angle ( β2) to the beam axis (S) of the second light beam (11 "). Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass der erste Testwinkel (β1) mit einem Wert zwischen 80°und 100°, insbesonde re 90°, vorgegeben wird und der zweite Testwinkel (β2) mit einem Wert von höchstens 10° vorgegeben wird.Method according to Claim 6 or 7 , characterized in that the first test angle (β1) is specified with a value between 80 ° and 100 °, in particular 90 °, and the second test angle (β2) is specified with a value of at most 10 °. Verfahren nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass für einen anhand der ersten Position bestimmten ersten Korrekturwinkel (γ1) ein Wert von 0°bestimmt wird und für einen anhand der zweiten Position bestimmten zweiten Korrekturwinkel (γ2) ein Wert eines halben Öffnungswinkels der Lichtstrahlen (11) bestimmt wird.Method according to one of Claims 6 to 8th , characterized in that a value of 0 ° is determined for a first correction angle determined by the first position (γ1) and a value of half the opening angle of the light beams (11) is determined for a second correction angle (γ2) determined from the second position. Verfahren nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass der erste Testwinkel (β1) und der zweite Testwinkel (β2) als Grenzen eines Wertebereiches von Beträgen der vorbestimmten Winkel der Korrekturliste (17, 18) bestimmt werden, und ein anhand der ersten Position bestimmter erster Korrekturwinkel (γ1) sowie ein anhand der zweiten Position bestimmter zweiter Korrekturwinkel (γ2) als Grenzen eines Wertebereiches von Beträgen der Korrekturwinkel der Korrekturliste (17, 18) bestimmt werden.Method according to one of Claims 6 to 9 characterized in that the first test angle (β1) and the second test angle (β2) are determined as limits of a range of values of the predetermined angles of the correction list (17, 18), and a first correction angle (γ1) determined from the first position and a second correction angle (γ2), determined on the basis of the second position, can be determined as limits of a value range of amounts of the correction angles of the correction list (17, 18). Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass für die Korrekturliste (17, 18) drei Winkelbereiche (19, 29, 21) vorgegeben werden, wobei einem ersten Winkelbereich (19) zwischen dem ersten Testwinkel (β1) und einem ersten Zwischenwinkel der erste Korrekturwinkel (γ1) zugeordnet wird, einem an den ersten Winkelbereich (19) angrenzenden zweiten Winkelbereich (20) zwischen dem ersten Zwischenwinkel und einem zweiten Zwischenwinkel ein linearer Korrekturwinkelbereich zwischen dem ersten und dem zweiten Korrekturwinkel (γ1, γ2) zugeordnet wird und einem an den zweiten Winkelbereich (20) angrenzenden dritten Winkelbereich (21) zwischen dem zweiten Zwischenwinkel und dem zweiten Testwinkel (β2) der zweite Korrekturwinkel (γ2) zugeordnet wird.Method according to Claim 10 , characterized in that for the correction list (17, 18) three angular ranges (19, 29, 21) are given, wherein a first angle range (19) between the first test angle (β1) and a first intermediate angle of the first correction angle (γ1) assigned in that a linear correction angle range between the first and the second correction angle (γ1, γ2) is assigned to a second angle range (20) adjoining the first angle range (19) between the first intermediate angle and a second intermediate angle, and one to the second angular range (20). adjacent third angular range (21) between the second intermediate angle and the second test angle (β2) of the second correction angle (γ2) is assigned. Lidar-Sensorvorrichtung (3) zum Erfassen einer räumlichen Lage eines Objektes (7) in einem Umgebungsbereich (4) eines Kraftfahrzeugs (1) relativ zu dem Kraftfahrzeug (1) aufweisend eine Empfangseinrichtung (6) zum Erfassen eines von dem Objekt (7) reflektierten Empfangssignals (E) und eine Auswerteeinrichtung (8), wobei die Empfangseinrichtung (6) Empfangselemente aufweist, welche dazu ausgelegt sind, Lichtstrahlen (11) des Empfangssignals (E) zu empfangen und in den Lichtstrahlen (11) zu Reflexionspunkten (R) auf einer Oberfläche (9) des Objektes (7) korrespondierende Detektionspunkte (D) zu identifizieren, und die Auswerteeinrichtung (8) dazu ausgelegt ist, unter der Annahme, dass sich die Detektionspunkte (D) auf einer Strahlachse (D) der jeweiligen Lichtstrahlen (11) befinden, eine Initialoberflächenlinie (14) in Abhängigkeit von den Detektionspunkten (D) zu bestimmen, Winkel (β) zwischen der Initialoberflächenlinie (14) und der Strahlachse (S) der jeweiligen Lichtstrahlen (11) zu bestimmen, die Detektionspunkte (D) innerhalb der jeweiligen Lichtstrahlen (11) um von den jeweiligen Winkeln (β) abhängige Korrekturwinkel (γ) relativ zur Strahlachse (S) der jeweiligen Lichtstrahlen (11) zu verschieben, in Abhängigkeit von den verschobenen Detektionspunkten (D') eine Finaloberflächenlinie (15) zu bestimmen und die räumliche Lage des Objektes (7) zu dem Kraftfahrzeug (1) anhand der Finaloberflächenlinie (15) zu bestimmen. Lidar sensor device (3) for detecting a spatial position of an object (7) in a surrounding area (4) of a motor vehicle (1) relative to the motor vehicle (1) comprising a receiving device (6) for detecting a reflected from the object (7) Receiving signal (E) and an evaluation device (8), wherein the receiving means (6) comprises receiving elements which are adapted to receive light beams (11) of the received signal (E) and in the light beams (11) to reflection points (R) on a Surface (9) of the object (7) corresponding detection points (D) to identify, and the evaluation device (8) is designed, assuming that the detection points (D) on a beam axis (D) of the respective light beams (11) to determine an initial surface line (14) in response to the detection points (D), angles (β) between the initial surface line (14) and the beam axis (S) of the respective light beams (1 1) to shift the detection points (D) within the respective light beams (11) by correction angles (γ) dependent on the respective angles (β) relative to the beam axis (S) of the respective light beams (11), in dependence on the shifted ones Detection points (D ') to determine a final surface line (15) and to determine the spatial position of the object (7) to the motor vehicle (1) on the basis of the final surface line (15). Fahrerassistenzsystem (2) für ein Kraftfahrzeug (1) mit zumindest einer Lidar-Sensorvorrichtung (3) nach Anspruch 12.Driver assistance system (2) for a motor vehicle (1) with at least one lidar sensor device (3) according to Claim 12 , Kraftfahrzeug (1) mit einem Fahrerassistenzsystem (2) nach Anspruch 13.Motor vehicle (1) with a driver assistance system (2) according to Claim 13 ,
DE102017112787.9A 2017-06-09 2017-06-09 Method for detecting a spatial position of an object in an environmental region of a motor vehicle, lidar sensor device, driver assistance system and motor vehicle Pending DE102017112787A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017112787.9A DE102017112787A1 (en) 2017-06-09 2017-06-09 Method for detecting a spatial position of an object in an environmental region of a motor vehicle, lidar sensor device, driver assistance system and motor vehicle
PCT/EP2018/064672 WO2018224453A1 (en) 2017-06-09 2018-06-05 Method for detecting a spatial position of an object in a surrounding region of a motor vehicle, lidar sensor device, driver assistance system, and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017112787.9A DE102017112787A1 (en) 2017-06-09 2017-06-09 Method for detecting a spatial position of an object in an environmental region of a motor vehicle, lidar sensor device, driver assistance system and motor vehicle

Publications (1)

Publication Number Publication Date
DE102017112787A1 true DE102017112787A1 (en) 2018-12-13

Family

ID=62712948

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017112787.9A Pending DE102017112787A1 (en) 2017-06-09 2017-06-09 Method for detecting a spatial position of an object in an environmental region of a motor vehicle, lidar sensor device, driver assistance system and motor vehicle

Country Status (2)

Country Link
DE (1) DE102017112787A1 (en)
WO (1) WO2018224453A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004033212A1 (en) * 2004-07-09 2006-02-02 Hella Kgaa Hueck & Co. Method and device for compensating installation tolerances of a distance sensor
US20150293228A1 (en) * 2014-04-11 2015-10-15 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004003850A1 (en) * 2004-01-26 2005-08-18 Ibeo Automobile Sensor Gmbh Method for detecting markings on a roadway

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004033212A1 (en) * 2004-07-09 2006-02-02 Hella Kgaa Hueck & Co. Method and device for compensating installation tolerances of a distance sensor
US20150293228A1 (en) * 2014-04-11 2015-10-15 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array

Also Published As

Publication number Publication date
WO2018224453A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
EP2917756B1 (en) Scanning optoelectronic detection device with a detection threshold, motor vehicle and corresponding method
EP2800982B1 (en) Method and device for measuring the speed of a vehicle independently of the wheels
EP1794619B1 (en) Device for optically monitoring spatial areas
WO2010097136A1 (en) Method for detecting icing at an angle-resolving radar sensor in a driver assistance system for motor vehicles
DE102017118156A1 (en) Method for monitoring an environmental region of a motor vehicle, sensor control device, driver assistance system and motor vehicle
DE102015217912A1 (en) Method for calibrating the runtime of a lidar sensor
DE102015011928A1 (en) Method for operating a safety system of a motor vehicle and motor vehicle
DE102018200688A1 (en) Method and device for operating an acoustic sensor
DE102010021053B3 (en) Faults detecting method for measuring operation of ultrasound measuring arrangement of motor car, involves determining faults of measuring operation based on comparison of radius of object with velocity-dependent minimum radius
DE102018116481B3 (en) 3D light-time camera and method for acquiring three-dimensional image data
EP3519857B1 (en) Detection device for a motor vehicle, driver assistance system, motor vehicle, and method
DE102017112787A1 (en) Method for detecting a spatial position of an object in an environmental region of a motor vehicle, lidar sensor device, driver assistance system and motor vehicle
WO2022028864A1 (en) Method for ascertaining optical crosstalk of a lidar sensor, and lidar sensor
EP4172650A1 (en) Lidar sensor, in particular a vertical flash lidar sensor
DE102018132473B4 (en) Optoelectronic sensor and method for detecting an object
DE102020121108A1 (en) Method for detecting road users in the vicinity of a vehicle based on measurements from a radar sensor by identifying interference detections, and computing device
WO2021001178A1 (en) Adaptation device and lidar measuring device
DE102018216705A1 (en) LIDAR measuring system and method for a LIDAR measuring system
DE102017216867A1 (en) Method and radar sensor for reducing the influence of interference in the evaluation of at least one received signal
EP3614172B1 (en) Method and device for optically measuring distances
DE102022115277A1 (en) Method for operating a LiDAR system, LiDAR system and vehicle
DE102022115268A1 (en) Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle
DE102022115273A1 (en) Method for operating a LiDAR system, LiDAR system and vehicle having at least one LiDAR system
DE102016214455A1 (en) Light section sensor
DE102018216704A1 (en) Environment detection system, vehicle and method for an environment detection system

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)
R163 Identified publications notified