WO2018166956A1 - Bestimmung von neigungswinkeln mit einem laserscanner - Google Patents

Bestimmung von neigungswinkeln mit einem laserscanner Download PDF

Info

Publication number
WO2018166956A1
WO2018166956A1 PCT/EP2018/056039 EP2018056039W WO2018166956A1 WO 2018166956 A1 WO2018166956 A1 WO 2018166956A1 EP 2018056039 W EP2018056039 W EP 2018056039W WO 2018166956 A1 WO2018166956 A1 WO 2018166956A1
Authority
WO
WIPO (PCT)
Prior art keywords
points
ground
angle
orientation
determining
Prior art date
Application number
PCT/EP2018/056039
Other languages
English (en)
French (fr)
Inventor
Andreas Strednicki
Marc Huber
David Herrmann
Umair Nasir
Original Assignee
Valeo Schalter Und Sensoren Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter Und Sensoren Gmbh filed Critical Valeo Schalter Und Sensoren Gmbh
Publication of WO2018166956A1 publication Critical patent/WO2018166956A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the present invention relates to a method for determining an inclination angle of an ambient optical sensor, wherein the environmental optical sensor has a field of view extending in the horizontal direction between a left limit angle and a right limit angle and in the vertical direction between an upper limit angle and a lower limit angle the step of detecting a plurality of scan points in the field of view of the ambient optical sensor.
  • the present invention also relates to an optical environment detection system comprising an ambient optical sensor and a processing unit, wherein the environmental optical sensor has a field of view extending in the horizontal direction between a left limit angle and a right limit angle and in the vertical direction between an upper limit angle and a lower limit angle , and the processing unit is configured to perform the above method.
  • the present invention relates to a vehicle having such an optical environment detection system.
  • environmental optical sensors are used to detect an environment of a vehicle. This is, for example, a prerequisite for identifying routes, as well as for detecting obstacles in the area of the routes. At least in some of these driver assistance systems, it is important that the vehicle is aligned to provide sensor information of this
  • a commonly used ambient optical sensor is a lidar, in particular a laser scanner that removes reflection for different scan points based on a
  • the optical environment sensors be accurately aligned when mounted on the vehicle. During installation occurring inclination angle, for example, by a faulty mounting of the optical
  • the tilt angle is a pitch angle, which is usually understood as an angle in the detection direction of the ambient optical sensor with respect to a flat bottom surface, and a roll angle, which usually relates to a rotation of the ambient optical sensor about its longitudinal axis, typically in the detection direction, known.
  • the inclination angles may take positive or negative values depending on an orientation of the
  • Environmental sensor i. the ambient optical sensor may either be too high or too deep, or may be twisted to the right or to the left about its longitudinal axis.
  • the vehicle Even if the optical environment sensors are correctly mounted, the vehicle may temporarily deviate depending on a current driving situation
  • the environmental sensors may be aligned to
  • Inclination angle to compensate. After installation of the environmental sensor, however, this can only be done with great effort. In principle, a compensation on by an active, mechanical compensation is possible, but this requires a large design effort. Alternatively, inclination angles can be at a
  • Processing of the sensor information can be computationally compensated. In all cases it is necessary for the compensation to be able to determine inclination angles permanently or temporally as accurately as possible.
  • LIDAR light detection and ranging
  • the computing device may be configured to determine a planar feature in the 3D point cloud of the road, as well as a corresponding planar feature in the SD reference point cloud. Further, the computing device may be configured to determine an image based on the comparison of the planar feature with the corresponding planar feature. The computing device can be configured to apply the transformation to align the 3D point cloud with the 3D reference point cloud.
  • the invention is therefore based on the object, a method for determining a tilt angle of an optical environment sensor, an optical mentioned above
  • the invention thus provides a method for determining an inclination angle of an ambient optical sensor, wherein the ambient optical sensor has a field of view extending in the horizontal direction between a left limit angle and a right limit angle and in the vertical direction between an upper limit angle and a lower limit angle the steps of detecting a plurality of scan points in the field of view of the ambient optical sensor, determining a bottom region of the field of view of the ambient optical sensor, which at
  • an optical environment detection system comprising an ambient optical sensor and a processing unit, the environmental optical sensor having a field of view extending in the horizontal direction between a left limit angle and a right limit angle and in a vertical direction between an upper limit angle and a lower limit angle, and the processing unit is executed, the above method
  • the basic idea of the present invention is thus, by the alignment of a part of the field of view of the optical environment sensor, an alignment of the optical
  • an area of the visual field of the environmental optical sensor is defined as a floor area, and a deviation from a reference orientation of the floor area on the floor is detected. These are for the at least two horizontal angles
  • Reference orientation Ground points detected as scan points from a ground can be performed initially.
  • the floor area can also be redefined during operation.
  • the field of view usually extends between said critical angles in the horizontal and vertical directions.
  • the critical angles are each constant.
  • the scan points represent individual measurements of the ambient optical sensor, for which an optical detection of the environment takes place.
  • each scan point may be defined by a combination of a horizontal angle and a vertical angle in the field of view.
  • the scan points can be in regular
  • Angular distances may be arranged substantially in rows and columns. However, variations of the angular distances are also possible here.
  • the ground area is part of the field of view of the ambient optical sensor, which typically detects ground points and is therefore selected accordingly.
  • the floor area is fixed for the optical environment sensor. It may, for example, comprise a certain angular range in the vertical as well as in the horizontal direction.
  • the reference orientation of the bottom region corresponds to a positioning of the ambient optical sensor with a definition of zero degrees, for example.
  • any known orientation can be used as the basis for determining the angle of inclination.
  • the relative position of the floor area can be determined, from which overall the orientation of the floor area can be determined.
  • the at least two different horizontal angles cover the largest possible horizontal angular range of the field of view, whereby the determination of the angle of inclination can be carried out particularly reliably.
  • the at least two different horizontal angles it is also possible for the at least two different horizontal angles to be located, for example, in one half of the horizontal angular range of the field of view.
  • the at least two different horizontal angles can be variable, for example, depending on driving situations or an environment.
  • the horizontal angle can also be fixed.
  • the number of different horizontal angles is at least two.
  • Reference orientation of the ground area can also be considered a greater number of horizontal angles.
  • an inclination angle can then be determined directly.
  • the optical environment sensor is designed as a lidar, in particular as a laser scanner.
  • the Lidar is a laser-based sensor for acquiring environmental information. Reflections of laser radiation are detected. Thereby, a corresponding horizontal emission angle and a vertical emission angle, i. at each scan point, a distance of the reflection determined.
  • the step of detecting a plurality of scan points in the field of view of the ambient optical sensor comprises detecting the plurality of scan points in a plurality of substantially horizontal tracks, wherein the horizontal tracks differ in their vertical orientation, and the step of defining a bottom portion the visual field of the optical
  • Environmental sensor which detects ground points as reference points from a ground in reference orientation, includes defining a horizontal path as a floor area.
  • different ones of the tracks can be defined alone or together as a floor area.
  • a lower or the lowest track is defined as a floor area, since there are expected many ground points are there.
  • the detection of the plurality of scan points in a plurality of substantially horizontal tracks depends on the nature of the optical environment sensor.
  • laser scanners are known as optical environment sensors, which use a mirror for deflecting laser beams in the scan area, and thereby detect the scan area in a total of six tracks. Three of the tracks are generated by one side of the mirror.
  • the webs in this laser scanner in their horizontal direction on a vertical displacement, ie they are at an angle to the horizontal plane.
  • the three tracks which belong to a mirror side, arranged vertically offset. Starting from these tracks can be a simple Processing the scan points detected by the laser scanner in the ground area to identify the ground points in that area.
  • the step of determining a vertical orientation of the ground area compared to the reference orientation of the ground area comprises determining current distances of ground points for each of the horizontal angles and comparing current distances of the ground points with distances of the ground points for a known orientation of the ground floor area.
  • the distances may vary depending on the type of optical environment sensor
  • the distances can be determined differently.
  • the distances can be determined, for example, by a corresponding image processing.
  • the distances of scan points can be determined directly from the reflection of radiated laser radiation. By the distances of the ground points in each case the distance or a
  • Distance change of ground points can be specified, whereby the vertical orientation of the ground area can be determined. In general, it should be noted that the distance between the ground points in the ground area is greater, the more the
  • Floor area is shifted vertically upwards. For example, a distance to a first ground point for distance determination can be reliably used.
  • the step of determining a vertical orientation of the ground area compared to the reference orientation of the ground area comprises determining a current distribution of ground points for each of the horizontal angles and comparing a current distribution of ground points with a distribution of ground points for a known one Orientation of the floor area.
  • determining the distribution a plurality of ground points may be used to determine the current orientation of the ground area, thereby improving the current orientation of the ground area
  • a current orientation of the ground area can be determined, for example, if an obstacle is in the range of one of the horizontal-angle. If the obstacle obscures only part of the ground area for that horizontal angle, remaining ground points can be used to determine the current orientation of the obstacle
  • the step of comparing a current distribution of ground points with a distribution of ground points for a known orientation of the ground area comprises comparing the current distribution of ground points with a look-up table.
  • the look-up table can be used to efficiently determine the orientation of the floor area. Using the look-up table requires only a small amount of computational resources.
  • the step of determining a vertical orientation of the floor area comprises determining a vertical one
  • Angular deviation facilitates a subsequent determination of the angle of inclination, since angle operations can be easily applied here.
  • the angular deviation of the floor area is determined in each case based on a center of the floor area.
  • the step of determining at least one inclination angle of the ambient optical sensor comprises determining a pitch angle and / or a roll angle. Due to the relative orientation of the ground area, both the pitch angle and the roll angle can be easily determined.
  • the pitch angle relates to an inclination of the optical environment sensor and the vehicle in the detection direction of the ambient optical sensor with respect to a flat bottom surface, so for example, a dynamic lowering of the vehicle and thus the laser scanner during braking.
  • the roll angle relates to a rotation of the optical environment sensor and the vehicle about its longitudinal axis,
  • the angles of inclination may take positive or negative values depending on an orientation of the ambient optical sensor relative to the reference orientation, i. the optical
  • Ambient sensor may be either too high or too low, or rotated to the right or to the left about its longitudinal axis compared to the reference orientation.
  • the method comprises an additional step of identifying ground points in the ground area from the ground
  • Accuracy can be determined. In addition to not being used to determine the vertical orientation, non-ground scan points may even interfere with or distort the determination of the vertical orientation.
  • the method comprises an additional step of determining a number of the identified ground points in the ground area for the at least two different horizontal angles, and the method returns to the step of detecting a plurality of scan points in the field of view with the ambient optical sensor if the number of ground points in the
  • Floor area is less than two horizontal angles above a threshold.
  • the vertical alignment of the floor area for two horizontal angles is a prerequisite for reliably determining an angle of inclination. If this is not possible due to the small number of identified ground points, this must be
  • Procedures are restarted with a new set of scan points.
  • the step of identifying ground points in the ground area comprises checking distances from adjacent scan points.
  • the adjacent scan points here relate to the at least two different horizontal angles, ie the scanned scan points each have the same horizontal angle and differ in their vertical angle. Assuming a flat surface as the ground, the distances are dependent on possible angles of inclination, which result in a vertical displacement of the ground area for the at least two horizontal angles. For more distant scan points, the distance between two scan points is greater than for closer scan points. As the vertical angle increases, the distance of the scan points for ground points will increase accordingly.
  • the step of identifying ground points in the ground area comprises checking the scan points for obstacles.
  • Obstacles can represent elevations or depressions of the soil, which makes it difficult to determine the vertical orientation of the soil area or to determine it in a distorted manner. These problems can be avoided by identifying obstacles in advance, so that they are not falsely used as ground points.
  • the obstacles may be, for example, potholes or other depressions, other road users, guardrails or other surveys.
  • the step of identifying ground points in the ground area comprises checking the scan points for the formation of a sufficiently large contour. Checking the scan points for the formation of a sufficiently large contour ensures that, for example, a raised sidewalk located next to a carriageway is not considered as ground, or that the height of the survey is taken into account when determining the vertical orientation of the floor area. Also, the at least two different horizontal angles may be dynamically selected based on the sufficiently large contour assumed to be ground.
  • Fig. 1 is a schematic representation of a vehicle with a
  • Laser scanning system as an optical environment detection system according to a first preferred embodiment in side view
  • Fig. 2 is a schematic representation of the determination of a vertical
  • FIG. 3 is a schematic representation of the function of a laser scanner of
  • Fig. 5 is a schematic representation of the distribution of ground points in the
  • FIG. 6 is a flowchart of a method for determining a
  • FIG. 1 shows a vehicle 10 having an ambient optical detection system 12 according to a first, preferred embodiment.
  • the optical environment detection system 12 is embodied in this embodiment as a laser scanning system 12 and correspondingly comprises an optical
  • the Environment sensor 14 which is designed as a lidar, concretely as a laser scanner 14, and a processing unit 16, which are connected to each other via a data bus 18.
  • the ambient optical sensor 14 is fixedly mounted on the vehicle 10, here in a front region on an upper edge of a windshield.
  • the laser scanner 14 has a field of view 20, which in the horizontal direction between a left limit angle 40 and a right limit angle 38 and in the vertical direction between an upper limit angle and a lower
  • Boundary angle extends.
  • the field of view 20 extends between said
  • the laser scanner 14 is designed to detect a plurality of scan points in the field of view 20.
  • Laser scanner 14 of the first embodiment is executed, the scan points in the field of view 20 in a total of six horizontal tracks 30 to capture.
  • the detection of ground points 26 is shown by way of example for three webs 30.
  • the horizontal tracks 30 are shown in Fig. 4 in detail. Each three horizontal tracks 30 are seamlessly superimposed.
  • the laser scanner 14 in this embodiment comprises a rotating mirror for deflecting emitted laser beams 22 in the field of view 20, wherein three of the horizontal tracks 30 are respectively generated from the same side of the mirror.
  • the horizontal tracks 30 in this laser scanner 14 have a vertical displacement over its scan area in the horizontal direction, i. they are at an angle to the horizontal plane.
  • the three horizontal tracks 30 extend vertically upwards, and for the other mirror side three horizontal tracks 30 extend vertically downwards, each starting from the same horizontal direction. It turns out
  • the processing unit 16 is designed to perform a method for determining an inclination angle of the laser scanners 14.
  • the angle of inclination results, in addition to the corresponding orientation deviating from a reference orientation on the vehicle 10, also by a corresponding inclination of the vehicle 10,
  • step S100 in which a plurality of scan points in the field of view 20 of the laser scanner 14 is detected.
  • the scan points represent individual measurements of the laser scanner 14, for each of which a reflection of the emitted laser beam 22 for each combination of horizontal radiation angle and vertical
  • Beam angle is measured. Over a period of the emitted laser beam 22, the distance to a location of the reflection of the laser beam 22 is determined.
  • the scan points are acquired at regular angular intervals, essentially in rows and columns.
  • the scan points in the field of view 20 of the laser scanner 14 are detected in six substantially horizontal tracks 30 that differ in their vertical orientation. This is followed by the step S1 10, in which a bottom portion 32 of the field of view 20 of
  • Laser scanner 14 which detects reference points bottom points 26 as scan points from a floor 24, is determined.
  • the bottom region 32 is a part of the field of view 20 of the laser scanner 14, which usually detects ground points 26, and is fixed for the laser scanner 14.
  • the lowermost horizontal track 30 of the laser scanner 14 is defined as the bottom area 32.
  • the reference orientation of the bottom region 32 corresponds to a positioning of the laser scanner 14 with a definition of zero degrees as defined.
  • any known orientation can be used as a basis for the determination of inclination angles.
  • the step S1 10 may also be performed before step S100.
  • step S 120 bottom points 26 in the bottom region 32 are identified from the scan points in the bottom region 32 for two different horizontal angles 34, 36.
  • the two different horizontal angles 34, 36 are variable depending on driving situations or an environment. In an alternative embodiment, the horizontal angle 34, 36 fixed.
  • the adjacent scan points relate to the two different horizontal angles 34, 36 scan points with the same horizontal angle 34, 36, which differ in their vertical angle. For more distant scan points, the distance between two scan points is greater than for closer scan points. With an increasing vertical angle, the distance of the reflections will accordingly increase continuously for ground points 26. A corresponding distribution of ground points 26 is shown in FIG. If the distance does not increase or the distance increases too much, this is an indication of the presence of an obstacle, i. the two adjacent scan points can not be both bottom points 26. Thus, the scan points can be easily checked for obstacles.
  • Obstacles represent elevations or even depressions of the floor 24.
  • the obstacles may be, for example, potholes or other depressions, other road users or else guardrails or other elevations.
  • identifying ground points 26 in the bottom region 32 from the scan points in the bottom region 32 for the two different horizontal angles 34, 36 includes checking the scan points for the formation of a sufficiently large contour. By checking the scan points for the formation of a sufficiently large contour, it is ensured that the ground points 26 are not mistakenly located on a different, essentially flat surface than the bottom 24,
  • the raised walkway can not be considered as floor 24.
  • the two different horizontal angles 34, 36 may be dynamically selected based on the detected, sufficiently large contour assumed to be ground 24.
  • step S 130 the identified ground points 26 are checked. A number of the ground points 26 in the ground area 32 are determined for each of the two different horizontal angles 34, 36. If the number of
  • step S140 a vertical orientation of the bottom region 32 is compared with the reference orientation of the bottom region 32 based on the identified ones
  • Ground points 26 in the bottom portion 32 for the two different horizontal angles 34, 36 determined.
  • the two different horizontal angles 34, 36 here comprise the largest possible horizontal angular range of the field of view 20.
  • step S140 actual distances from ground points 26 are determined for each of the horizontal angles 34, 36.
  • the actual distances of the ground points 26 are at intervals of the ground points 26 for a known orientation of the
  • a current distribution of ground points 26 for each of the horizontal angles 34, 36 is determined.
  • the actual distribution of the ground points 26 is compared for each of the horizontal angles 34, 36 with a distribution of ground points 26 for a known orientation of the ground area 32.
  • the current distribution of the ground points 26 is compared with a look-up table, resulting in a vertical Aligning the ground area 32 for each of the horizontal angles 34, 36 based on the current distribution of the ground points 26.
  • a vertical angular deviation of the bottom region 32 for each of the two different horizontal angles 34, 36 is determined compared to a known orientation of the bottom region 32.
  • step S150 based on the vertical orientation of the bottom portion 32, compared to the reference orientation of the bottom portion 32 for the two
  • different horizontal angle 34, 36 determines the inclination angle.
  • a pitch angle and a roll angle are determined here.
  • the pitch angle refers to an inclination of the vehicle 10 in the direction of movement relative to the direction of movement.
  • the roll angle relates to a rotation of the vehicle 10 and thus of the laser scanner 14 about its longitudinal axis.
  • Nick angles and roll angles are determined based on the vertical orientation of the bottom region 32 for the two different horizontal angles 34, 36. From the vertical orientation of the bottom portion 32, the relative position of the bottom portion 32 is determined, from which the pitch angle and also the roll angle can be determined.
  • a pitch angle is identified by the vertical orientation changing in the same direction for both horizontal angles 34, 36, i. the vertical orientation increases or decreases for both horizontal angles 34, 36.
  • a roll angle is identified by the vertical orientation for the two horizontal angles 34, 36 varying in different directions, i. the vertical orientation increases for one horizontal angle 34, 36 and for the other horizontal angle 34, 36.
  • pitch angle and roll angle are determined with reference to FIG. 2 as follows, for example.
  • the laser scanner 14 is mounted on the vehicle 10 at a height M.
  • the vertical angle to V x can For example, Fig. 4 for the lower band 30 are removed. It corresponds here to the middle of the band 30 and is for the horizontal angle H of -20 ° about -1 .3 °.
  • the vertical angle can be taken from a look-up table.
  • the lower band 30 is displaced as a whole, which is detected by the changed vertical orientation for each horizontal angle 34, 36. Accordingly, an orientation of the bottom portion 30 results with a vertical angle V y .
  • An associated distance D Y results from the distances between the reflections of the scan points determined by the laser scanner 14.
  • the deviation of the vertical orientation may be the result of pitching with a pitch angle N or rolling with a roll angle R of the vehicle 10, or a combination thereof.
  • X R * sin (H) + N * cos (H).
  • Vehicle 10 optical environment detection system, laser scanning system 12 optical environment sensor, laser scanner 14
  • Floor area 32 first horizontal angle 34 second horizontal angle 36 right limit angle 38 left limit angle 40

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung eines Neigungswinkels eines optischen Umgebungssensors (14), wobei der optische Umgebungssensor (14) ein Sichtfeld (20) aufweist, das sich in horizontaler Richtung zwischen einem linken Grenzwinkel (40) und einem rechten Grenzwinkel (38) und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren Grenzwinkel erstreckt, mit den Schritten Erfassen einer Mehrzahl Scanpunkte in dem Sichtfeld (20) des optischen Umgebungssensors (14), Festlegen eines Bodenbereichs (32) des Sichtfelds (20) des optischen Umgebungssensors (14), der bei Referenzausrichtung Bodenpunkte (26) als Scanpunkte von einem Boden (24) erfasst, Bestimmen einer vertikalen Ausrichtung des Bodenbereichs (32) verglichen mit der Referenzausrichtung des Bodenbereichs (32) basierend auf Bodenpunkten (26) in dem Bodenbereich (32) für wenigstens zwei unterschiedliche horizontale Winkel (34, 36), und Bestimmen von wenigstens einem Neigungswinkel des optischen Umgebungssensors (14) basierend auf der vertikalen Ausrichtung des Bodenbereichs (32) verglichen mit der Referenzausrichtung des Bodenbereichs (32) für die wenigstens zwei unterschiedlichen horizontalen Winkel (34, 36).

Description

Bestimmung von Neigungswinkeln mit einem Laserscanner
Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung eines Neigungswinkels eines optischen Umgebungssensors, wobei der optische Umgebungssensor ein Sichtfeld aufweist, das sich in horizontaler Richtung zwischen einem linken Grenzwinkel und einem rechten Grenzwinkel und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren Grenzwinkel erstreckt, mit dem Schritt Erfassen einer Mehrzahl Scanpunkte in dem Sichtfeld des optischen Umgebungssensors.
Auch betrifft die vorliegende Erfindung ein optisches Umgebungserfassungssystem mit einem optischen Umgebungssensor und einer Verarbeitungseinheit, wobei der optische Umgebungssensor ein Sichtfeld aufweist, dass sich in horizontaler Richtung zwischen einem linken Grenzwinkel und einem rechten Grenzwinkel und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren Grenzwinkel erstreckt, und die Verarbeitungseinheit ausgeführt ist, das obige Verfahren durchzuführen.
Des Weiteren betrifft die vorliegende Erfindung ein Fahrzeug mit einem solchen optischen Umgebungserfassungssystem.
In Fahrassistenzsystemen werden optische Umgebungssensoren verwendet, um eine Umgebung eines Fahrzeugs zu erfassen. Dies ist beispielsweise Voraussetzung, um Fahrtwege zu identifizieren, sowie um Hindernisse im Bereich der Fahrtwege zu detektieren. Zumindest bei einigen dieser Fahrassistenzsysteme ist es dabei wichtig, dass das Fahrzeug eben ausgerichtet ist, um Sensorinformationen dieser
Umgebungssensoren zuverlässig auswerten zu können. Ein häufig verwendeter optischer Umgebungssensor ist ein Lidar, insbesondere ein Laserscanner, der für verschiedene Scanpunkte eine Entfernung einer Reflektion basierend auf einer
Laserentfernungsmessung bestimmt.
Entsprechend ist es erforderlich, dass die optischen Umgebungssensoren bei ihrer Montage an dem Fahrzeug exakt ausgerichtet werden. Bei der Montage auftretende Neigungswinkel, beispielsweise durch eine fehlerhafte Montage der optischen
Umgebungssensoren am Fahrzeug, führen im Betrieb dauerhaft zu Einschränkungen bei der Erfassung der Umgebung. Zusätzlich können aufgrund von Bauteilstreuungen und/oder von Spielen bei der Montage fehlerhafte Ausrichtungen der
Umgebungssensoren auftreten, die ebenfalls problematisch sein können. Um diese Einschränkungen ohne aufwendige Modifikationen des eingebauten optischen
Umgebungssensors zu beseitigen kann es daher erforderlich sein, einen vorhandenen Neigungswinkel zu kompensieren. Als Neigungswinkel sind ein Nickwinkel, der üblicherweise einen Winkel in Erfassungsrichtung des optischen Umgebungssensors bezogen auf eine ebene Bodenfläche verstanden wird, und ein Rollwinkel, der üblicherweise eine Rotation des optischen Umgebungssensors um seine Längsachse, typischerweise in Erfassungsrichtung, betrifft, bekannt. Die Neigungswinkel können positive oder negative Werte annehmen abhängig von einer Ausrichtung des
Umgebungssensors, d.h. der optische Umgebungssensor kann entweder zu hoch oder zu tief sehen bzw. nach rechts oder nach links um seine Längsachse verdreht sein.
Auch kann das Fahrzeug bei korrekter Montage der optischen Umgebungssensoren abhängig von einer aktuellen Fahrsituation temporär einen abweichenden
Neigungswinkel aufweisen. Dies kann im Betrieb zu temporären Einschränkungen bei der Erfassung der Umgebung führen. Auch um diese Einschränkungen zu beseitigen kann es erforderlich sein, vorhandene Neigungswinkel temporär zu kompensieren.
Um Neigungswinkel zu kompensieren gibt es prinzipiell verschiedene Möglichkeiten. Beispielsweise können die Umgebungssensoren ausgerichtet werden, um
Neigungswinkel zu kompensieren. Nach der Montage des Umgebungssensors kann dies jedoch nur mit einem großen Aufwand erfolgen. Prinzipiell ist eine Kompensation auf durch eine aktive, mechanische Kompensation möglich, was jedoch einen großen konstruktiven Aufwand erfordert. Alternativ können Neigungswinkel bei einer
Verarbeitung der Sensorinformationen rechnerisch kompensiert werden. In allen Fällen ist es für die Kompensation erforderlich, Neigungswinkel permanent oder auch temporär möglichst genau bestimmen zu können.
In diesem Zusammenhang sind beispielsweise aus der US 9 052 721 B1 Verfahren und Systeme zur Ausrichtung von mit„Light Detection and Ranging" (LIDAR) gewonnenen Daten bekannt. Eine Rechenvorrichtung eines Fahrzeugs kann konfiguriert sein, um eine dreidimensionale (3D) Punktwolke mit einer 3D-Referenzpunktwolke zu
vergleichen, um Hindernisse auf einer Straße zu erkennen. Jedoch können die 3D- Punktwolke und die 3D-Referenzpunktwolke falsch ausgerichtet sein. Um die SD- Punktwolke an der 3D Referenzpunktwolke auszurichten, kann die Rechenvorrichtung konfiguriert sein, um ein ebenes Merkmal in der 3D-Punktwolke der Straße zu bestimmen, genauso wie ein entsprechendes ebenes Merkmal in der SD- Referenzpunktwolke. Ferner kann die Rechenvorrichtung konfiguriert sein, um basierend auf dem Vergleich des ebenen Merkmals mit dem entsprechenden ebenen Merkmal, eine Abbildung zu bestimmen. Die Rechenvorrichtung kann so konfiguriert werden, dass die Transformation angewendet wird, um die 3D-Punktwolke an der 3D- Referenzpunktwolke auszurichten.
Ausgehend von dem oben genannten Stand der Technik liegt der Erfindung somit die Aufgabe zugrunde, ein Verfahren zur Bestimmung eines Neigungswinkels eines optischen Umgebungssensors, ein oben genanntes optisches
Umgebungserfassungssystem mit einem optischen Umgebungssensor und einer Verarbeitungseinheit zur Durchführung dieses Verfahrens, sowie ein Fahrzeug mit einem solchen optischen Umgebungserfassungssystem anzugeben, die eine einfache und exakte Bestimmung eines Neigungswinkels ermöglichen.
Die Lösung der Aufgabe erfolgt erfindungsgemäß durch die Merkmale der
unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
Erfindungsgemäß ist somit ein Verfahren zur Bestimmung eines Neigungswinkels eines optischen Umgebungssensors angegeben, wobei der optische Umgebungssensor ein Sichtfeld aufweist, das sich in horizontaler Richtung zwischen einem linken Grenzwinkel und einem rechten Grenzwinkel und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren Grenzwinkel erstreckt, mit den Schritten Erfassen einer Mehrzahl Scanpunkte in dem Sichtfeld des optischen Umgebungssensors, Festlegen eines Bodenbereichs des Sichtfelds des optischen Umgebungssensors, der bei
Referenzausrichtung Bodenpunkte als Scanpunkte von einem Boden erfasst,
Bestimmen einer vertikalen Ausrichtung des Bodenbereichs verglichen mit der
Referenzausrichtung des Bodenbereichs basierend auf Bodenpunkten in dem
Bodenbereich für wenigstens zwei unterschiedliche horizontale Winkel, und Bestimmen von wenigstens einem Neigungswinkel des optischen Umgebungssensors basierend auf der vertikalen Ausrichtung des Bodenbereichs verglichen mit der Referenzausrichtung des Bodenbereichs für die wenigstens zwei unterschiedlichen horizontalen Winkel.
Erfindungsgemäß ist außerdem ein optisches Umgebungserfassungssystem mit einem optischen Umgebungssensor und einer Verarbeitungseinheit angegeben, wobei der optische Umgebungssensor ein Sichtfeld aufweist, das sich in horizontaler Richtung zwischen einem linken Grenzwinkel und einem rechten Grenzwinkel und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren Grenzwinkel erstreckt, und die Verarbeitungseinheit ausgeführt ist, das obige Verfahren
durchzuführen.
Weiter ist erfindungsgemäß ein Fahrzeug mit einem solchen optischen
Umgebungserfassungssystem angegeben.
Grundidee der vorliegenden Erfindung ist es also, durch die Ausrichtung eines Teils des Sichtfelds des optischen Umgebungssensors eine Ausrichtung des optischen
Umgebungssensors an einem umgebenden Boden durchzuführen. Dabei wird ein Bereich des Sichtfelds des optischen Umgebungssensors als Bodenbereich definiert, und eine Abweichung von einer Referenzausrichtung des Bodenbereichs auf dem Boden wird erfasst. Dazu werden für die wenigstens zwei horizontalen Winkel
Bodenpunkte bestimmt, die benutzt werden, um eine aktuelle Ausrichtung des
Bodenbereichs verglichen mit der Referenzausrichtung des Bodenbereichs zu bestimmen. Dabei können einzelne Schritte des Verfahrens auch in abweichender Reihenfolge durchgeführt werden. Insbesondere der Schritt des Festlegens eines Bodenbereichs des Sichtfelds des optischen Umgebungssensors, der bei
Referenzausrichtung Bodenpunkte als Scanpunkte von einem Boden erfasst, kann beispielsweise initial durchgeführt werden. Prinzipiell kann der Bodenbereich auch im laufenden Betrieb neu definiert werden.
Das Sichtfeld erstreckt sich üblicherweise zwischen den genannten Grenzwinkeln in horizontaler und vertikaler Richtung. Dabei kann sich beispielsweise ein im
Wesentlichen rechteckiges Sichtfeld ergeben, wenn die vertikalen Grenzwinkel über die gesamte horizontale Erstreckung des Sichtfelds konstant sind und umgekehrt.
Allerdings ist es nicht erforderlich, dass die Grenzwinkel jeweils konstant sind. Beispielsweise können sich die vertikalen Grenzwinkel bauartbedingt für bestimmte optische Umgebungssensoren über die horizontale Erstreckung des Sichtfelds ändern.
Die Scanpunkte stellen Einzelmessungen des optischen Umgebungssensors dar, für die eine optische Erfassung der Umgebung erfolgt. Jeder Scanpunkt kann beispielsweise durch eine Kombination aus einem horizontalen Winkel und einem vertikalen Winkel in dem Sichtfeld definiert werden. Die Scanpunkte können in regelmäßigen
Winkelabständen im Wesentlichen zeilen- und spaltenweise angeordnet sein. Allerdings sind hier auch Variationen der Winkelabstände möglich.
Der Bodenbereich ist ein Teil des Sichtfelds des optischen Umgebungssensors, der üblicherweise Bodenpunkte erfasst, und daher entsprechend ausgewählt ist. Der Bodenbereich ist für den optischen Umgebungssensor fest vorgegeben. Es kann beispielsweise einen bestimmten Winkelbereich in vertikaler wie auch in horizontaler Richtung umfassen.
Die Referenzausrichtung des Bodenbereichs entspricht einer Positionierung des optischen Umgebungssensors mit einer definitionsgemäßen Ausrichtung von beispielsweise Null Grad. Allerdings kann prinzipiell jede bekannte Ausrichtung als Grundlage für die Bestimmung des Neigungswinkels verwendet werden.
Durch die Bestimmung der vertikalen Ausrichtung des Bodenbereichs für die wenigstens zwei unterschiedlichen horizontalen Winkel kann die relative Lage des Bodenbereichs bestimmt werden, woraus sich insgesamt die Ausrichtung des Bodenbereichs bestimmen lässt. Vorzugsweise decken die wenigstens zwei unterschiedlichen horizontalen Winkel einen möglichst großen horizontalen Winkelbereich des Sichtfelds ab, wodurch die Bestimmung des Neigungswinkels besonders zuverlässig erfolgen kann. Prinzipiell ist es aber auch möglich, dass die wenigstens zwei unterschiedlichen horizontalen Winkel sich beispielsweise in einer Hälfte des horizontalen Winkelbereichs des Sichtfelds befinden.
Die wenigstens zwei unterschiedlichen horizontalen Winkel können veränderbar sein, beispielsweise abhängig von Fahrsituationen oder einer Umgebung. Alternativ können die horizontalen Winkel auch fest vorgegeben sein. Die Anzahl der unterschiedlichen horizontalen Winkel beträgt wenigstens zwei. Zur Erhöhung der Zuverlässigkeit der Bestimmung der vertikalen Ausrichtung des Bodenbereichs verglichen mit der
Referenzausrichtung des Bodenbereichs kann auch eine größere Anzahl horizontaler Winkel betrachtet werden.
Aus der relativen Lage des Bodenbereichs für die wenigstens zwei unterschiedlichen horizontalen Winkel kann dann direkt ein Neigungswinkel bestimmt werden.
In vorteilhafter Ausgestaltung der Erfindung ist der optische Umgebungssensor als Lidar ausgeführt, insbesondere als Laserscanner. Der Lidar ist ein laserbasierter Sensor zur Erfassung von Umgebungsinformationen. Es werden Reflektionen von Laserstrahlung erfasst. Dabei wird zu einem entsprechenden horizontalen Abstrahlwinkel und einem vertikalen Abstrahlwinkel, d.h. zu jedem Scanpunkt, eine Entfernung der Reflektion bestimmt.
In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Erfassens einer Mehrzahl Scanpunkte in dem Sichtfeld des optischen Umgebungssensors ein Erfassen der Mehrzahl Scanpunkte in einer Mehrzahl im Wesentlichen horizontaler Bahnen, wobei sich die horizontalen Bahnen in ihrer vertikalen Ausrichtung unterscheiden, und der Schritt des Festlegens eines Bodenbereichs des Sichtfelds des optischen
Umgebungssensors, der bei Referenzausrichtung Bodenpunkte als Scanpunkte von einem Boden erfasst, umfasst ein Festlegen einer horizontalen Bahn als Bodenbereich. Abhängig von der gewünschten Ausrichtung des optischen Umgebungssensors können prinzipiell verschiedene der Bahnen allein oder gemeinsam als Bodenbereich definiert werden. Bei einer üblichen Anordnung des optischen Umgebungssensors an einem Fahrzeug wird üblicherweise eine untere oder die unterste Bahn als Bodenbereich definiert, da dort erwartungsgemäß viele Bodenpunkte vorhanden sind. Das Erfassen der Mehrzahl Scanpunkte in einer Mehrzahl im Wesentlichen horizontaler Bahnen hängt dabei von der Art des optischen Umgebungssensors ab. Beispielsweise sind als optische Umgebungssensoren Laserscanner bekannt, die einen Spiegel zur Ablenkung von Laserstrahlen in dem Scanbereich verwenden, und die dabei in insgesamt sechs Bahnen den Scanbereich erfassen. Drei der Bahnen werden dabei von jeweils einer Seite des Spiegels erzeugt. Bauartbedingt weisen die Bahnen bei diesem Laserscanner in ihrer horizontalen Richtung eine vertikale Verschiebung auf, d.h. sie liegen schräg zur horizontalen Ebene. Außerdem sind die drei Bahnen, die zu einer Spiegelseite gehören, vertikal versetzt angeordnet. Ausgehend von diesen Bahnen kann eine einfache Verarbeitung der von dem Laserscanner in dem Bodenbereich erfassten Scanpunkte durchgeführt werden, um in diesem Bereich die Bodenpunkte zu identifizieren.
In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Bestimmens einer vertikalen Ausrichtung des Bodenbereichs verglichen mit der Referenzausrichtung des Bodenbereichs ein Bestimmen von aktuellen Abständen von Bodenpunkten für jeden der horizontalen Winkel und ein Vergleichen von aktuellen Abständen der Bodenpunkte mit Abständen der Bodenpunkte für eine bekannte Ausrichtung des Bodenbereichs. Die Abstände können abhängig von der Art des optischen Umgebungssensors
unterschiedlich ermittelt werden. Bei kamerabasierten Umgebungssensoren können die Abstände beispielsweise durch eine entsprechende Bildbearbeitung bestimmt werden. Bei laserbasierten Umgebungssensoren können die Abstände von Scanpunkten unmittelbar bestimmt werden aus der Reflektion von abgestrahlter Laserstrahlung. Durch die Abstände der Bodenpunkte kann jeweils die Entfernung bzw. eine
Entfernungsänderung von Bodenpunkten angegeben werden, wodurch die vertikale Ausrichtung des Bodenbereichs bestimmt werden kann. Generell ist festzuhalten, dass der Abstand der Bodenpunkte im Bodenbereich umso größer ist, je mehr der
Bodenbereich vertikal nach oben verschoben ist. Beispielweise kann ein Abstand zu einem ersten Bodenpunkt zur Entfernungsbestimmung zuverlässig verwendet werden.
In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Bestimmens einer vertikalen Ausrichtung des Bodenbereichs verglichen mit der Referenzausrichtung des Bodenbereichs ein Bestimmen von einer aktuellen Verteilung von Bodenpunkten für jeden der horizontalen Winkel und ein Vergleichen einer aktuellen Verteilung der Bodenpunkte mit einer Verteilung von Bodenpunkten für eine bekannte Ausrichtung des Bodenbereichs. Durch die Bestimmung der Verteilung kann eine Mehrzahl Bodenpunkte zur Bestimmung der aktuellen Ausrichtung des Bodenbereichs verwendet werden, wodurch die aktuelle Ausrichtung des Bodenbereichs mit einer verbesserten
Genauigkeit bestimmt werden kann. Damit kann auch eine aktuelle Ausrichtung des Bodenbereichs bestimmt werden, wenn sich beispielsweise ein Hindernis im Bereich eines der horizontalten Winkel befindet. Wenn durch das Hindernis nur ein Teil des Bodenbereichs für diesen horizontalen Winkel durch das Hindernis verdeckt ist, können verbleibende Bodenpunkte zur Bestimmung der aktuellen Ausrichtung des
Bodenbereichs verwendet werden. In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Vergleichens einer aktuellen Verteilung der Bodenpunkte mit einer Verteilung von Bodenpunkten für eine bekannte Ausrichtung des Bodenbereichs ein Vergleichen der aktuellen Verteilung der Bodenpunkte mit einer Look-Up Tabelle. Über die Look-Up Tabelle kann eine effiziente Bestimmung der Ausrichtung des Bodenbereichs durchgeführt werden. Die Verwendung der Look-Up Tabelle erfordert nur geringe Rechenressourcen.
In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Bestimmens einer vertikalen Ausrichtung des Bodenbereichs ein Bestimmen einer vertikalen
Winkelabweichung des Bodenbereichs für jeden der wenigstens zwei unterschiedlichen horizontalen Winkel verglichen mit einer bekannten Ausrichtung des Bodenbereichs. Die Bestimmung der vertikalen Ausrichtung des Bodenbereichs als vertikale
Winkelabweichung erleichtert eine nachgelagerte Bestimmung des Neigungswinkels, da hier Winkeloperationen einfach angewendet werden können. Vorzugsweise wird die Winkelabweichung des Bodenbereichs jeweils bezogen auf einen Mittelpunkt des Bodenbereichs bestimmt.
In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Bestimmens von wenigstens einem Neigungswinkel des optischen Umgebungssensors ein Bestimmen eines Nickwinkels und/oder eines Rollwinkels. Durch die relative Ausrichtung des Bodenbereichs können sowohl der Nickwinkel wie auch der Rollwinkel einfach bestimmt werden. Der Nickwinkel betrifft eine Neigung des optischen Umgebungssensors und des Fahrzeugs in Erfassungsrichtung des optischen Umgebungssensors bezogen auf eine ebene Bodenfläche, also beispielsweise dynamisch ein Absenken des Fahrzeugs und damit des Laserscanners beim Bremsen. Der Rollwinkel betrifft eine Rotation des optischen Umgebungssensors und des Fahrzeugs um seine Längsachse,
typischerweise in Erfassungsrichtung. Eine solche Bewegung erfolgt dynamisch beispielsweise bei Kurvenfahrten. Statisch können die verschiedenen Neigungswinkel durch eine fehlerhafte Montage oder durch Spiele bei der Montage auftreten. Auch quasi-statische Neigungswinkel können auftreten, beispielsweise bei falschem
Reifenluftdruck oder einer defekten Radaufhängung. Die Neigungswinkel können positive oder negative Werte annehmen abhängig von einer Ausrichtung des optischen Umgebungssensors zuzogen auf die Referenzausrichtung, d.h. der optische
Umgebungssensor kann entweder zu hoch oder zu tief sehen bzw. nach rechts oder nach links um seine Längsachse verdreht sein verglichen mit der Referenzausrichtung. In vorteilhafter Ausgestaltung der Erfindung umfasst das Verfahren einen zusätzlichen Schritt des Identifizierens von Bodenpunkten in dem Bodenbereich aus den
Scanpunkten in dem Bodenbereich für die wenigstens zwei unterschiedlichen horizontalen Winkel umfasst. Durch die Identifizierung von Bodenpunkten in den Scanpunkten kann die vertikale Ausrichtung des Bodenbereichs mit einer guten
Genauigkeit bestimmt werden. Scanpunkte, die nicht zu den Bodenpunkten gehören, tragen nicht nur nicht zur Bestimmung der vertikalen Ausrichtung bei, sondern können darüber hinaus sogar die Bestimmung der vertikalen Ausrichtung beeinträchtigen oder verfälschen.
In vorteilhafter Ausgestaltung der Erfindung umfasst das Verfahren einen zusätzlichen Schritt des Ermitteins einer Anzahl der identifizierten Bodenpunkte in dem Bodenbereich für die wenigstens zwei unterschiedlichen horizontalen Winkel, und das Verfahren kehrt zu dem Schritt des Erfassens von einer Mehrzahl Scanpunkte in dem Sichtfeld mit dem optischen Umgebungssensor zurück, falls die Anzahl der Bodenpunkte in dem
Bodenbereich für weniger als zwei horizontale Winkel über einem Grenzwert liegt. Die vertikale Ausrichtung des Bodenbereichs für zwei horizontale Winkel ist Voraussetzung, um einen Neigungswinkel zuverlässig bestimmen zu können. Wenn dies also nicht möglich ist aufgrund der geringen Anzahl identifizierter Bodenpunkte, muss das
Verfahren mit einem neuen Satz Scanpunkte neu gestartet werden.
In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Identifizierens von Bodenpunkten in dem Bodenbereich ein Überprüfen von Abständen von benachbarten Scanpunkten. Die benachbarten Scanpunkte betreffen hier die wenigstens zwei unterschiedlichen horizontalen Winkel, d.h. die überprüften Scanpunkte weisen jeweils den gleichen horizontalen Winkel auf und unterscheiden sich in ihrem vertikalen Winkel. Bei einer angenommenen ebenen Fläche als Boden ergeben sich die Abstände abhängig von möglichen Neigungswinkeln, die zu einer vertikalen Verschiebung des Bodenbereichs für die wenigstens zwei horizontalen Winkel führen. Bei weiter entfernten Scanpunkten ist der Abstand zwischen zwei Scanpunkte größer als bei näherliegenden Scanpunkten. Bei zunehmendem vertikalem Winkel wird für Bodenpunkte der Abstand der Scanpunkte entsprechend zunehmen. In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Identifizierens von Bodenpunkten in dem Bodenbereich ein Überprüfen der Scanpunkte auf Hindernisse. Hindernisse können Erhebungen oder auch Vertiefungen des Bodens darstellen, wodurch die vertikale Ausrichtung des Bodenbereichs nur schwer bestimmt werden kann oder verfälscht bestimmt wird. Diese Probleme können vermieden werden, indem Hindernisse vorab erkannt werden, so dass sie nicht fälschlich als Bodenpunkte herangezogen werden. Die Hindernisse können beispielsweise Schlaglöcher oder andere Vertiefungen, andere Verkehrsteilnehmer, Leitplanken oder andere Erhebungen sein.
In vorteilhafter Ausgestaltung der Erfindung umfasst der Schritt des Identifizierens von Bodenpunkten in dem Bodenbereich ein Überprüfen der Scanpunkte auf die Bildung einer hinreichend großen Kontur. Durch die Überprüfung der Scanpunkte auf die Bildung einer hinreichend großen Kontur wird sichergestellt, dass nicht fälschlich beispielsweise ein neben einer Fahrbahn angeordneter, erhobener Gehweg als Boden berücksichtigt wird, oder dass die Höhe der Erhebung bei der Bestimmung der vertikalen Ausrichtung des Bodenbereichs berücksichtigt wird. Auch können die wenigstens zwei unterschiedlichen horizontalen Winkel basierend auf der hinreichend großen Kontur, die als Boden angenommen wird, dynamisch ausgewählt werden.
Nachfolgend wird die Erfindung unter Bezugnahme auf die anliegende Zeichnung anhand bevorzugter Ausführungsformen näher erläutert. Die dargestellten Merkmale können sowohl jeweils einzeln als auch in Kombination einen Aspekt der Erfindung darstellen. Merkmale verschiedener Ausführungsbeispiele sind übertragebar von einem Ausführungsbeispiel auf ein anderes.
Es zeigt
Fig. 1 eine schematische Darstellung eines Fahrzeugs mit einem
Laserscansystem als optischem Umgebungserfassungssystem gemäß einer ersten, bevorzugten Ausführungsform in Seitenansicht,
Fig. 2 eine schematische Darstellung der Bestimmung einer vertikalen
Winkelausrichtung gemäß einer ersten, bevorzugten Ausführungsform, Fig. 3 eine schematische Darstellung der Funktion eines Laserscanners des
Laserscansystems aus der Fig. 1 mit drei Bändern zur Erfassung eines Sichtfelds in Übereinstimmung mit der ersten, bevorzugten Ausführungsform,
Fig. 4 eine schematische Darstellung der Erfassung des Sichtfelds des
Laserscanners aus Fig. 1 mit drei Bändern in Übereinstimmung mit der ersten, bevorzugten Ausführungsform,
Fig. 5 eine schematische Darstellung der Verteilung von Bodenpunkten in dem
Bodenbereich für die drei Bänder des Laserscanners aus Fig. 1 in Übereinstimmung mit der ersten, bevorzugten Ausführungsform, und
Fig. 6 ein Ablaufdiagramm eines Verfahrens zur Bestimmung eines
Neigungswinkels des optischen Umgebungssensors des Fahrzeugs aus Fig. 1 in Übereinstimmung mit der ersten Ausführungsform.
Die Figur 1 zeigt ein Fahrzeug 10 mit einem optischen Umgebungserfassungssystem 12 gemäß einer ersten, bevorzugten Ausführungsform.
Das optische Umgebungserfassungssystem 12 ist in diesem Ausführungsbeispiel als Laserscansystem 12 ausgeführt und umfasst entsprechend einen optischen
Umgebungssensor 14, der als Lidar, konkret als Laserscanner 14 ausgeführt ist, und eine Verarbeitungseinheit 16, die über einen Datenbus 18 miteinander verbunden sind. Der optische Umgebungssensor 14 ist fest an dem Fahrzeug 10, hier in einem vorderen Bereich an einer Oberkante einer Windschutzscheibe montiert.
Der Laserscanner 14 weist ein Sichtfeld 20 auf, das sich in horizontaler Richtung zwischen einem linken Grenzwinkel 40 und einem rechten Grenzwinkel 38 und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren
Grenzwinkel erstreckt. Das Sichtfeld 20 erstreckt sich zwischen den genannten
Grenzwinkeln in horizontaler und vertikaler Richtung. Der Laserscanner 14 ist ausgeführt, eine Mehrzahl Scanpunkte in dem Sichtfeld 20 zu erfassen. Der
Laserscanner 14 der ersten Ausführungsform ist dabei ausgeführt, die Scanpunkte in dem Sichtfeld 20 in insgesamt sechs horizontalen Bahnen 30 zu erfassen. In Fig. 3 ist die Erfassung von Bodenpunkten 26 beispielhaft für drei Bahnen 30 dargestellt.
Die horizontalen Bahnen 30 sind in Fig. 4 im Detail gezeigt. Jeweils drei horizontale Bahnen 30 liegen nahtlos übereinander. Der Laserscanner 14 umfasst in diesem Ausführungsbeispiel einen rotierenden Spiegel zur Ablenkung von ausgestrahlten Laserstrahlen 22 in dem Sichtfeld 20, wobei drei der horizontalen Bahnen 30 von jeweils derselben Seite des Spiegels erzeugt werden. Die horizontalen Bahnen 30 weisen bei diesem Laserscanner 14 über seinen Scanbereich in horizontaler Richtung eine vertikale Verschiebung auf, d.h. sie liegen schräg zur horizontalen Ebene. Für die eine Spiegelseite erstrecken sich die drei horizontalen Bahnen 30 vertikal nach oben, und für die andere Spiegelseite erstrecken drei horizontalen Bahnen 30 vertikal nach unten, jeweils ausgehend von derselben horizontalen Richtung. Es ergibt sich ein
näherungsweise rechteckiges Sichtfeld 20 des Laserscanners 14.
Die Verarbeitungseinheit 16 ist ausgeführt, ein Verfahren zur Bestimmung eines Neigungswinkels der Laserscanners 14 durchzuführen. Der Neigungswinkel ergibt sich neben der entsprechenden Ausrichtung abweichend von einer Referenzausrichtung am Fahrzeug 10 auch durch eine entsprechende Neigung des Fahrzeugs 10,
beispielsweise abhängig von Fahrsituationen oder geänderten Eigenschaften des Fahrzeugs 10. Das Verfahren wird nachstehend unter Bezug auf das Ablaufdiagramm der Fig. 6 beschrieben.
Das Verfahren beginnt mit Schritt S100, in dem eine Mehrzahl Scanpunkte im Sichtfeld 20 des Laserscanners 14 erfasst wird. Die Scanpunkte stellen Einzelmessungen des Laserscanners 14 dar, für die jeweils eine Reflektion des abgestrahlten Laserstrahls 22 für eine jede Kombination aus horizontalem Abstrahlwinkel und vertikalem
Abstrahlwinkel gemessen wird. Über eine Laufzeit des abgestrahlten Laserstrahls 22 wird die Entfernung zu einem Ort der Reflektion des Laserstrahls 22 bestimmt. Die Scanpunkte werden in regelmäßigen Winkelabständen im Wesentlichen zeilen- und spaltenweise erfasst. Wie oben ausgeführt wurde, werden die Scanpunkte in dem Sichtfeld 20 des Laserscanners 14 in sechs im Wesentlichen horizontalen Bahnen 30 erfasst, die sich in ihrer vertikalen Ausrichtung unterscheiden. Es folgt der Schritt S1 10, in dem ein Bodenbereich 32 des Sichtfelds 20 des
Laserscanners 14, der bei Referenzausrichtung Bodenpunkte 26 als Scanpunkte von einem Boden 24 erfasst, festgelegt wird. Der Bodenbereich 32 ist ein Teil des Sichtfelds 20 des Laserscanners 14, der üblicherweise Bodenpunkte 26 erfasst, und ist für den Laserscanner 14 fest vorgegeben. In diesem Ausführungsbeispiel ist die unterste horizontale Bahn 30 des Laserscanners 14 als Bodenbereich 32 festgelegt.
Die Referenzausrichtung des Bodenbereichs 32 entspricht einer Positionierung des Laserscanners 14 mit einer definitionsgemäßen Ausrichtung von Null Grad. Alternativ kann prinzipiell jede bekannte Ausrichtung als Grundlage für die Bestimmung von Neigungswinkeln verwendet werden.
Der Schritt S1 10 kann auch vor Schritt S100 erfolgen.
In Schritt S 120 werden Bodenpunkte 26 in dem Bodenbereich 32 aus den Scanpunkten in dem Bodenbereich 32 für zwei unterschiedliche horizontale Winkel 34, 36 identifiziert. Dazu werden zunächst die Abstände von benachbarten Scanpunkten überprüft. Die zwei unterschiedlichen horizontalen Winkel 34, 36 sind abhängig von Fahrsituationen oder einer Umgebung veränderbar. In einer alternativen Ausgestaltung sind die horizontalen Winkel 34, 36 fest vorgegeben.
Die benachbarten Scanpunkte betreffen für die zwei unterschiedlichen horizontalen Winkel 34, 36 Scanpunkte mit dem jeweils gleichen horizontalen Winkel 34, 36, die sich in ihrem vertikalen Winkel unterscheiden. Bei weiter entfernten Scanpunkten ist der Abstand zwischen zwei Scanpunkten größer als bei näherliegenden Scanpunkten. Bei einem zunehmenden vertikalen Winkel wird für Bodenpunkte 26 der Abstand der Reflektionen entsprechend kontinuierlich zunehmen. Eine entsprechende Verteilung von Bodenpunkten 26 ist in Fig. 5 dargestellt. Wenn der Abstand nicht zunimmt, oder der Abstand zu viel zunimmt, ist dies ein Anzeichen für das Vorliegen eines Hindernisses, d.h. die zwei benachbarten Scanpunkte können nicht beide Bodenpunkte 26 sein. Somit können die Scanpunkte auf einfache Weise auf Hindernisse überprüft werden.
Hindernisse stellen dabei Erhebungen oder auch Vertiefungen des Bodens 24 dar. Die Hindernisse können beispielsweise Schlaglöcher oder andere Vertiefungen, andere Verkehrsteilnehmer oder auch Leitplanken oder andere Erhebungen sein. Weiter umfasst das Identifizieren von Bodenpunkten 26 in dem Bodenbereich 32 aus den Scanpunkten in dem Bodenbereich 32 für die zwei unterschiedlichen horizontalen Winkel 34, 36 das Überprüfen der Scanpunkte auf die Bildung einer hinreichend großen Kontur. Durch die Überprüfung der Scanpunkte auf die Bildung einer hinreichend großen Kontur wird sichergestellt, dass die Bodenpunkte 26 nicht fälschlicherweise auf einer anderen, im Wesentlichen ebenen Fläche als dem Boden 24 liegen,
beispielsweise auf einem neben einer Fahrbahn, die als Boden 24 definiert ist, angeordneten, erhobenen Gehweg. Somit kann der erhobene Gehweg nicht als Boden 24 berücksichtigt werden. Zusätzlich können die zwei unterschiedlichen horizontalen Winkel 34, 36 basierend auf der erkannten, hinreichend großen Kontur, die als Boden 24 angenommen wird, dynamisch ausgewählt werden.
In Schritt S 130 erfolgt eine Überprüfung der identifizierten Bodenpunkte 26. Es wird eine Anzahl der Bodenpunkte 26 in dem Bodenbereich 32 für jeden der zwei unterschiedlichen horizontalen Winkel 34, 36 ermittelt. Falls die Anzahl der
Bodenpunkte 26 in dem Bodenbereich 32 für einen der zwei horizontalen Winkel 34, 36 nicht über einem Grenzwert liegt, kehrt das Verfahren zu dem Schritt S100 zurück, um erneut Scanpunkte zu erfassen.
In Schritt S140 wird eine vertikale Ausrichtung des Bodenbereichs 32 verglichen mit der Referenzausrichtung des Bodenbereichs 32 basierend auf den identifizierten
Bodenpunkten 26 in dem Bodenbereich 32 für die zwei unterschiedlichen horizontalen Winkel 34, 36 bestimmt. Die zwei unterschiedlichen horizontalen Winkel 34, 36 umfassen hier einen möglichst großen horizontalen Winkelbereich des Sichtfelds 20.
Entsprechend werden in Schritt S140 aktuelle Abstände von Bodenpunkten 26 für jeden der horizontalen Winkel 34, 36 bestimmt. Die aktuellen Abstände der Bodenpunkten 26 werden mit Abständen der Bodenpunkte 26 für eine bekannte Ausrichtung des
Bodenbereichs 32 verglichen.
Außerdem wird eine aktuelle Verteilung der Bodenpunkte 26 für jeden der horizontalen Winkel 34, 36 bestimmt. Die aktuelle Verteilung der Bodenpunkte 26 wird für jeden der horizontalen Winkel 34, 36 mit einer Verteilung von Bodenpunkten 26 für eine bekannte Ausrichtung des Bodenbereichs 32 verglichen. Dabei wird die aktuelle Verteilung der Bodenpunkte 26 mit einer Look-Up Tabelle verglichen, woraus sich eine vertikale Ausrichtung des Bodenbereichs 32 für jeden der horizontalen Winkel 34, 36 basierend auf der aktuellen Verteilung der Bodenpunkte 26 ergibt.
Davon ausgehend wird eine vertikale Winkelabweichung des Bodenbereichs 32 für jeden der zwei unterschiedlichen horizontalen Winkel 34, 36 verglichen mit einer bekannten Ausrichtung des Bodenbereichs 32 bestimmt.
Es ergibt sich eine relative Lage des Bodenbereichs 32 bezogen auf die
Referenzausrichtung des Bodenbereichs 32, woraus dann direkt ein Neigungswinkel des Fahrzeugs und damit des Laserscanners 14 bestimmt werden kann.
In Schritt S150 werden basierend auf der vertikalen Ausrichtung des Bodenbereichs 32 verglichen mit der Referenzausrichtung des Bodenbereichs 32 für die zwei
unterschiedlichen horizontalen Winkel 34, 36 die Neigungswinkel bestimmt. Als Neigungswinkel des Laserscanners 14 werden hier ein Nickwinkel und ein Rollwinkel bestimmt. Der Nickwinkel betrifft eine Neigung des Fahrzeugs 10 in Bewegungsrichtung relativ zu der Bewegungsrichtung. Der Rollwinkel betrifft eine Rotation des Fahrzeugs 10 und damit des Laserscanners 14 um seine Längsachse.
Nickwinkel und Rollwinkel werden basierend auf der vertikalen Ausrichtung des Bodenbereichs 32 für die zwei unterschiedlichen horizontalen Winkel 34, 36 bestimmt. Aus der vertikalen Ausrichtung des Bodenbereichs 32 wird die relative Lage des Bodenbereichs 32 bestimmt, woraus sich der Nickwinkel und auch der Rollwinkel bestimmen lassen. Ein Nickwinkel wird dadurch identifiziert, dass sich die vertikale Ausrichtung für beide horizontalen Winkel 34, 36 in die gleiche Richtung ändert, d.h. die vertikale Ausrichtung nimmt für beide horizontalen Winkel 34, 36 zu oder ab. Ein Rollwinkel wird dadurch identifiziert, dass sich die vertikale Ausrichtung für die beiden horizontalen Winkel 34, 36 in unterschiedliche Richtungen ändert, d.h. die vertikale Ausrichtung nimmt für einen horizontalen Winkel 34, 36 zu und für den anderen horizontalen Winkel 34, 36 ab.
Im Detail werden Nickwinkel und Rollwinkel unter Bezug auf Fig. 2 beispielsweise wie folgt bestimmt. Der Laserscanner 14 ist an dem Fahrzeug 10 in einer Höhe M montiert. Für einen horizontalen Winkel H von -20° ergibt sie h ohne eine Neigung gegenüber der Referenzausrichtung der vertikale Winkel zu Vx. Der vertikale Winkel zu Vx kann beispielsweise der Fig. 4 für das untere Band 30 entnommen werden. Er entspricht hier der Mitte des Bandes 30 und beträgt für den horizontalen Winkel H von -20°etwa -1 .3°. Alternativ kann der vertikale Winkel einer Look-Up Tabelle entnommen werden. Bei einer abweichenden Ausrichtung des Laserscanners 14 wird das untere Band 30 insgesamt verschoben, was durch die veränderte vertikale Ausrichtung für jeden horizontalen Winkel 34, 36 erfasst wird. Entsprechend ergibt sich eine Ausrichtung des Bodenbereichs 30 mit einem vertikalen Winkel Vy. Ein dazugehöriger Abstand DY ergibt sich aus den Abständen der Reflektionen der von dem Laserscanner 14 bestimmten Scanpunkte.
Der vertikale Winkel Vy entspricht einer Summe des vertikalen Winkels Vx plus einer Abweichung von X. Somit gilt, dass VY = Vx + X. Außerdem ergibt sich aus Fig. 2, dass VY = sin-1 (M/DY) ist.
Die Abweichung der vertikalen Ausrichtung kann die Folge eines Nickens mit einem Nickwinkel N oder eines Rollens mit einem Rollwinkel R des Fahrzeugs 10 sein, oder eine Kombination davon. Somit gilt, dass X = R * sin (H) + N * cos(H). Wenn der horizontale Winkel 0°ist, also der Bereich unmitte Ibar vor dem Fahrzeug 10 betrachtet wird, hat ein Rollwinkel keinen Einfluss auf die vertikale Ausrichtung der Bodenpunkte 26, während bei einem praktisch nicht relevanten horizontalen Winkel von 90°der Nickwinkel N rechnerisch keinen Einfluss hat. Dazwischen ergibt sich die vertikale Ausrichtung durch beide Winkel.
Aufgrund der zwei Unbekannten, nämlich dem Rollwinkel und dem Nickwinkel, sind die vertikalen Ausrichtungen des Bodenbereichs 32 für zwei unterschiedliche horizontale Winkel 34, 36 zu bestimmen. Unter Berücksichtigung der Fig. 2 werden also für die zwei horizontalen Winkel 34, 36, im nachfolgenden als Hi , H2 bezeichnet, die folgenden Gleichungen aufgestellt:
Vi + R * sin (Hi) + N * cos(Hi) = sin"1(M/Di)
V2 + R * sin (H2) + N * cos(H2) = sm 1(M/D2)
Durch das Lösen dieser Gleichungen ergeben sich sowohl der Rollwinkel wie auch der Nickwinkel des Fahrzeugs 10. Bezugszeichenliste
Fahrzeug 10 optisches Umgebungserfassungssystem, Laserscansystem 12 optischer Umgebungssensor, Laserscanner 14
Verarbeitungseinheit 16
Datenbus 18
Sichtfeld 20
Laserstrahl 22
Boden 24
Bodenpunkt 26 horizontale Bahn 30
Bodenbereich 32 erster horizontaler Winkel 34 zweiter horizontaler Winkel 36 rechter Grenzwinkel 38 linker Grenzwinkel 40

Claims

Patentansprüche
1 . Verfahren zur Bestimmung eines Neigungswinkels eines optischen
Umgebungssensors (14), wobei der optische Umgebungssensor (14) ein Sichtfeld (20) aufweist, das sich in horizontaler Richtung zwischen einem linken
Grenzwinkel (40) und einem rechten Grenzwinkel (38) und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren Grenzwinkel erstreckt, mit dem Schritt
Erfassen einer Mehrzahl Scanpunkte in dem Sichtfeld (20) des optischen
Umgebungssensors (14),
gekennzeichnet durch die Schritte
Festlegen eines Bodenbereichs (32) des Sichtfelds (20) des optischen
Umgebungssensors (14), der bei Referenzausrichtung Bodenpunkte (26) als Scanpunkte von einem Boden (24) erfasst,
Bestimmen einer vertikalen Ausrichtung des Bodenbereichs (32) verglichen mit der Referenzausrichtung des Bodenbereichs (32) basierend auf Bodenpunkten (26) in dem Bodenbereich (32) für wenigstens zwei unterschiedliche horizontale Winkel (34, 36), und
Bestimmen von wenigstens einem Neigungswinkel des optischen
Umgebungssensors (14) basierend auf der vertikalen Ausrichtung des
Bodenbereichs (32) verglichen mit der Referenzausrichtung des Bodenbereichs (32) für die wenigstens zwei unterschiedlichen horizontalen Winkel (34, 36).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass
der Schritt des Erfassens einer Mehrzahl Scanpunkte in dem Sichtfeld (20) des optischen Umgebungssensors (14) ein Erfassen der Mehrzahl Scanpunkte in einer Mehrzahl im Wesentlichen horizontaler Bahnen (30) umfasst, wobei sich die horizontalen Bahnen (30) in ihrer vertikalen Ausrichtung unterscheiden, und der Schritt des Festlegens eines Bodenbereichs (32) des Sichtfelds (20) des optischen Umgebungssensors (14), der bei Referenzausrichtung Bodenpunkte (26) als Scanpunkte von einem Boden (24) erfasst, ein Festlegen einer horizontalen Bahn (30) als Bodenbereich (32) umfasst.
3. Verfahren nach einem der vorhergehenden Ansprüche 1 oder 2, dadurch gekennzeichnet, dass
der Schritt des Bestimmens einer vertikalen Ausrichtung des Bodenbereichs (32) verglichen mit der Referenzausrichtung des Bodenbereichs (32) ein Bestimmen von aktuellen Abständen von Bodenpunkten (26) für jeden der horizontalen Winkel (34, 36) und ein Vergleichen von aktuellen Abständen der Bodenpunkte (26) mit Abständen der Bodenpunkte (26) für eine bekannte Ausrichtung des
Bodenbereichs (32) umfasst.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass
der Schritt des Bestimmens einer vertikalen Ausrichtung des Bodenbereichs (32) verglichen mit der Referenzausrichtung des Bodenbereichs (32) ein Bestimmen von einer aktuellen Verteilung von Bodenpunkten (26) für jeden der horizontalen Winkel (34, 36) und ein Vergleichen einer aktuellen Verteilung der Bodenpunkte (26) mit einer Verteilung von Bodenpunkten (26) für eine bekannte Ausrichtung des Bodenbereichs (32) für jeden der horizontalen Winkel (34, 36) umfasst.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass
der Schritt des Vergleichens einer aktuellen Verteilung der Bodenpunkte (26) mit einer Verteilung von Bodenpunkten (26) für eine bekannte Ausrichtung des Bodenbereichs (32) ein Vergleichen der aktuellen Verteilung der Bodenpunkte (26) mit einer Look-Up Tabelle umfasst.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass
der Schritt des Bestimmens einer vertikalen Ausrichtung des Bodenbereichs (32) ein Bestimmen einer vertikalen Winkelabweichung des Bodenbereichs (32) für jeden der wenigstens zwei unterschiedlichen horizontalen Winkel verglichen mit einer bekannten Ausrichtung des Bodenbereichs (32) umfasst.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt des Bestimmens von wenigstens einem Neigungswinkel des optischen Umgebungssensors (14) ein Bestimmen eines Nickwinkels und/oder eines
Rollwinkels umfasst.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass
das Verfahren einen zusätzlichen Schritt des Identifizierens von Bodenpunkten (26) in dem Bodenbereich (32) aus den Scanpunkten in dem Bodenbereich (32) für die wenigstens zwei unterschiedlichen horizontalen Winkel (34, 36) umfasst.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass
das Verfahren einen zusätzlichen Schritt des Ermitteins einer Anzahl der identifizierten Bodenpunkte (26) in dem Bodenbereich (32) für die wenigstens zwei unterschiedlichen horizontalen Winkel (34, 36) umfasst, und
das Verfahren zu dem Schritt des Erfassens von einer Mehrzahl Scanpunkte in dem Sichtfeld (20) mit dem optischen Umgebungssensor (14) zurückkehrt, falls die Anzahl der Bodenpunkte (26) in dem Bodenbereich (32) für weniger als zwei horizontale Winkel (34, 36) über einem Grenzwert liegt.
10. Verfahren nach einem der vorhergehenden Ansprüche 8 oder 9, dadurch
gekennzeichnet, dass
der Schritt des Identifizierens von Bodenpunkten (26) in dem Bodenbereich (32) ein Überprüfen von Abständen von benachbarten Scanpunkten umfasst.
1 1 . Verfahren nach einem der vorhergehenden Ansprüche 8 bis 10, dadurch
gekennzeichnet, dass
der Schritt des Identifizierens von Bodenpunkten (26) in dem Bodenbereich (32) ein Überprüfen der Scanpunkte auf Hindernisse umfasst.
12. Verfahren nach einem der vorhergehenden Ansprüche 8 bis 1 1 , dadurch
gekennzeichnet, dass
der Schritt des Identifizierens von Bodenpunkten (26) in dem Bodenbereich (32) ein Überprüfen der Scanpunkte auf die Bildung einer hinreichend großen Kontur umfasst.
13. Optisches Umgebungserfassungssystem (12) mit einem optischen
Umgebungssensor (14) und einer Verarbeitungseinheit (16), wobei der optische Umgebungssensor (14) ein Sichtfeld (20) aufweist, das sich in horizontaler Richtung zwischen einem linken Grenzwinkel (40) und einem rechten Grenzwinkel (38) und in vertikaler Richtung zwischen einem oberen Grenzwinkel und einem unteren Grenzwinkel erstreckt, und die Verarbeitungseinheit (16) ausgeführt ist, das Verfahren nach einem der Ansprüche 1 bis 12 durchzuführen.
14. Optisches Umgebungserfassungssystem (12) nach Anspruch 13, dadurch
gekennzeichnet, dass
der optische Umgebungssensor (14) als Lidar ausgeführt ist, insbesondere als Laserscanner.
15. Fahrzeug (10) mit einem optischen Umgebungserfassungssystem (12) nach
einem der vorhergehenden Ansprüche 13 oder 14.
PCT/EP2018/056039 2017-03-13 2018-03-12 Bestimmung von neigungswinkeln mit einem laserscanner WO2018166956A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017105209.7A DE102017105209A1 (de) 2017-03-13 2017-03-13 Bestimmung von Neigungswinkeln mit einem Laserscanner
DE102017105209.7 2017-03-13

Publications (1)

Publication Number Publication Date
WO2018166956A1 true WO2018166956A1 (de) 2018-09-20

Family

ID=61628347

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/056039 WO2018166956A1 (de) 2017-03-13 2018-03-12 Bestimmung von neigungswinkeln mit einem laserscanner

Country Status (2)

Country Link
DE (1) DE102017105209A1 (de)
WO (1) WO2018166956A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020260242A1 (de) * 2019-06-27 2020-12-30 Valeo Schalter Und Sensoren Gmbh Bestimmen einer nickwinkellage eines aktiven optischen sensorsystems

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019210931B4 (de) * 2019-07-24 2021-03-18 Zf Friedrichshafen Ag Verfahren und Vorrichtung zur Erkennung und Verifikation einer fehlerhaften Fahrzeugkomponente eines Fahrzeugs
EP3819665B1 (de) 2019-11-06 2022-01-19 Yandex Self Driving Group LLC Verfahren und rechnervorrichtung zur kalibrierung eines lidar-systems
WO2022144588A1 (en) * 2020-12-30 2022-07-07 Innoviz Technologies Ltd. Lidar system with automatic pitch and yaw correction
FI20215882A1 (en) * 2021-08-23 2023-02-24 Teknologian Tutkimuskeskus Vtt Oy DEVICE FOR ASSISTED STEERING
KR20240052240A (ko) 2022-10-14 2024-04-23 현대모비스 주식회사 노면과 차량 간 기울기에 따른 램프의 제어 시스템 및 이를 포함하는 램프 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001048508A1 (de) * 1999-12-23 2001-07-05 Conti Temic Microelectronic Gmbh Verfahren zur optischen überwachung der umgebung eines sich bewegenden fahrzeugs
EP2105761A2 (de) * 2008-03-26 2009-09-30 ROBOT Visual Systems GmbH Verfahren zur parallelen Ausrichtung eines Laserscanners zu einer Fahrbahn
DE102012100324A1 (de) * 2012-01-16 2013-07-18 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Bestimmung der Neigung eines solchen Gerätes und/oder zur Wandverfolgung und/oder zum Annähern an ein Objekt
US9052721B1 (en) 2012-08-28 2015-06-09 Google Inc. Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5964822A (en) 1997-08-27 1999-10-12 Delco Electronics Corp. Automatic sensor azimuth alignment
DE19957186A1 (de) 1999-11-27 2001-05-31 Volkswagen Ag Verfahren zum Justieren eines Abstands- und Richtungssensors eines Fahrzeuges
US7337650B1 (en) 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
US9279882B2 (en) 2008-09-19 2016-03-08 Caterpillar Inc. Machine sensor calibration system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001048508A1 (de) * 1999-12-23 2001-07-05 Conti Temic Microelectronic Gmbh Verfahren zur optischen überwachung der umgebung eines sich bewegenden fahrzeugs
EP2105761A2 (de) * 2008-03-26 2009-09-30 ROBOT Visual Systems GmbH Verfahren zur parallelen Ausrichtung eines Laserscanners zu einer Fahrbahn
DE102012100324A1 (de) * 2012-01-16 2013-07-18 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Bestimmung der Neigung eines solchen Gerätes und/oder zur Wandverfolgung und/oder zum Annähern an ein Objekt
US9052721B1 (en) 2012-08-28 2015-06-09 Google Inc. Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020260242A1 (de) * 2019-06-27 2020-12-30 Valeo Schalter Und Sensoren Gmbh Bestimmen einer nickwinkellage eines aktiven optischen sensorsystems

Also Published As

Publication number Publication date
DE102017105209A1 (de) 2018-09-13

Similar Documents

Publication Publication Date Title
WO2018166956A1 (de) Bestimmung von neigungswinkeln mit einem laserscanner
DE102015213701A1 (de) Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten
EP3674744B1 (de) Verfahren zur kalibrierung der ausrichtung eines sich bewegenden objektsensors
DE102016216294B4 (de) Einrichtung zum Erkennen eines Hindernisses um ein Fahrzeug herum und Verfahren dafür
WO2005122090A1 (de) Verfahren zur kalibrierung einer kamera
EP3193276B1 (de) Erfassungsvorrichtung und verfahren zum erkennen von fahrzeugachsen
EP2856390A1 (de) Verfahren und vorrichtung zur verarbeitung stereoskopischer daten
EP2105761B1 (de) Verfahren zur parallelen Ausrichtung eines Laserscanners zu einer Fahrbahn
DE102016207181B4 (de) Verfahren und System zum Bestimmen einer Position eines Fahrzeugs auf einer Fahrbahn
DE102019119095B4 (de) Verfahren und Kommunikationssystem zur Unterstützung einer wenigstens teilweise automatischen Fahrzeugsteuerung
DE102017106484A1 (de) Bestimmung eines Nickwinkels eines Umgebungssensors eines Fahrzeugs
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3759517A1 (de) Verfahren und vorrichtung zur schätzung der höhe eines reflektors eines fahrzeugs
DE102022003167A1 (de) Verfahren und Vorrichtung zur Bestimmung des Straßenebene, auf der sich ein Fahrzeug gerade befindet, im dreidimensionalen Verkehrsraum
WO2022152463A1 (de) Verfahren zur kalibrierung eines laserscanners und technische anlage
DE102019003238B4 (de) Fahrzeugortung durch Kartenabgleich unter Berücksichtigung eines Straßenprofils
DE112020005547T5 (de) Verarbeitungsvorrichtung
DE102016207125A1 (de) Steuern eines Kraftfahrzeugs
DE102019127140A1 (de) Bestimmung eines Nickwinkels eines Umgebungssensors eines Fahrzeugs
DE102019210129A1 (de) Verfahren zum Überprüfen einer Kalibrierung mehrerer Sensoren und Kraftfahrzeug mit mehreren Sensoren
EP3788406B1 (de) Verfahren zum bestimmen einer ausrichtung eines optoelektronischen sensors mittels abtastpunkten eines sensorbildes sowie optoelektronischer sensor
WO2020083716A1 (de) Regenerkennung mit einem umgebungssensor zur punktweisen erfassung einer umgebung eines fahrzeugs, insbesondere mit einem lidar-basierten umgebungssensor
DE102014017904A1 (de) Verfahren und Vorrichtung zur Detektion erhabener Objekte und Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
DE102019117312A1 (de) Bestimmen einer Nickwinkellage eines aktiven optischen Sensorsystems
DE102019100303A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Krümmung einer Fahrbahn

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18711075

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18711075

Country of ref document: EP

Kind code of ref document: A1