DE102015205087A1 - Method for determining the misalignment of a driver assistance sensor - Google Patents

Method for determining the misalignment of a driver assistance sensor Download PDF

Info

Publication number
DE102015205087A1
DE102015205087A1 DE102015205087.4A DE102015205087A DE102015205087A1 DE 102015205087 A1 DE102015205087 A1 DE 102015205087A1 DE 102015205087 A DE102015205087 A DE 102015205087A DE 102015205087 A1 DE102015205087 A1 DE 102015205087A1
Authority
DE
Germany
Prior art keywords
cloud
points
driver assistance
sensor
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015205087.4A
Other languages
German (de)
Inventor
Felix Naser
Andreas Rauch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102015205087.4A priority Critical patent/DE102015205087A1/en
Publication of DE102015205087A1 publication Critical patent/DE102015205087A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0225Failure correction strategy
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • B60W2050/0088Adaptive recalibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung offenbart ein Verfahren zum Ermitteln einer Dejustage eines Fahrerassistenzsensors eines Kraftfahrzeuges mit den folgenden Schritten: – Aufnehmen einer ersten Punktewolke mit dem Fahrerassistenzsensor, wobei die erste Punktewolke zumindest ein stationäres Objekt in der Umgebung des Kraftfahrzeuges abbildet; – Wenn sich das Kraftfahrzeug eine vorbestimmte Strecke weiterbewegt hat oder wenn ein vorbestimmter Zeitraum abgelaufen ist, Aufnehmen einer zweiten Punktewolke mit dem Fahrerassistenzsensor, wobei die zweite Punktewolke das zumindest eine stationäre Objekt in der Umgebung des Kraftfahrzeuges abbildet; – Transformation der beiden Punktewolken in ein gemeinsames Koordinatensystem; – Schrittweises Drehen der der ersten Punktewolke und der zweiten Punktewolke in die gleiche Richtung, bis ein Abbruchkriterium erfüllt ist; und – Ermitteln nach jeder schrittweisen Drehung der ersten Punktwolke und der zweiten Punktewolke ein Maß der Übereinstimmung der ersten Punktwolke und der zweiten Punktewolke, wobei das Abbruchkriterium erfüllt ist, wenn das Maß der Übereinstimmung einen optimalen Wert erreicht hat; und – Ermitteln einer Verdrehung des Fahrerassistenzsensors um dessen z-Achse auf Grundlage des Drehwinkels der ersten Punktewolke und der zweiten Punktwolke, bei dem das Maß der Übereinstimmung einen optimalen Wert erreicht hat.The invention discloses a method for determining a misalignment of a driver assistance sensor of a motor vehicle with the following steps: recording a first cloud of points with the driver assistance sensor, the first cloud of points imaging at least one stationary object in the surroundings of the motor vehicle; If the motor vehicle has moved on a predetermined distance or if a predetermined period of time has elapsed, recording a second cloud of points with the driver assistance sensor, the second cloud of points imaging the at least one stationary object in the vicinity of the motor vehicle; - transformation of the two point clouds into a common coordinate system; - stepwise turning the first cloud of points and the second cloud of points in the same direction until an abort criterion is met; and determining, after each incremental rotation of the first point cloud and the second point cloud, a measure of coincidence of the first point cloud and the second point cloud, the abort criterion being satisfied when the measure of the match has reached an optimal value; and determining a rotation of the driver assistance sensor about its z-axis on the basis of the rotation angle of the first cloud of points and the second cloud of points at which the degree of agreement has reached an optimum value.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Ermitteln der Dejustage eines Fahrersassistenzsensors, insbesondere um die z-Achse während des normalen Betriebs eines Kraftfahrzeuges. The present invention relates to a method for determining the misalignment of a driver assistance sensor, in particular about the z-axis during normal operation of a motor vehicle.

Heutige Fahrerassistenzsysteme in einem Kraftfahrzeug basieren auf den Daten einer Mehrzahl von Sensoren. Diese umfassen unter anderem Radarsensoren (Radio Detection and Ranging), LIDAR-Sensoren (Light Detection and Ranging), Kamerasensoren und Ultraschallsensoren. Diese werden beispielsweise bei einem abstandsregelnden Tempomat, einem Spurverlassens-Warnerassistent und/oder bei einem Einparkassistent verwendet. Um die Anforderungen künftiger Fahrerassistenzsysteme, insbesondere beim hochautomatisierten Fahren, erfüllen zu können, ist eine Beschränkung auf ein einziges Sensorprinzip bzw. Messprinzip nicht ausreichend. Insbesondere für das hochautomatisierte Fahren ist aufgrund der geforderten niedrigen Fehlerrate eine Redundanz auf Grundlage redundanter Sensorprinzipien zwingend erforderlich. Im Bereich der Fahrzeugumfelderkennung werden zunehmend Laserimpulse im nicht sichtbaren Infrarotspektrum verwendet. Wenn die vom Sensor ausgesendeten Laserimpulse einen Gegenstand treffen, wird ein Teil der ausgesendeten Laserstrahlung zu einer Empfangseinheit zurück reflektiert. Durch die Auswertung der Laufzeit des Laserimpulses lässt sich mithilfe der Lichtgeschwindigkeit die Entfernung zum ermittelten Objekt bestimmen. Derartige LIDAR-Sensoren bieten im Vergleich zu anderen abstandsmessenden Sensoren, beispielsweise Radarsensoren, eine höhere Winkelauflösung und eignen sich deshalb vor allem zur Erkennung von Objektkonturen und des befahrbaren Bereichs bzw. Freiraums. Today's driver assistance systems in a motor vehicle are based on the data of a plurality of sensors. These include radar sensors (Radio Detection and Ranging), LIDAR sensors (Light Detection and Ranging), camera sensors and ultrasonic sensors. These are used for example in a distance-regulating cruise control, a lane departure warning assistant and / or a parking assistant. In order to meet the requirements of future driver assistance systems, especially in highly automated driving, a restriction to a single sensor principle or measuring principle is not sufficient. In particular for highly automated driving, a redundancy on the basis of redundant sensor principles is absolutely necessary due to the required low error rate. In the field of vehicle environment detection laser pulses are increasingly used in the invisible infrared spectrum. When the laser pulses emitted by the sensor strike an object, part of the emitted laser radiation is reflected back to a receiving unit. By evaluating the duration of the laser pulse, the distance to the detected object can be determined by means of the speed of light. Such LIDAR sensors offer in comparison to other distance-measuring sensors, such as radar sensors, a higher angular resolution and are therefore particularly suitable for detecting object contours and the passable area or free space.

Bei einem Kraftfahrzeug werden derzeit hauptsächlich 2D-LIDAR-Sensoren und nur in einem geringeren Maß 3D-Sensoren verwendet. Ein derartiger LIDAR-Sensor erzeugt eine Punktewolke in der Winkelinformation und Distanzinformation zu der ermittelten Reflexion gespeichert sind. In a motor vehicle, currently mainly 2D LIDAR sensors and only to a lesser extent 3D sensors are used. Such a LIDAR sensor generates a point cloud in the angle information and distance information to which the detected reflection is stored.

Für die effiziente Nutzung der Daten eines LIDAR-Sensors ist die korrekte Kalibrierung des LIDAR-Sensors zwingend erforderlich. Neben einer intrinsischen Kalibrierung, die die Korrektur von sensorinternen Parametern umfasst und die im Stand der Technik vom Hersteller des LIDAR-Sensors durchgeführt wird, ist auch eine extrinsische Kalibrierung des LIDAR-Sensors erforderlich. Bei Letzterer werden die exakte Einbauposition und die Einbaulage des Sensors im Kraftfahrzeug bestimmt. Die Position und Lage des LIDAR-Sensors können sich während des Betriebs des Kraftfahrzeuges verändern. Eine derartige Veränderung wird als Dejustage bezeichnet und beschreibt eine Abweichung von der ursprünglichen bzw. vorgegebenen Einbauposition und Einbaulage des LIDAR-Sensors. For the efficient use of the data of a LIDAR sensor, the correct calibration of the LIDAR sensor is absolutely necessary. In addition to an intrinsic calibration, which includes the correction of internal sensor parameters and which is performed in the prior art by the manufacturer of the LIDAR sensor, an extrinsic calibration of the LIDAR sensor is required. In the case of the latter, the exact installation position and the installation position of the sensor in the motor vehicle are determined. The position and location of the LIDAR sensor may change during operation of the motor vehicle. Such a change is called a misalignment and describes a deviation from the original or predetermined installation position and installation position of the LIDAR sensor.

Im Stand der Technik ist bekannt, den LIDAR-Sensor mittels einer Stereokamera und eines bekannten Objektes zu kalibrieren. Ferner ist im Stand der Technik die paarweise Kalibrierung von LIDAR-Sensoren bekannt. In the prior art it is known to calibrate the LIDAR sensor by means of a stereo camera and a known object. Furthermore, in the prior art, the pairwise calibration of LIDAR sensors is known.

Die Verfahren des Standes der Technik erfordern eine bekannte Umgebung bzw. ein bekanntes Prüfobjekt. Ferner können sie nicht eine Dejustage eines LIDAR-Sensors erkennen, falls lediglich ein einziger LIDAR-Sensor vorhanden ist. Bei der Benutzung eines Referenzrahmens auf Basis einer Stereokamera zur Kalibrierung des LIDAR-Sensors ist nachteilig, dass der LIDAR-Sensor eine andere Sensorhardware als die Stereokamera verwendet. An diesem Verfahren ist nachteilig, dass ein zweiter Sensor und eine zweite Auswerteeinrichtung erforderlich ist. Ferner ist das zuvor erwähnte Prüfobjekt erforderlich. Die paarweise Kalibrierung von zwei LIDAR-Sensoren führt dazu, dass die LIDAR-Sensoren nur relativ zueinander aber nicht relativ zu einem Fahrzeugkoordinatensystem kalibriert werden können. The prior art methods require a known environment or object. Furthermore, they can not detect a misalignment of a LIDAR sensor, if only a single LIDAR sensor is present. When using a reference frame based on a stereo camera to calibrate the LIDAR sensor, it is disadvantageous that the LIDAR sensor uses sensor hardware other than the stereo camera. A disadvantage of this method is that a second sensor and a second evaluation device are required. Furthermore, the aforementioned test object is required. The pairwise calibration of two LIDAR sensors means that the LIDAR sensors can only be calibrated relative to one another but not relative to a vehicle coordinate system.

Die DE 10 2004 056 400 A beschreibt das Bestimmen einer Winkelfehljustage eines Abstandssensors unter Verwendung von zuvor bekannten Markierungen. The DE 10 2004 056 400 A describes determining angular misalignment of a proximity sensor using previously known markers.

Es ist eine Aufgabe der Erfindung, ein Verfahren zum Ermitteln der Dejustage eines Fahrerassistenzsensorseines Kraftfahrzeuges während des normalen Betriebes zu schaffen. It is an object of the invention to provide a method for determining the misalignment of a driver assistance sensor of a motor vehicle during normal operation.

Die Aufgabe der Erfindung wird durch ein Verfahren nach Anspruch 1 gelöst. Die abhängigen Ansprüche beanspruchen bevorzugte Ausgestaltungen. The object of the invention is achieved by a method according to claim 1. The dependent claims claim preferred embodiments.

Das Verfahren zum Ermitteln einer Dejustage eines Fahrerassistenzsensors eines Kraftfahrzeuges umfasst den Schritt des Aufnehmens einer ersten Punktewolke mit dem Fahrerassistenzsensors, wobei die Punktewolke zumindest ein stationäres Objekt in der Umgebung des Kraftfahrzeuges abbildet. Wenn sich das Kraftfahrzeug eine vorbestimmte Strecke weiterbewegt hat oder wenn ein vorbestimmter Zeitraum abgelaufen ist, wird eine zweite Punktewolke mit dem Fahrerassistenzsensor aufgenommen, wobei die zweite Punktewolke das zumindest eine stationäre Objekt in der Umgebung des Kraftfahrzeuges abbildet. Beide Punktewolken werden anhand der bisher bekannten Einbauposition und Einbauorientierung sowie der hinreichend genau bekannten Bewegung des Fahrzeugs zwischen den beiden Aufnahmen in ein gemeinsames Koordinatensystem transformiert. Die erste Punktewolke und die zweite Punktewolke werden so verschoben, dass das zumindest eine stationäre Objekt bei einem nicht dejustierten Fahrerassistenzsensor im gemeinsamen Koordinatensystem am gleichem Ort angeordnet ist. Anschließend werden die erste Punktewolke und die zweite Punktewolke um den jeweiligen Sensorursprung in die gleiche Richtung schrittweise gedreht, bis ein Abbruchkriterium erfüllt ist. Nach jeder schrittweisen Drehung der ersten Punktewolke und der zweiten Punktewolke wird ein Maß der Übereinstimmung der ersten Punktewolke und der zweiten Punktewolke ermittelt, wobei das Abbruchkriterium erfüllt ist, wenn das Maß der Übereinstimmung einen optimalen Wert erreicht hat. Auf Grundlage des Drehwinkels der ersten Punktewolke und der zweiten Punktewolke, bei dem das Maß der Übereinstimmung einen optimalen Wert erreicht hat, wird eine Verdrehung des Fahrerassistenzsensors um dessen z-Achse ermittelt. The method for determining a misalignment of a driver assistance sensor of a motor vehicle comprises the step of recording a first cloud of points with the driver assistance sensor, wherein the cloud of points images at least one stationary object in the surroundings of the motor vehicle. If the motor vehicle has moved on for a predetermined distance or if a predetermined period of time has elapsed, a second cloud of points is recorded by the driver assistance sensor, the second cloud of points imaging the at least one stationary object in the surroundings of the motor vehicle. Both point clouds are transformed on the basis of the previously known installation position and installation orientation and the well-known movement of the vehicle between the two shots in a common coordinate system. The first cloud of points and the second cloud of points are shifted so that at least a stationary object is arranged at a non-de-adjusted driver assistance sensor in the common coordinate system at the same location. Subsequently, the first cloud of points and the second cloud of points around the respective sensor origin in the same direction are rotated stepwise until a termination criterion is met. After each stepwise rotation of the first cloud of points and the second cloud of points, a measure of the correspondence of the first cloud of points and the second cloud of points is determined, wherein the abort criterion is met when the degree of correspondence has reached an optimal value. Based on the angle of rotation of the first cloud of points and the second cloud of points at which the degree of agreement has reached an optimum value, a rotation of the driver assistance sensor about its z-axis is determined.

Das erfindungsgemäße Verfahren bietet die Möglichkeit, einen horizontal ausgerichteten dreidimensionalen LIDAR-Sensor ohne einen weiteren Sensor und ohne Kalibrationsobjekt in der Umgebung eines sich im Einsatz bewegenden Kraftfahrzeuges hinsichtlich einer Dejustage zu überprüfen. Die Dejustage wird insbesondere um die z-Achse ermittelt. Die Erfinder haben angenommen, dass die Einbauposition des Fahrerassistenzsensors hinreichend genau aus den Konstruktionsdaten des Fahrzeuges bekannt ist. Das erfindungsgemäße Verfahren verwendet die Bewegungsdaten des Kraftfahrzeuges sowie zwei unbearbeitete Punktewolken, die mit dem Fahrerassistenzsensor aufgenommen wurden. Das erfindungsgemäße Verfahren hat den Vorteil, dass es ohne weiteres Wissen über ein Modell, beispielsweise über ein Kalibrationsobjekt, in der natürlichen Umgebung eines sich bewegenden Kraftfahrzeuges angewendet werden kann. Dadurch ist es möglich, eine Dejustage eines Fahrerassistenzsensors während des Betriebes des Kraftfahrzeuges zu erkennen. Der Schritt des Ermittelns der Übereinstimmung kann den Schritt des Minimierens einer Kostenfunktion aufweisen. Der Schritt des Minimierens der Kostenfunktion kann den Schritt des Minimierens des mittleren quadratischen Abstandes aufweisen. The method according to the invention makes it possible to check a horizontally aligned three-dimensional LIDAR sensor without a further sensor and without a calibration object in the surroundings of a motor vehicle moving in use with regard to a misalignment. The misalignment is determined in particular around the z-axis. The inventors have assumed that the installation position of the driver assistance sensor is known with sufficient accuracy from the design data of the vehicle. The method according to the invention uses the movement data of the motor vehicle as well as two unprocessed point clouds that were recorded with the driver assistance sensor. The method according to the invention has the advantage that it can be used without further knowledge about a model, for example via a calibration object, in the natural environment of a moving motor vehicle. This makes it possible to detect a misalignment of a driver assistance sensor during operation of the motor vehicle. The step of determining the match may include the step of minimizing a cost function. The step of minimizing the cost function may include the step of minimizing the mean square distance.

Falls der Fahrerassistenzsensor nicht dejustiert ist, stimmen die erste Punktewolke und die zweite Punktewolke in einem überlappenden Teilbereich überein. Falls der Fahrerassistenzsensor um die z-Achse dejustiert ist, weisen die beiden Punktewolken aufgrund der Bewegung des Fahrzeugs einen Offset zueinander auf. Nach dem Drehen der Punktewolke in die gleiche Richtung verschwindet dieser Offset, falls sowohl die erste Punktewolke als auch die zweite Punktewolke um den Winkel gedreht wurden, der dem Dejustagewinkel des Fahrerassistenzsensors entspricht. If the driver assistance sensor is not misadjusted, the first cloud of points and the second cloud of points coincide in an overlapping partial area. If the driver assistance sensor is misaligned about the z-axis, the two point clouds offset due to the movement of the vehicle. After turning the point cloud in the same direction, this offset disappears if both the first point cloud and the second point cloud have been rotated by the angle corresponding to the misadjustment angle of the driver assistance sensor.

Das Verfahren kann ferner den Schritt des Transformierens der ersten Punktewolke und der zweiten Punktewolke in das Weltkoordinatensystem vor dem schrittweisen Drehen der ersten und der zweiten Punktewolke umfassen. Dabei muss die erste Punktewolke und/oder die zweite Punktewolke translatorisch in Richtung der Fahrtrichtung gegenüber der jeweils anderen verschoben werden. Die vorbestimmte Strecke, nach der die zweite Punktewolke aufgenommen wird, beträgt etwa 3 m bis etwa 10 m, vorzugsweise etwa 4 bis etwa 6 m. Die erste und zweite Punktewolke werden um die z-Achse des Fahrerassistenzsensors gedreht, vorzugsweise um die z-Achse des Fahrerassistenzsensors im Weltkoordinatensystem. The method may further comprise the step of transforming the first cloud of points and the second cloud of points into the world coordinate system prior to stepping the first and second cloud of points. In this case, the first cloud of points and / or the second cloud of points must be translated translationally in the direction of travel relative to the other. The predetermined distance, after which the second cloud of points is recorded, is about 3 m to about 10 m, preferably about 4 to about 6 m. The first and second cloud of points are rotated about the z-axis of the driver assistance sensor, preferably around the z-axis of the driver assistance sensor in the world coordinate system.

Die erste Punktewolke kann beim Drehen ein anderes Drehzentrum als die zweite Punktewolke aufweisen. Vorzugsweise ist das Drehzentrum der Ort des Fahrerassistenzsensors im Weltkoordinatensystem beim Erfassen der ersten Punktewolke bzw. der zweiten Punktewolke. The first point cloud may have a different center of rotation than the second point cloud when rotated. Preferably, the center of rotation is the location of the driver assistance sensor in the world coordinate system when detecting the first cloud of points or the second cloud of points.

Das Verfahren kann auch den Schritt des Eliminierens von Reflexionen von dynamischen Objekten umfassen. The method may also include the step of eliminating reflections from dynamic objects.

Der Fahrerassistenzsensor kann ein LIDAR-Sensor, vorzugsweise ein zweidimensionaler LIDAR-Sensor sein, der dazu ausgebildet ist, die Umgebung des Kraftfahrzeuges zu erfassen. The driver assistance sensor may be a LIDAR sensor, preferably a two-dimensional LIDAR sensor, which is designed to detect the surroundings of the motor vehicle.

Der Fahrerassistenzsensor kann in Richtung der Fahrtrichtung des Kraftfahrzeuges gerichtet sein und zumindest ein Objekt vor dem Kraftfahrzeug erfassen. Der Fahrerassistenzsensor kann quer zur Fahrtrichtung gerichtet sein und zumindest ein Objekt neben dem Kraftfahrzeug erfassen. Alternativ hierzu oder zusätzlich kann der Fahrerassistenzsensor entgegengesetzt zur Fahrtrichtung des Kraftfahrzeuges gerichtet sein und ein Objekt hinter dem Kraftfahrzeug erfassen. Der Fahrerassistenzsensor kann so angeordnet sein, dass er Objekte vor und neben dem Kraftfahrzeug erfasst, oder so angeordnet sein, dass er Objekte hinter und neben dem Kraftfahrzeug erfasst. The driver assistance sensor may be directed in the direction of travel of the motor vehicle and detect at least one object in front of the motor vehicle. The driver assistance sensor may be directed transversely to the direction of travel and detect at least one object next to the motor vehicle. Alternatively or additionally, the driver assistance sensor may be directed opposite to the direction of travel of the motor vehicle and detect an object behind the motor vehicle. The driver assistance sensor may be arranged to detect objects in front of and in addition to the motor vehicle, or be arranged to detect objects behind and beside the motor vehicle.

Das zumindest eine Objekt kann ein beliebiges stationäres Objekt in der Umgebung einer Fahrbahn sein, das das Kraftfahrzeug während einer Fahrt mit einem Fahrer von einem Startpunkt zu einem Zielpunkt passiert, wobei das Objekt nicht für das Justieren des Fahrerassistenzsensors ausgestaltet ist. Das zumindest eine Objekt befindet sich vorzugsweise in der natürlichen Umgebung, die ein Kraftfahrzeug bei einer bestimmungsgemäßen Fahrt außerhalb einer Werkstatt oder eines Wartungsraumes passiert. Das stationäre Objekt kann beispielsweise ein Bauwerk, eine Fahrbahnbegrenzung, eine Schutzplanke, auch Leitplanke genannt, ein Leitpfosten und/oder eine Pflanze, beispielsweise ein Baum, sein. Das Verfahren kann beliebige andere stationäre Objekte in der Umgebung der Fahrbahn verwenden. The at least one object may be any stationary object in the vicinity of a roadway that passes the motor vehicle during a ride with a driver from a starting point to a destination point, wherein the object is not configured for adjusting the driver assistance sensor. The at least one object is preferably located in the natural environment that passes through a motor vehicle when driving outside of a workshop or maintenance room as intended. The stationary object can be, for example, a building, a roadway boundary, a protective barrier, also called guardrail, a guide post and / or a plant, for example a tree, be. The method may use any other stationary objects in the vicinity of the roadway.

Die Schritte des Erfassens der ersten Punktewolke und des Erfassens der zweiten Punktewolke sowie des Ermittelns der Verdrehung um die z-Achse können wiederholt durchgeführt werden. Dadurch ist es möglich, die Dejustage des Fahrerassistenzsensors kontinuierlich zu überwachen. Die sukzessive erfassten Verdrehungen um die z-Achse des Fahrerassistenzsensors können gefiltert oder gemittelt werden. Dadurch ist es möglich Messfehler zu reduzieren. Das Filtern kann beispielsweise mittels eines so genannten Median-Filters erfolgen. The steps of detecting the first cloud of points and detecting the second cloud of points and determining the rotation about the z-axis may be performed repeatedly. This makes it possible to continuously monitor the misalignment of the driver assistance sensor. The successively detected twists about the z-axis of the driver assistance sensor can be filtered or averaged. This makes it possible to reduce measurement errors. The filtering can be done for example by means of a so-called median filter.

Das Verfahren kann ferner den Schritt des Kompensierens der Verdrehung des Fahrerassistenzsensors um die z-Achse aufweisen. Hierbei wird die Einbaulage des Sensors während des Betriebs oder bei Stillstand des Fahrzeugs um den bestimmten Dejustage-Winkel korrigiert. Dies kann durch eine Verstelleinrichtung des Sensors oder in Software geschehen. The method may further comprise the step of compensating for the rotation of the driver assistance sensor about the z-axis. Here, the installation position of the sensor during operation or when the vehicle is stopped by the specific misalignment angle is corrected. This can be done by an adjustment of the sensor or in software.

Die Erfindung betrifft auch ein Computerprogrammprodukt, das, wenn es in einen Computer mit einem Prozessor und einem Speicher geladen wird, das zuvor beschriebene Verfahren ausführt. The invention also relates to a computer program product which, when loaded into a computer having a processor and a memory, performs the method described above.

Die Erfindung wird nun unter Bezugnahme auf die beigefügten Figuren mittels einer nicht beschränkenden und exemplarischen Ausführungsform erläutert, wobei The invention will now be elucidated with reference to the attached figures by means of a non-limiting and exemplary embodiment, wherein

1 ein sich bewegendes Kraftfahrzeug zeigt, das zwei Punktewolken aufnimmt; 1 shows a moving motor vehicle picking up two point clouds;

2 zwei Punktewolken im Weltkoordinatensystem zeigt, die im Uhrzeigersinn gedreht wurden; 2 shows two point clouds in the world coordinate system rotated clockwise;

3 zwei Punktewolken im Weltkoordinatensystem zeigt, die entgegen dem Uhrzeigersinn gedreht wurden; 3 shows two point clouds in the world coordinate system, which were turned counterclockwise;

4 zwei Punktewolken im Weltkoordinatensystem zeigt, die im Wesentlichen übereinander liegen. 4 shows two point clouds in the world coordinate system, which are essentially on top of each other.

1 zeigt ein Kraftfahrzeug 2, das sich in Pfeilrichtung fortbewegt. Zum Zeitpunkt t1 befindet sich das Kraftfahrzeug am Ort s1 und zum Zeitpunkt t2 befindet sich das Kraftfahrzeug am Ort s2. Der Ort s1 und der Ort s2 haben einen Abstand von etwa 1 m bis etwa 10 m, vorzugsweise von etwa 4 m bis etwa 6 m. Das Kraftfahrzeug umfasst einen LIDAR-Sensor 4, der einen Bereich seitlich des Kraftfahrzeuges erfasst, beispielsweise eine Schutzplanke. Am ersten Ort s1 weist der LIDAR-Sensor einen ersten Erfassungsbereich 6 und am zweiten Ort s2 einen zweiten Erfassungsbereich 8 auf. 1 shows a motor vehicle 2 that moves in the direction of the arrow. At time t1, the motor vehicle is at location s1 and at time t2 the motor vehicle is at location s2. The location s1 and the location s2 have a distance of about 1 m to about 10 m, preferably from about 4 m to about 6 m. The motor vehicle includes a LIDAR sensor 4 , which detects an area on the side of the motor vehicle, for example a protective barrier. At the first location s1, the LIDAR sensor has a first detection area 6 and at the second location s2 a second detection area 8th on.

Das Kraftfahrzeug 2 erfasst mittels des LIDAR-Sensors 4 eine erste Punktewolke von denen signifikante exemplarische Punkte 10 mittels Quadrate in den Figuren dargestellt werden. Am Ort s2 erfasst das Kraftfahrzeug 2 mittels des LIDAR-Sensors eine zweite Punktewolke, von der wesentliche exemplarische Punkte mittels Kreise 12 dargestellt sind. The car 2 detected by means of the LIDAR sensor 4 a first point cloud of which significant exemplary points 10 represented by squares in the figures. At the location s2 the motor vehicle is detected 2 by means of the LIDAR sensor a second point cloud, of the essential exemplary points by means of circles 12 are shown.

In 2 wurden die erste Punktewolke 10 und die zweite Punktewolke 12 in das Weltkoordinatensystem transformiert. Die erste Punktewolke 10 wurde um den Mittelpunkt des LIDAR-Sensors am Ort s1 im Weltkoordinatensystem im Uhrzeigersinn gedreht. Die zweite Punktewolke 12 wurde um den Mittelpunkt des LIDAR-Sensors 4 am Ort s2 im Uhrzeigersinn gedreht. Man erkennt, dass die Punktewolken nicht übereinstimmen. Daher ist die Kostenfunktion nicht optimal. In 2 became the first point cloud 10 and the second point cloud 12 transformed into the world coordinate system. The first point cloud 10 was rotated clockwise about the center of the LIDAR sensor at location s1 in the world coordinate system. The second point cloud 12 became the center of the LIDAR sensor 4 turned clockwise at location s2. It can be seen that the point clouds do not match. Therefore, the cost function is not optimal.

In der Darstellung von 3 wurden die erste Punktewolke 10 und die zweite Punktewolke 12 in das Weltkoordinatensystem transformiert. Die erste Punktewolke 10 wurde um das Zentrum des LIDAR-Sensors 4 entgegen dem Uhrzeigersinn am Ort s1 gedreht, und die zweite Punktewolke 12 wurde entgegen dem Uhrzeigersinn um den Mittelpunkt des LIDAR-Sensors im Weltkoordinatensystem am Ort s2 gedreht. Sobald die erste Punktewolke 10 und die zweite Punktewolke 12 um den Winkel rotiert wurden, der dem Dejustage-Winkel entspricht, befinden sich die erste Punktewolke 10 und die zweite Punktewolke 12 teilweise in Deckung, insbesondere in dem Bereich, in dem das zumindest eine statische Objekt sowohl am Ort s1 als auch am Ort s2 vom LIDAR-Sensor 4 erfasst wurde (4). Folglich ist die Kostenfunktion für diesen Winkel minimal. In the presentation of 3 became the first point cloud 10 and the second point cloud 12 transformed into the world coordinate system. The first point cloud 10 became the center of the LIDAR sensor 4 turned counterclockwise at location s1, and the second point cloud 12 was rotated counterclockwise around the center of the LIDAR sensor in the world coordinate system at location s2. Once the first cloud of points 10 and the second point cloud 12 The first point cloud is rotated by the angle corresponding to the misalignment angle 10 and the second point cloud 12 partially in coverage, in particular in the area in which the at least one static object both at location s1 and at location s2 of the LIDAR sensor 4 was recorded ( 4 ). Consequently, the cost function for this angle is minimal.

Die Erfindung hat den Vorteil, dass mittels einem in der natürlichen Umgebung befindlichen Objekt, beispielsweise einer Schutzplanke, eine Dejustage eines Fahrerassistenzsensors um die z-Achse ermittelt werden kann und eine derartige Dejustage kompensiert werden kann. Damit kann die Sicherheit eines Assistenzsystemes verbessert werden, ferner wird ein noch zuverlässiger Fahrerassistenzsensor für das vollständig autonome Fahren eines Kraftfahrzeuges geschaffen. The invention has the advantage that by means of an object located in the natural environment, for example a protective barrier, a maladjustment of a driver assistance sensor about the z-axis can be determined and such a misalignment can be compensated. Thus, the safety of an assistance system can be improved, also an even more reliable driver assistance sensor for fully autonomous driving of a motor vehicle is created.

Eine besondere Schwierigkeit bei einer von einem LIDAR-Sensor erzeugten Punktewolke ist, dass im Gegensatz zu Radardaten keine Dynamikinformation eines erfassten Ziels vorhanden ist. Mit dem erfinderischen Verfahren zum Erkennen einer Dejustage kann mittels verlässlicher Bewegungsdaten ohne Modellwissen und in einer natürlichen Szene eine nachträgliche Veränderung der Einbauposition des Assistenzsensors erkannt werden, wobei die Punktewolken, die von dem Assistenzsensoren erzeugt werden, nicht notwendigerweise weiterverarbeitet werden müssen. Eine Erkennung und eine Filterung dynamischer Objekte aus den Punktewolken vor Anwendung des Verfahrens wirken sich jedoch positiv auf die Qualität des Ergebnisses aus. Das erfindungsgemäße Verfahren ermöglicht, dass sich der Fahrerassistenzsensor selbst überprüft. Die Dejustage kann geschätzt und kompensiert werden, so dass eine Neukalibrierung und ein damit verbundener Werkstattaufenthalt in vielen Fällen unnötig werden. One particular difficulty with a cloud of points generated by a LIDAR sensor is that, unlike radar data, there is no dynamic information of a detected target. With the inventive method for detecting a misalignment can be detected by means of reliable movement data without model knowledge and in a natural scene, a subsequent change in the installation position of the assistant sensor, wherein the Point clouds generated by the assistant sensors do not necessarily have to be further processed. However, detection and filtering of dynamic objects from the point clouds prior to application of the method has a positive effect on the quality of the result. The method according to the invention allows the driver assistance sensor to check itself. The misalignment can be estimated and compensated, so that a recalibration and a related workshop stay in many cases unnecessary.

Das erfindungsgemäße Verfahren verwendet im Gegensatz zu Algorithmen des Standes der Technik, beispielsweise dem ICP-Algorithmus, keine Punktewolke als Referenz und versucht eine andere Punktewolke durch Rotation und Translation mit der Referenz-Punktewolke in möglichst gute Übereinstimmung zu bringen. Das erfindungsgemäße Verfahren dreht beide Punktewolken, bis eine Kostenfunktion minimal wird. Das erfindungsgemäße Verfahren schränkt den Suchraum des Algorithmus stark ein, was zu einer deutlichen Reduzierung des Berechnungsaufwandes führt. Das ist möglich, da während des Betriebs des Fahrzeuges lediglich eine Veränderung der Orientierung des Sensors als relevant betrachtet wird. Eine Änderung der Position wird als nicht relevant betrachtet, da sich die Position lediglich aufgrund einer Kollision verändern kann, die mit einer starken mechanischen Deformation des Fahrzeuges einhergeht, und die ohnehin einen Werkstattaufenthalt erfordert. In contrast to algorithms of the prior art, for example the ICP algorithm, the method according to the invention does not use a point cloud as a reference and tries to bring another cloud of points into the best possible agreement by means of rotation and translation with the reference point cloud. The method according to the invention turns both point clouds until a cost function becomes minimal. The method according to the invention severely restricts the search space of the algorithm, which leads to a significant reduction of the computational effort. This is possible because only a change in the orientation of the sensor is considered relevant during operation of the vehicle. A change in position is considered to be irrelevant because the position can only change due to a collision that is accompanied by a strong mechanical deformation of the vehicle, and anyway requires a workshop visit.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102004056400 A [0007] DE 102004056400 A [0007]

Claims (10)

Verfahren zum Ermitteln einer Dejustage eines Fahrerassistenzsensors (4) eines Kraftfahrzeuges (2) mit den folgenden Schritten: – Aufnehmen einer ersten Punktewolke (10) mit dem Fahrerassistenzsensor (4), wobei die erste Punktewolke (10) zumindest ein stationäres Objekt in der Umgebung des Kraftfahrzeuges (2) abbildet; – Wenn sich das Kraftfahrzeug (2) eine vorbestimmte Strecke (s1–s2) weiterbewegt hat oder wenn ein vorbestimmter Zeitraum abgelaufen ist, Aufnehmen einer zweiten Punktewolke (12) mit dem Fahrerassistenzsensor (2), wobei die zweite Punktewolke (12) das zumindest eine stationäre Objekt in der Umgebung des Kraftfahrzeuges (4) abbildet; – Transformation der ersten Punktewolke (10) und der zweiten Punktewolke (12) in ein gemeinsames Koordinatensystem; – Schrittweises Drehen der der ersten Punktewolke (10) und der zweiten Punktewolke (12) in die gleiche Richtung, bis ein Abbruchkriterium erfüllt ist; und – Ermitteln nach jeder schrittweisen Drehung der ersten Punktwolke (10) und der zweiten Punktewolke (12) ein Maß der Übereinstimmung der ersten Punktwolke (10) und der zweiten Punktewolke (12), wobei das Abbruchkriterium erfüllt ist, wenn das Maß der Übereinstimmung einen optimalen Wert erreicht hat; und – Ermitteln einer Verdrehung des Fahrerassistenzsensors (4) um dessen z-Achse auf Grundlage des Drehwinkels der ersten Punktewolke (10) und der zweiten Punktwolke (12), bei dem das Maß der Übereinstimmung einen optimalen Wert erreicht hat. Method for determining a misalignment of a driver assistance sensor ( 4 ) of a motor vehicle ( 2 ) with the following steps: - recording a first cloud of points ( 10 ) with the driver assistance sensor ( 4 ), where the first cloud of points ( 10 ) at least one stationary object in the vicinity of the motor vehicle ( 2 ) maps; - When the motor vehicle ( 2 ) has moved on a predetermined distance (s1-s2) or when a predetermined period of time has elapsed, picking up a second point cloud ( 12 ) with the driver assistance sensor ( 2 ), where the second cloud of points ( 12 ) the at least one stationary object in the environment of the motor vehicle ( 4 ) maps; - Transformation of the first cloud of points ( 10 ) and the second cloud of points ( 12 ) into a common coordinate system; - Stepwise rotation of the first point cloud ( 10 ) and the second cloud of points ( 12 ) in the same direction until an abort criterion is met; and - determining after each stepwise rotation of the first point cloud ( 10 ) and the second cloud of points ( 12 ) a measure of the agreement of the first point cloud ( 10 ) and the second cloud of points ( 12 ), wherein the abort criterion is met when the measure of correspondence has reached an optimal value; and - determining a rotation of the driver assistance sensor ( 4 ) about its z-axis based on the rotation angle of the first cloud of points ( 10 ) and the second point cloud ( 12 ), where the degree of agreement has reached an optimal value. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt des Ermittelns der Übereinstimmung den Schritt des Minimierens einer Kostenfunktion aufweist. The method of claim 1, characterized in that the step of determining the match comprises the step of minimizing a cost function. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Schritt des Minimierens der Kostenfunktion den Schritt des Minimierens des mittleren quadratischen Abstandes umfasst. A method according to claim 2, characterized in that the step of minimizing the cost function comprises the step of minimizing the mean square distance. Verfahren nach einem der Ansprüche 1 bis 3, gekennzeichnet durch den Schritt des Transformierens der ersten Punktewolke (10) und der zweiten Punktewolke (12) in das Weltkoordinatensystem vor dem schrittweisen Drehen der ersten und der zweiten Punktewolke (10, 12). Method according to one of claims 1 to 3, characterized by the step of transforming the first cloud of points ( 10 ) and the second cloud of points ( 12 ) into the world coordinate system before the stepwise rotation of the first and the second cloud of points ( 10 . 12 ). Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Schritt des Drehens für die erste Punktewolke (10) ein anderes Drehzentrum als für die zweite Punktewolke (12) verwendet. Method according to one of claims 1 to 4, characterized in that the step of turning for the first cloud of points ( 10 ) a different center of rotation than for the second cloud of points ( 12 ) used. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass der Fahrerassistenzsensor ein LIDAR-Sensor (4) ist. Method according to one of claims 1 to 5, characterized in that the driver assistance sensor (a LIDAR sensor 4 ). Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das zumindest eine Objekt ein beliebiges stationäres Objekt in der Umgebung einer Fahrbahn ist, das das Kraftfahrzeug (2) während einer Fahrt mit einem Fahrer von einem Startpunkt zu einem Zielpunkt passiert, wobei das Objekt nicht für das Justieren eines Fahrerassistenzsensor (4) ausgestaltet ist, wobei das stationäre Objekt vorzugsweise – ein Bauwerk, – eine Fahrbahnbegrenzung, – eine Schutzplanke, – ein Leitpfosten und/oder – eine Pflanze ist. Method according to one of claims 1 to 6, characterized in that the at least one object is any stationary object in the vicinity of a roadway, the motor vehicle ( 2 ) during a ride with a driver from a starting point to a destination point, wherein the object is not for the adjustment of a driver assistance sensor ( 4 ), wherein the stationary object is preferably - a building, - a road boundary, - a protective barrier, - a guide post and / or - a plant. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Schritte des Erfassens der ersten Punktewolke (10), des Erfassens der zweiten Punktewolke (12), der Transformation in ein gemeinsames Koordinatensystem und des Ermittelns der Verdrehung um die z-Achse wiederholt durchgeführt werden. Method according to one of claims 1 to 7, characterized in that the steps of detecting the first cloud of points ( 10 ), the detection of the second cloud of points ( 12 ), the transformation into a common coordinate system and the determination of the rotation about the z-axis are repeatedly performed. Verfahren nach Anspruch 8, gekennzeichnet durch den Schritt des Filterns und/oder Mittelns der erfassten Verdrehungen des Fahrzeugassistenzsensors (4) um die z-Achse. Method according to claim 8, characterized by the step of filtering and / or averaging the detected rotations of the vehicle assistance sensor ( 4 ) around the z-axis. Verfahren nach einem der Ansprüche 1 bis 9, gekennzeichnet durch den Schritt des Kompensierens der Verdrehung des Fahrerassistenzsensors um die z-Achse.  Method according to one of claims 1 to 9, characterized by the step of compensating for the rotation of the driver assistance sensor about the z-axis.
DE102015205087.4A 2015-03-20 2015-03-20 Method for determining the misalignment of a driver assistance sensor Pending DE102015205087A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015205087.4A DE102015205087A1 (en) 2015-03-20 2015-03-20 Method for determining the misalignment of a driver assistance sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015205087.4A DE102015205087A1 (en) 2015-03-20 2015-03-20 Method for determining the misalignment of a driver assistance sensor

Publications (1)

Publication Number Publication Date
DE102015205087A1 true DE102015205087A1 (en) 2016-09-22

Family

ID=56853309

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015205087.4A Pending DE102015205087A1 (en) 2015-03-20 2015-03-20 Method for determining the misalignment of a driver assistance sensor

Country Status (1)

Country Link
DE (1) DE102015205087A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017210112A1 (en) * 2017-06-16 2018-12-20 Robert Bosch Gmbh Method and system for performing a calibration of a sensor
DE102018201154A1 (en) * 2018-01-25 2019-07-25 HELLA GmbH & Co. KGaA Method for calibrating sensors and / or sensor arrangements
DE102019209081A1 (en) * 2019-06-24 2020-12-24 Zf Friedrichshafen Ag Correction method, correction device and vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004056400A1 (en) 2004-11-23 2006-05-24 Daimlerchrysler Ag Alignment method for recognizing maladjustment in a distance sensor fitted in a motor vehicle brings the vehicle along a driving line into a measuring position for a measuring device
DE102013102153A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided
DE102012023030A1 (en) * 2012-11-26 2014-05-28 Audi Ag Method for determining the movement of a motor vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004056400A1 (en) 2004-11-23 2006-05-24 Daimlerchrysler Ag Alignment method for recognizing maladjustment in a distance sensor fitted in a motor vehicle brings the vehicle along a driving line into a measuring position for a measuring device
DE102013102153A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided
DE102012023030A1 (en) * 2012-11-26 2014-05-28 Audi Ag Method for determining the movement of a motor vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017210112A1 (en) * 2017-06-16 2018-12-20 Robert Bosch Gmbh Method and system for performing a calibration of a sensor
US10698084B2 (en) 2017-06-16 2020-06-30 Robert Bosch Gmbh Method and system for carrying out a calibration of a sensor
DE102018201154A1 (en) * 2018-01-25 2019-07-25 HELLA GmbH & Co. KGaA Method for calibrating sensors and / or sensor arrangements
DE102019209081A1 (en) * 2019-06-24 2020-12-24 Zf Friedrichshafen Ag Correction method, correction device and vehicle

Similar Documents

Publication Publication Date Title
DE102017105305B4 (en) METHOD FOR AUTOMATIC DETERMINATION OF A SENSOR POSITION
EP3497476B1 (en) Motor vehicle and method for a 360° detection of the surroundings
EP2793045B1 (en) Method for testing an environment detection system of a vehicle
DE102016219455B4 (en) Method and active infrastructure for checking a detection of the surroundings of a motor vehicle
DE10229334B4 (en) Method and device for calibrating sensors in motor vehicles by means of a calibration object with triple mirror as a reference feature
DE102010051493B4 (en) Device for adjusting a vertical sensor orientation
DE102017206295B3 (en) Method, apparatus and computer program for calibrating a vehicle camera of a vehicle
EP3714286B1 (en) Method and device for ascertaining an installation angle between a roadway on which a vehicle travels and a detection direction of a measurement or radar sensor
DE112015004885B4 (en) IMPROVED ROAD DETECTION USING KINEMATIC DATA
DE102014116014A1 (en) Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle
EP3475921B1 (en) Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle
DE102018124979A1 (en) Driver assistance system for determining a distance between two vehicles with a camera
DE102015205087A1 (en) Method for determining the misalignment of a driver assistance sensor
DE102019214544B4 (en) Method and device for determining a target position of an environment sensor of a vehicle
DE102011075674A1 (en) Distance determination by means of a camera sensor
WO2006005696A1 (en) Method and device for compensating mounting tolerances of a proximity sensor
DE102014003152A1 (en) Method and device for determining at least one object parameter of a means of transport
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
EP3500824B1 (en) Method and device for recognising obstacles using landmarks
DE102019211459B4 (en) Method and device for checking a calibration of environmental sensors
EP3545330A1 (en) Method and device for determining an exact position of a vehicle based on radar signatures of the vehicle environment
EP1679529B1 (en) Object detection method
DE102014003221A1 (en) Method for scale correct scaling of a recording of a camera sensor
DE102022204776B3 (en) Method for locating a vehicle within a SAR image
DE102022102322A1 (en) METHOD OF CORRECTING DESIGN-RELATED IMAGING DEFECT OF A LIDAR SENSOR, COMPUTING DEVICE, LIDAR SENSOR SYSTEM, COMPUTER PROGRAM, AND COMPUTER READABLE (STORAGE) MEDIUM

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication