DE102019132151A1 - Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system - Google Patents

Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system Download PDF

Info

Publication number
DE102019132151A1
DE102019132151A1 DE102019132151.4A DE102019132151A DE102019132151A1 DE 102019132151 A1 DE102019132151 A1 DE 102019132151A1 DE 102019132151 A DE102019132151 A DE 102019132151A DE 102019132151 A1 DE102019132151 A1 DE 102019132151A1
Authority
DE
Germany
Prior art keywords
occupancy
sensor
vehicle
occupancy card
environment sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019132151.4A
Other languages
German (de)
Inventor
Dominik Kellner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102019132151.4A priority Critical patent/DE102019132151A1/en
Publication of DE102019132151A1 publication Critical patent/DE102019132151A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs, umfassend die Schritte: Empfangen von Sensordaten von dem Umfeldsensor und Bestimmen einer Belegungskarte anhand der Sensordaten, wobei die Belegungskarte einen ersten Bereich einer Umgebung des Fahrzeugs beschreibt, Empfangen von Referenz-Sensordaten von einem Referenz-Umfeldsensor des Fahrzeugs und Bestimmen einer Referenz-Belegungskarte anhand der Referenz-Sensordaten, wobei die Referenz-Belegungskarte einen zweiten Bereich der Umgebung beschreibt, welcher mit dem ersten Bereich zumindest bereichsweise übereinstimmt, Bestimmen von zumindest einem Merkmal in der Belegungskarte, welches mit zumindest einem Merkmal in der Referenz-Belegungskarte übereinstimmt, Bestimmen einer räumlichen Verschiebung zwischen dem zumindest einen Merkmal in der Belegungskarte und dem zumindest einen Merkmal in der Referenz-Belegungskarte, und Schätzen einer Abweichung eines Einbauwinkels des Umfeldsensors von einem Soll-Einbauwinkel anhand der Verschiebung.The invention relates to a method for calibrating an environment sensor of a vehicle, comprising the steps of: receiving sensor data from the environment sensor and determining an occupancy card based on the sensor data, the occupancy card describing a first area of an environment of the vehicle, receiving reference sensor data from a reference Surrounding sensor of the vehicle and determining a reference occupancy map based on the reference sensor data, the reference occupancy map describing a second area of the environment which corresponds at least in some areas to the first area, determining at least one feature in the occupancy map which is associated with at least one Feature in the reference occupancy map matches, determining a spatial displacement between the at least one feature in the occupancy map and the at least one feature in the reference occupancy map, and estimating a deviation of an installation angle of the environment sensor from one Target installation angle based on the shift.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs anhand von Referenz-Sensordaten eines Referenz-Umfeldsensors. Des Weiteren betrifft die vorliegende Erfindung eine Recheneinrichtung für ein Sensorsystem eines Fahrzeugs sowie ein derartiges Sensorsystem. Außerdem betrifft die vorliegende Erfindung ein Computerprogramm sowie ein computerlesbares (Speicher-)medium.The present invention relates to a method for calibrating an environment sensor of a vehicle on the basis of reference sensor data of a reference environment sensor. The present invention also relates to a computing device for a sensor system of a vehicle and to such a sensor system. The present invention also relates to a computer program and a computer-readable (storage) medium.

Aus dem Stand der Technik sind unterschiedliche Umfeldsensoren für Sensorsysteme von Fahrzeugen bekannt. Derartige Umfeldsensoren können beispielsweise als Ultraschallsensor, Radarsensor oder Kamera ausgebildet sein. Vorliegend gilt das Interesse insbesondere Umfeldsensoren, welche als Lidar-Sensor ausgebildet sind. Derartige Lidar-Sensoren (Lidar - light detection and ranging) sind essentielle Sensoren für das automatisierte Fahren und Fahrerassistenzsysteme, da diese Sensoren eine detaillierte Repräsentation der Umgebung um das Fahrzeug herum erzeugen. Um mit diesen Lidar-Sensoren die Umgebung des Fahrzeugs zuverlässig erfassen zu können, ist es erforderlich, dass diese präzise kalibriert sind.Different environment sensors for sensor systems of vehicles are known from the prior art. Such environment sensors can be designed, for example, as ultrasonic sensors, radar sensors or cameras. In the present case, the interest applies in particular to environmental sensors which are designed as lidar sensors. Such lidar sensors (Lidar - light detection and ranging) are essential sensors for automated driving and driver assistance systems, since these sensors generate a detailed representation of the environment around the vehicle. In order to be able to reliably detect the surroundings of the vehicle with these lidar sensors, it is necessary that they are precisely calibrated.

Hierbei ist insbesondere die Kenntnis des Einbauwinkels des Lidar-Sensors essentiell, da ansonsten Orientierungsfehler auftreten, welche insbesondere bei weit entfernten Objekten einen großen Einfluss haben. Die genaue Kenntnis des Einbauwinkels des Umfeldsensors wird für Fahrerassistenzsysteme und für das autonome Fahren benötigt. Werden Objekte von mehreren Umfeldsensoren erfasst, werden diese bei einem Kalibrierfehler deutlich breiter oder im Extremfall sogar als zwei getrennte Objekte erfasst. Zudem entstehen virtuelle Bewegungen, wenn sich ein Verkehrsteilnehmer dem Fahrzeug nähert, da der Winkelfehler bei weit entfernten Objekten einen deutlich größeren lateralen Fehler verursacht als bei Objekten in der unmittelbaren Nähe des Fahrzeugs. Wenn beispielsweise ein Orientierungsfehler von 0,5° vorhanden ist, kann dieser bei einem Objekt, welches 150 m entfernt ist, zu einem Positionsfehler von 1,3 m führen. Dies kann zur Folge haben, dass die Zuordnung von Objekten bzw. anderen Verkehrsteilnehmern zu Fahrspuren nicht mehr ausreichend möglich ist. Die Einbauposition des Sensors kann üblicherweise auf Grundlage von CAD-Daten genauer bestimmt werden und hat einen geringen Einfluss auf die Genauigkeit der Messergebnisse.Knowledge of the installation angle of the lidar sensor is essential here, since otherwise orientation errors will occur, which have a major influence, particularly with objects that are far away. Precise knowledge of the installation angle of the environment sensor is required for driver assistance systems and for autonomous driving. If objects are detected by several environment sensors, they are detected much wider or, in extreme cases, even as two separate objects in the event of a calibration error. In addition, virtual movements occur when a road user approaches the vehicle, since the angle error causes a significantly larger lateral error with objects that are far away than with objects in the immediate vicinity of the vehicle. For example, if there is an orientation error of 0.5 °, this can lead to a position error of 1.3 m for an object 150 m away. This can have the consequence that the assignment of objects or other road users to lanes is no longer possible. The installation position of the sensor can usually be determined more precisely on the basis of CAD data and has little influence on the accuracy of the measurement results.

Ein grundlegendes Ziel bei Fahrerassistenzsystemen bzw. Sensorsystemen von Fahrzeugen ist es daher, den Einbauwinkel von Umfeldsensoren so präzise wie möglich zu bestimmen, damit die folgenden Algorithmen bzw. die Signalauswertung so genau wie möglich durchgeführt werden kann. Die Kalibrierung des Umfeldsensors ist zum einen nach dem Einbau des Sensors in dem Fahrzeug bzw. nach der Fertigung des Fahrzeugs durchzuführen. Aufgrund von thermischen Einflüssen, Vibrationen und dergleichen ist es ebenso möglich, dass sich der Einbauwinkel des Umfeldsensors während des Betriebs des Fahrzeugs verändert und somit eine erneute Kalibrierung notwendig ist. Umfeldsensoren und Lidar-Sensoren werden meist mit so genannten Kalibrier-Targets kalibriert. Dies bedeutet, dass mehrere Kalibrier-Targets bzw. Objekte aufgestellt werden, von denen die Position bekannt ist. Dabei ist es häufig erforderlich, dass der Umfeldsensor anschließend händisch verstellt werden muss. Dieses Verfahren ist sehr aufwändig und benötigt immer eine fachkundige Person. Dabei wird das Fahrzeug meist in eine so genannte Kalibriergasse gefahren. Ein derartiges Kalibrierverfahren ist bei einer Erprobung oder im Betrieb des Fahrzeugs nicht möglich.A fundamental goal in driver assistance systems or sensor systems of vehicles is therefore to determine the installation angle of environment sensors as precisely as possible so that the following algorithms or the signal evaluation can be carried out as precisely as possible. The calibration of the environment sensor is to be carried out on the one hand after the sensor has been installed in the vehicle or after the vehicle has been manufactured. Due to thermal influences, vibrations and the like, it is also possible that the installation angle of the environment sensor changes during the operation of the vehicle and therefore a new calibration is necessary. Environment sensors and lidar sensors are mostly calibrated with so-called calibration targets. This means that several calibration targets or objects are set up, of which the position is known. It is often necessary that the environment sensor then has to be adjusted manually. This procedure is very complex and always requires a competent person. The vehicle is usually driven into a so-called calibration lane. Such a calibration method is not possible during testing or during operation of the vehicle.

Aus dem Stand der Technik sind zudem Kalibrierverfahren bekannt, welche online durchgeführt werden können. Dies bedeutet, dass diese während der Fahrt durchgeführt werden, ohne dass eine bestimmte Strecke zu absolvieren ist. Zudem können diese Verfahren unüberwacht, d. h. ohne geschultes Personal durchgeführt werden. Beispielsweise sind aus dem Stand der Technik Kalibrierverfahren bekannt, welche so genannte Punktwolken verwenden. Hierzu beschreibt die US 9 297 899 B2 ein Verfahren zum Bestimmen von extrinsischen Kalibrierparametern für einen Sensor. Hierbei werden Daten empfangen, welche die Position des Fahrzeugs beschreiben. Außerdem werden Sensordaten von dem Sensor empfangen. Anhand der Sensordaten werden dann entsprechende Punktwolken bestimmt, wobei jedem Punkt in der Punktwolke eine Kovarianz auf Grundlage der Historie der Bewegung des Fahrzeugs zugeordnet wird. Auf Grundlage dieser Punktwolke wird dann die Kalibrierung der extrinsischen Parameter durchgeführt.Calibration methods that can be carried out online are also known from the prior art. This means that these are carried out while driving, without having to cover a specific route. In addition, these procedures can be carried out unsupervised, ie without trained personnel. For example, calibration methods are known from the prior art which use so-called point clouds. To this end, the US 9 297 899 B2 a method for determining extrinsic calibration parameters for a sensor. Here, data is received that describe the position of the vehicle. In addition, sensor data is received from the sensor. Corresponding point clouds are then determined on the basis of the sensor data, with each point in the point cloud being assigned a covariance based on the history of the movement of the vehicle. The extrinsic parameters are then calibrated on the basis of this point cloud.

Darüber hinaus sind aus dem Stand der Technik Kalibrierverfahren bekannt, bei denen eine automatische Kalibrierung von Sensoren auf Grundlage von erfassten Objekten durchgeführt wird. Hierzu beschreibt die US 6 202 027 B1 ein Verfahren, bei welchem ein Bewegungspfad des Fahrzeugs vorhergesagt wird. Zudem werden mit dem Umfeldsensor Objekte in der Umgebung des Fahrzeugs erfasst und die Kalibrierung wird auf Grundlage der erfassten Objekte durchgeführt.In addition, calibration methods are known from the prior art in which sensors are automatically calibrated on the basis of detected objects. To this end, the US 6,202,027 B1 a method in which a movement path of the vehicle is predicted. In addition, objects in the vicinity of the vehicle are detected with the environment sensor and the calibration is carried out on the basis of the objects detected.

Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie die Kalibrierung von Umfeldsensoren, insbesondere Lidar-Sensoren, eines Fahrzeugs mit geringerem Aufwand und dennoch zuverlässig durchgeführt werden kann.The object of the present invention is to provide a solution for how the calibration of environment sensors, in particular lidar sensors, of a vehicle can be carried out with less effort and yet reliably.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Recheneinrichtung, durch ein Sensorsystem, durch ein Computerprogramm sowie durch ein computerlesbares (Speicher)medium mit den Merkmalen gemäß den unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind in den abhängigen Ansprüchen angegeben.According to the invention, this object is achieved by a method, by a computing device, by a sensor system, by a computer program and by a computer-readable (storage) medium with the features according to the independent claims. Advantageous developments of the present invention are specified in the dependent claims.

Ein erfindungsgemäßes Verfahren dient zum Kalibrieren eines Umfeldsensors eines Fahrzeugs. Das Verfahren umfasst das Empfangen von Sensordaten von dem Umfeldsensor und das Bestimmen einer Belegungskarte anhand der Sensordaten, wobei die Belegungskarte einen ersten Bereich einer Umgebung des Fahrzeugs beschreibt. Darüber hinaus umfasst das Verfahren das Empfangen von Referenz-Sensordaten von einem Referenz-Umfeldsensor des Fahrzeugs und das Bestimmen einer Referenz-Belegungskarte anhand der Referenz-Sensordaten, wobei die Referenz-Belegungskarte einen zweiten Bereich der Umgebung beschreibt, welcher mit dem ersten Bereich zumindest bereichsweise übereinstimmt. Außerdem umfasst das Verfahren das Bestimmen von zumindest einem Merkmal in der Belegungskarte, welches mit zumindest einem Merkmal in der Referenz-Belegungskarte übereinstimmt. Zudem umfasst das Verfahren das Bestimmen einer räumlichen Verschiebung zwischen dem zumindest einen Merkmal in der Belegungskarte zu dem zumindest einen Merkmal in der Referenz-Belegungskarte. Schließlich umfasst das Verfahren das Schätzen einer Abweichung eines Einbauwinkels des Umfeldsensors von einem Soll-Einbauwinkel anhand der Verschiebung.A method according to the invention is used to calibrate an environment sensor of a vehicle. The method includes receiving sensor data from the environment sensor and determining an occupancy card on the basis of the sensor data, the occupancy card describing a first area of an area around the vehicle. In addition, the method includes receiving reference sensor data from a reference environment sensor of the vehicle and determining a reference occupancy map based on the reference sensor data, the reference occupancy map describing a second area of the environment, which at least partially coincides with the first area matches. In addition, the method comprises the determination of at least one feature in the occupancy card which corresponds to at least one feature in the reference occupancy card. In addition, the method includes determining a spatial shift between the at least one feature in the occupancy map and the at least one feature in the reference occupancy map. Finally, the method includes estimating a deviation of an installation angle of the environment sensor from a target installation angle on the basis of the displacement.

Mit Hilfe des Verfahrens soll ein Umfeldsensor, insbesondere ein Lidar-Sensor, für ein Fahrzeug kalibriert werden. Ein derartiger Umfeldsensor kann Teil eines Sensorsystems bzw. eines Fahrerassistenzsystems des Fahrzeugs sein. Das Verfahren kann mit einer entsprechenden Recheneinrichtung durchgeführt werden, welche beispielsweise durch ein Steuergerät des Fahrzeugs bzw. des Sensorsystems gebildet werden kann. Im Betrieb des Fahrzeugs können mit dem Umfeldsensor die Sensordaten aufgenommen werden. Dabei beschreiben die Sensordaten den ersten Teil der Umgebung des Fahrzeugs. Diese Sensordaten können dann von dem Umfeldsensor an die Recheneinrichtung übertragen werden.With the aid of the method, an environment sensor, in particular a lidar sensor, is to be calibrated for a vehicle. Such an environment sensor can be part of a sensor system or a driver assistance system of the vehicle. The method can be carried out with a corresponding computing device, which can be formed, for example, by a control unit of the vehicle or of the sensor system. When the vehicle is in operation, the sensor data can be recorded with the environment sensor. The sensor data describe the first part of the area around the vehicle. These sensor data can then be transmitted from the environment sensor to the computing device.

Darüber hinaus werden mit dem Referenz-Umfeldsensor die Referenz-Sensordaten bereitgestellt. Bei dem Referenz-Umfeldsensor kann es sich um einen Radarsensor, eine Kamera, eine Laserscanner oder um einen Lidar-Sensor handeln. Dabei beschreiben die Referenz-Sensordaten, die mit dem Referenz-Umfeldsensor bereitgesellt werden, den zweiten Bereich der Umgebung des Fahrzeugs. Dabei ist vorgesehen, dass der erste Bereich, den die ersten Sensordaten beschreiben, zumindest bereichsweise mit dem zweiten Bereich übereinstimmt. Ferner ist es bevorzugt vorgesehen, dass die Sensordaten und die Referenz-Sensordaten zeitgleich bzw. mit einem vorbestimmten zeitlichen Versatz zueinander aufgenommen werden. Dies bedeutet insbesondere, dass die Sensordaten und die Referenz-Sensordaten die jeweiligen Bereiche der Umgebung für denselben Zeitpunkt beschreiben. Es kann auch vorgesehen sein, dass die Sensordaten und die Referenz-Sensordaten die jeweiligen Bereiche der Umgebung zu zwei verschiedenen Zeitpunkten beschreiben, wobei die zeitliche Dauer zwischen diesen beiden Zeitpunkten einen vorbestimmten Grenzwert unterschreitet. Die Sensordaten und die Referenz-Sensordaten können also innerhalb eines vorbestimmten Zeitbereichs bzw. während eines Messzyklus bestimmt werden.In addition, the reference sensor data are provided with the reference environment sensor. The reference environment sensor can be a radar sensor, a camera, a laser scanner or a lidar sensor. The reference sensor data, which are provided with the reference environment sensor, describe the second area of the environment of the vehicle. It is provided that the first area, which the first sensor data describe, at least in areas corresponds to the second area. Furthermore, it is preferably provided that the sensor data and the reference sensor data are recorded at the same time or with a predetermined time offset from one another. This means in particular that the sensor data and the reference sensor data describe the respective areas of the environment for the same point in time. It can also be provided that the sensor data and the reference sensor data describe the respective areas of the environment at two different points in time, the duration between these two points in time falling below a predetermined limit value. The sensor data and the reference sensor data can therefore be determined within a predetermined time range or during a measurement cycle.

Eine weitere Möglichkeit besteht darin, die Eigenbewegung des Fahrzeugs fortlaufend zu bestimmten. Die Eigenbewegung des Fahrzeugs kann auf Grundlage von Odometrie bestimmt werden. Dies bedeutet beispielsweise, dass die Daten von Raddrehzahlsensoren, die Daten eines Lenkwinkelsensors und/oder die Daten einer initialen Messeinheit herangezogen werden. Alternativ oder zusätzlich kann die Eigenbewegung des Fahrzeugs anhand der Daten eines satellitengestützten Positionsbestimmungssystems bzw. anhand von GPS-Daten bestimmt werden. Wenn die Eigenbewegung bekannt ist, können die Detektionen in eine ortsfeste Belegungskarte und Referenz-Belegungskarte eingetragen werden. Es kann also eine ortsfeste Belegungskarte anhand der Sensordaten und eine ortsfeste Referenz-Belegungskarte anhand der Referenz-Sensordaten bestimmt werden. In diesem Fall hat die zeitliche Dauer keinen Einfluss.Another possibility is to continuously determine the vehicle's own movement. The vehicle's own movement can be determined on the basis of odometry. This means, for example, that the data from wheel speed sensors, the data from a steering angle sensor and / or the data from an initial measuring unit are used. Alternatively or additionally, the vehicle's own movement can be determined using the data from a satellite-supported position determination system or using GPS data. If the intrinsic movement is known, the detections can be entered in a fixed occupancy card and reference occupancy card. A stationary occupancy card can therefore be determined using the sensor data and a stationary reference occupancy card can be determined using the reference sensor data. In this case, the duration has no influence.

Sowohl die Sensordaten als auch die Referenz-Sensordaten werden an die Recheneinrichtung übertragen. Mittels der Recheneinrichtung kann dann auf Grundlage der Sensordaten die Belegungskarte bestimmt werden. Diese Belegungskarte kann auch als gitterbasierte Karte bzw. als grid map bezeichnet werden. Für die Fahrzeugumfelderfassung werden in den meisten Sensorsystemen bzw. Fahrerassistenzsystemen derartige Belegungskarten verwendet, um die große Anzahl von Sensordaten handhabbar zu machen. Diese Belegungskarten repräsentieren die Umgebung des Fahrzeugs, ähnlich wie ein Bild einer Kamera. Dabei kann die Belegungskarte einzelne Zellen bzw. Punkte aufweisen, welche jeweiligen Bereiche in der Umgebung des Fahrzeugs zugeordnet sind. Des Weiteren können die Zellen angeben, ob der der Zelle zugeordnete Bereich in der Umgebung von einem Objekt belegt ist oder nicht. Analog zur Bestimmung der Belegungskarte wird mit der Recheneinrichtung die Referenz-Belegungskarte auf Grundlage der Referenz-Sensordaten ermittelt. Dabei beschreibt die Belegungskarte den ersten Bereich der Umgebung und die Referenz-Belegungskarte beschreibt den zweiten Bereich der Umgebung, der mit dem ersten Bereich zumindest bereichsweise übereinstimmt. Es ist also ein Bereich in der Umgebung vorhanden, welcher sowohl durch die Belegungskarte als auch durch die Referenz-Belegungskarte abgebildet wird.Both the sensor data and the reference sensor data are transmitted to the computing device. The occupancy card can then be determined by means of the computing device on the basis of the sensor data. This occupancy map can also be referred to as a grid-based map or as a grid map. Occupancy cards of this type are used in most sensor systems or driver assistance systems for recording the vehicle surroundings in order to make the large number of sensor data manageable. These occupancy cards represent the surroundings of the vehicle, similar to an image from a camera. The occupancy map can have individual cells or points which are assigned to respective areas in the vicinity of the vehicle. Furthermore, the cells can indicate whether the area in the vicinity assigned to the cell is occupied by an object or not. Analogously to the determination of the occupancy card, the computing device opens the reference occupancy card Determined based on the reference sensor data. The occupancy map describes the first area of the environment and the reference occupancy map describes the second area of the environment, which at least partially corresponds to the first area. There is therefore an area in the vicinity that is mapped both by the occupancy card and by the reference occupancy card.

Des Weiteren können sowohl in der Belegungskarte als auch in der Referenz-Belegungskarte entsprechende Merkmale erkannt werden. Diese Merkmale können entsprechende Objekte in der Umgebung des Fahrzeugs beschreiben. Dabei ist es vorgesehen, dass zumindest ein Merkmal in der Belegungskarte ermittelt wird, welches auch in der Referenz-Belegungskarte vorhanden ist. Beispielsweise können in der Belegungskarte mehrere Merkmale erkannt werden. Ebenso können in der Referenz-Belegungskarte mehrere Merkmale erkannt werden. Ferner kann überprüft werden, ob die Merkmale, die in der Belegungskarte erkannt wurden, den Merkmalen in der Referenz-Belegungskarte zugeordnet werden können. Grundsätzlich ist es ausreichend, wenn zumindest ein Merkmal gefunden wird, welches sowohl in der Belegungskarte als auch in der Referenz-Belegungskarte vorhanden ist. Für dieses zumindest eine übereinstimmende Merkmal wird dann ein räumlicher Versatz bzw. eine räumliche Verschiebung bestimmt. Beispielsweise können die Belegungskarte und die Referenz-Belegungskarte bezüglich eines Koordinatensystems, beispielsweise eines Fahrzeug-Koordinatensystems, bestimmt werden.Furthermore, corresponding features can be recognized both in the occupancy card and in the reference occupancy card. These features can describe corresponding objects in the vicinity of the vehicle. It is provided that at least one feature is determined in the occupancy card, which is also present in the reference occupancy card. For example, several features can be recognized in the occupancy card. Several features can also be recognized in the reference occupancy card. It can also be checked whether the features that were recognized in the occupancy card can be assigned to the features in the reference occupancy card. In principle, it is sufficient if at least one feature is found that is present both in the occupancy card and in the reference occupancy card. A spatial offset or spatial shift is then determined for this at least one matching feature. For example, the occupancy map and the reference occupancy map can be determined with respect to a coordinate system, for example a vehicle coordinate system.

Dabei kann die Position des zumindest einen Merkmals in der Belegungskarte und die Position dieses zumindest einen Merkmals in der Referenz-Belegungskarte bestimmt werden. Auf Grundlage der jeweiligen Positionen kann dann die räumliche Verschiebung bzw. der Versatz zwischen den Merkmalen bestimmt werden. Die räumliche Verschiebung bzw. der Versatz kann beispielsweise bezüglich zweier Raumrichtungen bestimmt werden. Auf Grundlage dieser räumlichen Verschiebung kann dann ein Einbaufehler des Umfeldsensors bestimmt werden. Insbesondere kann eine Abweichung eines Einbauwinkels des Umfeldsensors von dem Soll-Einbauwinkel ermittelt werden. Hierbei ist insbesondere vorgesehen, dass der Einbauwinkel bezüglich einer Azimut-Richtung bzw. um die Fahrzeughochachse bestimmt wird.The position of the at least one feature in the occupancy card and the position of this at least one feature in the reference occupancy card can be determined. The spatial shift or offset between the features can then be determined on the basis of the respective positions. The spatial shift or the offset can be determined, for example, with respect to two spatial directions. An installation error in the environment sensor can then be determined on the basis of this spatial shift. In particular, a deviation of an installation angle of the environment sensor from the setpoint installation angle can be determined. In particular, it is provided here that the installation angle is determined with respect to an azimuth direction or about the vertical axis of the vehicle.

Vorliegend wird davon ausgegangen, dass der Referenz-Umfeldsensor präzise kalibriert ist. Insbesondere wird angenommen, dass der Referenz-Umfeldsensor bezüglich des Einbauwinkels präzise kalibriert ist. Vor der Durchführung des Verfahrens kann eine entsprechende Kalibrierung des Referenz-Umfeldsensors durchgeführt werden. Die Kalibrierung des Umfeldsensors wird dann auf Grundlage der Referenz-Sensordaten bzw. der Referenz-Belegungskarte durchgeführt. Das Kalibrierverfahren kann nach der Fertigung des Fahrzeugs bzw. nach dem Einbau des Umfeldsensors durchgeführt werden. Dabei ist es nicht erforderlich, dass zur Kalibrierung des Umfeldsensors entsprechende Kalibrier-Targets verwendet werden bzw. das Fahrzeug entlang einer Kalibriergasse manövriert wird.It is assumed here that the reference environment sensor is precisely calibrated. In particular, it is assumed that the reference environment sensor is precisely calibrated with regard to the installation angle. A corresponding calibration of the reference environment sensor can be carried out before the method is carried out. The calibration of the environment sensor is then carried out on the basis of the reference sensor data or the reference occupancy card. The calibration process can be carried out after the vehicle has been manufactured or after the environment sensor has been installed. It is not necessary here for appropriate calibration targets to be used to calibrate the environment sensor or for the vehicle to be maneuvered along a calibration lane.

Das Kalibrierverfahren kann also online bzw. während der Fahrt des Fahrzeugs durchgeführt werden. Darüber hinaus kann das Verfahren dazu verwendet werden, die Kalibrierung des Umfeldsensors zu überprüfen. Dies kann beispielsweise zu vorbestimmten Zeitpunkten oder zu Beginn einer Fahrt durchgeführt werden. Ferner kann das Verfahren dazu genutzt werden, eine Re-Kalibrierung durchzuführen. Außerdem kann das Verfahren unüberwacht bzw. ohne geschultes Personal durchgeführt werden. Ferner weist das Verfahren gegenüber bekannten Verfahren aus dem Stand der Technik, welche einen sehr hohen Rechenaufwand besitzen oder eine Eigenlokalisierung benötigen, einen Vorteil auf. Insgesamt kann das Kalibrierverfahren somit mit geringerem Aufwand, aber dennoch zuverlässig durchgeführt werden.The calibration process can therefore be carried out online or while the vehicle is in motion. In addition, the method can be used to check the calibration of the environment sensor. This can be carried out, for example, at predetermined times or at the beginning of a journey. Furthermore, the method can be used to carry out a recalibration. In addition, the process can be carried out unsupervised or without trained personnel. Furthermore, the method has an advantage over known methods from the prior art, which have a very high computational effort or require self-localization. Overall, the calibration method can thus be carried out with less effort, but nevertheless reliably.

Es kann auch vorgesehen sein, dass eine kombinierte Belegungskarte bestimmt wird. Diese kombinierte Belegungskarte kann anhand der Sensordaten und der Referenz-Sensordaten bestimmt werden. Diese kombinierte Belegungskarte kann für den Bereich in der Umgebung des Fahrzeugs ermittelt werden, welcher sowohl von den Sensordaten als auch von den Referenz-Sensordaten abgedeckt wird. Diese kombinierte Belegungskarte kann also eine Kombination oder Schnittmenge der Belegungskarte und der Referenz-Belegungskarte darstellen. In der kombinierten Belegungskarte können Merkmale vorhanden sein, die auf Grundlage der Sensordaten bestimmt wurden, und es können Merkmale vorhanden sein, welche auf Grundlage der Referenz-Sensordaten bestimmt wurden. Zwischen diesen Merkmalen kann dann die räumliche Verschiebung ermittelt werden und hieraus die Abweichung des Einbauwinkels abgeleitet werden.It can also be provided that a combined occupancy card is determined. This combined occupancy card can be determined on the basis of the sensor data and the reference sensor data. This combined occupancy map can be determined for the area in the vicinity of the vehicle which is covered by both the sensor data and the reference sensor data. This combined occupancy card can thus represent a combination or intersection of the occupancy card and the reference occupancy card. Features that have been determined on the basis of the sensor data and features that have been determined on the basis of the reference sensor data can be present in the combined occupancy card. The spatial shift between these features can then be determined and the deviation in the installation angle can be derived from this.

Bevorzugt werden die Belegungskarte und die Referenz-Belegungskarte für eine Mehrzahl von aufeinanderfolgenden Messzyklen bestimmt, für jeden Messzyklus wird ein Abweichungswert bestimmt, welcher die Abweichung des Einbauwinkels beschreibt, und die Abweichung des Einbauwinkels wird anhand der Mehrzahl von Abweichungswerten geschätzt. Mit dem Umfeldsensor und dem Referenz-Umfeldsensor können beispielsweise mehrere zeitlich aufeinanderfolgende Messzyklen durchgeführt werden. In jedem Messzyklus können dann die Sensordaten und die Referenz-Sensordaten bestimmt werden. Ferner können für die jeweiligen Messzyklen die Belegungskarte und die Referenz-Belegungskarte ermittelt werden. Für zumindest einige der Messzyklen kann dann auf Grundlage des zumindest einen übereinstimmenden Merkmals in der Belegungskarte und der Referenz-Belegungskarte der Abweichungswert bestimmt werden. Dieser Abweichungswert beschreibt die Abweichung des Einbauwinkels von dem Soll-Einbauwinkel für den jeweiligen Messzyklus. Diese Abweichungswerte können beispielsweise für eine vorbestimmte Zeitdauer bzw. für eine vorbestimmte Anzahl von Zeitpunkten ermittelt werden. Beispielsweise können mehrere hundert Abweichungswerte bestimmt werden.The occupancy map and the reference occupancy map are preferably determined for a plurality of successive measurement cycles, a deviation value is determined for each measurement cycle, which describes the deviation in the installation angle, and the deviation in the installation angle is estimated based on the plurality of deviation values. With the environment sensor and the reference environment sensor, for example, several measurement cycles in succession can be carried out. The sensor data and the reference sensor data can then be used in each measuring cycle to be determined. Furthermore, the occupancy card and the reference occupancy card can be determined for the respective measuring cycles. The deviation value can then be determined for at least some of the measuring cycles on the basis of the at least one matching feature in the occupancy card and the reference occupancy card. This deviation value describes the deviation of the installation angle from the target installation angle for the respective measuring cycle. These deviation values can be determined, for example, for a predetermined period of time or for a predetermined number of times. For example, several hundred deviation values can be determined.

Basierend auf dieser großen Anzahl von Abweichungswerten bzw. der einzelnen Schätzungen kann dann mittels eines robusten Verfahrens die Abweichung des Einbauwinkels bzw. die wahrscheinlichste Orientierung abgeschätzt werden. Mit anderen Worten kann der Rotationsfehler über eine große Anzahl an Messungen bestimmt und mittels Statistik kann der wahrscheinlichste Orientierungsfehler bestimmt werden. Zur Schätzung der Abweichung kann beispielsweise der Median oder Mittelwert der Abweichungswerte berechnet werden. Es kann auch vorgesehen sein, dass ein robustes Schätzverfahren, wie beispielsweise RANSAC oder dergleichen verwendet wird. Ferner kann es vorgesehen sein, dass zusätzlich ein Gütewert bestimmt wird. Die jeweiligen Abweichungswerte bzw. Schätzwerte können in einem eindimensionalen Array bereitgestellt werden, welches die Abweichungswerte angibt, welche innerhalb einer Verteilung liegen, sowie entsprechende Ausreißer. Somit kann ein Kriterium bereitgestellt werden, welches die Exaktheit des Schätzverfahrens beschreibt.Based on this large number of deviation values or the individual estimates, the deviation of the installation angle or the most likely orientation can then be estimated by means of a robust method. In other words, the rotation error can be determined over a large number of measurements and the most likely orientation error can be determined using statistics. To estimate the deviation, for example, the median or mean value of the deviation values can be calculated. It can also be provided that a robust estimation method such as RANSAC or the like is used. It can also be provided that a quality value is also determined. The respective deviation values or estimated values can be provided in a one-dimensional array which indicates the deviation values which lie within a distribution, as well as corresponding outliers. Thus, a criterion can be provided which describes the accuracy of the estimation method.

In einer weiteren Ausführungsform werden zum Bestimmen der übereinstimmenden Merkmale in der Belegungskarte und in der Referenz-Belegungskarte Merkmale extrahiert und eine Zuordnung der extrahierten Merkmale wird durchgeführt. Es sollen also die übereinstimmenden Merkmale bzw. das zumindest ein Merkmal in der Belegungskarte, welches mit dem zumindest einen Merkmal in der Referenz-Belegungskarte übereinstimmt, ermittelt werden. Die Belegungskarte und die Referenz-Belegungskarte umfassen üblicherweise mehrere Gitter bzw. Zellen, welche eine vorbestimmte Länge und Breite aufweisen. Beispielsweise können die Belegungskarte und/oder die Referenz-Belegungskarte pro Zeile und Spalte mehrere hundert Einzelzellen aufweisen. Diese Zellen können beispielsweise einem Bereich in der Umgebung des Fahrzeugs mit einer Länge von 0,1 m zugeordnet sein. Auf Grundlage der Messungen mit dem Umfeldsensor bzw. dem Referenz-Umfeldsensor kann dann für jede Zelle bestimmt werden, ob diese durch ein Objekt in der Umgebung belegt ist. Die Belegungskarte und die Referenz-Belegungskarte ähneln einem Bild, welches mit einer Kamera bereitgestellt wird. Daher ist es vorliegend vorgesehen, dass Algorithmen, die in der Bildverarbeitung genutzt werden, auf die Belegungskarte und die Referenz-Belegungskarte übertragen werden. Um die jeweiligen Merkmale in der Belegungskarte und der Referenz-Belegungskarte erkennen zu können, können gängige Verfahren, wie beispielsweise der ORB-Algorithmus (ORB - Oriented FAST and Rotated BRIEF), genutzt werden. Hierbei ist insbesondere vorgesehen, dass punktförmige Merkmale bestimmt werden. Bei den Merkmalen handelt es sich um typische Signaturen bzw. Strukturen in den Belegungskarten. Beispielsweise können dies Ecken, Kanten von Fahrzeugen, Pfosten, Enden von Leitplanken, Pflanzen oder dergleichen sein.In a further embodiment, in order to determine the matching features in the occupancy card and in the reference occupancy card, features are extracted and an assignment of the extracted features is carried out. The matching features or the at least one feature in the occupancy card which matches the at least one feature in the reference occupancy card should therefore be determined. The occupancy map and the reference occupancy map usually comprise a plurality of grids or cells which have a predetermined length and width. For example, the occupancy card and / or the reference occupancy card can have several hundred individual cells per row and column. These cells can, for example, be assigned to an area in the vicinity of the vehicle with a length of 0.1 m. On the basis of the measurements with the environment sensor or the reference environment sensor, it can then be determined for each cell whether it is occupied by an object in the environment. The occupancy card and the reference occupancy card are similar to an image that is provided with a camera. It is therefore provided in the present case that algorithms that are used in image processing are transferred to the occupancy card and the reference occupancy card. In order to be able to recognize the respective features in the occupancy card and the reference occupancy card, common methods such as the ORB algorithm (ORB - Oriented FAST and Rotated BRIEF) can be used. In particular, it is provided here that point-like features are determined. The features are typical signatures or structures in the occupancy cards. For example, these can be corners, edges of vehicles, posts, ends of crash barriers, plants or the like.

Darüber hinaus werden die Merkmale, die in der Belegungskarte extrahiert wurden, den Merkmalen, die in der Referenz-Belegungskarte extrahiert wurden, zugeordnet. Diese markanten Merkmale, welche mittels gängiger Verfahren der Bildverarbeitung extrahiert wurden, können also zwischen den beiden Belegungskarten assoziiert werden. Auch hierzu können entsprechende Verfahren genutzt werden, welche aus der Bildverarbeitung bekannt sind. Somit kann das zumindest eine übereinstimmende Merkmal auf zuverlässige Weise bestimmt werden.In addition, the features that were extracted in the occupancy map are assigned to the features that were extracted in the reference occupancy map. These distinctive features, which were extracted using common image processing methods, can therefore be associated between the two occupancy cards. Corresponding methods which are known from image processing can also be used for this purpose. The at least one matching feature can thus be determined in a reliable manner.

Weiterhin ist vorteilhaft, wenn bei der Zuordnung der extrahierten Merkmale überprüft wird, ob die Merkmale in einem vorbestimmten Abstandsbereich und/oder einem vorbestimmten Winkelbereich liegen. Es kann also beispielsweise überprüft werden, ob in der Belegungskarte der Abstand zwischen dem Umfeldsensor und dem zumindest einen extrahierten Merkmal im Wesentlichen mit dem Abstand zwischen dem Referenz-Umfeldsensor und dem extrahierten Merkmal in der Referenz-Belegungskarte übereinstimmt. Es kann auch vorgesehen sein, dass überprüft wird, ob der Unterschied zwischen diesen beiden Abständen in dem vorbestimmten Abstandsbereich liegt. Dieser Abstandsbereich kann beispielsweise bezogen auf die Umgebung 1 m betragen. Alternativ oder zusätzlich kann es vorgesehen sein, dass bezüglich der Azimut-Richtung der Winkelbereich vorgegeben wird. Hierbei wird der Winkel zwischen dem Umfeldsensor und dem zumindest einen Merkmal in der Belegungskarte mit dem Winkel zwischen dem Umfeldsensor und dem erkannten Merkmal in der Referenz-Belegungskarte verglichen.It is also advantageous if, when assigning the extracted features, a check is carried out to determine whether the features lie in a predetermined distance range and / or a predetermined angular range. It can therefore be checked, for example, whether the distance between the environment sensor and the at least one extracted feature in the occupancy map essentially corresponds to the distance between the reference environment sensor and the extracted feature in the reference occupancy map. It can also be provided that it is checked whether the difference between these two distances lies in the predetermined distance range. This distance range can be, for example, 1 m in relation to the surroundings. As an alternative or in addition, it can be provided that the angular range is specified with respect to the azimuth direction. Here, the angle between the environment sensor and the at least one feature in the occupancy card is compared with the angle between the environment sensor and the recognized feature in the reference occupancy map.

Dieser Winkelbereich kann bezogen auf die Umgebung zum Beispiel ± 5°, insbesondere ± 2°, betragen. Der Winkelbereich kann in Abhängigkeit von der Ausgestaltung des Umfeldsensors und einem typischen Wert für die Dekalibrierung bestimmt werden. Falls die erkannten bzw. extrahierten Merkmale innerhalb des Abstandsbereichs und/oder des Winkelbereichs liegen, kann die Zuordnung dieser Merkmale in den Belegungskarten zueinander durchgeführt werden. Damit kann die Zuordnung auf zuverlässige Weise durchgeführt werden.This angular range can be, for example, ± 5 °, in particular ± 2 °, in relation to the surroundings. The angular range can be determined as a function of the configuration of the environment sensor and a typical value for the decalibration. If the recognized or extracted features lie within the distance range and / or the angle range, these can be assigned Features in the occupancy cards are carried out to one another. The assignment can thus be carried out in a reliable manner.

In einer weiteren Ausführungsform wird zum Bestimmen der übereinstimmenden Merkmale aus der Belegungskarte und der Referenz-Belegungskarte jeweils ein Kartenbereich ausgewählt, wobei die Auswahl der Kartenbereiche anhand von jeweiligen Erfassungsbereichen des Umfeldsensors und des Referenz-Umfeldsensors durchgeführt wird. Sowohl die Belegungskarte als auch die Referenz-Belegungskarte können jeweils einen verhältnismäßig großen Bereich in der Umgebung des Fahrzeugs abdecken. Für die Kalibrierung des Umfeldsensors kann es daher vorgesehen sein, dass der zu betrachtende Bereich eingeschränkt wird bzw. sowohl aus der Belegungskarte als auch aus der Referenz-Belegungskarte jeweils Kartenbereiche ausgewählt werden. Dabei können die Kartenbereiche aus der Belegungskarte und der Referenz-Belegungskarte so ausgewählt werden, dass diese denselben Bereich in der Umgebung des Fahrzeugs beschreiben. Zudem können die Erfassungsbereiche des Umfeldsensors und des Referenz-Umfeldsensors berücksichtigt werden. Dabei beschreiben die jeweiligen Erfassungsbereiche diejenigen Bereiche in der Umgebung des Fahrzeugs, in welchen mit dem Umfeldsensor bzw. dem Referenz-Umfeldsensor Objekte erfasst werden können. Durch die Auswahl der jeweiligen Kartenbereiche der Belegungskarte und der Referenz-Belegungskarte kann der Rechenaufwand deutlich reduziert werden.In a further embodiment, a map area is selected to determine the matching features from the occupancy card and the reference occupancy card, the selection of the map areas being carried out on the basis of the respective detection areas of the environment sensor and the reference environment sensor. Both the occupancy card and the reference occupancy card can each cover a relatively large area in the vicinity of the vehicle. For the calibration of the environment sensor, it can therefore be provided that the area to be viewed is restricted or that map areas are selected from both the occupancy map and the reference occupancy map. The map areas can be selected from the occupancy map and the reference occupancy map in such a way that they describe the same area in the vicinity of the vehicle. In addition, the detection areas of the environment sensor and the reference environment sensor can be taken into account. The respective detection areas describe those areas in the surroundings of the vehicle in which objects can be detected with the environment sensor or the reference environment sensor. The computational effort can be significantly reduced through the selection of the respective map areas of the occupancy card and the reference occupancy card.

Darüber hinaus kann es ferner vorgesehen sein, dass die jeweiligen Kartenbereiche in Abhängigkeit von einer Geschwindigkeit des Fahrzeugs angepasst werden. Beispielsweise können die Kartenbereiche mit zunehmender Geschwindigkeit des Fahrzeugs vergrößert werden. Es kann auch vorgesehen sein, dass die Kartenbereiche in Abhängigkeit von der Umgebung des Fahrzeugs angepasst werden. Wenn das Fahrzeug in einem dicht besiedelten Gebiet bzw. in einem Stadtgebiet bewegt wird, können die jeweiligen Kartenbereiche entsprechend kleiner gewählt werden.In addition, provision can also be made for the respective map areas to be adapted as a function of a speed of the vehicle. For example, the map areas can be enlarged as the speed of the vehicle increases. It can also be provided that the map areas are adapted as a function of the surroundings of the vehicle. If the vehicle is moving in a densely populated area or in an urban area, the respective map areas can be selected to be correspondingly smaller.

In einer weiteren Ausgestaltung werden die Belegungskarte und die Referenz-Belegungskarte derart bestimmt, dass diese jeweils statische Elemente in der Umgebung des Fahrzeugs beschreiben. Hierzu können bspw. so genannte dynamische Belegungskarten bestimmt werden, welche dynamische bzw. sich bewegende Objekte in der Umgebung beschreiben. Diese dynamischen Belegungskarten können auf Grundlage der Rohdaten des Umfeldsensors bzw. des Referenz-Umfeldsensors bestimmt werden. Diese dynamischen Belegungskarten können dazu verwendet werden, die allgemeine Belegungskarte bzw. die allgemeine Referenz-Belegungskarte entsprechend zu maskieren. Somit können die statischen Objekte bzw. Elemente in der Umgebung ermittelt werden. Alternativ oder zusätzlich dazu kann es vorgesehen sein, dass eine statische Belegungskarte und eine statische Referenz-Belegungskarte bestimmt werden. Die bestimmte Belegungskarte und die bestimmte Referenz-Belegungskarte können also insbesondere nur statische Objekte in der Umgebung des Fahrzeugs beschreiben. Somit kann die Kalibrierung des Umfeldsensors auf Grundlage der statischen Elemente bzw. Objekte in der Umgebung durchgeführt werden. Auf diese Weise kann verhindert werden, dass die Kalibrierung auf Grundlage von sich bewegenden Objekten durchgeführt wird und somit nicht präzise durchgeführt werden kann.In a further embodiment, the occupancy card and the reference occupancy card are determined in such a way that they each describe static elements in the vicinity of the vehicle. For this purpose, so-called dynamic occupancy maps, for example, can be determined which describe dynamic or moving objects in the environment. These dynamic occupancy cards can be determined on the basis of the raw data from the environment sensor or the reference environment sensor. These dynamic occupancy cards can be used to mask the general occupancy card or the general reference occupancy card accordingly. In this way, the static objects or elements in the environment can be determined. As an alternative or in addition to this, it can be provided that a static occupancy card and a static reference occupancy card are determined. The specific occupancy map and the specific reference occupancy map can therefore in particular only describe static objects in the vicinity of the vehicle. Thus, the calibration of the environment sensor can be carried out on the basis of the static elements or objects in the environment. In this way, it can be prevented that the calibration is carried out on the basis of moving objects and thus cannot be carried out precisely.

In einer weiteren Ausführungsform werden in der Belegungskarte und in der Referenz-Belegungskarte jeweils linienförmige Merkmale erkannt und einander zugeordnet. Des Weiteren ist bevorzugt vorgesehen, dass ein Winkelunterschied zwischen den linienförmigen Merkmalen bestimmt wird und die Abweichung des Einbauwinkels zusätzlich anhand des Winkelunterschieds bestimmt wird. Hierbei ist bevorzugt vorgesehen, dass die linienförmigen Merkmale in zweidimensionalen Räumen bestimmt werden, welche auf Grundlage der Belegungskarte und der Referenz-Belegungskarte mittels einer Hough-Transformation bestimmt werden.In a further embodiment, linear features are recognized in the occupancy card and in the reference occupancy card and assigned to one another. Furthermore, it is preferably provided that an angle difference between the linear features is determined and the deviation of the installation angle is additionally determined on the basis of the angle difference. It is preferably provided here that the linear features are determined in two-dimensional spaces, which are determined on the basis of the occupancy map and the reference occupancy map by means of a Hough transformation.

Die Verwendung der Hough-Transformation bzw. die Betrachtung der Merkmale in dem Hough-Raum eignet sich insbesondere für linienförmige Elemente bzw. linienförmige Objekte in der Umgebung. Wenn in der Umgebung des Fahrzeugs viele linienförmige Objekte vorhanden sind, kann es schwierig sein, die zuvor beschriebenen punktförmigen Merkmale, welche beispielsweise mittels ORB ermittelt werden, zu extrahieren. Linienförmige Objekte in der Umgebung können beispielsweise Gebäude, Leitplanken oder dergleichen sein. Daher ist es vorliegend zusätzlich vorgesehen, dass eine Analyse in dem Hough-Raum durchgeführt wird. Dabei wird sowohl von der Belegungskarte als auch von der Referenz-Belegungskarte der Hough-Raum untersucht. Zu diesem Zweck können gängige Verfahren der Bildverarbeitung genutzt werden. Dieser zweidimensionale Raum bzw. Hough-Raum beschreibt die linienförmigen Elemente auf Grundlage ihres Winkels und dem Abstand zu dem Umfeldsensor bzw. dem Referenz-Umfeldsensor. Beispielsweise kann der Hough-Raum bezüglich des Umfeldsensors bestimmt werden, welcher kalibriert werden soll. Falls in dem zweidimensionalen Raum mehrere linienförmige Merkmale erkannt werden, kann es vorgesehen sein, dass einzelne von diesen linienförmigen Merkmalen ausgewählt werden. Zwischen den linienförmigen Merkmalen, die auf Grundlage der Belegungskarte bestimmt wurden, und den linienförmigen Merkmalen, die auf Grundlage der Referenz-Belegungskarte bestimmt wurden, kann dann der Winkelunterschied bezüglich der Azimut-Richtung auf zuverlässige Weise ermittelt werden.The use of the Hough transformation or the consideration of the features in the Hough space is particularly suitable for linear elements or linear objects in the environment. If there are many linear objects in the vicinity of the vehicle, it can be difficult to extract the previously described point-like features, which are determined, for example, by means of ORB. Linear objects in the vicinity can be buildings, guard rails or the like, for example. It is therefore also provided in the present case that an analysis is carried out in the Hough space. The Hough space is examined both from the occupancy card and from the reference occupancy card. Common image processing methods can be used for this purpose. This two-dimensional space or Hough space describes the linear elements on the basis of their angle and the distance to the environment sensor or the reference environment sensor. For example, the Hough space can be determined with respect to the environment sensor which is to be calibrated. If several line-shaped features are recognized in the two-dimensional space, provision can be made for individual ones of these line-shaped features to be selected. Between the linear features, which were determined on the basis of the occupancy card, and the linear features Features that have been determined on the basis of the reference occupancy map, the angle difference with respect to the azimuth direction can then be determined in a reliable manner.

Zudem kann es vorgesehen sein, dass eine Korrelationsfunktion, insbesondere eine Kreuz-Korrelation, genutzt wird, um den Versatz bzw. Winkelunterschied in den eindimensionalen Hough-Räumen zu ermitteln. Insgesamt kann somit auch bei linienförmigen Objekten in der Umgebung des Fahrzeugs eine zuverlässige Kalibrierung ermöglicht werden.In addition, it can be provided that a correlation function, in particular a cross-correlation, is used to determine the offset or angle difference in the one-dimensional Hough spaces. Overall, a reliable calibration can therefore also be made possible in the case of linear objects in the vicinity of the vehicle.

Eine erfindungsgemäße Recheneinrichtung für ein Sensorsystem eines Fahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens unter vorteilhaften Ausgestaltungen davon ausgelegt bzw. eingerichtet. Die Recheneinrichtung kann insbesondere durch ein Steuergerät eines Fahrzeugs gebildet sein. Der eindimensionale Hough-Raum kann nur noch dem Azimut-Winkel beschreiben. Dies kann dadurch erreicht werden, dass die Abstandsachse auf einen Wert reduziert wird. Hierzu kann zum Beispiel ein maximaler Wert über alle Abstände pro Azimut-Winkel ermittelt werden. Alternativ kann die Summe der n-größten Werte ermittelt werden, wobei beispielsweise n = 3 angenommen werden kann.A computing device according to the invention for a sensor system of a vehicle is designed or set up to carry out a method according to the invention with advantageous embodiments thereof. The computing device can in particular be formed by a control unit of a vehicle. The one-dimensional Hough space can only describe the azimuth angle. This can be achieved by reducing the distance axis to one value. For this purpose, for example, a maximum value can be determined over all distances per azimuth angle. Alternatively, the sum of the n-largest values can be determined, where n = 3 can be assumed, for example.

Ein erfindungsgemäßes Sensorsystem umfasst eine erfindungsgemäße Recheneinrichtung, einen Umfeldsensor sowie einen Referenz-Umfeldsensor. Der Umfeldsensor und der Referenz-Umfeldsensor können als Radarsensor oder als Kamera ausgebildet sein. Insbesondere ist es aber vorgesehen, dass der Umfeldsensor und/oder der Referenz-Umfeldsensor als Lidar-Sensor ausgebildet sind. Dabei kann der Lidar-Sensor im Bereich der Stoßfänger des Fahrzeugs angeordnet sein. Der Referenz-Umfeldsensor kann als Laserscanner oder als Lidar-Sensor ausgebildet sein. Beispielsweise kann der Referenz-Umfeldsensor in einem Bereich eines Dachs des Fahrzeugs angeordnet sein. Der Referenz-Umfeldsensor kann einen Erfassungsbereich von 360° bezogen auf die Azimut-Richtung aufweisen. Das Sensorsystem kann auch eine Mehrzahl von Umfeldsensoren aufweisen.A sensor system according to the invention comprises a computing device according to the invention, an environment sensor and a reference environment sensor. The environment sensor and the reference environment sensor can be designed as a radar sensor or as a camera. In particular, however, it is provided that the environment sensor and / or the reference environment sensor are designed as a lidar sensor. The lidar sensor can be arranged in the area of the bumper of the vehicle. The reference environment sensor can be designed as a laser scanner or as a lidar sensor. For example, the reference environment sensor can be arranged in an area of a roof of the vehicle. The reference environment sensor can have a detection range of 360 ° in relation to the azimuth direction. The sensor system can also have a plurality of environment sensors.

Das Sensorsystem kann Teil eines Fahrerassistenzsystems des Fahrzeugs sein. Mittels des Fahrerassistenzsystems kann das Fahrzeug automatisiert oder autonom manövriert werden. Ein erfindungsgemäßes Fahrzeug umfasst ein erfindungsgemäßes Sensorsystem. Das Fahrzeug ist insbesondere als Personenkraftwagen ausgebildet.The sensor system can be part of a driver assistance system of the vehicle. The vehicle can be maneuvered automatically or autonomously using the driver assistance system. A vehicle according to the invention comprises a sensor system according to the invention. The vehicle is designed in particular as a passenger car.

Ein weiterer Aspekt der Erfindung betrifft ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen. Des Weiteren betrifft die Erfindung ein computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung diese veranlassen, ein erfindungsgemäßes Verfahren und die vorteilhaften Ausgestaltungen davon auszuführen.A further aspect of the invention relates to a computer program comprising instructions which, when the program is executed by a computing device, cause the computer to execute a method according to the invention and the advantageous refinements thereof. The invention also relates to a computer-readable (storage) medium, comprising instructions which, when executed by a computing device, cause the computing device to execute a method according to the invention and the advantageous embodiments thereof.

Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Recheneinrichtung, für das erfindungsgemäße Sensorsystem, für das erfindungsgemäße Fahrerassistenzsystem, für das erfindungsgemäße Fahrzeug, für das erfindungsgemäße Computerprogramm sowie für das computerlesbare (Speicher)medium.The preferred embodiments presented with reference to the method according to the invention and their advantages apply accordingly to the computing device according to the invention, for the sensor system according to the invention, for the driver assistance system according to the invention, for the vehicle according to the invention, for the computer program according to the invention and for the computer-readable (memory) medium.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further features of the invention emerge from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description, as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures, can be used not only in the specified combination, but also in other combinations or on their own, without the frame to leave the invention.

Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei zeigen:

  • 1 eine schematische Darstellung eines Fahrzeugs, welches ein Sensorsystem mit einem Umfeldsensor und einem Referenz-Umfeldsensor aufweist, sowie eines Objekts, welches sich in einer Umgebung des Fahrzeugs befindet;
  • 2 ein schematisches Ablaufdiagramm eines Verfahrens zum Kalibrieren des Umfeldsensors unter Verwendung einer Belegungskarte sowie einer Referenz-Belegungskarte des Referenz-Umfeldsensors;
  • 3 eine schematische Darstellung der Belegungskarte sowie der Referenz-Belegungskarte, wobei die Belegungskarte und die Referenz-Belegungskarte jeweils Bereiche der Umgebung des Fahrzeugs beschreiben;
  • 4 ein übereinstimmender Kartenbereich, welcher auf Grundlage der Belegungskarte, der Referenz-Belegungskarte sowie von Erfassungsbereichen des Umfeldsensors und des Referenz-Umfeldsensors bestimmt wird;
  • 5 ein Merkmal in der Belegungskarte, welches einem Merkmal in der Referenz-Belegungskarte zugeordnet wird;
  • 6 einen Bereich in der Belegungskarte, welcher für die Zuordnung des Merkmals in der Belegungskarte zu dem Merkmal in der Referenz-Belegungskarte verwendet wird;
  • 7 eine kombinierte Belegungskarte, in welcher entsprechende Verschiebungen zwischen den Merkmalen der Belegungskarte und den Merkmalen der Referenz-Belegungskarte dargestellt sind; und
  • 8 ein schematisches Ablaufdiagramm eines Verfahrens zum Kalibrieren des Umfeldsensors gemäß einer weiteren Ausführungsform.
The invention will now be explained in more detail on the basis of preferred exemplary embodiments and with reference to the accompanying drawings. Show:
  • 1 a schematic representation of a vehicle which has a sensor system with an environment sensor and a reference environment sensor, as well as an object which is located in an environment of the vehicle;
  • 2 a schematic flow diagram of a method for calibrating the environment sensor using an occupancy card and a reference occupancy card of the reference environment sensor;
  • 3rd a schematic representation of the occupancy card and the reference occupancy card, the occupancy card and the reference occupancy card each describing areas of the surroundings of the vehicle;
  • 4th a matching map area, which is determined on the basis of the occupancy card, the reference occupancy map and detection areas of the environment sensor and the reference environment sensor;
  • 5 a feature in the occupancy card which is assigned to a feature in the reference occupancy card;
  • 6th an area in the occupancy card which is used for the assignment of the feature in the occupancy card to the feature in the reference occupancy card;
  • 7th a combined occupancy card in which corresponding shifts between the features of the occupancy card and the features of the reference occupancy card are shown; and
  • 8th a schematic flow diagram of a method for calibrating the environment sensor according to a further embodiment.

In den Figuren werden gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.Identical or functionally identical elements are provided with the same reference symbols in the figures.

1 zeigt in einer schematischen Darstellung ein Fahrzeug 1, welches vorliegend als Personenkraftwagen ausgebildet ist, in einer Draufsicht. Das Fahrzeug 1 umfasst ein Sensorsystem 2, welches Teil eines Fahrerassistenzsystems des Fahrzeugs 1 sein kann. Das Sensorsystem 2 umfasst einen Umfeldsensor 4, einen Referenz-Umfeldsensor 5 sowie eine Recheneinrichtung 3. Es kann auch vorgesehen sein, dass das Sensorsystem 2 mehrere Umfeldsensoren 4 aufweist. In dem vorliegenden vereinfachten Beispiel umfasst das Sensorsystem 2 nur einen Umfeldsensor 4, welcher als Lidar-Sensor ausgebildet ist. In dem gezeigten Beispiel ist der Umfeldsensor 4 in einem Frontbereich des Fahrzeugs 1 angeordnet. Mit dem Umfeldsensor 4 bzw. dem Lidar-Sensor können Objekte 7 in einer Umgebung 6 des Fahrzeugs 1 erfasst werden. In dem vorliegenden Beispiel ist schematisch ein Objekt 7 in der Umgebung 6 des Fahrzeugs 1 dargestellt. 1 shows a vehicle in a schematic representation 1 , which is designed here as a passenger car, in a plan view. The vehicle 1 includes a sensor system 2 , which is part of a driver assistance system of the vehicle 1 can be. The sensor system 2 includes an environment sensor 4th , a reference environment sensor 5 as well as a computing device 3rd . It can also be provided that the sensor system 2 several environmental sensors 4th having. In the present simplified example, the sensor system comprises 2 only one environment sensor 4th , which is designed as a lidar sensor. In the example shown is the environment sensor 4th in a front area of the vehicle 1 arranged. With the environment sensor 4th or the lidar sensor can objects 7th in an environment 6th of the vehicle 1 are recorded. In the present example, an object is schematic 7th in the neighborhood 6th of the vehicle 1 shown.

Mit dem Umfeldsensor 4 können Sensordaten bereitgestellt werden, welche das Objekt 7 in der Umgebung 6 beschreiben. Diese Sensordaten können von dem Umfeldsensor 4 an die Recheneinrichtung 3 übertragen werden. Der Referenz-Umfeldsensor 5 ist vorliegend ebenfalls als Lidar-Sensor bzw. als Laserscanner ausgebildet. Der Referenz-Umfeldsensor 5 ist auf einem Dach bzw. einem Bereich des Dachs des Fahrzeugs 1 montiert. Der Referenz-Umfeldsensor 5 umfasst einen Umfassungsbereich von 360° bezüglich einer Azimut-Richtung. Vorliegend wird davon ausgegangen, dass der Referenz-Umfeldsensor 5 präzise kalibriert ist.With the environment sensor 4th sensor data can be provided which the object 7th in the neighborhood 6th describe. This sensor data can from the environment sensor 4th to the computing device 3rd be transmitted. The reference environment sensor 5 is also designed here as a lidar sensor or as a laser scanner. The reference environment sensor 5 is on a roof or an area of the roof of the vehicle 1 assembled. The reference environment sensor 5 comprises a circumferential range of 360 ° with respect to an azimuth direction. It is assumed here that the reference environment sensor 5 is precisely calibrated.

Damit das Objekt 7 mit dem Umfeldsensor 4 bzw. dem Lidar-Sensor zuverlässig erfasst werden kann, ist es erforderlich, dass der Umfeldsensor 4 präzise kalibriert ist. Vorliegend ist insbesondere eine Kalibrierung des Umfeldsensors 4 bezüglich eines Einbauwinkels Φ von Interesse. Bevorzugt soll dieser Einbauwinkel Φ bezüglich einer Azimut-Richtung des Umfeldsensors 4 bzw. bezüglich einer Verdrehung um eine Fahrzeughochachse z betrachtet werden. Falls die Kalibrierung des Umfeldsensors 4 bezüglich des Einbauwinkels Φ nicht präzise ist, können Orientierungsfehler auftreten, welche sich insbesondere bei weit entfernten Objekten 5 auswirken. Wenn der Umfeldsensor 4 nicht ausreichend kalibriert ist, kann dies dazu führen, dass eine von dem Umfeldsensor 4 erfasste Objektposition von einer tatsächlichen Position des Objekts 5 abweicht. Dies kann zudem zur Folge haben, dass die Sensordaten, die mit dem Umfeldsensor 4 bereitgestellt werden, nicht mit den Referenz-Sensordaten, welche mit dem Referenz-Umfeldsensor 5 bereitgestellt werden, gemeinsam verarbeitet bzw. fusioniert werden können.So that the object 7th with the environment sensor 4th or the lidar sensor can be reliably detected, it is necessary that the environment sensor 4th is precisely calibrated. In the present case, in particular, the environment sensor is calibrated 4th with regard to an installation angle Φ of interest. This installation angle should be preferred Φ with respect to an azimuth direction of the environment sensor 4th or with respect to a rotation about a vehicle vertical axis z. If the calibration of the environment sensor 4th regarding the installation angle Φ is not precise, orientation errors can occur, which are particularly evident in the case of objects that are far away 5 impact. When the environment sensor 4th is not sufficiently calibrated, this can lead to one of the environment sensor 4th detected object position from an actual position of the object 5 deviates. This can also have the consequence that the sensor data with the environment sensor 4th are provided, not with the reference sensor data, which with the reference environment sensor 5 can be provided, processed or merged together.

2 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Kalibrieren des Umfeldsensors 4. In einem Schritt S1 werden mit dem Umfeldsensor 4 Sensordaten bereitgestellt. Darüber hinaus werden in einem Schritt S2 mit dem Referenz-Umfeldsensor 5 Referenz-Sensordaten bereitgestellt. Bei dem Schritt S1 sowie auch bei dem Schritt S2 können die Sensordaten bzw. die Referenz-Sensordaten in ein Koordinatensystem, insbesondere ein Koordinatensystem des Fahrzeugs 1, transformiert werden. Beispielsweise kann das Koordinatensystem bezüglich einer Fahrzeuglängsrichtung x und einer Fahrzeugquerrichtung y bestimmt werden. Der Ursprung des Koordinatensystems kann einem Mittelpunkt der Hinterachse des Fahrzeugs 1 zugeordnet sein. Alternativ dazu kann ein ortsfestes Koordinatensystem gewählt werden. Hierbei ist erforderlich, kann die Position des Umfeldsensors 4 bzw. die Sensorposition zum jeweiligen Messzeitpunkt in diesem Koordinatensystem gespeichert wird. 2 shows a schematic flow diagram of a method for calibrating the environment sensor 4th . In one step S1 are with the environment sensor 4th Sensor data provided. It will also be in one step S2 with the reference environment sensor 5 Reference sensor data provided. At the step S1 as well as at the step S2 the sensor data or the reference sensor data can be converted into a coordinate system, in particular a coordinate system of the vehicle 1 to be transformed. For example, the coordinate system can be determined with respect to a vehicle longitudinal direction x and a vehicle transverse direction y. The origin of the coordinate system can be a center point of the rear axle of the vehicle 1 be assigned. Alternatively, a fixed coordinate system can be selected. It is necessary here, the position of the environment sensor 4th or the sensor position is stored in this coordinate system at the respective measurement time.

Sowohl die Sensordaten als auch die Referenz-Sensordaten beschreiben jeweilige Bereiche 11, 12 der Umgebung 6 des Fahrzeugs 1. Anhand der Sensordaten wird dann eine Belegungskarte M1 bereitgestellt. Diese Belegungskarte M1 kann mehrere Zellen aufweisen, welche jeweiligen Bereichen in der Umgebung 6 des Fahrzeugs 1 zugeordnet sind. Darüber hinaus kann auf Grundlage der Messungen mit dem Umfeldsensor 4 bestimmt werden, ob die einzelnen Zellen der Belegungskarte M1 durch ein Objekt 7 in der Umgebung 6 des Fahrzeugs 1 belegt sind oder ob diese frei von Objekten 7 sind. Analog zur Bestimmung der Belegungskarte M1 wird anhand der Referenz-Sensordaten eine Referenz-Belegungskarte M2 bereitgestellt. In dem vorliegenden Beispiel wird auf Grundlage der Belegungskarte M1 und der Referenz-Belegungskarte M2 zusätzlich eine kombinierte Belegungskarte M3 erzeugt.Both the sensor data and the reference sensor data describe respective areas 11 , 12th the environment 6th of the vehicle 1 . An occupancy card is then created based on the sensor data M1 provided. This occupancy card M1 may have multiple cells representing respective areas in the area 6th of the vehicle 1 assigned. In addition, on the basis of the measurements with the environment sensor 4th determine whether the individual cells of the occupancy card M1 through an object 7th in the neighborhood 6th of the vehicle 1 are occupied or whether they are free of objects 7th are. Analogous to the determination of the occupancy card M1 becomes a reference occupancy card based on the reference sensor data M2 provided. In the present example, based on the occupancy card M1 and the reference occupancy card M2 additionally a combined occupancy card M3 generated.

In einem Schritt S3 wird aus der Belegungskarte M1 ein Kartenbereich 9 ausgewählt. Des Weiteren wird in einem Schritt S4 aus der Referenz-Belegungskarte M2 der Kartenbereich 9 ausgewählt, welcher mit dem Kartenbereich 9 aus der Belegungskarte M1 übereinstimmt. Zur Bestimmung der jeweiligen Kartenbereiche 9 kann zudem die kombinierte Belegungskarte 3 herangezogen werden. In einem Schritt S5 wird der Kartenbereich 9 der Belegungskarte M1 maskiert. Bei dieser Maskierung werden diejenigen Merkmale der Belegungskarte M1 nicht berücksichtigt, welche dynamische Objekte bzw. sich bewegende Objekte 7 in der Umgebung 6 des Fahrzeugs 1 beschreiben. Analog zu dem Schritt S5 wird in einem Schritt S6 der Kartenbereich 9 der Referenz-Belegungskarte M2 maskiert. Zur Durchführung der Schritte S5 und S6 können jeweils Informationen aus der Belegungskarte M1 sowie aus der Referenz-Belegungskarte M2 herangezogen werden. Es ist zu berücksichtigen, dass die Schritte S3 bis S6 optional sind, aber die Genauigkeit des Verfahrens verbessern und die Rechenzeit reduzieren.In one step S3 becomes from the occupancy card M1 a map area 9 selected. Furthermore, in one step S4 from the reference occupancy card M2 the map area 9 selected which one with the map area 9 from the Occupancy card M1 matches. To determine the respective map areas 9 can also use the combined occupancy card 3rd can be used. In one step S5 becomes the map area 9 the occupancy card M1 masked. With this masking, those features of the occupancy card M1 does not take into account which dynamic objects or moving objects 7th in the neighborhood 6th of the vehicle 1 describe. Analogous to the step S5 is in one step S6 the map area 9 the reference occupancy card M2 masked. To carry out the steps S5 and S6 can each have information from the occupancy card M1 as well as from the reference occupancy card M2 can be used. It has to be taken into account that the steps S3 to S6 are optional, but improve the accuracy of the method and reduce the computing time.

In einem Schritt S7 werden aus der Belegungskarte M1 bzw. dem gegebenenfalls maskierten Kartenbereich 9 Merkmale F1 extrahiert. Analog hierzu werden in einem Schritt S8 aus der Referenz-Belegungskarte M2 Merkmale F2 extrahiert. Zum Extrahieren der Merkmale F1, F2 aus den Belegungskarten M1, M2 können entsprechende Verfahren der Bildverarbeitung genutzt werden. In einem Schritt S9 wird dann überprüft, ob zumindest ein Merkmal F1 in der Belegungskarte M1 mit zumindest einem Merkmal F2 aus der Referenz-Belegungskarte M2 übereinstimmt. Es wird in diesem Fall also überprüft, ob in der Belegungskarte M1 ein Merkmal F1 vorhanden ist, welches dasselbe Objekt 7 in der Umgebung 6 des Fahrzeugs 1 beschreibt wie ein Merkmal F2 aus der Referenz-Belegungskarte M2. Wenn eine entsprechende Zuordnung der Merkmale F1, F2 durchgeführt wurde, kann in einem Schritt S10 ein räumlicher Versatz bzw. eine räumliche Verschiebung zwischen den Merkmalen F1, F2 bestimmt werden.In one step S7 are from the occupancy card M1 or the possibly masked map area 9 features F1 extracted. Similarly, in one step S8 from the reference occupancy card M2 features F2 extracted. To extract the features F1 , F2 from the occupancy cards M1 , M2 Corresponding image processing methods can be used. In one step S9 it is then checked whether at least one feature F1 in the occupancy card M1 with at least one feature F2 from the reference occupancy card M2 matches. In this case, it is checked whether the occupancy card M1 a feature F1 exists which is the same object 7th in the neighborhood 6th of the vehicle 1 describes how a feature F2 from the reference occupancy card M2 . If an appropriate assignment of the characteristics F1 , F2 can be done in one step S10 a spatial offset or a spatial shift between the features F1 , F2 to be determined.

Dabei kann es vorgesehen sein, dass die Belegungskarte M1 und die Referenz-Belegungskarte M2 für eine Mehrzahl von zeitlich aufeinanderfolgenden Messzyklen bestimmt werden. Für jeden der Messzyklen kann dann ein Abweichungswert bestimmt werden, welcher die Abweichung des Einbauwinkels Φ von einem Soll-Einbauwinkel beschreibt. Dieser Abweichungswert kann auf Grundlage des räumlichen Versatzes zwischen den Merkmalen F1, F2 in den Belegungskarten M1, M2 ermittelt werden. Die jeweiligen Abweichungswerte können in einem Speicher 10 des Sensorsystems 2 hinterlegt werden. Anhand einer Mehrzahl von Abweichungswerten kann dann die Abweichung des Einbauwinkels des Umfeldsensors 4 von einem Soll-Einbauwinkel bestimmt werden (Schritt S11). Dieses Ergebnis kann dann bei der Erfassung der Sensordaten gemäß dem Schritt S1 genutzt werden. Somit kann quasi eine Rückkopplung bereitgestellt werden.It can be provided that the occupancy card M1 and the reference occupancy card M2 be determined for a plurality of chronologically successive measuring cycles. A deviation value can then be determined for each of the measuring cycles, which represents the deviation of the installation angle Φ describes from a target installation angle. This deviation value can be based on the spatial offset between the features F1 , F2 in the occupancy cards M1 , M2 be determined. The respective deviation values can be stored in a memory 10 of the sensor system 2 be deposited. The deviation of the installation angle of the environment sensor can then be determined on the basis of a plurality of deviation values 4th can be determined from a target installation angle (step S11 ). This result can then be used when acquiring the sensor data according to step S1 be used. A feedback can thus be provided, as it were.

3 zeigt eine schematische Darstellung eines ersten Bereichs 11 der Umgebung 6, welcher von der Belegungskarte M1 abgebildet wird. Des Weiteren ist ein zweiter Bereich 12 der Umgebung 6 dargestellt, welcher von der Referenz-Belegungskarte M2 abgebildet wird. Der Bereich 13 wird dabei von der kombinierten Belegungskarte M3 repräsentiert. Des Weiteren ist ein Bereich 8 dargestellt, welcher sowohl von der Belegungskarte M1 als auch von der Referenz-Belegungskarte M2 abgebildet wird. 3rd shows a schematic representation of a first area 11 the environment 6th which from the occupancy card M1 is mapped. There is also a second area 12th the environment 6th shown which of the reference occupancy card M2 is mapped. The area 13th is taken from the combined occupancy card M3 represents. There is also an area 8th shown which both from the occupancy card M1 as well as from the reference occupancy card M2 is mapped.

4 zeigt eine weitere schematische Darstellung des ersten Bereichs 11, des zweiten Bereichs 12 sowie des übereinstimmenden Bereichs 9. Der Referenz-Umfeldsensor 5 weist einen Erfassungsbereich von 360° bezüglich der Azimut-Richtung auf. Somit hat dieser Referenz-Umfeldsensor 5 keine Einschränkungen bezüglich der Azimut-Richtung aber für einen Abstand. Vorliegend ist der Erfassungsbereich des Referenz-Umfeldsensors 5 innerhalb des zweiten Bereichs 12 anhand der Linien 14 veranschaulicht. Der Umfeldsensor 4, welcher in dem Frontbereich des Fahrzeugs 1 angeordnet ist, weist einen Erfassungsbereich auf, welcher größer als der erste Bereich 11 ist. Dies ist vorliegend schematisch durch die Linien 15 angedeutet. Dabei wird innerhalb des Bereichs 8 und der jeweiligen Erfassungsbereiche des Umfeldsensors 4 sowie des Referenz-Umfeldsensors 5 ein Kartenbereich 9 bestimmt, in welchem die übereinstimmenden Merkmale F1, F2 der Belegungskarte M1 und der Referenz-Belegungskarte M2 miteinander verglichen werden. 4th shows a further schematic representation of the first area 11 , the second area 12th as well as the matching area 9 . The reference environment sensor 5 has a detection range of 360 ° with respect to the azimuth direction. Thus, this reference environment sensor 5 no restrictions on the azimuth direction but for a distance. Here is the detection area of the reference environment sensor 5 within the second range 12th based on the lines 14th illustrated. The environment sensor 4th which is in the front of the vehicle 1 is arranged, has a detection area which is larger than the first area 11 is. This is shown schematically in the present case by the lines 15th indicated. This is done within the area 8th and the respective detection areas of the environment sensor 4th as well as the reference environment sensor 5 a map area 9 determines in which the matching characteristics F1 , F2 the occupancy card M1 and the reference occupancy card M2 be compared with each other.

5 zeigt eine schematische Darstellung der Belegungskarte M1. In der Belegungskarte M1 ist zudem die Position des Umfeldsensors 4 angedeutet. In der Belegungskarte M1 wurde vorliegend das Merkmal F1 erkannt, welches zu dem Umgebungssensor 4 den Abstand d1 und den Winkel Φ1 aufweist. Dieses Merkmal F1 wurde auch als Merkmal F2 in der Referenz-Belegungskarte M2 als Merkmal F2 erfasst. Zu dem Umfeldsensor 4 weist dieses Merkmal F2 einen Abstand d2 sowie einen Winkel Φ2 auf. Dabei kann überprüft werden, ob ein Betrag einer Differenz zwischen dem Abstand d2 zwischen dem Umfeldsensor 4 und dem Merkmal F2 zu einem Abstand d1 zwischen dem Umfeldsensor 4 und dem Merkmal F1 innerhalb eines vorbestimmten Abstandsbereichs liegt. Eine Abweichung der Abstände d1, d2 bzw. der Abstandswerte kann nur durch eine fehlerhafte Einbauposition des Umfeldsensors 4 oder durch Messunsicherheiten entstehen. Beide Quellen sind für Lidar-Sensoren oder Laserscanner im Bereich von Zentimetern bis maximal von einigen Dezimetern. Des Weiteren kann überprüft werden, ob ein Betrag einer Differenz zwischen dem Winkel Φ2 zwischen dem Umfeldsensor 4 und dem Merkmal F2 und dem Winkel Φ1 zwischen dem Umfeldsensor 4 und dem Merkmal F1 innerhalb eines vorbestimmten Winkelbereichs liegt. Hieraus kann dann ein Bereich 16 um das Merkmal F1 herum ermittelt werden, in welchem sich das Merkmal F2 zu befinden hat, damit es dem Merkmal F1 zugeordnet werden kann. Dies ist schematisch in 6 veranschaulicht. 5 shows a schematic representation of the occupancy card M1 . In the occupancy card M1 is also the position of the environment sensor 4th indicated. In the occupancy card M1 became the feature here F1 recognized which one to the environmental sensor 4th the distance d1 and the angle Φ1 having. This feature F1 was also considered a feature F2 in the reference occupancy card M2 as a feature F2 detected. To the environment sensor 4th exhibits this characteristic F2 a distance d2 as well as an angle Φ2 on. It can be checked whether an amount is a difference between the distance d2 between the environment sensor 4th and the feature F2 to a distance d1 between the environment sensor 4th and the feature F1 is within a predetermined distance range. A deviation in the distances d1 , d2 or the distance values can only be caused by an incorrect installation position of the environment sensor 4th or arise from measurement uncertainties. Both sources are for lidar sensors or laser scanners in the range from centimeters to a maximum of a few decimeters. Furthermore, it can be checked whether an amount is a difference between the angle Φ2 between the environment sensor 4th and the feature F2 and the angle Φ1 between the environment sensor 4th and the feature F1 is within a predetermined angular range. An area can then be derived from this 16 around the feature F1 around can be determined in which the feature F2 has to be located in order for it to be the characteristic F1 can be assigned. This is schematically shown in 6th illustrated.

7 zeigt eine schematische Darstellung einer kombinierten Belegungskarte M3. Die kombinierte Belegungskarte M3 umfasst Merkmale F1, die anhand der Sensordaten bestimmt wurden, sowie Merkmale F2, welche anhand der Referenz-Sensordaten bestimmt wurden. Durch die Linien 17 ist die Zuordnung der übereinstimmenden Merkmale F1, F2 dargestellt. Zudem sind durch die Linien 18 Ausreißer bzw. falsch einander zugordnete Merkmale F1, F2 veranschaulicht. Wie zu erkennen ist, ist die Anzahl der Ausreißer verhältnismäßig gering. Nachdem die Ausreiser 18 erkannt wurden, wird über den Winkel aus den Verschiebungen (Linien 17) die Abweichung des Einbauwinkels Φ von dem Soll-Einbauwinkel abgeschätzt. Diese Verdrehung wurde zur Veranschaulichung für zwei Blickwinkel (Linien 19 und 20) eingezeichnet. 7th shows a schematic representation of a combined occupancy card M3 . The combined occupancy card M3 includes features F1 determined from the sensor data and features F2 which were determined based on the reference sensor data. Through the lines 17th is the assignment of the matching characteristics F1 , F2 shown. They are also through the lines 18th Outliers or incorrectly assigned characteristics F1 , F2 illustrated. As can be seen, the number of outliers is relatively small. After the outliers 18th detected, the angle from the displacements (lines 17th ) the deviation of the installation angle Φ estimated from the target installation angle. This twist was used to illustrate two viewing angles (lines 19th and 20th ).

8 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Kalibrieren des Umfeldsensors 4 gemäß einer weiteren Ausführungsform. Auch hier wird auf Grundlage der Sensordaten die Belegungskarte M1 bestimmt. Des Weiteren wird auf Grundlage der Referenz-Sensordaten die Referenz-Belegungskarte M2 bestimmt. In einem Schritt S12 wird dann auf Grundlage der Belegungskarte M1 ein zweidimensionaler Hough-Raum berechnet. Ferner wird analog in einem Schritt S13 auf Grundlage der Referenz-Belegungskarte M2 ebenfalls ein zweidimensionaler Hough-Raum berechnet. Zur Berechnung dieses Hough-Raums kann eine Einbauposition des Umfeldsensors 4 berücksichtigt werden. 8th shows a schematic flow diagram of a method for calibrating the environment sensor 4th according to a further embodiment. Here, too, the occupancy card is based on the sensor data M1 certainly. Furthermore, the reference occupancy card is based on the reference sensor data M2 certainly. In one step S12 is then based on the occupancy card M1 a two-dimensional Hough space is calculated. Furthermore, analog in one step S13 based on the reference occupancy card M2 also calculated a two-dimensional Hough space. An installation position of the environment sensor can be used to calculate this Hough space 4th must be taken into account.

In den jeweiligen Hough-Räumen können linienförmige Merkmale bestimmt werden, welche linienförmigen Objekten 7 der Umgebung 6 zugeordnet sind. In einem Schritt S14 können entsprechende Maximalwerte für den Azimut-Winkel in einem eindimensionalen Hough-Raum bestimmt werden. Dies kann für die Referenz-Belegungskarte M2 analog in einem Schritt S15 durchgeführt werden. Zwischen den jeweiligen linienförmigen Merkmalen kann dann ein Winkelversatz bestimmt werden. Dieser kann zusätzlich in einem Schritt S16 zur Bestimmung der Abweichung des Einbauwinkels Φ des Umfeldsensors 4 von einem Soll-Einbauwinkel berücksichtigt werden.Line-shaped features can be determined in the respective Hough spaces, which line-shaped objects 7th the environment 6th assigned. In one step S14 Corresponding maximum values for the azimuth angle can be determined in a one-dimensional Hough space. This can be done for the reference occupancy card M2 analog in one step S15 be performed. An angular offset can then be determined between the respective linear features. This can also be done in one step S16 to determine the deviation of the installation angle Φ of the environment sensor 4th can be taken into account by a target installation angle.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 9297899 B2 [0005]US 9297899 B2 [0005]
  • US 6202027 B1 [0006]US 6202027 B1 [0006]

Claims (12)

Verfahren zum Kalibrieren eines Umfeldsensors (4) eines Fahrzeugs (1), umfassend die Schritte: - Empfangen von Sensordaten von dem Umfeldsensor (4) und Bestimmen einer Belegungskarte (M1) anhand der Sensordaten, wobei die Belegungskarte (M1) einen ersten Bereich (11) einer Umgebung (6) des Fahrzeugs (1) beschreibt, - Empfangen von Referenz-Sensordaten von einem Referenz-Umfeldsensor (5) des Fahrzeugs (1) und Bestimmen einer Referenz-Belegungskarte (M2) anhand der Referenz-Sensordaten, wobei die Referenz-Belegungskarte (M2) einen zweiten Bereich (12) der Umgebung (6) beschreibt, welcher mit dem ersten Bereich (11) zumindest bereichsweise übereinstimmt, - Bestimmen von zumindest einem Merkmal (F1) in der Belegungskarte (M1), welches mit zumindest einem Merkmal (F2) in der Referenz-Belegungskarte (M2) übereinstimmt, - Bestimmen einer räumlichen Verschiebung zwischen dem zumindest einen Merkmal (F1) in der Belegungskarte (M1) und dem zumindest einen Merkmal (F2) in der Referenz-Belegungskarte (M2), und - Schätzen einer Abweichung eines Einbauwinkels (Φ) des Umfeldsensors (4) von einem Soll-Einbauwinkel anhand der Verschiebung.Method for calibrating an environment sensor (4) of a vehicle (1), comprising the steps: - Receiving sensor data from the environment sensor (4) and determining an occupancy card (M1) on the basis of the sensor data, the occupancy card (M1) describing a first area (11) of an environment (6) of the vehicle (1), - Receiving reference sensor data from a reference environment sensor (5) of the vehicle (1) and determining a reference occupancy map (M2) based on the reference sensor data, the reference occupancy map (M2) having a second area (12) of the environment (6) describes which corresponds to the first area (11) at least in some areas, - Determination of at least one feature (F1) in the occupancy card (M1) which corresponds to at least one feature (F2) in the reference occupancy card (M2), - determining a spatial shift between the at least one feature (F1) in the occupancy card (M1) and the at least one feature (F2) in the reference occupancy card (M2), and - Estimating a deviation of an installation angle (Φ) of the environment sensor (4) from a target installation angle on the basis of the displacement. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Belegungskarte (M1) und die Referenz-Belegungskarte (M2) für eine Mehrzahl von aufeinanderfolgenden Messzyklen bestimmt werden, für jeden Messzyklus ein Abweichungswert bestimmt wird, welcher die Abweichung des Einbauwinkels (Φ) beschreibt, und die Abweichung des Einbauwinkels (Φ) anhand der Mehrzahl von Abweichungswerten geschätzt wird.Procedure according to Claim 1 , characterized in that the occupancy card (M1) and the reference occupancy card (M2) are determined for a plurality of successive measurement cycles, a deviation value is determined for each measurement cycle, which describes the deviation of the installation angle (Φ), and the deviation of the installation angle (Φ) is estimated from the plurality of deviation values. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zum Bestimmen der übereinstimmenden Merkmale (F1, F2) in der Belegungskarte (M1) und in der Referenz-Belegungskarte (M2) Merkmale (F1, F2) extrahiert werden und eine Zuordnung der extrahierten Merkmale (F1, F2) durchgeführt wird.Procedure according to Claim 1 or 2 , characterized in that in order to determine the matching features (F1, F2) in the occupancy card (M1) and in the reference occupancy card (M2) features (F1, F2) are extracted and the extracted features (F1, F2) are assigned becomes. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass bei der Zuordnen der extrahierten Merkmale (F1, F2) überprüft wird, ob die Merkmale (F1, F2) in einem vorbestimmten Abstandsbereich und/oder einem vorbestimmen Winkelbereich liegen.Procedure according to Claim 3 , characterized in that when assigning the extracted features (F1, F2) it is checked whether the features (F1, F2) lie in a predetermined distance range and / or a predetermined angular range. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass zum Bestimmen der übereinstimmenden Merkmale (F1, F2) aus der Belegungskarte (M1) und der Referenz-Belegungskarte (M2) jeweils ein Kartenbereich (9) ausgewählt wird, wobei die Auswahl der Kartenbereiche (9) anhand von jeweiligen Erfassungsbereichen des Umfeldsensors (4) und des Referenz-Umfeldsensors (5) durchgeführt wird.Procedure according to Claim 3 or 4th , characterized in that a map area (9) is selected to determine the matching features (F1, F2) from the occupancy card (M1) and the reference occupancy card (M2), the selection of the map areas (9) based on respective detection areas the environment sensor (4) and the reference environment sensor (5) is carried out. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Belegungskarte (M1) und die Referenz-Belegungskarte (M2) derart bestimmt werden, dass diese jeweils statische Elemente in der Umgebung (6) des Fahrzeugs (1) beschreiben.Method according to one of the preceding claims, characterized in that the occupancy card (M1) and the reference occupancy card (M2) are determined in such a way that they each describe static elements in the surroundings (6) of the vehicle (1). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Belegungskarte (M1) und in der Referenz-Belegungskarte (M2) jeweils linienförmige Merkmale erkannt werden und einander zugeordnet werden, ein Winkelunterschied zwischen den linienförmigen Merkmalen bestimmt wird und die Abweichung des Einbauwinkels (Φ) zusätzlich anhand des Winkelunterschieds bestimmt wird.Method according to one of the preceding claims, characterized in that in the occupancy card (M1) and in the reference occupancy card (M2) each line-shaped features are recognized and assigned to one another, an angle difference between the line-shaped features is determined and the deviation in the installation angle ( Φ) is also determined based on the angle difference. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die linienförmigen Merkmale in zweidimensionalen Räumen bestimmt werden, welche auf Grundlage der Belegungskarte (M1) und der Referenz-Belegungskarte (M2) mittels einer Hough-Transformation bestimmt werden.Procedure according to Claim 7 , characterized in that the linear features are determined in two-dimensional spaces, which are determined on the basis of the occupancy map (M1) and the reference occupancy map (M2) by means of a Hough transformation. Recheneinrichtung (3) für ein Sensorsystem (2) eines Fahrzeugs (1), wobei die Recheneinrichtung (3) zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.Computing device (3) for a sensor system (2) of a vehicle (1), wherein the computing device (3) is designed to carry out a method according to one of the preceding claims. Sensorsystem (2) für ein Fahrzeug (1) umfassend eine Recheneinrichtung (3) nach Anspruch 9, einen Umfeldsensor (4) und einen Referenz-Umfeldsensor (5).Sensor system (2) for a vehicle (1) comprising a computing device (3) according to Claim 9 , an environment sensor (4) and a reference environment sensor (5). Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Computer program, comprising instructions which, when the program is executed by a computing device (3), cause the latter, a method according to one of the Claims 1 to 8th to execute. Computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Recheneinrichtung (3) diese veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Computer-readable (storage) medium, comprising instructions which, when executed by a computing device (3), cause them, a method according to one of the Claims 1 to 8th to execute.
DE102019132151.4A 2019-11-27 2019-11-27 Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system Pending DE102019132151A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019132151.4A DE102019132151A1 (en) 2019-11-27 2019-11-27 Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019132151.4A DE102019132151A1 (en) 2019-11-27 2019-11-27 Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system

Publications (1)

Publication Number Publication Date
DE102019132151A1 true DE102019132151A1 (en) 2021-05-27

Family

ID=75784107

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019132151.4A Pending DE102019132151A1 (en) 2019-11-27 2019-11-27 Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system

Country Status (1)

Country Link
DE (1) DE102019132151A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022205675A1 (en) 2022-06-02 2023-12-07 Zf Friedrichshafen Ag Detecting the position of a sensor on a vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022205675A1 (en) 2022-06-02 2023-12-07 Zf Friedrichshafen Ag Detecting the position of a sensor on a vehicle

Similar Documents

Publication Publication Date Title
DE102007005121B4 (en) Method and apparatus for in-vehicle calibration and orientation of object tracking systems
DE102017105305A1 (en) METHOD FOR AUTOMATIC DETERMINATION OF A SENSOR POSITION
EP2963631B1 (en) Method for determining a parking space from a number of measuring points
EP3740738B1 (en) Method for determining the position of a vehicle
DE102018124108A1 (en) METHOD AND DEVICE FOR DETECTING ROAD LIMITATION
DE102014111125A1 (en) Method for detecting an object in an environmental region of a motor vehicle by means of an ultrasonic sensor, driver assistance system and motor vehicle
DE102019112413A1 (en) METHOD AND DEVICE FOR MULTI-SENSOR DATA FUSION FOR AUTOMATED AND AUTONOMOUS VEHICLES
WO2016150590A1 (en) Method and device for monitoring a target trajectory to be travelled by a vehicle for absence of collisions
EP3430423B1 (en) Method for improving detection of at least one object in an environment of a motor vehicle by means of an indirect measurement using sensors, control device, driver assistance system, and motor vehicle
DE102020203756A1 (en) MOTORWAY EXIT DETECTION AND LINE REFLECTION FOR VEHICLE TRACTION DETERMINATION
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
DE102019118210A1 (en) Device and method for compensating a directional angle
DE102018123393A1 (en) Detection of parking areas
DE112018004003T5 (en) CONTROL AND METHOD FOR AUTOMATIC DRIVING
DE102020112825A1 (en) Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle
DE102017108107A1 (en) METHOD, DEVICE AND COMPUTER READABLE STORAGE MEDIUM WITH INSTRUCTIONS FOR ESTIMATING A POSE OF A MOTOR VEHICLE
DE102014210752A1 (en) Method and device for monitoring a target trajectory of a vehicle
DE102019132151A1 (en) Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system
DE102018211240A1 (en) Method for classifying an object's relevance
EP3545330A1 (en) Method and device for determining an exact position of a vehicle based on radar signatures of the vehicle environment
DE102017205782A1 (en) Control device and method
DE102018122092A1 (en) Method for determining at least one position parameter of an object in an environment of a motor vehicle, computer program product, driver assistance system and motor vehicle
DE102017126183A1 (en) Method for detecting and classifying an object by means of at least one sensor device based on an occupancy map, driver assistance system and motor vehicle
DE102019209637B4 (en) Generating a vehicle environment map
DE112017008095T5 (en) Object recognition device and object recognition method