DE102022208937A1 - Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system - Google Patents

Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system Download PDF

Info

Publication number
DE102022208937A1
DE102022208937A1 DE102022208937.5A DE102022208937A DE102022208937A1 DE 102022208937 A1 DE102022208937 A1 DE 102022208937A1 DE 102022208937 A DE102022208937 A DE 102022208937A DE 102022208937 A1 DE102022208937 A1 DE 102022208937A1
Authority
DE
Germany
Prior art keywords
predicted
range information
procedure
calculated
accordance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208937.5A
Other languages
German (de)
Inventor
Simon Weissenmayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022208937.5A priority Critical patent/DE102022208937A1/en
Publication of DE102022208937A1 publication Critical patent/DE102022208937A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Nickwinkelfehler- und Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem mit nachfolgenden Verfahrensschritten:a) Mittels einer korrigierten Pose χk-1wird eine neue Pose χk|k-1prognostiziert, wobei aus der prognostizierten Pose χk|k-1und einer Höhenkarte mider Umgebung eine mindestens drei (n) geschätzte LiDAR-Messwerte umfassende prognostizierte Reichweiteninformation h berechnet,b) es wird eine mithilfe des LiDAR-Sensorsystems gemessenen Werten und mit n korrespondierenden gemessenen LiDAR-Messwerten verknüpfte Reichweiteninformation z gebildet, wobei sowohl die prognostizierte Reichweiteninformation h als auch eine gemessene Reichweiteninformation z einen gleichen konstanten Winkelabstand aus Δφ aufweisen;c) aus der prognostizierten Reichweiteninformation h und der gemessenen Reichweiteninformation z wird eine Verschiebung ykzwischen diesen ermittelt;d) aus der neu prognostizierten Pose χk|k-1und der Verschiebung ykwird eine korrigierte Pose χkberechnet.The invention relates to a method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system with the following method steps: a) Using a corrected pose χk-1, a new pose χk|k-1 is predicted, from the predicted pose χk|k -1 and a height map of the surroundings, a forecast range information h comprising at least three (n) estimated LiDAR measurement values is calculated, predicted range information h and measured range information z have the same constant angular distance from Δφ; c) a shift yk between them is determined from the predicted range information h and the measured range information z; yk, a corrected pose χk is calculated.

Description

Technisches GebietTechnical area

Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Nickwinkelfehler- und zur Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem. Des Weiteren bezieht sich die Erfindung auf die Verwendung des Verfahrens in einem LiDAR-Sensorsystem eines Fahrzeugs.The present invention relates to a method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system. Furthermore, the invention relates to the use of the method in a LiDAR sensor system of a vehicle.

Stand der TechnikState of the art

US 2015/0045059 bezieht sich auf Orientierungsinformationen, wobei neben anderen Winkeln auch der Azimutwinkel bestimmt wird. Die derzeitige Position und die Orientierungsinformation werden mit einer dreidimensionalen Lokalisierung soziiert, wozu auf eine mobile Datensammlungsplattform zugegriffen wird, wenn das Bild aufgenommen wird. Das Bild, die fixe Position und die Orientierungsinformation werden in einem Hardware-Speicher der mobilen Daten auf der Plattform abgespeichert. Mittels dieses Vorgehens lassen sich Korrekturen vornehmen zur Verbesserung der Positionserkennung in GNSSsowie GPS-Systemen. US 2015/0045059 refers to orientation information, where, among other angles, the azimuth angle is also determined. The current position and orientation information are associated with three-dimensional localization by accessing a mobile data collection platform when the image is captured. The image, the fixed position and the orientation information are stored in a hardware memory of the mobile data on the platform. Using this approach, corrections can be made to improve position detection in GNSS and GPS systems.

US 2013/0041549 A1 bezieht sich auf Raumdaten, die von einer Raumdatenbank an einen Controller übermittelt werden, wobei die Raumdaten Bilder umfassen, die von einem optischen Sensor-Subsystem stammen und mit anderen Daten zusammengeführt werden, die aus einer Anzahl verschiedener Sensortypen, die einen GNSS oder ein Trägheitsmesssystem einschließen, stammen. Es wird ein Kalman-Filter eingesetzt, der im Rahmen eines Vorhersagekorrekturalgorithmus' arbeitet. Der Algorithmus arbeitet zunächst nach einem mathematischen Modell, um bestimmte Werte verschiedener Stadien bei einem Zeitschritt K+1 vorherzusagen, die auf den bekannten Inputs zum Zeitschritt K+1 vorliegen. Danach wird auf die bekannten Werte des Stadiums zu einem vorhergehenden Zeitpunkt K zurückgegriffen. Danach wird der vorhergesagte Wert korrigiert, wozu aktuelle Messungen des Fahrzeugs zu einem Zeitschritt K+1 und die optimierten statistischen Eigenschaften des eingesetzten Modells ausgewertet werden. US 2013/0041549 A1 refers to spatial data transmitted from a spatial database to a controller, the spatial data comprising images derived from an optical sensor subsystem and merged with other data obtained from a number of different types of sensors, including a GNSS or an inertial measurement system , come. A Kalman filter is used, which works as part of a prediction correction algorithm. The algorithm first works according to a mathematical model to predict certain values of different stages at a time step K+1, which are available on the known inputs at time step K+1. The known values of the stage at a previous time K are then used. The predicted value is then corrected, for which current measurements of the vehicle at a time step K+1 and the optimized statistical properties of the model used are evaluated.

Darstellung der ErfindungPresentation of the invention

Erfindungsgemäß wird ein Verfahren vorgeschlagen zur Nickwinkelfehler- und Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensor oder einem LiDAR-Sensorsystem mit nachfolgenden Verfahrensschritten:

  1. a) Mittels einer korrigierten Pose χk-1 wird eine neue Pose χk|k-1 prognostiziert, wobei aus der prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung eine mindestens drei (n) geschätzte LiDAR-Messwerte umfassende prognostizierte Reichweiteninformation h berechnet,
  2. b) es wird eine mithilfe des LiDAR-Sensors oder des LiDAR-Sensorsystems gemessenen Werten und mit n korrespondierenden gemessenen LiDAR-Messwerten verknüpfte Reichweiteninformation z gebildet, wobei sowohl die prognostizierte Reichweiteninformation h als auch eine gemessene Reichweiteninformation z einen gleichen konstanten Winkelabstand aus Δφ aufweisen;
  3. c) aus der prognostizierten Reichweiteninformation h und der gemessenen Reichweiteninformation z wird eine Verschiebung yk zwischen diesen ermittelt;
  4. d) aus der neu prognostizierten Pose χk|k-1 und der Verschiebung yk wird eine korrigierte Pose χk berechnet.
According to the invention, a method is proposed for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor or a LiDAR sensor system with the following method steps:
  1. a) Using a corrected pose χ k-1 , a new pose χ k|k-1 is predicted, whereby at least three (n) estimated LiDAR measurements are obtained from the predicted pose χ k|k-1 and a height map m i of the environment comprehensive forecast range information h is calculated,
  2. b) range information z is formed using measured values using the LiDAR sensor or the LiDAR sensor system and linked to n corresponding measured LiDAR measurement values, whereby both the predicted range information h and a measured range information z have the same constant angular distance from Δφ;
  3. c) a shift y k between them is determined from the predicted range information h and the measured range information z;
  4. d) a corrected pose χ k is calculated from the newly predicted pose χ k|k-1 and the displacement y k .

In Weiterbildung des erfindungsgemäßen Verfahrens wird gemäß Verfahrensschritt a) in einem Prädiktionsschritt mit einer korrigierten Pose χk-1 eine neue Pose χk|k-1 prognostiziert gemäß x x | k 1 = f ( x k 1 , u k 1 )

Figure DE102022208937A1_0001
P k | k 1 = F k 1 P k 1 F k 1 T + B k 1 Q k 1 B k 1 T
Figure DE102022208937A1_0002
In a further development of the method according to the invention, according to method step a), a new pose χ k| k- 1 is predicted in a prediction step with a corrected pose χ k-1 x x | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208937A1_0001
P k | k 1 = F k 1 P k 1 F k 1 T + b k 1 Q k 1 b k 1 T
Figure DE102022208937A1_0002

Beim erfindungsgemäß vorgeschlagenen Verfahren wird gemäß Verfahrensschritt b) mit jedem Prüfpunkt mi eine prognostizierte Reichweite ri = [rx ry rz]T in LiDAR-Koordinaten aus den Koordinaten des Prüfpunkts mi in Weltkoordinaten und den Koordinaten des LiDARs p = [px py pz]T in Weltkoordinaten gemäß r i ( x ) = ( m i p ( x ) )

Figure DE102022208937A1_0003
berechnet.In the method proposed according to the invention, according to method step b), with each test point m i a predicted range r i = [r x r y r z ] T in LiDAR coordinates from the coordinates of the test point m i in world coordinates and the coordinates of the LiDAR p = [ p x p y p z ] T in world coordinates according to r i ( x ) = ( m i p ( x ) )
Figure DE102022208937A1_0003
calculated.

In einer vorteilhaften Weiterbildung der erfindungsgemäß vorgeschlagenen Lösung wird nach Verfahrensschritt b) eine prognostizierte Reichweiteninformation hi(r) des Laserstrahls mit Index i zu dem Prüfpunkt mi berechnet aus den Reichweiten ri(χ) = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten gemäß h i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r z 2

Figure DE102022208937A1_0004
In an advantageous development of the solution proposed according to the invention, after method step b), predicted range information h i (r) of the laser beam with index i to the test point m i is calculated from the ranges r i (χ) = [r x r y r z ] T of the test point in LiDAR coordinates H i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r e.g 2
Figure DE102022208937A1_0004

In einer weiteren Ausgestaltung der erfindungsgemäßen Lösung werden für einen Zeitschritt k eine Anzahl n unterschiedlicher Prüfpunkte herangezogen und die prognostizierte Reichweiteninformation hi(r) zu einem Vektor h = [h1 ... hn]T und die korrespondierenden gemessenen Reichweiteninformationen zi zu einem Vektor z = [z1 ... zn]T zusammengefasst.In a further embodiment of the solution according to the invention, a number n of different test points are used for a time step k and the predicted range information h i (r) becomes a vector h = [h 1 ... h n ] T and the corresponding measured range information z i a vector z = [z 1 ... z n ] T.

Beim erfindungsgemäß vorgeschlagenen Verfahren wird eine Kreuzkorrelationsfunktion Xhz(j) aus einem diskret differenzierten Messvektor der LiDAR-Sensormodelle Δh = diff(h) mit h = [h1 ... hn]T und einem diskret differenzierten Messvektor der realen Messwerte Δz = diff(z) berechnet gemäß X h z ( j ) = { i = 0 n j 1 Δ h i + j Δ z i j 0 X h z ( j ) j < 0

Figure DE102022208937A1_0005
mit j ≙ Anzahl der Stellen, um die der Messvektor der LiDAR-Sensormodelle hr,i und der Messvektor der realen Messwerte zr,i gegeneinander verschoben sind.In the method proposed according to the invention, a cross -correlation function diff(z) calculated according to X H e.g ( j ) = { i = 0 n j 1 Δ H i + j Δ e.g i j 0 X H e.g ( j ) j < 0
Figure DE102022208937A1_0005
with j ≙ number of places by which the measurement vector of the LiDAR sensor models h r,i and the measurement vector of the real measured values z r,i are shifted relative to one another.

Beim vorgeschlagenen Verfahren wird für den Index j, bei dem Xhz(j) = max, die Differenz von yk zwischen der Messung und der prognostizierten Messung h aus einer konstanten Winkeldifferenz Δφ berechnet, nach

Figure DE102022208937A1_0006
In the proposed method, the difference of y k between the measurement and the predicted measurement h is calculated from a constant angle difference Δφ for the index j , where
Figure DE102022208937A1_0006

Bei der erfindungsgemäß vorgeschlagenen Lösung wird ein Korrekturschritt gemäß x k = x k | k 1 + K k ( z k h k ( x k | k 1 ) )

Figure DE102022208937A1_0007
mithilfe eines Residuums yk ersatzweise berechnet zu x k = x k | k 1 + K k y k
Figure DE102022208937A1_0008
In the solution proposed according to the invention, a correction step is carried out according to x k = x k | k 1 + K k ( e.g k H k ( x k | k 1 ) )
Figure DE102022208937A1_0007
calculated using a residual y k as an alternative x k = x k | k 1 + K k y k
Figure DE102022208937A1_0008

Beim erfindungsgemäßen Verfahren wird ein Kalman-Gain gemäß K k = P x y , k P y y , k 1

Figure DE102022208937A1_0009
aus einer propagierten Kovarianzmatrix Pyy,k und einer kreuzkorrelierten Matrix Pxy,k gebildet.In the method according to the invention, a Kalman gain is used K k = P x y , k P y y , k 1
Figure DE102022208937A1_0009
formed from a propagated covariance matrix P yy,k and a cross-correlated matrix P xy,k .

Das vorgeschlagene Verfahren sieht vor, dass eine Fehlerkompensation von Gierwinkelfehlern und/oder Nickwinkelfehlern unabhängig voneinander oder nacheinander durchgeführt wird.The proposed method provides that error compensation of yaw angle errors and/or pitch angle errors is carried out independently of one another or one after the other.

Beim erfindungsgemäßen Verfahren wird eine gleichzeitige Gierwinkel- und Nickwinkelfehlerkompensation dergestalt durchgeführt, dass n horizontale x s vertikale Messwerte z und ebenso viele propagierte Werte h gemäß x h z ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ h i + j , u + v Δ z i , u j 0, v 0 h h z ( j , v ) j < 0, v < 0 h h z ( j , v ) j < 0, v 0 h h z ( j , v ) j 0, v < 0

Figure DE102022208937A1_0010
berechnet werden, mit Δh = sobel(h), Δz = sobel(z) oder mittels Sobel-, Prewitt- oder Scharroperatorkernel gefaltet werden.In the method according to the invention, simultaneous yaw angle and pitch angle error compensation is carried out in such a way that n horizontal xs vertical measured values z and the same number of propagated values h according to x H e.g ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ H i + j , u + v Δ e.g i , u j 0, v 0 H H e.g ( j , v ) j < 0, v < 0 H H e.g ( j , v ) j < 0, v 0 H H e.g ( j , v ) j 0, v < 0
Figure DE102022208937A1_0010
can be calculated with Δh = sobel(h), Δz = sobel(z) or folded using Sobel, Prewitt or Scharroperator kernels.

Der erfindungsgemäßen Lösung folgend, wird eine Verschiebung yk in horizontale oder vertikale Richtung gemäß y k = ( J Δ φ V Δ θ )  mit  X h z ( J , V ) X h z ( j , v ) j , v

Figure DE102022208937A1_0011
berechnet, wobei j mit einem zugehörigen horizontalen Winkel Δφ und v mit einem vertikalen Winkel Δθ berechnet werden.Following the solution according to the invention, a displacement y k in the horizontal or vertical direction is achieved y k = ( J Δ φ v Δ θ ) with X H e.g ( J , v ) X H e.g ( j , v ) j , v
Figure DE102022208937A1_0011
calculated, where j is calculated with an associated horizontal angle Δφ and v with a vertical angle Δθ.

Vorteile der ErfindungAdvantages of the invention

Durch die erfindungsgemäß vorgeschlagene Lösung kann eine häufige extrinsische Kalibrierung des LiDAR-Sensorsystems zur Reduktion von Neigungsfehlern vermieden werden. Des Weiteren kann durch das erfindungsgemäß vorgeschlagene Kompensationsverfahren ein kostengünstigeres LiDAR-Sensorsystem sowie eine kostengünstigere Inertialsensorik eingesetzt werden, die durchaus größere Fehler und Toleranzen aufweisen können, die jedoch durch Einsatz des erfindungsgemäß vorgeschlagenen Verfahrens wieder kompensiert werden können.The solution proposed according to the invention makes it possible to avoid frequent extrinsic calibration of the LiDAR sensor system to reduce tilt errors. Furthermore, the compensation method proposed according to the invention makes it possible to use a more cost-effective LiDAR sensor system and a more cost-effective inertial sensor system, which can certainly have larger errors and tolerances, but which can be compensated for again by using the method proposed according to the invention.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Ausführungsformen der Erfindung werden anhand der Zeichnungen und der nachfolgenden Beschreibung näher erläutert.Embodiments of the invention are explained in more detail with reference to the drawings and the following description.

Es zeigt:

  • 1 eine Korrelationsfunktion Xhz (j) mit einem bei -3 liegenden Maximum und
  • 2 ein Koordinatensystem mit X, Y und Z-Richtung und den Winkeln ϕ, θ und ψ.
It shows:
  • 1 a correlation function X hz (j) with a maximum at -3 and
  • 2 a coordinate system with X, Y and Z directions and the angles ϕ, θ and ψ.

Ausführungsformen der ErfindungEmbodiments of the invention

In der nachfolgenden Beschreibung der Ausführungsformen der Erfindung werden gleiche oder ähnliche Elemente mit gleichen Bezugszeichen bezeichnet, wobei auf eine wiederholte Beschreibung dieser Elemente in Einzelfällen verzichtet wird. Die Figuren stellen den Gegenstand der Erfindung nur schematisch dar.In the following description of the embodiments of the invention, the same or similar elements are referred to with the same reference numerals, with a repeated description of these elements being omitted in individual cases. The figures represent the subject matter of the invention only schematically.

Das erfindungsgemäß vorgeschlagene Verfahren erlaubt mithilfe einer korrigierten Pose χk-1 eine neue Poseninformation χk|k-1 zu prognostizieren gemäß einem Prädiktionsschritt nach x k | k 1 = f ( x k 1 , u k 1 )

Figure DE102022208937A1_0012
und nach P k | k 1 = F k 1 P k 1 F k 1 T + B k 1 Q k 1 B k 1 T
Figure DE102022208937A1_0013
The method proposed according to the invention allows new pose information χ k|k- 1 to be predicted using a corrected pose χ k-1 according to a prediction step x k | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208937A1_0012
and after P k | k 1 = F k 1 P k 1 F k 1 T + b k 1 Q k 1 b k 1 T
Figure DE102022208937A1_0013

Innerhalb dieser Vorgehensweise werden in einem ersten Schritt aus der prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung eine aus mindestens drei (n) geschätzten LiDAR-Messwerten bestehende prognostizierte Reichweiteninformation h berechnet. Dies erfolgt anhand r i ( x ) = ( m i p ( x ) )

Figure DE102022208937A1_0014
sowie h i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r z 2
Figure DE102022208937A1_0015
Within this procedure, in a first step, a predicted range information h consisting of at least three (n) estimated LiDAR measurements is calculated from the predicted pose χ k|k-1 and a height map m i of the environment. This is done using r i ( x ) = ( m i p ( x ) )
Figure DE102022208937A1_0014
as well as H i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r e.g 2
Figure DE102022208937A1_0015

Die Reichweiteninformation h umfasst darüber hinaus eine mithilfe des LiDAR-Sensorsystems gemessene und mit ebenso vielen (n) korrespondierenden gemessenen LiDAR-Messwerten ausgestattete Reichweiteninformation z, wobei sowohl die prognostizierte Reichweiteninformation h als auch die gemessene Reichweiteninformation z den gleichen konstanten Winkelabstand Δφ aufweisen. Innerhalb des weiteren Vorgehens wird in einem zweiten Schritt mithilfe der prognostizierten Reichweiteninformation h und mithilfe der gemessenen Reichweiteninformation z eine Verschiebung yk zwischen den prognostizierten und gemessenen Reichweiteninformationen h, z berechnet. Dies erfolgt anhand der folgenden Gleichungen: X h z ( j ) = { i = 0 n j 1 Δ h i + j Δ z i j 0 H h z _ ( j ) j < 0

Figure DE102022208937A1_0016
y k = J Δ φ  mit  X h z ( J ) X h z ( j ) j
Figure DE102022208937A1_0017
x k = x k | k 1 + K k y k
Figure DE102022208937A1_0018
X h z ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ h i + j , u + v Δ z i , u j 0, v 0 X h z ( j , v ) j < 0, v < 0 X h z ( j , v ) j < 0, v 0 X h z ( j , v ) j 0, v < 0
Figure DE102022208937A1_0019
The range information h also includes range information z measured using the LiDAR sensor system and equipped with as many (n) corresponding measured LiDAR measurement values, whereby both the predicted range information h and the measured range information z have the same constant angular distance Δφ. As part of the further procedure, in a second step, a shift y k between the predicted and measured range information h, z is calculated using the predicted range information h and the measured range information z. This is done using the following equations: X H e.g ( j ) = { i = 0 n j 1 Δ H i + j Δ e.g i j 0 H H e.g _ ( j ) j < 0
Figure DE102022208937A1_0016
y k = J Δ φ with X H e.g ( J ) X H e.g ( j ) j
Figure DE102022208937A1_0017
x k = x k | k 1 + K k y k
Figure DE102022208937A1_0018
X H e.g ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ H i + j , u + v Δ e.g i , u j 0, v 0 X H e.g ( j , v ) j < 0, v < 0 X H e.g ( j , v ) j < 0, v 0 X H e.g ( j , v ) j 0, v < 0
Figure DE102022208937A1_0019

In einem abschließenden Schritt wird mithilfe der neuen prognostizierten Poseninformation χk|k-1 und der Verschiebung yk eine korrigierte Poseninformation χk berechnet, was anhand der Gleichungen K k = P x y , k P y y , k 1

Figure DE102022208937A1_0020
und x k = x k | k 1 + K k y k
Figure DE102022208937A1_0021
durchgeführt wird.In a final step, corrected pose information χ k is calculated using the new predicted pose information χ k|k-1 and the shift y k , which is based on the equations K k = P x y , k P y y , k 1
Figure DE102022208937A1_0020
and x k = x k | k 1 + K k y k
Figure DE102022208937A1_0021
is carried out.

Häufig kann die Position des LiDAR-Sensorsystems mit dem Global Positioning System (GPS) oder einem Tachymeter sehr genau bestimmt werden. Hingegen lässt sich die Ausrichtung des LiDAR-Sensorsystems nicht so genau bestimmen, sodass die ungewisse Ausrichtung innerhalb des Fahrzeugs beispielsweise den größten Fehler bei der Berechnung der Höhenkarte beiträgt. Aus diesem Grunde sollen mit dem erfindungsgemäß vorgeschlagenen Nickwinkelfehler- und Gierwinkelfehlerkompensationsverfahren dementsprechende Ausrichtungsfehler, die beispielsweise beim Sensoreinbau oder bei Beschädigungen an der Karosserie oder dergleichen auftreten, vermieden werden und das über das LiDAR-Sensorsystem aufgenommene Informationsspektrum nicht unerheblich verfälschen.The position of the LiDAR sensor system can often be determined very precisely using the Global Positioning System (GPS) or a tachymeter. On the other hand, the orientation of the LiDAR sensor system cannot be determined so precisely, so that the uncertain orientation within the vehicle, for example, contributes the largest error when calculating the height map. For this reason, the pitch angle error and yaw angle error compensation method proposed according to the invention is intended to avoid corresponding alignment errors that occur, for example, when installing the sensor or in the event of damage to the body or the like, and to not insignificantly falsify the spectrum of information recorded via the LiDAR sensor system.

Das LiDAR-Sensorsystem kann sehr viele Messwerte liefern, wobei einige Messwerte für die Korrektur besser geeignet sind, einige schlechter und andere Messwerte können überhaupt nicht verarbeitet werden. Zum Beispiel sind aufgenommene Messwerte in mittlerer Entfernung in zerklüfteter Umgebung mit großen Steigungsänderungen besser geeignet. Messwerte hingegen aus zu großer Entfernung erscheinen weniger geeignet, weil der Signal-Rausch-Abstand aufgrund der geringen Messintensität gegenüber dem Streulicht sehr groß sein kann. Auch Umgebungseinflüsse wie beispielsweise Sonnenlicht, Staub, Regen, Nebel und dergleichen haben auf größere Entfernung gesehen ein größeres Störpotential. LiDAR-Strahlen, die auf Teile des eigenen Fahrzeugs treffen, können hingegen überhaupt nicht ausgenutzt werden.The LiDAR sensor system can provide a wide range of measurements, with some measurements being better suited for correction, some being worse, and other measurements not being able to be processed at all. For example, recorded measurements at medium distances are more suitable in rugged environments with large changes in gradient. However, measured values from too great a distance appear less suitable because the signal-to-noise ratio can be very large due to the low measurement intensity compared to the scattered light. Environmental influences such as sunlight, dust, rain, fog and the like also have a greater potential for interference when viewed from a greater distance. However, LiDAR beams that hit parts of your own vehicle cannot be exploited at all.

Normalerweise würden Kalman-Filter-Zustände mit den Differenzen zwischen allen Messwerten und prognostizierten Messwerten korrigiert, was im Falle von LiDAR-Daten sehr rechenzeitintensiv wäre. Darum werden die Messwerte und die prognostizierten Messwerte zunächst per Kreuzkorrelationsfunktion miteinander verrechnet, danach lässt sich der Abstand des Maximums der Kreuzkorrelationsfunktion zum Zentrum bestimmen und abschließend lediglich dieser Abstand anstatt der Vielzahl der einzelnen Differenzen zur Korrektur heranziehen. Durch dieses Verfahren kann der erforderliche Rechenaufwand nicht unerheblich reduziert werden.Normally, Kalman filter states would be corrected with the differences between all measured values and predicted measured values, which would be very computationally time-intensive in the case of LiDAR data. Therefore The measured values and the predicted measured values are first compared with each other using the cross-correlation function, then the distance of the maximum of the cross-correlation function from the center can be determined and finally only this distance can be used for correction instead of the large number of individual differences. This procedure allows the required computing effort to be reduced significantly.

Anhand eines Kalman-Filters lässt sich das Verfahren wie nachfolgend beschrieben umsetzen. Es werden nunmehr die einzelnen für das erfindungsgemäß vorgeschlagene Verfahren durchzuführenden Rechenschritte, die in einer Recheneinheit durchlaufen werden, beschrieben, um die Gierwinkelfehler beziehungsweise Nickwinkelfehler des LiDAR-Sensorsystems in dessen Einbauposition im Fahrzeug entsprechend zu kompensieren.Using a Kalman filter, the method can be implemented as described below. The individual calculation steps to be carried out for the method proposed according to the invention, which are run through in a computing unit, will now be described in order to accordingly compensate for the yaw angle errors or pitch angle errors of the LiDAR sensor system in its installation position in the vehicle.

Für die Berechnung des LiDAR-Sensormodells hr,i werden n Prüfpunkte mi = [mx my mz]T durch die Auswahl aus dem Kartenmaterial bestimmt. Diese korrespondieren mit ebenso vielen n gemessenen Reichweiten zi dadurch, dass ein jeder der Prüfpunkte mi mutmaßlich durch eine Reichweitenmessung zi erfasst wird, weil der jeweilige Laserstrahl i mit den Polarwinkeln Φi = [ψi θi]T bezüglich des LiDAR-Koordinatensystems mit den Eulerwinkeln ϕ, θ und ip des LiDAR-Sensorsystems bezüglich des Weltkoordinatensystems auf diesen Prüfpunkt gerichtet ist. Der Prüfpunkt lässt sich auswählen, indem zunächst die Position des Laserstrahls als Funktion der Laserstrahlausbreitung li gemäß den nachfolgenden Beziehungen errechnet wird: w x , i = p x l i ( cos ψ i cos ψ cos θ cos θ i   cos θ i sin ψ i ( cos ϕ sin ψ   cos ψ sin ϕ sin θ ) sin θ l ( sin θ sin ψ + cos ϕ cos ψ sin θ ) )   w y , i = p y + l i ( sin θ l ( cos ψ sin ϕ cos ϕ sin ψ sin θ )   + cos θ i sin ψ i ( cos ϕ cos ψ + sin ϕ sin ψ sin θ )   + cos ψ i cos θ cos θ i sin ψ ) w z , i = p z + l i ( cos θ cos θ i sin ϕ sin ψ i cos ψ i cos θ i sin θ cos ϕ cos θ sin θ i )

Figure DE102022208937A1_0022
To calculate the LiDAR sensor model h r,i, n test points m i = [m x m y m z ] T are determined by selecting from the map material. These correspond to as many n measured ranges z i in that each of the test points m i is presumably detected by a range measurement z i because the respective laser beam i with the polar angles Φ i = [ψ i θ i ] T with respect to the LiDAR Coordinate system with the Euler angles ϕ, θ and ip of the LiDAR sensor system with respect to the world coordinate system is directed to this test point. The test point can be selected by first calculating the position of the laser beam as a function of the laser beam propagation l i according to the following relationships: w x , i = p x l i ( cos ψ i cos ψ cos θ cos θ i cos θ i sin ψ i ( cos ϕ sin ψ cos ψ sin ϕ sin θ ) sin θ l ( sin θ sin ψ + cos ϕ cos ψ sin θ ) ) w y , i = p y + l i ( sin θ l ( cos ψ sin ϕ cos ϕ sin ψ sin θ ) + cos θ i sin ψ i ( cos ϕ cos ψ + sin ϕ sin ψ sin θ ) + cos ψ i cos θ cos θ i sin ψ ) w e.g , i = p e.g + l i ( cos θ cos θ i sin ϕ sin ψ i cos ψ i cos θ i sin θ cos ϕ cos θ sin θ i )
Figure DE102022208937A1_0022

Der gesuchte Prüfpunkt mi = [wx,i wy,i wz,i]T ist der Punkt auf der Oberflächenkarte als Funktion mi,z von wx,i und wy,i mit dem kleinsten Abstand zum LiDAR-Sensorsystem, für den gilt: w z , i m i , z ( w x , i , w y , i )

Figure DE102022208937A1_0023
Mit einem jeden Prüfpunkt mi wird die eine prognostizierte Reichweite ri = [rx ry rz]T in LiDAR-Koordinaten ausgedrückt und aus den Koordinaten des Prüfpunkts mi in Weltkoordinaten und den Koordinaten des LiDAR-Sensors beziehungsweise LiDAR-Sensorsystems p = [px py pz]T in Weltkoordinaten gemäß r i ( x ) = ( m i p ( x ) )
Figure DE102022208937A1_0024
berechnet.The desired test point m i = [w x,i w y,i w z,i ] T is the point on the surface map as a function m i,z of w x,i and w y,i with the smallest distance to the LiDAR Sensor system for which the following applies: w e.g , i m i , e.g ( w x , i , w y , i )
Figure DE102022208937A1_0023
With each test point m i, the predicted range r i = [r x r y r z ] T is expressed in LiDAR coordinates and from the coordinates of the test point m i in world coordinates and the coordinates of the LiDAR sensor or LiDAR sensor system p = [p x p y p z ] T in world coordinates according to r i ( x ) = ( m i p ( x ) )
Figure DE102022208937A1_0024
calculated.

Dabei können die Koordinaten px, py und pz des LiDAR-Sensorsystems Teil des Zustandsvektors χk|k-1 = [px py pz ϕ θ ψ]T des Kalman-Filters sein.The coordinates p x , p y and p z of the LiDAR sensor system can be part of the state vector χ k|k-1 = [p x p y p z ϕ θ ψ] T of the Kalman filter.

Die prognostizierte Reichweiteninformation hi(r) des Laserstrahls mit dem Index i zu dem Prüfpunkt mi berechnet sich aus den Reichweiten ri(x) = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten gemäß der euklidischen Formel zu h i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r z 2

Figure DE102022208937A1_0025
The predicted range information h i (r) of the laser beam with the index i to the test point m i is calculated from the ranges r i (x) = [r x r y r z ] T of the test point in LiDAR coordinates according to the Euclidean formula H i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r e.g 2
Figure DE102022208937A1_0025

Für einen einzigen Zeitschritt k wird die Anzahl n unterschiedlicher Prüfpunkte herangezogen, um die prognostizierten Reichweiteninformationen hi(r) zu einem Vektor h = [h1 ... hn]T zusammenzufassen und um die korrespondierenden gemessenen Reichweiteninformationen zi zu einem Vektor z = [z1 ... zn]T zusammenzufassen. Die diskrete Kreuzkorrelationsfunktion Xhz(j) aus dem diskret differenzierten Messvektor der LiDAR-Sensormodelle mit Δh = diff(h) mit h = [h1 ... hn]T und dem diskret differenzierten Messvektor der realen Messwerte Δz = diff(z) führt auf: X h z ( j ) = { i = 0 n j 1 Δ h i + j Δ z i j 0 X h z _ ( j ) j < 0

Figure DE102022208937A1_0026
For a single time step k, the number n of different test points is used to combine the predicted range information h i (r) into a vector h = [h 1 ... h n ] T and to combine the corresponding measured range information z i into a vector z = [z 1 ... z n ] T to summarize. The discrete cross -correlation function ) lists: X H e.g ( j ) = { i = 0 n j 1 Δ H i + j Δ e.g i j 0 X H e.g _ ( j ) j < 0
Figure DE102022208937A1_0026

Dabei bezeichnet der Index j um wie viele Stellen der Messvektor der LiDAR-Sensormodelle hr,i und der Messvektor der realen Messwerte zr,i gegeneinander verschoben sind.The index j denotes by how many places the measurement vector of the LiDAR sensor models h r,i and the measurement vector of the real measured values z r,i are shifted relative to one another.

In Bezug auf 1 ist festzuhalten, dass in dieser Figur die Kreuzkorrelationsfunktion Xhz(j) dargestellt ist. Aus 1 geht hervor, dass das Maximum j bei -3 liegt. 2 zeigt ein Koordinatensystem mit den Eulerwinkeln ϕ, θ und ψ und die Raumrichtungen x, y und z.In relation to 1 It should be noted that the cross-correlation function X hz (j) is shown in this figure. Out of 1 It turns out that the maximum j is at -3. 2 shows a coordinate system with the Euler angles ϕ, θ and ψ and the spatial directions x, y and z.

Mit dem Index j, bei dem die Kreuzkorrelationsfunktion Xhz(j) maximal ist, wird die Differenz yk zwischen der Messung z und der prognostizierten Messung h wie folgt aus der konstanten Winkeldifferenz Δϕ berechnet: y k = J Δ φ  mit  X h z ( J ) X h z ( j ) j

Figure DE102022208937A1_0027
With the index j, at which the cross-correlation function X hz (j) is maximum, the difference y k between the measurement z and the predicted measurement h is calculated from the constant angular difference Δϕ as follows: y k = J Δ φ with X H e.g ( J ) X H e.g ( j ) j
Figure DE102022208937A1_0027

Der Korrekturschritt gemäß der Berechnung nach x k = x k | k 1 + K k ( z k h k ( x k | k 1 ) )

Figure DE102022208937A1_0028
kann mithilfe des Residuums yk ersatzweise zu x k = x k | k 1 + K k y k
Figure DE102022208937A1_0029
bestimmt werden, wobei der Kalman-Gain Kk zuvor gemäß dem Sigma-Point-Kalman-Filter-Verfahren gemäß der Gleichung K k = P x y , k P y y , k 1
Figure DE102022208937A1_0030
aus einer propagierten Kovarianzmatrix Pyy,k und einer Kreuzkorrelationsmatrix Pxy,k abgeleitet werden kann.The correction step according to the calculation x k = x k | k 1 + K k ( e.g k H k ( x k | k 1 ) )
Figure DE102022208937A1_0028
can be substituted using the residual y k x k = x k | k 1 + K k y k
Figure DE102022208937A1_0029
are determined, where the Kalman gain K k is previously determined according to the sigma point Kalman filter method according to the equation K k = P x y , k P y y , k 1
Figure DE102022208937A1_0030
can be derived from a propagated covariance matrix P yy,k and a cross-correlation matrix P xy,k .

Gemäß diesem Verfahren können sowohl Gierwinkelfehler als auch Nickwinkelfehler zwischen einer Inertialsensorik und dem LiDAR-Sensorsystem kompensiert werden. Die vorgeschlagene Fehlerkompensation von Gier- und Nickwinkelfehlern kann unabhängig voneinander beziehungsweise nacheinander durchgeführt werden. Es ist jedoch besonders vorteilhaft, beide Fehler, d. h. den Gierwinkelfehler und auch den Nickwinkelfehler, gleichzeitig zu kompensieren. Dies erfolgt mithilfe von n horizontalen x s vertikalen Messwerten z und ebenso vielen prognostizierten Werten h gemäß denen die zweidimensionale Kreuzkorrelation nach X h z ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ h i + j , u + v Δ z i , u j 0, v 0 X h z ( j , v ) j < 0, v < 0 X h z ( j , v ) j < 0, v 0 X h z ( j , v ) j 0, v < 0

Figure DE102022208937A1_0031
berechnet wird, wobei Δh = sobel(h) und Δz = sobel(z) zuvor beispielsweise mithilfe des Sobel-, Prewitt- oder Scharroperatorkernels gefaltet werden und mithilfe der Faltungen in ein mittelwertfreies zweidimensionales Bild umgewandelt werden.According to this method, both yaw angle errors and pitch angle errors can be compensated between an inertial sensor system and the LiDAR sensor system. The proposed error compensation of yaw and pitch angle errors can be carried out independently or one after the other. However, it is particularly advantageous to simultaneously compensate for both errors, ie the yaw angle error and also the pitch angle error. This is done using n horizontal xs vertical measured values z and as many predicted values h according to which the two-dimensional cross-correlation is based on X H e.g ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ H i + j , u + v Δ e.g i , u j 0, v 0 X H e.g ( j , v ) j < 0, v < 0 X H e.g ( j , v ) j < 0, v 0 X H e.g ( j , v ) j 0, v < 0
Figure DE102022208937A1_0031
is calculated, where Δh = sobel(h) and Δz = sobel(z) are previously convolved using, for example, the Sobel, Prewitt or Scharroperator kernel and are converted into a mean-free two-dimensional image using the convolutions.

Die Verschiebung yk in horizontale sowie in vertikale Richtung kann als Vektor gemäß y k ( J Δ φ V Δ θ )  mit  X h z ( J , V ) X h z ( j , v ) j , v

Figure DE102022208937A1_0032
ausgedrückt werden, wobei aus dem Index j und dem zugehörigen horizontalen Winkel Δφ und dem Index v vertikale Winkel Δθ berechnet werden.The displacement y k in the horizontal and vertical directions can be expressed as a vector y k ( J Δ φ v Δ θ ) with X H e.g ( J , v ) X H e.g ( j , v ) j , v
Figure DE102022208937A1_0032
can be expressed, whereby vertical angles Δθ are calculated from the index j and the associated horizontal angle Δφ and the index v.

Alternativ zu einem LiDAR-Sensor beziehungsweise einem LiDAR-Sensorsystem kann auch eine Tiefenkamera, beispielsweise eine Stereo-Kamera oder eine Time-of-Flight(ToF)-Kamera, zum Einsatz kommen. Alternativ zur beschriebenen Rechnung, die anhand der Eulerwinkel durchgeführt wird, könnten auch Quaternionen für die Berechnung eingesetzt werden.As an alternative to a LiDAR sensor or a LiDAR sensor system, a depth camera, for example a stereo camera or a time-of-flight (ToF) camera, can also be used. As an alternative to the calculation described, which is carried out using the Euler angles, quaternions could also be used for the calculation.

Das erfindungsgemäß vorgeschlagene Verfahren zur Kompensation von Gierwinkelfehlern und Nickwinkelfehlern kann in autonomen und teilautonomen Fahrzeugen und beispielsweise in der Fliegerei eingesetzt werden. Es lässt sich eine Vielzahl von Applikationen vorstellen, die eine LiDAR-basierte Umgebungserfassung auf einer mobilen Plattform durchführt.The method proposed according to the invention for compensating for yaw angle errors and pitch angle errors can be used in autonomous and semi-autonomous vehicles and, for example, in aviation. A variety of applications can be imagined that carry out LiDAR-based environmental detection on a mobile platform.

Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.The invention is not limited to the exemplary embodiments described here and the aspects highlighted therein. Rather, within the range specified by the claims, a large number of modifications are possible, which are within the scope of professional action.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 20150045059 [0002]US 20150045059 [0002]
  • US 20130041549 A1 [0003]US 20130041549 A1 [0003]

Claims (14)

Verfahren zur Nickwinkelfehler- und Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem mit nachfolgenden Verfahrensschritten: a) Mittels einer korrigierten Pose χk-1 wird eine neue Pose χk|k-1 prognostiziert, wobei aus der prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung eine mindestens drei (n) geschätzte LiDAR-Messwerte umfassende prognostizierte Reichweiteninformation h berechnet, b) es wird eine mithilfe des LiDAR-Sensorsystems gemessenen Werten und mit n korrespondierenden gemessenen LiDAR-Messwerten verknüpfte Reichweiteninformation z gebildet, wobei sowohl die prognostizierte Reichweiteninformation h als auch eine gemessene Reichweiteninformation z einen gleichen konstanten Winkelabstand aus Δφ aufweisen; c) aus der prognostizierten Reichweiteninformation h und der gemessenen Reichweiteninformation z wird eine Verschiebung yk zwischen diesen ermittelt; d) aus der neu prognostizierten Pose χk|k-1 und der Verschiebung yk wird eine korrigierte Pose χk berechnet.Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system with the following process steps: a) Using a corrected pose χ k-1, a new pose χ k|k-1 is predicted, with the predicted pose χ k|k- 1 and a height map m i of the environment, a forecast range information h comprising at least three (n) estimated LiDAR measurement values is calculated, b) a range information z is formed using measured values using the LiDAR sensor system and linked to n corresponding measured LiDAR measurement values, where both the predicted range information h and a measured range information z have the same constant angular distance from Δφ; c) a shift y k between them is determined from the predicted range information h and the measured range information z; d) a corrected pose χ k is calculated from the newly predicted pose χ k|k-1 and the displacement y k . Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass gemäß Verfahrensschritt a) in einem Prädiktionsschritt mit einer korrigierten Pose χk-1 eine neue Pose χk|k-1 prognostiziert wird gemäß x k | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208937A1_0033
und P k | k 1 = F k 1 P k 1 F k 1 T _ B k 1 Q k 1 B k 1 T
Figure DE102022208937A1_0034
Procedure according to Claim 1 , characterized in that according to method step a) in a prediction step with a corrected pose χ k-1, a new pose χ k | k-1 is predicted according to x k | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208937A1_0033
and P k | k 1 = F k 1 P k 1 F k 1 T _ b k 1 Q k 1 b k 1 T
Figure DE102022208937A1_0034
Verfahren gemäß den Ansprüchen 1 bis 2, dadurch gekennzeichnet, dass gemäß Verfahrensschritt b) mit jedem Prüfpunkt mi eine prognostizierte Reichweite ri = [rx ry rz]T in LiDAR-Koordinaten aus den Koordinaten des Prüfpunkts mi in Weltkoordinaten und den Koordinaten des LiDARs p = [px py pz]T in Weltkoordinaten gemäß r i ( x ) = ( m i p ( x ) )
Figure DE102022208937A1_0035
berechnet wird.
Procedure in accordance with Claims 1 until 2 , characterized in that according to method step b) with each test point m i a predicted range r i = [r x r y r z ] T in LiDAR coordinates from the coordinates of the test point m i in world coordinates and the coordinates of the LiDAR p = [ p x p y p z ] T in world coordinates according to r i ( x ) = ( m i p ( x ) )
Figure DE102022208937A1_0035
is calculated.
Verfahren gemäß den Ansprüchen 1 bis 2, dadurch gekennzeichnet, dass gemäß Verfahrensschritt b) eine prognostizierte Reichweiteninformation hi(r) des Laserstrahls mit Index i zu dem Prüfpunkt mi berechnet wird aus den Reichweiten ri(χ) = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten gemäß h i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r z 2
Figure DE102022208937A1_0036
Procedure in accordance with Claims 1 until 2 , characterized in that , according to method step b), a predicted range information h i (r) of the laser beam with index i to the test point m i is calculated from the ranges r i (χ) = [r x r y r z ] T of the test point in LiDAR coordinates according to H i ( r ) = | r i ( x ) | = r x 2 + r y 2 + r e.g 2
Figure DE102022208937A1_0036
Verfahren gemäß den Ansprüchen 1 bis 4, dadurch gekennzeichnet, dass für einen Zeitschritt k eine Anzahl n unterschiedlicher Prüfpunkte herangezogen wird und die prognostizierte Reichweiteninformation hi(r) zu einem Vektor h = [h1 ... hn]T und die korrespondierenden gemessenen Reichweiteninformationen zi zu einem Vektor z = [z1 ... zn]T zusammengefasst werden.Procedure in accordance with Claims 1 until 4 , characterized in that a number n of different test points is used for a time step k and the predicted range information h i (r) becomes a vector h = [h 1 ... h n ] T and the corresponding measured range information z i forms a vector z = [z 1 ... z n ] T can be summarized. Verfahren gemäß den Ansprüchen 1 bis 5, dadurch gekennzeichnet, dass eine Kreuzkorrelationsfunktion Xhz(j) aus einem diskret differenzierten Messvektor der LiDAR-Sensormodelle Δh = diff(h) mit h = [h1 ... hn]T und einem diskret differenzierten Messvektor der realen Messwerte Δz = diff(z) berechnet wird, gemäß X h z = { i = 0 n j 1 Δ h i + j Δ z i j 0 X h z _ ( j ) j < 0
Figure DE102022208937A1_0037
mit j ≙ Anzahl der Stellen, um die der Messvektor der LiDAR-Sensormodelle hr,i und der Messvektor der realen Messwerte zr,i gegeneinander verschoben sind.
Procedure in accordance with Claims 1 until 5 , characterized in that a cross - correlation function diff(z) is calculated according to X H e.g = { i = 0 n j 1 Δ H i + j Δ e.g i j 0 X H e.g _ ( j ) j < 0
Figure DE102022208937A1_0037
with j ≙ number of places by which the measurement vector of the LiDAR sensor models h r,i and the measurement vector of the real measured values z r,i are shifted relative to one another.
Verfahren gemäß den Ansprüchen 1 bis 6, dadurch gekennzeichnet, dass für den Index j, bei dem Xhz(j) = max, die Differenz von yk zwischen der Messung und der prognostizierten Messung h aus einer konstanten Winkeldifferenz Δφ berechnet wird, nach
Figure DE102022208937A1_0038
Procedure in accordance with Claims 1 until 6 , characterized in that for the index j, at which X hz (j) = max, the difference of y k between the measurement and the predicted measurement h is calculated from a constant angle difference Δφ, according to
Figure DE102022208937A1_0038
Verfahren gemäß den Ansprüchen 1 bis 7, dadurch gekennzeichnet, dass ein Korrekturschritt gemäß x k = x k | k 1 + K k ( z k h k ( x k | k 1 ) )
Figure DE102022208937A1_0039
x k = x k | k 1 + K k y k
Figure DE102022208937A1_0040
(8).
Procedure in accordance with Claims 1 until 7 , characterized in that a correction step according to x k = x k | k 1 + K k ( e.g k H k ( x k | k 1 ) )
Figure DE102022208937A1_0039
x k = x k | k 1 + K k y k
Figure DE102022208937A1_0040
(8th).
Verfahren gemäß Anspruch 8, dadurch gekennzeichnet, dass ein Kalman-Gain gemäß K k = P x y , k P y y , k 1
Figure DE102022208937A1_0041
aus einer propagierten Kovarianzmatrix Pyy,k und einer kreuzkorrelierten Matrix Pxy,k gebildet wird.
Procedure according to Claim 8 , characterized in that a Kalman gain according to K k = P x y , k P y y , k 1
Figure DE102022208937A1_0041
is formed from a propagated covariance matrix P yy,k and a cross-correlated matrix P xy,k .
Verfahren gemäß den Ansprüchen 1 bis 9, dadurch gekennzeichnet, dass eine Fehlerkompensation von Gierwinkelfehlern und/oder Nickwinkelfehlern unabhängig voneinander oder nacheinander durchgeführt werden.Procedure in accordance with Claims 1 until 9 , characterized in that error compensation of yaw angle errors and/or pitch angle errors are carried out independently of one another or one after the other. Verfahren gemäß den Ansprüchen 1 bis 9, dadurch gekennzeichnet, dass eine gleichzeitige Gierwinkel- und Nickwinkelfehlerkompensation dergestalt durchgeführt wird, dass n horizontale x s vertikale Messwerte z und ebenso viele propagierte Werte h gemäß X h z ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ h i + j , u + v Δ z i , u j 0, v 0 X h z ( j , v ) j < 0, v < 0 X h z ( j , v ) j < 0, v 0 X h z ( j , v ) j 0, v < 0
Figure DE102022208937A1_0042
berechnet werden, mit Δh = sobel(h), Δz = sobel(z) oder mittels Sobel-, Prewitt- oder Scharroperatorkernel gefaltet werden.
Procedure in accordance with Claims 1 until 9 , characterized in that a simultaneous yaw angle and pitch angle error compensation is carried out in such a way that n horizontal xs vertical measured values z and as many propagated values h according to X H e.g ( j , v ) = { u = 0 s v 1 i = 0 n j 1 Δ H i + j , u + v Δ e.g i , u j 0, v 0 X H e.g ( j , v ) j < 0, v < 0 X H e.g ( j , v ) j < 0, v 0 X H e.g ( j , v ) j 0, v < 0
Figure DE102022208937A1_0042
can be calculated with Δh = sobel(h), Δz = sobel(z) or folded using Sobel, Prewitt or Scharroperator kernels.
Verfahren gemäß den Ansprüchen 1 bis 11, dadurch gekennzeichnet, dass eine Verschiebung yk in horizontale oder vertikale Richtung gemäß y k = ( J Δ φ V Δ θ )  mit  H h z ( J , V ) X h z ( j , v ) j , v
Figure DE102022208937A1_0043
berechnet wird, wobei j mit dem zugehörigen horizontalen Winkel Δφ und v mit dem vertikalen Winkel Δθ berechnet werden.
Procedure in accordance with Claims 1 until 11 , characterized in that a displacement y k in the horizontal or vertical direction according to y k = ( J Δ φ v Δ θ ) with H H e.g ( J , v ) X H e.g ( j , v ) j , v
Figure DE102022208937A1_0043
is calculated, where j is calculated with the associated horizontal angle Δφ and v with the vertical angle Δθ.
Verfahren gemäß den Ansprüchen 1 bis 12, dadurch gekennzeichnet, dass anstelle eines LiDAR-Sensorsystems eine Tiefenkamera, insbesondere eine Stereo-Kamera oder eine Time-of-Flight(ToF)-Kamera, eingesetzt wird.Procedure in accordance with Claims 1 until 12 , characterized in that instead of a LiDAR sensor system, a depth camera, in particular a stereo camera or a time-of-flight (ToF) camera, is used. Verfahren gemäß den Ansprüchen 1 bis 12, dadurch gekennzeichnet, dass anstelle einer Berechnung mit Eulerwinkeln diese mit Quaternionen durchgeführt wird.Procedure in accordance with Claims 1 until 12 , characterized in that instead of a calculation with Euler angles, this is carried out with quaternions.
DE102022208937.5A 2022-08-29 2022-08-29 Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system Pending DE102022208937A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022208937.5A DE102022208937A1 (en) 2022-08-29 2022-08-29 Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022208937.5A DE102022208937A1 (en) 2022-08-29 2022-08-29 Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system

Publications (1)

Publication Number Publication Date
DE102022208937A1 true DE102022208937A1 (en) 2024-02-29

Family

ID=89844747

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208937.5A Pending DE102022208937A1 (en) 2022-08-29 2022-08-29 Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system

Country Status (1)

Country Link
DE (1) DE102022208937A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2273334A1 (en) 2009-06-22 2011-01-12 BAE Systems PLC Terrain sensing
US20130041549A1 (en) 2007-01-05 2013-02-14 David R. Reeve Optical tracking vehicle control system and method
US20150045059A1 (en) 2012-12-28 2015-02-12 Trimble Navigation Limited Performing data collection based on external raw observables using a mobile data collection platform
US20160005164A1 (en) 2013-02-21 2016-01-07 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130041549A1 (en) 2007-01-05 2013-02-14 David R. Reeve Optical tracking vehicle control system and method
EP2273334A1 (en) 2009-06-22 2011-01-12 BAE Systems PLC Terrain sensing
US20150045059A1 (en) 2012-12-28 2015-02-12 Trimble Navigation Limited Performing data collection based on external raw observables using a mobile data collection platform
US20160005164A1 (en) 2013-02-21 2016-01-07 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system

Similar Documents

Publication Publication Date Title
DE102017116088B4 (en) Device and method for estimating a position of a vehicle
DE102009030672B3 (en) Method for determining the geographic coordinates of pixels in SAR images
DE102015214338A1 (en) Determining an arrangement information for a vehicle
DE112018003986T5 (en) CONTROL DEVICE, CONTROL PROCEDURE, PROGRAM AND MOBILE UNIT
DE102016003261A1 (en) Method for self-localization of a vehicle in a vehicle environment
DE102020105619A1 (en) SYSTEM AND PROCEDURE FOR DETERMINING VEHICLE POSITION
DE102015003666A1 (en) Method for processing acquired measured data of a sensor
DE102020128819A1 (en) SELF-CORRECTING VEHICLE LOCATION
DE102020215504A1 (en) Method and device for detecting objects in the surroundings of a vehicle
DE102021110449A1 (en) Method and system for navigating a mobile platform in an environment
DE112022002791T5 (en) PARTICLE FILTER TRACKING SYSTEMS AND METHODS
DE102022108712A1 (en) Joint estimation and correction of an alignment error of a LIDAR centerline and a localization error of a host vehicle
EP2749982B1 (en) Generation and updating of reference models
DE102019203274B3 (en) Computer-implemented method for creating an environment model for an automated vehicle, control unit and computer program product for automated control of a vehicle and control system for a vehicle
DE102018001533B4 (en) Real-time method for dynamic coordinate and parameter estimation with grid-based non-linear probabilistic filters
DE102016223526A1 (en) Method and device for determining a first highly accurate position of a vehicle
DE102011111342B3 (en) Method for determining the position of moving objects
DE102017204297A1 (en) Method for position determination and radar system
DE102022208937A1 (en) Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system
DE102019217160A1 (en) Computer-implemented method for creating a map of the area for the operation of a mobile agent
DE102005029217B3 (en) Method for determining a navigation solution of a navigation system with a terrain navigation module and navigation system
DE102020201000B3 (en) Computer-implemented method and system for obtaining an environment model and control device for an automated vehicle
DE102021202641A1 (en) Method for determining a state of motion of a rigid body
DE102021120966A1 (en) SENSOR FUSION
DE102020116027A1 (en) Method and device for determining occupancy information for an environmental point on the basis of radar detections

Legal Events

Date Code Title Description
R163 Identified publications notified