DE102022208972A1 - Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system - Google Patents

Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system Download PDF

Info

Publication number
DE102022208972A1
DE102022208972A1 DE102022208972.3A DE102022208972A DE102022208972A1 DE 102022208972 A1 DE102022208972 A1 DE 102022208972A1 DE 102022208972 A DE102022208972 A DE 102022208972A DE 102022208972 A1 DE102022208972 A1 DE 102022208972A1
Authority
DE
Germany
Prior art keywords
sin
cos
lidar
procedure
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208972.3A
Other languages
German (de)
Inventor
Simon Weissenmayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022208972.3A priority Critical patent/DE102022208972A1/en
Publication of DE102022208972A1 publication Critical patent/DE102022208972A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/11Pitch movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/112Roll movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Verfahren zur Roll- und Nickfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem (20) mit zumindest nachfolgenden Verfahrensschritten:a) Mithilfe einer korrigierten Pose χkwird eine neue Poseninformation χk|k-1prognostiziert,b) aus der gemäß a) prognostizierten Pose χk|k-1und einer Höhenkarte mider Umgebung werden LiDAR-Messwerte hr,igeschätzt,c) mithilfe der Differenz der gemäß b) geschätzten LiDAR-Messwerte hr,iund gemessenen oder interpolierten LiDAR-Messwerte zr,iwird die prognostizierte Pose χk|k-1gemäß Verfahrensschritt a) korrigiert.Method for rolling and pitching error compensation in a terrain height measurement with a LiDAR sensor system (20) with at least the following method steps: a) With the help of a corrected pose χk, new pose information χk|k-1 is predicted, b) from the pose χk|k predicted according to a). -1 and a height map of the surroundings, LiDAR measured values hr,i are estimated, c) using the difference between the LiDAR measured values hr,i estimated according to b) and measured or interpolated LiDAR measured values zr,i, the predicted pose χk|k-1 is determined according to method step a) corrected.

Description

Technisches GebietTechnical area

Die Erfindung bezieht sich auf ein Verfahren zur Rollwinkel- und Nickwinkelfehlerkompensation bei einer Geländehöhenmessung mittels eines LiDAR-Sensorsystems.The invention relates to a method for roll angle and pitch angle error compensation in a terrain height measurement using a LiDAR sensor system.

Stand der TechnikState of the art

US 2013/0041549 A1 bezieht sich auf ein Fahrzeugsteuerungssystem mit einem Controller und einer Datenbank mit räumlichen Daten, durch welche räumliche Daten dem Controller zur Verfügung gestellt werden können. Die räumlichen Daten, die von der Datenbank an den Controller übermittelt werden, können Bilder enthalten, die von einem optischen Sensor-Subsystem aufgenommen wurden, zusätzlich zu anderen Daten, die durch eine Vielzahl von anderen Sensortypen, beispielsweise eines GNSS- oder eines Trägheitsmesssystems herrühren können. Die räumlichen Daten, die vom Controller erhalten werden, stellen zumindest einen Teil des Inputs dar, den der Controller zur Steuerung des Fahrzeugs erhält. Durch die Lösung gemäß US 2013/0041549 A1 können dem Fahrzeugsteuerungssystem Formationen vorgeführt werden, die es ermöglichen, das Fahrzeug unabhängig von den Raumdaten zu führen. Das Fahrzeugsteuerungssystem umfasst einen Aufgaben-Pfad-Generator, eine Datenbank, in der Raumdaten abgelegt und zur Verfügung gestellt werden, und zumindest einen externen Raumdatenempfänger sowie ein Kompensationsmodul, einen Positionsfehlergenerator sowie diverse Aktoren zur Steuerung des Fahrzeugs. US 2013/0041549 A1 refers to a vehicle control system with a controller and a database with spatial data through which spatial data can be made available to the controller. The spatial data transmitted from the database to the controller may include images captured by an optical sensor subsystem, in addition to other data that may come from a variety of other sensor types, such as a GNSS or an inertial measurement system . The spatial data received from the controller represents at least part of the input that the controller receives to control the vehicle. Through the solution according to US 2013/0041549 A1 Formations can be presented to the vehicle control system, allowing the vehicle to be guided independently of the spatial data. The vehicle control system includes a task path generator, a database in which spatial data is stored and made available, and at least one external spatial data receiver as well as a compensation module, a position error generator and various actuators for controlling the vehicle.

US 2014/0270744 A bezieht sich auf ein aktives Stabilisationssystem und ein Verfahren zur Korrektur einer Blickrichtung einer Kamera zur Kompensation von translatorischen Bewegungen der Kamera. Das System stabilisiert die Blickrichtung einer Kamera in Übereinstimmung mit einem geforderten Blickwinkel. Ein Abstand von der Kamera zu einem Ziel wird bestimmt, ferner werden eine oder mehrere translatorische Messungen in Zusammenhang mit einer translatorischen Bewegung der Kamera abgeleitet. Es wird ein Korrekturupdate berechnet als Funktion zumindest des Abstands und der einen oder mehreren translatorischen Bewegungen. Der Blickwinkel der Kamera wird basierend auf einem Korrekturupdate adjustiert, um das zu filmende Objekt innerhalb des Blickfelds der Kamera zu halten. US 2014/0270744 A refers to an active stabilization system and a method for correcting a viewing direction of a camera to compensate for translational movements of the camera. The system stabilizes the viewing direction of a camera in accordance with a required viewing angle. A distance from the camera to a target is determined, and one or more translational measurements are derived in connection with a translational movement of the camera. A correction update is calculated as a function of at least the distance and the one or more translational movements. The camera's angle of view is adjusted based on a correction update to keep the object being filmed within the camera's field of view.

Zur Messung des Höhenprofils, insbesondere der Umgebung eines Fahrzeugs, ist eine genaue Erfassung desselben erforderlich. Mithilfe beispielsweise eines LiDAR-Messsystems werden zum Beispiel Neigungsmodellwerte eines Kalman-Filters korrigiert. Eine extrinsische Kalibrierung zwischen dem LiDAR-Messsystem und einer Inertialsensorik erfolgt im laufenden Betrieb im Wesentlichen auf kontinuierliche Art und Weise. Dadurch werden Zeit und Kosten für eine initiale und für regelmäßige Kalibrierungen eingespart.In order to measure the height profile, in particular the surroundings of a vehicle, an accurate recording of the same is required. With the help of a LiDAR measuring system, for example, inclination model values of a Kalman filter are corrected. An extrinsic calibration between the LiDAR measuring system and an inertial sensor system takes place essentially in a continuous manner during ongoing operation. This saves time and costs for initial and regular calibrations.

Darstellung der ErfindungPresentation of the invention

Die Erfindung offenbart ein Verfahren zur Rollwinkel - und Nickwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem mit zumindest nachfolgenden Verfahrensschritten:

  1. a) Mithilfe einer korrigierten Pose χk wird eine neue Poseninformation χk|k-1 prognostiziert,
  2. b) aus der gemäß a) prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung werden LiDAR-Messwerte hr,i geschätzt,
  3. c) mithilfe der Differenz der gemäß b) geschätzten LiDAR-Messwerte hr,i und gemessenen oder interpolierten LiDAR-Messwerte zr,i wird die prognostizierte Pose χk|k-1 gemäß Verfahrensschritt a) korrigiert.
The invention discloses a method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system with at least the following method steps:
  1. a) Using a corrected pose χ k, new pose information χ k|k-1 is predicted,
  2. b) LiDAR measurement values h r ,i are estimated from the pose χ k|k-1 predicted according to a) and a height map m i of the environment,
  3. c) using the difference between the LiDAR measurement values h r,i estimated according to b) and the measured or interpolated LiDAR measurement values z r,i, the predicted pose χ k|k-1 is corrected according to method step a).

Durch das erfindungsgemäße Verfahren kann in vorteilhafter Weise erreicht werden, dass eine preisgünstigere Sensorik eingesetzt werden kann, die größere Toleranzen aufweist, die durch das erfindungsgemäße Verfahren kompensiert werden können.The method according to the invention can advantageously achieve that a cheaper sensor system can be used which has larger tolerances, which can be compensated for by the method according to the invention.

In vorteilhafter Weiterbildung des erfindungsgemäß vorgeschlagenen Verfahrens wird gemäß Verfahrensschritt a) ein Prädiktionsschritt durchlaufen mit x k | k 1 = f ( x k 1 , u k 1 )

Figure DE102022208972A1_0001
und mit P k | k 1 = F k 1 P k 1 F k 1 T + B k 1 Q k 1 B k 1 T
Figure DE102022208972A1_0002
wobei mit einer korrespondierenden Kovarianz Pk eine korrespondierende neue Kovarianz Pk|k-1 prognostiziert wird.In an advantageous development of the method proposed according to the invention, a prediction step is carried out according to method step a). x k | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208972A1_0001
and with P k | k 1 = F k 1 P k 1 F k 1 T + b k 1 Q k 1 b k 1 T
Figure DE102022208972A1_0002
whereby a corresponding new covariance P k|k-1 is predicted with a corresponding covariance P k .

In vorteilhafter Ausgestaltung des Verfahrens wird gemäß Verfahrensschritt b) für die Berechnung eines LiDAR-Sensormodells hr,i und eine Auswahl von LiDAR-Strahlen, welche auf einen Prüfpunkt auf einer ausgewählten horizontalen, ebenen Fläche in möglichst großer Entfernung gerichtet sind, eine Drehmatrix gemäß T E V = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )

Figure DE102022208972A1_0003
mit Rollwinkel ϕ, Nickwinkel θ und Gierwinkel ip des LiDAR-Sensorsystems bezüglich eines Weltkoordinatensystems sowie Abständen rx, ry und rz des Prüfpunkts in LiDAR-Koordinaten aus den Koordinaten des Prüfpunkts mi = [mx my mz]T in Weltkoordinaten und in den Koordinaten des LiDARs pi = [px py pz]T in Weltkoordinaten berechnet. Die Abstände rx, ry und rz ergeben sich aus (4) gemäß: ( r x r y r z ) = r ( x ) = T E V ( ( m x m y m z ) ( p x p y p z ) )
Figure DE102022208972A1_0004
In an advantageous embodiment of the method, according to method step b), a rotation matrix is used for the calculation of a LiDAR sensor model h r,i and a selection of LiDAR beams which are directed at a test point on a selected horizontal, flat surface at the greatest possible distance T E v = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )
Figure DE102022208972A1_0003
with roll angle ϕ, pitch angle θ and yaw angle ip of the LiDAR sensor system with respect to a world coordinate system as well as distances r x , r y and r z of the test point in LiDAR coordinates from the coordinates of the test point m i = [m x m y m z ] T in World coordinates and in the coordinates of the LiDAR p i = [p x p y p z ] T in world coordinates. The distances r x , ry and r z result from (4) according to: ( r x r y r e.g ) = r ( x ) = T E v ( ( m x m y m e.g ) ( p x p y p e.g ) )
Figure DE102022208972A1_0004

In weiterer Ausgestaltung des erfindungsgemäßen Verfahrens wird gemäß Verfahrensschritt b) das LiDAR-Sensormodell hr,i(χ) eines Laserstrahls i zu dem Prüfpunkt aus Abständen r = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten berechnet gemäß h r , i ( r ) = r x 2 + r y 2 + r z 2

Figure DE102022208972A1_0005
In a further embodiment of the method according to the invention, according to method step b), the LiDAR sensor model hr,i(χ) of a laser beam i to the test point is calculated from distances r = [r x r y r z ] T of the test point in LiDAR coordinates according to H r , i ( r ) = r x 2 + r y 2 + r e.g 2
Figure DE102022208972A1_0005

In Weiterbildung des erfindungsgemäß vorgeschlagenen Verfahrens sind Drehwinkel und Koordinaten des LiDARs Teil eines Zustandsvektors χk|k-1 = [px py pz ϕ, θ und ψ]T und die Beobachtungsmatrix gemäß H r , i , k = h r , i ( r ) x = h ( r ) r r ( x ) x = h ( r ) r ( T E V ( x ) x ( m i p i ) + T E V ( m i p i ) x )

Figure DE102022208972A1_0006
In a further development of the method proposed according to the invention, the rotation angle and coordinates of the LiDAR are part of a state vector χ k|k-1 = [p x p y p z ϕ, θ and ψ] T and the observation matrix according to H r , i , k = H r , i ( r ) x = H ( r ) r r ( x ) x = H ( r ) r ( T E v ( x ) x ( m i p i ) + T E v ( m i p i ) x )
Figure DE102022208972A1_0006

Beim erfindungsgemäßen Verfahren erfolgt die Korrektur nach Verfahrensschritt c) gemäß K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1

Figure DE102022208972A1_0007
x i = x i | i 1 + K i ( z r , i h r , i )
Figure DE102022208972A1_0008
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0009
In the method according to the invention, the correction is carried out according to method step c). K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0007
x i = x i | i 1 + K i ( e.g r , i H r , i )
Figure DE102022208972A1_0008
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0009

Beim vorgeschlagenen Verfahren werden in Verfahrensschritt c) ein oder mehrere Messpunkte i mit zugehörigen Größen Hr,i, zr,i und hr,i innerhalb eines Zeitschritts k berechnet.In the proposed method, in method step c), one or more measuring points i with associated variables H r,i , z r,i and h r,i are calculated within a time step k.

In Weiterbildung des erfindungsgemäßen Verfahrens wird eine Korrektur gemäß Verfahrensschritt c) auf jeden Messpunkt i einzeln durchgeführt, gemäß x i = x i | i 1 + K i ( z r , i h r , i )

Figure DE102022208972A1_0010
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0011
K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0012
und mehrfach für jeden einzelnen Messpunkt i einzeln durchlaufen.In a further development of the method according to the invention, a correction according to method step c) is carried out individually on each measuring point i, according to x i = x i | i 1 + K i ( e.g r , i H r , i )
Figure DE102022208972A1_0010
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0011
K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0012
and run through it several times for each individual measuring point i.

Beim erfindungsgemäß vorgeschlagenen Verfahren werden zur Korrektur gemäß Verfahrensschritt c) n Messpunkte i eines Zeitschritts k in einen Vektor zr,k = [zr,1 zr,2 ... zr,n]T, die LiDAR-Modellwerte zu einem Vektor hr,k = [hr,1 hr,2 ... hr,n]T und der Jakobimatrix Hr,k = [Hr,1 Hr,2 ... Hr,n]T und ein Messrauschen Rk = diag(R1, R2, ... Rn) gemäß K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1

Figure DE102022208972A1_0013
x k = x k | k 1 + K k ( z r , k h r , k )
Figure DE102022208972A1_0014
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0015
berechnet.In the method proposed according to the invention, for correction according to method step c), n measuring points i of a time step k are converted into a vector z r,k = [z r,1 z r,2 ... z r,n ] T , the LiDAR model values into one Vector h r,k = [h r,1 h r,2 ... h r,n ] T and the Jacobian matrix H r,k = [H r,1 H r,2 ... H r,n ] T and a measurement noise R k = diag(R 1 , R 2 , ... R n ) according to K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0013
x k = x k | k 1 + K k ( e.g r , k H r , k )
Figure DE102022208972A1_0014
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0015
calculated.

In Weiterbildung des erfindungsgemäßen Verfahrens können anstelle von Eulerwinkeln auch Quaternionen für die Berechnung gewählt werden. Beim vorgeschlagenen Verfahren kann anstelle eines LiDAR-Sensorsystems eine Tiefenkamera, insbesondere eine Stereo-Kamera oder eine Time-of-Flight(ToF)-Kamera, eingesetzt werden.In a further development of the method according to the invention, quaternions can also be selected for the calculation instead of Euler angles. In the proposed method, a depth camera, in particular a stereo camera or a time-of-flight (ToF) camera, can be used instead of a LiDAR sensor system.

Vorteile der ErfindungAdvantages of the invention

Durch das erfindungsgemäß vorgeschlagene Verfahren kann eine häufige extrinsische Kalibrierung eines LiDAR-Messsystems zur Reduktion der Neigungsfehler vermieden werden. Damit sinkt die Anzahl der erforderlichen Kalibrierungen. Durch das erfindungsgemäß vorgeschlagene Verfahren lässt sich des Weiteren eine kostengünstigere Inertialsensorik einsetzen, die größere Fehlertoleranzen aufweist, die jedoch mittels des erfindungsgemäß vorgeschlagenen Verfahrens korrigiert werden können, wobei sich der zu leistende Rechenaufwand in erträglichen Grenzen hält.The method proposed according to the invention makes it possible to avoid frequent extrinsic calibration of a LiDAR measuring system to reduce tilt errors. This reduces the number of calibrations required. The method proposed according to the invention also makes it possible to use a more cost-effective inertial sensor system which has larger error tolerances, which, however, can be corrected using the method proposed according to the invention, whereby the computing effort required is kept within tolerable limits.

Durch das erfindungsgemäß vorgeschlagene Verfahren lässt sich ein sehr viele Messwerte lieferndes LiDAR-Sensorsystem dahingehend effektiver nutzen, dass aus der Vielzahl der Messwerte einige Messwerte für eine Korrektur besser geeignet sind, andere hingegen nicht. Zum Beispiel können Messwerte mittlerer Entfernung in flacher Umgebung mit niedriger Steigung besser verwendet werden. Hingegen sind Messwerte aus zu großer Entfernung weniger geeignet, da der Signalrauschabstand aufgrund der geringen Messintensität gegenüber dem Streulicht sehr groß ausfallen kann.The method proposed according to the invention allows a LiDAR sensor system that delivers a large number of measured values to be used more effectively in such a way that, out of the large number of measured values, some measured values are better suited for correction, while others are not. For example, medium distance readings may be better used in flat, low gradient environments. On the other hand, measurements from a distance that are too far away are less suitable because the signal-to-noise ratio can be very high due to the low measurement intensity compared to the scattered light.

Durch das erfindungsgemäß vorgeschlagene Verfahren kann im Gegensatz zum merkmalbasierten SLAM-Verfahren Rechenzeit gespart werden, da eine aufwändige Merkmalextrahierung nicht notwendig ist.In contrast to the feature-based SLAM method, the method proposed according to the invention can save computing time because complex feature extraction is not necessary.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Anhand der Zeichnungen wird die Erfindung nachstehend eingehender beschrieben.The invention is described in more detail below with reference to the drawings.

Es zeigt:

  • 1 ein Koordinatensystem mit X-, Y- und Z-Richtung sowie den Winkeln ϕ, θ und ψ,
  • 2 Höhenlinien und
  • 3 ein schematisch dargestelltes LiDAR-Sensorsystem mit Nickwinkel θi.
It shows:
  • 1 a coordinate system with X, Y and Z directions as well as the angles ϕ, θ and ψ,
  • 2 contour lines and
  • 3 a schematically shown LiDAR sensor system with pitch angle θ i .

Ausführungsformen der ErfindungEmbodiments of the invention

In der nachfolgenden Beschreibung der Ausführungsformen der Erfindung werden gleiche oder ähnliche Elemente mit gleichen Bezugszeichen bezeichnet, wobei auf eine wiederholte Beschreibung dieser Elemente in Einzelfällen verzichtet wird. Die Figuren stellen den Gegenstand der Erfindung nur schematisch dar.In the following description of the embodiments of the invention, the same or similar elements are referred to with the same reference numerals, with a repeated description of these elements being omitted in individual cases. The figures represent the subject matter of the invention only schematically.

1 zeigt in schematischer Weise ein Koordinatensystem mit den Raumrichtungen X, Y und Z sowie den eingetragenen Eulerwinkeln Rollwinkel ϕ, Nickwinkel θ und Gierwinkel ψ und deren Bezug auf die Raumrichtungen X, Y und Z. 1 shows in a schematic manner a coordinate system with the spatial directions

Der Darstellung gemäß 2 sind von einem LiDAR-Sensorsystem 20 eines Fahrzeugs 10 detektierte Höhenlinien zu entnehmen.According to the representation 2 10 contour lines detected by a LiDAR sensor system 20 of a vehicle can be seen.

3 zeigt eine schematische Darstellung des LiDAR-Sensorsystems 20 mit eingetragenem Nickwinkel θi. 3 shows a schematic representation of the LiDAR sensor system 20 with the pitch angle θ i entered.

Mithilfe des erfindungsgemäß vorgeschlagenen Verfahrens wird aus einer korrigierten Pose χk wird eine neue Poseninformation χk|k-1 prognostiziert. Dies erfolgt nach einem Initialisierungsschritt mit x 0 = 0

Figure DE102022208972A1_0016
P 0 = σ 2 I
Figure DE102022208972A1_0017
Using the method proposed according to the invention, new pose information χ k|k-1 is predicted from a corrected pose χ k . This is done after an initialization step x 0 = 0
Figure DE102022208972A1_0016
P 0 = σ 2 I
Figure DE102022208972A1_0017

Des Weiteren wird ein Prädiktionsschritt durchlaufen, anhand der nachfolgenden Gleichungen: x k | k 1 = f ( x k 1 , u k 1 )

Figure DE102022208972A1_0018
P k | k 1 = F k 1 P k 1 F k 1 T + B k 1 Q k 1 B k 1 T
Figure DE102022208972A1_0019
Furthermore, a prediction step is carried out using the following equations: x k | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208972A1_0018
P k | k 1 = F k 1 P k 1 F k 1 T + b k 1 Q k 1 b k 1 T
Figure DE102022208972A1_0019

Mithilfe einer korrigierten Pose χk wird eine neue Poseninformation χk|k-1 gemäß Gleichung (1) prognostiziert und mithilfe der korrespondierenden korrigierten Kovarianz Pk wird die korrespondierende neue Kovarianz Pk|k-1 gemäß Gleichung (2) prognostiziert.Using a corrected pose χ k, new pose information χ k|k-1 is predicted according to equation (1) and using the corresponding corrected covariance P k , the corresponding new covariance P k|k-1 is predicted according to equation (2).

Aus der prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung des LiDAR-Sensorsystems 20 lassen sich LiDAR-Messwerte hr,i schätzen. Für die Berechnung des LiDAR-Sensormodells hr,i und für die Auswahl der LiDAR-Strahlen, die auf einem Prüfpunkt auf einer ausgewählten horizontal ebenen Fläche in möglichst großer Entfernung gerichtet sind, wird zunächst die Drehmatrix anhand nachfolgender Gleichung T E V = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )

Figure DE102022208972A1_0020
bestimmt. Mit Rollwinkel ϕ, Nickwinkel θ und Gierwinkel ip des LiDAR-Sensorsystems 20 bezüglich eines Weltkoordinatensystems und durch die Bestimmung der Abstände rx, ry und rz eines Prüfpunkts in LiDAR-Koordinaten werden aus den Koordinaten des Prüfpunkts mi = [mx my mz]T Weltkoordinaten und Koordinaten des LiDARs pi = [px py pz]T in Weltkoordinaten berechnet. Dabei können die Drehwinkel und die Koordinaten des LiDARs Teil eines Zustandsvektors χk|k-1 = [px py pz ϕ, θ und ψ]T sein. ( r x r y r z ) = r ( x ) = T E V ( ( m x m y m z ) ( p x p y p z ) )
Figure DE102022208972A1_0021
LiDAR measurement values h r ,i can be estimated from the predicted pose χ k|k-1 and a height map m i of the surroundings of the LiDAR sensor system 20. To calculate the LiDAR sensor model h r,i and to select the LiDAR beams that are aimed at a test point on a selected horizontally flat surface at the greatest possible distance, the rotation matrix is first determined using the following equation T E v = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )
Figure DE102022208972A1_0020
certainly. With roll angle ϕ, pitch angle θ and yaw angle ip of the LiDAR sensor system 20 with respect to a world coordinate system and by determining the distances r x , ry and r z of a test point in LiDAR coordinates, the coordinates of the test point become m i = [m x m y m z ] T world coordinates and coordinates of the LiDAR p i = [p x p y p z ] T calculated in world coordinates. The rotation angles and the coordinates of the LiDAR can be part of a state vector χ k|k-1 = [p x p y p z ϕ, θ and ψ] T. ( r x r y r e.g ) = r ( x ) = T E v ( ( m x m y m e.g ) ( p x p y p e.g ) )
Figure DE102022208972A1_0021

Mithilfe der Differenz zwischen den geschätzten LiDAR-Messwerten hr,i und gemessenen oder interpolierten LiDAR-Messwerten zr,i wird die prognostizierte Pose χk|k-1 korrigiert, was mittels der Gleichungen K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1

Figure DE102022208972A1_0022
x i = x i | i 1 + K i ( z r , i h r , i )
Figure DE102022208972A1_0023
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0024
K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0025
x k = x k | k 1 + K k ( z r , k h r , k )
Figure DE102022208972A1_0026
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0027
durchgeführt wird.Using the difference between the estimated LiDAR measurements h r,i and measured or interpolated LiDAR measurements z r,i , the predicted pose χ k|k-1 is corrected using the equations K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0022
x i = x i | i 1 + K i ( e.g r , i H r , i )
Figure DE102022208972A1_0023
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0024
K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0025
x k = x k | k 1 + K k ( e.g r , k H r , k )
Figure DE102022208972A1_0026
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0027
is carried out.

Häufig kann die Position des LiDAR-Sensorsystems 20 mit GPS und anderen Einrichtungen sehr genau bestimmt werden, während eine Ausrichtung des LiDAR-Sensorsystems 20 häufig nicht derart genau bestimmt werden kann und demzufolge die ungewisse Ausrichtung den größten Fehler bei der Höhenkartenberechnung beisteuert. Aus diesem Grund werden mit der Korrektur gemäß dem erfindungsgemäß vorgeschlagenen Verfahren vor allem Ausrichtungsfehler des LiDAR-Sensorsystems 20 erheblich reduziert. In der Regel soll mittels des LiDAR-Sensorsystems 20 ein Gelände mit niedrigen Steigungswerten vermessen werden. Aus diesem Grund führen fehlerhafte Gierwinkel zu deutlich kleineren Höhenfehlern verglichen mit fehlerhaften Rollwinkeln und Nickwinkeln. Mittels des erfindungsgemäß vorgeschlagenen Verfahrens werden daher vor allem die Fehler aus Rollwinkeln und Nickwinkeln erheblich herabgesetzt.Often the position of the LiDAR sensor system 20 can be determined very precisely using GPS and other devices, while an orientation of the LiDAR sensor system 20 often cannot be determined with such precision and, as a result, the uncertain orientation contributes the largest error in the height map calculation. For this reason, the correction according to the method proposed according to the invention significantly reduces, in particular, alignment errors of the LiDAR sensor system 20. As a rule, terrain with low gradient values should be measured using the LiDAR sensor system 20. For this reason, incorrect yaw angles result in significantly smaller altitude errors compared to incorrect roll and pitch angles. By means of the method proposed according to the invention, the errors from roll angles and pitch angles in particular are significantly reduced.

Ein LiDAR-Sensorsystem 20 kann bei seinem Einsatz beispielsweise in Fahrzeugen 10 sehr viele Messwerte liefern, wobei einige Messwerte für die Korrektur besser, schlechter oder gar nicht geeignet sind. Zum Beispiel sind Messwerte in mittlerer Entfernung in flacher Umgebung mit niedriger Steigung besser geeignet. Messwerte, die aus großen Entfernungen herrühren, sind hingegen weniger geeignet, da der Signal-Rausch-Abstand aufgrund der geringen Messintensität gegenüber dem Streulicht sehr groß werden kann. Auch Sonnenlicht, Staub, Regen und Nebel haben auf größere Entfernungen gesehen ein erheblich größeres Störpotential. Messwerte aus zu nahen Entfernungen werden hingegen nur gering von fehlerhaften Neigungswerten beeinflusst, sofern das LiDAR-Sensorsystem 20 annähernd senkrecht auf den Boden trifft. Vom LiDAR-Sensorsystem 20 ausgesandte LiDAR-Strahlen, die auf Teile des eigenen Fahrzeugs 10 treffen, sind nicht geeignet.When used in vehicles 10, for example, a LiDAR sensor system 20 can deliver a large number of measured values, with some measured values being better, worse or not suitable for correction. For example, medium-distance readings are more appropriate in flat, low-slope environments. However, measured values that come from large distances are less suitable because the signal-to-noise ratio can become very large due to the low measurement intensity compared to the scattered light. Sunlight, dust, rain and fog also have a significantly greater potential for interference when viewed over greater distances. However, measured values from distances that are too close are only slightly influenced by incorrect inclination values, provided that the LiDAR sensor system 20 hits the ground approximately vertically. LiDAR beams emitted by the LiDAR sensor system 20 that hit parts of your own vehicle 10 are not suitable.

Des Weiteren hat sich herausgestellt, dass die Korrektur der sehr vielen Messwerte, die ein LiDAR-Sensorsystem 20 zu liefern imstande ist, sehr rechenintensiv sein kann. Darum kann es von Vorteil sein, zur Begrenzung der Rechenintensität und der Rechenzeit nur einen Teil der Messwerte zur Korrektur heranzuziehen. Es kann des Weiteren günstig sein, mindestens zwei Messwerte heranzuziehen, wobei sich deren Richtung und deren um plus/minus 180° gedrehte Richtungen möglichst stark unterscheiden, d. h. entgegengesetzt zueinander verlaufen. Für zwei Messwerte ist eine Unterscheidung von 90°, zum Beispiel Norden und Osten, und für drei Messwerte ist eine Unterscheidung von 60°, zum Beispiel West-Nord-West, Norden und Ost-Nord-Ost, hingegen optimal.Furthermore, it has been found that correcting the large number of measured values that a LiDAR sensor system 20 is capable of delivering can be very computationally intensive. It can therefore be advantageous to use only part of the measured values for correction in order to limit the computing intensity and computing time. It can also be advantageous to use at least two measured values, whereby their direction and their directions rotated by plus/minus 180° differ as much as possible, i.e. H. run opposite to each other. For two measured values, a distinction of 90°, for example north and east, is optimal, and for three measured values, a distinction of 60°, for example west-north-west, north and east-north-east, is optimal.

Die Rollwinkelfehler sowie die Nickwinkelfehler wirken sich vor allem auf Messungen mit großer Entfernung aus. Aus diesem Grunde wird es bevorzugt, vor allem Messpunkte zur Korrektur heranzuziehen, die sehr weit vom LiDAR-Sensorsystem 20 entfernt angeordnet sind. Die Reichweite des LiDAR-Sensorsystems 20 kann durch die Lichtleistung eines LiDAR-Sensors, durch die Empfindlichkeit, durch Umwelteinflüsse wie Sonnenlicht, Staub, Regen oder Nebel, begrenzt sein. In diesem Falle werden Messpunkte herangezogen, die noch auf zuverlässige Weise in großer Entfernung erfasst werden können.The roll angle errors and the pitch angle errors primarily affect measurements at large distances. For this reason, it is preferred to use measurement points for correction that are located very far away from the LiDAR sensor system 20. The range of the LiDAR sensor system 20 can be limited by the light output of a LiDAR sensor, by the sensitivity, by environmental influences such as sunlight, dust, rain or fog. In this case, measuring points are used that can still be reliably recorded at a large distance.

Weist das Gelände um den Messpunkt herum keine Steigung auf, dann hat auch ein Gierwinkelfehler wenig bis keinen Einfluss auf die Korrektur der Rollwinkelfehler sowie der Nickwinkelfehler; die Korrekturkann besonders gut durchgeführt werden. Aus diesem Grunde werden Messpunkte für die Korrektur bevorzugt, die von Messpunkten mit gleicher Höhe umgeben sind. Zu den umgebenden Messpunkten werden alle Punkte gezählt, die durch den berechneten Gierwinkelfehler im Intervall von +/- einer Standardabweichung fälschlicherweise gemessen werden.If the terrain around the measuring point has no slope, then a yaw angle error has little to no influence on the correction of the roll angle errors and the pitch angle errors; the correction can be carried out particularly well. For this reason, measurement points that are surrounded by measurement points of the same height are preferred for correction. The surrounding measurement points include all points that are incorrectly measured due to the calculated yaw angle error in the interval of +/- one standard deviation.

Das erfindungsgemäß vorgeschlagene Verfahren zur Kompensation von Gier- und Nickwinkelfehlern wird bevorzugt in einem Kalman-Filter durchgeführt. Die Durchführung des Verfahrens wird im Wesentlichen anhand der nachfolgenden Gleichungssysteme beschrieben:

  • Für die Berechnung des LiDAR-Sensormodells hr, i und für die Auswahl der LiDAR-Strahlen, die auf einen Prüfpunkt auf einer ausgewählten horizontal ebenen Fläche in möglichst großer Entfernung gerichtet sind, wird zunächst die Drehmatrix nach (3) berechnet:
T E V = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )
Figure DE102022208972A1_0028
The method proposed according to the invention for compensating for yaw and pitch angle errors is preferably carried out in a Kalman filter. The implementation of the method is essentially described using the following systems of equations:
  • For the calculation of the LiDAR sensor model h r , i and for the selection of the LiDAR beams that are aimed at a test point on a selected horizontally flat surface at the greatest possible distance, the rotation matrix is first calculated according to (3):
T E v = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )
Figure DE102022208972A1_0028

Die Berechnung erfolgt mittels Rollwinkel ϕ, Nickwinkel θ und Gierwinkel ip des LiDAR-Sensorsystems 20 bezüglich eines Weltkoordinatensystems. Dadurch lassen sich die Abstände rx, ry und rz des jeweiligen Prüfpunkts in LiDAR-Koordinaten aus den Koordinaten des Prüfpunkts mi = [mx my mz]T in Weltkoordinaten und den Koordinaten des LiDARs pi = [px py pz]T in Weltkoordinaten berechnen. Dabei können die Drehwinkel und Koordinaten des LiDARs Teil des Zustandsvektors χk|k-1 = [px py pz ϕ, θ und ψ]T sein: ( r x r y r z ) = r ( x ) = T E V ( ( m x m y m z ) ( p x p y p z ) )

Figure DE102022208972A1_0029
The calculation is carried out using the roll angle ϕ, pitch angle θ and yaw angle ip of the LiDAR sensor system 20 with respect to a world coordinate system. This allows the distances r _ _ _ _ _ p y p z ] Calculate T in world coordinates. The rotation angles and coordinates of the LiDAR can be part of the state vector χ k|k-1 = [p x p y p z ϕ, θ and ψ] T : ( r x r y r e.g ) = r ( x ) = T E v ( ( m x m y m e.g ) ( p x p y p e.g ) )
Figure DE102022208972A1_0029

Das LiDAR-Sensormodell hr,i (χ) des Laserstrahls i zu dem ausgebildeten Prüfpunkt berechnet sich aus den Abständen r = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten gemäß der Gleichung h r , i ( r ) = r x 2 + r y 2 + r z 2

Figure DE102022208972A1_0030
The LiDAR sensor model h r,i (χ) of the laser beam i to the formed test point is calculated from the distances r = [r x r y r z ] T of the test point in LiDAR coordinates according to the equation H r , i ( r ) = r x 2 + r y 2 + r e.g 2
Figure DE102022208972A1_0030

Die Beobachtungsmatrix Hr,i (χ) berechnet sich aus dem LiDAR-Sensormodell hr,i (χ) durch die partielle Ableitung mit dem Zustandsvektor x = [px py pz ϕ, θ und ψ]T zu H r , i , k = h r , i ( r ) x = h ( r ) r r ( x ) x = h ( r ) r ( T E V ( x ) x ( m i p i ) + T E V ( m i p i ) x )

Figure DE102022208972A1_0031
The observation matrix H r,i (χ) is calculated from the LiDAR sensor model h r,i (χ) by the partial derivative with the state vector x = [p x p y p z ϕ, θ and ψ] T H r , i , k = H r , i ( r ) x = H ( r ) r r ( x ) x = H ( r ) r ( T E v ( x ) x ( m i p i ) + T E v ( m i p i ) x )
Figure DE102022208972A1_0031

Für die Auswahl der LiDAR-Messpunkte, die zum Prüfpunkt i passen, werden zunächst die Azimutwinkel θi zu θ i = arccot ( r z r x 2 + r y 2 )

Figure DE102022208972A1_0032
und der Polarwinkel ϕi φ i = atan 2 ( r y , r x )
Figure DE102022208972A1_0033
berechnet.To select the LiDAR measurement points that match test point i, the azimuth angles θ i are first determined θ i = arccot ( r e.g r x 2 + r y 2 )
Figure DE102022208972A1_0032
and the polar angle ϕ i φ i = atan 2 ( r y , r x )
Figure DE102022208972A1_0033
calculated.

Die gemessenen Abstände der umliegenden gemessenen LiDAR-Abstände r111, φ1), r212, φ1), r121, φ2), r222, φ2) θi um θi und φi herum können herangezogen werden, um den Abstand ri per zweidimensional erfolgender linearer Interpolation zu berechnen gemäß den nachfolgenden Beziehungen. r 1 = θ 2 θ i θ 2 θ 1 r 11 + θ i θ 1 θ 2 θ 1 r 21

Figure DE102022208972A1_0034
r 2 = θ 2 θ i θ 2 θ 1 r 12 + θ i θ 1 θ 2 θ 1 r 22
Figure DE102022208972A1_0035
z r , i = φ 2 φ i φ 2 φ 1 r 1 + φ i φ 1 φ 2 φ 1 r 2
Figure DE102022208972A1_0036
The measured distances of the surrounding measured LiDAR distances r 111 , φ 1 ), r 212 , φ 1 ), r 121 , φ 2 ), r 222 , φ 2 ) θ i around θ i and φ i can be used to calculate the distance r i via two-dimensional linear interpolation according to the following relationships. r 1 = θ 2 θ i θ 2 θ 1 r 11 + θ i θ 1 θ 2 θ 1 r 21
Figure DE102022208972A1_0034
r 2 = θ 2 θ i θ 2 θ 1 r 12 + θ i θ 1 θ 2 θ 1 r 22
Figure DE102022208972A1_0035
e.g r , i = φ 2 φ i φ 2 φ 1 r 1 + φ i φ 1 φ 2 φ 1 r 2
Figure DE102022208972A1_0036

Die jeweiligen Größen r1 und r2 gemäß den Gleichungen (15) und (16) stellen dabei Zwischengrößen dar, die zur besseren Veranschaulichung herangezogen werden können. Der Korrekturschritt der Kalman-Filterberechnungen kann analog zu den Rechenschritten gemäß den Gleichungen (6) bis (8) gemäß den nachfolgenden Beziehungen berechnet werden: K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1

Figure DE102022208972A1_0037
x i = x i | i 1 + K i ( z r , i h r , i )
Figure DE102022208972A1_0038
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0039
The respective variables r 1 and r 2 according to equations (15) and (16) represent intermediate variables that can be used for better illustration. The correction step of the Kalman filter calculations can be calculated analogously to the calculation steps according to equations (6) to (8) according to the following relationships: K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0037
x i = x i | i 1 + K i ( e.g r , i H r , i )
Figure DE102022208972A1_0038
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0039

Es werden ein oder mehrere Messpunkte i mit den zugehörigen Größen Hr,i, zr,i und hr,i wie zuvor beschrieben innerhalb eines Zeitschritts k berechnet. Die Korrektur kann für jeden der Messpunkte i einzeln durchgeführt werden, wobei die Gleichungen x i = x i | i 1 + K i ( z r , i h r , i )

Figure DE102022208972A1_0040
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0041
K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0042
mehrfach für jeden Messpunkt durchlaufen werden und das Messrauschen Ri eine Skalarvarianz darstellt. Alternativ könnten aber auch mehrere oder alle n Messpunkte i eines Zeitschritts k in einem Vektor zr,k = [zr,1 zr,2 ... zr,n]T zusammengefasst werden. In analoger Weise gilt dies auch für die Modellwerte hr,k = [hr,1 hr,2 ... hr,n]T, deren Jakobimatrix Hr,k = [Hr,1 Hr,2 ... Hr,n]T und das Messrauschen Rk = diag(R1, R2, ... Rn): K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0043
x k = x k | k 1 + K k ( z r , k h r , k )
Figure DE102022208972A1_0044
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0045
One or more measuring points i with the associated variables H r,i , z r,i and h r,i are calculated within a time step k as described above. The correction can be carried out individually for each of the measuring points i, where the equations x i = x i | i 1 + K i ( e.g r , i H r , i )
Figure DE102022208972A1_0040
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0041
K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0042
are run through several times for each measuring point and the measuring noise R i represents a scalar variance. Alternatively, several or all n measuring points i of a time step k could be combined in a vector z r,k = [z r,1 z r,2 ... z r,n ] T. In an analogous manner, this also applies to the model values h r,k = [h r,1 h r,2 ... h r,n ] T , whose Jacobi matrix H r,k = [H r,1 H r,2 . .. H r,n ] T and the measurement noise R k = diag(R 1 , R 2 , ... R n ): K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0043
x k = x k | k 1 + K k ( e.g r , k H r , k )
Figure DE102022208972A1_0044
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0045

Insbesondere bei einer sich ergebenden großen Anzahl von Systemzuständen lässt sich durch das Zusammenfassen mehrerer Messpunkte i und einer gemeinsamen Korrektur der Kovarianzmatrix Pk Rechenzeit einsparen. Werden sehr viele Messpunkte i zur Korrektur eingesetzt, dann kann es auch günstig sein, einen Informationsfilter zur Prädiktion und Korrektur der entsprechenden Messwerte einzusetzen. Der Informationsfilter weist genauso wie ein in Rede stehender Kalman-Filter einen Prädiktionsschritt und einen Korrekturschritt auf, nutzt allerdings für die Berechnung eine invertierte Kovarianzmatrix. Dadurch ist zwar die Prädiktion rechenintensiver, jedoch kann erheblich Rechenzeit gespart werden, wenn sehr viele Messwerte für die Korrektur herangezogen werden sollten.Particularly when there is a large number of system states, computing time can be saved by combining several measurement points i and a joint correction of the covariance matrix P k . If a large number of measuring points i are used for correction, then it can also be beneficial to use an information filter to predict and correct the corresponding measured values. The information filter, like a Kalman filter in question, has a prediction step and a correction step, but uses an inverted covariance matrix for the calculation. This means that the prediction is more computationally intensive, but considerable computing time can be saved if a large number of measured values are to be used for the correction.

Vorstehend ist das erfindungsgemäß vorgeschlagene Verfahren anhand des Einsatzes eines LiDAR-Sensorsystems 20 dargestellt. Anstelle eines LiDAR-Sensors oder eines LiDAR-Sensorsystems 20 könnte auch eine Tiefenkamera, so zum Beispiel eine Stereo-Kamera oder eine Time-of-Flight(ToF)-Kamera, eingesetzt werden. Des Weiteren ist anzumerken, dass alternativ zur beschriebenen Berechnung unter Einsatz der Eulerwinkel ϕ, θ und ip auch Quaternionen für die Berechnung eingesetzt werden könnten.The method proposed according to the invention is shown above using a LiDAR sensor system 20. Instead of a LiDAR sensor or a LiDAR sensor system 20, a depth camera, such as a stereo camera or a time-of-flight (ToF) camera, could also be used. It should also be noted that, as an alternative to the calculation described using the Euler angles ϕ, θ and ip, quaternions could also be used for the calculation.

Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.The invention is not limited to the exemplary embodiments described here and the aspects highlighted therein. Rather, within the range specified by the claims, a large number of modifications are possible, which are within the scope of professional action.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2013/0041549 A1 [0002]US 2013/0041549 A1 [0002]
  • US 2014/0270744 A [0003]US 2014/0270744 A [0003]

Claims (11)

Verfahren zur Rollwinkel- und Nickwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem (20) mit zumindest nachfolgenden Verfahrensschritten: a) Mithilfe einer korrigierten Pose χk wird eine neue Poseninformation χk|k-1 prognostiziert, b) aus der gemäß a) prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung werden LiDAR-Messwerte hr,i geschätzt, c) mithilfe der Differenz der gemäß b) geschätzten LiDAR-Messwerte hr,i und gemessenen oder interpolierten LiDAR-Messwerte zr,i wird die prognostizierte Pose χk|k-1 gemäß Verfahrensschritt a) korrigiert.Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system (20) with at least the following method steps: a) With the help of a corrected pose χ k , new pose information χ k|k-1 is predicted, b) from that predicted according to a). Pose χ k|k-1 and a height map m i of the environment, LiDAR measurements h r,i are estimated, c) using the difference between the LiDAR measurements h r,i estimated according to b) and measured or interpolated LiDAR measurements z r ,i, the predicted pose χ k|k-1 is corrected according to method step a). Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass gemäß Verfahrensschritt a) ein Prädiktionsschritt durchlaufen wird mit x k | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208972A1_0046
und mit P k | k 1 = F k 1 P k 1 F k 1 T + B k 1 Q k 1 B k 1 T
Figure DE102022208972A1_0047
wobei mit einer korrespondierenden Kovarianz Pk eine korrespondierende neue Kovarianz Pk|k-1 prognostiziert wird.
Procedure according to Claim 1 , characterized in that according to method step a), a prediction step is carried out with x k | k 1 = f ( x k 1 , u k 1 )
Figure DE102022208972A1_0046
and with P k | k 1 = F k 1 P k 1 F k 1 T + b k 1 Q k 1 b k 1 T
Figure DE102022208972A1_0047
whereby a corresponding new covariance P k|k-1 is predicted with a corresponding covariance P k .
Verfahren gemäß den Ansprüchen 1 bis 2, dadurch gekennzeichnet, dass gemäß Verfahrensschritt b) für die Berechnung eines LiDAR-Sensormodells hr,i und eine Auswahl von LiDAR-Strahlen, welche auf einen Prüfpunkt auf einer ausgewählten horizontalen, ebenen Fläche in möglichst großer Entfernung gerichtet sind, eine Drehmatrix gemäß T E V = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )
Figure DE102022208972A1_0048
(3) mit Rollwinkel ϕ, Nickwinkel θ und Gierwinkel ip des LiDAR-Sensorsystems (20) bezüglich eines Weltkoordinatensystems und dadurch Abstände rx, ry und rz des Prüfpunkts in LiDAR-Koordinaten aus den Koordinaten des Prüfpunkts mi = [mx my mz]T in Weltkoordinaten und in den Koordinaten des LiDARs pi = [px py pz]T in Weltkoordinaten berechnet werden.
Procedure in accordance with Claims 1 until 2 , characterized in that according to method step b) for the calculation of a LiDAR sensor model h r,i and a selection of LiDAR beams which are directed at a test point on a selected horizontal, flat surface at the greatest possible distance, a rotation matrix according to T E v = ( cos ( ψ ) cos ( θ ) cos ( θ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) cos ( ϕ ) cos ( ψ ) + sin ( ϕ ) sin ( ψ ) sin ( θ ) cos ( θ ) sin ( ϕ ) sin ( ϕ ) sin ( ψ ) + cos ( ϕ ) cos ( ψ ) sin ( θ ) cos ( ϕ ) sin ( ψ ) sin ( θ ) cos ( ψ ) sin ( ϕ ) cos ( ϕ ) cos ( θ ) )
Figure DE102022208972A1_0048
(3) with roll angle ϕ, pitch angle θ and yaw angle ip of the LiDAR sensor system (20) with respect to a world coordinate system and thereby distances r x , ry and r z of the test point in LiDAR coordinates from the coordinates of the test point m i = [m x m y m z ] T in world coordinates and in the coordinates of the LiDAR p i = [p x p y p z ] T in world coordinates.
Verfahren gemäß Anspruch 3, dadurch gekennzeichnet, dass die Drehwinkel und die Koordinaten des LiDARs Teil eines Zustandsvektors χk|k-1 = [px py pz ϕ, θ und ψ]T sind, gemäß ( r x r y r z ) = r ( x ) = T E V ( ( m x m y m z ) ( p x p y p z ) )
Figure DE102022208972A1_0049
Procedure according to Claim 3 , characterized in that the rotation angles and the coordinates of the LiDAR are part of a state vector χ k|k-1 = [p x p y p z ϕ, θ and ψ] T , according to ( r x r y r e.g ) = r ( x ) = T E v ( ( m x m y m e.g ) ( p x p y p e.g ) )
Figure DE102022208972A1_0049
Verfahren gemäß den Ansprüchen 1 bis 4, dadurch gekennzeichnet, dass gemäß Verfahrensschritt b) das LiDAR-Sensormodell hr,i(x) eines Laserstrahls i zu dem Prüfpunkt aus Abständen r = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten berechnet wird gemäß h r , i ( r ) = r x 2 + r y 2 + r z 2
Figure DE102022208972A1_0050
Procedure in accordance with Claims 1 until 4 , characterized in that according to method step b), the LiDAR sensor model h r,i (x) of a laser beam i to the test point is calculated from distances r = [r x r y r z ] T of the test point in LiDAR coordinates according to H r , i ( r ) = r x 2 + r y 2 + r e.g 2
Figure DE102022208972A1_0050
Verfahren gemäß den Ansprüchen 1 bis 5, dadurch gekennzeichnet, dass die Korrektur gemäß Verfahrensschritt c) gemäß K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0051
x i = x i | i 1 + K i ( z r , i h r , i )
Figure DE102022208972A1_0052
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0053
durchgeführt wird.
Procedure in accordance with Claims 1 until 5 , characterized in that the correction according to method step c) according to K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0051
x i = x i | i 1 + K i ( e.g r , i H r , i )
Figure DE102022208972A1_0052
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0053
is carried out.
Verfahren gemäß den Ansprüchen 1 bis 6, dadurch gekennzeichnet, dass gemäß Verfahrensschritt c) ein oder mehrere Messpunkte i mit zugehörigen Größen Hr,i, zr,i und hr,i innerhalb eines Zeitschritts k berechnet werden.Procedure in accordance with Claims 1 until 6 , characterized in that , according to method step c), one or more measuring points i with associated variables H r,i , z r,i and h r,i are calculated within a time step k. Verfahren gemäß den Ansprüchen 1 bis 7, dadurch gekennzeichnet, dass die Korrektur gemäß Verfahrensschritt c) auf jeden Messpunkt i einzeln durchgeführt wird, gemäß x i = x i | i 1 + K i ( z r , i h r , i )
Figure DE102022208972A1_0054
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0055
K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0056
und mehrfach für jeden einzelnen Messpunkt i einzeln durchlaufen wird.
Procedure in accordance with Claims 1 until 7 , characterized in that the correction according to method step c) is carried out individually on each measuring point i, according to x i = x i | i 1 + K i ( e.g r , i H r , i )
Figure DE102022208972A1_0054
P i = ( I K i H r , i ) P i | i 1
Figure DE102022208972A1_0055
K i = P i | i 1 H r , i T ( H r , i P i | i 1 H r , i T + R i ) 1
Figure DE102022208972A1_0056
and is run through several times for each individual measuring point i.
Verfahren gemäß den Ansprüchen 1 bis 8, dadurch gekennzeichnet, dass zur Korrektur gemäß Verfahrensschritt c) n Messpunkte i eines Zeitschritts k in einen Vektor zr,k = [zr,1 zr,2 ... zr,n]T, die LiDAR-Modellwerte zu einem Vektor hr,k = [hr,1 hr,2 ... hr,n]T und der Jakobimatrix Hr,k = [Hr,1 Hr,2 ... Hr,n]T und ein Messrauschen Rk = diag(R1, R2, ... Rn) gemäß K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0057
x k = x k | k 1 + K k ( z r , k h r , k )
Figure DE102022208972A1_0058
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0059
berechnet werden.
Procedure in accordance with Claims 1 until 8th , characterized in that for correction according to method step c) n measuring points i of a time step k into a vector z r,k = [z r,1 z r,2 ... z r,n ] T , the LiDAR model values into one Vector h r,k = [h r,1 h r,2 ... h r,n ] T and the Jacobian matrix H r,k = [H r,1 H r,2 ... H r,n ] T and a measurement noise R k = diag(R 1 , R 2 , ... R n ) according to K k = P k | k 1 H r , k T ( H r , k P k | k 1 H r , k T + R k ) 1
Figure DE102022208972A1_0057
x k = x k | k 1 + K k ( e.g r , k H r , k )
Figure DE102022208972A1_0058
P k = ( I K k H r , k ) P k | k 1
Figure DE102022208972A1_0059
be calculated.
Verfahren gemäß den Ansprüchen 1 bis 9, dadurch gekennzeichnet, dass anstelle von Eulerwinkeln auch Quaternionen für die Berechnung gewählt werden.Procedure in accordance with Claims 1 until 9 , characterized in that quaternions are also chosen for the calculation instead of Euler angles. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass anstelle eines LiDAR-Sensorsystems (20) eine Tiefenkamera, insbesondere eine Stereo-Kamera oder eine Time-of-Flight(ToF)-Kamera, eingesetzt wird.Procedure according to Claim 1 , characterized in that instead of a LiDAR sensor system (20), a depth camera, in particular a stereo camera or a time-of-flight (ToF) camera, is used.
DE102022208972.3A 2022-08-30 2022-08-30 Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system Pending DE102022208972A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022208972.3A DE102022208972A1 (en) 2022-08-30 2022-08-30 Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022208972.3A DE102022208972A1 (en) 2022-08-30 2022-08-30 Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system

Publications (1)

Publication Number Publication Date
DE102022208972A1 true DE102022208972A1 (en) 2024-02-29

Family

ID=89844616

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208972.3A Pending DE102022208972A1 (en) 2022-08-30 2022-08-30 Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system

Country Status (1)

Country Link
DE (1) DE102022208972A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2273334A1 (en) 2009-06-22 2011-01-12 BAE Systems PLC Terrain sensing
US20130041549A1 (en) 2007-01-05 2013-02-14 David R. Reeve Optical tracking vehicle control system and method
US20140270744A1 (en) 2013-03-15 2014-09-18 Freefly Systems, Inc. Method and system for correcting camera pointing angle in an actively stabilized system to compensate for translational movements
US20160005164A1 (en) 2013-02-21 2016-01-07 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system
US20170276783A1 (en) 2016-03-28 2017-09-28 United States Of America, As Represented By The Secretary Of The Navy Covariance Matrix Technique for Error Reduction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130041549A1 (en) 2007-01-05 2013-02-14 David R. Reeve Optical tracking vehicle control system and method
EP2273334A1 (en) 2009-06-22 2011-01-12 BAE Systems PLC Terrain sensing
US20160005164A1 (en) 2013-02-21 2016-01-07 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system
US20140270744A1 (en) 2013-03-15 2014-09-18 Freefly Systems, Inc. Method and system for correcting camera pointing angle in an actively stabilized system to compensate for translational movements
US20170276783A1 (en) 2016-03-28 2017-09-28 United States Of America, As Represented By The Secretary Of The Navy Covariance Matrix Technique for Error Reduction

Similar Documents

Publication Publication Date Title
DE112006002723B4 (en) METHOD AND DEVICE FOR ASSESSING RELATIVE COORDINATES BETWEEN AT LEAST TWO PARTS OF A SYSTEM
DE102007005121B4 (en) Method and apparatus for in-vehicle calibration and orientation of object tracking systems
DE3686213T2 (en) NAVIGATION DEVICE.
DE102009030672B3 (en) Method for determining the geographic coordinates of pixels in SAR images
DE19962997A1 (en) Calibrating a sensor system involves detecting sensor data as static or quasi-static objects taking into account object movement, feeding data to calibration unit for correction
DE10228639A1 (en) Long term inertial navigation method for vehicle in which two inertial navigation units are used with resulting state vectors combined to yield instantaneous vector value
DE2801045A1 (en) NAVIGATION DEVICE
DE112018007660T5 (en) CALIBRATION DEVICE FOR IMAGING DEVICE, MONITORING DEVICE, WORKING MACHINE AND CALIBRATION METHOD
EP1687656A1 (en) Method for determination of the direction to an object for surveying
DE69117896T2 (en) Method and device for improving the reliability of aircraft flight data
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
DE102018200060A1 (en) Method for operating a mobile work machine and mobile work machine
DE102021121363A1 (en) Navigation device and positioning method
EP1515159B1 (en) Method for reducing the doppler centroid for coherent pulsed radar system
DE102022208972A1 (en) Method for roll angle and pitch angle error compensation in a terrain height measurement with a LiDAR sensor system
DE102020200728A1 (en) Reconstructing elevation information from radar data
DE102014117277B4 (en) carrier system
DE102021202641A1 (en) Method for determining a state of motion of a rigid body
EP0207521B1 (en) Target measurement system
EP3922526B1 (en) Determination of a roll angle or pitch angle of a mode of transport
DE102017121950A1 (en) A method of estimating a state of a mobile platform
WO2020260134A1 (en) Method for locating a vehicle
DE102019132151A1 (en) Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system
DE102008058866B4 (en) Device and method for determining the position of an object
EP3404364B1 (en) Method for estimating a condition of a mobile platform

Legal Events

Date Code Title Description
R163 Identified publications notified