DE102022208937A1 - Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system - Google Patents
Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system Download PDFInfo
- Publication number
- DE102022208937A1 DE102022208937A1 DE102022208937.5A DE102022208937A DE102022208937A1 DE 102022208937 A1 DE102022208937 A1 DE 102022208937A1 DE 102022208937 A DE102022208937 A DE 102022208937A DE 102022208937 A1 DE102022208937 A1 DE 102022208937A1
- Authority
- DE
- Germany
- Prior art keywords
- predicted
- range information
- procedure
- calculated
- accordance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000005259 measurement Methods 0.000 title claims abstract description 32
- 238000012360 testing method Methods 0.000 claims description 20
- 238000005314 correlation function Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000000644 propagated effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- -1 rain Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Die Erfindung bezieht sich auf ein Verfahren zur Nickwinkelfehler- und Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem mit nachfolgenden Verfahrensschritten:a) Mittels einer korrigierten Pose χk-1wird eine neue Pose χk|k-1prognostiziert, wobei aus der prognostizierten Pose χk|k-1und einer Höhenkarte mider Umgebung eine mindestens drei (n) geschätzte LiDAR-Messwerte umfassende prognostizierte Reichweiteninformation h berechnet,b) es wird eine mithilfe des LiDAR-Sensorsystems gemessenen Werten und mit n korrespondierenden gemessenen LiDAR-Messwerten verknüpfte Reichweiteninformation z gebildet, wobei sowohl die prognostizierte Reichweiteninformation h als auch eine gemessene Reichweiteninformation z einen gleichen konstanten Winkelabstand aus Δφ aufweisen;c) aus der prognostizierten Reichweiteninformation h und der gemessenen Reichweiteninformation z wird eine Verschiebung ykzwischen diesen ermittelt;d) aus der neu prognostizierten Pose χk|k-1und der Verschiebung ykwird eine korrigierte Pose χkberechnet.The invention relates to a method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system with the following method steps: a) Using a corrected pose χk-1, a new pose χk|k-1 is predicted, from the predicted pose χk|k -1 and a height map of the surroundings, a forecast range information h comprising at least three (n) estimated LiDAR measurement values is calculated, predicted range information h and measured range information z have the same constant angular distance from Δφ; c) a shift yk between them is determined from the predicted range information h and the measured range information z; yk, a corrected pose χk is calculated.
Description
Technisches GebietTechnical area
Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Nickwinkelfehler- und zur Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem. Des Weiteren bezieht sich die Erfindung auf die Verwendung des Verfahrens in einem LiDAR-Sensorsystem eines Fahrzeugs.The present invention relates to a method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system. Furthermore, the invention relates to the use of the method in a LiDAR sensor system of a vehicle.
Stand der TechnikState of the art
Darstellung der ErfindungPresentation of the invention
Erfindungsgemäß wird ein Verfahren vorgeschlagen zur Nickwinkelfehler- und Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensor oder einem LiDAR-Sensorsystem mit nachfolgenden Verfahrensschritten:
- a) Mittels einer korrigierten Pose χk-1 wird eine neue Pose χk|k-1 prognostiziert, wobei aus der prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung eine mindestens drei (n) geschätzte LiDAR-Messwerte umfassende prognostizierte Reichweiteninformation h berechnet,
- b) es wird eine mithilfe des LiDAR-Sensors oder des LiDAR-Sensorsystems gemessenen Werten und mit n korrespondierenden gemessenen LiDAR-Messwerten verknüpfte Reichweiteninformation z gebildet, wobei sowohl die prognostizierte Reichweiteninformation h als auch eine gemessene Reichweiteninformation z einen gleichen konstanten Winkelabstand aus Δφ aufweisen;
- c) aus der prognostizierten Reichweiteninformation h und der gemessenen Reichweiteninformation z wird eine Verschiebung yk zwischen diesen ermittelt;
- d) aus der neu prognostizierten Pose χk|k-1 und der Verschiebung yk wird eine korrigierte Pose χk berechnet.
- a) Using a corrected pose χ k-1 , a new pose χ k|k-1 is predicted, whereby at least three (n) estimated LiDAR measurements are obtained from the predicted pose χ k|k-1 and a height map m i of the environment comprehensive forecast range information h is calculated,
- b) range information z is formed using measured values using the LiDAR sensor or the LiDAR sensor system and linked to n corresponding measured LiDAR measurement values, whereby both the predicted range information h and a measured range information z have the same constant angular distance from Δφ;
- c) a shift y k between them is determined from the predicted range information h and the measured range information z;
- d) a corrected pose χ k is calculated from the newly predicted pose χ k|k-1 and the displacement y k .
In Weiterbildung des erfindungsgemäßen Verfahrens wird gemäß Verfahrensschritt a) in einem Prädiktionsschritt mit einer korrigierten Pose χk-1 eine neue Pose χk|k-1 prognostiziert gemäß
Beim erfindungsgemäß vorgeschlagenen Verfahren wird gemäß Verfahrensschritt b) mit jedem Prüfpunkt mi eine prognostizierte Reichweite ri = [rx ry rz]T in LiDAR-Koordinaten aus den Koordinaten des Prüfpunkts mi in Weltkoordinaten und den Koordinaten des LiDARs p = [px py pz]T in Weltkoordinaten gemäß
In einer vorteilhaften Weiterbildung der erfindungsgemäß vorgeschlagenen Lösung wird nach Verfahrensschritt b) eine prognostizierte Reichweiteninformation hi(r) des Laserstrahls mit Index i zu dem Prüfpunkt mi berechnet aus den Reichweiten ri(χ) = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten gemäß
In einer weiteren Ausgestaltung der erfindungsgemäßen Lösung werden für einen Zeitschritt k eine Anzahl n unterschiedlicher Prüfpunkte herangezogen und die prognostizierte Reichweiteninformation hi(r) zu einem Vektor h = [h1 ... hn]T und die korrespondierenden gemessenen Reichweiteninformationen zi zu einem Vektor z = [z1 ... zn]T zusammengefasst.In a further embodiment of the solution according to the invention, a number n of different test points are used for a time step k and the predicted range information h i (r) becomes a vector h = [h 1 ... h n ] T and the corresponding measured range information z i a vector z = [z 1 ... z n ] T.
Beim erfindungsgemäß vorgeschlagenen Verfahren wird eine Kreuzkorrelationsfunktion Xhz(j) aus einem diskret differenzierten Messvektor der LiDAR-Sensormodelle Δh = diff(h) mit h = [h1 ... hn]T und einem diskret differenzierten Messvektor der realen Messwerte Δz = diff(z) berechnet gemäß
Beim vorgeschlagenen Verfahren wird für den Index j, bei dem Xhz(j) = max, die Differenz von yk zwischen der Messung und der prognostizierten Messung h aus einer konstanten Winkeldifferenz Δφ berechnet, nach
Bei der erfindungsgemäß vorgeschlagenen Lösung wird ein Korrekturschritt gemäß
Beim erfindungsgemäßen Verfahren wird ein Kalman-Gain gemäß
Das vorgeschlagene Verfahren sieht vor, dass eine Fehlerkompensation von Gierwinkelfehlern und/oder Nickwinkelfehlern unabhängig voneinander oder nacheinander durchgeführt wird.The proposed method provides that error compensation of yaw angle errors and/or pitch angle errors is carried out independently of one another or one after the other.
Beim erfindungsgemäßen Verfahren wird eine gleichzeitige Gierwinkel- und Nickwinkelfehlerkompensation dergestalt durchgeführt, dass n horizontale x s vertikale Messwerte z und ebenso viele propagierte Werte h gemäß
Der erfindungsgemäßen Lösung folgend, wird eine Verschiebung yk in horizontale oder vertikale Richtung gemäß
Vorteile der ErfindungAdvantages of the invention
Durch die erfindungsgemäß vorgeschlagene Lösung kann eine häufige extrinsische Kalibrierung des LiDAR-Sensorsystems zur Reduktion von Neigungsfehlern vermieden werden. Des Weiteren kann durch das erfindungsgemäß vorgeschlagene Kompensationsverfahren ein kostengünstigeres LiDAR-Sensorsystem sowie eine kostengünstigere Inertialsensorik eingesetzt werden, die durchaus größere Fehler und Toleranzen aufweisen können, die jedoch durch Einsatz des erfindungsgemäß vorgeschlagenen Verfahrens wieder kompensiert werden können.The solution proposed according to the invention makes it possible to avoid frequent extrinsic calibration of the LiDAR sensor system to reduce tilt errors. Furthermore, the compensation method proposed according to the invention makes it possible to use a more cost-effective LiDAR sensor system and a more cost-effective inertial sensor system, which can certainly have larger errors and tolerances, but which can be compensated for again by using the method proposed according to the invention.
Kurze Beschreibung der ZeichnungenBrief description of the drawings
Ausführungsformen der Erfindung werden anhand der Zeichnungen und der nachfolgenden Beschreibung näher erläutert.Embodiments of the invention are explained in more detail with reference to the drawings and the following description.
Es zeigt:
-
1 eine Korrelationsfunktion Xhz (j) mit einem bei -3 liegenden Maximum und -
2 ein Koordinatensystem mit X, Y und Z-Richtung und den Winkeln ϕ, θ und ψ.
-
1 a correlation function X hz (j) with a maximum at -3 and -
2 a coordinate system with X, Y and Z directions and the angles ϕ, θ and ψ.
Ausführungsformen der ErfindungEmbodiments of the invention
In der nachfolgenden Beschreibung der Ausführungsformen der Erfindung werden gleiche oder ähnliche Elemente mit gleichen Bezugszeichen bezeichnet, wobei auf eine wiederholte Beschreibung dieser Elemente in Einzelfällen verzichtet wird. Die Figuren stellen den Gegenstand der Erfindung nur schematisch dar.In the following description of the embodiments of the invention, the same or similar elements are referred to with the same reference numerals, with a repeated description of these elements being omitted in individual cases. The figures represent the subject matter of the invention only schematically.
Das erfindungsgemäß vorgeschlagene Verfahren erlaubt mithilfe einer korrigierten Pose χk-1 eine neue Poseninformation χk|k-1 zu prognostizieren gemäß einem Prädiktionsschritt nach
Innerhalb dieser Vorgehensweise werden in einem ersten Schritt aus der prognostizierten Pose χk|k-1 und einer Höhenkarte mi der Umgebung eine aus mindestens drei (n) geschätzten LiDAR-Messwerten bestehende prognostizierte Reichweiteninformation h berechnet. Dies erfolgt anhand
Die Reichweiteninformation h umfasst darüber hinaus eine mithilfe des LiDAR-Sensorsystems gemessene und mit ebenso vielen (n) korrespondierenden gemessenen LiDAR-Messwerten ausgestattete Reichweiteninformation z, wobei sowohl die prognostizierte Reichweiteninformation h als auch die gemessene Reichweiteninformation z den gleichen konstanten Winkelabstand Δφ aufweisen. Innerhalb des weiteren Vorgehens wird in einem zweiten Schritt mithilfe der prognostizierten Reichweiteninformation h und mithilfe der gemessenen Reichweiteninformation z eine Verschiebung yk zwischen den prognostizierten und gemessenen Reichweiteninformationen h, z berechnet. Dies erfolgt anhand der folgenden Gleichungen:
In einem abschließenden Schritt wird mithilfe der neuen prognostizierten Poseninformation χk|k-1 und der Verschiebung yk eine korrigierte Poseninformation χk berechnet, was anhand der Gleichungen
Häufig kann die Position des LiDAR-Sensorsystems mit dem Global Positioning System (GPS) oder einem Tachymeter sehr genau bestimmt werden. Hingegen lässt sich die Ausrichtung des LiDAR-Sensorsystems nicht so genau bestimmen, sodass die ungewisse Ausrichtung innerhalb des Fahrzeugs beispielsweise den größten Fehler bei der Berechnung der Höhenkarte beiträgt. Aus diesem Grunde sollen mit dem erfindungsgemäß vorgeschlagenen Nickwinkelfehler- und Gierwinkelfehlerkompensationsverfahren dementsprechende Ausrichtungsfehler, die beispielsweise beim Sensoreinbau oder bei Beschädigungen an der Karosserie oder dergleichen auftreten, vermieden werden und das über das LiDAR-Sensorsystem aufgenommene Informationsspektrum nicht unerheblich verfälschen.The position of the LiDAR sensor system can often be determined very precisely using the Global Positioning System (GPS) or a tachymeter. On the other hand, the orientation of the LiDAR sensor system cannot be determined so precisely, so that the uncertain orientation within the vehicle, for example, contributes the largest error when calculating the height map. For this reason, the pitch angle error and yaw angle error compensation method proposed according to the invention is intended to avoid corresponding alignment errors that occur, for example, when installing the sensor or in the event of damage to the body or the like, and to not insignificantly falsify the spectrum of information recorded via the LiDAR sensor system.
Das LiDAR-Sensorsystem kann sehr viele Messwerte liefern, wobei einige Messwerte für die Korrektur besser geeignet sind, einige schlechter und andere Messwerte können überhaupt nicht verarbeitet werden. Zum Beispiel sind aufgenommene Messwerte in mittlerer Entfernung in zerklüfteter Umgebung mit großen Steigungsänderungen besser geeignet. Messwerte hingegen aus zu großer Entfernung erscheinen weniger geeignet, weil der Signal-Rausch-Abstand aufgrund der geringen Messintensität gegenüber dem Streulicht sehr groß sein kann. Auch Umgebungseinflüsse wie beispielsweise Sonnenlicht, Staub, Regen, Nebel und dergleichen haben auf größere Entfernung gesehen ein größeres Störpotential. LiDAR-Strahlen, die auf Teile des eigenen Fahrzeugs treffen, können hingegen überhaupt nicht ausgenutzt werden.The LiDAR sensor system can provide a wide range of measurements, with some measurements being better suited for correction, some being worse, and other measurements not being able to be processed at all. For example, recorded measurements at medium distances are more suitable in rugged environments with large changes in gradient. However, measured values from too great a distance appear less suitable because the signal-to-noise ratio can be very large due to the low measurement intensity compared to the scattered light. Environmental influences such as sunlight, dust, rain, fog and the like also have a greater potential for interference when viewed from a greater distance. However, LiDAR beams that hit parts of your own vehicle cannot be exploited at all.
Normalerweise würden Kalman-Filter-Zustände mit den Differenzen zwischen allen Messwerten und prognostizierten Messwerten korrigiert, was im Falle von LiDAR-Daten sehr rechenzeitintensiv wäre. Darum werden die Messwerte und die prognostizierten Messwerte zunächst per Kreuzkorrelationsfunktion miteinander verrechnet, danach lässt sich der Abstand des Maximums der Kreuzkorrelationsfunktion zum Zentrum bestimmen und abschließend lediglich dieser Abstand anstatt der Vielzahl der einzelnen Differenzen zur Korrektur heranziehen. Durch dieses Verfahren kann der erforderliche Rechenaufwand nicht unerheblich reduziert werden.Normally, Kalman filter states would be corrected with the differences between all measured values and predicted measured values, which would be very computationally time-intensive in the case of LiDAR data. Therefore The measured values and the predicted measured values are first compared with each other using the cross-correlation function, then the distance of the maximum of the cross-correlation function from the center can be determined and finally only this distance can be used for correction instead of the large number of individual differences. This procedure allows the required computing effort to be reduced significantly.
Anhand eines Kalman-Filters lässt sich das Verfahren wie nachfolgend beschrieben umsetzen. Es werden nunmehr die einzelnen für das erfindungsgemäß vorgeschlagene Verfahren durchzuführenden Rechenschritte, die in einer Recheneinheit durchlaufen werden, beschrieben, um die Gierwinkelfehler beziehungsweise Nickwinkelfehler des LiDAR-Sensorsystems in dessen Einbauposition im Fahrzeug entsprechend zu kompensieren.Using a Kalman filter, the method can be implemented as described below. The individual calculation steps to be carried out for the method proposed according to the invention, which are run through in a computing unit, will now be described in order to accordingly compensate for the yaw angle errors or pitch angle errors of the LiDAR sensor system in its installation position in the vehicle.
Für die Berechnung des LiDAR-Sensormodells hr,i werden n Prüfpunkte mi = [mx my mz]T durch die Auswahl aus dem Kartenmaterial bestimmt. Diese korrespondieren mit ebenso vielen n gemessenen Reichweiten zi dadurch, dass ein jeder der Prüfpunkte mi mutmaßlich durch eine Reichweitenmessung zi erfasst wird, weil der jeweilige Laserstrahl i mit den Polarwinkeln Φi = [ψi θi]T bezüglich des LiDAR-Koordinatensystems mit den Eulerwinkeln ϕ, θ und ip des LiDAR-Sensorsystems bezüglich des Weltkoordinatensystems auf diesen Prüfpunkt gerichtet ist. Der Prüfpunkt lässt sich auswählen, indem zunächst die Position des Laserstrahls als Funktion der Laserstrahlausbreitung li gemäß den nachfolgenden Beziehungen errechnet wird:
Der gesuchte Prüfpunkt mi = [wx,i wy,i wz,i]T ist der Punkt auf der Oberflächenkarte als Funktion mi,z von wx,i und wy,i mit dem kleinsten Abstand zum LiDAR-Sensorsystem, für den gilt:
Dabei können die Koordinaten px, py und pz des LiDAR-Sensorsystems Teil des Zustandsvektors χk|k-1 = [px py pz ϕ θ ψ]T des Kalman-Filters sein.The coordinates p x , p y and p z of the LiDAR sensor system can be part of the state vector χ k|k-1 = [p x p y p z ϕ θ ψ] T of the Kalman filter.
Die prognostizierte Reichweiteninformation hi(r) des Laserstrahls mit dem Index i zu dem Prüfpunkt mi berechnet sich aus den Reichweiten ri(x) = [rx ry rz]T des Prüfpunkts in LiDAR-Koordinaten gemäß der euklidischen Formel zu
Für einen einzigen Zeitschritt k wird die Anzahl n unterschiedlicher Prüfpunkte herangezogen, um die prognostizierten Reichweiteninformationen hi(r) zu einem Vektor h = [h1 ... hn]T zusammenzufassen und um die korrespondierenden gemessenen Reichweiteninformationen zi zu einem Vektor z = [z1 ... zn]T zusammenzufassen. Die diskrete Kreuzkorrelationsfunktion Xhz(j) aus dem diskret differenzierten Messvektor der LiDAR-Sensormodelle mit Δh = diff(h) mit h = [h1 ... hn]T und dem diskret differenzierten Messvektor der realen Messwerte Δz = diff(z) führt auf:
Dabei bezeichnet der Index j um wie viele Stellen der Messvektor der LiDAR-Sensormodelle hr,i und der Messvektor der realen Messwerte zr,i gegeneinander verschoben sind.The index j denotes by how many places the measurement vector of the LiDAR sensor models h r,i and the measurement vector of the real measured values z r,i are shifted relative to one another.
In Bezug auf
Mit dem Index j, bei dem die Kreuzkorrelationsfunktion Xhz(j) maximal ist, wird die Differenz yk zwischen der Messung z und der prognostizierten Messung h wie folgt aus der konstanten Winkeldifferenz Δϕ berechnet:
Der Korrekturschritt gemäß der Berechnung nach
Gemäß diesem Verfahren können sowohl Gierwinkelfehler als auch Nickwinkelfehler zwischen einer Inertialsensorik und dem LiDAR-Sensorsystem kompensiert werden. Die vorgeschlagene Fehlerkompensation von Gier- und Nickwinkelfehlern kann unabhängig voneinander beziehungsweise nacheinander durchgeführt werden. Es ist jedoch besonders vorteilhaft, beide Fehler, d. h. den Gierwinkelfehler und auch den Nickwinkelfehler, gleichzeitig zu kompensieren. Dies erfolgt mithilfe von n horizontalen x s vertikalen Messwerten z und ebenso vielen prognostizierten Werten h gemäß denen die zweidimensionale Kreuzkorrelation nach
Die Verschiebung yk in horizontale sowie in vertikale Richtung kann als Vektor gemäß
Alternativ zu einem LiDAR-Sensor beziehungsweise einem LiDAR-Sensorsystem kann auch eine Tiefenkamera, beispielsweise eine Stereo-Kamera oder eine Time-of-Flight(ToF)-Kamera, zum Einsatz kommen. Alternativ zur beschriebenen Rechnung, die anhand der Eulerwinkel durchgeführt wird, könnten auch Quaternionen für die Berechnung eingesetzt werden.As an alternative to a LiDAR sensor or a LiDAR sensor system, a depth camera, for example a stereo camera or a time-of-flight (ToF) camera, can also be used. As an alternative to the calculation described, which is carried out using the Euler angles, quaternions could also be used for the calculation.
Das erfindungsgemäß vorgeschlagene Verfahren zur Kompensation von Gierwinkelfehlern und Nickwinkelfehlern kann in autonomen und teilautonomen Fahrzeugen und beispielsweise in der Fliegerei eingesetzt werden. Es lässt sich eine Vielzahl von Applikationen vorstellen, die eine LiDAR-basierte Umgebungserfassung auf einer mobilen Plattform durchführt.The method proposed according to the invention for compensating for yaw angle errors and pitch angle errors can be used in autonomous and semi-autonomous vehicles and, for example, in aviation. A variety of applications can be imagined that carry out LiDAR-based environmental detection on a mobile platform.
Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.The invention is not limited to the exemplary embodiments described here and the aspects highlighted therein. Rather, within the range specified by the claims, a large number of modifications are possible, which are within the scope of professional action.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 20150045059 [0002]US 20150045059 [0002]
- US 20130041549 A1 [0003]US 20130041549 A1 [0003]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022208937.5A DE102022208937A1 (en) | 2022-08-29 | 2022-08-29 | Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022208937.5A DE102022208937A1 (en) | 2022-08-29 | 2022-08-29 | Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022208937A1 true DE102022208937A1 (en) | 2024-02-29 |
Family
ID=89844747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022208937.5A Pending DE102022208937A1 (en) | 2022-08-29 | 2022-08-29 | Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022208937A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2273334A1 (en) | 2009-06-22 | 2011-01-12 | BAE Systems PLC | Terrain sensing |
US20130041549A1 (en) | 2007-01-05 | 2013-02-14 | David R. Reeve | Optical tracking vehicle control system and method |
US20150045059A1 (en) | 2012-12-28 | 2015-02-12 | Trimble Navigation Limited | Performing data collection based on external raw observables using a mobile data collection platform |
US20160005164A1 (en) | 2013-02-21 | 2016-01-07 | Regents Of The University Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
-
2022
- 2022-08-29 DE DE102022208937.5A patent/DE102022208937A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130041549A1 (en) | 2007-01-05 | 2013-02-14 | David R. Reeve | Optical tracking vehicle control system and method |
EP2273334A1 (en) | 2009-06-22 | 2011-01-12 | BAE Systems PLC | Terrain sensing |
US20150045059A1 (en) | 2012-12-28 | 2015-02-12 | Trimble Navigation Limited | Performing data collection based on external raw observables using a mobile data collection platform |
US20160005164A1 (en) | 2013-02-21 | 2016-01-07 | Regents Of The University Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017116088B4 (en) | Device and method for estimating a position of a vehicle | |
DE102009030672B3 (en) | Method for determining the geographic coordinates of pixels in SAR images | |
DE102015214338A1 (en) | Determining an arrangement information for a vehicle | |
DE112018003986T5 (en) | CONTROL DEVICE, CONTROL PROCEDURE, PROGRAM AND MOBILE UNIT | |
DE102016003261A1 (en) | Method for self-localization of a vehicle in a vehicle environment | |
DE102020105619A1 (en) | SYSTEM AND PROCEDURE FOR DETERMINING VEHICLE POSITION | |
DE102015003666A1 (en) | Method for processing acquired measured data of a sensor | |
DE102020128819A1 (en) | SELF-CORRECTING VEHICLE LOCATION | |
DE102020215504A1 (en) | Method and device for detecting objects in the surroundings of a vehicle | |
DE102021110449A1 (en) | Method and system for navigating a mobile platform in an environment | |
DE112022002791T5 (en) | PARTICLE FILTER TRACKING SYSTEMS AND METHODS | |
DE102022108712A1 (en) | Joint estimation and correction of an alignment error of a LIDAR centerline and a localization error of a host vehicle | |
EP2749982B1 (en) | Generation and updating of reference models | |
DE102019203274B3 (en) | Computer-implemented method for creating an environment model for an automated vehicle, control unit and computer program product for automated control of a vehicle and control system for a vehicle | |
DE102018001533B4 (en) | Real-time method for dynamic coordinate and parameter estimation with grid-based non-linear probabilistic filters | |
DE102016223526A1 (en) | Method and device for determining a first highly accurate position of a vehicle | |
DE102011111342B3 (en) | Method for determining the position of moving objects | |
DE102017204297A1 (en) | Method for position determination and radar system | |
DE102022208937A1 (en) | Method for pitch angle error and yaw angle error compensation in a terrain height measurement with a LiDAR sensor system | |
DE102019217160A1 (en) | Computer-implemented method for creating a map of the area for the operation of a mobile agent | |
DE102005029217B3 (en) | Method for determining a navigation solution of a navigation system with a terrain navigation module and navigation system | |
DE102020201000B3 (en) | Computer-implemented method and system for obtaining an environment model and control device for an automated vehicle | |
DE102021202641A1 (en) | Method for determining a state of motion of a rigid body | |
DE102021120966A1 (en) | SENSOR FUSION | |
DE102020116027A1 (en) | Method and device for determining occupancy information for an environmental point on the basis of radar detections |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |