DE102019000804B4 - Process and device for precise position determination and creation of up-to-date maps with sensor fusion - Google Patents

Process and device for precise position determination and creation of up-to-date maps with sensor fusion Download PDF

Info

Publication number
DE102019000804B4
DE102019000804B4 DE102019000804.9A DE102019000804A DE102019000804B4 DE 102019000804 B4 DE102019000804 B4 DE 102019000804B4 DE 102019000804 A DE102019000804 A DE 102019000804A DE 102019000804 B4 DE102019000804 B4 DE 102019000804B4
Authority
DE
Germany
Prior art keywords
measurements
subset
artificial intelligence
data
odometry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019000804.9A
Other languages
German (de)
Other versions
DE102019000804A1 (en
Inventor
Patrick Henkel
Robert Bensch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anavs GmbH
Original Assignee
Anavs GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anavs GmbH filed Critical Anavs GmbH
Priority to DE102019000804.9A priority Critical patent/DE102019000804B4/en
Publication of DE102019000804A1 publication Critical patent/DE102019000804A1/en
Application granted granted Critical
Publication of DE102019000804B4 publication Critical patent/DE102019000804B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/43Determining position using carrier phase measurements, e.g. kinematic positioning; using long or short baseline interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Diese Erfindung beinhaltet ein Verfahren und eine Vorrichtung zur präzisen Positionsbestimmung und Erstellung von hochaktuellen Karten. Das Verfahren fusioniert die Distanzmessungen eines Lidars, die Bilder von Kameras, die Pseudorange-, Trägerphasen- und Dopplermessungen von Empfängern von Satellitennavigationssystemen, die Radgeschwindigkeiten und Lenkwinkel der Odometrie, und die Beschleunigungs- und Drehratenmessungen von Inertialsensoren. Dabei wird zunächst mit einem Modell der künstlichen Intelligenz (neuronales Netz) eine Bewegungsschätzung mit den Kamera- und Lidardaten und den Messungen der Rad-Odometrie und Inertialsensoren durchgeführt. Die resultierende Bewegungsschätzung wird anschließend mit den Pseudorange-, Trägerphasen- und Dopplermessungen von Empfängern von Satellitennavigationssystemen in einem Kalman Filter fusioniert. Die unbekannten ganzzahligen und zeitlich konstanten Mehrdeutigkeiten der Trägerphasen-Messungen der Empfänger von Satellitennavigationssystemen werden in dem Kalman Filter als Zustandsparameter mit geschätzt und nach einer gewissen Konvergenzzeit auf ganzzahlige Werte fixiert. Das Verfahren beinhaltet auch eine Funktionsüberwachung der Sensordaten und der geschätzten Positionsparameter und deren Statistiken. Die Funktionsüberwachung wird mit einem Modell der künstlichen Intelligenz (neuronales Netz) durchgeführt.This invention includes a method and an apparatus for precise position determination and the creation of highly topical maps. The method merges the distance measurements from a lidar, the images from cameras, the pseudorange, carrier phase and Doppler measurements from receivers of satellite navigation systems, the wheel speeds and steering angles from odometry, and the acceleration and yaw rate measurements from inertial sensors. Initially, an artificial intelligence model (neural network) is used to estimate the movement with the camera and lidar data and the measurements of the wheel odometry and inertial sensors. The resulting motion estimation is then fused with the pseudorange, carrier phase and Doppler measurements from receivers of satellite navigation systems in a Kalman filter. The unknown integer and temporally constant ambiguities of the carrier phase measurements of the receivers of satellite navigation systems are also estimated as state parameters in the Kalman filter and, after a certain convergence time, are fixed to integer values. The method also includes functional monitoring of the sensor data and the estimated position parameters and their statistics. Function monitoring is carried out using an artificial intelligence model (neural network).

Description

Stand der Technik mit FundstellenState of the art with references

Blösch et al. [1] haben eine visuell-inertiale Odometrie entwickelt, bei der Merkmalsbereiche in Kamera-Bildern zuverlässig getrackt werden und mit einem erweiterten Kalman Filter die Position und Lage der Kamera aus den Kamerabildern und Messungen eines Inertialsensors geschätzt werden. Dabei werden neben der Position und Lage auch die Abstände und Richtungsvektoren von der Kamera zu den Merkmalsbereichen als eigene Zustandsparameter geschätzt. Für die Zustandsaktualisierung wird direkt der photometrische Fehler ausgewertet.Blösch et al. [ 1 ] have developed a visual-inertial odometry in which feature areas in camera images are reliably tracked and the position and location of the camera are estimated from the camera images and measurements of an inertial sensor using an extended Kalman filter. In addition to the position and location, the distances and direction vectors from the camera to the feature areas are estimated as their own status parameters. The photometric error is evaluated directly for the status update.

Hess et al. [2] haben ein Verfahren entwickelt, das einen Ort, an dem Distanz-Messungen mit einem Lidar-Sensor durchgeführt werden und an dem bereits zuvor Distanz-Messungen mit einem Lidar-Sensor durchgeführt wurden, wiedererkennt, und die Positionsgenauigkeit der gleichzeitigen Lokalisierung und Kartierung (SLAM) mit Lidar-Messungen durch die Wiedererkennung von Orten verbessert.Hess et al. [2] have developed a method that recognizes a location at which distance measurements are carried out with a lidar sensor and where distance measurements have already been carried out with a lidar sensor, and the position accuracy of the simultaneous localization and mapping (SLAM) with lidar measurements through the recognition of locations.

Henkel et al. [3] haben eine Sensorfusion von einem lokalen Ultra-Breitband-basierten Positionierungssystem mit Rad-Odometrie und Inertialsensorik und eine Sensorfusion von Kamera, Rad-Odometrie und Inertialsensorik untersucht. Dabei wurde ein Kalman Filter und das Robust Visual-Inertial Odometry (ROVIO) Verfahren von [1] verwendet. Eine Zentimeter-genaue Positionslösung konnte erreicht werden.Henkel et al. [ 3 ] have investigated a sensor fusion of a local ultra-broadband-based positioning system with wheel odometry and inertial sensors and a sensor fusion of camera, wheel odometry and inertial sensors. A Kalman filter and the Robust Visual-Inertial Odometry (ROVIO) method from [ 1 ] is used. A position solution that is precise to the centimeter was achieved.

[1] M. Blösch, M. Burri, S. Omary, M. Hutter und R. Siegwart: IEKF-based Visual-Inertial Odometry using Direct Photometrie Feedback, J. of Robotics Research, vol. 36, nr. 10, pp. 1053 - 1072, 2017.[ 1 ] M. Blösch, M. Burri, S. Omary, M. Hutter and R. Siegwart: IEKF-based Visual-Inertial Odometry using Direct Photometry Feedback, J. of Robotics Research, vol. 36, no. 10, pp. 1053-1072, 2017.

[2] W. Hess, D. Kohler, H. Rapp and D. Andor: Real-Time Loop Closure in 2D Lidar SLAM, IEEE Proc. of ICRA, Stockholm, Sweden, pp. 1271 - 1278, May 2016 .[2] W. Hess, D. Kohler, H. Rapp and D. Andor: Real-Time Loop Closure in 2D Lidar SLAM, IEEE Proc. of ICRA, Stockholm, Sweden, pp. 1271 - 1278, May 2016 .

[3] P. Henkel, A. Sperl, U. Mittmann, P. Färber and C. Günther: Precise Positioning of Robots with Fusion of GNSS, INS, Odometry, Barometer, Local Positioning System and Visualization, Proc. of the 31st Intern. Techn. Meeting of the Institute of Navigation (ION GNSS+), Miami, USA, pp. 3078 - 3087, Sep. 2018 .[3] P. Henkel, A. Sperl, U. Mittmann, P. Färber and C. Günther: Precise Positioning of Robots with Fusion of GNSS, INS, Odometry, Barometer, Local Positioning System and Visualization, Proc. of the 31st Intern. Techn. Meeting of the Institute of Navigation (ION GNSS +), Miami, USA, pp. 3078-3087, Sep. 2018 .

Aufgabe und ZielsetzungTask and objective

Der im Patentanspruch 1 angegebenen Erfindung liegt das Problem zugrunde, die Position eines Fahrzeugs oder Roboters sehr präzise und zuverlässig mit kostengünstigen Sensoren zu bestimmen. Dabei ist auch eine hohe Verfügbarkeit und eine zuverlässige Kenntnis der aktuellen Positionsgenauigkeit von großer Bedeutung.The invention specified in claim 1 is based on the problem of determining the position of a vehicle or robot very precisely and reliably with inexpensive sensors. High availability and reliable knowledge of the current position accuracy are also of great importance.

Lösung des Problemsthe solution of the problem

Dieses Problem wird durch die im Patentanspruch 1 aufgeführten Merkmale gelöst. Die Merkmale beinhalten

  • - dass Messungen (11) von Empfängern (9) von Satellitennavigationssystemen, Messungen (6) der Odometrie (5), Messungen (8) von Inertialsensoren (7), Kameradaten (4) von einer Kamera (3) und Lidardaten (2) von einem Lidar (1) oder eine Teilmenge dieser Messungen und Daten zur Positionsbestimmung verwendet werden, und
  • - dass eine Karte (24) der Umgebung mit den Kameradaten (4) und Lidardaten (2) und den Messungen (6) der Odometrie (5) und Inertialsensoren (7) oder einer Teilmenge dieser Daten und Messungen, und einem Modell zur künstlichen Intelligenz (15) erstellt wird, und
  • - dass eine Bewegungsschätzung und Lokalisierung (16) in einer Karte (24) mit den Kameradaten (4) und Lidardaten (2) und den Messungen (6) der Odometrie (5) und Inertialsensoren (7) oder einer Teilmenge dieser Daten und Messungen, und einem Modell zur künstlichen Intelligenz (15) durchgeführt wird, und
  • - dass die Positionsparameter (25) und deren Statistiken mit einem Kalman Filter (19, 20) bestimmt werden, das die Messungen (11, 12) von Empfängern (9, 10) von Satellitennavigationssystemen, die Messungen (6) der Odometrie (5), die Messungen (8) der Inertialsensoren (7) und die Bewegungsschätzung und Lokalisierung (18) in einer Karte (24) aus den Kameradaten (4) und Lidardaten (2) oder einer Teilmenge der Messungen, der Bewegungsschätzung und der Lokalisierung verwendet, und
  • - dass die Sensordaten (6, 8, 14), die Positionsparameter (25) und deren Statistiken oder eine Teilmenge dieser Parameter und Statistiken mit einem Modell der künstlichen Intelligenz (21) überwacht (22) werden.
This problem is solved by the features listed in claim 1. The features include
  • - that measurements ( 11 ) of recipients ( 9 ) of satellite navigation systems, measurements ( 6th ) odometry ( 5 ), Measurements ( 8th ) of inertial sensors ( 7th ), Camera data ( 4th ) from a camera ( 3 ) and lidar data ( 2 ) from a lidar ( 1 ) or a subset of these measurements and data are used to determine the position, and
  • - that a card ( 24 ) the environment with the camera data ( 4th ) and lidar data ( 2 ) and the measurements ( 6th ) odometry ( 5 ) and inertial sensors ( 7th ) or a subset of these data and measurements, and an artificial intelligence model ( 15th ) is created, and
  • - that a motion estimation and localization ( 16 ) in a card ( 24 ) with the camera data ( 4th ) and lidar data ( 2 ) and the measurements ( 6th ) odometry ( 5 ) and inertial sensors ( 7th ) or a subset of these data and measurements, and an artificial intelligence model ( 15th ) is performed, and
  • - that the position parameters ( 25th ) and their statistics with a Kalman filter ( 19th , 20th ) can be determined that the measurements ( 11 , 12th ) of recipients ( 9 , 10 ) of satellite navigation systems that take measurements ( 6th ) odometry ( 5 ), the measurements ( 8th ) of the inertial sensors ( 7th ) and the motion estimation and localization ( 18th ) in a card ( 24 ) from the camera data ( 4th ) and lidar data ( 2 ) or a subset of the measurements, motion estimation and localization are used, and
  • - that the sensor data ( 6th , 8th , 14th ), the positional parameters ( 25th ) and their statistics or a subset of these parameters and statistics with a model of artificial intelligence ( 21st ) supervised ( 22nd ) will.

Vorteile der LösungAdvantages of the solution

Die mit der Erfindung erzielten Vorteile bestehen darin,

  • - dass eine absolute, zentimeter-genaue Positionslösung durch die Verwendung von Trägerphasen-Messungen von mindestens einem Satellitennavigationsempfänger und einer weiteren Referenzstation, und die Auflösung der Mehrdeutigkeiten der Trägerphasen-Messungen erreicht wird, und
  • - dass eine höhere Robustheit und Verfügbarkeit der Positionslösung durch die Fusionierung von mehreren Sensoren mit komplementären Eigenschaften erzielt werden kann als dies mit einem einzelnen Sensor möglich ist, und
  • - dass eine hochgenaue und aktuelle Karte aus den Kamerabildern und der hochgenauen Positionslösung bestimmt wird, und
  • - dass die Sensordaten als auch die geschätzten Positionsparameter und deren Statistiken mit einem Modell der künstlichen Intelligenz überwacht werden, und
  • - dass ein sehr effizienter Ansatz mit einem Kalman Filter zur Sensorfusion und einem neuronalen Netz zur Kamera- und Lidar-basierten Bewegungsschätzung und Lokalisierung in einer Karte realisiert wird.
The advantages achieved with the invention are
  • - that an absolute, centimeter-accurate position solution is achieved through the use of carrier phase measurements from at least one satellite navigation receiver and a further reference station, and the resolution of the ambiguities of the carrier phase measurements, and
  • - that greater robustness and availability of the position solution can be achieved by merging several sensors with complementary properties than is possible with a single sensor, and
  • - that a highly accurate and current map is determined from the camera images and the highly accurate position solution, and
  • - that the sensor data as well as the estimated position parameters and their statistics are monitored with an artificial intelligence model, and
  • - that a very efficient approach with a Kalman filter for sensor fusion and a neural network for camera and lidar-based motion estimation and localization will be implemented in a map.

Detaillierte Erläuterung zu den Ansprüchen/ Technische Beschreibung der ErfindungDetailed explanation of the claims / technical description of the invention

Ein Ausführungsbeispiel der Erfindung ist in der 1 dargestellt und wird im Folgenden näher beschrieben.An embodiment of the invention is in 1 and is described in more detail below.

1 zeigt beispielhaft ein Ablaufdiagramm zu dem Verfahren zur Positionsbestimmung von einem Objekt mit mehreren Sensoren. Dabei werden die Distanzmessungen (2) eines Lidars (1), die Bilder (4) einer oder mehrerer Mono- oder Stereo-Kameras (3), die Radgeschwindigkeiten und Lenkwinkel (6) der Rad-Odometrie (5) und die Beschleunigungs-, Drehraten- und Magnetfeldmessungen (8) eines Inertialsensors (7) oder eine Teilmenge dieser Messungen und Daten verwendet, um mit einem Modell der künstlichen Intelligenz (15) eine Lidar-/ Visuellbasierte Odometrie-Lösung (16) zu bestimmen. Diese beinhaltet eine Bewegungsschätzung (18), d.h. der Änderung der Position und Lage. Darüber hinaus wird eine 3D-Karte erstellt und eine Szeneninterpretation (17) durchgeführt werden, so dass eine Karte (24) mit semantischen Informationen verfügbar ist. Die absolute Positions- und Lagebestimmung erfolgt mit einem Kalman Filter, das aus einer Zustandsprädiktion (19) und einer Zustandsaktualisierung (20) besteht. Die Zustandsparameter des Kalman Filters beinhalten die Position und Lage (25) des Objekts und optional auch die Geschwindigkeit, Beschleunigung und Drehraten des Objekts. Für die Zustandsaktualisierung wird die Bewegungsschätzung (18), die Radgeschwindigkeiten und Lenkwinkel (6) der Rad-Odometrie (5), die Beschleunigungs-, Drehraten- und Magnetfeldmessungen (8) eines Inertialsensors (7) und die korrigierten Messungen (14) von mindestens einem Empfänger (9) von Satellitennavigationssystemen und die korrigierten Messungen (14) von einem weiteren Empfänger (10) von Satellitennavigationssystemen oder eine Teilmenge dieser Messungen und Daten verwendet. Der zuletzt genannte Empfänger von Satellitennavigationssystemen dient dabei als Referenzstation zur Korrektur von gemeinsamen oder ähnlichen Fehlern wie z.B. Bahnfehler, Uhrenfehler oder Biases der Satelliten. Das Kalman Filter ist ein rekursives Filter, d.h. die Zustandsparameter (25) werden nach der Aktualisierung (20) zurückgeführt in die Zustandsprädiktion (19). Die Zustandsparameter der Position und Lage als auch deren Statistiken sind zudem auch eine der Ausgangsgrößen (23) dieses Verfahrens.
Der letzte Schritt dieses Verfahrens beinhaltet die Funktionsüberwachung (22) mit einem Modell der künstlichen Intelligenz (21). Dabei werden die Bewegungsschätzung (18), die korrigierten Messungen (14) von Satellitennavigationssystemen, die Radgeschwindigkeiten und Lenkwinkel (6) der Rad-Odometrie (5) und die Beschleunigungs-, Drehraten- und Magnetfeldmessungen (8) eines Inertialsensors (7) und die Positionsparameter und deren Statistiken (25) des Kalman Filters oder eine Teilmenge dieser Messungen, Daten, Parameter und Statistiken überprüft. Das Ergebnis der Funktionsüberwachung sind Statusinformationen (26) für die Qualität der entsprechenden Messungen, Daten, Parameter und Statistiken.
1 shows an example of a flowchart for the method for determining the position of an object with multiple sensors. The distance measurements ( 2 ) a lidar ( 1 ), the pictures ( 4th ) one or more mono or stereo cameras ( 3 ), the wheel speeds and steering angles ( 6 ) the wheel odometry ( 5 ) and the acceleration, yaw rate and magnetic field measurements ( 8th ) an inertial sensor ( 7th ) or a subset of these measurements and data used to match an artificial intelligence model ( 15th ) a lidar / visual based odometry solution ( 16 ) to be determined. This includes a motion estimation ( 18th ), ie the change in position and location. In addition, a 3D map is created and a scene interpretation ( 17th ) so that a card ( 24 ) is available with semantic information. The absolute position and attitude determination is carried out with a Kalman filter, which is based on a state prediction ( 19th ) and a status update ( 20th ) consists. The state parameters of the Kalman filter include the position and location ( 25th ) of the object and optionally also the speed, acceleration and rotation rates of the object. For the status update, the motion estimation ( 18th ), the wheel speeds and steering angles ( 6 ) the wheel odometry ( 5 ), the acceleration, yaw rate and magnetic field measurements ( 8th ) an inertial sensor ( 7th ) and the corrected measurements ( 14th ) from at least one recipient ( 9 ) of satellite navigation systems and the corrected measurements ( 14th ) from another recipient ( 10 ) used by satellite navigation systems or a subset of these measurements and data. The last-mentioned receiver of satellite navigation systems serves as a reference station for correcting common or similar errors such as orbit errors, clock errors or biases of the satellites. The Kalman filter is a recursive filter, i.e. the state parameters ( 25th ) will be after the update ( 20th ) traced back to state prediction ( 19th ). The status parameters of the position and location as well as their statistics are also one of the output variables ( 23 ) this procedure.
The last step of this procedure involves function monitoring ( 22nd ) with a model of artificial intelligence ( 21st ). The motion estimation ( 18th ), the corrected measurements ( 14th ) of satellite navigation systems, the wheel speeds and steering angles ( 6 ) the wheel odometry ( 5 ) and the acceleration, yaw rate and magnetic field measurements ( 8th ) an inertial sensor ( 7th ) and the position parameters and their statistics ( 25th ) of the Kalman filter or a subset of these measurements, data, parameters and statistics. The result of the function monitoring is status information ( 26th ) for the quality of the relevant measurements, data, parameters and statistics.

Eine vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 2 angegeben. Die Weiterbildung nach Patentanspruch 2 ermöglicht es, dass eine absolute Position und Geschwindigkeit bestimmt wird. Hierfür werden die Pseudorange-, Trägerphasen- und Dopplermessungen (11) auf einer Frequenz oder mehreren Frequenzen oder eine Linearkombination der Messungen auf den verschiedenen Frequenzen von mindestens einem Empfänger (9) von Satellitennavigationssystemen verwendet. Die Pseudorange- und Trägerphasenmessungen (11) hängen dabei nicht nur von der Position und dem Uhrenfehler des Empfängers, sondern auch von den Positionen, Uhrenfehlern und Biases der Satelliten, und atmosphärischen Verzögerungen ab. Eine Schätzung der Positionen und der Uhrenfehler der Satelliten wird von diesen aber direkt in der Navigationsnachricht der Satelliten zum Empfänger übertragen, so dass die Pseudorange- und Trägerphasenmessungen korrigiert werden können, um den Einfluss der Positionen und der Uhrenfehler der Satelliten auf die Messungen zu eliminieren. Die Korrektur der Pseudorange- und Trägerphasenmessungen wird bestimmt, indem die Satellitenposition auf die Richtung vom Satelliten zum Empfänger projiziert wird und die Schätzung des Uhrenfehlers des Satelliten addiert wird (13). Die korrigierten Pseudorange- und Trägerphasenmessungen (14) werden dann zur Zustandsaktualisierung (20) im Kalman Filter verwendet.An advantageous embodiment of the invention is specified in claim 2. The development according to claim 2 enables an absolute position and speed to be determined. For this purpose the pseudorange, carrier phase and Doppler measurements ( 11 ) on one or more frequencies or a linear combination of measurements on the different frequencies from at least one receiver ( 9 ) used by satellite navigation systems. The pseudorange and carrier phase measurements ( 11 ) depend not only on the position and the clock error of the receiver, but also on the positions, clock errors and biases of the satellites, and atmospheric delays. An estimate of the positions and the clock errors of the satellites is transmitted by them directly in the navigation message from the satellites to the receiver, so that the pseudorange and carrier phase measurements can be corrected in order to eliminate the influence of the positions and the clock errors of the satellites on the measurements. Correction to the pseudorange and carrier phase measurements is determined by projecting the satellite position in the direction from the satellite to the receiver and adding the satellite's clock error estimate ( 13th ). The corrected pseudorange and carrier phase measurements ( 14th ) are then used to update the status ( 20th ) used in the Kalman filter.

Neben den Pseudorange- und Trägerphasenmessungen werden auch die Doppler-Messungen korrigiert. Die Doppler-Messungen sind von der Geschwindigkeit und der Uhrendrift des Empfängers und der Satelliten abhängig. Die Geschwindigkeit und der Uhrendrift der Satelliten werden in der Navigationsnachricht der Satelliten von den Satelliten zum Empfänger übertragen, so dass die Doppler-Messungen korrigiert werden können. Die Korrektur der Doppler-Messungen wird ähnlich zu den Pseudorange- und Trägerphasen-Korrekturen bestimmt, d.h. die Satellitengeschwindigkeiten werden zuerst auf die Richtung zwischen den Satelliten und dem Empfänger projiziert und anschließend wird die Uhrendrift der Satelliten auf die projizierte Satellitengeschwindigkeit addiert.In addition to the pseudorange and carrier phase measurements, the Doppler measurements are also corrected. The Doppler measurements are of the speed and clock drift of the receiver and the satellite dependent. The speed and the clock drift of the satellites are transmitted from the satellites to the receiver in the navigation message of the satellites, so that the Doppler measurements can be corrected. The correction of the Doppler measurements is determined in a similar way to the pseudorange and carrier phase corrections, ie the satellite speeds are first projected onto the direction between the satellites and the receiver and then the clock drift of the satellites is added to the projected satellite speed.

Die Pseudorange- und Trägerphasen-Messungen (12) der Referenzstation (10) werden in gleicher Weise korrigiert wie die Pseudorange- und Trägerphasen-Messungen (11) der Empfänger (9) von Satellitennavigationssystemen.The pseudorange and carrier phase measurements ( 12th ) of the reference station ( 10 ) are corrected in the same way as the pseudorange and carrier phase measurements ( 11 ) recipient ( 9 ) of satellite navigation systems.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 3 angegeben. Die Weiterbildung nach Patentanspruch 3 ermöglicht es, dass eine absolute, Zentimeter-genaue Positionslösung erreicht wird. Dies wird erreicht, in dem zunächst eine zentimeter-genaue relative Positionierung zwischen den Empfängern (9) von Satellitennavigationssystemen und der Referenzstation (10) bestimmt wird, und anschließend die so bestimmte relative Position zwischen den Empfängern (9) von Satellitennavigationssystemen auf die sehr genaue eingemessene, absolute Position der Referenzstation (10) addiert wird. Eine zentimeter-genaue relative Position wird bestimmt, in dem zuerst die Pseudorange-, Trägerphasen- und Dopplermessungen zwischen den Empfängern (9) von Satellitennavigationssystemen und der Referenzstation (10) subtrahiert werden um Bahnfehler, Uhrenfehler und Biases der Satelliten und atmosphärische Verzögerungen zu eliminieren, und anschließend aus diesen so erhaltenen differentiellen Messungen mit einem Kalman Filter (19, 20) die relative Position und die Mehrdeutigkeiten der differentiellen Trägerphasen-Messungen bestimmt werden. Die Mehrdeutigkeiten der differentiellen Trägerphasenmessungen sind ganzzahlig. Dies bedeutet, dass die vom Kalman Filter bestimmten reellwertigen Schätzungen der Mehrdeutigkeiten nach einer gewissen Konvergenzzeit auf ganzzahlige Werte fixiert werden können. Die geschätzten ganzzahligen Mehrdeutigkeiten können dann von den Trägerphasen-Messungen subtrahiert werden, so dass die Mehrdeutigkeiten nicht mehr als Zustandsparameter im Kalman Filter (19, 20) bestimmt werden müssen. Die Genauigkeit der resultierenden Positionslösung mit fixierten Mehrdeutigkeiten liegt in der Größenordnung der Genauigkeit der Trägerphasen-Messungen. Das Rauschen der Trägerphasen liegt in der Größenordnung von ca. 5 mm, wobei neben dem Rauschen auch noch die Mehrwegefehler der Trägerphasen-Messungen mit einigen Zentimetern die Genauigkeit begrenzen.Another advantageous embodiment of the invention is specified in claim 3. The further development according to claim 3 enables an absolute, centimeter-accurate position solution to be achieved. This is achieved by initially positioning the receivers with centimeter accuracy ( 9 ) of satellite navigation systems and the reference station ( 10 ) is determined, and then the relative position between the receivers ( 9 ) of satellite navigation systems to the very precise, measured, absolute position of the reference station ( 10 ) is added. A centimeter-accurate relative position is determined by first taking the pseudorange, carrier phase and Doppler measurements between the receivers ( 9 ) of satellite navigation systems and the reference station ( 10 ) are subtracted in order to eliminate orbital errors, clock errors and biases of the satellites and atmospheric delays, and then from these differential measurements with a Kalman filter ( 19th , 20th ) the relative position and the ambiguities of the differential carrier phase measurements are determined. The ambiguities of the differential carrier phase measurements are integers. This means that the real-valued estimates of the ambiguities determined by the Kalman filter can be fixed to integer values after a certain convergence time. The estimated integer ambiguities can then be subtracted from the carrier phase measurements so that the ambiguities no longer appear as state parameters in the Kalman filter ( 19th , 20th ) must be determined. The accuracy of the resulting positional solution with fixed ambiguities is on the order of the accuracy of the carrier phase measurements. The noise of the carrier phases is in the order of magnitude of approx. 5 mm, whereby in addition to the noise also the multipath errors of the carrier phase measurements limit the accuracy to a few centimeters.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 4 angegeben. Die Weiterbildung nach Patentanspruch 4 ermöglicht es, die Sensor-Rohdaten (6) der Rad-Odometrie (5) für die Bewegungsschätzung und Sensorfusion zu verwenden. Die Integration der Sensor-Rohdaten anstelle einer Positions- bzw. Geschwindigkeitsinformation hat den Vorteil, dass eine enge Kopplung zwischen den verschiedenen Sensoren möglich ist und damit auch dann eine Positionsinformation bestimmt werden kann, wenn einzelne Messdaten ausfallen. Die Sensor-Rohdaten (6) der Rad-Odometrie (5) beinhalten die Messungen der einzelnen Radgeschwindigkeiten bzw. -drehraten und des Lenkwinkels bzw. eine Teilmenge der Messungen der einzelnen Radgeschwindigkeiten bzw. -drehraten und des Lenkwinkels.Another advantageous embodiment of the invention is specified in claim 4. The development according to claim 4 enables the raw sensor data ( 6th ) the wheel odometry ( 5 ) for motion estimation and sensor fusion. The integration of the raw sensor data instead of position or speed information has the advantage that a close coupling between the various sensors is possible and position information can therefore also be determined if individual measurement data fail. The sensor raw data ( 6th ) the wheel odometry ( 5 ) contain the measurements of the individual wheel speeds or rotation rates and the steering angle or a subset of the measurements of the individual wheel speeds or rotation rates and the steering angle.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 5 angegeben. Die Weiterbildung nach Patentanspruch 5 ermöglicht es, dass die Sensor-Rohdaten (8) eines Inertialsensors (7) zur Bewegungsschätzung und zur Sensorfusion verwendet werden können und damit eine enge Kopplung ermöglicht wird. Die Sensor-Rohdaten (8) des Inertialsensors (7) beinhalten die Messungen der Beschleunigung in drei orthogonale Richtungen, der Drehraten um drei orthogonale Achsen, und des Magnetfelds in drei orthogonale Richtungen, oder eine Teilmenge dieser Messungen. Die Messungen (8) des Inertialsensors (7) sind allerdings von systematischen Fehlern (Biases) betroffen, die je nach Qualität und Preis des jeweiligen Modells eine unterschiedliche zeitliche Stabilität aufweisen. Die Beschleunigungsmessungen sind neben der Beschleunigung des Objekts auch von der Gravitation abhängig. Die Sensor-Rohdaten (8) des Inertialsensors (7) werden daher vor der Weiterverarbeitung zur Bewegungsschätzung in (16, 17) und vor der Kalman-Filter basierten Sensorfusion (19, 20) noch um den Einfluss der Biases und der Gravitation korrigiert.Another advantageous embodiment of the invention is specified in claim 5. The further development according to claim 5 enables the raw sensor data ( 8th ) an inertial sensor ( 7th ) can be used for motion estimation and for sensor fusion, thus enabling close coupling. The sensor raw data ( 8th ) of the inertial sensor ( 7th ) include the measurements of the acceleration in three orthogonal directions, the rotation rates around three orthogonal axes, and the magnetic field in three orthogonal directions, or a subset of these measurements. The measurements ( 8th ) of the inertial sensor ( 7th ) are, however, affected by systematic errors (biases), which have a different temporal stability depending on the quality and price of the respective model. In addition to the acceleration of the object, the acceleration measurements are also dependent on gravity. The sensor raw data ( 8th ) of the inertial sensor ( 7th ) are therefore before further processing for motion estimation in ( 16 , 17th ) and before the Kalman filter based sensor fusion ( 19th , 20th ) corrected for the influence of biases and gravity.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 6 angegeben. Die Weiterbildung nach Patentanspruch 6 ermöglicht es, die absolute oder relative drei-dimensionale Position und die drei-dimensionale Orientierung oder eine Teilmenge dieser Positionsparameter zu bestimmen. Die absolute, drei-dimensionale Orientierung eines Objekts kann mit 3 fest-verbauten Empfängern (9) von Satellitennavigationssystemen bestimmt werden. Dabei werden zunächst die relativen Positionen zwischen den Empfängern (9) in einem lokalen Koordinatensystem mit den differentiellen Pseudorange- und Trägerphasen-Messungen bestimmt, wobei die Achsen des lokalen Koordinatensystems entweder nach Osten, Norden und Oben oder nach Norden, Osten und Unten ausgerichtet sind. Zudem werden die relativen Positionen der Empfänger (9) von Satellitennavigationssystemen auf dem Objekt in einem lokalen, Objekt-fixierten Koordinatensystem nach der Montage vermessen. Die relative Orientierung der beiden Koordinatensysteme beinhaltet die Information über die Orientierung des Objekts. Diese Orientierung lässt sich mit den drei Lagewinkeln (Roll-, Nick- und Gierwinkel) beschreiben, aus denen eine Rotationsmatrix gebildet werden kann. Die Rotationsmatrix wird so bestimmt, dass die quadratische Abweichung zwischen der Schätzung der relativen Positionen im nach Osten, Norden und Oben oder nach Norden, Osten und Unten ausgerichteten lokalen Koordinatensystem und der nach Anwendung der Rotationsmatrix auf die Schätzung der relativen Positionen im lokalen Objektfixierten Koordinatensystem minimiert wird. Es handelt sich hierbei um das klassische Wahba's Problem, das mit einer Singulärwertszerlegung gelöst werden kann. Die differentiellen Trägerphasen-Messungen sind mehrdeutig, so dass neben den relativen Positionen zwischen den Empfängern (9) von Satellitennavigationssystemen auch die ganzzahligen Mehrdeutigkeiten der differentiellen Trägerphasen-Messungen bestimmt werden müssen.Another advantageous embodiment of the invention is specified in claim 6. The development according to claim 6 makes it possible to determine the absolute or relative three-dimensional position and the three-dimensional orientation or a subset of these position parameters. The absolute, three-dimensional orientation of an object can with 3 permanently installed receivers ( 9 ) can be determined by satellite navigation systems. First, the relative positions between the recipients ( 9 ) is determined in a local coordinate system with the differential pseudorange and carrier phase measurements, with the axes of the local coordinate system oriented either to east, north and above or to north, east and below. In addition, the relative positions of the recipients ( 9 ) of satellite navigation systems on the object measured in a local, object-fixed coordinate system after assembly. The relative orientation of the two coordinate systems contains information about the orientation of the object. This orientation can be described with the three angles of position (roll, pitch and yaw angles) from which a rotation matrix can be formed. The rotation matrix is determined in such a way that the quadratic deviation between the estimate of the relative positions in the local coordinate system oriented to the east, north and above or to the north, east and below, and that after the rotation matrix has been applied to the estimate of the relative positions in the local object-fixed coordinate system is minimized becomes. This is the classic Wahba's problem, which can be solved with a singular value decomposition. The differential carrier phase measurements are ambiguous, so that in addition to the relative positions between the receivers ( 9 ) of satellite navigation systems, the integer ambiguities of the differential carrier phase measurements must also be determined.

Sobald diese Mehrdeutigkeiten auf ganzzahlige Werte fixiert sind und das Wahba's Problem gelöst sind, liegt eine hochgenaue absolute Orientierung vor. Diese wird dann mit dem Kalman Filter prädiziert (19) und mit der Kamera-/Lidar-basierten Bewegungsschätzung (18), den Radgeschwindigkeiten und Lenkwinkeln (6) der Rad-Odometrie (5), und den Drehratenmessungen (8) des Inertialsensors (7) aktualisiert. Damit ist es möglich, auch dann eine hochgenaue Orientierung zu haben, wenn der Empfang von Signalen von Satellitennavigationssystemen stark eingeschränkt ist.As soon as these ambiguities are fixed on integer values and the Wahba's problem is solved, a highly accurate absolute orientation is available. This is then predicted with the Kalman filter ( 19th ) and with the camera / lidar-based motion estimation ( 18th ), the wheel speeds and steering angles ( 6th ) the wheel odometry ( 5 ), and the yaw rate measurements ( 8th ) of the inertial sensor ( 7th ) updated. This makes it possible to have a highly precise orientation even if the reception of signals from satellite navigation systems is severely restricted.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 7 angegeben. Die Weiterbildung nach Patentanspruch 7 ermöglicht es, die drei-dimensionale Geschwindigkeit, die drei-dimensionale Beschleunigung und die drei-dimensionalen Drehraten oder eine Teilmenge dieser Parameter neben der Position und Lage zu bestimmen. Eine lineare Information über die drei-dimensionale Geschwindigkeit des Objekts ist in den Radgeschwindigkeiten (6) der Rad-Odometrie (5) und in den korrigierten Doppler-Messungen (14) der Empfänger (9) von Satellitennavigationssystemen enthalten. Zudem beinhaltet die Kamera-/ Lidar-basierte Bewegungsschätzung (18) unter Berücksichtigung eines Modells (15) zur künstlichen Intelligenz eine Geschwindigkeitsinformation. Eine lineare Information über die drei-dimensionale Beschleunigung liefert der Beschleunigungssensor des Inertialsensors (7), und eine lineare Information über die drei-dimensionalen Drehraten liefert das Gyroskop/ Drehratensensor des Inertialsensors (7). Die drei-dimensionale Geschwindigkeit, die drei-dimensionale Beschleunigung und die drei-dimensionalen Drehraten oder eine Teilmenge dieser Parameter werden daher als Zustandsparameter im Kalman Filter (19, 20) geschätzt. Nach der Zustandsprädiktion (19) erfolgt die Zustandsaktualisierung (20), wobei die Radgeschwindigkeiten (6) der Rad-Odometrie (5), die korrigierten Doppler-Messungen (14) der Empfänger (9) von Satellitennavigationssystemen, die Kamera-/ Lidar-basierte Bewegungsschätzung (18) und die um den Einfluss von Biases und Gravitation korrigierten Beschleunigungs- und Drehraten-Messungen (8) des Inertialsensors (7) verwendet werden.Another advantageous embodiment of the invention is specified in claim 7. The further development according to claim 7 makes it possible to determine the three-dimensional speed, the three-dimensional acceleration and the three-dimensional rotation rates or a subset of these parameters in addition to the position and location. Linear information about the three-dimensional speed of the object is contained in the wheel speeds ( 6 ) the wheel odometry ( 5 ) and in the corrected Doppler measurements ( 14th ) recipient ( 9 ) from satellite navigation systems. In addition, the camera / lidar-based motion estimation ( 18th ) taking into account a model ( 15th ) speed information for artificial intelligence. The acceleration sensor of the inertial sensor provides linear information about the three-dimensional acceleration ( 7th ), and linear information about the three-dimensional rotation rates is provided by the gyroscope / rotation rate sensor of the inertial sensor ( 7th ). The three-dimensional speed, the three-dimensional acceleration and the three-dimensional yaw rates or a subset of these parameters are therefore used as state parameters in the Kalman filter ( 19th , 20th ) estimated. According to the state prediction ( 19th ) the state is updated ( 20th ), where the wheel speeds ( 6 ) the wheel odometry ( 5 ), the corrected Doppler measurements ( 14th ) recipient ( 9 ) of satellite navigation systems that use camera / lidar-based motion estimation ( 18th ) and the acceleration and yaw rate measurements corrected for the influence of biases and gravity ( 8th ) of the inertial sensor ( 7th ) be used.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 8 angegeben. Die Weiterbildung nach Patentanspruch 8 ermöglicht es, eine robuste Kamera-/ Lidar-basierte Bewegungsschätzung (18) mit einem Modell zur künstlichen Intelligenz (15) zu erhalten. Das Modell der künstlichen Intelligenz entspricht einem neuronalen Netz. Der Vorteil des neuronalen Netzes/ Modells zur künstlichen Intelligenz ist, dass es keine Modellierung der Messungen und deren Statistiken benötigt, die häufig fehleranfällig ist. So lassen sich Fehler bei der Vorverarbeitung, zum Beispiel bei der Korrektur von Phasensprüngen und/ oder der Gravitation nicht vollständig vermeiden und erkennen. Zudem werden unbekannte zeitliche Korrelationen aufgrund von Mehrwegefehlern im Kalman Filter nicht berücksichtigt und führen häufig zu einer Unterschätzung der tatsächlichen Unsicherheit der Zustandsparameter. Das Modell der künstlichen Intelligenz (15) besteht aus mehreren aufeinander folgenden Schichten. Die Eingangsgrößen der ersten Schicht sind die Kamera- (4) und Lidardaten (2), die Messungen (6) der Odometrie (5) und die Messungen (8) der Inertialsensoren (7) oder eine Teilmenge dieser Daten und Messungen. Die Eingangsgrößen der anderen Schichten sind identisch zu den Ausgangsgrößen der vorhergehenden Schicht. Eine Ausgangsgröße einer Schicht wird bestimmt, in dem eine Linearkombination aller Eingangsgrößen dieser Schicht gebildet wird, ein Bias addiert wird und das so erhaltene Zwischenergebnis mit einer Funktion auf den Ausgangswert abgebildet wird. Bei der Funktion kann beispielsweise die Sigmoid-Funktion verwendet werden, die einen Wertebereich zwischen 0 und 1 aufweist, einen linearen Bereich um 0 hat, und bei größeren Argumenten in die Sättigung geht. Die Ausgangsgrößen der letzten Schicht entsprechen der Bewegungsschätzung (18) des Objekts, d.h. der Positions- und Lageänderung und der Geschwindigkeit und Drehraten.Another advantageous embodiment of the invention is specified in claim 8. The further development according to claim 8 enables a robust camera / lidar-based motion estimation ( 18th ) with an artificial intelligence model ( 15th ) to obtain. The artificial intelligence model corresponds to a neural network. The advantage of the neural network / model for artificial intelligence is that it does not require any modeling of the measurements and their statistics, which is often error-prone. Errors in preprocessing, for example when correcting phase jumps and / or gravitation, cannot be completely avoided and recognized. In addition, unknown temporal correlations due to multipath errors in the Kalman filter are not taken into account and often lead to an underestimation of the actual uncertainty of the state parameters. The artificial intelligence model ( 15th ) consists of several consecutive layers. The input variables of the first layer are the camera ( 4th ) and lidar data ( 2 ), the measurements ( 6th ) odometry ( 5 ) and the measurements ( 8th ) of the inertial sensors ( 7th ) or a subset of these data and measurements. The input variables of the other layers are identical to the output variables of the previous layer. An output variable of a layer is determined by forming a linear combination of all input variables of this layer, adding a bias and mapping the intermediate result obtained in this way to the output value with a function. For example, the sigmoid function can be used with the function, which has a range of values between 0 and 1 has a linear range around 0 and goes into saturation with larger arguments. The output variables of the last layer correspond to the motion estimation ( 18th ) of the object, ie the change in position and location and the speed and rotation rates.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 9 angegeben. Die Weiterbildung nach Patentanspruch 9 ermöglicht es, die Parameter des Modells zur künstlichen Intelligenz (15) zu bestimmen. Die Parameter beinhalten die Koeffizienten/ Gewichte der Linearkombinationen und die Biases für alle Schichten, und werden mit einer Referenzlösung der Positionsparameter bestimmt. Ein typisches Kriterium zur Bestimmung der Parameter des Modells zur künstlichen Intelligenz (15) ist die Minimierung der mittleren quadratischen Abweichung zwischen den Positionsparametern der Referenzlösung und den vom Modell der künstlichen Intelligenz (15) berechneten Positionsparametern.Another advantageous embodiment of the invention is specified in claim 9. The further development according to claim 9 enables the parameters of the model for artificial intelligence ( 15th ) to be determined. The parameters include the coefficients / weights of the linear combinations and the biases for all layers, and are compared with a reference solution Position parameters determined. A typical criterion for determining the parameters of the artificial intelligence model ( 15th ) is the minimization of the mean square deviation between the position parameters of the reference solution and those of the artificial intelligence model ( 15th ) calculated position parameters.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 10 angegeben. Die Weiterbildung nach Patentanspruch 10 ermöglicht es, die Parameter des Modells zur künstlichen Intelligenz (15) effizient zu bestimmen. Die Koeffizienten/ Gewichte der Linearkombinationen und die Biases werden für jede Schicht mit einem iterativen Gauss-Newton Verfahren und der Methode des steilsten Abstiegs bestimmt: Hierfür werden die Gradienten von der mittleren quadratischen Abweichung zwischen den Positionsparametern der Referenzlösung und den vom Modell der künstlichen Intelligenz berechneten Positionsparametern nach den Koeffizienten/ Gewichten der Linearkombinationen und den Biases bestimmt. Die Koeffizienten/ Gewichte der Linearkombinationen und die Biases ergeben sich in einem Iterationsschritt aus den Koeffizienten/ Gewichten und Biases des vorhergehenden Iterationsschritts, in dem diese um die skalierten Gradienten korrigiert werden. Die Iterationen werden beendet, sobald der Unterschied in den Koeffizienten/ Gewichten und Biases von zwei aufeinanderfolgenden Iterationen klein genug ist.Another advantageous embodiment of the invention is specified in claim 10. The development according to claim 10 enables the parameters of the model for artificial intelligence ( 15th ) efficiently. The coefficients / weights of the linear combinations and the biases are determined for each layer using an iterative Gauss-Newton method and the steepest descent method: For this purpose, the gradients are calculated from the mean square deviation between the position parameters of the reference solution and those calculated by the model of artificial intelligence Position parameters determined according to the coefficients / weights of the linear combinations and the biases. The coefficients / weights of the linear combinations and the biases result in an iteration step from the coefficients / weights and biases of the previous iteration step, in which these are corrected by the scaled gradients. The iterations are ended as soon as the difference in the coefficients / weights and biases of two successive iterations is small enough.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 11 angegeben. Die Weiterbildung nach Patentanspruch 11 ermöglicht es, einen guten Kompromiss zwischen dem Aufwand zum Trainieren des neuronalen Netzes/ Modells der künstlichen Intelligenz (15) und der Leistungsfähigkeit des neuronalen Netzes (15) zu finden. Die Anzahl der Schichten des neuronalen Netzes (15) ist ein wichtiger Parameter, da die Anzahl der Koeffizienten/ Gewichte und Biases linear mit der Anzahl der Schichten steigt. Andererseits ermöglicht eine höhere Anzahl an Schichten auch eine bessere Abbildung von komplexen Modellen. Die optimale Anzahl an Schichten wird daher mit einer gewissen Datenbasis von Sensor-Rohdaten und einer Referenzlösung der Positionsparameter bestimmt.Another advantageous embodiment of the invention is specified in claim 11. The development according to claim 11 makes it possible to find a good compromise between the effort required to train the neural network / model of the artificial intelligence ( 15th ) and the performance of the neural network ( 15th ) to find. The number of layers of the neural network ( 15th ) is an important parameter because the number of coefficients / weights and biases increases linearly with the number of layers. On the other hand, a higher number of layers also enables better mapping of complex models. The optimal number of layers is therefore determined with a certain database of raw sensor data and a reference solution of the position parameters.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 12 angegeben. Die Weiterbildung nach Patentanspruch 12 ermöglicht es, die Leistungsfähigkeit des neuronalen Netzes/ Modells der künstlichen Intelligenz (15) durch die Integration von Satellitennavigations-basierten Positionsinformationen zu steigern. Hierfür werden die Positionsparameter (25) und deren Statistiken des Kalman Filters nach der Zustandsaktualisierung (20) in das neuronale Netz/ Modell der künstlichen Intelligenz (16) zurückgeführt. Damit stützen auch die aus den korrigierten Messungen (14) der Empfänger (9) von Satellitennavigationssystemen abgeleiteten Positionsparameter die Bewegungsschätzung und Lokalisierung (16) in einer Karte (24). Die differentielle, trägerphasenbasierte Positionslösung mit Empfängern (9) von Satellitennavigationssystemen hat eine Zentimeter-Genauigkeit bei guter Satelliten-Sichtbarkeit und ist damit eine wertvolle Stütze für das neuronale Netz/ Modell der künstlichen Intelligenz (15).Another advantageous embodiment of the invention is specified in claim 12. The further development according to claim 12 enables the performance of the neural network / model of artificial intelligence ( 15th ) through the integration of satellite navigation-based position information. The position parameters ( 25th ) and their statistics of the Kalman filter after the status update ( 20th ) into the neural network / model of artificial intelligence ( 16 ). The corrected measurements ( 14th ) recipient ( 9 ) position parameters derived from satellite navigation systems motion estimation and localization ( 16 ) in a card ( 24 ). The differential, carrier phase based position solution with receivers ( 9 ) of satellite navigation systems has centimeter accuracy with good satellite visibility and is therefore a valuable support for the neural network / model of artificial intelligence ( 15th ).

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 13 angegeben. Die Weiterbildung nach Patentanspruch 13 ermöglicht es, eine Vorrichtung zu bauen, die eine Prozessor-Plattform beinhaltet, auf der das in einem der Patentansprüche 1 bis 12 beschriebene Verfahren zur Positionsbestimmung mit Sensorfusion implementiert ist, und bei der die Sensoren über Schnittstellen an die Prozessor-Plattform angeschlossen werden.Another advantageous embodiment of the invention is specified in claim 13. The further development according to claim 13 makes it possible to build a device that contains a processor platform on which the method for determining position with sensor fusion described in one of claims 1 to 12 is implemented, and in which the sensors are connected to the processor via interfaces. Platform can be connected.

BezugszeichenlisteList of reference symbols

11
LidarLidar
22
LidardatenLidar data
33
Kamera(s)Camera (s)
44th
KameradatenCamera data
55
Rad-OdometrieWheel odometry
66th
Messungen der Rad-OdometrieRad odometry measurements
77th
InertialsensorenInertial sensors
88th
Messungen der InertialsensorenMeasurements of the inertial sensors
99
Empfänger von SatellitennavigationssystemenReceiver of satellite navigation systems
1010
Empfänger von Satellitennavigationssystemen (Referenzstation)Receiver of satellite navigation systems (reference station)
11, 1211, 12
Messungen eines Empfängers von SatellitennavigationssystemenMeasurements of a receiver of satellite navigation systems
1313
Korrektur der Messungen eines Empfängers von SatellitennavigationssystemenCorrection of the measurements of a receiver of satellite navigation systems
1414th
korrigierte Messungen eines Empfängers von Satellitennavigationssystemencorrected measurements of a receiver of satellite navigation systems
1515th
Modell der künstlichen IntelligenzArtificial intelligence model
1616
Bewegungsschätzung und LokalisierungMotion estimation and localization
1717th
3D Kartenerstellung und Szeneninterpretation3D map creation and scene interpretation
1818th
Messungen der Bewegungsschätzung und LokalisierungMotion estimation and localization measurements
1919th
Zustandsprädiktion Kalman FilterState prediction Kalman filter
2020th
Zustandsaktualisierung Kalman FilterStatus update Kalman filter
2121st
Modell der künstlichen IntelligenzArtificial intelligence model
2222nd
FunktionsüberwachungFunction monitoring
2323
Ausgangsgrößen Kalman FilterOutput variables Kalman filter
2424
Karte der UmgebungMap of the area
2525th
Zustandsparameter Kalman FilterState parameters Kalman filter
2626th
Ergebnis FunktionsüberwachungFunction monitoring result

Claims (13)

Verfahren zur präzisen Positionsbestimmung von einem Objekt und zur Erstellung von hochaktuellen Karten mit mehreren Sensoren, dadurch gekennzeichnet, - dass Messungen (11, 12) von Empfängern (9, 10) von Satellitennavigationssystemen, Messungen (6) der Odometrie (5), Messungen (8) von Inertialsensoren (7), Kamera- und Lidardaten (4, 2) oder eine Teilmenge dieser Messungen und Daten zur Positionsbestimmung verwendet werden, und - dass eine Karte der Umgebung (24) mit den Kamera- und Lidardaten (4, 2) und den Messungen (6, 8) der Odometrie (5) und Inertialsensoren (7) oder einer Teilmenge dieser Daten und Messungen, und einem Modell zur künstlichen Intelligenz (15) erstellt wird, und - dass eine Bewegungsschätzung und Lokalisierung (16) in einer Karte mit den Kamera- und Lidardaten (4, 2) und den Messungen (6, 8) der Odometrie (5) und Inertialsensoren (7) oder einer Teilmenge dieser Daten und Messungen, und einem Modell zur künstlichen Intelligenz (15) durchgeführt wird, und - dass die Positionsparameter (25) und deren Statistiken mit einem Kalman Filter bestimmt werden, das die Messungen (11, 12) von Empfängern (9, 10) von Satellitennavigationssystemen, die Messungen (6) der Odometrie (5), die Messungen (8) der Inertialsensoren (7) und die Bewegungsschätzung und Lokalisierung (18) in einer Karte aus den Kamera- und Lidardaten (4, 2) oder einer Teilmenge der Messungen, der Bewegungsschätzung und der Lokalisierung (16) verwendet, und - dass die Sensordaten (6, 8, 14, 18), die Positionsparameter (25) und deren Statistiken oder eine Teilmenge dieser Parameter und Statistiken mit einem Modell der künstlichen Intelligenz (21) überwacht (22) werden.Method for the precise determination of the position of an object and for the creation of highly up-to-date maps with several sensors, characterized in that - measurements (11, 12) from receivers (9, 10) of satellite navigation systems, measurements (6) of the odometry (5), measurements ( 8) of inertial sensors (7), camera and lidar data (4, 2) or a subset of these measurements and data are used to determine the position, and - that a map of the surroundings (24) with the camera and lidar data (4, 2) and the measurements (6, 8) of the odometry (5) and inertial sensors (7) or a subset of these data and measurements, and an artificial intelligence model (15) is created, and - that a motion estimation and localization (16) in one Map with the camera and lidar data (4, 2) and the measurements (6, 8) of the odometry (5) and inertial sensors (7) or a subset of these data and measurements, and a model for artificial intelligence (15) is carried out, and - that the Position parameters (25) and their statistics are determined with a Kalman filter, the measurements (11, 12) of receivers (9, 10) of satellite navigation systems, the measurements (6) of the odometry (5), the measurements (8) of the inertial sensors (7) and the motion estimation and localization (18) in a map from the camera and lidar data (4, 2) or a subset of the measurements, the motion estimation and the localization (16), and - that the sensor data (6, 8 , 14, 18), the position parameters (25) and their statistics or a subset of these parameters and statistics with an artificial intelligence model (21) are monitored (22). Verfahren nach Patentanspruch 1, dadurch gekennzeichnet, - dass die Messungen (11, 12) von Empfängern (9, 10) von Satellitennavigationssystemen die Pseudorange-, Trägerphasen- und Dopplermessungen der Satelliten auf einer Frequenz oder mehreren Frequenzen oder eine Linearkombination der Messungen auf den verschiedenen Frequenzen beinhalten, und - dass die Pseudorange- und Trägerphasenmessungen vor der Positionsbestimmung korrigiert werden, wobei die Korrektur (13) eine Schätzung der Position, des Uhrenfehlers und des Biases eines Satelliten beinhaltet, und die Dopplermessungen korrigiert werden, wobei die Korrektur (13) der Dopplermessungen eine Schätzung der Geschwindigkeit der Satelliten und des Uhrendrifts der Satelliten beinhaltet.Procedure according to Claim 1 - characterized in - that the measurements (11, 12) of receivers (9, 10) of satellite navigation systems contain the pseudorange, carrier phase and Doppler measurements of the satellites on one frequency or several frequencies or a linear combination of the measurements on the different frequencies, and - That the pseudorange and carrier phase measurements are corrected before the position determination, the correction (13) including an estimate of the position, the clock error and the bias of a satellite, and the Doppler measurements are corrected, the correction (13) of the Doppler measurements being an estimate of the Speed of the satellites and the clock drift of the satellites. Verfahren nach den Patentansprüchen 1 bis 2, dadurch gekennzeichnet, - dass die Messungen (11, 12) oder korrigierten Messungen (14) von Empfängern (9, 10) von Satellitennavigationssystemen von den Messungen (11, 12) oder korrigierten Messungen (14) von den Messungen (11, 12) eines weiteren Empfängers von Satellitennavigationsystemen subtrahiert werden, und - dass die Mehrdeutigkeiten der korrigierten und differentierten Trägerphasenmessungen bestimmt und von den korrigierten Trägerphasenmessungen subtrahiert werden.Procedure according to the Claims 1 to 2 - characterized in - that the measurements (11, 12) or corrected measurements (14) from receivers (9, 10) of satellite navigation systems from the measurements (11, 12) or corrected measurements (14) from the measurements (11, 12) of a further receiver are subtracted from satellite navigation systems, and that the ambiguities of the corrected and differentiated carrier phase measurements are determined and subtracted from the corrected carrier phase measurements. Verfahren nach Patentanspruch 1, dadurch gekennzeichnet, dass die Messungen (6) der Odometrie (5) die Messungen der Radgeschwindigkeiten und des Lenkwinkels oder eine Teilmenge der Messungen von Radgeschwindigkeiten und Lenkwinkel beinhalten.Procedure according to Claim 1 , characterized in that the measurements (6) of the odometry (5) contain the measurements of the wheel speeds and the steering angle or a subset of the measurements of the wheel speeds and the steering angle. Verfahren nach Patentanspruch 1, dadurch gekennzeichnet, - dass die Messungen (8) des Inertialsensors (7) Messungen der Beschleunigung in drei orthogonale Richtungen, der Drehraten um drei orthogonale Achsen, und des Magnetfelds in drei orthogonale Richtungen, oder eine Teilmenge dieser Messungen beinhaltet, und - dass die Messungen (8) korrigiert werden, um den Einfluss der Gravitation und Biases auf die Messungen zu reduzieren.Procedure according to Claim 1 , characterized in - that the measurements (8) of the inertial sensor (7) include measurements of the acceleration in three orthogonal directions, the rotation rates around three orthogonal axes, and the magnetic field in three orthogonal directions, or a subset of these measurements, and - that the Measurements (8) can be corrected in order to reduce the influence of gravity and biases on the measurements. Verfahren nach Patentanspruch 1, dadurch gekennzeichnet, dass die Positionsparameter (25) die absolute oder relative drei-dimensionale Position und die drei-dimensionale Orientierung oder eine Teilmenge dieser Positionsparameter beinhalten.Procedure according to Claim 1 , characterized in that the position parameters (25) contain the absolute or relative three-dimensional position and the three-dimensional orientation or a subset of these position parameters. Verfahren nach Patentanspruch 1, dadurch gekennzeichnet, dass neben den Positionsparametern (25) auch die drei-dimensionale Geschwindigkeit, die drei-dimensionale Beschleunigung und die drei-dimensionalen Drehraten oder eine Teilmenge dieser Parameter bestimmt werden.Procedure according to Claim 1 , characterized in that in addition to the position parameters (25) also the three-dimensional speed, the three-dimensional acceleration and the three-dimensional rotation rates or a subset of these parameters are determined. Verfahren nach einem der Patentansprüche 1 bis 7, dadurch gekennzeichnet - dass das Modell der künstlichen Intelligenz (15) aus mehreren Schichten besteht, und - dass die Eingangsgröße der ersten Schicht die Kamera- und Lidardaten (4, 2) und die Messungen (6, 8) der Odometrie (5) und Inertialsensoren (7) oder einer Teilmenge dieser Daten und Messungen sind, und - dass die Eingangsgrößen der anderen Schichten gleich den Ausgangsgrößen der vorhergehenden Schicht sind, und - dass eine Ausgangsgröße einer Schicht gebildet wird, in dem eine Linearkombination aller Eingangsgrößen dieser Schicht gebildet wird, ein Bias addiert wird und das so erhaltene Zwischenergebnis mit einer Funktion auf den Ausgangswert abgebildet wird, und - dass die Ausgangsgrößen der letzten Schicht der Bewegungsschätzung (18) des Objekts entsprechen.Method according to one of the Claims 1 to 7th , characterized - that the model of the artificial intelligence (15) consists of several layers, and - that the input variable of the first slice is the camera and lidar data (4, 2) and the measurements (6, 8) of the odometry (5) and inertial sensors (7) or a subset of these data and measurements, and that the input variables of the others Layers are equal to the output variables of the previous layer, and - that an output variable of a layer is formed in which a linear combination of all input variables of this layer is formed, a bias is added and the intermediate result thus obtained is mapped to the output value with a function, that the output variables of the last slice correspond to the motion estimation (18) of the object. Verfahren nach einem der Patentansprüche 1 bis 8, dadurch gekennzeichnet, dass die Koeffizienten der Linearkombinationen und die Biases der Schichten des Modells zur künstlichen Intelligenz (15) mit Sensordaten (2, 4, 6, 8) und einer Referenzlösung der Positionsparameter (25) bestimmt werden.Method according to one of the Claims 1 to 8th , characterized in that the coefficients of the linear combinations and the biases of the layers of the model for artificial intelligence (15) are determined with sensor data (2, 4, 6, 8) and a reference solution of the position parameters (25). Verfahren nach einem der Patentansprüche 1 bis 9, dadurch gekennzeichnet, dass das iterative Gauss-Newton Verfahren mit der Methode des steilsten Abstiegs zur Bestimmung der Koeffizienten der Linearkombinationen und der Biases verwendet wird.Method according to one of the Claims 1 to 9 , characterized in that the iterative Gauss-Newton method with the steepest descent method is used to determine the coefficients of the linear combinations and the biases. Verfahren nach einem der Patentansprüche 1 bis 10, dadurch gekennzeichnet, dass die optimale Anzahl der Schichten des Modells zur künstlichen Intelligenz (15) mit Sensordaten (2, 4, 6, 8) und einer Referenzlösung der Positionsparameter (25) bestimmt wird.Method according to one of the Claims 1 to 10 , characterized in that the optimal number of layers of the model for artificial intelligence (15) is determined with sensor data (2, 4, 6, 8) and a reference solution of the position parameters (25). Verfahren nach einem der Patentansprüche 1 bis 11, dadurch gekennzeichnet, - dass die Positionsparameter (25) und deren Statistiken des Kalman Filters zurückgeführt werden in die Bewegungsschätzung und Lokalisierung (16) in einer Karte (24), und - dass die zurückgeführten Positionsparameter (25) zur Bewegungsschätzung und Lokalisierung (16) in einer Karte (24) mit dem Modell der künstlichen Intelligenz (15) verwendet werden.Method according to one of the Claims 1 to 11 , characterized in - that the position parameters (25) and their statistics of the Kalman filter are fed back into the motion estimation and localization (16) in a map (24), and - that the fed back position parameters (25) for motion estimation and localization (16) can be used in a card (24) with the model of artificial intelligence (15). Vorrichtung zur präzisen Positionsbestimmung und Erstellung von hochgenauen Karten mit Sensorfusion, dadurch gekennzeichnet, dass - dass die Vorrichtung eine Prozessor-Plattform enthält, auf der das in einem der Patentansprüche 1 bis 12 beschriebene Verfahren zur hochgenauen Positionsbestimmung und Erstellung von hochaktuellen Karten mit Sensorfusion implementiert ist, und - dass die Sensoren (1, 3, 5, 7, 9, 10) über Schnittstellen an die Prozessor-Plattform angeschlossen werden.Device for precise position determination and creation of highly accurate maps with sensor fusion, characterized in that - that the device contains a processor platform on which the in one of the Claims 1 to 12th The described method for high-precision position determination and the creation of up-to-date maps is implemented with sensor fusion, and that the sensors (1, 3, 5, 7, 9, 10) are connected to the processor platform via interfaces.
DE102019000804.9A 2019-02-05 2019-02-05 Process and device for precise position determination and creation of up-to-date maps with sensor fusion Active DE102019000804B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019000804.9A DE102019000804B4 (en) 2019-02-05 2019-02-05 Process and device for precise position determination and creation of up-to-date maps with sensor fusion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019000804.9A DE102019000804B4 (en) 2019-02-05 2019-02-05 Process and device for precise position determination and creation of up-to-date maps with sensor fusion

Publications (2)

Publication Number Publication Date
DE102019000804A1 DE102019000804A1 (en) 2020-08-06
DE102019000804B4 true DE102019000804B4 (en) 2020-11-05

Family

ID=71615090

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019000804.9A Active DE102019000804B4 (en) 2019-02-05 2019-02-05 Process and device for precise position determination and creation of up-to-date maps with sensor fusion

Country Status (1)

Country Link
DE (1) DE102019000804B4 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112987061B (en) * 2021-02-08 2023-12-29 福州大学 Fuzzy fusion positioning method based on GPS and laser radar
CN114295126B (en) * 2021-12-20 2023-12-26 华人运通(上海)自动驾驶科技有限公司 Fusion positioning method based on inertial measurement unit
CN115856974B (en) * 2022-11-18 2024-04-05 苏州华米导航科技有限公司 GNSS, INS and visual tight combination navigation positioning method based on invariant filtering
CN117607906A (en) * 2023-11-24 2024-02-27 中交一公局厦门工程有限公司 Quick static measurement lofting system based on Beidou/UWB cloud data processing

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015210881A1 (en) * 2015-06-15 2016-12-15 Volkswagen Aktiengesellschaft Method and device for determining the position and / or orientation of a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015210881A1 (en) * 2015-06-15 2016-12-15 Volkswagen Aktiengesellschaft Method and device for determining the position and / or orientation of a vehicle

Also Published As

Publication number Publication date
DE102019000804A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
DE102019000804B4 (en) Process and device for precise position determination and creation of up-to-date maps with sensor fusion
DE602004008327T4 (en) CARRIER PHASE GPS POSITIONING DEVICE AND METHOD
Indelman et al. Factor graph based incremental smoothing in inertial navigation systems
DE102016222272B4 (en) Appreciating an own position
DE102013107861A1 (en) Tracking of road vehicles with sensors of different types
DE4225413C1 (en) Method for motion compensation of SAR images using a course / location reference system and device for carrying out the method
DE19737592A1 (en) Position determination system for determining position of artificial satellites
DE102015214338A1 (en) Determining an arrangement information for a vehicle
DE2802492A1 (en) GOAL TRACKING SYSTEM
DE102015115786B4 (en) METHOD AND SYSTEM REALIZED ON A COMPUTER FOR PROCESSING A SEQUENCE OF IMAGES
CH708274A1 (en) Method for determining trajectories of moving physical objects in a room on the basis of sensor data from several sensors.
DE102019207087A1 (en) Localization of a mobile unit
DE112018003443T5 (en) POSITIONING DEVICE
EP2394206B1 (en) Method and device for locating objects
EP2369296A2 (en) Navigation method for a missile
DE112012000412T5 (en) Selection of a satellite subset
DE102018222169A1 (en) On-board visual determination of kinematic parameters of a rail vehicle
Liu et al. High altitude monocular visual-inertial state estimation: Initialization and sensor fusion
Cristofalo et al. Vision-based control for fast 3-d reconstruction with an aerial robot
DE10292353B4 (en) Device for the autonomous navigation of satellites
DE102011054379B4 (en) Method and device for determining position information
DE112019007757T5 (en) Information processing device, information processing system, information processing method and information processing program
DE102021123503A1 (en) Determination of an absolute initial position of a vehicle
EP0207521A1 (en) Target measurement system
WO2021185492A1 (en) Determining a position of a vehicle

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence