DE102022000032A1 - Method for estimating a vehicle's own motion - Google Patents

Method for estimating a vehicle's own motion Download PDF

Info

Publication number
DE102022000032A1
DE102022000032A1 DE102022000032.6A DE102022000032A DE102022000032A1 DE 102022000032 A1 DE102022000032 A1 DE 102022000032A1 DE 102022000032 A DE102022000032 A DE 102022000032A DE 102022000032 A1 DE102022000032 A1 DE 102022000032A1
Authority
DE
Germany
Prior art keywords
determined
vehicle
odometry
feature space
method step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022000032.6A
Other languages
German (de)
Inventor
Christian Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102022000032.6A priority Critical patent/DE102022000032A1/en
Publication of DE102022000032A1 publication Critical patent/DE102022000032A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Schätzung einer Eigenbewegung eines Fahrzeugs, wobei mittels mehrerer Odometrie-Ermittlungseinheiten anhand von jeweils unterschiedlichen Daten jeweils eine Odometrie (OF, Ol, OR) des Fahrzeugs bestimmt wird und aus zumindest einer der bestimmten Odometrien (OF, Ol, OR) die Eigenbewegung des Fahrzeugs ermittelt wird. Dabei wird die Eigenbewegung des Fahrzeugs in Abhängigkeit einer ermittelten Konfidenz aus Daten bestimmt, welche von Odometrie-Ermittlungseinheiten, die einen vorgegebenen Konfidenzwert überschreiten, ermittelt wurden.

Figure DE102022000032A1_0000
The invention relates to a method for estimating the movement of a vehicle, wherein an odometry (OF, OL, OR) of the vehicle is determined using a plurality of odometry determination units based on different data and at least one of the determined odometries (OF, OL, OR ) the movement of the vehicle itself is determined. In this case, the vehicle's own movement is determined as a function of a ascertained confidence from data which were ascertained by odometry ascertainment units which exceed a predefined confidence value.
Figure DE102022000032A1_0000

Description

Die Erfindung betrifft ein Verfahren zur Schätzung einer Eigenbewegung eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for estimating the movement of a vehicle according to the preamble of claim 1.

Aus der EP 2 715 281 B1 ist ein Lokalisierungssystem innerhalb eines Fahrzeugs bekannt. Das Lokalisierungssystem umfasst

  • - einen GPS-Empfänger,
  • - einen Radarsensor,
  • - eine Datenspeichervorrichtung, in der Programminstruktionen gespeichert sind,
  • - eine symbolische Karte, die innerhalb der Datenspeichervorrichtung gespeichert ist, und
  • - eine Steuereinheit, die mit der Datenspeichervorrichtung, dem GPS-Empfänger und dem Radarsensor wirkgekoppelt ist.
Die Steuereinheit ist dafür ausgestaltet, die Programminstruktionen auszuführen, um Daten von dem GPS-Empfänger, Daten von dem Radarsensor und Daten von der gespeicherten symbolischen Karte zu analysieren. Die Steuereinheit ist des Weiteren dafür ausgestaltet, einen probabilistischen Fahrzeugstandort auf Grundlage der Analyse zu bestimmen. Die symbolische Karte ist eine Karte mit fahrspurspezifischen Details und der probabilistische Fahrzeugstandort ist ein Standort innerhalb einer Fehler-Enveloppe eines berechneten GPS-Standorts, der höchstwahrscheinlich der tatsächliche Standort des Fahrzeugs ist. Das Analysieren der Daten von dem GPS-Empfänger, der Daten von dem Radarsensor und der Daten von der gespeicherten symbolischen Karte umfasst ein Bestimmen einer Geschwindigkeit für jedes der mehreren durch das Radar detektierten Objekte und ein Klassifizieren jedes der mehreren durch das Radar detektierten Objekte auf der Grundlage der bestimmten Geschwindigkeit. Das Klassifizieren eines jeden der mehreren Objekte umfasst ein Klassifizieren eines jeden der mehreren durch das Radar detektierten Objekte auf der Grundlage der bestimmten Geschwindigkeit als statisch oder dynamisch. Das Bestimmen eines probabilistischen Fahrzeugstandortes umfasst ein Generieren einer Liste möglicher Fahrzeugstandorte innerhalb der Fehler-Enveloppe des berechneten GPS-Standortes und ein Bestimmen einer einzelnen dynamischen Objektausrichtungswertung für jedes der mehreren Objekte, die als dynamisch klassifiziert wurden, für jeden der möglichen Fahrzeugstandorte, und ein Bestimmen einer einzelnen statischen Objektausrichtungswertung für jedes der mehreren Objekte, die als statisch klassifiziert wurden, für jeden der möglichen Fahrzeugstandorte. Eine jeweilige einzelne dynamische Objektausrichtungswertung basiert auf einem prognostizierten Standort eines jeweiligen der mehreren Objekte, die als dynamisch klassifiziert wurden, mit Bezug auf eine erste angenommene Mitte einer Fahrspur. Die jeweilige einzelne statische Objektausrichtungswertung basiert auf einem prognostizierten Standort eines jeweiligen der mehreren Objekte, die als statisch klassifiziert wurden, mit Bezug auf eine zweite angenommene Mitte einer Fahrspur. Die prognostizierten Standorte werden unter Verwendung der relativen Position eines jeden der detektierten Objekte mit Bezug auf die ausgewählte Fahrzeugposition unter Verwendung der Radardaten definiert. Die Steuereinheit ist des Weiteren dafür ausgelegt, innerhalb der Fehler-Enveloppe eine Anzahl von Fahrzeugpositionen auszuwählen, wobei ausgewählte Fahrzeugpositionen, die zu prognostizierten Positionen für dynamische detektierte Objekten führen, die näher bei einer Mitte einer Fahrspur liegen, höher gewertet werden als ausgewählte Fahrzeugpositionen, die zu prognostizierten Positionen für dynamische detektierte Objekte führen, die weiter von einer Mitte einer Fahrspur entfernt liegen. Ausgewählte Fahrzeugpositionen, die zu prognostizierten Positionen für statische detektierte Objekte führen, die weiter von einer Mitte einer Fahrspur entfernt liegen, werden höher gewertet werden als ausgewählte Fahrzeugpositionen, die zu prognostizierten Positionen für statische detektierte Objekte führen, die näher bei einer Mitte einer Fahrspur liegen. Ferner ist die Steuereinheit dafür ausgelegt, den Fahrzeugstandort mit der höchsten Wertung als den probabilistischen Fahrzeugstandort auszuwählen. Weiterhin wird ein Verfahren zum Lokalisieren eines Fahrzeugs beschrieben.From the EP 2 715 281 B1 a localization system within a vehicle is known. The localization system includes
  • - a GPS receiver,
  • - a radar sensor,
  • - a data storage device in which program instructions are stored,
  • - a symbolic map stored within the data storage device, and
  • - a control unit operatively coupled to the data storage device, the GPS receiver and the radar sensor.
The control unit is configured to execute the program instructions to analyze data from the GPS receiver, data from the radar sensor and data from the stored symbolic map. The controller is further configured to determine a probabilistic vehicle location based on the analysis. The symbolic map is a map with lane specific detail and the probabilistic vehicle location is a location within an error envelope of a computed GPS location that is most likely the vehicle's actual location. Analyzing the data from the GPS receiver, the data from the radar sensor, and the data from the stored symbolic map includes determining a velocity for each of the plurality of radar-detected objects and classifying each of the plurality of radar-detected objects on the basis of the determined speed. Classifying each of the plurality of objects includes classifying each of the plurality of objects detected by the radar as static or dynamic based on the determined velocity. Determining a probabilistic vehicle location includes generating a list of possible vehicle locations within the error envelope of the computed GPS location and determining a single dynamic object orientation score for each of the multiple objects classified as dynamic for each of the possible vehicle locations, and determining a single static object orientation score for each of the multiple objects classified as static for each of the possible vehicle locations. Each individual dynamic object orientation score is based on a predicted location of each of the plurality of objects classified as dynamic with respect to a first assumed center of a lane. The respective individual static object alignment score is based on a predicted location of each of the plurality of objects classified as static with respect to a second assumed center of a lane. The predicted locations are defined using the relative position of each of the detected objects with respect to the selected vehicle position using the radar data. The control unit is further configured to select a number of vehicle positions within the error envelope, where selected vehicle positions that result in predicted positions for dynamic detected objects that are closer to a center of a lane are weighted higher than selected vehicle positions that lead to predicted positions for dynamic detected objects that are farther from a center of a lane. Selected vehicle positions that result in predicted positions for static detected objects that are farther from a center of a lane will be ranked higher than selected vehicle positions that result in predicted positions for static detected objects that are closer to a center of a lane. Furthermore, the control unit is configured to select the vehicle location with the highest score as the probabilistic vehicle location. A method for locating a vehicle is also described.

Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Schätzung einer Eigenbewegung eines Fahrzeugs anzugeben.The invention is based on the object of specifying a novel method for estimating the movement of a vehicle.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1.

In einem Verfahren zur Schätzung einer Eigenbewegung eines Fahrzeugs wird mittels mehrerer Odometrie-Ermittlungseinheiten anhand von jeweils unterschiedlichen Daten jeweils eine Odometrie des Fahrzeugs bestimmt und aus zumindest einer der bestimmten Odometrien wird die Eigenbewegung des Fahrzeugs ermittelt.In a method for estimating a vehicle's own movement, an odometry of the vehicle is determined using a plurality of odometry determination units based on different data in each case, and the vehicle's own movement is determined from at least one of the determined odometries.

Erfindungsgemäß

  • - wird in einem ersten Verfahrensschritt eine absolute Ego-Position des Fahrzeugs relativ zu einer festen Referenzposition ermittelt,
  • - wird in einem zweiten Verfahrensschritt in einem Merkmalsraum, welcher sich in einem definierten Umkreis um die absolute Ego-Position erstreckt, ein Grad einer Urbanisierung anhand von in einem Synthetischen-Apertur-Radarbild enthaltenen Daten und/oder anhand einer digitalen Straßenkarte ermittelt,
  • - wird in einem dritten Verfahrensschritt in einem weiteren Merkmalsraum, welcher sich in einem definierten Umkreis um die absolute Ego-Position erstreckt, ein Grad einer Bodenfeuchte und eines Fahrbahnzustands anhand von in einem Synthetischen-Apertur-Radarbild enthaltenen Daten ermittelt,
  • - wird in einem vierten Verfahrensschritt in einem weiteren Merkmalsraum, welcher sich in einem definierten Umkreis um die absolute Ego-Position erstreckt, eine Topografie mit einem Grad von Oberflächenunebenheiten anhand eines digitalen Höhenmodells ermittelt,
  • - wird in einem fünften Verfahrensschritt in einem weiteren Merkmalsraum, welcher sich in einem definierten Umkreis um die absolute Ego-Position erstreckt, ein Grad einer Dynamik von Umgebungsobjekten anhand von in einem Synthetischen-Apertur-Radarbild enthaltenen Daten ermittelt,
  • - werden die vorherigen Verfahrensschritte mehrfach zu definierten Zeitpunkten wiederholt,
  • - werden in einem sechsten Verfahrensschritt mittels einer lokalen Entscheidungslogik für die in den wiederholt ausgeführten vorherigen Verfahrensschritten ermittelten Merkmalsräume lokale Priorisierungen ermittelt,
  • - werden in einem siebten Verfahrensschritt die lokalen Priorisierungen jedes Merkmalsraums für jeden Merkmalsraum zu einer globalen Priorisierung auf Basis einer jeweiligen Gewichtung kombiniert,
  • - wird in einem achten Verfahrensschritt eine Konfidenz der Odometrie-Ermittlungseinheiten auf Basis der globalen Priorisierung skaliert und
  • - wird in einem neunten Verfahrensschritt die Eigenbewegung des Fahrzeugs in Abhängigkeit der Konfidenz aus den Daten bestimmt, welche von Odometrie-Ermittlungseinheiten, die einen vorgegebenen Konfidenzwert überschreiten, ermittelt wurden.
According to the invention
  • - in a first method step, an absolute ego position of the vehicle is determined relative to a fixed reference position,
  • - In a second process step, a degree of urbanization is determined in a feature space, which extends in a defined area around the absolute ego position, using a synthetic aperture data contained in the radar image and/or determined using a digital road map,
  • - in a third method step, a degree of soil moisture and a road condition is determined in a further feature space, which extends in a defined radius around the absolute ego position, using data contained in a synthetic aperture radar image,
  • - in a fourth method step, a topography with a degree of surface unevenness is determined in a further feature space, which extends in a defined area around the absolute ego position, using a digital elevation model,
  • - in a fifth method step, a degree of dynamics of surrounding objects is determined in a further feature space, which extends in a defined area around the absolute ego position, using data contained in a synthetic aperture radar image,
  • - the previous procedural steps are repeated several times at defined times,
  • - in a sixth method step, local prioritizations are determined by means of a local decision logic for the feature spaces determined in the repeatedly executed previous method steps,
  • - in a seventh method step, the local prioritizations of each feature space are combined for each feature space to form a global prioritization based on a respective weighting,
  • - In an eighth method step, a confidence of the odometry determination units is scaled on the basis of the global prioritization and
  • - In a ninth method step, the vehicle's own movement is determined as a function of the confidence from the data which were determined by odometry determination units which exceed a predetermined confidence value.

In Fahrzeugen ist eine Vielzahl von Fahrerassistenzfunktionen für einen automatisierten Fahrbetrieb der Fahrzeuge oder ausgewählter Fahrzeugfunktionen, wie beispielsweise ein automatisiertes Einparken, vorgesehen. Für diese Fahrerassistenzfunktionen sind eine zuverlässige Trajektorienplanung für das jeweilige Fahrzeug und eine zuverlässige Wahrnehmung einer Fahrzeugumgebung erforderlich. Hierfür sind wiederum präzise Informationen über eine Eigenbwegung bzw. eine zuverlässige Eigenbewegungsschätzung des Ego-Fahrzeugs, auch als Motion Estimation bezeichnet, erforderlich.A large number of driver assistance functions are provided in vehicles for automated driving operation of the vehicles or selected vehicle functions, such as automated parking. Reliable trajectory planning for the respective vehicle and reliable perception of a vehicle environment are required for these driver assistance functions. This in turn requires precise information about a self-motion or a reliable self-motion estimate of the ego vehicle, also referred to as motion estimation.

Zu dieser Eigenbewegungsschätzung werden vorliegend verschiedene Odometrie-Ermittlungseinheiten verwendet. Diese können beispielsweise eine fahrwerksgestützte Odometrie bestimmen, wobei eine Eigenbewegungsschätzung hierbei auf Daten von Fahrwerksensoren und/oder Raddrehzahlsensoren basiert und über Umläufe eine Radgeschwindigkeit, ein Lenkwinkel, eine Beschleunigung und andere Werte abgeleitet werden können. Diese Sensoren weisen jedoch gegenüber ihrer Umwelt eine hochgradige Varianz in ihrer Fehlergüte auf. So können beispielsweise bei einem Verlust eines Fahrbahnkontakts von Rädern und aufgrund eines daraus resultierendem Schlupfes oder aufgrund eines Wechsels eines Rades bzw. eines geänderten Raddurchmessers fehlerbehaftete Bewegungsschätzungen auftreten.In the present case, various odometry determination units are used for this self-motion estimation. These can, for example, determine a chassis-supported odometry, with a self-motion estimation being based on data from chassis sensors and/or wheel speed sensors and a wheel speed, a steering angle, an acceleration and other values being able to be derived via cycles. However, compared to their environment, these sensors exhibit a high degree of variance in their error quality. For example, if the wheels lose contact with the roadway and this results in slippage or because a wheel has been changed or a wheel diameter has changed, incorrect movement estimates can occur.

Weiterhin kann zur Eigenbewegungsschätzung mittels der Odometrie-Ermittlungseinheiten eine radargestützte Odometrie bestimmt werden, wobei hierzu Merkmale von Radarsensoreinheiten im Fahrzeug berücksichtigt werden und eine Nachverfolgung der Merkmale über die Zeit durchgeführt wird sowie die Eigenbewegung abgeleitet wird. Das heißt, bei der radargestützten Schätzung der Eigenbewegung werden die Merkmale über die Radarsensoreinheiten erfasst, teilweise klassifiziert und im weiteren getrackt, um die Eigenbewegung abzuleiten. Hierbei kann es jedoch bei auf nicht planaren Oberflächen ausgeführten Bewegungen, bei einem plötzlichen Merkmalsverlust durch stark dynamische Szenarien und einen merkmalsarmen Merkmalsraum, beispielsweise bei so genannten Rural Drives, zu einer hohen Fehleranfälligkeit kommen.Furthermore, a radar-based odometry can be determined for estimating the own movement using the odometry determination units, with features of radar sensor units in the vehicle being taken into account for this purpose and the features being tracked over time and the own movement being derived. This means that in the radar-based estimation of the own movement, the features are recorded via the radar sensor units, partially classified and then tracked in order to derive the own movement. However, in the case of movements performed on non-planar surfaces, a sudden loss of features due to highly dynamic scenarios and a feature space with few features, for example in the case of so-called rural drives, there can be a high susceptibility to errors.

Weiterhin kann zur Eigenbewegungsschätzung mittels der Odometrie-Ermittlungseinheiten eine Odometrie basierend auf Daten inertialer Messeinheiten und mittels eines satellitengestützten Positionsbestimmungssystems ermittelter Positionsdatendaten des Fahrzeugs ermittelt werden. Beispielsweise kann so die Eigenbewegung des Fahrzeugs durch mehrere Beschleunigungs- und Drehzahlsensoren ermittelt werden. Dabei können jedoch nur relative Bewegung abgeleitet werden, weshalb die Kombination mit dem satellitengestützten Positionsbestimmungssystem durchgeführt wird. Hieraus resultieren jedoch Nachteile in einer absoluten Positionsbestimmung vornehmlich in urbanen Umgebungen aufgrund mangelnder Abdeckung des satellitengestützten Positionsbestimmungssystems.Furthermore, for the purpose of estimating one's own motion, the odometry determination units can be used to determine an odometry based on data from inertial measurement units and position data of the vehicle determined using a satellite-based position determination system. For example, the vehicle's own movement can be determined by several acceleration and speed sensors. However, only relative movement can be derived, which is why the combination with the satellite-based position determination system is carried out. However, this results in disadvantages in absolute position determination, primarily in urban environments, due to the lack of coverage of the satellite-based position determination system.

Das vorliegende Verfahren ermöglicht eine Kombination verschiedener Methoden zur Eigenbewegungsschätzung, wobei entsprechende Nachteile der Methoden situativ bewerten werden und somit Odometrie-Ermittlungseinheiten und deren ermittelte Daten priorisiert werden können. Dies erfolgt unter Nutzung eines satellitenbasierten Ansatzes, in welchem Synthetische-Apertur-Radarbilder und mehrdimensionale Merkmalsräume verwendet werden. Das heißt, das Verfahren ermöglicht eine Priorisierung für die Eigenbewegungsschätzung auf Basis von so genannten Multi-Source-Odometrieeinheiten.The present method enables a combination of different methods for estimating one's own motion, with corresponding disadvantages of the methods being evaluated situationally and thus odometry determination units and their determined data can be prioritized. This is done using a satellite-based approach, in wel chem synthetic aperture radar images and multidimensional feature spaces can be used. This means that the method enables prioritization for self-motion estimation based on so-called multi-source odometry units.

Dabei kann die Priorisierung in besonders vorteilhafter Weise unabhängig von einer fahrzeugeigenen Sensorik erfolgen. Ferner wird eine optimierte Auslastung der Odometrie-Ermittlungseinheiten aufgrund von deren Priorisierung erreicht und das Verfahren kann unabhängig von vorherrschenden Wetter- und Lichtsituationen, unabhängig von Tages- und Nachtzeiten, unabhängig von Eigen-, Lateral- und Longitudinalbewegungen, unabhängig von einer Parametrisierung des eigenen Fahrzeugs (beispielsweise einer Radgröße etc.) und unabhängig von Raum und Zeit ausgeführt werden. Dabei sind beliebige Erweiterungen des jeweiligen Merkmalsraums möglich und es sind keine weiteren Odometrieinformation, beispielsweise eine Eigengeschwindigkeit etc., zur Ausführung des Verfahrens erforderlich.In this case, the prioritization can take place in a particularly advantageous manner independently of the vehicle's own sensor system. Furthermore, an optimized utilization of the odometry determination units is achieved due to their prioritization and the method can be used independently of the prevailing weather and light situations, independent of day and night times, independent of own, lateral and longitudinal movements, independent of a parameterization of the own vehicle (e.g. a wheel size etc.) and can be carried out independently of space and time. Any extensions of the respective feature space are possible and no further odometry information, for example an intrinsic speed, etc., is required to carry out the method.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnung näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 schematisch einen Ablauf eines Verfahrens zur Schätzung einer Eigenbewegung eines Fahrzeugs,
  • 2 schematisch eine Visualisierung eines ersten Verfahrensschritts des Verfahrens gemäß 1,
  • 3 schematisch eine Visualisierung eines zweiten Verfahrensschritts des Verfahrens gemäß 1,
  • 4 schematisch eine Visualisierung eines dritten Verfahrensschritts des Verfahrens gemäß 1,
  • 5 schematisch eine Visualisierung eines vierten Verfahrensschritts des Verfahrens gemäß 1,
  • 6 schematisch eine Visualisierung eines fünften Verfahrensschritts des Verfahrens gemäß 1,
  • 7 schematisch eine Visualisierung eines sechsten Verfahrensschritts des Verfahrens gemäß 1,
  • 8 schematisch eine Visualisierung eines siebten Verfahrensschritts des Verfahrens gemäß 1,
  • 9 schematisch eine Visualisierung eines achten Verfahrensschritts des Verfahrens gemäß 1 und
  • 10 schematisch eine Visualisierung eines neunten Verfahrensschritts des Verfahrens gemäß 1.
show:
  • 1 schematically a sequence of a method for estimating a movement of a vehicle,
  • 2 schematically a visualization of a first step of the method according to 1 ,
  • 3 schematically a visualization of a second step of the method according to 1 ,
  • 4 schematically a visualization of a third step of the method according to 1 ,
  • 5 schematically a visualization of a fourth step of the method according to 1 ,
  • 6 schematically a visualization of a fifth step of the method according to 1 ,
  • 7 schematically a visualization of a sixth step of the method according to 1 ,
  • 8th schematically a visualization of a seventh step of the method according to 1 ,
  • 9 schematically a visualization of an eighth step of the method according to 1 and
  • 10 schematically a visualization of a ninth step of the method according to 1 .

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.

In 1 ist ein Ablauf eines möglichen Ausführungsbeispiels eines Verfahrens zur Schätzung einer Eigenbewegung eines Fahrzeugs mit den Verfahrensschritten VS1 bis VS10 dargestellt. Die 2 bis 10 zeigen jeweils eine Visualisierung von Verfahrensschritten VS1 bis VS9 des Verfahrens.In 1 a sequence of a possible exemplary embodiment of a method for estimating a movement of a vehicle with the method steps VS1 to VS10 is shown. the 2 until 10 each show a visualization of method steps VS1 to VS9 of the method.

Das Verfahren umfasst im dargestellten Ausführungsbeispiel neun Verfahrensschritte VS1 bis VS9, wobei mittels mehrerer Odometrie-Ermittlungseinheiten anhand von jeweils unterschiedlichen Daten jeweils eine Odometrie OF, Ol, OR des Fahrzeugs bestimmt wird und aus zumindest einer der bestimmten Odometrien OF, Ol, OR die Eigenbewegung des Fahrzeugs ermittelt wird. In the exemplary embodiment shown, the method comprises nine method steps VS1 to VS9, with several odometry determination units using different data in each case to determine an odometry OF, OL, OR of the vehicle and from at least one of the determined odometries OF, OL, OR the movement of the vehicle Vehicle is determined.

Hierbei erfolgt die Bestimmung der Odometrien OF, Ol, OR anhand folgender Methoden.The odometries OF, OL, OR are determined using the following methods.

In einer ersten Methode wird eine in 7 näher dargestellte fahrwerksgestützte Odometrie OF bestimmt, wobei eine Eigenbewegungsschätzung hierbei auf Daten von Fahrwerksensoren und/oder Raddrehzahlsensoren basiert und über Umläufe eine Radgeschwindigkeit, ein Lenkwinkel, eine Beschleunigung und andere Werte abgeleitet werden können.In a first method, an in 7 chassis-supported odometry OF described in more detail, with a self-motion estimation being based on data from chassis sensors and/or wheel speed sensors and a wheel speed, a steering angle, an acceleration and other values being able to be derived via revolutions.

In einer zweiten Methode wird eine in 7 näher dargestellte radargestützte Odometrie OR bestimmt, wobei hierzu Merkmale von Radarsensoreinheiten im Fahrzeug berücksichtigt werden und eine Nachverfolgung der Merkmale über die Zeit durchgeführt wird sowie die Eigenbewegung abgeleitet wird.In a second method, an in 7 radar-based odometry OR, shown in more detail, is determined, for which purpose features of radar sensor units in the vehicle are taken into account and the features are tracked over time and the own movement is derived.

In einer dritten Methode wird eine in 7 näher dargestellte Odometrie Ol basierend auf Daten inertialer Messeinheiten und mittels eines satellitengestützten Positionsbestimmungssystems ermittelten Positionsdaten des Fahrzeugs ermittelt. Beispielsweise wird die Eigenbewegung des Fahrzeugs durch mehrere Beschleunigungs- und Drehzahlsensoren ermittelt und mit Daten des satellitengestützten Positionsbestimmungssystems kombiniert.In a third method, an in 7 odometry Ol shown in more detail based on data from inertial measurement units and using a satellite-based position determination system determined position data of the vehicle. For example, the vehicle's own movement is determined by several acceleration and speed sensors and combined with data from the satellite-supported positioning system.

Mittels des vorliegenden Verfahrens wird eine Priorisierung für eine Eigenbewegungsschätzung eines Fahrzeugs auf Basis von Multi-Source-Odometrie-Ermittlungseinheiten ermöglicht. Hierzu werden satellitgestützte Eingangsdaten in Form von in den 2 bis 6 näher dargestellten Synthetischen-Apertur-Radarbildern SARB1 bis SARB4 verwendet, um einen mehrdimensionalen Merkmalsraum M1 bis M4 aufzubauen.Using the present method, a prioritization for a self-motion estimation of a vehicle based on multi-source odometry determination units is made possible. For this purpose, satellite-based input data in the form of in the 2 until 6 Syntheti shown in more detail cal-aperture radar images SARB1 to SARB4 are used to construct a multi-dimensional feature space M1 to M4.

Zunächst wird hierzu in einem ersten Verfahrensschritt VS1 eine absolute Ego-Position POS1 des Fahrzeugs relativ zu einer festen Referenzposition ermittelt.First of all, in a first method step VS1, an absolute ego position POS1 of the vehicle is determined relative to a fixed reference position.

In einem zweiten Verfahrensschritt VS2 wird in einem Merkmalsraum M1, welcher sich in einem definierten Umkreis, beispielsweise 50 m, um die absolute Ego-Position POS1 erstreckt, ein Grad Sat_U einer Urbanisierung anhand von in einem Synthetischen-Apertur-Radarbild SARB1 enthaltenen Daten und/oder anhand einer digitalen Straßenkarte, beispielsweise einer so genannten Open-Street-Map, ermittelt bzw. extrahiert. Die Urbanisierung stellt dabei einen Grad einer Infrastruktur in einer unmittelbaren und zu definierenden Umgebung des Fahrzeugs dar. Hierzu zählen beispielsweise Gebäude, Lichtzeichenanlagen, Bürgersteige usw. Der Grad Sat_U der Urbanisierung kann beispielsweise in einem Bereich von [0, ..., 1] angegeben werden.In a second method step VS2, a degree Sat_U of an urbanization is determined in a feature space M1, which extends in a defined radius, for example 50 m, around the absolute ego position POS1, using data contained in a synthetic aperture radar image SARB1 and/or or determined or extracted using a digital road map, for example a so-called open street map. The urbanization represents a degree of infrastructure in an immediate environment of the vehicle that is to be defined. These include, for example, buildings, traffic lights, sidewalks, etc. The degree of urbanization Sat_U can be specified, for example, in a range from [0, . . . , 1]. will.

In einem dritten Verfahrensschritt VS3 wird in einem weiteren Merkmalsraum M2, welcher sich in einem definierten Umkreis, beispielsweise 50 m, um die absolute Ego-Position POS1 erstreckt, ein Grad Sat_B einer Bodenfeuchte und eines Fahrbahnzustands anhand von in einem Synthetischen-Apertur-Radarbild SARB2 enthaltenen Daten ermittelt. Aufgrund einer Funktionsweise von Synthetischen-Apertur-Radaren können auf Basis eines Frequenzbandes, auch als X,C,L-Band bezeichnet, einer Scatterverteilung und einer Polarisierung der Fahrbahnzustand und auf einer Fahrbahn befindliches Wasser, Eis oder ein Schneebelag abgeleitet werden. Der Merkmalsraum M2 kann dabei dem Merkmalsraum M1 entsprechen. Der Grad Sat_B der Bodenfeuchte und des Fahrbahnzustands kann beispielsweise in einem Bereich von [0, ..., 1] angegeben werden.In a third method step VS3, in a further feature space M2, which extends in a defined radius, for example 50 m, around the absolute ego position POS1, a degree Sat_B of soil moisture and a roadway condition is determined using in a synthetic aperture radar image SARB2 contained data determined. Based on a mode of operation of synthetic aperture radars, the state of the road and water, ice or a covering of snow on a road can be derived on the basis of a frequency band, also referred to as X,C,L band, a scatter distribution and a polarization. The feature space M2 can correspond to the feature space M1. The degree Sat_B of the soil moisture and the condition of the road can be specified in a range of [0, . . . , 1], for example.

In einem vierten Verfahrensschritt VS4 wird in einem weiteren Merkmalsraum M3, welcher sich in einem definierten Umkreis, beispielsweise 50 m, um die absolute Ego-Position POS1 erstreckt, eine Topografie mit einem Grad Sat_O von Oberflächenunebenheiten anhand eines digitalen Höhenmodells in einem Synthetischen-Apertur-Radarbild SARB3 ermittelt. Beispielsweise wird hierbei als weiterer Merkmalsraum M3 ein so genanntes Digital Elevation Model genutzt, welches eine Topographie der Eigenbewegung modelliert. Derartige Modelle sind beispielsweise als Open-Source-Lösungen verfügbar. Der Merkmalsraum M3 kann dabei dem Merkmalsraum M1 und/oder dem Merkmalsraum M2 entsprechen. Der Grad Sat_O der Oberflächenunebenheiten kann beispielsweise in einem Bereich von [0, ..., 1] angegeben werden.In a fourth method step VS4, in a further feature space M3, which extends in a defined radius, for example 50 m, around the absolute ego position POS1, a topography with a degree Sat_O of surface irregularities is created using a digital elevation model in a synthetic aperture Radar image SARB3 determined. For example, what is known as a digital elevation model, which models a topography of the individual movement, is used here as a further feature space M3. Such models are available, for example, as open source solutions. The feature space M3 can correspond to the feature space M1 and/or the feature space M2. The degree Sat_O of the asperities can be specified in a range of [0,...,1], for example.

In einem fünften Verfahrensschritt VS5 wird in einem weiteren Merkmalsraum M4, welcher sich in einem definierten Umkreis, beispielsweise 50 m, um die absolute Ego-Position POS1 erstreckt, ein Grad Sat_D einer Dynamik von Umgebungsobjekten anhand von in einem Synthetischen-Apertur-Radarbild SARB4 enthaltenen Daten ermittelt. Hierbei wird als weiterer Merkmalsraum M4 eine Bewegungsklassifikation auf Synthetischen-Apertur-Radarbildern SARB4 herangezogen. Jene Bewegungsklassifikation wird beispielsweise mittels maschinellen Lernverfahren umgesetzt, beispielsweise mittels einer so genannten Moving Target Detection oder weiteren Methoden. Der Merkmalsraum M4 kann dabei dem Merkmalsraum M1 und/oder dem Merkmalsraum M2 und/oder dem Merkmalsraum M3 entsprechen. Der Grad Sat_D der Dynamik von Umgebungsobjekten kann beispielsweise in einem Bereich von [0,...,1] angegeben werden.In a fifth method step VS5, in a further feature space M4, which extends in a defined radius, for example 50 m, around the absolute ego position POS1, a degree Sat_D of a dynamic of surrounding objects is determined based on contained in a synthetic aperture radar image SARB4 data determined. In this case, a movement classification on synthetic aperture radar images SARB4 is used as a further feature space M4. That movement classification is implemented, for example, by means of machine learning methods, for example by means of what is known as moving target detection or other methods. The feature space M4 can correspond to the feature space M1 and/or the feature space M2 and/or the feature space M3. The degree Sat_D of the dynamics of surrounding objects can be specified in a range of [0,...,1], for example.

In jedem n-ten Zeitstempel werden nun in der definierten Umgebung des Fahrzeugs, beispielsweise in einem Umkreis von 50 m oder 100 m, die Merkmalsräume M1 bis M4 bestimmt. Das heißt, die vorherigen Verfahrensschritte VS1 bis VS5 werden mehrfach zu definierten Zeitpunkten wiederholt.The feature spaces M1 to M4 are now determined in every nth time stamp in the defined environment of the vehicle, for example in a radius of 50 m or 100 m. This means that the previous method steps VS1 to VS5 are repeated several times at defined points in time.

In einem sechsten Verfahrensschritt VS6 werden mittels einer lokalen Entscheidungslogik für die in den wiederholt ausgeführten vorherigen Verfahrensschritten VS1 bis VS5 ermittelten Merkmalsräume lokale Priorisierungen ermittelt. Das heißt, auf der Basis der mehrdimensionalen Merkmalsräume M1 bis M4 wird die Entscheidungslogik mit einer anschließenden Kombinatorik herangezogen, um die Priorisierung zwischen den Odometrie-Ermittlungseinheiten festzulegen. Die Entscheidungslogik ist beispielsweise eine so genannte Fuzzy-Logik. Eine Zugehörigkeitsfunktion der Fuzzy-Logik für jede Odometrie-Ermittlungseinheit und jeden Merkmalsraum M1 bis M4 wird durch eine initiale eingefahrene Datenmenge, das heißt die unterschiedlichen Grade Sat_U, Sat_B, Sat_O und Sat_D, bestimmt. Wie 7 zeigt, erfolgt hierbei die Ermittlung der Odometrien OF, Ol, OR für den Grad Sat_U der Urbanisierung, für den Grad Sat B der Bodenfeuchte und des Fahrbahnzustands, für den Grad Sat_O der Oberflächenunebenheiten und für den Grad Sat_D der Dynamik von Umgebungsobjekten in den verschiedenen Merkmalsräumen M1 bis M4.In a sixth method step VS6, local prioritizations are determined by means of a local decision logic for the feature spaces determined in the previously executed method steps VS1 to VS5. This means that on the basis of the multi-dimensional feature spaces M1 to M4, the decision logic with a subsequent combinatorics is used in order to establish the prioritization between the odometry determination units. The decision logic is, for example, a so-called fuzzy logic. A membership function of the fuzzy logic for each odometry determination unit and each feature space M1 to M4 is determined by an initial input data set, ie the different grades Sat_U, Sat_B, Sat_O and Sat_D. how 7 shows, the odometries OF, OL, OR are determined for the degree Sat_U of urbanization, for the degree Sat B of soil moisture and the condition of the road, for the degree Sat_O of surface unevenness and for the degree Sat_D of the dynamics of surrounding objects in the various feature spaces M1 to M4.

Daraus resultiert, wie in 8 beispielhaft für den Grad Sat_U der Urbanisierung und den Grad Sat O der Oberflächenunebenheiten dargestellt, für jedes satellitengestützte Merkmal ein Skalar, welche durch eine vorherige Gewichtung kombiniert werden. Hierzu werden in einem siebten Verfahrensschritt VS7 die lokalen Priorisierungen jedes Merkmalsraums M1 bis M4 für jeden Merkmalsraum M1 bis M4 zu einer globalen Priorisierung PR, PI auf Basis der jeweiligen Gewichtung kombiniert. Hieraus ergibt sich für die dargestellten Visualisierungen eine Priorisierung PR für die radargestützte Odometrie OR und eine Priorisierung PI für die basierend auf Daten inertialer Messeinheiten und mittels eines satellitengestützten Positionsbestimmungssystems ermittelter Positionsdatendaten bestimmte Odometrie Ol.As a result, as in 8th exemplified for the Sat_U degree of urbanization and the Sat_O degree of asperity, for each satellite-based feature a scalar, which are combined by a prior weighting. For this purpose, in a seventh step VS7 combines the local prioritization of each feature space M1 to M4 for each feature space M1 to M4 to form a global prioritization PR, PI based on the respective weighting. For the visualizations shown, this results in a prioritization PR for the radar-based odometry OR and a prioritization PI for the odometry OL determined based on data from inertial measurement units and position data determined by means of a satellite-based position determination system.

Wie in 9 dargestellt, wird anhand der resultierenden Priorisierung PF, PI, PR in einem achten Verfahrensschritt VS8 eine Konfidenz der Odometrie-Ermittlungseinheiten auf Basis der globalen Priorisierungen PF, PI, PR skaliert. Dabei werden die Inputs aller Odometrie-Ermittlungseinheiten weiterhin berücksichtigt, aber eine Konfidenz derselben wird durch die Priorisierungen PF, PI, PR gesteuert. So wird beispielsweise bei Fahrten auf ländlichen Strecken die Konfidenz der radargestützten Odometrie OR degradiert, wohingegen der basierend auf Daten inertialer Messeinheiten und mittels eines satellitengestützten Positionsbestimmungssystems ermittelter Positionsdatendaten bestimmten Odometrie Ol eine höhere Konfidenz zugeordnet wird. In vorteilhafter Weise liegt eine höhere Verfügbarkeit satellitengestützter Daten vor, welche zumindest im Wesentlichen räumlich und zeitlich, insbesondere in Abhängigkeit von einer
Position POS1 bis POSn des Fahrzeugs und einem Dienstleister, unabhängig sind. Darüber hinaus kann eine optimale Auslastung der Odometrie-Ermittlungseinheiten erreicht und die Merkmalsräume M1 bis M4 beliebig erweitert werden.
As in 9 shown, based on the resulting prioritization PF, PI, PR, a confidence of the odometry determination units is scaled in an eighth method step VS8 on the basis of the global prioritization PF, PI, PR. The inputs of all odometry determination units are still taken into account, but their confidence is controlled by the prioritizations PF, PI, PR. For example, when driving on rural routes, the confidence of the radar-based odometry OR is degraded, whereas a higher confidence is assigned to the odometry OL determined based on data from inertial measurement units and using a satellite-based position determination system. Advantageously, there is a higher availability of satellite-based data, which is at least essentially spatially and temporally, in particular as a function of a
Position POS1 to POSn of the vehicle and a service provider are independent. In addition, an optimal utilization of the odometry determination units can be achieved and the feature spaces M1 to M4 can be expanded as desired.

Wie in 10 dargestellt erfolgt dann in einem neunten Verfahrensschritt VS9 die Ermittlung der Eigenbewegung des Fahrzeugs in Abhängigkeit der Konfidenz aus den Daten, welche von Odometrie-Ermittlungseinheiten, die einen vorgegebenen Konfidenzwert überschreiten, ermittelt wurden.As in 10 shown then, in a ninth method step VS9, the vehicle's own movement is determined as a function of the confidence from the data determined by odometry determination units that exceed a predetermined confidence value.

In einem zehnten Verfahrensschritt VS10 wird anschließend eine zyklische Wiederholung aller vorherigen Verfahrensschritte VS1 bis VS9 initialisiert, beispielsweise nach einer vorgegebenen Anzahl von Zeitstempeln, beispielsweise 600 s.In a tenth method step VS10, a cyclic repetition of all previous method steps VS1 to VS9 is then initialized, for example after a predetermined number of time stamps, for example 600 s.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • EP 2715281 B1 [0002]EP 2715281 B1 [0002]

Claims (1)

Verfahren zur Schätzung einer Eigenbewegung eines Fahrzeugs, wobei - mittels mehrerer Odometrie-Ermittlungseinheiten anhand von jeweils unterschiedlichen Daten jeweils eine Odometrie (OF, Ol, OR) des Fahrzeugs bestimmt wird und - aus zumindest einer der bestimmten Odometrien (OF, Ol, OR) die Eigenbewegung des Fahrzeugs ermittelt wird, dadurch gekennzeichnet, dass - in einem ersten Verfahrensschritt (VS1) eine absolute Ego-Position (POS1 bis POSn) des Fahrzeugs relativ zu einer festen Referenzposition ermittelt wird, - in einem zweiten Verfahrensschritt (VS2) in einem Merkmalsraum (M1), welcher sich in einem definierten Umkreis um die absolute Ego-Position (POS1 bis POSn) erstreckt, ein Grad (Sat_U) einer Urbanisierung anhand von in einem Synthetischen-Apertur-Radarbild (SARB1) enthaltenen Daten und/oder anhand einer digitalen Straßenkarte ermittelt wird, - in einem dritten Verfahrensschritt (VS3) in einem weiteren Merkmalsraum (M2), welcher sich in einem definierten Umkreis um die absolute Ego-Position (POS1 bis POSn) erstreckt, ein Grad (Sat_B) einer Bodenfeuchte und eines Fahrbahnzustands anhand von in einem Synthetischen-Apertur-Radarbild (SARB2) enthaltenen Daten ermittelt wird, - in einem vierten Verfahrensschritt (VS4) in einem weiteren Merkmalsraum (M3), welcher sich in einem definierten Umkreis um die absolute Ego-Position (POS1 bis POSn) erstreckt, eine Topografie mit einem Grad (Sat_O) von Oberflächenunebenheiten anhand eines digitalen Höhenmodells in einem Synthetischen-Apertur-Radarbild SARB3 ermittelt wird, - in einem fünften Verfahrensschritt (VS5) in einem weiteren Merkmalsraum (M4), welcher sich in einem definierten Umkreis um die absolute Ego-Position (POS1 bis POSn) erstreckt, ein Grad (Sat_D) einer Dynamik von Umgebungsobjekten anhand von in einem Synthetischen-Apertur-Radarbild (SARB4) enthaltenen Daten ermittelt wird, - die vorherigen Verfahrensschritte (VS1 bis VS5) mehrfach zu definierten Zeitpunkten wiederholt werden, - in einem sechsten Verfahrensschritt (VS6) mittels einer lokalen Entscheidungslogik für die in den wiederholt ausgeführten vorherigen Verfahrensschritten (VS1 bis VS5) ermittelten Merkmalsräume (M1 bis M4) lokale Priorisierungen ermittelt werden, - in einem siebten Verfahrensschritt (VS7) die lokalen Priorisierungen jedes Merkmalsraums (M1 bis M4) für jeden Merkmalsraum (M1 bis M4) zu einer globalen Priorisierung (PF, PI, PR) auf Basis einer jeweiligen Gewichtung kombiniert werden, - in einem achten Verfahrensschritt (VS8) eine Konfidenz der Odometrie-Ermittlungseinheiten auf Basis der globalen Priorisierung (PF, PI, PR) skaliert wird und - in einem neunten Verfahrensschritt (VS9) die Eigenbewegung des Fahrzeugs in Abhängigkeit der Konfidenz aus den Daten bestimmt wird, welche von Odometrie-Ermittlungseinheiten, die einen vorgegebenen Konfidenzwert überschreiten, ermittelt wurden.A method for estimating a vehicle's own movement, wherein - using a plurality of odometry determination units based on different data in each case, an odometry (OF, OL, OR) of the vehicle is determined and - from at least one of the determined odometries (OF, OL, OR) the Own movement of the vehicle is determined, characterized in that - in a first method step (VS1) an absolute ego position (POS1 to POSn) of the vehicle is determined relative to a fixed reference position, - in a second method step (VS2) in a feature space ( M1), which extends within a defined radius around the absolute ego position (POS1 to POSn), a degree (Sat_U) of urbanization based on data contained in a synthetic aperture radar image (SARB1) and/or based on a digital road map is determined, - in a third method step (VS3) in a further feature space (M2), which is in a defined area around the abs olute ego position (POS1 to POSn), a degree (Sat_B) of soil moisture and of a roadway condition is determined using data contained in a synthetic aperture radar image (SARB2), - in a fourth method step (VS4) in a further feature space (M3), which extends in a defined radius around the absolute ego position (POS1 to POSn), a topography with a degree (Sat_O) of surface irregularities is determined using a digital elevation model in a synthetic aperture radar image SARB3, - in a fifth method step (VS5) in a further feature space (M4), which extends in a defined radius around the absolute ego position (POS1 to POSn), a degree (Sat_D) of a dynamic of surrounding objects based on a synthetic aperture Radar image (SARB4) contained data is determined, - the previous method steps (VS1 to VS5) are repeated several times at defined times, - in a sixth Ver process step (VS6) local prioritizations are determined by means of a local decision logic for the feature spaces (M1 to M4) determined in the repeatedly executed previous process steps (VS1 to VS5), - in a seventh process step (VS7) the local prioritizations of each feature space (M1 to M4 ) are combined for each feature space (M1 to M4) to form a global prioritization (PF, PI, PR) based on a respective weighting, - in an eighth method step (VS8), a confidence of the odometry determination units based on the global prioritization (PF, PI, PR) is scaled and - in a ninth method step (VS9), the vehicle's own movement is determined as a function of the confidence from the data which were determined by odometry determination units which exceed a predetermined confidence value.
DE102022000032.6A 2022-01-03 2022-01-03 Method for estimating a vehicle's own motion Pending DE102022000032A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022000032.6A DE102022000032A1 (en) 2022-01-03 2022-01-03 Method for estimating a vehicle's own motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022000032.6A DE102022000032A1 (en) 2022-01-03 2022-01-03 Method for estimating a vehicle's own motion

Publications (1)

Publication Number Publication Date
DE102022000032A1 true DE102022000032A1 (en) 2022-02-24

Family

ID=80112963

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022000032.6A Pending DE102022000032A1 (en) 2022-01-03 2022-01-03 Method for estimating a vehicle's own motion

Country Status (1)

Country Link
DE (1) DE102022000032A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2715281B1 (en) 2011-06-03 2018-11-21 Robert Bosch GmbH Combined radar and gps localization system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2715281B1 (en) 2011-06-03 2018-11-21 Robert Bosch GmbH Combined radar and gps localization system

Similar Documents

Publication Publication Date Title
DE102015111535B4 (en) Algorithm for precise curvature estimation for the path planning of autonomous vehicles
DE102015000399B4 (en) Mapping of lanes using vehicle fleet data
DE102013212235A1 (en) Method for processing measurement data of a vehicle for determining the beginning of a search for a parking space
DE102017214053A1 (en) A method for determining a coefficient of friction for a contact between a tire of a vehicle and a road and method for controlling a vehicle function of a vehicle
WO2018019454A1 (en) Method and device for determining a roadway model for the surroundings of a vehicle
DE102019114595B4 (en) Method for controlling the operation of a motor vehicle and for deriving road segment speed limits
DE102019130764A1 (en) DRIVE CONTROL SYSTEM AND METHOD OF AN AUTONOMOUS VEHICLE
EP3239903A1 (en) Method and device for comparing two cards with landmarks stored in these cards
DE102018212033A1 (en) Method and control device for determining a travel trajectory for a transverse dynamic driving maneuver for a vehicle
EP3724041A1 (en) Method for determining a friction value for a contact between a tyre of a vehicle and a roadway, and method for controlling a vehicle function of a vehicle
DE102015005987B4 (en) Method for operating a radar sensor in a motor vehicle, radar sensor and motor vehicle
EP3374242B1 (en) Method and device for analysing a driving manner of a driver of a vehicle
DE102020108508B3 (en) Procedure for evaluating route sections
DE102018007298A1 (en) Method for route planning
DE102021000792A1 (en) Method for operating a vehicle
DE102017217169A1 (en) Method for the automated identification of parking areas and / or non-parking areas
EP0715291B1 (en) Method and device for determining the position of a vehicle
DE102022000032A1 (en) Method for estimating a vehicle's own motion
DE102019211006B4 (en) Evaluation of sensor data from a vehicle
DE102021124736A1 (en) Method and device for determining a position hypothesis
DE102017214061A1 (en) A method for determining a coefficient of friction for a contact between a tire of a vehicle and a road and method for controlling a vehicle function of a vehicle
DE102021001461A1 (en) Method and device for determining and providing geolocalized frequencies of lane changes carried out by vehicles
DE102019206336A1 (en) Method and device for creating a first map
WO2019029875A1 (en) Method for determining a friction value for a contact between a tyre of a vehicle and a road, and method for controlling a vehicle function of a vehicle
DE102021000652A1 (en) Procedure for the prediction of parameters relevant to traffic management

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE