DE102021124397B4 - Method and processor circuit for determining a current vehicle pose of a motor vehicle in space and motor vehicle with the processor circuit - Google Patents

Method and processor circuit for determining a current vehicle pose of a motor vehicle in space and motor vehicle with the processor circuit Download PDF

Info

Publication number
DE102021124397B4
DE102021124397B4 DE102021124397.1A DE102021124397A DE102021124397B4 DE 102021124397 B4 DE102021124397 B4 DE 102021124397B4 DE 102021124397 A DE102021124397 A DE 102021124397A DE 102021124397 B4 DE102021124397 B4 DE 102021124397B4
Authority
DE
Germany
Prior art keywords
pose
vehicle
motor vehicle
data
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021124397.1A
Other languages
German (de)
Other versions
DE102021124397A1 (en
Inventor
Roland KUBE
Timo Iken
Carolin Last
Stefan Wappler
Michael Holicki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Cariad SE
Original Assignee
Volkswagen AG
Cariad SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG, Cariad SE filed Critical Volkswagen AG
Priority to DE102021124397.1A priority Critical patent/DE102021124397B4/en
Priority to PCT/EP2022/076199 priority patent/WO2023046737A2/en
Publication of DE102021124397A1 publication Critical patent/DE102021124397A1/en
Application granted granted Critical
Publication of DE102021124397B4 publication Critical patent/DE102021124397B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching

Abstract

Verfahren zum Ermitteln einer aktuellen Fahrzeugpose (19) eines Kraftfahrzeugs (10),wobei durch eine Prozessorschaltung (20) die Fahrzeugpose (19) als eine Posenangabe (18) mit einer Fahrzeugposition (22) im dreidimensionalen Raum (24) und einer räumlichen Orientierung (23) des Kraftfahrzeugs (10) an der Fahrzeugposition (22) ermittelt wird,dadurch gekennzeichnet, dassdurch Kartendaten eine sich im dreidimensionalen Raum (24) erstreckende, von dem Kraftfahrzeug (10) befahrbare Fahrfläche (12) der Umgebung als eine zweidimensionale Mannigfaltigkeit (35) aus jeweils paarweise über zumindest eine oder höchstens genau eine Kante (40) verbundenen polygonalen Flächenelementen (39) zusammengesetzt modelliert wird undausgehend von einer vorangegangenen Posenangabe (18) der Fahrzeugpose (19) für ein inkrementelles Update der Fahrzeugpose (19) durch einen vorbestimmten Lokalisierungsalgorithmus (25) auf der Grundlage von Sensordaten (26) zumindest eines Sensors (27) des Kraftfahrzeugs (10) die jeweils aktuelle Posenangabe (18) ermittelt wird, indemdie Fahrzeugposition (22) nur als Ort auf einem der Flächenelemente (39) und die räumliche Orientierung (23) an dem Ort auf dem Flächenelement (39) nur als ein Orientierungszustand in einem Zustandsraum mit vorbestimmter Dimensionalität zugelassen wird und hierzu in dem Lokalisierungsalgorithmus (25) ein Lösungsraum für die aktuelle Posenangabe (18) auf die zweidimensionale Mannigfaltigkeit (35) und die im Zustandsraum mögliche Orientierung (23) begrenzt gehalten wird und hierdurch die Sensordaten (26) durch den Lokalisierungsalgorithmus (25) auf den Zustandsraum abgebildet werden.Method for determining a current vehicle pose (19) of a motor vehicle (10), wherein the vehicle pose (19) as a pose indication (18) with a vehicle position (22) in three-dimensional space (24) and a spatial orientation ( 23) of the motor vehicle (10) at the vehicle position (22), characterized in that a driving surface (12) of the environment that extends in three-dimensional space (24) and can be driven on by the motor vehicle (10) is determined by map data as a two-dimensional multiplicity (35 ) is modeled composed of pairs of polygonal surface elements (39) connected via at least one or at most exactly one edge (40) and based on a previous pose specification (18) of the vehicle pose (19) for an incremental update of the vehicle pose (19) by a predetermined localization algorithm (25) on the basis of sensor data (26) from at least one sensor (27) of the motor vehicle (10) the respective current pose information (18) is determined by the vehicle position (22) only as a location on one of the surface elements (39) and the spatial Orientation (23) at the location on the surface element (39) is only permitted as an orientation state in a state space with a predetermined dimensionality and for this purpose in the localization algorithm (25) a solution space for the current pose indication (18) on the two-dimensional manifold (35) and the possible orientation (23) in the state space is kept limited and as a result the sensor data (26) are mapped onto the state space by the localization algorithm (25).

Description

Die Erfindung betrifft ein Verfahren zum Ermitteln einer aktuellen Fahrzeugpose eines Kraftfahrzeugs. Die Fahrzeugpose umfasst einen Ort und eine Ausrichtung, d.h. eine Positionsangabe zu einem aktuellen Aufenthaltsort der Kraftfahrzeugs im Raum (Fahrzeugposition) sowie eine Orientierungsangabe zum Angeben einer räumlichen Orientierung oder Ausrichtung des Kraftfahrzeugs an dem Aufenthaltsort. Durch die Erfindung sind auch eine Prozessorschaltung zum Durchführen des Verfahrens in einem Kraftfahrzeug sowie ein entsprechend ausgestattetes Kraftfahrzeug bereitgestellt.The invention relates to a method for determining a current vehicle pose of a motor vehicle. The vehicle pose includes a location and an orientation, i.e. position information about a current location of the motor vehicle in space (vehicle position) and orientation information for specifying a spatial orientation or orientation of the motor vehicle at the location. The invention also provides a processor circuit for carrying out the method in a motor vehicle and a correspondingly equipped motor vehicle.

Aus der Veröffentlichung THOMPSON, Simon; KAGAMI, Satoshi; OKAJIMA, Masafumi. Constrained 6dof localisation for autonomous vehicles. In: 2010 IEEE International Conference on Systems, Man and Cybernetics. IEEE, 2010. S. 330-335 ist ein auf 6 räumlichen Freiheitsgraden (englisch: 6 Degrees of Freedom (6DoF)) basierendes Lokalisationsverfahren für bodengebundene Fahrzeuge bekannt, das die für die Lokalisation benötigten Umgebungsdaten nur durch Onboard-Sensoren erfasst. Durch die physikalischen Beschränkungen bodengebundener Fahrzeuge wird der Raum, in dem die Lokalisierungslösung gesucht wird, eingegrenzt, wodurch mittels einer GPU (Graphics Processing Unit) vergleichsweise schnell eine Lokalisierungslösung berechnet wird. Für die folgende Beschreibung werden zwei verschiedene Kategorien von landmarken-basierte Lokalisierungsalgorithmen betrachtet, 3D und 2D.From the publication THOMPSON, Simon; KAGAMI, Satoshi; OKAJIMA, Masafumi. Constrained 6dof localization for autonomous vehicles. In: 2010 IEEE International Conference on Systems, Man and Cybernetics. IEEE, 2010. pp. 330-335 is a 6 spatial degrees of freedom (6DoF)) based localization method for ground-based vehicles known that captures the environment data required for the localization only by onboard sensors. The space in which the localization solution is sought is restricted by the physical limitations of ground-based vehicles, as a result of which a localization solution is calculated comparatively quickly using a GPU (Graphics Processing Unit). For the following description, two different categories of landmark-based localization algorithms are considered, 3D and 2D.

3D-Algorithmen schätzen eine Pose des Fahrzeugs im 3D-Raum. Sie schätzen in der Regel drei Positionsgrade (x,y,z) und drei Winkelfreiheitsgrade (Nicken, Wanken, Gieren), so dass ein 6D-Zustandsraum verwendet wird. Dies ist ein sehr allgemeiner Rahmen, der jede denkbare Fahrzeugtrajektorie darstellen kann. Er hat jedoch mehrere Nachteile. Viele der möglichen 6D-Zustände sind unrealistisch, da sie z. B. dem Blick 60° nach oben oder dem Fliegen über dem Boden entsprechen könnten. Dies macht einen Lokalisierungsalgorithmus weniger robust, da er aus einer Vielzahl von möglichen Fahrzeugposen wählen muss, von denen die meisten unerwünscht oder unplausibel sind. Es gibt nicht nur eine Vielzahl von unrealistischen Zuständen, sondern auch Trajektorien, die insgesamt unrealistisch sind. Ein Beispiel ist ein mehrstöckiges Parkhaus, in dem ein Fahrzeug eine Zeit lang auf einer Etage fährt, ohne auf irgendwelche Orientierungspunkte zu treffen. Diese blinde Schätzung der Fahrzeugpose könnte zu einer Drift in der Höhe führen, die dazu führt, dass sich das Fahrzeug plötzlich angeblich in einem anderen Stockwerk des Gebäudes befindet. Während es für das Fahrzeug eindeutig unmöglich ist, durch die Decke zu fahren, ist diese Einschränkung in einem 3D-Rahmen schwer zu kodieren.3D algorithms estimate a pose of the vehicle in 3D space. They typically estimate three degrees of position (x,y,z) and three degrees of angular freedom (pitch, roll, yaw), so a 6D state space is used. This is a very general framework that can represent any conceivable vehicle trajectory. However, it has several disadvantages. Many of the possible 6D states are unrealistic, e.g. B. could correspond to looking 60° up or flying over the ground. This makes a location algorithm less robust as it has to choose from a variety of possible vehicle poses, most of which are undesirable or implausible. There is not only a large number of unrealistic states, but also trajectories that are unrealistic overall. An example is a multi-story parking garage where a vehicle travels on one floor for a period of time without encountering any landmarks. This blind estimation of the vehicle's pose could result in a drift in altitude, causing the vehicle to suddenly appear to be on a different floor of the building. While it is clearly impossible for the vehicle to drive through the ceiling, this limitation is difficult to encode in a 3D frame.

Ein weiteres Problem ist die Sichtbarkeit von Orientierungspunkten oder Landmarken. Viele Landmarken sind von einer bestimmten Position aus aufgrund von Verdeckungen nicht sichtbar. Oft ist es nicht möglich, solche Okklusionsberechnungen online in Echtzeit durchzuführen, aber sie könnten vorher offline durchgeführt werden. Dies ist jedoch sehr schwierig, wenn der Zustandsraum der gesamte 3D-Raum ist, so dass für jede mögliche 3D-Position eine Liste der sichtbaren Landmarken berechnet werden muss.Another problem is the visibility of landmarks or landmarks. Many landmarks are not visible from a given position due to occlusion. It is often not possible to perform such occlusion calculations online in real time, but they could be performed offline beforehand. However, this is very difficult when the state space is all 3D space, so a list of visible landmarks has to be computed for every possible 3D position.

2D-Algorithmen schätzen eine Pose auf einer 2D-Oberfläche, daher besteht der Zustandsraum aus zwei Positionskoordinaten und dem Gierwinkel und ist somit dreidimensional. Dies ist eine gute Darstellung für die meisten gängigen Fahrsituationen mit einem Kraftfahrzeug, da es sich in der Regel entlang einer Bodenebene bewegt. Es gibt jedoch Situationen, in denen eine globale Bodenebene keine gute Näherung ist, z.B.: mehrstöckige Parkhäuser mit Rampen, die die Stockwerke verbinden, oder Autobahnbrücken, die andere Hauptverkehrsstraßen überqueren, mit Rampen, die auf die Autobahnstraßen mit einem starken Neigungswinkel auf- und abführen.2D algorithms estimate a pose on a 2D surface, so the state space consists of two position coordinates and the yaw angle and is thus three-dimensional. This is a good representation for most common driving situations with a motor vehicle, as it usually moves along a ground plane. However, there are situations where a global ground plane is not a good approximation, e.g.: multi-storey car parks with ramps connecting the floors, or highway bridges crossing other major thoroughfares with ramps leading up and down the highway roads at a steep angle .

Aus der WO 2020 / 248209 A1 ist ein Verfahren zum Lokalisieren eines Kraftfahrzeugs auf der Grundlage von Odometriedaten zumindest eines Sensors eines Kraftfahrzeugs bekannt. Es ist beschrieben, wie der dreidimensionale Raum einer Umgebung des Kraftfahrzeugs durch Kartendaten als eine zweidimensionale horizontale Fläche (x, y) beschrieben sein kann, in welcher jedem Flächenpunkt vier weitere Koordinaten oder Dimensionen zugeordnet sind, nämlich eine Höheninformation (z) und drei Orientierungswinkel für Gieren, Nicken und Wanken des Kraftfahrzeugs. Nachteilig bei diesem Verfahren ist, dass mehrstöckige Gebäude, wie beispielsweise Parkhäuser, schwierig zu modellieren sind, da dort horizontale Fläche übereinander liegen. Zudem muss für jeden Flächenpunkt die Höheninformation (z) als Dimensionsangabe gespeichert sein, weshalb die Kartendaten entsprechend große Datenmengen erfordern.A method for locating a motor vehicle on the basis of odometry data from at least one sensor of a motor vehicle is known from WO 2020/248209 A1. It describes how the three-dimensional space surrounding the motor vehicle can be described by map data as a two-dimensional horizontal surface (x, y), in which each surface point is assigned four additional coordinates or dimensions, namely height information (z) and three orientation angles for Yaw, pitch and roll of the motor vehicle. The disadvantage of this method is that multi-storey buildings, such as multi-storey car parks, are difficult to model because there are horizontal surfaces on top of each other. In addition, the height information (z) must be stored as dimension information for each surface point, which is why the map data requires correspondingly large amounts of data.

Aus der US 8,531,456 B2 ist bekannt, eine sich im dreidimensionalen Raum erstreckende Oberfläche durch eine Vielzahl aneinander angrenzender polygonaler Flächenelemente, beispielsweise Dreiecke, nachzubilden, womit sich im dreidimensionalen Raum die Oberfläche als zweidimensionale Mannigfaltigkeit repräsentieren lässt. Die Anordnung der polygonalen Flächenelemente wird auch als Mesh bezeichnet. Beispielsweise kann hierdurch eine Statue als dreidimensionales Modell der Statuenoberfläche modelliert werden.From the U.S. 8,531,456 B2 It is known to simulate a surface extending in three-dimensional space by means of a multiplicity of polygonal surface elements, for example triangles, adjoining one another, with which the surface can be represented in three-dimensional space as a two-dimensional multiplicity. The arrangement of the polygonal surface elements is also referred to as a mesh. For example, a Sta do be modeled as a three-dimensional model of the statue surface.

Der Erfindung liegt die Aufgabe zugrunde, ein effizientes Verfahren zur Lokalisierung eines Kraftfahrzeugs im dreidimensionalen Raum bereitzustellen, mittels welchem eine Angabe zur Fahrzeugposition und zur räumlichen Orientierung des Kraftfahrzeugs möglich ist, also die Posenangabe einer Fahrzeugpose.The object of the invention is to provide an efficient method for locating a motor vehicle in three-dimensional space, by means of which it is possible to specify the vehicle position and the spatial orientation of the motor vehicle, ie the pose specification of a vehicle pose.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.The object is solved by the subject matter of the independent patent claims. Advantageous developments of the invention are described by the dependent patent claims, the following description and the figures.

Als eine Lösung umfasst die Erfindung ein Verfahren zum Ermitteln einer aktuellen Fahrzeugpose eines Kraftfahrzeugs, wobei durch eine Prozessorschaltung die Fahrzeugpose als eine Posenangabe mit einer Fahrzeugposition (Fahrzeugort) im dreidimensionalen Raum und einer räumlichen Orientierung des Kraftfahrzeugs (Fahrzeugausrichtung) an der Fahrzeugposition ermittelt wird. Die Posenangabe kann also beispielsweise vierdimensional sein, wenn die Fahrzeugpositionen durch Raumkoordinaten x, y, z und die Orientierung einen Gierwinkel oder eine Ausrichtung (englisch: Heading) zur Beschreibung der räumlichen Orientierung des Kraftfahrzeugs vorsieht. Weitere mögliche Orientierungsangaben können der Nickwinkel und/oder der Wankwinkel sein. Im weiteren Verlauf der Beschreibung werden noch weitere mögliche Angaben zur Orientierung beschrieben.As a solution, the invention includes a method for determining a current vehicle pose of a motor vehicle, the vehicle pose being determined by a processor circuit as a pose specification with a vehicle position (vehicle location) in three-dimensional space and a spatial orientation of the motor vehicle (vehicle orientation) at the vehicle position. The pose specification can therefore be four-dimensional, for example, if the vehicle positions by spatial coordinates x, y, z and the orientation provides a yaw angle or an alignment (English: heading) to describe the spatial orientation of the motor vehicle. Further possible orientation information can be the pitch angle and/or the roll angle. In the further course of the description, further possible information for orientation is described.

Um die Posenangabe während eines Verlaufs einer Fahrt des Kraftfahrzeugs zyklisch zu aktualisieren, umfasst das Verfahren, dass durch Kartendaten eine sich im dreidimensionalen Raum erstreckende, von dem Kraftfahrzeug befahrbare Fahrfläche (Fahruntergrund) der Umgebung oder des Umfelds als eine zweidimensionale Mannigfaltigkeit aus jeweils paarweise über zumindest eine oder höchstens genau eine Kante verbundenen polygonalen Flächenelementen zusammengesetzt modelliert wird. Mit anderen Worten ist die Fahrfläche, also der Fahruntergrund oder die Fahrbahn, durch die eingangs beschriebenen polygonalen Flächenelemente beschrieben oder modelliert, d.h. die Fahrfläche ist als Mesh modelliert. In einem Parkhaus kann somit jedes Stockwerk durch ebene oder horizontal angeordnete Flächenelemente modelliert sein und Fahrrampen zum Wechseln zwischen Stockwerken können als geneigte oder schräg im Raum angeordnete Flächenelemente modelliert sein. Auch Unebenheiten, wie z.B. Bremsschwellen, können als ein dreidimensional gekrümmter Bereich der Fahrfläche modelliert werden.In order to cyclically update the pose information during a journey of the motor vehicle, the method includes using map data to map a driving surface (driving surface) of the environment or the surroundings, which extends in three-dimensional space and can be driven on by the motor vehicle, as a two-dimensional multiplicity of pairs over at least one or at most exactly one edge of connected polygonal surface elements is modeled as a composite. In other words, the driving surface, i.e. the driving surface or the roadway, is described or modeled by the polygonal surface elements described at the beginning, i.e. the driving surface is modeled as a mesh. In a multi-storey car park, each floor can thus be modeled by flat or horizontally arranged surface elements, and ramps for changing between floors can be modeled as inclined surface elements or arranged obliquely in space. Unevenness, such as speed bumps, can also be modeled as a three-dimensional curved area of the driving surface.

Die zyklische Aktualisierung der Posenangabe kann jeweils in jedem Zyklus auf das Ergebnis des vorangegangenen Zyklus, also die vorangegangene Posenangabe, aufbauen oder diese weiterbilden. Beispielsweise können die eingangs beschriebenen Odometriedaten empfangen werden, die angeben, um welche Strecke und mit welcher Ausrichtung (Heading) sich das Kraftfahrzeug seit der letzten Posenangabe bewegt hat. Das Verfahren umfasst entsprechend, dass ausgehend von einer vorangegangenen Posenangabe der Fahrzeugpose für ein inkrementelles Update der Posenangabe durch einen vorbestimmten Lokalisierungsalgorithmus auf der Grundlage von Sensordaten zumindest eines Sensors des Kraftfahrzeugs die jeweils aktuelle Posenangabe ermittelt wird. Hierbei kann von einem Lokalisierungsalgorithmus ausgegangen werden, wie er aus dem Stand der Technik bekannt ist. Ausgehend von der vorangegangen Posenangabe kann beispielsweise ein Vektor oder eine Linie konstruiert oder ermittelt werden, die sich gemäß dem ermittelten Heading im Raum erstreckt oder im Raum verläuft. Hierbei müssen aber nun unmögliche oder unplausible Ergebnisse vermieden werden, wie sie beispielsweise durch Messstreuungen im Sensor verursacht werden können. Beispielsweise muss beachtet werden, dass zwischen der vorangegangenen Posenangabe und der neuen Posenangabe keine Wand liegen kann, die das Kraftfahrzeug durchfahren haben müsste, um auf die neu ermittelte Fahrzeugpose zu gelangen. Entsprechend muss der Lokalisierungsalgorithmus dahingehend beschränkt sein oder mit Randbedingungen betrieben werden, durch welche unplausible Schätzergebnisse für die Schätzung der aktuellen Fahrzeugpose vermieden werden. Dies ist bei dem erfindungsgemäßen Verfahren realisiert, in dem die Fahrzeugposition nur als Ort auf einem der Flächenelemente und die räumliche Orientierung an dem Ort auf dem Flächenelement nur als ein Orientierungszustand in einem Zustandsraum mit vorbestimmter Dimensionalität zugelassen wird und hierzu in dem Lokalisierungsalgorithmus ein Lösungsraum für die aktuelle Posenangabe auf die zweidimensionale Mannigfaltigkeit und die im Zustandsraum mögliche Orientierung begrenzt gehalten wird und hierdurch die Sensordaten durch den Lokalisierungsalgorithmus auf den Zustandsraum abgebildet werden. Der hier verwendete „Zustandsraum“ stellt die vollständige Beschreibung des Zustands des Kraftfahrzeugs in Bezug auf seine Anordnung im Raum dar, d.h. der Zustandsraum umfasst sowohl die Angabe des Orts des Kraftfahrzeugs auf der zweidimensionalen Mannigfaltigkeit als auch die räumliche Ausrichtung/Orientierung an dem Ort. Der Zustandsraum ist damit zumindest zweidimensional, um die Position des Kraftfahrzeugs auf der Mannigfaltigkeit zu beschreiben (ohne weitere Angabe zur räumlichen Ausrichtung an dem Ort). Vorliegend ist aber zusätzlich zum Ort noch der Orientierungszustand angegeben, sodass der Zustandsraum eine Dimensionalität (Anzahl der Dimensionen) größer als 2 aufweist, um (wie im Weiteren noch beschrieben werden wird) beispielsweise zusätzlich als Orientierungszustand z.B. einen Gierwinkel oder Orientierungswinkel (Heading) anzugeben. Die zumindest eine zusätzliche Dimension, die über die Ortsangabe auf der Mannigfaltigkeit hinausgeht und den Orientierungszustand beschreibt, wird auch als mathematische Faser bezeichnet.In each cycle, the cyclic updating of the pose specification can build on the result of the previous cycle, ie the previous pose specification, or develop it further. For example, the odometry data described at the outset can be received, which indicate by what distance and with what orientation (heading) the motor vehicle has moved since the last pose indication. The method accordingly includes that starting from a previous pose indication of the vehicle pose for an incremental update of the pose indication by a predetermined localization algorithm on the basis of sensor data of at least one sensor of the motor vehicle the respective current pose indication is determined. A localization algorithm as known from the prior art can be used here. Starting from the previous pose specification, for example, a vector or a line can be constructed or determined, which extends or runs in space according to the determined heading. In this case, however, impossible or implausible results must be avoided, such as those that can be caused by measurement scatter in the sensor. For example, it must be noted that there cannot be a wall between the previous pose specification and the new pose specification, which the motor vehicle would have to have driven through in order to arrive at the newly determined vehicle pose. Accordingly, the localization algorithm must be limited or operated with boundary conditions that avoid implausible estimation results for the estimation of the current vehicle pose. This is implemented in the method according to the invention, in which the vehicle position is only permitted as a location on one of the surface elements and the spatial orientation at the location on the surface element is only permitted as an orientation state in a state space with a predetermined dimensionality, and for this purpose in the localization algorithm a solution space for the current pose information is kept limited to the two-dimensional multiplicity and the possible orientation in the state space, and as a result the sensor data are mapped onto the state space by the localization algorithm. The "state space" used herein represents the complete description of the state of the motor vehicle in relation to its arrangement in space, ie the state space includes both the indication of the location of the motor vehicle on the two-dimensional manifold and the spatial alignment/orientation at the location. The state space is thus at least two-dimensional in order to describe the position of the motor vehicle on the manifold (without further information on the spatial alignment at the location). However, in addition to the location, the state of orientation is also present specified, so that the state space has a dimensionality (number of dimensions) greater than 2 in order (as will be described below) to specify, for example, an additional orientation state such as a yaw angle or orientation angle (heading). The at least one additional dimension that goes beyond the location on the manifold and describes the state of orientation is also referred to as a mathematical fiber.

Mit anderen Worten umfasst die Plausibilisierung zwei Maßnahmen. Zum einen ist lediglich eine Bewegung des Kraftfahrzeugs innerhalb der Fläche der Mannigfaltigkeit, also innerhalb der aneinander angrenzenden Flächenelmente zugelassen. Wird beispielsweise durch die Odometriedaten signalisiert, dass sich das Kraftfahrzeug um eine bestimmte Streckenlänge, z.B. fünf Meter, bewegt hat und ergibt dies, dass das Kraftfahrzeug ein horizontales Flächenelement über eine Kante desselben verlassen haben muss, an welche ein schräg nach oben führendes Flächenelement angrenzt, so wird die zurückgelegte Strecke mit der signalisierten Streckenlänge, also beispielsweise fünf Meter, im ersten Abschnitt auf das horizontale Flächenelement abgebildet, dann an der Kante entsprechend dem Neigungswinkel des angrenzenden Flächenelements geknickt und dort der restliche Teil der Streckenlänge in dem geneigten Flächenelement weitergeführt, bis das Ende der Streckenlänge, also beispielsweise fünf Meter, erreicht ist. Dies ergibt zwei rechentechnisch verhältnismäßig einfache Operationen auf zwei angrenzenden Flächenelementen. In Bezug auf die räumliche Orientierung des Kraftfahrzeugs ist durch die Schräglage des jeweiligen Flächenelements bereits signalisiert, welche Orientierung das Kraftfahrzeug allein auf Grundlage seiner Position auf dem Flächenelement, also der Neigung oder dem Gradienten des Flächenelements, aufweisen muss. Diese zusätzliche Information ergibt sich durch die Verwendung von Flächenelementen, die eine Ausrichtung oder Position im dreidimensionalen Raum aufweisen können. Als zweite Maßnahme wird die räumliche Ausrichtung, z.B. anhand der Gierrate, gemessen und somit kann zusätzlich durch die räumliche Lage jedes Flächenelements ermittelt werden, wie das Kraftfahrzeug absolut im Raum ausgerichtet ist.In other words, the plausibility check includes two measures. On the one hand, only a movement of the motor vehicle within the area of the manifold, ie within the adjoining surface elements, is permitted. If, for example, the odometry data signals that the motor vehicle has moved a certain distance, e.g. five meters, and this shows that the motor vehicle must have left a horizontal surface element via an edge of the same, which is adjoined by a surface element leading diagonally upwards, the route covered with the signaled route length, i.e. five meters, for example, is mapped onto the horizontal surface element in the first section, then bent at the edge according to the angle of inclination of the adjacent surface element and the remaining part of the route length is continued there in the inclined surface element until the End of the route length, for example five meters, is reached. This results in two computationally relatively simple operations on two adjacent surface elements. With regard to the spatial orientation of the motor vehicle, the inclined position of the respective surface element already signals which orientation the motor vehicle must have based solely on its position on the surface element, ie the inclination or the gradient of the surface element. This additional information results from the use of surface elements that can have an orientation or position in three-dimensional space. As a second measure, the spatial orientation, e.g. based on the yaw rate, is measured and thus it can also be determined from the spatial position of each surface element how the motor vehicle is absolutely aligned in space.

Durch die Erfindung ergibt sich der Vorteil, dass die Lokalisierung auf Grundlage von geometrischen Berechnungen durchgeführt werden kann, die sich auf Flächenelemente und den definierten Zustandsraum der Orientierung beschränken, was in vorteilhafter Weise die Rechenkomplexität verringert. Zusätzlich kann durch die Beschränkung auf die Flächenelemente und den vordefinierten Zustandsraum für die räumliche Orientierung sichergestellt werden, dass sich stets ein plausibles Lokalisierungsergebnis ergibt.The advantage resulting from the invention is that the localization can be carried out on the basis of geometric calculations which are limited to surface elements and the defined state space of the orientation, which advantageously reduces the computational complexity. In addition, the restriction to the surface elements and the predefined state space for the spatial orientation can ensure that a plausible localization result always results.

Die Erfindung umfasst auch Weiterbildungen, durch die sich zusätzliche Vorteile ergeben.The invention also includes developments that result in additional advantages.

Eine Weiterbildung umfasst, dass beim Ermitteln des Orts auf einem der Flächenelemente durch den Lokalisierungsalgorithmus ein Übergang zwischen zwei Flächenelementen nur über eine jeweilige gemeinsame Kante der Flächenelemente zugelassen wird. Mit anderen Worten ist ein Wechsel zwischen zwei Flächenelementen nur möglich, wenn diese über eine gemeinsame Kante verbunden sind. Hierdurch kann verhindert werden, dass durch den Lokalisierungsalgorithmus eine aktuelle Posenangabe ermittelt wird, die in der Realität das Durchfahren einer geschlossenen Wand erfordern würde. Mit anderen Worten kann in der Modellierung mit geringem Aufwand verhindert werden, dass unplausible Positionsangaben ermittelt werden, indem unmögliche oder nicht vorhandene Fahrwege dadurch modelliert werden, dass Flächenelemente voneinander beabstandet, das heißt ohne gemeinsame Kante, beschrieben oder in den Kartendaten eingetragen werden.A development includes that when the location on one of the surface elements is determined by the localization algorithm, a transition between two surface elements is only permitted via a respective common edge of the surface elements. In other words, a change between two surface elements is only possible if they are connected via a common edge. This can prevent the localization algorithm from determining a current pose specification that would in reality require driving through a closed wall. In other words, it is possible to prevent implausible position information from being determined in the modeling with little effort by modeling impossible or non-existent routes by using surface elements at a distance from one another, i.e. without a common edge, describing them or entering them in the map data.

Eine Weiterbildung umfasst, dass die befahrbare Fahrfläche zumindest eine konvexe und/oder zumindest eine konkave Krümmung aufweist und die Fahrfläche modelliert ist, indem die Flächenelemente als ebene Polygone definiert sind. Mit anderen Worten ist jedes Flächenelement eben oder ungekrümmt, das heißt die Ecken oder Eckpunkte des jeweiligen Polygons eines Flächenelements sind koplanar angeordnet. Eine konkave oder konvexe Krümmung in der Fahrfläche selbst wird durch mehrere ebene Flächenelemente angenähert, indem sie z.B. in einem spitzen oder stumpfen Winkel zueinander angeordnet werden (Winkel ungleich 180°). Die Genauigkeit dieser Annäherung kann durch die Größe der Flächenelemente dem Bedarf angepasst werden. Beispielsweise kann eine Außenabmessung eines Flächenelements in Abhängigkeit von der Krümmung der Fahrbahnfläche gewählt werden. Ein Flächenelement kann beispielsweise ein Flächenstück der Fahrfläche mit einer Außenabmessung in einem Bereich von 30 Zentimeter bis 10 Meter repräsentieren, um geeignete Beispiele zu nennen. Indem auch eine konkave oder konvexe Krümmung durch mehrere ebene Polygone angenähert oder modelliert ist, wird verhindert, dass der Lokalisierungsalgorithmus eine Rechenkomplexität erreicht, die größer als ein zulässiger Höchstwert ist. Beispielsweise kann in Abhängigkeit von der zulässigen Rechenkomplexität die Größe der Flächenelemente festgelegt werden.A development includes that the trafficable driving surface has at least one convex and/or at least one concave curvature and the driving surface is modeled by defining the surface elements as flat polygons. In other words, each surface element is flat or not curved, ie the corners or corner points of the respective polygon of a surface element are arranged in a coplanar manner. A concave or convex curvature in the running surface itself is approximated by several flat surface elements, e.g. by arranging them at an acute or obtuse angle to one another (angles other than 180°). The accuracy of this approximation can be adjusted as required by the size of the surface elements. For example, an outer dimension of a surface element can be selected depending on the curvature of the roadway surface. A surface element can, for example, represent a surface section of the driving surface with an external dimension in a range from 30 centimeters to 10 meters, to name suitable examples. By also approximating or modeling a concave or convex curvature by multiple planar polygons, the localization algorithm is prevented from reaching a computational complexity greater than an allowable maximum. For example, the size of the surface elements can be specified as a function of the permissible computational complexity.

Eine Weiterbildung umfasst, dass eine Abstandsberechnung zwischen zwei vorgegebenen Punkten auf der zweidimensionalen Mannigfaltigkeit berechnet wird als eine Streckenlänge einer Strecke, die ausschließlich innerhalb der Flächenelemente angeordnet ist. Insbesondere bei Berechnung einer Streckenlänge auf oder entlang einer konvexen oder konkaven Krümmung der Fahrfläche wird somit verhindert, dass lediglich die direkte Luftlinie, also der euklidische Abstand zwischen einem Startpunkt und einem Endpunkt berechnet wird, sondern der Verlauf der Krümmung wird durch die im Verlauf der Strecke innerhalb der Flächenelemente nachgebildet oder angenähert. Dies ergibt eine genauere Berechnung oder Angabe der Streckenlänge.A development includes that a distance calculation between two specified Points on the two-dimensional manifold is computed as a line length of a line located solely within the surface elements. In particular, when calculating a route length on or along a convex or concave curvature of the driving surface, this prevents only the straight line, i.e. the Euclidean distance between a starting point and an end point, from being calculated, but rather the course of the curvature is determined by the course of the route replicated or approximated within the surface elements. This gives a more accurate calculation or indication of the route length.

Eine Weiterbildung umfasst, dass zum Ermitteln der Posenangabe in einem überdachten Gebäude bei fehlendem Positionssignal eines GNSS (global navigation satellite system) zumindest ein Teil der Sensordaten Odometriedaten umfasst. Die Odometriedaten können in der beschriebenen Weise eine zurückgelegte Streckenlänge seit der letzten Messung / dem letzten Zyklus, d.h. seit der letzten vorangegangenen Posenangabe, und eine Fahrtrichtung oder eine Ausrichtung (Heading) angeben, wobei die Fahrtrichtung/ das Heading über der Zeit als zeitlicher Verlauf des Heading für unterschiedliche Zeitpunkte angegeben sein kann. Beispielsweise kann das Heading als Lenkwinkelangabe und/oder Himmelsrichtung angegeben sein. Entsprechende Sensoren im Fahrwerk und/oder ein elektronischer Kompass können im Fahrzeug als Sensor vorgesehen sein. Somit kann beispielsweise auch in einem Parkhaus, wo aufgrund der vorhandenen Gebäudedecken das Positionssignal eines GNSS, beispielsweise des GPS (global positioning system) blockiert oder abgeschirmt sein und damit fehlen kann, mittels des Algorithmus die Fahrzeugposition in dreidimensionalem Raum (inklusive Höhenangabe) ermittelt werden.A further development includes at least some of the sensor data including odometry data in order to determine the pose information in a roofed building in the absence of a position signal from a GNSS (global navigation satellite system). In the manner described, the odometry data can specify a distance covered since the last measurement/the last cycle, i.e. since the last preceding pose specification, and a direction of travel or an orientation (heading), with the direction of travel/the heading being recorded over time as a temporal progression of the Heading can be specified for different points in time. For example, the heading can be specified as steering angle information and/or cardinal direction. Corresponding sensors in the chassis and/or an electronic compass can be provided as a sensor in the vehicle. Thus, for example, in a parking garage where the position signal of a GNSS, for example the GPS (global positioning system) is blocked or shielded due to the existing building ceilings and can therefore be missing, the vehicle position in three-dimensional space (including height information) can be determined using the algorithm.

Eine Weiterbildung umfasst, dass zu dem jeweiligen Flächenelement Beschaffenheitsdaten einer Beschaffenheit der Umgebung in dem Flächenelement bereitgestellt werden. Indem die Fahrfläche in Flächenelemente einer vorgegebenen Flächengröße eingeteilt ist, die insbesondere größer als 0,5 Quadratmeter ist, ist auch der Speicheraufwand zum Angeben der Beschaffenheit der Umgebung an dem jeweiligen Flächenelement begrenzt. Beispielsweise kann ein Flächenelement eine Fläche in einem Bereich von 0,5 Quadratmeter bis 30 Quadratmeter abdecken. Dann sind lediglich Beschaffenheitsdaten für jeweils diese Flächeneinheit notwendig, um für das gesamte Flächenelement die Beschaffenheit der Umgebung auf diesem Flächenelement in den Kartendaten zu speichern.A development includes that for the respective surface element, texture data on a texture of the environment are provided in the surface element. By dividing the runway into surface elements of a predetermined surface size, which is in particular larger than 0.5 square meters, the storage effort for specifying the nature of the environment on the respective surface element is also limited. For example, a surface element can cover an area in a range from 0.5 square meters to 30 square meters. Then only quality data for each of these surface units is necessary in order to store the quality of the environment on this surface element in the map data for the entire surface element.

Eine Weiterbildung umfasst, dass durch die Beschaffenheitsdaten angegeben ist, welche Umgebungsobjekte oder Landmarken von der jeweiligen Flächenelement aus potentiell detektierbar sind. Im Lokalisierungsalgorithmus wird eine Objektdetektion und/oder eine Objektklassifikation und/oder ein Matching-Algorithmus auf die jeweils potentiell detektierbaren Landmarken beschränkt. Eine Landmarke kann ein stationäres Objekt mit bekanntem Aussehen (mit Bezug auf die jeweilige gemessene physikalische Größe, wie z.B. Licht, Radar, Ultraschall) und bekannter Position (z.B. Geoposition und/oder 3D-Position im Raum und/oder Ausrichtung) sein. Ist also ermittelt, auf welchem Flächenelement sich das Kraftfahrzeug befindet, so kann durch die Beschaffenheitsdaten angegeben sein, welche Landmarken von dort aus potentiell „sichtbar“ sind, falls sie nicht aktuell verdeckt sind, beispielsweise durch einen anderen Verkehrsteilnehmer oder durch ein Wetterphänomen wie Nebel oder Starkregen. In dem Lokalisierungsalgorithmus kann dann beispielsweise ein Modell des maschinellen Lernens, beispielsweise ein künstliches neuronales Netzwerk, bei einer Objektdetektion (Prüfung, ob ein bestimmtes Objekt vorhanden ist) und/oder eine Objektklassifikation (Bestimmung einer Klasse des Objekts, beispielsweise Fußgänger oder Verkehrsschild) auf diejenigen Landmarken oder Objektklassen begrenzt sein, die überhaupt nur von dem Flächenelement aus potentiell oder theoretisch sichtbar oder detektierbar sind. A development includes that the texture data indicate which surrounding objects or landmarks are potentially detectable from the respective surface element. In the localization algorithm, an object detection and/or an object classification and/or a matching algorithm is limited to the respectively potentially detectable landmarks. A landmark can be a stationary object with a known appearance (related to the respective measured physical quantity, e.g. light, radar, ultrasound) and known position (e.g. geoposition and/or 3D position in space and/or orientation). If it is determined on which surface element the motor vehicle is located, the property data can indicate which landmarks are potentially "visible" from there if they are not currently covered, for example by another road user or by a weather phenomenon such as fog or heavy rain. In the localization algorithm, for example, a machine learning model, for example an artificial neural network, can then be used for object detection (checking whether a specific object is present) and/or object classification (determining a class of the object, for example pedestrians or traffic signs) for those Be limited to landmarks or object classes that are only potentially or theoretically visible or detectable from the surface element.

Dies erhöht die Robustheit der Objektdetektion und Objektklassifikation. Zusätzlich oder alternativ kann die Zuordnung der Objektdetektionen zu Landmarken aus der Karte (d.h. das Matching) beschränkt werden.This increases the robustness of object detection and object classification. Additionally or alternatively, the assignment of the object detections to landmarks from the map (i.e. the matching) can be restricted.

Die aktuelle Fahrzeugpose kann in zwei Stufen aus vorangegangenen Fahrzeugpose ermittelt werden. Eine Weiterbildung umfasst hierzu, dass durch den Lokalisierungsalgorithmus aus dem zumindest einen Sensor sowohl Odometriedaten einer ab oder seit der vorangegangenen Posenangabe zurückgelegten Fahrstrecke und gefahrenen Fahrtrichtung als auch Umfelddaten von an der aktuellen Fahrzeugposition sensierten oder erkannten Umgebungsobjekten empfangen werden und zunächst anhand der Fahrstrecke und Fahrtrichtung eine intermediäre Positionsangabe ermittelt wird und davon ausgehend durch einen Abgleich der Umfelddaten mit den detektierbaren Landmarken die aktuelle Positionsangabe ermittelt wird. Die Lokalisierung erfolgt somit zweistufig, indem zunächst anhand der Odometriedaten eine Zwischenposition oder grobe oder vorläufige Positionsangabe der Fahrzeugposition (intermediäre aktuelle Positionsangabe) ermittelt wird und dann beispielsweise auf Grundlage von Kameradaten oder allgemeinen Sensordaten, die das Umfeld des Kraftfahrzeugs signalisieren (Umfelddaten), dann durch die bereits beschriebene Objekterkennung und/oder Objektklassifikation die relative Position der Umgebungsobjekte ermittelt wird. Da zu diesen Umgebungsobjekten entsprechende Positionsdaten in den Kartendaten gespeichert sein können, also Landmarken beschrieben sind, kann beispielsweise mittels Triangulation auf die aktuelle Fahrzeugpose rückgeschlossen oder diese berechnet werden.The current vehicle pose can be determined in two stages from previous vehicle poses. A further development for this includes that the localization algorithm from the at least one sensor receives both odometry data of a route covered since or since the previous pose indication and direction of travel as well as environmental data of surrounding objects sensed or recognized at the current vehicle position and initially on the basis of the route and direction of travel intermediate position information is determined and, based on this, the current position information is determined by comparing the environmental data with the detectable landmarks. The localization is therefore carried out in two stages, in that first an intermediate position or rough or provisional position information of the vehicle position (intermediate current position information) is determined using the odometry data and then, for example, on the basis of camera data or general sensor data that signal the area around the motor vehicle (environment data). the object recognition and/or object classification already described, the relative position of the environment projects is determined. Since position data corresponding to these surrounding objects can be stored in the map data, ie landmarks are described, the current vehicle pose can be inferred or calculated by means of triangulation, for example.

Eine Weiterbildung umfasst, dass durch die Beschaffenheitsdaten eine Bodenbeschaffenheit der Fahrfläche angeben und die Bodenbeschaffenheit an eine Fahrerassistenzfunktion des Kraftfahrzeugs signalisiert wird. Beispielsweise kann der Fahrerassistenzfunktion als Bodenbeschaffenheit ein Reibbeiwert und/oder eine Angabe eines Materials des Bodens (Beton oder Kies oder Bitumen) signalisiert werden. Eine Fahrerassistenzfunktion kann davon ausgehend beispielsweise für eine Antiblockier-Bremsfunktion eine entsprechende Konfiguration anpassen, um die Bodenbeschaffenheit zu berücksichtigen.A development includes that the condition data indicate a ground condition of the driving surface and the ground condition is signaled to a driver assistance function of the motor vehicle. For example, a coefficient of friction and/or an indication of a material of the ground (concrete or gravel or bitumen) can be signaled to the driver assistance function as the ground condition. Based on this, a driver assistance function can, for example, adapt a corresponding configuration for an anti-lock braking function in order to take the condition of the ground into account.

Eine Weiterbildung umfasst, dass als eine interne Posenangabe den Ort auf dem Flächenelement als eine ID des Flächenelements und eine Koordinate in einem Koordinatensystem des Flächenelements angibt und für ein die aktuelle Positionsangabe empfangendes Steuergerät der Ort gemäß der internen Posenangabe in absolute Koordinaten des dreidimensionalen Raums umgerechnet werden und durch das Steuergerät mittels einer automatisierten und/oder assistierten Fahrfunktion eine Fahrtrajektorie für eine automatisierte Fahrt auf der Fahrfläche geplant und entsprechend das Kraftfahrzeug mittels einer Ansteuerung von Fahraktuatoren auf der Fahrfläche geführt wird. Somit kann intern in der Prozessorschaltung beim Durchführen des Verfahrens eine kompakte Repräsentation der Posenangabe durch ID (Identifikationsangabe des jeweiligen Flächenelements) und die Koordinate innerhalb des Flächenelements angegeben sein. Dagegen ist für jedes außenstehende Steuergerät, das die aktuelle Posenangabe benötigt oder damit versorgt wird, die übliche Signalisierung mittels absoluter Koordinaten im dreidimensionalen Raum möglich, sodass das Steuergerät nicht an die Modellierung auf Grundlage der Flächenelemente angepasst werden muss, sondern ohne weitere Anpassung das Steuergerät mit dem Verfahren und der Prozessorschaltung kombiniert werden kann.A further development includes that the location on the surface element as an ID of the surface element and a coordinate in a coordinate system of the surface element are specified as internal pose information, and the location is converted into absolute coordinates of the three-dimensional space for a control unit receiving the current position information according to the internal pose information and a travel trajectory for automated travel on the driving surface is planned by the control unit using an automated and/or assisted driving function, and the motor vehicle is accordingly guided on the driving surface by means of driving actuators. A compact representation of the pose specification can thus be specified internally in the processor circuit when the method is carried out by ID (identification specification of the respective surface element) and the coordinates within the surface element. On the other hand, for every external control unit that needs the current pose information or is supplied with it, the usual signaling using absolute coordinates in three-dimensional space is possible, so that the control unit does not have to be adapted to the modeling based on the surface elements, but the control unit with it without further adaptation the method and the processor circuit can be combined.

Eine Weiterbildung umfasst, dass der Zustandsraum mit der vorbestimmten Dimensionalität:

  • • eine Dimension für eine Gierwinkelangabe oder
  • • zwei Dimensionen für eine Gierwinkelangabe sowie eine zusätzliche Wankwinkelangabe oder Nickwinkelangabe oder
  • • drei Dimensionen für drei Raumwinkelangaben
umfasst. Die drei Raumwinkelangaben können Gierwinkel, Wankwinkel und Nickwinkel angeben. Eine Kombination aus einer Position in einer 2D-Mannigfaltigkeit und einem an dem jeweiligen Punkt oder der jeweiligen Position definierten zusätzlichen Zustandsraum ist in der Mathematik auch beschrieben als Mannigfaltigkeit mit Fasern, wobei der zusätzliche Zustandsraum die Fasern darstellt. Durch die Beschränkung auf die Dimensionen ergibt sich der Vorteil, das auch die Orientierung robuster geschätzt werden kann. Der Zustandsraum kann zusätzlich zu den hier angeführten Winkeln oder Winkelangaben noch die Position auf der Mannigfaltigkeit (ID des Flächenelements und 2D-Position/Koordinaten auf dem Flächenelement) als weitere Dimensionen umfassen. Der Zustandsraum ist also für die angeführten Beispiele drei, vier oder fünfdimensional, d.h. die Dimensionen der Mannigfaltigkeit (2) und die Dimensionen der Fasern (1, 2 oder 3).A further development includes that the state space with the predetermined dimensionality:
  • • a dimension for a yaw angle specification or
  • • two dimensions for a yaw angle specification and an additional roll angle specification or pitch angle specification or
  • • three dimensions for three spatial angle specifications
includes. The three solid angle specifications can indicate yaw angle, roll angle and pitch angle. A combination of a position in a 2D manifold and an additional state space defined at the respective point or position is also described in mathematics as a manifold with fibers, where the additional state space represents the fibers. The restriction to the dimensions results in the advantage that the orientation can also be estimated more robustly. In addition to the angles or angle specifications listed here, the state space can also include the position on the manifold (ID of the surface element and 2D position/coordinates on the surface element) as further dimensions. The state space is therefore three, four or five-dimensional for the given examples, ie the dimensions of the manifold (2) and the dimensions of the fibers (1, 2 or 3).

Eine Weiterbildung umfasst, dass der Zustandsraum aus einer Kombination aus einer Position in der 2D-Mannigfaltigkeit sowie zusätzlichen Daten für die Orientierung des Fahrzeuges besteht. In der Mathematik wird eine derartige Konfiguration als „Faserbündel über einer Mannigfaltigkeit“ bezeichnet. Die zusätzlichen Daten, auch Fasern genannt, können in Räumen mit der vorbestimmten Dimensionalität:

  • • eine Dimension für eine Gierwinkelangabe oder
  • • zwei Dimensionen für eine Gierwinkelangabe sowie eine zusätzliche Wankwinkelangabe oder Nickwinkelangabe oder
  • • drei Dimensionen für drei Raumwinkelangaben
darstellen oder belegen. Insbesondere ist die Orientierungsangabe auf jeweils genau diese Dimensionen beschränkt. Die drei Raumwinkelangaben können Gierwinkel, Wankwinkel und Nickwinkel angeben. Die Dimension des Zustandsraums ergibt sich als die Summe der Dimensionen der Mannigfaltigkeit selbst (als Basismannigfaltigkeit für die Ortsangabe (zwei für eine zweidimensionale Mannigfaltigkeit)) und der Dimensionen der Faser (eins, zwei oder drei) und ist also für die angeführten Beispiele drei, vier oder fünf. Durch die Beschränkung der Dimensionen ergibt sich der Vorteil, dass auch die räumliche Orientierung robuster geschätzt werden kann. Das Reduzieren von Sensordaten auf die nur verfügbaren Dimensionen des Faserbündels oder der Fasern kann z.B. durch eine mathematische Projektion erfolgen.A development includes that the state space consists of a combination of a position in the 2D manifold and additional data for the orientation of the vehicle. In mathematics, such a configuration is referred to as a "fiber bundle over a manifold". The additional data, also called fibers, can be in spaces with the predetermined dimensionality:
  • • a dimension for a yaw angle specification or
  • • two dimensions for a yaw angle specification and an additional roll angle specification or pitch angle specification or
  • • three dimensions for three spatial angle specifications
represent or prove. In particular, the indication of orientation is limited to precisely these dimensions in each case. The three solid angle specifications can indicate yaw angle, roll angle and pitch angle. The dimension of the state space results as the sum of the dimensions of the manifold itself (as the base manifold for the location specification (two for a two-dimensional manifold)) and the dimensions of the fiber (one, two or three) and is therefore three, four for the given examples or five. The limitation of the dimensions results in the advantage that the spatial orientation can also be estimated more robustly. The reduction of sensor data to the only available dimensions of the fiber bundle or the fibers can be done, for example, by a mathematical projection.

Eine Weiterbildung umfasst, dass der Zustandsraum eine Zustandsangabe eines Fahrwerks des Kraftfahrzeugs umfasst, der durch zumindest einen Fahrwerkssensor signalisiert wird. So kann beispielsweise durch unterschiedliche Stellungen der Stoßdämpfer und/oder der Federung der einzelnen Reifen des Kraftfahrzeugs, wie beim Überfahren einer Unebenheit und/oder eines Objekts, wie beispielsweise eines Bürgersteigs oder einer Bremsschwelle. Diese Zustandsangabe kann auch mit einem der oben beschriebenen Zustandsräumen kombiniert werden, wobei sich hierdurch die entsprechende Anzahl an Dimensionen (Dimensionalität) des Zustandsraums erweitert.A development includes that the status space includes status information of a chassis of the motor vehicle, which is signaled by at least one chassis sensor. For example, due to different positions of the shock absorbers and/or the suspension of the individual tires of the motor vehicle, such as when driving over an uneven surface and/or an object such as a sidewalk or a speed bump. This state information can also be combined with one of the state spaces described above, whereby the corresponding number of dimensions (dimensionality) of the state space is expanded.

Als eine weitere Lösung umfasst die Erfindung eine Prozessorschaltung für ein Kraftfahrzeug, wobei die Prozessorschaltung dazu eingerichtet ist, eine Ausführungsform des Verfahren durchzuführen. Die Prozessorschaltung kann beispielsweise durch ein Steuergerät des Kraftfahrzeugs bereitgestellt sein. Die Prozessorschaltung kann zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen digitalen Signalprozessor (DSP) und/oder zumindest einen ASIC (application specific integrate circuit) umfassen. Die Prozessorschaltung kann des Weiteren den Datenspeicher umfassen, in welchem computerlesbare Programminstruktionen gespeichert sein können, die bei Ausführung durch die Prozessorschaltung diese veranlassen, die Ausführungsform des Verfahrens durchzuführen. Er kann hierzu mit dem jeweiligen Mikroprozessor/Mikrocontroller/DSP/ASIC gekoppelt sein.As a further solution, the invention includes a processor circuit for a motor vehicle, the processor circuit being set up to carry out an embodiment of the method. The processor circuit can be provided, for example, by a control unit of the motor vehicle. The processor circuit can include at least one microprocessor and/or at least one microcontroller and/or at least one digital signal processor (DSP) and/or at least one ASIC (application specific integrate circuit). The processor circuit can also include the data memory, in which computer-readable program instructions can be stored which, when executed by the processor circuit, cause the processor circuit to carry out the embodiment of the method. For this purpose, it can be coupled to the respective microprocessor/microcontroller/DSP/ASIC.

Als eine weitere Lösung umfasst die Erfindung ein Kraftfahrzeug mit zumindest einem Sensor und mit einer Ausführungsform der Prozessorschaltung, die mit dem zumindest einen Sensor gekoppelt ist. Das Kraftfahrzeug kann beispielsweise als Personenkraftwagen oder Lastkraftwagen ausgestaltet sein. Als Sensor kann dabei jeweils eine Kamera, ein Radar, ein LIDAR, ein Ultraschallsensor vorgesehen sein.As a further solution, the invention comprises a motor vehicle with at least one sensor and with an embodiment of the processor circuit which is coupled to the at least one sensor. The motor vehicle can be designed as a passenger car or truck, for example. A camera, a radar, a LIDAR, an ultrasonic sensor can be provided as a sensor.

Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen.The invention also includes the combinations of features of the described embodiments.

Im Folgenden werden Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:

  • 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs;
  • 2 eine Skizze zur Veranschaulichung von Kartendaten, in welchen eine befahrbare Fahrfläche als zweidimensionale Mannigfaltigkeit im dreidimensionalen Raum durch ebene Flächenelemente modelliert ist.
  • 3 eine Skizze zur Veranschaulichung einer Berechnung einer Streckenlänge bei einer konkaven Krümmung der Fahrfläche;
  • 4 eine Skizze zur Veranschaulichung einer Ausführungsform des erfindungsgemäßen Verfahrens.
Exemplary embodiments of the invention are described below. For this shows:
  • 1 a schematic representation of an embodiment of the motor vehicle according to the invention;
  • 2 a sketch to illustrate map data in which a driving surface is modeled as a two-dimensional manifold in three-dimensional space by flat surface elements.
  • 3 a sketch to illustrate a calculation of a route length with a concave curvature of the driving surface;
  • 4 a sketch to illustrate an embodiment of the method according to the invention.

Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsbeispiele der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsbeispiele auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred exemplary embodiments of the invention. In the exemplary embodiments, the described components each represent individual features of the invention to be considered independently of one another, which also develop the invention independently of one another and are therefore also to be regarded as part of the invention individually or in a combination other than that shown. Furthermore, the exemplary embodiments described can also be supplemented by further features of the invention already described.

In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.Elements with the same function are each provided with the same reference symbols in the figures.

1 zeigt ein Kraftfahrzeug 10, das beispielsweise ein Personenkraftwagen oder Lastkraftwagen, sein kann. Das Kraftfahrzeug 10 kann eine Fahrt 11 über einen Fahruntergrund oder eine Fahrfläche 12 durchführen. Beispielsweise kann das Kraftfahrzeug 10 über eine Straße oder über den Boden eines Parkhauses fahren. Hierbei kann durch ein Steuergerät 13 eine automatisierte und/oder assistierte Fahrfunktion 14 (z.B. eine teilautonome oder voll autonome Fahrfunktion und/oder eine Ampelassistenz) betrieben werden, welche eine Längsführung und/oder Querführung des Kraftfahrzeugs 10 während der Fahrt 11 durchführen kann, indem sie Steuersignale für entsprechende Fahraktuatoren 15 beispielsweise für eine Lenkung und/oder Bremse und/oder einen Antriebsmotor erzeugt, um das Kraftfahrzeug 10 entlang einer durch das Steuergerät 13 berechneten Trajektorie 16 zu führen. Das Steuergerät 13 kann hierzu auf Kartendaten 17 einer Navigationsdatenbank DB zurückgreifen. Des Weiteren kann dem Steuergerät 13 eine aktuelle Posenangabe 18 einer aktuellen Fahrzeugpose 19 signalisiert werden durch eine Prozessorschaltung 20 eines weiteren Steuergeräts 21 oder durch eine Prozessorschaltung, die in dem Steuergerät 13 integriert sein kann (nicht dargestellt). Die Fahrzeugpose 19 kann eine aktuelle Fahrzeugposition 22 und eine räumliche Orientierung 23 des Kraftfahrzeugs 10 im dreidimensionalen Raum 24 angeben (z.B. als Winkelangabe bezüglich eines vorbestimmten Referenzwinkels). Die Prozessorschaltung 20 kann zum zyklischen Ermitteln der jeweils aktuellen Posenangabe 18 einen Lokalisierungsalgorithmus 25 ausführen, der zyklisch Sensordaten 26 aus zumindest einem Sensor 27 empfangen kann. Als ein möglicher Sensor 27 kann eine Rad-Odometrie oder Fahrzeug-Odometrie 28 entsprechende Odometriedaten 29 als Sensordaten 26 bereitstellen. Als ein möglicher Sensor 27 kann eine Kamera 30 Umfelddaten 31 eines Umfelds 32 des Kraftfahrzeugs 10 als Sensordaten 26 bereitstellen. Hierzu kann ein Erfassungsbereich 33 der Kamera 30 in die Umgebung oder das Umfeld 32, beispielsweise in einen der im Kraftfahrzeug 10 vorgelagerten Frontbereich 34, ausgerichtet sein. Zusätzlich oder alternativ zu der Kamera 30 kann zumindest ein weiterer Sensor zum Erzeugen von Umfelddaten 31 bereitgestellt sein. Zusätzlich oder alternativ zur Fahrzeug-Odometrie 28 kann beispielsweise ein Empfänger eines Positionssignals eines GNSS bereitgestellt sein, um Sensordaten 26, die zusätzlich oder alternativ zu den Odometriedaten 29 genutzt werden können, bereitzustellen. 1 shows a motor vehicle 10, which can be, for example, a passenger car or truck. The motor vehicle 10 can perform a journey 11 over a driving surface or a driving surface 12 . For example, motor vehicle 10 may be traveling across a street or across the floor of a parking garage. In this case, a control unit 13 can operate an automated and/or assisted driving function 14 (e.g. a partially autonomous or fully autonomous driving function and/or a traffic light assistant), which can carry out longitudinal guidance and/or lateral guidance of motor vehicle 10 while driving 11 by Control signals are generated for corresponding driving actuators 15, for example for a steering and/or brake and/or a drive motor, in order to guide motor vehicle 10 along a trajectory 16 calculated by control unit 13. To this end, control unit 13 can access map data 17 from a navigation database DB. Furthermore, current pose information 18 of a current vehicle pose 19 can be signaled to control unit 13 by a processor circuit 20 of another control unit 21 or by a processor circuit that can be integrated in control unit 13 (not shown). The vehicle pose 19 can specify a current vehicle position 22 and a spatial orientation 23 of the motor vehicle 10 in the three-dimensional space 24 (eg as an angle specification with respect to a predetermined reference angle). The processor circuit 20 can execute a localization algorithm 25 for cyclically determining the respective current pose indication 18 , which cyclically receives sensor data 26 from at least one sensor 27 can. A wheel odometry or vehicle odometry 28 can provide corresponding odometry data 29 as sensor data 26 as a possible sensor 27 . As a possible sensor 27 , a camera 30 can provide surroundings data 31 of surroundings 32 of motor vehicle 10 as sensor data 26 . For this purpose, a detection range 33 of the camera 30 can be aligned with the surroundings or the environment 32 , for example in a front region 34 located in front of the motor vehicle 10 . In addition or as an alternative to the camera 30, at least one further sensor for generating environmental data 31 can be provided. In addition or as an alternative to vehicle odometry 28 , a receiver of a position signal from a GNSS can be provided, for example, in order to provide sensor data 26 that can be used in addition or as an alternative to odometry data 29 .

Bei dem Lokalisierungsalgorithmus 25 ist dabei sichergestellt, dass die aktuelle Posenangabe 18 eine plausible oder realistische Fahrzeugpose 19 signalisiert, indem beispielsweise verhindert wird, dass eine Fahrzeugposition 22 angegeben ist, die es erfordern würde, dass das Kraftfahrzeug 10 vor der Fahrfläche 12 schwebt oder in der Fahrfläche 12 versunken ist.The localization algorithm 25 ensures that the current pose specification 18 signals a plausible or realistic vehicle pose 19, for example by preventing a vehicle position 22 from being specified that would require the motor vehicle 10 to hover in front of the driving surface 12 or in the Runway 12 is sunk.

Durch den Lokalisierungsalgorithmus 25 kann ein zyklisches und/oder iteratives Update der jeweils aktuellen Posenangabe 18 vorgesehen sein, indem auf aufeinanderfolgenden Messzyklen oder Lokalisierungszyklen jeweils aktuelle Sensordaten 26 empfangen werden und ausgehend von einer vorangegangenen geschätzten Fahrzeugpose die aktuelle Posenangabe 18 geschätzt wird.The localization algorithm 25 can provide a cyclical and/or iterative update of the current pose indication 18 in that the current sensor data 26 is received in successive measurement cycles or localization cycles and the current pose indication 18 is estimated based on a previously estimated vehicle pose.

Hierzu kann vorgesehen sein, dass die Kartendaten 17 aus der Navigationsdatenbank DB die Fahrfläche 12 im dreidimensionalen Raum 24 als zweidimensionale Mannigfaltigkeit modellieren.For this purpose it can be provided that the map data 17 from the navigation database DB models the driving surface 12 in the three-dimensional space 24 as a two-dimensional manifold.

2 veranschaulicht die Informationen aus solchen Kartendaten 17, bei denen eine zweidimensionale Mannigfaltigkeit 35 die Fahrfläche 12 in einem Parkhaus 36 modellieren kann, also die unterschiedlichen Stockwerke 37 und beispielsweise Rampen 38 zum Wechseln zwischen den Stockwerken 37. Die Mannigfaltigkeit 35 kann dabei aus einzelnen Flächenelementen 39 modelliert sein, die hier als ebene Dreiecke ausgebildet sind. Anstelle eines Dreiecks kann auch ein anderen Polygon, beispielsweise Vierecke oder Hexagone zugrunde gelegt werden. Die Flächenelemente 39 sind insbesondere eben, also krümmungsfreie Flächen. Eine geschlossene Fahrfläche 12 kann gebildet werden, indem jeweils zwei Flächenelemente 39 über eine gemeinsame Kante 40 der Polygone verbunden sind, was dem Lokalisierungsalgorithmus 25 signalisieren kann, dass über diese Kante 40 eine durchgehende Fahrbewegung der Fahrt 11 auf der Fahrfläche 12 möglich ist. Entsprechende Kartendaten 17 können beispielsweise auf Grundlage des eingangs beschriebenen Algorithmus gebildet sein. 2 illustrates the information from such map data 17, in which a two-dimensional manifold 35 can model the driving surface 12 in a parking garage 36, i.e. the different floors 37 and, for example, ramps 38 for changing between the floors 37. The manifold 35 can be modeled from individual surface elements 39 be, which are formed here as plane triangles. Instead of a triangle, another polygon, for example squares or hexagons, can also be used as a basis. The surface elements 39 are in particular flat, that is to say surfaces which are free of curvature. A closed driving surface 12 can be formed by connecting two surface elements 39 via a common edge 40 of the polygons, which can signal to the localization algorithm 25 that a continuous driving movement of the trip 11 on the driving surface 12 is possible via this edge 40. Corresponding map data 17 can be formed, for example, on the basis of the algorithm described above.

3 veranschaulicht in einer Schnittansicht der realen Fahrfläche 12, wie eine konkave Krümmung 41 der Fahrfläche 12 durch einzelne Flächenelemente 39 und ihre gemeinsamen Kanten 40 nachgebildet werden kann. Für den Lokalisierungsalgorithmus 25 kann hierdurch erreicht werden, dass eine Streckenlänge zwischen einem ersten Punkt 42 (Startpunkt) und einem zweiten Punkt 43 (Endpunkt), nicht als eine euklidischer Distanz 44 (euklidischer Abstand) berechnet werden muss, sondern die Streckenlänge aus geraden Streckenabschnitten 45 berechnet werden kann, von denen jeweils einer in einem der Flächenelemente 39 liegt. Ist durch die Odometriedaten 29 beispielsweise signalisiert, dass das Kraftfahrzeug seit der vorangegangen Posenangabe eine Strecke einer gegebenen Streckenlänge zurückgelegt hat, so muss nicht die euklidische Distanz 44 angenommen werden, sondern es kann präziser die Streckenlänge aus den Streckenabschnitte 45 und deren Länge innerhalb der Flächenelemente 39 zugrunde gelegt werden. 3 shows in a sectional view of the real driving surface 12 how a concave curvature 41 of the driving surface 12 can be simulated by individual surface elements 39 and their common edges 40. For the localization algorithm 25, this means that a route length between a first point 42 (starting point) and a second point 43 (end point) does not have to be calculated as a Euclidean distance 44 (Euclidean distance), but rather the route length from straight route sections 45 can be calculated, one of which is located in one of the surface elements 39. If, for example, the odometry data 29 signals that the motor vehicle has covered a distance of a given length since the previous pose indication, then the Euclidean distance 44 does not have to be assumed, but the length of the route from the route sections 45 and their length within the surface elements 39 can be calculated more precisely be taken as a basis.

4 veranschaulicht, wie der Lokalisierungsalgorithmus in einem Schritt S10 als Sensordaten 26 einerseits Odometriedaten 29 einer Fahrzeugbewegung während der Fahrt 11 ausgehend von einer vorangegangenen Posenangabe 46 eine Rollstrecke oder Fahrstrecke 47 und Heading-Angaben 48 sowie als Umfelddaten 31 beispielsweise ein Kamerabild 49 empfangen kann. In einem Schritt S11 kann ausgehend von der vorangegangenen Posenangabe 46 die Fahrstrecke 47 innerhalb der Flächenelemente 39 gemäß den Heading-Angaben 48 abgebildet werden, sodass die Odometriedaten 29 der Sensordaten 26 auf die zweidimensionale Mannigfaltigkeit 35 im Raum 24 abgebildet sind. Hierdurch kann sich eine vorläufige oder intermediäre Posenangabe 50 ergeben. Ausgehend hiervon kann in einem Schritt S12 auf der Grundlage der Umfelddaten 31 die finale aktuelle 4 illustrates how the localization algorithm in a step S10 can receive sensor data 26, on the one hand, odometry data 29 of a vehicle movement during the journey 11, based on a previous pose indication 46, a taxi route or route 47 and heading information 48, and as environmental data 31, for example, a camera image 49. In a step S11, based on the previous pose information 46, the route 47 can be mapped within the surface elements 39 according to the heading information 48, so that the odometry data 29 of the sensor data 26 are mapped onto the two-dimensional multiplicity 35 in space 24. This can result in a provisional or intermediate pose indication 50 . Proceeding from this, in a step S12 on the basis of the environment data 31, the final current

Posenangabe 18 ermittelt werden. Hierzu kann beispielsweise aus den Kartendaten zu dem aktuellen Flächenelement 51, welches durch die intermediäre Posenangabe 50 identifiziert sein kann, ermittelt werden, welche Beschaffenheitsdaten 52 sich aus den Kartendaten 17 ergeben. Die Beschaffenheitsdaten 52 können beispielsweise solche Landmarken 53 identifizieren, die potentiell oder überhaupt nur von dem aktuellen Flächenelement 51 aus sichtbar oder mittels der Sensoren 27 zensierbar oder erfassbar sind, also beispielsweise bezüglich der Kamera 30 in einer Sichtlinie stehen. Anhand der Umfelddaten 31 und der Beschaffenheitsdaten 52 betreffend die Landmarken 53 kann dann die aktuelle Posenangabe 18 beispielsweise auf der Grundlage von Triangulation ermittelt werden. Ein entsprechender Abgleich von Landmarken 53 in Umfelddaten 31 kann mit einer Methode aus dem Stand der Technik, beispielsweise mittels einer Methode des maschinellen Lernens für Objektdetektion, implementiert oder realisiert werden. Die aktuelle Posenangabe 18 kann beispielsweise eine jeweilige Identitätsangabe ID des jeweiligen Flächenelements 39 (im Beispiel das Flächenelement F1) und lokale Koordinaten U, V der ermittelten Fahrzeugposition 22 innerhalb des Flächenelements 51 (hier innerhalb F1) umfassen.Pose indication 18 can be determined. For this purpose, for example, it can be determined from the map data for the current surface element 51, which can be identified by the intermediate pose specification 50, which texture data 52 results from the map data 17. The texture data 52 can, for example, identify those landmarks 53 that are potentially or at all only visible from the current surface element 51 or can be censored or detected by the sensors 27, ie are in a line of sight with respect to the camera 30, for example. Based on the environment data 31 and the condition data 52 relating to the landmarks 53, the current pose indication 18 can then be determined, for example, on the basis of triangulation. A corresponding comparison of landmarks 53 in environmental data 31 can be implemented or realized using a method from the prior art, for example using a method of machine learning for object detection. The current pose information 18 can include, for example, a respective identity information ID of the respective surface element 39 (in the example the surface element F1) and local coordinates U, V of the determined vehicle position 22 within the surface element 51 (here within F1).

Diese ID und die Koordinaten U, V können dann in absolute Koordinaten im Raum 24 umgerechnet werden, um die Fahrzeugposition 22 in der aktuellen Posenangabe 18 für das Steuergerät 13 zu beschreiben oder zu signalisieren. Somit ist die Verwendung der Mannigfaltigkeit 35 durch den Lokalisierungsalgorithmus 25 für das Steuergerät 13, insbesondere die automatisierte Fahrfunktion 14 transparent oder nicht sichtbar, sodass das Steuergerät 13 und/oder die Fahrfunktion 14 zum Interpretieren der aktuellen Posenangabe 18 nicht angepasst oder verändert worden sein muss.This ID and the coordinates U, V can then be converted into absolute coordinates in space 24 in order to describe or signal the vehicle position 22 in the current pose specification 18 for the control device 13 . Thus, the use of the manifold 35 by the localization algorithm 25 for the control unit 13, in particular the automated driving function 14, is transparent or not visible, so that the control unit 13 and/or the driving function 14 for interpreting the current pose information 18 does not have to have been adapted or changed.

Die Position eines Fahrzeugs kann somit auf Basis einer Umgebungskarte und eines Bildstroms eines Kamerasystems, eventuell mit zusätzlichen Sensordaten wie GNSS (Global navigation sattelite system, Globales Navigations-Satellitensystem, z.B. GPS), INS (Inertialsensor) oder Fahrzeug-Odometrie (z.B. Radumdrehungen, Lenkwinkel, Kompassangaben), bestimmt werden. Dies ist eine Kernaufgabe für das autonome Fahren, aber auch für verschiedene Fahrerassistenzsysteme, also allgemein für das automatisierte und/oder assistierte Fahren. Die Lokalisierung kann durch den Abgleich von in der Karte gespeicherten Landmarken (z. B. Verkehrszeichen, Fahrbahnmarkierungen) mit aus dem Kamerabild extrahierten Objekten mittels eines Machine Learning Algorithmus erfolgen und daraus die Fahrzeugpose berechnet werden.The position of a vehicle can thus be determined on the basis of a map of the surroundings and an image stream from a camera system, possibly with additional sensor data such as GNSS (Global Navigation Satellite System, e.g. GPS), INS (Inertial Sensor) or vehicle odometry (e.g. wheel revolutions, steering angle , compass data) can be determined. This is a core task for autonomous driving, but also for various driver assistance systems, i.e. for automated and/or assisted driving in general. The localization can be carried out by comparing landmarks stored in the map (e.g. traffic signs, lane markings) with objects extracted from the camera image using a machine learning algorithm, and the vehicle pose can be calculated from this.

Die Idee schlägt einen Ansatz vor, der die Robustheit von 2D-Ansätzen mit der Allgemeinheit von 3D-Ansätzen kombiniert. Die Grundidee ist, den Zustandsraum auf einer zweidimensionalen Fläche (einer Mannigfaltigkeit) zu definieren, die in den dreidimensionalen Raum eingebettet ist. Das Fahrzeug ist gemäß dem Lokalisierungsalgorithmus gezwungen, sich auf dieser Mannigfaltigkeit zu bewegen und kann daher nur physikalisch mögliche Positionen und Zustandsübergänge erreichen.The idea proposes an approach that combines the robustness of 2D approaches with the generality of 3D approaches. The basic idea is to define the state space on a two-dimensional surface (a manifold) embedded in the three-dimensional space. According to the localization algorithm, the vehicle is forced to move on this manifold and can therefore only reach physically possible positions and state transitions.

Eine Definition einer Mannigfaltigkeit wird hier auf den vorliegenden Fall begrenzt. Eine 2D-Mannigfaltigkeit ist demnach eine Teilmenge des 3D-Raums, die lokal wie ein ebenes Flächenelement aussieht. Das wichtige Schlüsselwort ist „lokal“, es bedeutet, dass zwar immer eine lokale Tangentialebene vorhanden ist, auf der man sich bewegen kann, aber eine Mannigfaltigkeit kann global alle befahrbaren Bereiche kodieren, einschließlich der Rampen einer mehrstöckigen Garage und/oder Autobahnüberführungen. Ein Flächenelement kann als Dreiecksnetz (triangular mesh) dargestellt werden, d.h. als eine Menge von Dreiecken, die in den 3D-Raum eingebettet sind, wobei jedes Dreieck entlang jeder seiner Kanten höchstens an ein anderes Dreieck angrenzen darf.A definition of a manifold is limited here to the present case. A 2D manifold is therefore a subset of 3D space that locally looks like a planar surface element. The important keyword is "local", meaning that while there is always a local tangent plane to move on, a manifold can globally encode all navigable areas, including the ramps of a multi-story garage and/or freeway overpasses. A surface element can be represented as a triangular mesh, i.e. as a set of triangles embedded in 3D space, where each triangle must be adjacent to at most one other triangle along each of its edges.

Der Zustandsraum eines Fahrzeugs ist ein sogenanntes Faserbündel über der Basis-Mannigfaltigkeit. Das heißt, die Pose des Fahrzeugs wird durch einen Punkt auf der Mannigfaltigkeit (das Dreieck des Netzes, zu dem er gehört, und die Koordinaten auf dem Dreieck) zusammen mit einem zusätzlichen Datum beschrieben, das die Orientierung kodiert. Mögliche Fasern sind:

  • • eine S1-Faser, bei der wir den Gierwinkel als zusätzliche Information haben,
  • • eine S2-Faser, bei der wir einen Gier- und einen Neigungswinkel als zusätzliche Information haben. Dies würde die Kabinenposition auf den Basis-Mannigfaltigkeit beschränken, aber eine Neigung der Kamera ungleich Null erlauben, z. B. beim Überqueren einer Bodenschwelle oder Bremsschwelle,
  • • eine SO(3)-Faser, bei der wir einen vollständigen Gier-, Nick- und Rollwinkel der Kamera haben.
The state space of a vehicle is a so-called fiber bundle over the base manifold. That is, the pose of the vehicle is described by a point on the manifold (the triangle of the mesh it belongs to and the coordinates on the triangle) together with an additional datum encoding the orientation. Possible fibers are:
  • • an S1 fiber where we have the yaw angle as additional information,
  • • an S2 fiber where we have a yaw and a pitch angle as additional information. This would constrain the cabin position to the base manifold, but allow for non-zero tilt of the camera, e.g. B. when crossing a speed bump or speed bump,
  • • an SO(3) fiber where we have full camera yaw, pitch and roll angles.

Es ist auch möglich, den Zustandsraum weiter zu erweitern, indem man die Annahme aufgibt, dass das Fahrzeug ein starrer Körper ist. In diesem Fall könnte man interne Zustände des Fahrzeugs wie die Ausdehnungen der Stoßdämpfer zu den Fasern hinzufügen. Für das Faserbündel S1 ist jeder mögliche Zustand des Fahrzeugs physikalisch realistisch, da sich das Fahrzeug auf dem Basis-Mannigfaltigkeit befindet und parallel dazu ausgerichtet ist, so dass das erste Problem der 3D-Algorithmen hier nicht gilt. Für die größeren Fasern würde man einige Beschränkungen hinzufügen, die unvernünftige Nick- und Rollwinkel vermeiden. Im Falle eines dynamischen Fahrzeugmodells wäre es sogar möglich, komplexe Beziehungen zwischen Stoßdämpferzuständen und/oder Kameraorientierungen und/oder der lokalen Struktur der Mannigfaltigkeit zu modellieren.It is also possible to extend the state space further by abandoning the assumption that the vehicle is a rigid body. In this case, one could add internal states of the vehicle, such as the expansions of the shock absorbers, to the fibers. For the fiber bundle S1, every possible state of the vehicle is physically realistic since the vehicle is on the base manifold and oriented parallel to it, so the first problem of the 3D algorithms does not apply here. For the larger fibers one would add some constraints that avoid unreasonable pitch and roll angles. In the case of a dynamic vehicle model, it would even be possible to model complex relationships between shock absorber states and/or camera orientations and/or the local structure of the manifold.

Transitionen zur Aktualisierung der Lokalisierung/Posenangabe: Bevorzugt beginnt der Lokalisierungsalgorithmus mit einer anfänglichen Posenschätzung, gefolgt von inkrementellen Aktualisierungen, wenn sich das Fahrzeug bewegt. In dem beschriebenen Framework wird bevorzugt nur eine inkrementelle Aktualisierungen zugelassen, die auf demselben oder einem benachbarten Flächenelement (z.B. Dreieck) endet, und somit kodiert die Konnektivität des Netzes (Mesh) der Flächenelemente mögliche Zustandsübergänge. Auf diese Weise sind physikalisch unmögliche Übergänge, wie z. B. durch eine Wand oder durch die Decke zu fahren, konstruktionsbedingt nicht möglich und somit tritt das zweite Problem der 3D-Algorithmen nicht auf.Transitions to update location/pose indication: Preferably, the location algorithm begins with an initial pose estimate, followed by incremental updates as the vehicle moves. In the framework described, only incremental updates are preferably allowed, which end on the same or a neighboring surface element (eg triangle), and thus the connectivity of the network (mesh) of the surface elements encodes possible state transitions. In this way, physically impossible transitions such. B. driving through a wall or through the ceiling, is not possible due to the construction and thus the second problem of the 3D algorithms does not occur.

Kollaterale Informationen: Da sich das Fahrzeug immer auf einem bestimmten Dreieck /Flächenelement des Netzes befindet, können die Dreiecke zum Speichern zusätzlicher Informationen verwendet werden, die die Lokalisierung erleichtern. Die Konnektivität und damit die möglichen Bewegungen sind bereits implizit in der Mannigfaltigkeit-Struktur gespeichert, aber wir können auch für jedes Dreieck / Flächenelement speichern: eine Liste von Landmarken, die potenziell von diesem Dreieck aus sichtbar sind. Diese kann offline berechnet werden, wenn die Karte generiert wird, und man kann aufwändige Okklusionsberechnungen vermeiden. Mit dieser Liste wird vermieden, dass verdeckte oder nicht-vorhandene Landmarken dem Matching-Algorithmus präsentiert werden, was den Matching-Algorithmus sowohl schneller als auch robuster macht. Die Art der Oberfläche, auf der sich das Fahrzeug gerade befindet (Rampen, Parkplätze, Taxiwege), sowie regulatorische Daten (Geschwindigkeitsbegrenzungen, Einbahn-/Zweispur-Beschränkungen, maximale Freigaben). Diese Informationen können verwendet werden, um das Verhalten des Fahrzeugs beim automatisierten und/oder assistierten Fahren anzupassen oder sie können dem Fahrer im Kontext eines Fahrerassistenzsystems angezeigt werden.Collateral Information: Since the vehicle is always on a specific triangle/area of the mesh, the triangles can be used to store additional information that facilitates localization. The connectivity and hence the possible movements are already implicitly stored in the manifold structure, but we can also store for each triangle/area element: a list of landmarks potentially visible from that triangle. This can be calculated offline when the map is generated and one can avoid expensive occlusion calculations. With this list, obscured or non-existent landmarks are avoided from being presented to the matching algorithm, making the matching algorithm both faster and more robust. The type of surface the vehicle is currently on (ramps, parking lots, taxi lanes) as well as regulatory data (speed limits, one-way/two-lane restrictions, maximum clearances). This information can be used to adapt the vehicle's behavior during automated and/or assisted driving, or it can be displayed to the driver in the context of a driver assistance system.

Es ist theoretisch im Stand der Technik ebenfalls möglich, solche Informationen auch für einen 3D-Algorithmus zu speichern, allerdings bräuchten man dort eine zusätzliche endliche Partitionierung des Raums und Suchstrukturen, um auf die Daten zuzugreifen, während hier diese Strukturen kostenlos aus dem Netz erhalten.It is theoretically also possible in the prior art to store such information for a 3D algorithm as well, but there you would need an additional finite partitioning of the space and search structures in order to access the data, while here these structures are obtained free of charge from the network.

Sensordaten für die Lokalisierung verwenden: Das beschriebene Mannigfaltigkeit-Framework erlaubt auch eine verbesserte Einbindung von 2D-Sensordaten. Ein Beispiel ist die Geschwindigkeitsinformation der Rad-Odometrie. Diese kann als Randbedingung für den 3D-Abstand zweier benachbarter Sensorpositionen verwendet werden. Wenn sich das Fahrzeug jedoch auf einer gekrümmten Oberfläche bewegt, führt dies zu einem systematisch zu langen Ergebnis, wie in 3 dargestellt. Wenn die Informationen der Mannigfaltigkeit zur Verfügung stehen, lässt sich stattdessen die Geschwindigkeit als Maß für den geodätischen Abstand auf oder in der Mannigfaltigkeit verwenden, was ein Modell ergibt, das die Situation besser widerspiegelt. 3 veranschaulicht die Bewegung auf einer gekrümmten Oberfläche (Ansicht von der Seite). Ein 3D-Algorithmus würde den Geschwindigkeitsmesswert der Rad-Odometrie als Maß für die Länge der geraden Linie (minimaler Abstand 44 der beiden Punkte in 3D) nehmen, während es sich korrekt um den geodätischen Abstand auf der Fahrfläche handeln müsste.Use sensor data for localization: The described manifold framework also allows an improved integration of 2D sensor data. An example is the speed information of wheel odometry. This can be used as a boundary condition for the 3D distance between two adjacent sensor positions. However, when the vehicle moves on a curved surface, this leads to a systematically overlong result, as in 3 shown. If the information on the manifold is available, velocity can be used instead as a measure of the geodetic distance on or in the manifold, yielding a model that better reflects the situation. 3 illustrates motion on a curved surface (side view). A 3D algorithm would take the wheel odometry speed reading as a measure of the length of the straight line (minimum distance 44 between the two points in 3D), when correctly it would have to be the geodetic distance on the driving surface.

Der Lokalisierungsalgorithmus: Jeder Zustand auf unserem Faserbündel entspricht bevorzugt einem vollständigen 6D-Zustand im umgebenden 3D-Raum. Daher kann der größte Teil der Pipeline von bekannten 3D-Lokalisierungsalgorithmen, wie z.B. das „Matching“ von Landmarken zu 2D-Erkennungen, wiederverwendet werden (es kann jedoch optional durch die Verwendung der dreiecksbasierten Nebeninformationen wie oben beschrieben verbessert werden). Es gibt zwei Stellen, an denen ein gegebener 3D-Algorithmus modifiziert werden muss: Bei einer gegebenen Anfangspose für den 3D-Lokalisierungsalgorithmus muss eine geeignete nahegelegene Pose auf der Mannigfaltigkeit durch Projektion auf die Mannigfaltigkeit gefunden werden. Alternativ können auch Lokalisierungsalgorithmen entwickelt werden, die die Ausgangspose direkt auf der Mannigfaltigkeit berechnen. Die Aktualisierung der Fahrzeugpose, die normalerweise ein Optimierungsproblem löst, bei dem die Fahrzeugpose die Variablen ist, muss so modifiziert werden, dass sie die Struktur der Mannigfaltigkeit berücksichtigt. Insbesondere muss die Optimierung in der Lage sein, Übergänge von einem Dreieck zum anderen zu behandeln. Mit diesen Modifikationen kann jeder bestehende Landmarken-basierte 3D-Lokalisierungsalgorithmus mit geringem Aufwand so modifiziert werden, dass er auf einer Mannigfaltigkeit funktioniert.The localization algorithm: Each state on our fiber bundle preferably corresponds to a full 6D state in the surrounding 3D space. Therefore, most of the pipeline can be reused from well-known 3D localization algorithms, such as landmark “matching” to 2D detections (however, it can optionally be enhanced by using the triangle-based side information as described above). There are two places where a given 3D algorithm must be modified: Given an initial pose for the 3D localization algorithm, a suitable nearby pose on the manifold must be found by projection onto the manifold. Alternatively, localization algorithms can be developed that calculate the initial pose directly on the manifold. The vehicle pose update, which usually solves an optimization problem where the vehicle pose is the variable, must be modified to take into account the structure of the manifold. In particular, the optimization must be able to handle transitions from one triangle to another. With these modifications, any existing landmark-based 3D localization algorithm can be modified to work on a manifold with little effort.

Die Interaktion mit einem Antriebssteuergerät (Steuergerät 13): Während die Darstellung auf der Mannigfaltigkeit eine robustere Lokalisierung ermöglicht, hat sie auch zusätzliche Anwendungen für ein Antriebssteuergerät. Die lokale Struktur der Welt oder Umgebung (z.B. die Krümmung der Straße) ist verfügbar und man kann auch potenziell interne Zustände des Fahrzeugs wie Stoßdämpferzustände schätzen. Diese Informationen können an einen Antriebsregler für z.B. autonomes Fahren weitergegeben werden, so dass dieser sie für die Einstellung von Lenkwinkel und Beschleunigung nutzen kann.Interaction with a propulsion controller (controller 13): While the representation on the manifold allows for more robust localization, it also has additional applications for a propulsion controller. The local structure of the world or environment (e.g. the curvature of the road) is available and one can also potentially estimate internal states of the vehicle such as shock absorber states. This information can be passed on to a drive controller for autonomous driving, for example, so that it can be used to adjust the steering angle and acceleration.

Es ergibt sich eine Erweiterung der Landmarken-basierten 3D-Lokalisierungsalgorithmen, die den Zustandsraum auf ein Faserbündel über einer zweidimensionalen Mannigfaltigkeit einschränkt, die durch ein Dreiecksnetz oder allgemein ebene Flächenelemente dargestellt wird. Während dies flexibel genug für jede mögliche Trajektorie eines Fahrzeugs ist, bietet es die folgenden Vorteile gegenüber einem vollständigen 3D-Algorithmus. Es schränkt den Zustandsraum ein und zwingt daher die Lokalisierung, physikalisch sinnvolle Angaben zu Fahrzeugposen zu erzeugen. Dies macht den Algorithmus robuster. Durch die Verwendung der Konnektivitätsinformationen der Mannigfaltigkeit (Kantenübergänge) werden unmögliche Trajektorien, die z. B. durch Wände oder Decken gehen, ausgeschlossen. Dies erhöht die Stabilität des Algorithmus insbesondere in langen Dead-Reckoning-Phasen ohne sichtbare Landmarken. Die Netzstruktur (Mesh) kann verwendet werden, um zusätzliche Informationen mit jedem Dreieck zu speichern, wie z.B. eine Liste von potentiell sichtbaren Landmarken. Dies erhöht sowohl die Robustheit als auch die Geschwindigkeit des Matching-Prozesses.An extension of the landmark-based 3D localization algorithms results, which restricts the state space to a fiber bundle over a two-dimensional manifold defined by a triangular mesh or generally planar surfaces chen elements is shown. While this is flexible enough for any possible trajectory of a vehicle, it offers the following advantages over a full 3D algorithm. It constrains the state space and therefore forces the localizer to produce physically meaningful indications of vehicle poses. This makes the algorithm more robust. By using the connectivity information of the manifold (edge transitions), impossible trajectories e.g. B. go through walls or ceilings, excluded. This increases the stability of the algorithm, especially in long dead reckoning phases without visible landmarks. The mesh can be used to store additional information with each triangle, such as a list of potentially visible landmarks. This increases both the robustness and the speed of the matching process.

Die Geometrie der Mannigfaltigkeit ermöglicht eine bessere Nutzung von Sensormesswerten wie der Rad-Odometrie, die den geodätischen Abstand anstelle des 3D-Abstands misst, und kann auch als zusätzlicher Eingang für einen Antriebsregler dienen, der Lenkbewegungen in Abhängigkeit von der lokalen Krümmung durchführen kann.The geometry of the manifold allows better use of sensor readings such as wheel odometry, which measures geodetic distance instead of 3D distance, and can also serve as an additional input for a propulsion controller that can perform steering movements as a function of local curvature.

Insgesamt zeigen die Beispiele, wie eine Fahrzeuglokalisation mittels eines Zustandsraums für eine 2D-Manigfaltigkeit und weiteren Dimensionen für die Orientierungsangabe bereitgestellt werden kann.Overall, the examples show how a vehicle localization can be provided using a state space for a 2D manifold and further dimensions for the indication of orientation.

BezugszeichenlisteReference List

1010
Kraftfahrzeugmotor vehicle
1111
FahrtDrive
1212
Fahrflächedriving surface
1313
Steuergerätcontrol unit
1414
Fahrfunktiondriving function
1515
Fahraktuatorendriving actuators
1616
Trajektorietrajectory
1717
Kartendatencard data
1818
Posenangabepose statement
1919
Fahrzeugposevehicle pose
2020
Prozessorschaltungprocessor circuit
2121
Steuergerätscontrol unit
2222
Fahrzeugpositionvehicle position
2323
Orientierungorientation
2424
dreidimensionaler Raumthree-dimensional space
2525
Lokalisierungsalgorithmuslocalization algorithm
2626
Sensordatensensor data
2727
Sensorsensor
2828
Odometrieodometry
2929
Odometriedatenodometry data
3030
Kameracamera
3131
Umfelddatenenvironment data
3232
UmfeldEnvironment
3333
Erfassungsbereichdetection range
3434
Frontbereichfront area
3535
Mannigfaltigkeitmanifold
3636
Parkhausparking garage
3737
StockwerkeFloors
3838
Rampenramps
3939
Flächenelementesurface elements
4040
Kanteedge
4141
Krümmungcurvature
4242
PunktPoint
4343
PunktPoint
4444
Distanzdistance
4545
Streckenabschnittetrack sections
4646
Posenangabepose statement
4747
Fahrstreckedriving distance
4848
Heading-Angabenheading information
4949
Kamerabildcamera image
5050
Posenangabepose statement
5151
Flächenelementsurface element
5252
Beschaffenheitsdatentexture data
5353
Landmarkenlandmarks

Claims (14)

Verfahren zum Ermitteln einer aktuellen Fahrzeugpose (19) eines Kraftfahrzeugs (10), wobei durch eine Prozessorschaltung (20) die Fahrzeugpose (19) als eine Posenangabe (18) mit einer Fahrzeugposition (22) im dreidimensionalen Raum (24) und einer räumlichen Orientierung (23) des Kraftfahrzeugs (10) an der Fahrzeugposition (22) ermittelt wird, dadurch gekennzeichnet, dass durch Kartendaten eine sich im dreidimensionalen Raum (24) erstreckende, von dem Kraftfahrzeug (10) befahrbare Fahrfläche (12) der Umgebung als eine zweidimensionale Mannigfaltigkeit (35) aus jeweils paarweise über zumindest eine oder höchstens genau eine Kante (40) verbundenen polygonalen Flächenelementen (39) zusammengesetzt modelliert wird und ausgehend von einer vorangegangenen Posenangabe (18) der Fahrzeugpose (19) für ein inkrementelles Update der Fahrzeugpose (19) durch einen vorbestimmten Lokalisierungsalgorithmus (25) auf der Grundlage von Sensordaten (26) zumindest eines Sensors (27) des Kraftfahrzeugs (10) die jeweils aktuelle Posenangabe (18) ermittelt wird, indem die Fahrzeugposition (22) nur als Ort auf einem der Flächenelemente (39) und die räumliche Orientierung (23) an dem Ort auf dem Flächenelement (39) nur als ein Orientierungszustand in einem Zustandsraum mit vorbestimmter Dimensionalität zugelassen wird und hierzu in dem Lokalisierungsalgorithmus (25) ein Lösungsraum für die aktuelle Posenangabe (18) auf die zweidimensionale Mannigfaltigkeit (35) und die im Zustandsraum mögliche Orientierung (23) begrenzt gehalten wird und hierdurch die Sensordaten (26) durch den Lokalisierungsalgorithmus (25) auf den Zustandsraum abgebildet werden.Method for determining a current vehicle pose (19) of a motor vehicle (10), wherein the vehicle pose (19) as a pose indication (18) with a vehicle position (22) in three-dimensional space (24) and a spatial orientation ( 23) of the motor vehicle (10) at the vehicle position (22), characterized in that a driving surface (12) of the environment that extends in three-dimensional space (24) and can be driven on by the motor vehicle (10) is determined by map data as a two-dimensional multiplicity ( 35) composed of polygonal surface elements (39) connected in pairs via at least one or at most precisely one edge (40). is modeled and based on a previous pose specification (18) the vehicle pose (19) for an incremental update of the vehicle pose (19) by a predetermined localization algorithm (25) on the basis of sensor data (26) of at least one sensor (27) of the motor vehicle (10 ) the respective current pose information (18) is determined by the vehicle position (22) only as a location on one of the surface elements (39) and the spatial orientation (23) at the location on the surface element (39) only as an orientation state in a state space with a predetermined dimensionality is permitted and for this purpose in the localization algorithm (25) a solution space for the current pose indication (18) is kept limited to the two-dimensional multiplicity (35) and the possible orientation (23) in the state space and as a result the sensor data (26) is Localization algorithm (25) are mapped to the state space. Verfahren nach Anspruch 1, wobei beim Ermitteln des Orts auf einem der Flächenelemente (39) durch den Lokalisierungsalgorithmus (25) ein Übergang zwischen zwei Flächenelementen (39) nur über eine jeweilige gemeinsame Kante (40) der Flächenelemente (39) zugelassen wird.procedure after claim 1 , wherein when the location on one of the surface elements (39) is determined by the localization algorithm (25), a transition between two surface elements (39) is permitted only via a respective common edge (40) of the surface elements (39). Verfahren nach einem der vorhergehenden Ansprüche, wobei die befahrbare Fahrfläche (12) zumindest eine konvexe und/oder zumindest eine konkave Krümmung (41) aufweist und die Fahrfläche (12) modelliert ist, indem die Flächenelemente (39) als ebene Polygone definiert sind.Method according to one of the preceding claims, wherein the trafficable driving surface (12) has at least one convex and/or at least one concave curvature (41) and the driving surface (12) is modeled by defining the surface elements (39) as planar polygons. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Abstandsberechnung zwischen zwei vorgegebenen Punkten (42, 43) auf der zweidimensionalen Mannigfaltigkeit (35) berechnet wird als eine Streckenlänge einer Strecke, die ausschließlich innerhalb der Flächenelemente (39) angeordnet ist.Method according to one of the preceding claims, in which a distance calculation between two predetermined points (42, 43) on the two-dimensional manifold (35) is calculated as a line length of a line located exclusively within the surface elements (39). Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Ermitteln der Posenangabe (18) in einem überdachten Gebäude bei fehlendem Positionssignal eines Globalen Navigations-Satellitensystems, GNSS, zumindest ein Teil der Sensordaten (26) Odometriedaten (29) sind.Method according to one of the preceding claims, wherein for determining the pose indication (18) in a roofed building in the absence of a position signal from a Global Navigation Satellite System, GNSS, at least part of the sensor data (26) is odometry data (29). Verfahren nach einem der vorhergehenden Ansprüche, wobei zu dem jeweiligen Flächenelement (39) Beschaffenheitsdaten (52) einer Beschaffenheit der Umgebung in dem Flächenelement (39) bereitgestellt werden.Method according to one of the preceding claims, wherein texture data (52) of a texture of the environment in the surface element (39) are provided for the respective surface element (39). Verfahren nach Anspruch 6, wobei durch die Beschaffenheitsdaten (52) angegeben ist, welche Landmarken (53) von dem jeweiligen Flächenelement (39) aus potentiell detektierbar sind und im Lokalisierungsalgorithmus (25) eine Objektdetektion und/oder eine Objektklassifikation und/oder ein Matching-Algorithmus auf die jeweils potentiell detektierbaren Landmarken (53) beschränkt wird.procedure after claim 6 , wherein the texture data (52) indicates which landmarks (53) can potentially be detected from the respective surface element (39) and in the localization algorithm (25) an object detection and/or an object classification and/or a matching algorithm is applied to the respective potentially detectable landmarks (53) is limited. Verfahren nach Anspruch 7, wobei durch den Lokalisierungsalgorithmus aus dem zumindest einen Sensor (27) sowohl Odometriedaten (29) einer ab oder seit der vorangegangenen Posenangabe (18) zurückgelegten Fahrstrecke (47) und gefahrenen Fahrtrichtung als auch Umfelddaten (31) von an der aktuellen Fahrzeugposition (22) sensierten Umgebungsobjekten empfangen werden und zunächst anhand der Fahrstrecke (47) und Fahrtrichtung eine intermediäre aktuelle Positionsangabe und davon ausgehend durch einen Abgleich der Umfelddaten (31) mit den detektierbaren Landmarken (53) die aktuelle Posenangabe (18) ermittelt wird.procedure after claim 7 , whereby the localization algorithm from the at least one sensor (27) generates both odometry data (29) of a route (47) and direction of travel traveled since or since the previous pose indication (18) and environmental data (31) from the current vehicle position (22) sensed objects in the surroundings are received and initially based on the route (47) and direction of travel an intermediate current position information and based on this by a comparison of the environment data (31) with the detectable landmarks (53) the current pose information (18) is determined. Verfahren nach einem der Ansprüche 6 bis 8, wobei durch die Beschaffenheitsdaten (52) eine Bodenbeschaffenheit der Fahrfläche (12) angeben und die Bodenbeschaffenheit an eine Fahrerassistenzfunktion des Kraftfahrzeugs (10) signalisiert wird.Procedure according to one of Claims 6 until 8th , wherein the condition data (52) indicate a ground condition of the driving surface (12) and the ground condition is signaled to a driver assistance function of the motor vehicle (10). Verfahren nach einem der vorhergehenden Ansprüche, wobei eine interne Posenangabe den Ort auf dem Flächenelement (39) als eine ID des Flächenelements (39) und Koordinaten (U, V) in einem Koordinatensystem des Flächenelements (39) angibt und für ein die aktuelle Positionsangabe (18) empfangendes Steuergerät (13, 21) der Ort gemäß der internen Posenangabe in absolute Koordinaten des dreidimensionalen Raums (24) umgerechnet wird und durch das Steuergerät (13, 21) mittels einer automatisierten und/oder assistierten Fahrfunktion (14) eine Fahrtrajektorie für eine automatisierte Fahrt (11) auf der Fahrfläche (12) geplant und mittels einer Ansteuerung von Fahraktuatoren (15) das Kraftfahrzeug (10) auf der Fahrfläche (12) geführt wird.Method according to one of the preceding claims, wherein an internal pose specification specifies the location on the surface element (39) as an ID of the surface element (39) and coordinates (U, V) in a coordinate system of the surface element (39) and for a the current position specification ( 18) receiving control unit (13, 21) the location is converted into absolute coordinates of the three-dimensional space (24) according to the internal pose specification and a driving trajectory for a automated driving (11) on the driving surface (12) is planned and the motor vehicle (10) is guided on the driving surface (12) by means of driving actuators (15). Verfahren nach einem der vorhergehenden Ansprüche, wobei der Zustandsraum zusätzlich zur 2D-Position auf der Mannigfaltigkeit (35) eine Faser bereitstellt, wobei die Faser: • eine Dimension für eine Gierwinkelangabe oder • zwei Dimensionen für eine Gierwinkelangabe sowie eine zusätzliche Wankwinkelangabe oder Nickwinkelangabe oder • drei Dimensionen für drei Raumwinkelangaben aufweist.A method according to any one of the preceding claims, wherein the state space provides a fiber in addition to the 2D position on the manifold (35), the fiber: • a dimension for a yaw angle specification or • two dimensions for a yaw angle specification and an additional roll angle specification or pitch angle specification or • has three dimensions for three solid angle specifications. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Zustandsraum eine Zustandsangabe eines Fahrwerks des Kraftfahrzeugs (10) umfasst, der durch zumindest einen Fahrwerkssensor signalisiert wird.Method according to one of the preceding claims, wherein the state space is an indication of the state of a chassis of the motor vehicle (10) includes, which is signaled by at least one chassis sensor. Prozessorschaltung (20) für ein Kraftfahrzeug (10), wobei die Prozessorschaltung (20) dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Processor circuit (20) for a motor vehicle (10), the processor circuit (20) being set up to carry out a method according to one of the preceding claims. Kraftfahrzeug (10) mit zumindest einem Sensor (27) und mit einer Prozessorschaltung (20) nach Anspruch 13, die mit dem zumindest einen Sensor (27) gekoppelt ist.Motor vehicle (10) with at least one sensor (27) and with a processor circuit (20). Claim 13 , which is coupled to the at least one sensor (27).
DE102021124397.1A 2021-09-21 2021-09-21 Method and processor circuit for determining a current vehicle pose of a motor vehicle in space and motor vehicle with the processor circuit Active DE102021124397B4 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021124397.1A DE102021124397B4 (en) 2021-09-21 2021-09-21 Method and processor circuit for determining a current vehicle pose of a motor vehicle in space and motor vehicle with the processor circuit
PCT/EP2022/076199 WO2023046737A2 (en) 2021-09-21 2022-09-21 Method and processor circuit for determining a current vehicle pose of a motor vehicle in space, and motor vehicle comprising the processor circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021124397.1A DE102021124397B4 (en) 2021-09-21 2021-09-21 Method and processor circuit for determining a current vehicle pose of a motor vehicle in space and motor vehicle with the processor circuit

Publications (2)

Publication Number Publication Date
DE102021124397A1 DE102021124397A1 (en) 2023-03-23
DE102021124397B4 true DE102021124397B4 (en) 2023-08-31

Family

ID=83689951

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021124397.1A Active DE102021124397B4 (en) 2021-09-21 2021-09-21 Method and processor circuit for determining a current vehicle pose of a motor vehicle in space and motor vehicle with the processor circuit

Country Status (2)

Country Link
DE (1) DE102021124397B4 (en)
WO (1) WO2023046737A2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8531456B2 (en) 2005-04-18 2013-09-10 Technion Research And Development Foundation Ltd. Automatic remeshing by mapping a 2D grid on 3D genus-G meshes based on topological analysis
WO2020248209A1 (en) 2019-06-14 2020-12-17 Bayerische Motoren Werke Aktiengesellschaft 3d odometry in 6d space with roadmodel 2d manifold

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0766846B1 (en) * 1994-06-22 1998-03-04 Siemens Aktiengesellschaft Process for the orientation, route planning and control of a self-contained mobile unit
JP3419648B2 (en) * 1997-05-27 2003-06-23 株式会社日立製作所 Navigation device
DE102015000399B4 (en) * 2015-01-13 2019-08-29 Audi Ag Mapping of lanes using vehicle fleet data
US10281279B2 (en) * 2016-10-24 2019-05-07 Invensense, Inc. Method and system for global shape matching a trajectory

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8531456B2 (en) 2005-04-18 2013-09-10 Technion Research And Development Foundation Ltd. Automatic remeshing by mapping a 2D grid on 3D genus-G meshes based on topological analysis
WO2020248209A1 (en) 2019-06-14 2020-12-17 Bayerische Motoren Werke Aktiengesellschaft 3d odometry in 6d space with roadmodel 2d manifold

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
THOMPSON, Simon; KAGAMI, Satoshi; OKAJIMA, Masafumi. Constrained 6dof localisation for autonomous vehicles. In: 2010 IEEE International Conference on Systems, Man and Cybernetics. IEEE, 2010. S. 330-335

Also Published As

Publication number Publication date
WO2023046737A3 (en) 2023-06-01
DE102021124397A1 (en) 2023-03-23
WO2023046737A2 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
DE112018002143T5 (en) SYSTEMS AND METHODS FOR COMPRESSING TRAFFIC DATA
DE112020002175T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
DE112020003897T5 (en) SYSTEMS AND METHODS FOR MONITORING LANE CONGESTION
DE112020000821T5 (en) VEHICLE NAVIGATION SYSTEMS AND PROCEDURES
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE112020006426T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
JP2019064562A (en) Map information providing system for driving support and/or travel control of vehicle
DE102019103352A1 (en) TRAJECTOR PUBLIC TRACKING FOR VEHICLE PAGE CONTROL USING A NEURONAL NETWORK
DE112020004931T5 (en) SYSTEMS AND METHODS FOR DETERMINING ROAD SAFETY
DE112020002764T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
EP3616181A1 (en) Method for automatically producing and updating a dataset for an autonomous vehicle
DE102016208282A1 (en) VEHICLE CONTROL DEVICE
DE112020002869T5 (en) NAVIGATION SYSTEMS AND METHODS OF DETERMINING OBJECT DIMENSIONS
DE112020001106T5 (en) Aligning road information for navigation
DE102016201667B4 (en) Method for determining a desired trajectory for a first road user, in particular for a motor vehicle, for a route section
DE102015205133A1 (en) Method and device for determining a movement planning for an at least partially automated driving of a vehicle
DE102020113848A1 (en) ECCENTRICITY FUSION
DE102019115240A1 (en) SYSTEMS AND METHODS FOR THE APPLICATION OF MAPS TO IMPROVE OBJECT TRACKING, ROAD ASSIGNMENT AND CLASSIFICATION
DE112021002680T5 (en) SYSTEMS AND METHODS FOR DETECTING AN OPEN DOOR
WO2018141440A1 (en) Method and device for updating a digital map
DE112020002592T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION BASED ON IMAGE ANALYSIS
DE112021003811T5 (en) SYSTEMS AND METHODS FOR DYNAMIC ROAD GEOMETRY MODELING AND NAVIGATION
DE112021004128T5 (en) SYSTEMS AND METHODS FOR MAP-BASED MODELING OF THE REAL WORLD
DE102019110528A1 (en) TECHNIQUE FOR POSITION DETERMINATION
DE112020005275T5 (en) SYSTEMS AND METHODS FOR SELECTIVE DECELERATION OF A VEHICLE

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division