DE102018005240A1 - Method for self-localization of a vehicle - Google Patents

Method for self-localization of a vehicle Download PDF

Info

Publication number
DE102018005240A1
DE102018005240A1 DE102018005240.1A DE102018005240A DE102018005240A1 DE 102018005240 A1 DE102018005240 A1 DE 102018005240A1 DE 102018005240 A DE102018005240 A DE 102018005240A DE 102018005240 A1 DE102018005240 A1 DE 102018005240A1
Authority
DE
Germany
Prior art keywords
environment
feature
value
map
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018005240.1A
Other languages
German (de)
Inventor
Klaudius Werber
Juergen Dickmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102018005240.1A priority Critical patent/DE102018005240A1/en
Publication of DE102018005240A1 publication Critical patent/DE102018005240A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Die Erfindung betrifft ein Verfahren zur Selbstlokalisierung eines Fahrzeugs, wobei
- Umgebungsdaten einer Umgebung des Fahrzeugs erfasst werden,
- die Umgebungsdaten mit einer digitalen Umgebungskarte abgeglichen werden,
- die Selbstlokalisierung des Fahrzeugs in der Umgebung anhand einer stochastischen Auswertung des Abgleichs der Umgebungsdaten mit der digitalen Umgebungskarte erfolgt,
- die Umgebungskarte als mindestens ein Grauwertbild (1) der Umgebung mit einer variablen Anzahl von Pixeln erstellt wird,
- das Grauwertbild (1) anhand einer zur Verfügung gestellten digitalen merkmalsbasierten Karte (2) der Umgebung ermittelt wird, in welcher Merkmale (3) der Umgebung eingetragen sind, und
- jeweils einem Pixel des Grauwertbilds (1) ein Wert als Distanzinformation zu einem bestimmten Merkmal (3) in der Umgebung zugeordnet wird.
Erfindungsgemäß werden die zugeordneten Werte der Pixel anhand der Funktion y = e x p ( x 2 σ 2 )

Figure DE102018005240A1_0001
derart transformiert, dass jeweils ein Pixel, welches einen Umgebungsbereich mit einem Merkmal (3) repräsentiert, mit einem vorgegebenen Wert initialisiert wird und die Pixel, die einen Umgebungsbereich repräsentieren, welcher zu dem Merkmal (3) beabstandet ist, mit jeweils einem Wert initialisiert werden, welcher kleiner als der vorgegebene Wert ist, wobei diese Werte gemäß der Funktion y = e x p ( x 2 σ 2 )
Figure DE102018005240A1_0002
vom vorgegebenen Wert abfallen.
Figure DE102018005240A1_0000
The invention relates to a method for self-localization of a vehicle, wherein
Environmental data of an environment of the vehicle are recorded,
- the environmental data are compared with a digital environmental map,
the self-localization of the vehicle in the environment takes place on the basis of a stochastic evaluation of the comparison of the environment data with the digital environment map,
the environment map is created as at least one gray value image (1) of the environment with a variable number of pixels,
- The gray-scale image (1) is determined on the basis of a digital feature-based map (2) of the environment made available, in which features (3) of the environment are entered, and
- A pixel of the gray scale image (1) is assigned a value as distance information to a certain feature (3) in the environment.
According to the invention, the assigned values of the pixels are based on the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0001
transformed such that in each case a pixel which represents a surrounding area with a feature (3) is initialized with a predetermined value and the pixels which represent a surrounding area which is spaced apart from the feature (3) are each initialized with a value , which is smaller than the specified value, these values according to the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0002
fall from the specified value.
Figure DE102018005240A1_0000

Description

Die Erfindung betrifft ein Verfahren zur Selbstlokalisierung eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for self-localization of a vehicle according to the preamble of claim 1.

In der DE 10 2016 011 378 A1 der Anmelderin, deren vollständiger Inhalt hiermit durch Referenz aufgenommen wird, wird ein Verfahren zur Selbstlokalisierung eines Fahrzeugs beschrieben. In diesem Verfahren werden Umgebungsdaten einer Umgebung des Fahrzeugs erfasst und mit einer digitalen Umgebungskarte abgeglichen. Die Selbstlokalisierung des Fahrzeugs in der Umgebung erfolgt anhand einer stochastischen Auswertung des Abgleichs der Umgebungsdaten mit der digitalen Umgebungskarte. Die Umgebungskarte wird als mindestens ein Grauwertbild der Umgebung mit einer variablen Anzahl von Pixeln erstellt. Das Grauwertbild wird anhand einer zur Verfügung gestellten digitalen Karte der Umgebung ermittelt, in welcher Merkmale der Umgebung eingetragen sind. Jeweils einem Pixel des Grauwertbilds wird ein Wert als Distanzinformation zu einem bestimmten Merkmal in der Umgebung zugeordnet. Die zugeordneten Werte der Pixel werden anhand einer Gauß-Funktion derart transformiert, dass jeweils ein Pixel, welches einen Umgebungsbereich mit einem Merkmal repräsentiert, mit einem vorgegebenen Wert initialisiert wird und die Pixel, die einen Umgebungsbereich repräsentieren, welcher zu dem Merkmal beabstandet ist, mit jeweils einem Wert initialisiert werden, welcher kleiner als der vorgegebene Wert ist, wobei diese Werte gemäß der Gauß-Funktion vom vorgegebenen Wert abfallen.In the DE 10 2016 011 378 A1 the applicant, the entire content of which is hereby incorporated by reference, describes a method for the self-localization of a vehicle. In this method, environmental data of an environment of the vehicle are recorded and compared with a digital environment map. The self-localization of the vehicle in the environment takes place on the basis of a stochastic evaluation of the comparison of the environment data with the digital environment map. The environment map is created as at least one gray-scale image of the environment with a variable number of pixels. The gray-scale image is determined on the basis of a digital map of the surroundings, in which features of the surroundings are entered. A value is assigned to each pixel of the gray-scale image as distance information to a certain feature in the environment. The assigned values of the pixels are transformed using a Gaussian function such that in each case a pixel which represents a surrounding area with a feature is initialized with a predetermined value and the pixels which represent a surrounding area which is spaced apart from the feature In each case a value is initialized which is smaller than the specified value, these values falling from the specified value according to the Gaussian function.

Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Selbstlokalisierung eines Fahrzeugs anzugeben.The invention is based on the object of specifying a method for self-localization of a vehicle which is improved compared to the prior art.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Selbstlokalisierung eines Fahrzeugs mit den Merkmalen des Anspruchs 1.The object is achieved according to the invention by a method for the self-localization of a vehicle with the features of claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.

Bei einem Verfahren zur Selbstlokalisierung eines Fahrzeugs werden Umgebungsdaten einer Umgebung des Fahrzeugs erfasst, wobei die Umgebungsdaten mit einer digitalen Umgebungskarte abgeglichen werden und wobei die Selbstlokalisierung des Fahrzeugs in der Umgebung anhand einer stochastischen Auswertung des Abgleichs der Umgebungsdaten mit der digitalen Umgebungskarte erfolgt. Es ist vorgesehen, dass die Umgebungskarte als mindestens ein Grauwertbild der Umgebung mit einer variablen Anzahl von Pixeln, insbesondere mit einer vorgegebenen Pixelgröße, erstellt wird, wobei das Grauwertbild anhand einer zur Verfügung gestellten digitalen merkmalsbasierten Karte der Umgebung ermittelt wird, in welcher Merkmale der Umgebung eingetragen sind, wobei jeweils einem Pixel des Grauwertbilds als Wert eine Distanzinformation zu einem bestimmten Merkmal in der Umgebung zugeordnet wird.In a method for the self-localization of a vehicle, environmental data of an environment of the vehicle are recorded, the environmental data being compared with a digital environment map and the self-localization of the vehicle in the environment being carried out on the basis of a stochastic evaluation of the comparison of the environmental data with the digital environment map. It is provided that the environment map is created as at least one gray value image of the environment with a variable number of pixels, in particular with a predetermined pixel size, the gray value image being determined on the basis of a digital feature-based map of the environment in which features of the environment are entered, with a pixel of the gray scale image being assigned value information as a value to a certain feature in the environment.

Erfindungsgemäß werden die zugeordneten Werte der Pixel anhand der Funktion y = e x p ( x 2 σ 2 )

Figure DE102018005240A1_0003
derart transformiert, dass jeweils ein Pixel, welches einen Umgebungsbereich mit einem Merkmal repräsentiert, mit einem vorgegebenen Wert initialisiert wird und die Pixel, die einen Umgebungsbereich repräsentieren, welcher zu dem Merkmal beabstandet ist, mit jeweils einem Wert initialisiert werden, welcher kleiner als der vorgegebene Wert ist, wobei diese Werte gemäß der Funktion y = e x p ( x 2 σ 2 )
Figure DE102018005240A1_0004
vom vorgegebenen Wert abfallen.According to the invention, the assigned values of the pixels are based on the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0003
transformed such that in each case a pixel which represents a surrounding area with a feature is initialized with a predetermined value and the pixels which represent a surrounding area which is spaced apart from the feature are each initialized with a value which is smaller than the given one Is value, these values according to the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0004
fall from the specified value.

Aus dem Stand der Technik ist es bereits bekannt, dass die Werte der Pixel insbesondere anhand einer Gauß-Funktion, insbesondere anhand der allgemein bekannten Gaußschen Fehlerfunktion, insbesondere anhand der Funktion y=exp(-x2) (auch geschrieben als y=exp(-x^2) oder y = e-x 2 ), derart transformiert werden, dass jeweils ein Pixel, welches einen Umgebungsbereich mit einem Merkmal repräsentiert, mit einem vorgegebenen Wert initialisiert wird und die Pixel, die einen Umgebungsbereich repräsentieren, welcher zu dem Merkmal beabstandet ist, mit jeweils einem Wert initialisiert werden, welcher kleiner als der vorgegebene Wert ist, wobei diese Werte gemäß der Gauß-Funktion vom vorgegebenen Wert abfallen.It is already known from the prior art that the values of the pixels, in particular on the basis of a Gaussian function, in particular on the basis of the generally known Gaussian error function, in particular on the basis of the function y = exp (-x 2 ) (also written as y = exp ( -x ^ 2) or y = e -x 2 ) are transformed in such a way that in each case a pixel which represents a surrounding area with a feature is initialized with a predetermined value and the pixels which represent a surrounding area which is spaced apart from the feature are each initialized with a value which is smaller than the predetermined value, these values falling from the predetermined value according to the Gaussian function.

Bei der erfindungsgemäßen Lösung wird somit in die Funktion y=exp(-x2) der zusätzliche Parameter σ eingeführt.In the solution according to the invention, the additional parameter σ is thus introduced into the function y = exp (-x 2 ).

Mittels des Verfahrens ist eine digitale Umgebungskarte erstellbar, die eine gesamte, aus der Umgebung erfasste Referenzinformation enthält, so dass eine Fehleranfälligkeit beim Abgleich der erfassten Daten mit der Umgebungskarte sehr gering ist. Gegenüber konventionellen als Grauwertbild gespeicherten Umgebungskarten ist zudem ein Speicherbedarf zur Durchführung des Verfahrens verringert, da das Grauwertbild anhand der merkmalsbasierten Karte erstellt wird. D. h., es wird ein merkmalsbasiertes Grauwertbild erstellt, bei dem die Merkmale beispielsweise als punkt- und/oder linienförmige Strukturen dargestellt sind. Damit eignet sich das Verfahren auch für große Umgebungen, insbesondere zur Anwendung in einem öffentlichen Verkehrsbereich.By means of the method, a digital map of the surroundings can be created, which contains all reference information acquired from the environment, so that the likelihood of errors when comparing the recorded data with the map of the surroundings is very low. Compared to conventional environmental maps stored as a gray-scale image, a memory requirement for carrying out the method is also reduced, since the gray-level image is created on the basis of the feature-based map. In other words, a feature-based gray-scale image is created, in which the features are represented, for example, as point and / or line structures. The method is therefore also suitable for large environments, in particular for use in a public traffic area.

Des Weiteren erfordert das Verfahren gegenüber konventionellen Verfahren, bei denen aus den Umgebungsdaten ermittelte Merkmale mit Merkmalen aus einer digitalen, merkmalsbasierten Karte assoziiert werden, auch einen verringerten Speicherbedarf. Dies resultiert daraus, dass zur Selbstlokalisierung keine zusätzlichen beschreibenden Eigenschaften einzelner Merkmale erforderlich sind.Furthermore, the process requires compared to conventional processes in which the Features determined in the environment are associated with features from a digital, feature-based map, also a reduced memory requirement. This results from the fact that no additional descriptive properties of individual features are required for self-localization.

Durch die erfindungsgemäße Einführung des zusätzlichen Parameters σ in die Funktion y=exp(-x2), so dass an Stelle der Funktion y=exp(-x2) bei der erfindungsgemäßen Lösung die Funktion y = e x p ( x 2 σ 2 )

Figure DE102018005240A1_0005
verwendet wird, wird die Lokalisierung beschleunigt oder präzisiert, da mit diesem zusätzlichen Parameter σ eine Breite, mit der Features, d. h. Merkmale, aus der merkmalsbasierten Karte in das Feature Grid, d. h. in das Grauwertbild, eingetragen werden, beeinflusst wird.By introducing the additional parameter σ into the function y = exp (-x 2 ) according to the invention, so that instead of the function y = exp (-x 2 ) the function in the solution according to the invention y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0005
is used, the localization is accelerated or specified, because with this additional parameter σ a width with which features, ie features, are entered from the feature-based map into the feature grid, ie into the gray scale image, is influenced.

Dieser Parameter σ hat folgende Einflüsse:This parameter σ has the following influences:

Für besonders kleine Beträge von σ werden die Features, d. h. die Merkmale, sehr dünn im Feature Grid, d. h. im Grauwertbild, eingetragen. D. h. eine gegebene Struktur der Umgebung wird sehr scharf im Feature Grid, d. h. im Grauwertbild, wiedergegeben. Dadurch steigt eine erreichbare Genauigkeit der Selbstlokalisierung (zum Beispiel mit einem Partikelfilter), die ein solches schmales Feature Grid, d. h. Grauwertbild, verwendet.For particularly small amounts of σ, the features, i.e. H. the features, very thin in the feature grid, d. H. in the gray scale image. I.e. a given structure of the environment becomes very sharp in the feature grid; H. in the gray scale image. This increases the achievable accuracy of self-localization (for example with a particle filter), which is such a narrow feature grid, i. H. Grayscale image, used.

Für besonders große Beträge von σ werden die Features, d. h. die Merkmale, sehr breit im Feature Grid, d. h. im Grauwertbild, eingetragen. D. h. die auch als Features bezeichneten Merkmale haben größeren Einfluss über einen weiten Bereich im Feature Grid, d. h. im Grauwertbild. Dadurch wird eine Selbstlokalisierungsberechnung (zum Beispiel mit einem Partikelfilter) im Allgemeinen schnell in die richtige Richtung gezogen. D. h. sowohl eine Konvergenzzeit als auch die Gefahr, sich in einem falschen lokalen Optimum zu verfangen, ist für gewöhnlich geringer bei einer Lokalisierung mit einem solchen breiten Feature Grid, d. h. Grauwertbild.
Der Parameter σ der Feature Grid-Berechnung, d. h. der Berechnung des Grauwertbildes, wird somit vorteilhafterweise adaptiv entsprechend einer jeweils momentanen geschätzten Unsicherheit der Selbstlokalisierung bestimmt. Dadurch kann bei einem ungenauen Zustand der Selbstlokalisierung ein breites Feature Grid, d. h. ein Grauwertbild mit breit dargestellten Merkmalen, berechnet werden, so dass die Lokalisierung schnell zu einer genaueren Schätzung konvergieren kann, und bei genaueren Zuständen kann ein schmales Feature Grid berechnet werden, d. h. ein Grauwertbild mit schmal dargestellten Merkmalen, um eine sehr hohe erreichbare Genauigkeit zu ermöglichen. Der Zusammenhang zwischen der geschätzten Lokalisierungsunsicherheit und dem Parameterwert für σ kann dabei sowohl kontinuierlich als auch diskret gewählt werden.
For particularly large amounts of σ, the features, ie the features, are entered very broadly in the feature grid, ie in the gray value image. I.e. The features, which are also referred to as features, have greater influence over a wide area in the feature grid, ie in the gray-scale image. As a result, a self-localization calculation (for example with a particle filter) is generally quickly drawn in the right direction. I.e. Both a convergence time and the risk of getting caught in a wrong local optimum are usually less when localized with such a wide feature grid, ie gray-scale image.
The parameter σ of the feature grid calculation, ie the calculation of the gray value image, is thus advantageously determined adaptively in accordance with a currently estimated uncertainty of the self-localization. As a result, a wide feature grid, i.e. a gray-scale image with features that are shown broadly, can be calculated in the case of an inaccurate state of self-localization, so that the localization can quickly converge to a more accurate estimate, and a narrow feature grid, ie a, can be calculated in more precise conditions Grayscale image with narrowly depicted features to enable a very high achievable accuracy. The relationship between the estimated localization uncertainty and the parameter value for σ can be chosen both continuously and discretely.

Das Verfahren dient insbesondere einer umgebungsbasierten Selbstlokalisierung in bekannten Umgebungen, beispielsweise für eine Anwendung beim autonomen Fahren.The method is used in particular for environment-based self-localization in known environments, for example for use in autonomous driving.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 schematisch eine merkmalsbasierte Karte,
  • 2 schematisch ein Grauwertbild mit grob dargestellten Merkmalen,
  • 3 schematisch ein Grauwertbild mit mittelgrob dargestellten Merkmalen, und
  • 4 schematisch ein Grauwertbild mit fein dargestellten Merkmalen.
Show:
  • 1 schematically a feature-based map,
  • 2 schematically a gray value image with roughly represented features,
  • 3 schematically a gray-scale image with medium-sized features, and
  • 4 schematically a gray scale image with finely represented features.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.

Anhand der 1 bis 4 wird im Folgenden ein Verfahren zur Selbstlokalisierung eines nicht dargestellten, insbesondere autonom betriebenen, Fahrzeugs beschrieben. Dieses hier beschriebene Verfahren ist eine Weiterbildung eines Verfahrens zur Selbstlokalisierung eines Fahrzeugs, welches in der DE 10 2016 011 378 A1 der Anmelderin, deren vollständiger Inhalt hiermit durch Referenz aufgenommen wird, beschrieben ist.
In diesem in der DE 10 2016 011 378 A1 beschriebenen Verfahren wird in einem ersten Schritt ein Grauwertbild 1 einer Umgebung des Fahrzeugs anhand einer zur Verfügung gestellten, merkmalsbasierten Karte 2 erstellt, in welcher Merkmale 3 der Umgebung eingetragen sind.
Based on 1 to 4 A method for the self-localization of a vehicle, not shown, in particular operated autonomously, is described below. This method described here is a further development of a method for self-localization of a vehicle, which in the DE 10 2016 011 378 A1 the applicant, the entire content of which is hereby incorporated by reference.
In this in the DE 10 2016 011 378 A1 In a first step, the described method becomes a gray-scale image 1 an environment of the vehicle using a feature-based map provided 2 created in what characteristics 3 in the area.

Die merkmalsbasierte Karte 2 kann entweder während einer Lernfahrt des Fahrzeugs erstellt oder von einer Datenbank oder einer anderen Quelle bezogen werden. Für einen schnellen Zugriff kann die merkmalsbasierte Karte 2 beispielsweise mittels sogenannter QuadTree-Strukturen oder mittels anderer geeigneter Sortierungsverfahren erstellt werden. Die merkmalsbasierte Karte 2 stellt dabei ein Bild der Umgebung in Vogelperspektive dar, wobei die Merkmale 3 der Umgebung beispielsweise mittels punkt- und/oder linienförmigen Strukturen dargestellt sind. Die Merkmale 3 sind somit zweidimensional abgebildet und durch ihre Position und Orientierung beschrieben. Zusätzlich können weitere Eigenschaften der Merkmale 3 in der merkmalsbasierten Karte 2 hinterlegt werden. Alternativ können die Merkmale 3 mittels beliebiger anderer geometrischer Strukturen dargestellt werden.The feature-based map 2 can either be created during a learning trip of the vehicle or can be obtained from a database or another source. The feature-based card can be used for quick access 2 for example using so-called QuadTree structures or using other suitable sorting methods. The feature-based map 2 represents a bird's eye view of the surroundings, with the characteristics 3 the surroundings are represented, for example, by means of punctiform and / or linear structures. The characteristics 3 are thus represented in two dimensions and described by their position and orientation. In addition, other properties of the characteristics 3 in the feature-based map 2 be deposited. Alternatively, the characteristics 3 can be represented by any other geometric structures.

Dadurch, dass nur einzelne, hervorstechende Merkmale 3 aus der Umgebung in der merkmalsbasierten Karte 2 enthalten sind, benötigt diese nur sehr wenig Speicherbedarf. Die merkmalsbasierte Karte 2 kann beispielsweise auf einem Datenträger im Fahrzeug hinterlegt werden. Denkbar ist auch, die merkmalsbasierte Karte 2 in einer externen Datenverarbeitungseinheit außerhalb des Fahrzeugs zu hinterlegen und bei Bedarf benötigte Daten über eine drahtlose Verbindung zu empfangen.Because only individual, salient features 3 from the environment in the feature-based map 2 are included, this requires very little memory. The feature-based map 2 can, for example, be stored on a data carrier in the vehicle. The feature-based map is also conceivable 2 to be stored in an external data processing unit outside the vehicle and to receive the required data via a wireless connection if required.

Das Grauwertbild 1 wird während der Fahrt des Fahrzeugs anhand der merkmalsbasierten Karte 2 erstellt, wobei ein ausreichend großes Grauwertbild 1 eines Bereichs der Umgebung erstellt wird. Der Bereich, welcher in dem Grauwertbild 1 dargestellt sein soll, wird anhand einer eine Fahrzeugposition repräsentierenden a-priori-Verteilungsfunktion, anhand eines Schätzwerts für eine Unsicherheit der a-priori-Verteilungsfunktion und anhand einer Sichtweite eines momentanen Erfassungsbereichs der Umgebung bestimmt. Die a-priori-Verteilungsfunktion sowie deren Unsicherheit basieren auf dem allgemein bekannten Satz von Bayes, so dass hier nicht näher darauf eingegangen wird.The grayscale image 1 is shown while the vehicle is traveling using the feature-based map 2 created, with a sufficiently large gray scale image 1 an area of the environment is created. The area that is in the grayscale image 1 is to be shown, is determined on the basis of an a priori distribution function representing a vehicle position, on the basis of an estimated value for an uncertainty of the a priori distribution function and on the basis of a range of vision of a current detection area of the surroundings. The a priori distribution function and its uncertainty are based on Bayes' well-known theorem, so it is not dealt with in more detail here.

Das Ergebnis des ersten Schrittes ist somit ein zweidimensionales Grauwertbild 1 mit einer variablen Anzahl von Pixeln sowie einer vorgegebenen Pixelgröße, wobei jedes Pixel einen Abschnitt der zu repräsentierenden Umgebung darstellt. Die in der merkmalsbasierten Karte 2 enthaltenen Merkmale 3 werden dabei in das Grauwertbild 1 eingetragen, so dass ein merkmalsbasiertes Grauwertbild 1 mit einem gegenüber konventionellen Grauwertbildern verringerten Speicherbedarf erstellt wird.The result of the first step is therefore a two-dimensional gray-scale image 1 with a variable number of pixels and a predetermined pixel size, each pixel representing a section of the environment to be represented. The one in the feature-based map 2 included features 3 are in the grayscale image 1 entered so that a feature-based gray value image 1 with a reduced memory requirement compared to conventional gray value images.

In einem zweiten Schritt erfolgt mittels der in das Grauwertbild 1 akkumulierten Merkmale 3 eine Distanztransformation mit einem geeigneten Distanzmaß, z. B. mit der euklidischen Distanz.In a second step, the grayscale image is used 1 accumulated characteristics 3 a distance transformation with a suitable distance measure, e.g. B. with the Euclidean distance.

Bei der Distanztransformation werden alle Pixel des Grauwertbildes 1 mit einem bestimmten Wert initialisiert. Pixel, die mit dem Wert „0“ initialisiert werden, repräsentieren einen Umgebungsbereich, in dem sich ein bestimmtes Merkmal 3 befindet und somit eine Distanz zu diesem Merkmal 3 gleich Null ist. Pixel, die einen Umgebungsbereich repräsentieren, in dem sich kein Merkmal 3 befindet und somit eine Distanz zu einem bestimmten Merkmal 3 größer als Null ist, werden mit einem Wert „>0“ initialisiert. Die Werte der Pixel stellen dabei eine gute Näherung zum gewählten Distanzmaß dar.In the distance transformation, all pixels of the gray scale image are 1 initialized with a certain value. Pixels that are initialized with the value "0" represent an area in which there is a certain characteristic 3 located and thus a distance to this characteristic 3 is zero. Pixels that represent a surrounding area in which there is no feature 3 and thus a distance to a certain characteristic 3 is greater than zero, are initialized with a value ">0". The values of the pixels represent a good approximation to the selected distance measure.

In einem dritten Schritt erfolgt eine weitere Transformation der Werte der Pixel, wobei die Werte beispielsweise anhand der Funktion y = exp ( x 2 )

Figure DE102018005240A1_0006
(auch geschrieben als y = exp(-x^2) oder y = e-x 2 ), welche insbesondere als Gaußsche Fehlerfunktion bekannt ist, transformiert werden. D. h., bei dieser Transformation werden die Pixel, die mit dem Wert „0“ versehen sind, auf einen vorgegebenen Wert, welcher einen maximalen Wert darstellt, initialisiert. Alle Pixel mit den Werten „>0“ werden mit einem Wert initialisiert, welcher in Abhängigkeit der Distanz zu einem bestimmten Merkmal 3 vom vorgegebenen Wert abfällt. Ist eine Distanz zu einem Merkmal 3 kleiner als die Distanz zu einem anderen Merkmal 3, orientiert sich der Wert des Pixels an dem Pixel mit dem vorgegebenen Wert, welcher das Merkmal 3 mit der geringeren Distanz umfasst. Die Transformation der Werte der Pixel kann alternativ zur Gaußschen Fehlerfunktion auch mittels Faltung mit einem geeigneten Faltungskern erfolgen.In a third step, the values of the pixels are transformed further, the values being based, for example, on the function y = exp ( - x 2 )
Figure DE102018005240A1_0006
(also written as y = exp (-x ^ 2) or y = e -x 2 ), which is known in particular as the Gaussian error function. In other words, with this transformation, the pixels which are provided with the value “0” are initialized to a predetermined value, which represents a maximum value. All pixels with the values ">0" are initialized with a value that depends on the distance to a certain characteristic 3 falls from the specified value. Is a distance to a characteristic 3 less than the distance to another feature 3 , the value of the pixel is based on the pixel with the predetermined value, which is the feature 3 with the shorter distance. As an alternative to the Gaussian error function, the values of the pixels can also be transformed by means of a convolution with a suitable convolution kernel.

Das Ergebnis des dritten Schritts ist eine Umgebungskarte, die als ein merkmalsbasiertes Grauwertbild 1 dargestellt ist und dabei eine Umgebung repräsentiert, die einer Umgebungsrepräsentation mittels eines konventionellen Grauwertbilds sehr ähnlich ist.The result of the third step is an environment map, which is a feature-based gray-scale image 1 is shown and represents an environment that is very similar to an environment representation using a conventional gray scale image.

In einem vierten Schritt erfolgt die Selbstlokalisierung des Fahrzeugs in der Umgebung. Dazu erfasst eine Sensorik des Fahrzeugs, z. B. eine Anzahl von Radarsensoren oder ein Laserscanner, die Umgebung des Fahrzeugs. Dabei erfasste Umgebungsdaten werden ausgewertet und mit der im dritten Schritt erstellten Umgebungskarte abgeglichen. Dazu kann beispielsweise ein Partikel-Filter verwendet werden, bei welchem es sich um eine sequenzielle Monte-Carlo-Methode handelt, bei der im Allgemeinen eine sogenannte a-postperiori Wahrscheinlichkeitsverteilung einer Zustandsschätzung durch eine diskrete Stichprobe repräsentiert wird, deren Elemente Partikel genannt werden. D. h., der Partikel-Filter wählt in jedem Zeitschritt diejenige Position und Orientierung eines Partikels als Lokalisierungsergebnis aus, mit welchen die aktuell erfassten Umgebungsdaten bestmöglich in die Umgebungskarte passen.In a fourth step, the vehicle is self-localized in the area. For this purpose, a sensor system of the vehicle, e.g. B. a number of radar sensors or a laser scanner, the surroundings of the vehicle. The environmental data recorded is evaluated and compared with the environmental map created in the third step. For this purpose, for example, a particle filter can be used, which is a sequential Monte Carlo method, in which a so-called a-postperiori probability distribution of a state estimate is generally represented by a discrete sample, the elements of which are called particles. In other words, in each time step, the particle filter selects the position and orientation of a particle as the localization result with which the currently recorded environmental data fit as well as possible in the environmental map.

Eine Aktualisierung der Umgebungskarte erfolgt in vorgegebenen Zeitschritten. Da eine Bewegung des Fahrzeugs zwischen zwei Zeitschritten üblicherweise sehr gering ist, überschneiden sich die Umgebungskarten aus aufeinanderfolgenden Zeitschritten sehr stark. Aus diesem Grund wird die aktuelle Umgebungskarte bevorzugt unter Verwendung der Umgebungskarte des vorhergehenden Zeitschritts mit einem geeigneten Aktualisierungsverfahren erstellt. Damit kann ein Rechenaufwand zur Erstellung der Umgebungskarte begrenzt werden.The area map is updated in predefined time steps. Since a movement of the vehicle between two time steps is usually very small, the area maps from successive time steps overlap very strongly. For this reason, the current environment map is preferred using the environment map of the previous one Time step created with a suitable update process. This can limit the amount of computation required to create the area map.

Zur Durchführung des ersten bis vierten Schritts sind ausreichend leistungsfähige Recheneinheiten im Fahrzeug erforderlich. Des Weiteren ist zur Bestimmung des Schätzwerts für die Unsicherheit der a-priori-Verteilungsfunktion beispielsweise ein satellitengestütztes Positionsbestimmungssystem, z. B. GPS, erforderlich. Alternativ kann dieser Schätzwert auch anhand von Informationen aus einer Historie des Fahrzeugs, z. B. ein zuletzt bekannter Abstellort, ermittelt werden.Sufficiently powerful computing units in the vehicle are required to carry out the first to fourth steps. Furthermore, to determine the estimated value for the uncertainty of the a priori distribution function, for example, a satellite-based position determination system, e.g. B. GPS, required. Alternatively, this estimate can also be based on information from a history of the vehicle, e.g. B. a last known storage location can be determined.

Das hier beschriebene Verfahren ist eine Weiterbildung dieses oben beschriebenen aus der DE 10 2016 011 378 A1 bekannten Verfahrens, wobei in die oben beschriebene Funktion (1) ein zusätzlicher Parameter σ eingeführt wird, wodurch die Lokalisierung beschleunigt oder präzisiert wird.The method described here is a further development of that described above from the DE 10 2016 011 378 A1 known method, the function described above ( 1 ) an additional parameter σ is introduced, which speeds up or clarifies the localization.

Das hier beschriebene Verfahren entspricht somit vorteilhafterweise im Wesentlichen dem oben beschriebenen aus der DE 10 2016 011 378 A1 bekannten Verfahren, mit der Ausnahme, dass an Stelle der Funktion (1) die folgende Funktion verwendet wird: y = e x p ( x 2 σ 2 )

Figure DE102018005240A1_0007
The method described here advantageously corresponds essentially to that described above in US Pat DE 10 2016 011 378 A1 known methods, with the exception that instead of the function ( 1 ) the following function is used: y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0007

Dadurch wird die Lokalisierung beschleunigt oder präzisiert, da mit diesem zusätzlichen Parameter σ eine Breite, mit der Features, d. h. Merkmale 3, aus der merkmalsbasierten Karte 2 in das Feature Grid, d. h. in das Grauwertbild 1, eingetragen werden, beeinflusst wird.This accelerates or clarifies the localization, because with this additional parameter σ a width with which features, ie features 3 , from the feature-based map 2 into the feature grid, ie into the gray scale image 1 , are entered, is influenced.

1 zeigt die merkmalsbasierte Karte 2 und die 2 bis 4 digitale Umgebungskarten in Form von Grauwertbildern 1 mit verschieden dargestellten Merkmalen 3. In 2 sind die Merkmale 3 besonders grob dargestellt, d. h. die auch als Features bezeichneten Merkmale 3 werden mit einer großen Breite dargestellt. In 3 sind die Merkmale 3 mittelgrob, d. h. feiner als in 2, dargestellt, d. h. die auch als Features bezeichneten Merkmale 3 werden mit einer kleineren Breite als in 2 dargestellt. In 4 sind die Merkmale 3 besonders fein dargestellt, d. h. feiner als in 3. D. h. die auch als Features bezeichneten Merkmale 3 werden mit einer besonders geringen Breite dargestellt, insbesondere mit einer kleineren Breite als in 3. 1 shows the feature-based map 2 and the 2 to 4 digital maps of the area in the form of gray-scale images 1 with different features 3 , In 2 are the characteristics 3 presented particularly roughly, ie the features also referred to as features 3 are shown with a large width. In 3 are the characteristics 3 medium coarse, ie finer than in 2 , shown, ie the features also referred to as features 3 are smaller than in 2 shown. In 4 are the characteristics 3 shown particularly fine, ie finer than in 3 , I.e. the features also called features 3 are shown with a particularly small width, in particular with a smaller width than in 3 ,

Dieser Parameter σ hat somit folgende Einflüsse:This parameter σ therefore has the following influences:

Für besonders kleine Beträge von σ werden die Features, d. h. die Merkmale 3, sehr dünn im Feature Grid, d. h. im Grauwertbild 1, eingetragen, wie insbesondere in 4 gezeigt. D. h. eine gegebene Struktur der Umgebung wird sehr scharf im Feature Grid, d. h. im Grauwertbild 1, wiedergegeben. Dadurch steigt eine erreichbare Genauigkeit der Selbstlokalisierung (zum Beispiel mit einem Partikelfilter), die ein solches schmales Feature Grid, d. h. Grauwertbild 1, verwendet.For particularly small amounts of σ, the features, ie the features 3 , very thin in the feature grid, ie in the gray value image 1 , registered, especially in 4 shown. I.e. a given structure of the environment becomes very sharp in the feature grid, ie in the gray value image 1 , reproduced. This increases the achievable accuracy of self-localization (for example with a particle filter), which is such a narrow feature grid, ie a gray scale image 1 , used.

Für besonders große Beträge von σ werden die Features, d. h. die Merkmale 3, sehr breit im Feature Grid, d. h. im Grauwertbild 1, eingetragen, wie insbesondere in 2 gezeigt. D. h. die auch als Features bezeichneten Merkmale 3 haben größeren Einfluss über einen weiten Bereich im Feature Grid, d. h. im Grauwertbild 1. Dadurch wird eine Selbstlokalisierungsberechnung (zum Beispiel mit einem Partikelfilter) im Allgemeinen schnell in die richtige Richtung gezogen. D. h. sowohl eine Konvergenzzeit als auch die Gefahr, sich in einem falschen lokalen Optimum zu verfangen, ist für gewöhnlich geringer bei einer Lokalisierung mit einem solchen beispielhaft in 2 dargestellten breiten Feature Grid, d. h. Grauwertbild 1.
Der Parameter σ der Feature Grid-Berechnung, d. h. der Berechnung des Grauwertbildes 1, wird somit vorteilhafterweise adaptiv entsprechend einer jeweils momentanen geschätzten Unsicherheit der Selbstlokalisierung bestimmt. Dadurch kann bei einem ungenauen Zustand der Selbstlokalisierung ein beispielhaft in 2 gezeigtes breites Feature Grid, d. h. ein Grauwertbild 1 mit breit dargestellten Merkmalen 3, berechnet werden, so dass die Lokalisierung schnell zu einer genaueren Schätzung konvergieren kann, und bei genaueren Zuständen kann ein beispielshaft in 4 gezeigtes schmales Feature Grid, d. h. Grauwertbild 1, berechnet werden, d. h. ein Grauwertbild 1 mit schmal dargestellten Merkmalen 3, um eine sehr hohe erreichbare Genauigkeit zu ermöglichen. Der Zusammenhang zwischen der geschätzten Lokalisierungsunsicherheit und dem Parameterwert für σ kann dabei sowohl kontinuierlich als auch diskret gewählt werden, so dass insbesondere auch Abstufungen zwischen der Darstellungsbreite der Merkmale 3 möglich sind, d. h. die Merkmale 3 können dann entsprechend auch schmaler als in 2 und breiter als in 4 dargestellt werden, wie beispielhaft anhand 3 gezeigt.
For particularly large amounts of σ, the features, ie the features 3 , very wide in the feature grid, ie in the gray value image 1 , registered, especially in 2 shown. I.e. the features also called features 3 have greater influence over a wide area in the feature grid, ie in the gray value image 1 , As a result, a self-localization calculation (for example with a particle filter) is generally quickly drawn in the right direction. I.e. Both a convergence time and the risk of getting caught in a wrong local optimum are usually less when localized with such an example in 2 shown broad feature grid, ie gray scale image 1 ,
The parameter σ of the feature grid calculation, ie the calculation of the gray scale image 1 is therefore advantageously determined adaptively in accordance with a currently estimated uncertainty of self-localization. As a result, an in 2 Broad feature grid shown, ie a gray scale image 1 with broad features 3 , can be calculated so that the localization can quickly converge to a more accurate estimate, and for more accurate conditions, an example in 4 Narrow feature grid shown, ie gray scale image 1 , are calculated, ie a gray scale image 1 with narrow features 3 to allow a very high achievable accuracy. The relationship between the estimated localization uncertainty and the parameter value for σ can be selected both continuously and discretely, so that, in particular, gradations between the display range of the features 3 are possible, ie the characteristics 3 can then also be narrower than in 2 and wider than in 4 are shown as an example 3 shown.

Das Verfahren dient insbesondere einer umgebungsbasierten Selbstlokalisierung in bekannten Umgebungen, beispielsweise für eine Anwendung beim autonomen Fahren.The method is used in particular for environment-based self-localization in known environments, for example for use in autonomous driving.

Das hier beschriebene Verfahren unterscheidet sich somit insbesondere ab dem dritten Schritt vom aus der DE 10 2016 011 378 A1 bekannten Verfahren, und insbesondere dadurch, dass an Stelle der Funktion y = exp ( x 2 )

Figure DE102018005240A1_0008
die Funktion y = e x p ( x 2 σ 2 )
Figure DE102018005240A1_0009
verwendet wird.The method described here thus differs from the third step in particular from the third step DE 10 2016 011 378 A1 known methods, and in particular in that instead of the function y = exp ( - x 2 )
Figure DE102018005240A1_0008
the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0009
is used.

Somit erfolgt im hier beschriebenen Verfahren im dritten Schritt die weitere Transformation der Werte der Pixel, wobei die Werte anhand der Funktion y = e x p ( x 2 σ 2 )

Figure DE102018005240A1_0010
transformiert werden. D. h., bei dieser Transformation werden die Pixel, die mit dem Wert „0“ versehen sind, auf einen vorgegebenen Wert, welcher einen maximalen Wert darstellt, initialisiert. Alle Pixel mit den Werten „>0“ werden mit einem Wert initialisiert, welcher in Abhängigkeit der Distanz zu einem bestimmten Merkmal 3 vom vorgegebenen Wert abfällt. Ist eine Distanz zu einem Merkmal 3 kleiner als die Distanz zu einem anderen Merkmal 3, orientiert sich der Wert des Pixels an dem Pixel mit dem vorgegebenen Wert, welcher das Merkmal 3 mit der geringeren Distanz umfasst.Thus, in the method described here, the further transformation of the values of the pixels takes place in the third step, the values being based on the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0010
be transformed. In other words, with this transformation, the pixels which are provided with the value “0” are initialized to a predetermined value, which represents a maximum value. All pixels with the values ">0" are initialized with a value that depends on the distance to a certain characteristic 3 falls from the specified value. Is a distance to a characteristic 3 less than the distance to another feature 3 , the value of the pixel is based on the pixel with the predetermined value, which is the feature 3 with the shorter distance.

Das Ergebnis des dritten Schritts ist eine Umgebungskarte, die als merkmalsbasiertes Grauwertbild 1 dargestellt ist und dabei eine Umgebung repräsentiert, die beispielsweise einer Umgebungsrepräsentation mittels eines konventionellen Grauwertbilds sehr ähnlich ist. Die Darstellung der Merkmale 3 in diesem Grauwertbild 1 erfolgt dabei in Abhängigkeit von der Größe des Parameters σ.The result of the third step is an environment map, which is a feature-based gray-scale image 1 is represented and thereby represents an environment that is very similar, for example, to an environment representation using a conventional gray-scale image. The representation of the characteristics 3 in this grayscale image 1 takes place depending on the size of the parameter σ.

Im vierten Schritt erfolgt die Selbstlokalisierung des Fahrzeugs in der Umgebung. Dazu erfasst eine Sensorik des Fahrzeugs, z. B. eine Anzahl von Radarsensoren oder ein Laserscanner, die Umgebung des Fahrzeugs. Dabei erfasste Umgebungsdaten werden ausgewertet und mit der im dritten Schritt erstellten Umgebungskarte abgeglichen. Dazu kann beispielsweise ein Partikel-Filter verwendet werden, bei welchem es sich um eine sequenzielle Monte-Carlo-Methode handelt, bei der im Allgemeinen eine sogenannte a-postperiori Wahrscheinlichkeitsverteilung einer Zustandsschätzung durch eine diskrete Stichprobe repräsentiert wird, deren Elemente Partikel genannt werden. D. h., der Partikel-Filter wählt in jedem Zeitschritt diejenige Position und Orientierung eines Partikels als Lokalisierungsergebnis aus, mit welchen die aktuell erfassten Umgebungsdaten bestmöglich in die Umgebungskarte passen.In the fourth step, the vehicle is self-localized in the area. For this purpose, a sensor system of the vehicle, e.g. B. a number of radar sensors or a laser scanner, the surroundings of the vehicle. The environmental data recorded is evaluated and compared with the environmental map created in the third step. For this purpose, for example, a particle filter can be used, which is a sequential Monte Carlo method, in which a so-called a-postperiori probability distribution of a state estimate is generally represented by a discrete sample, the elements of which are called particles. In other words, in each time step, the particle filter selects the position and orientation of a particle as the localization result with which the currently recorded environmental data fit as well as possible in the environmental map.

Eine Aktualisierung der Umgebungskarte erfolgt vorteilhafterweise in vorgegebenen Zeitschritten. Da eine Bewegung des Fahrzeugs zwischen zwei Zeitschritten üblicherweise sehr gering ist, überschneiden sich die Umgebungskarten aus aufeinanderfolgenden Zeitschritten sehr stark. Aus diesem Grund wird die aktuelle Umgebungskarte bevorzugt unter Verwendung der Umgebungskarte des vorhergehenden Zeitschritts mit einem geeigneten Aktualisierungsverfahren erstellt. Damit kann ein Rechenaufwand zur Erstellung der Umgebungskarte begrenzt werden.The environment map is advantageously updated in predetermined time steps. Since a movement of the vehicle between two time steps is usually very small, the area maps from successive time steps overlap very strongly. For this reason, the current environment map is preferably created using the environment map of the previous time step with a suitable update method. This can limit the amount of computation required to create the area map.

Zur Durchführung des Verfahrens weist das Fahrzeug vorteilhafterweise eine geeignete Sensorik, d. h. mindestens einen geeigneten Sensor, zur Umfelderfassung auf, zum Beispiel einen Radarsensor oder einen Laserscanner. Des Weiteren besteht vorteilhafterweise ein Zugang zu einer Datenbank, die die merkmalsbasierte Karte 2 der für die Selbstlokalisierung vorgesehenen Umgebung enthält. Die merkmalsbasierte Karte 2 kann beispielsweise auf einem Datenträger im Fahrzeug oder bei einem Provider außerhalb des Fahrzeugs, d. h. insbesondere auf einem fahrzeugexternen Server, gespeichert sein, wobei im zweiten Fall eine kabellose Übertragung der jeweils benötigten Daten ins Fahrzeug erfolgt, d. h. insbesondere über Funkkommunikation oder auf andere drahtlose Weise.To carry out the method, the vehicle advantageously has a suitable sensor system, ie at least one suitable sensor, for environment detection, for example a radar sensor or a laser scanner. Furthermore, there is advantageously access to a database containing the feature-based map 2 the environment intended for self-localization. The feature-based map 2 can, for example, be stored on a data carrier in the vehicle or at a provider outside the vehicle, that is to say in particular on a server external to the vehicle, in the second case the data required in each case being transmitted wirelessly into the vehicle, that is to say in particular via radio communication or in another wireless manner.

Das Fahrzeug weist des Weiteren vorteilhafterweise eine oder mehrere ausreichend leistungsfähig dimensionierte Recheneinheiten auf, um die benötigten Berechnungen zur Feature Grid-Erstellung, d. h. zur Erstellung des Grauwertbildes 1, und zur Lokalisierung durchführen zu können.The vehicle also advantageously has one or more sufficiently powerful computing units to perform the calculations required for creating the feature grid, ie for creating the gray-scale image 1 , and for localization.

Des Weiteren ist, insbesondere für einen Anlauf der Lokalisierung nach dem hier beschriebenen Verfahren, ein hinreichend genauer Prior-Schätzwert für die Fahrzeugposition notwendig. Dieser kann beispielsweise durch ein oder mehrere satellitengestützte Lokalisierungssysteme, d. h. mittels mindestens eines globalen Navigationssatellitensystems, zum Beispiel GPS, und/oder durch Informationen aus einer Historie des Fahrzeugs bestimmt werden, beispielsweise aus der Information, wo das Fahrzeug zuletzt abgestellt wurde.Furthermore, a sufficiently precise prior estimate for the vehicle position is necessary, in particular for a start of the localization according to the method described here. This can, for example, by one or more satellite-based localization systems, i. H. be determined by means of at least one global navigation satellite system, for example GPS, and / or by information from a history of the vehicle, for example from the information where the vehicle was last parked.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
GrauwertbildGray scale image
22
merkmalsbasierte Kartefeature-based map
33
Merkmalcharacteristic

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102016011378 A1 [0002, 0019, 0031, 0032, 0038]DE 102016011378 A1 [0002, 0019, 0031, 0032, 0038]

Claims (4)

Verfahren zur Selbstlokalisierung eines Fahrzeugs, wobei - Umgebungsdaten einer Umgebung des Fahrzeugs erfasst werden, - die Umgebungsdaten mit einer digitalen Umgebungskarte abgeglichen werden, - die Selbstlokalisierung des Fahrzeugs in der Umgebung anhand einer stochastischen Auswertung des Abgleichs der Umgebungsdaten mit der digitalen Umgebungskarte erfolgt, - die Umgebungskarte als mindestens ein Grauwertbild (1) der Umgebung mit einer variablen Anzahl von Pixeln erstellt wird, - das Grauwertbild (1) anhand einer zur Verfügung gestellten digitalen merkmalsbasierten Karte (2) der Umgebung ermittelt wird, in welcher Merkmale (3) der Umgebung eingetragen sind, und - jeweils einem Pixel des Grauwertbilds (1) ein Wert als Distanzinformation zu einem bestimmten Merkmal (3) in der Umgebung zugeordnet wird, dadurch gekennzeichnet, dass die zugeordneten Werte der Pixel anhand der Funktion y = e x p ( x 2 σ 2 )
Figure DE102018005240A1_0011
derart transformiert werden, dass jeweils ein Pixel, welches einen Umgebungsbereich mit einem Merkmal (3) repräsentiert, mit einem vorgegebenen Wert initialisiert wird und die Pixel, die einen Umgebungsbereich repräsentieren, welcher zu dem Merkmal (3) beabstandet ist, mit jeweils einem Wert initialisiert werden, welcher kleiner als der vorgegebene Wert ist, wobei diese Werte gemäß der Funktion y = e x p ( x 2 σ 2 )
Figure DE102018005240A1_0012
vom vorgegebenen Wert abfallen.
Method for self-localization of a vehicle, whereby - environmental data of an environment of the vehicle are recorded, - the environmental data are compared with a digital environment map, - the self-localization of the vehicle in the environment is carried out on the basis of a stochastic evaluation of the comparison of the environmental data with the digital environment map, - Environment map is created as at least one gray value image (1) of the environment with a variable number of pixels, - the gray value image (1) is determined on the basis of a digital feature-based map (2) of the environment provided, in which features (3) of the environment are entered are, and - a pixel of the gray-scale image (1) is assigned a value as distance information to a certain feature (3) in the environment, characterized in that the assigned values of the pixels are based on the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0011
are transformed such that in each case a pixel which represents a surrounding area with a feature (3) is initialized with a predetermined value and the pixels which represent a surrounding area which is spaced apart from the feature (3) are each initialized with a value which is smaller than the specified value, these values according to the function y = e x p ( - x 2 σ 2 )
Figure DE102018005240A1_0012
fall from the specified value.
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die digitale Umgebungskarte in vorgegebenen Zeitabständen aktualisiert wird.Procedure according to Claim 1 , characterized in that the digital environment map is updated at predetermined time intervals. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein in der digitalen Umgebungskarte abgebildeter Bereich der Umgebung anhand einer eine Fahrzeugposition repräsentierenden a-priori-Verteilungsfunktion, anhand eines Schätzwerts für eine Unsicherheit der a-priori-Verteilungsfunktion und anhand einer Sichtweite eines momentanen Erfassungsbereichs der Umgebung bestimmt wird.Method according to one of the preceding claims, characterized in that an area of the environment mapped in the digital environment map on the basis of an a priori distribution function representing a vehicle position, on the basis of an estimated value for an uncertainty of the a priori distribution function and on the basis of a visibility of a current detection area the environment is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur stochastischen Auswertung des Abgleichs der Umgebungsdaten mit der digitalen Umgebungskarte ein stochastischer Partikel-Filter verwendet wird.Method according to one of the preceding claims, characterized in that a stochastic particle filter is used for the stochastic evaluation of the comparison of the environmental data with the digital environmental map.
DE102018005240.1A 2018-07-03 2018-07-03 Method for self-localization of a vehicle Withdrawn DE102018005240A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018005240.1A DE102018005240A1 (en) 2018-07-03 2018-07-03 Method for self-localization of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018005240.1A DE102018005240A1 (en) 2018-07-03 2018-07-03 Method for self-localization of a vehicle

Publications (1)

Publication Number Publication Date
DE102018005240A1 true DE102018005240A1 (en) 2020-01-09

Family

ID=68943438

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018005240.1A Withdrawn DE102018005240A1 (en) 2018-07-03 2018-07-03 Method for self-localization of a vehicle

Country Status (1)

Country Link
DE (1) DE102018005240A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011378A1 (en) 2016-09-21 2017-04-13 Daimler Ag Method for self-localization of a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011378A1 (en) 2016-09-21 2017-04-13 Daimler Ag Method for self-localization of a vehicle

Similar Documents

Publication Publication Date Title
DE112016002817T5 (en) CHANGE BASED BASED IMAGE RECORDING SYSTEM
DE102017116088A1 (en) Apparatus and method for estimating a position of a vehicle
DE102018214510A1 (en) Parking ticket generation on the street
DE102014111126A1 (en) Method for generating an environment map of an environmental area of a motor vehicle, driver assistance system and motor vehicle
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
EP1421568A1 (en) Method for determining a model travel path
DE102017203276A1 (en) Method and device for determining a trajectory in off-road scenarios
DE102012107886A1 (en) Method for the electronic detection of traffic signs
WO2018054521A1 (en) Method for the self-location of a vehicle
DE102015003666A1 (en) Method for processing acquired measured data of a sensor
DE102018124979A1 (en) Driver assistance system for determining a distance between two vehicles with a camera
DE102010011982A1 (en) Method for the computer-aided creation and / or updating of a reference map for a satellite-based location of an object
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
DE102019209206A1 (en) PARKING CARDS REFINING USING AN OCCUPATIONAL BEHAVIOR ANOMALY DETECTOR
DE102021003567A1 (en) Process for the recognition of object relationships and attributions from sensor data
DE102018128535A1 (en) Training an artificial neural network with data captured by sensors of a vehicle
DE102018005240A1 (en) Method for self-localization of a vehicle
DE102022212343A1 (en) AUTONOMOUS DRIVING SYSTEM
DE102020208080A1 (en) Detection of objects in images under equivariance or invariance with respect to the object size
DE102019216184A1 (en) Method for the robustification of a neural network against adversarial disturbances
DE102021000519A1 (en) Method for validating map object relationships and attributions for a digital map
DE102019132151A1 (en) Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system
DE102022123499B3 (en) Computer-implemented method, processor circuit and computer program for processing measurement points received from an environment sensor, in particular radar measurement points, for object detection and a correspondingly equipped motor vehicle
DE102016122031A1 (en) Resource-saving map for a driver assistance system of a motor vehicle
DE102022207097A1 (en) Method for training a machine learning algorithm for obtaining information about a current environment of a motor vehicle from data recorded by at least one environmental sensor of the motor vehicle

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee