DE102020109789A1 - Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system - Google Patents

Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system Download PDF

Info

Publication number
DE102020109789A1
DE102020109789A1 DE102020109789.1A DE102020109789A DE102020109789A1 DE 102020109789 A1 DE102020109789 A1 DE 102020109789A1 DE 102020109789 A DE102020109789 A DE 102020109789A DE 102020109789 A1 DE102020109789 A1 DE 102020109789A1
Authority
DE
Germany
Prior art keywords
vehicle
objects
recorded
self
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020109789.1A
Other languages
German (de)
Inventor
Jeff Destrumelle
Romain Demarets
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102020109789.1A priority Critical patent/DE102020109789A1/en
Publication of DE102020109789A1 publication Critical patent/DE102020109789A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs (3), umfassend die folgenden Schritte:
- Aufnehmen einer Umgebung (6) des Fahrzeugs (3) durch mindestens eine Aufnahmeeinheit (11) des Fahrzeugs (3); gekennzeichnet durch die folgenden weiteren Schritte:
- Bewerten von Objekten (5, 7, 8, 9), aufgenommen in der Umgebung (6) dahingehend, ob mindestens ein potentiell bewegliches Objekt (7, 8), das während der Aufnahme still stand, in der Umgebung (6) vorhanden ist;
- Erzeugen einer digitalen Umgebungskarte ohne das potentiell bewegliche Objekt (7, 8), falls ein potentiell bewegliches Objekt (7, 8) aufgenommen wurde;
- Durchführen einer Selbstlokalisierung des Fahrzeugs (3) auf der Grundlage der erzeugten digitalen Umgebungskarte.
Die Erfindung betrifft auch ein Computerprogrammprodukt und ein Selbstlokalisierungssystem (10).

Figure DE102020109789A1_0000
The invention relates to a method for performing a self-localization of a vehicle (3), comprising the following steps:
- Recording the surroundings (6) of the vehicle (3) by at least one recording unit (11) of the vehicle (3); characterized by the following further steps:
- Assessment of objects (5, 7, 8, 9) recorded in the environment (6) to determine whether at least one potentially moving object (7, 8), which was stationary during the recording, is present in the environment (6) ;
- Generating a digital map of the surroundings without the potentially moving object (7, 8) if a potentially moving object (7, 8) has been recorded;
- Carrying out a self-localization of the vehicle (3) on the basis of the generated digital map of the surroundings.
The invention also relates to a computer program product and a self-localization system (10).
Figure DE102020109789A1_0000

Description

Ein Aspekt der Erfindung betrifft ein Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs. Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt sowie ein Selbstlokalisierungssystem für ein Fahrzeug.One aspect of the invention relates to a method for performing self-localization of a vehicle. Another aspect of the invention relates to a computer program product and a self-localization system for a vehicle.

Aus US 10 109 198 B2 ist ein Verfahren bekannt, in dem ein Fahrzeug seine Umgebung mittels Aufnahmeeinheiten aufnimmt. Die aufgenommenen Objekte werden klassifiziert und eine digitale Umgebungskarte wird erzeugt. In der Umgebungskarte werden Objekte, die sich während des Aufnehmens bewegen, beseitigt. Das heißt, dass eine digitale Karte verfügbar gemacht wird, die diese sich bewegenden Objekte nicht aufweist. Diese erzeugte digitale Umgebungskarte wird einem anderen Fahrzeug verfügbar gemacht.the end US 10 109 198 B2 a method is known in which a vehicle records its surroundings by means of recording units. The recorded objects are classified and a digital map of the environment is generated. In the environment map, objects that move during the recording are eliminated. That is, a digital map is made available that does not have these moving objects. This generated digital map of the surroundings is made available to another vehicle.

Darüber hinaus ist bekannt, dass ein Fahrzeug unter Bezugnahme auf eine digitale Umgebungskarte eine Selbstlokalisierung durchführt. Somit kann das Fahrzeug seine eigene Position in der Umgebung relativ zu Objekten, die in der Umgebung vorhanden sind, bestimmen.In addition, it is known that a vehicle carries out a self-localization with reference to a digital map of the surroundings. The vehicle can thus determine its own position in the environment relative to objects that are present in the environment.

Solche digitalen Umgebungskarten sind hinsichtlich ihrer Dateigröße sehr groß. Dies bedeutet auch, dass relativ viel Speicherplatz benötigt wird. Dies kann auch zu langsameren Verarbeitungsschritten und Bestimmungsschritten führen.Such digital maps of the environment are very large in terms of their file size. This also means that a relatively large amount of storage space is required. This can also lead to slower processing steps and determination steps.

Darüber hinaus sind in den bekannten Umgebungskarten gemeinhin viele Objekte enthalten, die möglicherweise nicht erforderlich oder für eine Selbstlokalisierung nachteilig sind.In addition, the known environment maps generally contain many objects that may not be necessary or are disadvantageous for self-localization.

Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren, ein Computerprogrammprodukt und ein Selbstlokalisierungssystem bereitzustellen, in dem die Selbstlokalisierung auf der Grundlage einer stärker angepassten, verbesserten digitalen Umgebungskarte durchgeführt wird.It is the object of the present invention to provide a method, a computer program product and a self-localization system in which the self-localization is carried out on the basis of a more adapted, improved digital map of the surroundings.

Dieses Ziel wird durch ein Verfahren, ein Computerprogrammprodukt und ein Selbstlokalisierungssystem nach den unabhängigen Ansprüchen erreicht.This aim is achieved by a method, a computer program product and a self-localization system according to the independent claims.

Ein Aspekt der Erfindung betrifft ein Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs, insbesondere eines voll autonom fahrenden Fahrzeugs. Anfangs wird in dem Verfahren die Umgebung des Fahrzeugs mittels mindestens einer Aufnahmeeinheit des Fahrzeugs aufgenommen. Dann wird eine Bewertung der in der Umgebung aufgenommenen Objekte durchgeführt, um festzustellen, ob mindestens ein potentiell bewegliches Objekt vorhanden ist. Ein potentiell bewegliches Objekt ist ein solches Objekt, das während der Aufnahme stillsteht, das allerdings grundsätzlich dafür qualifiziert ist, sich selbst zu bewegen. Dies kann beispielsweise ein anderes Fahrzeug sein, wie etwa ein Personenkraftfahrzeug, ein Laster, ein Motorrad, ein Fahrrad oder dergleichen. Diese können allerdings aber auch Objekte wie etwa eine Mülltonne oder ein Abfalleimer sein. Ein potentiell bewegliches Objekt ist somit insbesondere ein solches Objekt, das gemäß dem beabsichtigten Zweck zu dem Zwecke vorgesehen ist, bewegt zu werden, das in diesem Zusammenhang auch zerstörungsfrei hinsichtlich seiner Position reversibel geändert werden kann.One aspect of the invention relates to a method for performing self-localization of a vehicle, in particular a fully autonomous vehicle. Initially, in the method, the surroundings of the vehicle are recorded by means of at least one recording unit of the vehicle. An assessment of the objects recorded in the environment is then carried out in order to determine whether at least one potentially moving object is present. A potentially moving object is an object that stands still during the recording, but which is basically qualified to move itself. This can be, for example, another vehicle, such as a passenger vehicle, a truck, a motorcycle, a bicycle or the like. However, these can also be objects such as a garbage can or a garbage can. A potentially movable object is thus in particular such an object that is provided for the purpose of being moved in accordance with the intended purpose and that in this context can also be reversibly changed with regard to its position in a non-destructive manner.

In diesem Verfahren wird dann eine digitale Umgebungskarte ohne ein potentiell bewegliches Objekt erzeugt. Dies bedeutet, dass, falls ein solches potentiell bewegliches Objekt in der Umgebung aufgenommen wurde, dieses bei der Erzeugung der digitalen Umgebungskarte nicht berücksichtigt wird. Infolgedessen wird es beseitigt. Diese digitale Umgebungskarte wird bereitgestellt, die in diesem Zusammenhang hinsichtlich Objekten reduziert ist. Ein Durchführen einer Selbstlokalisierung des Fahrzeugs wird auf der Grundlage von dieser erzeugten, reduzierten digitalen Umgebungskarte vorgenommen. Durch eine derartige Auslegung wird es erleichtert, eine verbesserte digitale Umgebungskarte für diesen Verwendungszweck zu liefern. Dies muss insbesondere im Hinblick auf das Datenvolumen dieser digitalen Umgebungskarte betrachtet werden. Ein ganz besonderer Vorteil dieses Ansatzes liegt auch darin, dass solche potentiell beweglichen Objekte, die zur Zeit der Aufnahme still standen, möglicherweise zu Fehlern bei der Selbstlokalisierung führen. Falls diese potentiell beweglichen Objekte in der digitalen Umgebungskarte enthalten sind und in dieser Hinsicht nicht detaillierter klassifiziert sind, ist dem so, weil sie irrtümlich auch als statische Objekte verstanden wurden. Wenn dann diese digitale Umgebungskarte verwendet wird und falls solch ein potentiell bewegliches Objekt zwischenzeitlich entfernt wurde, weil es beispielsweise weggefahren ist, stimmt die aufgenommene Umgebung nicht mehr mit der digitalen Umgebungskarte überein. Die Selbstlokalisierung kann daher nur fehlerbehaftet durchgeführt werden. Durch das vorgeschlagene Verfahren wird nun eine dementsprechend deutlich verbesserte digitale Umgebungskarte bereitgestellt. Falls solche potentiell beweglichen Objekte, falls sie vorhanden sind und erkannt wurden, beseitigt werden und nicht mehr in der digitalen Umgebungskarte vorhanden sind, können solche Fehlbewertungen vermieden werden. Selbst wenn solche potentiell beweglichen Objekte zur Zeit der Aufnahme weiter vorhanden waren und aufgenommen wurden, danach aber aus ihren Positionen heraus bewegt wurden, hat dies keinen Einfluss auf die Leistungsfähigkeit der Selbstlokalisierung des Fahrzeugs. Da dieses potentiell bewegliche Objekt im Allgemeinen nicht weiter in der digitalen Umgebungskarte berücksichtigt wird, kann es auch nicht mehr für Selbstlokalisierung verwendet werden. Dies bedeutet, dass es nicht länger relevant ist, ob solch ein potentiell bewegliches Objekt nach dem Aufnehmen bewegt wurde oder nicht, da diese Objekte somit keinen Einfluss auf das Durchführen der Selbstlokalisierung haben.In this method, a digital map of the environment is then generated without a potentially moving object. This means that if such a potentially movable object was recorded in the environment, it will not be taken into account when generating the digital environment map. As a result, it will be eliminated. This digital environment map is provided, which is reduced in terms of objects in this context. A self-localization of the vehicle is carried out on the basis of this generated, reduced digital environment map. Such a design makes it easier to provide an improved digital environment map for this purpose. This must be considered in particular with regard to the data volume of this digital map of the surroundings. A very special advantage of this approach is that such potentially moving objects, which were stationary at the time of the recording, may lead to errors in the self-localization. If these potentially movable objects are contained in the digital map of the surroundings and are not classified in more detail in this regard, this is because they were erroneously also understood as static objects. If this digital environment map is then used and if such a potentially movable object has been removed in the meantime, for example because it has driven away, the recorded environment no longer corresponds to the digital environment map. The self-localization can therefore only be carried out with errors. The proposed method now provides a correspondingly significantly improved digital map of the surroundings. If such potentially movable objects, if they exist and have been recognized, are eliminated and no longer exist in the digital map of the surroundings, such incorrect assessments can be avoided. Even if such potentially movable objects were still present at the time of the recording and were recorded, but were then moved out of their positions, this has no influence on the performance of the self-localization of the vehicle. Since this potentially moving object is generally no longer in the digital map of the area is taken into account, it can no longer be used for self-localization. This means that it is no longer relevant whether or not such a potentially movable object was moved after the recording, since these objects thus have no influence on the implementation of the self-localization.

Bevorzugt wird durch die mindestens eine Aufnahmeeinheit mindestens ein Bild der Umgebung erzeugt und ein potentiell bewegliches Objekt wird in einem Bild durch ein Bewertungsverfahren erkannt. Es ist insbesondere vorteilhaft, wenn einige Bilder der Umgebung erzeugt werden und ein potentiell bewegliches Objekt in einem Bild durch ein Bewertungsverfahren erkannt wird. Durch diese Verbindung einiger Bilder können möglicherweise verschiedene Perspektiven hinsichtlich des Objekts erzeugt werden. Dadurch kann möglicherweise das Erkennen eines potentiell beweglichen Objekts, das zur Zeit der Aufnahme still stand, auf eine verbesserte Weise bewirkt werden. Dies kann man sich vorstellen, wenn die Aufnahmeeinheit eine Kamera ist.At least one image of the surroundings is preferably generated by the at least one recording unit and a potentially moving object is recognized in an image by an evaluation method. It is particularly advantageous if some images of the surroundings are generated and a potentially moving object is recognized in an image by an evaluation method. This connection of some images can possibly create different perspectives with regard to the object. In this way, the detection of a potentially moving object which was stationary at the time of the recording can possibly be effected in an improved manner. This can be imagined if the recording unit is a camera.

Bei einer vorteilhaften Ausführungsform werden die aufgenommenen Objekte in der Umgebung dahingehend bewertet, ob sich ein bewegtes Objekt, das sich während der Aufnahme bewegt, in der Umgebung vorhanden ist. Die digitale Umgebungskarte wird in einer vorteilhaften Ausführungsform ohne solch ein sich tatsächlich bewegendes Objekt erzeugt, wenn solch ein sich tatsächlich bewegendes Objekt erkannt wurde. Insbesondere kann man sich vorstellen, dass für diesen Ansatz einige Bilder, beispielsweise auch ein Video der Aufnahmeeinheit aufgezeichnet wird. Insbesondere ist dies dann vorteilhaft, wenn die Aufnahmeeinheit eine Kamera ist. Dabei werden Objekte, die sich zur Aufnahmezeit oder -dauer tatsächlich bewegen, jeweils sehr genau erkannt werden. Durch Beseitigen auch zu der Zeit der Aufnahme der sich tatsächlich bewegenden Objekte kann die digitale Umgebungskarte noch stärker an die Anforderungen für das Durchführen einer Selbstlokalisierung angepasst werden.In an advantageous embodiment, the recorded objects in the environment are evaluated as to whether a moving object, which moves during the recording, is present in the environment. In an advantageous embodiment, the digital environment map is generated without such an actually moving object if such an actually moving object has been recognized. In particular, one can imagine that some images, for example also a video of the recording unit, are recorded for this approach. This is particularly advantageous when the recording unit is a camera. Objects that are actually moving at the time or duration of the recording are recognized very precisely. By eliminating even at the time of recording the actually moving objects, the digital environment map can be adapted even more to the requirements for performing self-localization.

Insbesondere enthält eine erzeugte digitale Umgebungskarte dann nur tatsächlich statische Objekte, die gemäß dem beabsichtigten Zweck auch für permanente statische Anordnung in ihrer Position beabsichtigt sind. Somit kann eine besonders reduzierte digitale Umgebungskarte bereitgestellt werden. Sie ist hinsichtlich ihrer Dateigröße minimiert und erlaubt Reduzieren der oben genannten Interpretation bei einer Selbstlokalisierung des Fahrzeugs auf ein bestimmtes Ausmaß.In particular, a generated digital map of the surroundings then only actually contains static objects which, according to the intended purpose, are also intended for permanent static arrangement in their position. A particularly reduced digital map of the surroundings can thus be provided. It is minimized with regard to its file size and allows the above-mentioned interpretation to be reduced to a certain extent when the vehicle is self-localizing.

Bei einer vorteilhaften Ausführungsform wird die Umgebung durch mindestens zwei verschiedene Aufnahmeeinheiten des Fahrzeugs aufgenommen. Die Informationen der zwei Aufnahmeeinheiten werden bei der Bestimmung, ob ein sich bewegendes Objekt in der Umgebung vorhanden ist, berücksichtigt. Auch können durch solche Auslegung die Objekte erkannt werden, die sich zur Aufnahmezeit tatsächlich bewegen.In an advantageous embodiment, the surroundings are recorded by at least two different recording units of the vehicle. The information from the two recording units is taken into account when determining whether a moving object is present in the vicinity. Such a design also makes it possible to identify the objects that are actually moving at the time of recording.

Wie oben bereits erwähnt wurde, wird die digitale Umgebungskarte bei einer vorteilhaften Ausführungsform auf solche Weise erzeugt, dass sie nur in der Umgebung aufgenommene statische Objekte umfasst.As already mentioned above, in an advantageous embodiment the digital map of the environment is generated in such a way that it only includes static objects recorded in the environment.

Die Erzeugung der digitalen Umgebungskarte und/oder die Selbstlokalisierung wird vorzugsweise mit einem SLAM-Algorithmus durchgeführt. Solch ein SLAM-Algorithmus (simultaneous localization and mapping - simultane Lokalisierung und Kartierung) ermöglicht eine simultane Positionsbestimmung und Kartenbestimmung.The generation of the digital map of the surroundings and / or the self-localization is preferably carried out with a SLAM algorithm. Such a SLAM algorithm (simultaneous localization and mapping) enables simultaneous position determination and map determination.

Bei einer vorteilhaften Ausführungsform wird die Umgebung durch mindestens eine optische Aufnahmeeinheit des Fahrzeugs aufgenommen. Die optische Aufnahmeeinheit ist besonders bevorzugt ein Laser-Scanner, insbesondere ein Lidar-Sensor. Ein solcher Sensor kann die Umgebung auf eine besonders vorteilhafte Weise aufnehmen, auch mit einer entsprechend größeren Reichweite.In an advantageous embodiment, the surroundings are recorded by at least one optical recording unit of the vehicle. The optical recording unit is particularly preferably a laser scanner, in particular a lidar sensor. Such a sensor can record the surroundings in a particularly advantageous way, even with a correspondingly greater range.

Insbesondere können die durch die Aufnahmeeinheit aufgenommenen Informationen eine Punktwolke bilden. Punkte der Punktwolke werden in das Koordinatensystem des Fahrzeugs umgewandelt. Die umgewandelten Informationen bilden eine Scanpunktebenen-Datenbank der aufgenommenen Informationen. Durch solch eine Scanpunktebene wird eine Informationsebene für die aufgenommenen Informationen erschaffen, die von sehr einfachem Aussehen ist. Durch die Punkte der Punktwolke werden die aufgenommenen Objekte charakterisiert. Auf dieser Ebene der Scanpunktebene ist allerdings noch nicht vorgesehen, dass diese Punkte auch bereits klar definierte Objekte charakterisieren, die dann auch als solche bekannt sind. Daher weiß man hier noch nicht, was für Objekte das sind.In particular, the information recorded by the recording unit can form a point cloud. Points in the point cloud are converted into the vehicle's coordinate system. The converted information forms a scan point level database of the recorded information. Such a scan point plane creates an information plane for the recorded information which is very simple in appearance. The recorded objects are characterized by the points of the point cloud. At this level of the scan point plane, however, it is not yet provided that these points also characterize clearly defined objects which are then also known as such. Therefore, one does not yet know what kind of objects these are.

Eine solche Datenbank kann relativ einfach gehandhabt werden und ist hinsichtlich Bereitstellung der Daten und der weiteren Verarbeitung vorteilhaft. Insbesondere auf der Grundlage dieser charakteristischen Punkte kann die digitale Umgebungskarte erzeugt werden.Such a database can be handled relatively easily and is advantageous with regard to the provision of the data and the further processing. The digital map of the surroundings can be generated in particular on the basis of these characteristic points.

Vorzugsweise ist vorgesehen dass Objekte in einer Objektebenen-Datenbank des Verfahrens klassifiziert werden. Zu diesem Zweck werden Positionen von Objekten in Bezug auf ein Koordinatensystem des Fahrzeugs bestimmt. Die Objektebenen-Datenbank ist eine Datenebene oder verschiedene Datenebenen, die sich von der Scanpunktebenen-Datenbank unterscheidet bzw. unterscheiden. In der Objektebenen-Datenbank sind tatsächliche konkrete Objekte definiert und klassifiziert. Dies bedeutet, dass es insbesondere auch bekannt ist, welche Objekte in der Umgebung des Fahrzeugs aufgenommen wurden. In dieser Objektebenen-Datenbank kann somit die konkrete Bezugsherstellung von Objekten durchgeführt werden.It is preferably provided that objects are classified in an object level database of the method. For this purpose, positions of objects in relation to a coordinate system of the vehicle are determined. The object level database is a data level or different data levels that differ from the scan point level Database distinguishes or distinguishes. Actual concrete objects are defined and classified in the object level database. This means that in particular it is also known which objects were recorded in the vicinity of the vehicle. The specific reference production of objects can thus be carried out in this object level database.

Bei einer weiteren sehr vorteilhaften Ausführungsform wird vorgesehen, dass, in Abhängigkeit von den in der Objektebenen-Datenbank aufgenommenen klassifizierten Objekten, die umgewandelten Informationen der Objektebenen-Datenbank mit diesen Objekten in Beziehung stehen. Daher wird vorteilhafterweise eine Beziehung der Scanpunktebene mit konkreten klassifizierten Objekten der Objektebenen-Datenbank hergestellt. Dies ist dafür sehr vorteilhaft, dass somit für die Punkte der Scanpunktebene auch leicht erkannt werden kann, welche potentiell bewegliche Objekte sind.In a further very advantageous embodiment, it is provided that, depending on the classified objects recorded in the object level database, the converted information in the object level database is related to these objects. A relationship between the scan point plane and specific classified objects in the object plane database is therefore advantageously established. This is very advantageous for the fact that for the points of the scan point plane it can also easily be recognized which are potentially moving objects.

Vorteilhafterweise werden jene Stücke der umgewandelten Informationen beseitigt, die die aufgenommenen und potentiell beweglichen Objekte repräsentieren. Die mit potentiell beweglichen Objekten assoziierten Punkte der Scanpunktebene werden somit beseitigt. Unter Berücksichtigung der verbliebenen umgewandelten Informationen wird die digitale Umgebungskarte erzeugt. Insbesondere kann die digitale Umgebungskarte dann bevorzugt nur jene Punkte umfassen, die statische Objekte charakterisieren.Advantageously, those pieces of the converted information which represent the recorded and potentially moving objects are eliminated. The points of the scan point plane associated with potentially moving objects are thus eliminated. The digital map of the surroundings is generated taking into account the remaining converted information. In particular, the digital map of the surroundings can then preferably only include those points which characterize static objects.

Ein Ansatz, der unter Bezugnahme auf die Ausführungsformen für die Scanpunktebene und die Objektebenen-Datenbank dargelegt wurde, kann als eine Grundlage für die verschiedensten Aufnahmeeinheiten verwendet werden. Beispielsweise können diese auch Radar-Sensoren oder Ultraschall-Sensoren sein. Dies ist insbesondere für optische Aufnahmeeinheiten vorteilhaft, insbesondere für Laser-Scanner.An approach that has been presented with reference to the embodiments for the scan point plane and the object plane database can be used as a basis for the most varied of recording units. For example, these can also be radar sensors or ultrasonic sensors. This is particularly advantageous for optical recording units, in particular for laser scanners.

Ein Laser-Scanner, wie etwa beispielsweise solch ein Lidar-Sensor, nimmt die Umgebung auf. Die in dieser Verbindung aufgenommenen Informationen produzieren eine Punktwolke. Im Falle eines Laser-Scanners ist eine Punktwolke eine Matrix, in welcher die Werte an den Matrixpositionen jeweils eine Distanz repräsentieren. Die Spalten dieser Matrix repräsentieren verschiedene Horizontalwinkel und die Zeilen dieser Matrix repräsentieren verschiedene Vertikalwinkel. Wenn diese Einträge in die Matrix und somit die jeweiligen Winkelwerte in ein Koordinatensystem, insbesondere ein kartesisches Koordinatensystem des Fahrzeugs umgewandelt werden, wird dadurch insbesondere eine Information auf der Grundlage der Scanpunktebene produziert.A laser scanner, such as such a lidar sensor, records the surroundings. The information recorded in this connection produces a point cloud. In the case of a laser scanner, a point cloud is a matrix in which the values at the matrix positions each represent a distance. The columns of this matrix represent different horizontal angles and the rows of this matrix represent different vertical angles. When these entries in the matrix and thus the respective angle values are converted into a coordinate system, in particular a Cartesian coordinate system of the vehicle, information is produced in particular on the basis of the scan point plane.

Um nunmehr in der Lage zu sein, potentiell dynamische Objekte zu beseitigen, ist es im Falle dieses Laser-Scanners auch vorteilhaft, die zusätzliche Datenebene in der Form der Objektebenen-Datenbank zu verwenden. In dieser Objektebenen-Datenbank wird vorteilhafterweise vorgesehen, dass auch für jeden Punkt Positionen in dem Koordinatensystem, insbesondere dem kartesischen Koordinatensystem des Fahrzeugs bekannt sind. Um in der Lage zu sein, aufgenommene Objekte aus den aufgenommenen Informationen zu beseitigen, wird auf eine einfache Weise die Position des Objekts in diesem Koordinatensystem genommen und die Scanpunkte der betreffenden Punktwolke werden in dem Koordinatensystem entfernt. Dadurch werden wiederum reduzierte Punktinformationen der umgewandelten Informationen erhalten, die insbesondere die reduzierte digitale Umgebungskarte bilden. In der Objektebenen-Datenbank wird ein hoher Abstraktionsgrad der Informationen hinsichtlich der Objekte erreicht. In dieser Hinsicht wird hier bereits eine genauere Beziehung zu konkreten Objekten erleichtert. Auf der Scanpunktebene ist das Abstraktionsniveau relativ gering. Die Umgebung wird lediglich durch die bereits erwähnten Punkte der Punktwolke charakterisiert. Die Klassifikation als tatsächliche Objekte wird auf dieser Ebene nicht gegeben.In order to now be able to eliminate potentially dynamic objects, it is also advantageous in the case of this laser scanner to use the additional data level in the form of the object level database. In this object plane database, it is advantageously provided that positions in the coordinate system, in particular the Cartesian coordinate system of the vehicle, are also known for each point. In order to be able to remove recorded objects from the recorded information, the position of the object in this coordinate system is taken in a simple manner and the scan points of the point cloud in question are removed from the coordinate system. As a result, reduced point information of the converted information is obtained in turn, which in particular forms the reduced digital map of the surroundings. A high degree of abstraction of the information regarding the objects is achieved in the object level database. In this regard, a more precise relationship to concrete objects is already facilitated here. At the scan point level, the level of abstraction is relatively low. The environment is only characterized by the already mentioned points of the point cloud. The classification as actual objects is not given at this level.

Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt, das Anweisungen umfasst, die bei Ausführung des Programms durch einen Computer diesen zum Durchführen des Verfahrens gemäß dem oben genannten Aspekt oder einer vorteilhaften Implementation davon veranlassen .Another aspect of the invention relates to a computer program product which comprises instructions which, when the program is executed by a computer, cause the computer to carry out the method according to the above-mentioned aspect or an advantageous implementation thereof.

Ein weiterer Aspekt der Erfindung betrifft ein elektronisches Selbstlokalisierungssystem für ein Fahrzeug. Das Selbstlokalisierungssystem umfasst mindestens eine Aufnahmeeinheit des Fahrzeugs. Das Selbstlokalisierungssystem umfasst darüber hinaus mindestens eine Bewertungseinheit des Fahrzeugs. Das Selbstlokalisierungssystem ist ausgelegt zum Durchführen des Verfahrens gemäß dem oben genannten Aspekt oder einer vorteilhaften Implementation davon. Insbesondere wird dadurch das Verfahren durchgeführt.Another aspect of the invention relates to an electronic self-localization system for a vehicle. The self-localization system comprises at least one recording unit of the vehicle. The self-localization system also includes at least one evaluation unit of the vehicle. The self-localization system is designed to carry out the method according to the above-mentioned aspect or an advantageous implementation thereof. In particular, the method is carried out as a result.

Weitere Merkmale der Erfindung werden aus den Ansprüchen, den Figuren und der Beschreibung der Figuren ersichtlich. Die oben in der Beschreibung erwähnten Merkmale und Merkmalskombinationen sowie die unten in der Beschreibung der Figuren erwähnten und/oder alleinig in den Figuren gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweiligen spezifizierten Kombination verwendbar, sondern auch in anderen Kombinationen, ohne vom Schutzumfang der Erfindung abzuweichen. Somit sind auch Implementierungen als durch die Erfindung eingeschlossen und offenbart anzusehen, die nicht ausdrücklich in den Figuren gezeigt und erläutert sind, können aber aus separaten Merkmalskombinationen der erläuterten Implementierungen hervorgehen und durch diese erzeugt werden. Implementierungen und Merkmalskombinationen, die somit nicht alle der Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen, sind auch als offenbart anzusehen.Further features of the invention are evident from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description as well as the features and combinations of features mentioned below in the description of the figures and / or shown solely in the figures can be used not only in the respective specified combination, but also in other combinations without falling from the scope of protection of the invention to deviate. Thus, implementations are also to be regarded as encompassed and disclosed by the invention that are not expressly included in FIGS Figures are shown and explained, but can arise from separate combinations of features of the explained implementations and can be generated by them. Implementations and combinations of features, which therefore do not have all of the features of an originally formulated independent claim, are also to be regarded as disclosed.

Ausführungsformen der Erfindung werden im Folgenden unter Bezugnahme auf schematische Zeichnungen ausführlicher erläutert.Embodiments of the invention are explained in more detail below with reference to schematic drawings.

Diese zeigen in:

  • 1 eine simplifizierte Ansicht eines Verkehrsszenariums mit einem Fahrzeug, das auf der Grundlage einer digitalen Umgebungskarte eine Selbstlokalisierung durchführen soll.
  • 2 ein schematisches Flussdiagramm mit einer Ausführungsform des erfindungsgemäßen Verfahrens.
These show in:
  • 1 a simplified view of a traffic scenario with a vehicle that is supposed to carry out a self-localization on the basis of a digital map of the surroundings.
  • 2 a schematic flow diagram with an embodiment of the method according to the invention.

In den Figuren sind identische und funktional identische Elemente mit denselben Referenzzeichen versehen.In the figures, identical and functionally identical elements are provided with the same reference symbols.

In 1 ist eine Verkehrssituation 1 in einer vereinfachten Ansicht gezeigt. Eine Straße 2 ist gezeigt. Auf dieser Straße 2 bewegt sich ein Fahrzeug 3. Darüber hinaus ist beispielsweise jeweils links von der Fahrbahn oder der Straße 2 ein Gebäude 5 angeordnet. Das Gebäude 5 ist ein stationäres Objekt. Es umfasst eine Wand 4. Die Wand 4 ist der Straße 2 zugewandt. Das Gebäude 5 ist beispielsweise ein statisches Objekt in einer Umgebung 6 des Fahrzeugs 3. In der Ausführungsform ist rechts der Straße 2 ein erstes geparktes Fahrzeug 7 und ein zweites geparktes Fahrzeug 8 vorhanden. Diese geparkten Fahrzeuge 7 und 8 sind beispielsweise in Parkbuchten geparkt. Darüber hinaus ist ein weiteres Fahrzeug 9 vorhanden, das sich in der Richtung des Pfeils P bewegt und das in der Fahrtrichtung vor dem Fahrzeug 3 angeordnet ist.In 1 is a traffic situation 1 shown in a simplified view. A street 2 is shown. On this street 2 a vehicle moves 3 . In addition, it is to the left of the lane or the street, for example 2 a building 5 arranged. The building 5 is a stationary object. It includes a wall 4th . The wall 4th is the street 2 facing. The building 5 is for example a static object in an environment 6th of the vehicle 3 . In the embodiment, the street is on the right 2 a first parked vehicle 7th and a second parked vehicle 8th available. These parked vehicles 7th and 8th are parked in parking bays, for example. In addition, there is another vehicle 9 that moves in the direction of arrow P and that in the direction of travel in front of the vehicle 3 is arranged.

Das Fahrzeug 3 weist ein Selbstlokalisierungssystem 10 auf. Das elektronische Selbstlokalisierungssystem 10 umfasst eine Aufnahmeeinheit 11, die auf dem Fahrzeug 3 angeordnet ist. Darüber hinaus umfasst das Selbstlokalisierungssystem 10 eine Bewertungseinheit 12. Die Fahrzeuge 7 und 8 in der Ausführungsform repräsentieren potentiell bewegliche Objekte in der Umgebung 6. Zum Zeitpunkt, zu dem durch die Aufnahmeeinheit 11 eine Aufnahme der Umgebung 6 durchgeführt wird, bewegen sich potentiell bewegliche Objekte 7 und 8 nicht. Da sie allerdings gemäß dem beabsichtigten Zweck dafür gedacht sind, sich zu bewegen, werden sie als potentiell bewegliche Objekte bezeichnet. In der Ausführungsform ist vorgesehen, dass zu dem Zeitpunkt oder in dem Intervall, in dem durch die Aufnahmeeinheit 11 eine Aufnahme aufgenommen wird, eine Bewegung dieses weiteren Fahrzeugs 9 vorgenommen wird.The vehicle 3 exhibits a self-localization system 10 on. The electronic self-localization system 10 comprises a receiving unit 11 that are on the vehicle 3 is arranged. It also includes the self-localization system 10 an evaluation unit 12th . The vehicles 7th and 8th in the embodiment represent potentially moving objects in the environment 6th . At the time when by the acquisition unit 11 a picture of the surroundings 6th is performed, potentially moving objects are moving 7th and 8th not. However, since they are intended to move according to their intended purpose, they are referred to as potentially moving objects. In the embodiment it is provided that at the point in time or in the interval in which by the recording unit 11 a recording is recorded, a movement of this further vehicle 9 is made.

Das Fahrzeug 3 bewegt sich bevorzugt bei Aufnahme, insbesondere in der Richtung des Pfeils P1. Durch die mindestens eine Aufnahmeeinheit 11 darin wird die Umgebung 6 aufgenommen. Insbesondere ist die mindestens eine Aufnahmeeinheit 11 eine optische Aufnahmeeinheit. Insbesondere ist die Aufnahmeeinheit 11 ein Laser-Scanner, insbesondere ein Lidar-Sensor.The vehicle 3 preferably moves when recording, especially in the direction of the arrow P1 . By the at least one receiving unit 11 in it is the environment 6th recorded. In particular, the at least one receiving unit is 11 an optical pickup unit. In particular, the receiving unit 11 a laser scanner, especially a lidar sensor.

In dem Aufnahmeprozess werden beispielsweise auch die Objekte 5, 7, 8 und 9 durch die mindestens eine Aufnahmeeinheit 11 aufgenommen. Eine Bewertung dieser Objekte 5, 7, 8 und 9 dahingehend, ob mindestens ein potentiell bewegliches Objekt, das während des Aufnahmeprozesses still stand, in der Umgebung 6 vorhanden ist. Eine digitale Umgebungskarte ohne solch ein potentiell bewegliches Objekt wird erzeugt. Unter Bezugnahme auf eine solche erzeugte, reduzierte Umgebungskarte wird eine Selbstlokalisierung des Fahrzeugs 3 durchgeführt.In the recording process, for example, the objects 5 , 7th , 8th and 9 through the at least one receiving unit 11 recorded. An evaluation of these objects 5 , 7th , 8th and 9 whether there is at least one potentially moving object in the vicinity that was stationary during the recording process 6th is available. A digital environment map without such a potentially moving object is generated. With reference to such a generated, reduced environment map, the vehicle is self-localized 3 carried out.

Gemäß einer Ausführungsform werden die in 2 schematisch gezeigten Schritte durchgeführt. Falls die optische Aufnahmeeinheit 11 insbesondere ein Laser-Scanner ist, wird die Umgebung 6 durch diesen Laser-Scanner gemäß einem Schritt S1 aufgenommen. Die durch den Laser-Scanner gemäß Schritt S2 aufgenommenen Informationen bilden eine Punktwolke aus Punkten. Gemäß Schritt S3 werden diese Punkte der Punktwolke in ein Koordinatensystem des Fahrzeugs 1 umgewandelt. Diese umgewandelten Informationen bilden eine Scanpunktebenen-Datenbank des Systems 10 dieser aufgenommenen Informationen. In einer Objektebenen-Datenbank des Systems 10, die sich von der Scanpunktebene unterscheidet, werden die aufgenommenen Objekte 5, 7, 8 und 9 gemäß einem Schritt S4 klassifiziert. In dieser Verbindung werden insbesondere Positionen dieser Objekte 5, 7, 8 und 9 mit Bezug auf das Koordinatensystem des Fahrzeugs 3 bestimmt. In 1 sind beispielhaft Punkte 13, die sich auf das statische Objekt 5 beziehen, insbesondere die Wand 4 des statischen Objekts 5, dargestellt. Darüber hinaus sind in 1 Punkte 14 des potentiell beweglichen Objekts 7 sowie Punkte 15 des potentiell beweglichen Objekts 8 symbolisch gezeichnet. Darüber hinaus sind in 1 Punkte 16 symbolisch dargestellt, die durch den Laser-Scanner 11 erzeugt werden. Aufgrund der Tatsache, dass diese in das Koordinatensystem des Fahrzeugs 3 umgewandelten Punkte 13, 14, 15 und 16 bekannt sind und andererseits die klassifizierten Objekte mit deren Positionen in dem Koordinatensystem des Fahrzeugs 3 bekannt sind, kann der Bezug dieser Scanpunkte oder dieser Punkte oder dieser Punkte 13, 14, 15 und 16 zu den klassifizierten Objekten 5, 7, 8 und 9 betroffen sein.According to one embodiment, the in 2 steps shown schematically carried out. If the optical pickup unit 11 In particular, a laser scanner will be the environment 6th by this laser scanner according to one step S1 recorded. The laser scanner according to step S2 recorded information form a point cloud of points. According to step S3 these points of the point cloud are in a coordinate system of the vehicle 1 converted. This converted information forms a scan point level database of the system 10 of this recorded information. In an object level database of the system 10 which is different from the scan point plane, become the captured objects 5 , 7th , 8th and 9 according to one step S4 classified. In this connection, the positions of these objects in particular 5 , 7th , 8th and 9 with reference to the coordinate system of the vehicle 3 certainly. In 1 are exemplary points 13th referring to the static object 5 relate, especially the wall 4th of the static object 5 , shown. In addition, in 1 Points 14th of the potentially moving object 7th as well as points 15th of the potentially moving object 8th symbolically drawn. In addition, in 1 Points 16 symbolically represented by the laser scanner 11 be generated. Due to the fact that this is in the coordinate system of the vehicle 3 converted Points 13th , 14th , 15th and 16 are known and on the other hand the classified objects with their positions in the coordinate system of the vehicle 3 are known, the relation of these scan points or these points or these points can be 13th , 14th , 15th and 16 to the classified objects 5 , 7th , 8th and 9 to be affected.

Dann kann erkannt werden, welche Objekte statische Objekte sind, welche Objekte potentiell bewegliche Objekte sind und welche Objekte zu dem Zeitpunkt oder in dem Zeitintervall der Aufnahme tatsächlich bewegliche Objekte sind.It can then be recognized which objects are static objects, which objects are potentially moving objects and which objects are actually moving objects at the point in time or in the time interval of the recording.

In Abhängigkeit von dieser Beziehung und Einsicht gemäß Schritt S5 wird ein Beseitigen der Punkte 14 und 15 durchgeführt, die sich auf potentiell bewegliche Objekte 7, 8 beziehen.Depending on this relationship and insight according to step S5 becomes an elimination of the points 14th and 15th performed on potentially moving objects 7th , 8th relate.

Insbesondere wird in dieser Ausführungsform auch vorgesehen, dass die Punkte 16, die sich auf das dynamische Objekt oder auf das sich tatsächlich bewegende Objekt 9 beziehen, beseitigt werden. Gemäß einem Schritt S6 wird eine digitale Umgebungskarte erzeugt, die nur jene Punkte 13 umfasst, die mit dem statischen Objekt 5 verknüpft sind. Dies bedeutet, dass eine digitale Umgebungskarte ausgebildet wird, die nur statische Objekte in der Umgebung 6 umfasst.In particular, it is also provided in this embodiment that the points 16 referring to the dynamic object or to the actually moving object 9 relate to be eliminated. According to one step S6 a digital map of the environment is generated that only shows those points 13th includes that with the static object 5 are linked. This means that a digital map of the environment is created that only shows static objects in the environment 6th includes.

Gemäß einem Schritt S7 wird die Selbstlokalisierung des Fahrzeugs 3 auf der Grundlage dieser objektreduzierten digitalen Umgebungskarte, die nur diese statischen Objekte 5 aufweist, durchgeführt.According to one step S7 becomes the self-localization of the vehicle 3 on the basis of this object-reduced digital map of the environment, which only contains these static objects 5 has carried out.

Das Selbstlokalisierungssystem 10 umfasst bevorzugt ein Computerprogrammprodukt. Es umfasst Anweisungen, die, wenn das Programm auf einem Computer ausgeführt wird, insbesondere einer Steuereinheit des Selbstlokalisierungssystems, diesen zum Durchführen des Verfahrens gemäß dem vorerwähnten Aspekt und einer vorteilhaften Ausführungsform davon veranlassen. In dem Verfahren repräsentieren somit nur statische Objekte, hier das statische Objekt 5, eine interessierende Region in der Umgebung 6. Andere statische Objekte können beispielsweise Verkehrszeichen, Bäume, Lichtzeichenanlagen oder dergleichen sein. Diese Aufzählung ist nicht als vollständig aufzufassen. Statische Objekte sind all jene Objekte, die gemäß deren beabsichtigtem Zweck dafür vorgesehen sind, permanent an ihrer Position in der Umgebung 6 zu bleiben. In den Ausführungsformen werden die potentiell beweglichen Objekte 7 und 8 sowie das dynamische Objekt 9 durch den SLAM-Prozess beseitigt.The self-localization system 10 preferably comprises a computer program product. It comprises instructions which, when the program is executed on a computer, in particular a control unit of the self-localization system, cause the latter to carry out the method according to the aforementioned aspect and an advantageous embodiment thereof. In the method, only static objects therefore represent, here the static object 5 , a region of interest in the area 6th . Other static objects can be, for example, traffic signs, trees, traffic lights or the like. This list is not to be taken as complete. Static objects are all those objects which, according to their intended purpose, are intended to be permanently in their position in the environment 6th to stay. In the embodiments, the potentially moving objects 7th and 8th as well as the dynamic object 9 eliminated by the SLAM process.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 10109198 B2 [0002]US 10109198 B2 [0002]

Claims (12)

Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs (3), umfassend die folgenden Schritte: - Aufnehmen der Umgebung (6) des Fahrzeugs (3) durch mindestens eine Aufnahmeeinheit (11) des Fahrzeugs (3); gekennzeichnet durch die folgenden weiteren Schritte: - Bewerten der Objekte (5, 7, 8, 9), aufgenommen in der Umgebung (6) dahingehend, ob mindestens ein potentiell bewegliches Objekt (7, 8), das während der Aufnahme still stand, in der Umgebung (6) vorhanden ist; - Erzeugen einer digitalen Umgebungskarte ohne das potentiell bewegliche Objekt (7, 8), falls ein potentiell bewegliches Objekt (7, 8) aufgenommen wurde; - Durchführen einer Selbstlokalisierung des Fahrzeugs (3) auf der Grundlage der erzeugten digitalen Umgebungskarte.A method for performing a self-localization of a vehicle (3), comprising the following steps: recording the surroundings (6) of the vehicle (3) by at least one recording unit (11) of the vehicle (3); characterized by the following further steps: - Assessment of the objects (5, 7, 8, 9), recorded in the environment (6) to determine whether at least one potentially moving object (7, 8), which was stationary during the recording, in the environment (6) is present; - Generating a digital map of the surroundings without the potentially moving object (7, 8) if a potentially moving object (7, 8) has been recorded; - Carrying out a self-localization of the vehicle (3) on the basis of the generated digital map of the surroundings. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die aufgenommenen Objekte (5, 7, 8, 9) in der Umgebung (6) dahingehend bewertet werden, ob mindestens ein potentiell bewegliches Objekt (9), das sich während der Aufnahme bewegt, in der Umgebung (6) vorhanden ist, wobei die digitale Umgebungskarte ohne das sich bewegende Objekt (9) erzeugt wird, falls ein solches Objekt (9) erkannt wurde.Procedure according to Claim 1 , characterized in that the recorded objects (5, 7, 8, 9) in the environment (6) are evaluated as to whether at least one potentially movable object (9), which moves during the recording, is in the environment (6) is present, the digital environment map being generated without the moving object (9) if such an object (9) has been recognized. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Umgebung (6) durch mindestens zwei verschiedene Aufnahmeeinheiten des Fahrzeugs (3) aufgenommen wird und die Informationen von beiden Aufnahmeeinheiten bei der Bestimmung, ob das sich bewegende Objekt (9) in der Umgebung (6) vorhanden ist, berücksichtigt werden.Procedure according to Claim 2 , characterized in that the environment (6) is recorded by at least two different recording units of the vehicle (3) and the information from both recording units is taken into account when determining whether the moving object (9) is present in the environment (6) will. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die digitale Umgebungskarte derart erzeugt wird, dass sie nur statische Objekte (5) aufweist.Method according to one of the preceding claims, characterized in that the digital map of the surroundings is generated in such a way that it only has static objects (5). Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Erzeugung der Umgebungskarte und/oder die Selbstlokalisierung mit einem SLAM-Algorithmus durchgeführt wird.Method according to one of the preceding claims, characterized in that the generation of the environment map and / or the self-localization is carried out with a SLAM algorithm. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Umgebung durch mindestens eine optische Aufnahmeeinheit (11), insbesondere einen Laser-Scanner, aufgenommen wird.Method according to one of the preceding claims, characterized in that the surroundings are recorded by at least one optical recording unit (11), in particular a laser scanner. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die durch die Aufnahmeeinheit (11) aufgenommenen Informationen eine Punktwolke ausbilden, wobei Punkte (13, 14, 15, 16) der Punktwolke in ein Koordinatensystem des Fahrzeugs (3) umgewandelt werden und durch die umgewandelten Informationen eine Scanpunktebenen-Datenbank der aufgenommenen Informationen ausgebildet wird.Method according to one of the preceding claims, characterized in that the information recorded by the recording unit (11) forms a point cloud, with points (13, 14, 15, 16) of the point cloud being converted into a coordinate system of the vehicle (3) and by the converted information a scan point level database of the recorded information is formed. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine Objektebenen-Datenbank ausgebildet wird und die Objekte (5, 7, 8, 9) in der Objektebenen-Datenbank klassifiziert werden, wobei Positionen der Objekte (5, 7, 8, 9) bezüglich eines Koordinatensystems des Fahrzeugs (3) bestimmt werden.Method according to one of the preceding claims, characterized in that an object level database is formed and the objects (5, 7, 8, 9) are classified in the object level database, with positions of the objects (5, 7, 8, 9) be determined with respect to a coordinate system of the vehicle (3). Verfahren nach Anspruch 7 und 8, dadurch gekennzeichnet, dass abhängig von den aufgenommenen Objekten (5, 7, 8, 9), klassifiziert in der Objektebenen-Datenbank, sich die umgewandelten Informationen der Scanpunktebenen-Datenbank auf diese Objekte beziehen.Procedure according to Claim 7 and 8th , characterized in that depending on the recorded objects (5, 7, 8, 9) classified in the object plane database, the converted information of the scan point plane database relates to these objects. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die umgewandelten Informationen, die die aufgenommenen und potentiell beweglichen Objekte (7, 8) repräsentieren, beseitigt werden, wobei die digitale Umgebungskarte unter Berücksichtigung der verbliebenen umgewandelten Informationen erzeugt wird.Procedure according to Claim 9 , characterized in that the converted information representing the recorded and potentially movable objects (7, 8) is eliminated, the digital environment map being generated taking into account the remaining converted information. Computerprogrammprodukt, das Anweisungen umfasst, die bei Ausführung des Programms durch einen Computer den Computer zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 10 veranlassen .Computer program product which comprises instructions which, when the program is executed by a computer, enable the computer to carry out the method according to one of the Claims 1 until 10 cause. Selbstlokalisierungssystem (10) für ein Fahrzeug (3), umfassend mindestens eine Aufnahmeeinheit (11) und umfassend mindestens eine Bewertungseinheit (12), wobei das Selbstlokalisierungssystem (10) ausgelegt ist zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche.Self-localization system (10) for a vehicle (3), comprising at least one recording unit (11) and comprising at least one evaluation unit (12), the self-localization system (10) being designed to carry out a method according to one of the preceding claims.
DE102020109789.1A 2020-04-08 2020-04-08 Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system Pending DE102020109789A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020109789.1A DE102020109789A1 (en) 2020-04-08 2020-04-08 Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020109789.1A DE102020109789A1 (en) 2020-04-08 2020-04-08 Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system

Publications (1)

Publication Number Publication Date
DE102020109789A1 true DE102020109789A1 (en) 2021-10-14

Family

ID=77851800

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020109789.1A Pending DE102020109789A1 (en) 2020-04-08 2020-04-08 Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system

Country Status (1)

Country Link
DE (1) DE102020109789A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207771A1 (en) 2022-07-28 2024-02-08 Continental Autonomous Mobility Germany GmbH Method and system for dynamically reducing the complexity of a 3D map

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006828A1 (en) 2010-02-03 2011-08-04 Volkswagen AG, 38440 Method for creating model of surrounding of vehicle, involves detecting surrounding of vehicle with help of sensor, where two surrounding models are produced automatically on basis of sensor data
DE102015115012A1 (en) 2015-09-08 2017-03-09 Connaught Electronics Ltd. Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
US10109198B2 (en) 2017-03-08 2018-10-23 GM Global Technology Operations LLC Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems
WO2019044652A1 (en) 2017-08-29 2019-03-07 Sony Corporation Information processing apparatus, information processing method, program, and movable object
US20190258737A1 (en) 2018-02-20 2019-08-22 Zoox, Inc. Creating clean maps including semantic information
DE102018208182A1 (en) 2018-05-24 2019-11-28 Robert Bosch Gmbh Method and device for carrying out at least one safety-enhancing measure for a vehicle
EP3371025B1 (en) 2015-11-03 2019-12-11 Continental Teves AG & Co. OHG Surroundings modeling device for a driver assistance system for a motor vehicle
DE102018122922A1 (en) 2018-09-19 2020-03-19 Valeo Schalter Und Sensoren Gmbh Method of driving a vehicle in a low speed mode

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006828A1 (en) 2010-02-03 2011-08-04 Volkswagen AG, 38440 Method for creating model of surrounding of vehicle, involves detecting surrounding of vehicle with help of sensor, where two surrounding models are produced automatically on basis of sensor data
DE102015115012A1 (en) 2015-09-08 2017-03-09 Connaught Electronics Ltd. Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
EP3371025B1 (en) 2015-11-03 2019-12-11 Continental Teves AG & Co. OHG Surroundings modeling device for a driver assistance system for a motor vehicle
US10109198B2 (en) 2017-03-08 2018-10-23 GM Global Technology Operations LLC Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems
WO2019044652A1 (en) 2017-08-29 2019-03-07 Sony Corporation Information processing apparatus, information processing method, program, and movable object
US20190258737A1 (en) 2018-02-20 2019-08-22 Zoox, Inc. Creating clean maps including semantic information
DE102018208182A1 (en) 2018-05-24 2019-11-28 Robert Bosch Gmbh Method and device for carrying out at least one safety-enhancing measure for a vehicle
DE102018122922A1 (en) 2018-09-19 2020-03-19 Valeo Schalter Und Sensoren Gmbh Method of driving a vehicle in a low speed mode

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207771A1 (en) 2022-07-28 2024-02-08 Continental Autonomous Mobility Germany GmbH Method and system for dynamically reducing the complexity of a 3D map

Similar Documents

Publication Publication Date Title
EP1836681B1 (en) Method for determining the displacement of a vehicle
DE102009050368A1 (en) Method for automatically calibrating a virtual camera
DE102010042026B4 (en) Method for generating an image of at least one object in the surroundings of a vehicle
DE102009036200A1 (en) Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects
DE102008062121A1 (en) A vehicle unit having a vehicle corridor display function, a method for displaying a predicted vehicle trajectory, and a system for generating vehicle corridor marks
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE102015216908A1 (en) Method of detecting objects on a shelf
DE102017216267B4 (en) Method and device for data reduction of feature-based environment information of a driver assistance system
DE102017219282A1 (en) Method and device for automatically generating an artificial neural network
DE102016124978A1 (en) Virtual representation of an environment of a motor vehicle in a driver assistance system with a plurality of projection surfaces
DE102012023060A1 (en) Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram
DE102020109789A1 (en) Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system
DE102011121473A1 (en) A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program
DE102020127278A1 (en) Around-View Synthesis System and Process
DE102014201409A1 (en) PARKING - TRACKING DEVICE AND METHODS THEREOF
DE102008041761A1 (en) Method for determining relative yaw angle between two vehicles i.e. cars, involves calculating orientation angle of wall surface relative to picture recording direction based on relative inclination between determined edges
EP3833576B1 (en) Surveillance camera system
DE102020208080A1 (en) Detection of objects in images under equivariance or invariance with respect to the object size
DE102009043705A1 (en) Method and camera system for generating images for transmission to an external control unit
DE102005002636A1 (en) Video data processing method for camera system, involves applying coordinate transformation to camera image for obtaining transformed camera image, where transformation transfers camera coordinate system to destination coordinate system
DE102018208604A1 (en) Determining a recording behavior of a recording unit
DE102018221625A1 (en) Transfer of additional information between camera systems
DE102019102423A1 (en) Method for live annotation of sensor data
DE102012025463A1 (en) Method for determining e.g. pitch angle change of passenger car to determine proper motion of car in six different degrees of freedom, involves determining parameter based on pair of image features and associated image features of images
DE102014207897A1 (en) Method for generating a display image

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01C0021320000

Ipc: G01C0007040000

R163 Identified publications notified