DE102020109789A1 - Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system - Google Patents
Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system Download PDFInfo
- Publication number
- DE102020109789A1 DE102020109789A1 DE102020109789.1A DE102020109789A DE102020109789A1 DE 102020109789 A1 DE102020109789 A1 DE 102020109789A1 DE 102020109789 A DE102020109789 A DE 102020109789A DE 102020109789 A1 DE102020109789 A1 DE 102020109789A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- objects
- recorded
- self
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs (3), umfassend die folgenden Schritte:
- Aufnehmen einer Umgebung (6) des Fahrzeugs (3) durch mindestens eine Aufnahmeeinheit (11) des Fahrzeugs (3); gekennzeichnet durch die folgenden weiteren Schritte:
- Bewerten von Objekten (5, 7, 8, 9), aufgenommen in der Umgebung (6) dahingehend, ob mindestens ein potentiell bewegliches Objekt (7, 8), das während der Aufnahme still stand, in der Umgebung (6) vorhanden ist;
- Erzeugen einer digitalen Umgebungskarte ohne das potentiell bewegliche Objekt (7, 8), falls ein potentiell bewegliches Objekt (7, 8) aufgenommen wurde;
- Durchführen einer Selbstlokalisierung des Fahrzeugs (3) auf der Grundlage der erzeugten digitalen Umgebungskarte.
Die Erfindung betrifft auch ein Computerprogrammprodukt und ein Selbstlokalisierungssystem (10).
The invention relates to a method for performing a self-localization of a vehicle (3), comprising the following steps:
- Recording the surroundings (6) of the vehicle (3) by at least one recording unit (11) of the vehicle (3); characterized by the following further steps:
- Assessment of objects (5, 7, 8, 9) recorded in the environment (6) to determine whether at least one potentially moving object (7, 8), which was stationary during the recording, is present in the environment (6) ;
- Generating a digital map of the surroundings without the potentially moving object (7, 8) if a potentially moving object (7, 8) has been recorded;
- Carrying out a self-localization of the vehicle (3) on the basis of the generated digital map of the surroundings.
The invention also relates to a computer program product and a self-localization system (10).
Description
Ein Aspekt der Erfindung betrifft ein Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs. Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt sowie ein Selbstlokalisierungssystem für ein Fahrzeug.One aspect of the invention relates to a method for performing self-localization of a vehicle. Another aspect of the invention relates to a computer program product and a self-localization system for a vehicle.
Aus
Darüber hinaus ist bekannt, dass ein Fahrzeug unter Bezugnahme auf eine digitale Umgebungskarte eine Selbstlokalisierung durchführt. Somit kann das Fahrzeug seine eigene Position in der Umgebung relativ zu Objekten, die in der Umgebung vorhanden sind, bestimmen.In addition, it is known that a vehicle carries out a self-localization with reference to a digital map of the surroundings. The vehicle can thus determine its own position in the environment relative to objects that are present in the environment.
Solche digitalen Umgebungskarten sind hinsichtlich ihrer Dateigröße sehr groß. Dies bedeutet auch, dass relativ viel Speicherplatz benötigt wird. Dies kann auch zu langsameren Verarbeitungsschritten und Bestimmungsschritten führen.Such digital maps of the environment are very large in terms of their file size. This also means that a relatively large amount of storage space is required. This can also lead to slower processing steps and determination steps.
Darüber hinaus sind in den bekannten Umgebungskarten gemeinhin viele Objekte enthalten, die möglicherweise nicht erforderlich oder für eine Selbstlokalisierung nachteilig sind.In addition, the known environment maps generally contain many objects that may not be necessary or are disadvantageous for self-localization.
Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren, ein Computerprogrammprodukt und ein Selbstlokalisierungssystem bereitzustellen, in dem die Selbstlokalisierung auf der Grundlage einer stärker angepassten, verbesserten digitalen Umgebungskarte durchgeführt wird.It is the object of the present invention to provide a method, a computer program product and a self-localization system in which the self-localization is carried out on the basis of a more adapted, improved digital map of the surroundings.
Dieses Ziel wird durch ein Verfahren, ein Computerprogrammprodukt und ein Selbstlokalisierungssystem nach den unabhängigen Ansprüchen erreicht.This aim is achieved by a method, a computer program product and a self-localization system according to the independent claims.
Ein Aspekt der Erfindung betrifft ein Verfahren zum Durchführen einer Selbstlokalisierung eines Fahrzeugs, insbesondere eines voll autonom fahrenden Fahrzeugs. Anfangs wird in dem Verfahren die Umgebung des Fahrzeugs mittels mindestens einer Aufnahmeeinheit des Fahrzeugs aufgenommen. Dann wird eine Bewertung der in der Umgebung aufgenommenen Objekte durchgeführt, um festzustellen, ob mindestens ein potentiell bewegliches Objekt vorhanden ist. Ein potentiell bewegliches Objekt ist ein solches Objekt, das während der Aufnahme stillsteht, das allerdings grundsätzlich dafür qualifiziert ist, sich selbst zu bewegen. Dies kann beispielsweise ein anderes Fahrzeug sein, wie etwa ein Personenkraftfahrzeug, ein Laster, ein Motorrad, ein Fahrrad oder dergleichen. Diese können allerdings aber auch Objekte wie etwa eine Mülltonne oder ein Abfalleimer sein. Ein potentiell bewegliches Objekt ist somit insbesondere ein solches Objekt, das gemäß dem beabsichtigten Zweck zu dem Zwecke vorgesehen ist, bewegt zu werden, das in diesem Zusammenhang auch zerstörungsfrei hinsichtlich seiner Position reversibel geändert werden kann.One aspect of the invention relates to a method for performing self-localization of a vehicle, in particular a fully autonomous vehicle. Initially, in the method, the surroundings of the vehicle are recorded by means of at least one recording unit of the vehicle. An assessment of the objects recorded in the environment is then carried out in order to determine whether at least one potentially moving object is present. A potentially moving object is an object that stands still during the recording, but which is basically qualified to move itself. This can be, for example, another vehicle, such as a passenger vehicle, a truck, a motorcycle, a bicycle or the like. However, these can also be objects such as a garbage can or a garbage can. A potentially movable object is thus in particular such an object that is provided for the purpose of being moved in accordance with the intended purpose and that in this context can also be reversibly changed with regard to its position in a non-destructive manner.
In diesem Verfahren wird dann eine digitale Umgebungskarte ohne ein potentiell bewegliches Objekt erzeugt. Dies bedeutet, dass, falls ein solches potentiell bewegliches Objekt in der Umgebung aufgenommen wurde, dieses bei der Erzeugung der digitalen Umgebungskarte nicht berücksichtigt wird. Infolgedessen wird es beseitigt. Diese digitale Umgebungskarte wird bereitgestellt, die in diesem Zusammenhang hinsichtlich Objekten reduziert ist. Ein Durchführen einer Selbstlokalisierung des Fahrzeugs wird auf der Grundlage von dieser erzeugten, reduzierten digitalen Umgebungskarte vorgenommen. Durch eine derartige Auslegung wird es erleichtert, eine verbesserte digitale Umgebungskarte für diesen Verwendungszweck zu liefern. Dies muss insbesondere im Hinblick auf das Datenvolumen dieser digitalen Umgebungskarte betrachtet werden. Ein ganz besonderer Vorteil dieses Ansatzes liegt auch darin, dass solche potentiell beweglichen Objekte, die zur Zeit der Aufnahme still standen, möglicherweise zu Fehlern bei der Selbstlokalisierung führen. Falls diese potentiell beweglichen Objekte in der digitalen Umgebungskarte enthalten sind und in dieser Hinsicht nicht detaillierter klassifiziert sind, ist dem so, weil sie irrtümlich auch als statische Objekte verstanden wurden. Wenn dann diese digitale Umgebungskarte verwendet wird und falls solch ein potentiell bewegliches Objekt zwischenzeitlich entfernt wurde, weil es beispielsweise weggefahren ist, stimmt die aufgenommene Umgebung nicht mehr mit der digitalen Umgebungskarte überein. Die Selbstlokalisierung kann daher nur fehlerbehaftet durchgeführt werden. Durch das vorgeschlagene Verfahren wird nun eine dementsprechend deutlich verbesserte digitale Umgebungskarte bereitgestellt. Falls solche potentiell beweglichen Objekte, falls sie vorhanden sind und erkannt wurden, beseitigt werden und nicht mehr in der digitalen Umgebungskarte vorhanden sind, können solche Fehlbewertungen vermieden werden. Selbst wenn solche potentiell beweglichen Objekte zur Zeit der Aufnahme weiter vorhanden waren und aufgenommen wurden, danach aber aus ihren Positionen heraus bewegt wurden, hat dies keinen Einfluss auf die Leistungsfähigkeit der Selbstlokalisierung des Fahrzeugs. Da dieses potentiell bewegliche Objekt im Allgemeinen nicht weiter in der digitalen Umgebungskarte berücksichtigt wird, kann es auch nicht mehr für Selbstlokalisierung verwendet werden. Dies bedeutet, dass es nicht länger relevant ist, ob solch ein potentiell bewegliches Objekt nach dem Aufnehmen bewegt wurde oder nicht, da diese Objekte somit keinen Einfluss auf das Durchführen der Selbstlokalisierung haben.In this method, a digital map of the environment is then generated without a potentially moving object. This means that if such a potentially movable object was recorded in the environment, it will not be taken into account when generating the digital environment map. As a result, it will be eliminated. This digital environment map is provided, which is reduced in terms of objects in this context. A self-localization of the vehicle is carried out on the basis of this generated, reduced digital environment map. Such a design makes it easier to provide an improved digital environment map for this purpose. This must be considered in particular with regard to the data volume of this digital map of the surroundings. A very special advantage of this approach is that such potentially moving objects, which were stationary at the time of the recording, may lead to errors in the self-localization. If these potentially movable objects are contained in the digital map of the surroundings and are not classified in more detail in this regard, this is because they were erroneously also understood as static objects. If this digital environment map is then used and if such a potentially movable object has been removed in the meantime, for example because it has driven away, the recorded environment no longer corresponds to the digital environment map. The self-localization can therefore only be carried out with errors. The proposed method now provides a correspondingly significantly improved digital map of the surroundings. If such potentially movable objects, if they exist and have been recognized, are eliminated and no longer exist in the digital map of the surroundings, such incorrect assessments can be avoided. Even if such potentially movable objects were still present at the time of the recording and were recorded, but were then moved out of their positions, this has no influence on the performance of the self-localization of the vehicle. Since this potentially moving object is generally no longer in the digital map of the area is taken into account, it can no longer be used for self-localization. This means that it is no longer relevant whether or not such a potentially movable object was moved after the recording, since these objects thus have no influence on the implementation of the self-localization.
Bevorzugt wird durch die mindestens eine Aufnahmeeinheit mindestens ein Bild der Umgebung erzeugt und ein potentiell bewegliches Objekt wird in einem Bild durch ein Bewertungsverfahren erkannt. Es ist insbesondere vorteilhaft, wenn einige Bilder der Umgebung erzeugt werden und ein potentiell bewegliches Objekt in einem Bild durch ein Bewertungsverfahren erkannt wird. Durch diese Verbindung einiger Bilder können möglicherweise verschiedene Perspektiven hinsichtlich des Objekts erzeugt werden. Dadurch kann möglicherweise das Erkennen eines potentiell beweglichen Objekts, das zur Zeit der Aufnahme still stand, auf eine verbesserte Weise bewirkt werden. Dies kann man sich vorstellen, wenn die Aufnahmeeinheit eine Kamera ist.At least one image of the surroundings is preferably generated by the at least one recording unit and a potentially moving object is recognized in an image by an evaluation method. It is particularly advantageous if some images of the surroundings are generated and a potentially moving object is recognized in an image by an evaluation method. This connection of some images can possibly create different perspectives with regard to the object. In this way, the detection of a potentially moving object which was stationary at the time of the recording can possibly be effected in an improved manner. This can be imagined if the recording unit is a camera.
Bei einer vorteilhaften Ausführungsform werden die aufgenommenen Objekte in der Umgebung dahingehend bewertet, ob sich ein bewegtes Objekt, das sich während der Aufnahme bewegt, in der Umgebung vorhanden ist. Die digitale Umgebungskarte wird in einer vorteilhaften Ausführungsform ohne solch ein sich tatsächlich bewegendes Objekt erzeugt, wenn solch ein sich tatsächlich bewegendes Objekt erkannt wurde. Insbesondere kann man sich vorstellen, dass für diesen Ansatz einige Bilder, beispielsweise auch ein Video der Aufnahmeeinheit aufgezeichnet wird. Insbesondere ist dies dann vorteilhaft, wenn die Aufnahmeeinheit eine Kamera ist. Dabei werden Objekte, die sich zur Aufnahmezeit oder -dauer tatsächlich bewegen, jeweils sehr genau erkannt werden. Durch Beseitigen auch zu der Zeit der Aufnahme der sich tatsächlich bewegenden Objekte kann die digitale Umgebungskarte noch stärker an die Anforderungen für das Durchführen einer Selbstlokalisierung angepasst werden.In an advantageous embodiment, the recorded objects in the environment are evaluated as to whether a moving object, which moves during the recording, is present in the environment. In an advantageous embodiment, the digital environment map is generated without such an actually moving object if such an actually moving object has been recognized. In particular, one can imagine that some images, for example also a video of the recording unit, are recorded for this approach. This is particularly advantageous when the recording unit is a camera. Objects that are actually moving at the time or duration of the recording are recognized very precisely. By eliminating even at the time of recording the actually moving objects, the digital environment map can be adapted even more to the requirements for performing self-localization.
Insbesondere enthält eine erzeugte digitale Umgebungskarte dann nur tatsächlich statische Objekte, die gemäß dem beabsichtigten Zweck auch für permanente statische Anordnung in ihrer Position beabsichtigt sind. Somit kann eine besonders reduzierte digitale Umgebungskarte bereitgestellt werden. Sie ist hinsichtlich ihrer Dateigröße minimiert und erlaubt Reduzieren der oben genannten Interpretation bei einer Selbstlokalisierung des Fahrzeugs auf ein bestimmtes Ausmaß.In particular, a generated digital map of the surroundings then only actually contains static objects which, according to the intended purpose, are also intended for permanent static arrangement in their position. A particularly reduced digital map of the surroundings can thus be provided. It is minimized with regard to its file size and allows the above-mentioned interpretation to be reduced to a certain extent when the vehicle is self-localizing.
Bei einer vorteilhaften Ausführungsform wird die Umgebung durch mindestens zwei verschiedene Aufnahmeeinheiten des Fahrzeugs aufgenommen. Die Informationen der zwei Aufnahmeeinheiten werden bei der Bestimmung, ob ein sich bewegendes Objekt in der Umgebung vorhanden ist, berücksichtigt. Auch können durch solche Auslegung die Objekte erkannt werden, die sich zur Aufnahmezeit tatsächlich bewegen.In an advantageous embodiment, the surroundings are recorded by at least two different recording units of the vehicle. The information from the two recording units is taken into account when determining whether a moving object is present in the vicinity. Such a design also makes it possible to identify the objects that are actually moving at the time of recording.
Wie oben bereits erwähnt wurde, wird die digitale Umgebungskarte bei einer vorteilhaften Ausführungsform auf solche Weise erzeugt, dass sie nur in der Umgebung aufgenommene statische Objekte umfasst.As already mentioned above, in an advantageous embodiment the digital map of the environment is generated in such a way that it only includes static objects recorded in the environment.
Die Erzeugung der digitalen Umgebungskarte und/oder die Selbstlokalisierung wird vorzugsweise mit einem SLAM-Algorithmus durchgeführt. Solch ein SLAM-Algorithmus (simultaneous localization and mapping - simultane Lokalisierung und Kartierung) ermöglicht eine simultane Positionsbestimmung und Kartenbestimmung.The generation of the digital map of the surroundings and / or the self-localization is preferably carried out with a SLAM algorithm. Such a SLAM algorithm (simultaneous localization and mapping) enables simultaneous position determination and map determination.
Bei einer vorteilhaften Ausführungsform wird die Umgebung durch mindestens eine optische Aufnahmeeinheit des Fahrzeugs aufgenommen. Die optische Aufnahmeeinheit ist besonders bevorzugt ein Laser-Scanner, insbesondere ein Lidar-Sensor. Ein solcher Sensor kann die Umgebung auf eine besonders vorteilhafte Weise aufnehmen, auch mit einer entsprechend größeren Reichweite.In an advantageous embodiment, the surroundings are recorded by at least one optical recording unit of the vehicle. The optical recording unit is particularly preferably a laser scanner, in particular a lidar sensor. Such a sensor can record the surroundings in a particularly advantageous way, even with a correspondingly greater range.
Insbesondere können die durch die Aufnahmeeinheit aufgenommenen Informationen eine Punktwolke bilden. Punkte der Punktwolke werden in das Koordinatensystem des Fahrzeugs umgewandelt. Die umgewandelten Informationen bilden eine Scanpunktebenen-Datenbank der aufgenommenen Informationen. Durch solch eine Scanpunktebene wird eine Informationsebene für die aufgenommenen Informationen erschaffen, die von sehr einfachem Aussehen ist. Durch die Punkte der Punktwolke werden die aufgenommenen Objekte charakterisiert. Auf dieser Ebene der Scanpunktebene ist allerdings noch nicht vorgesehen, dass diese Punkte auch bereits klar definierte Objekte charakterisieren, die dann auch als solche bekannt sind. Daher weiß man hier noch nicht, was für Objekte das sind.In particular, the information recorded by the recording unit can form a point cloud. Points in the point cloud are converted into the vehicle's coordinate system. The converted information forms a scan point level database of the recorded information. Such a scan point plane creates an information plane for the recorded information which is very simple in appearance. The recorded objects are characterized by the points of the point cloud. At this level of the scan point plane, however, it is not yet provided that these points also characterize clearly defined objects which are then also known as such. Therefore, one does not yet know what kind of objects these are.
Eine solche Datenbank kann relativ einfach gehandhabt werden und ist hinsichtlich Bereitstellung der Daten und der weiteren Verarbeitung vorteilhaft. Insbesondere auf der Grundlage dieser charakteristischen Punkte kann die digitale Umgebungskarte erzeugt werden.Such a database can be handled relatively easily and is advantageous with regard to the provision of the data and the further processing. The digital map of the surroundings can be generated in particular on the basis of these characteristic points.
Vorzugsweise ist vorgesehen dass Objekte in einer Objektebenen-Datenbank des Verfahrens klassifiziert werden. Zu diesem Zweck werden Positionen von Objekten in Bezug auf ein Koordinatensystem des Fahrzeugs bestimmt. Die Objektebenen-Datenbank ist eine Datenebene oder verschiedene Datenebenen, die sich von der Scanpunktebenen-Datenbank unterscheidet bzw. unterscheiden. In der Objektebenen-Datenbank sind tatsächliche konkrete Objekte definiert und klassifiziert. Dies bedeutet, dass es insbesondere auch bekannt ist, welche Objekte in der Umgebung des Fahrzeugs aufgenommen wurden. In dieser Objektebenen-Datenbank kann somit die konkrete Bezugsherstellung von Objekten durchgeführt werden.It is preferably provided that objects are classified in an object level database of the method. For this purpose, positions of objects in relation to a coordinate system of the vehicle are determined. The object level database is a data level or different data levels that differ from the scan point level Database distinguishes or distinguishes. Actual concrete objects are defined and classified in the object level database. This means that in particular it is also known which objects were recorded in the vicinity of the vehicle. The specific reference production of objects can thus be carried out in this object level database.
Bei einer weiteren sehr vorteilhaften Ausführungsform wird vorgesehen, dass, in Abhängigkeit von den in der Objektebenen-Datenbank aufgenommenen klassifizierten Objekten, die umgewandelten Informationen der Objektebenen-Datenbank mit diesen Objekten in Beziehung stehen. Daher wird vorteilhafterweise eine Beziehung der Scanpunktebene mit konkreten klassifizierten Objekten der Objektebenen-Datenbank hergestellt. Dies ist dafür sehr vorteilhaft, dass somit für die Punkte der Scanpunktebene auch leicht erkannt werden kann, welche potentiell bewegliche Objekte sind.In a further very advantageous embodiment, it is provided that, depending on the classified objects recorded in the object level database, the converted information in the object level database is related to these objects. A relationship between the scan point plane and specific classified objects in the object plane database is therefore advantageously established. This is very advantageous for the fact that for the points of the scan point plane it can also easily be recognized which are potentially moving objects.
Vorteilhafterweise werden jene Stücke der umgewandelten Informationen beseitigt, die die aufgenommenen und potentiell beweglichen Objekte repräsentieren. Die mit potentiell beweglichen Objekten assoziierten Punkte der Scanpunktebene werden somit beseitigt. Unter Berücksichtigung der verbliebenen umgewandelten Informationen wird die digitale Umgebungskarte erzeugt. Insbesondere kann die digitale Umgebungskarte dann bevorzugt nur jene Punkte umfassen, die statische Objekte charakterisieren.Advantageously, those pieces of the converted information which represent the recorded and potentially moving objects are eliminated. The points of the scan point plane associated with potentially moving objects are thus eliminated. The digital map of the surroundings is generated taking into account the remaining converted information. In particular, the digital map of the surroundings can then preferably only include those points which characterize static objects.
Ein Ansatz, der unter Bezugnahme auf die Ausführungsformen für die Scanpunktebene und die Objektebenen-Datenbank dargelegt wurde, kann als eine Grundlage für die verschiedensten Aufnahmeeinheiten verwendet werden. Beispielsweise können diese auch Radar-Sensoren oder Ultraschall-Sensoren sein. Dies ist insbesondere für optische Aufnahmeeinheiten vorteilhaft, insbesondere für Laser-Scanner.An approach that has been presented with reference to the embodiments for the scan point plane and the object plane database can be used as a basis for the most varied of recording units. For example, these can also be radar sensors or ultrasonic sensors. This is particularly advantageous for optical recording units, in particular for laser scanners.
Ein Laser-Scanner, wie etwa beispielsweise solch ein Lidar-Sensor, nimmt die Umgebung auf. Die in dieser Verbindung aufgenommenen Informationen produzieren eine Punktwolke. Im Falle eines Laser-Scanners ist eine Punktwolke eine Matrix, in welcher die Werte an den Matrixpositionen jeweils eine Distanz repräsentieren. Die Spalten dieser Matrix repräsentieren verschiedene Horizontalwinkel und die Zeilen dieser Matrix repräsentieren verschiedene Vertikalwinkel. Wenn diese Einträge in die Matrix und somit die jeweiligen Winkelwerte in ein Koordinatensystem, insbesondere ein kartesisches Koordinatensystem des Fahrzeugs umgewandelt werden, wird dadurch insbesondere eine Information auf der Grundlage der Scanpunktebene produziert.A laser scanner, such as such a lidar sensor, records the surroundings. The information recorded in this connection produces a point cloud. In the case of a laser scanner, a point cloud is a matrix in which the values at the matrix positions each represent a distance. The columns of this matrix represent different horizontal angles and the rows of this matrix represent different vertical angles. When these entries in the matrix and thus the respective angle values are converted into a coordinate system, in particular a Cartesian coordinate system of the vehicle, information is produced in particular on the basis of the scan point plane.
Um nunmehr in der Lage zu sein, potentiell dynamische Objekte zu beseitigen, ist es im Falle dieses Laser-Scanners auch vorteilhaft, die zusätzliche Datenebene in der Form der Objektebenen-Datenbank zu verwenden. In dieser Objektebenen-Datenbank wird vorteilhafterweise vorgesehen, dass auch für jeden Punkt Positionen in dem Koordinatensystem, insbesondere dem kartesischen Koordinatensystem des Fahrzeugs bekannt sind. Um in der Lage zu sein, aufgenommene Objekte aus den aufgenommenen Informationen zu beseitigen, wird auf eine einfache Weise die Position des Objekts in diesem Koordinatensystem genommen und die Scanpunkte der betreffenden Punktwolke werden in dem Koordinatensystem entfernt. Dadurch werden wiederum reduzierte Punktinformationen der umgewandelten Informationen erhalten, die insbesondere die reduzierte digitale Umgebungskarte bilden. In der Objektebenen-Datenbank wird ein hoher Abstraktionsgrad der Informationen hinsichtlich der Objekte erreicht. In dieser Hinsicht wird hier bereits eine genauere Beziehung zu konkreten Objekten erleichtert. Auf der Scanpunktebene ist das Abstraktionsniveau relativ gering. Die Umgebung wird lediglich durch die bereits erwähnten Punkte der Punktwolke charakterisiert. Die Klassifikation als tatsächliche Objekte wird auf dieser Ebene nicht gegeben.In order to now be able to eliminate potentially dynamic objects, it is also advantageous in the case of this laser scanner to use the additional data level in the form of the object level database. In this object plane database, it is advantageously provided that positions in the coordinate system, in particular the Cartesian coordinate system of the vehicle, are also known for each point. In order to be able to remove recorded objects from the recorded information, the position of the object in this coordinate system is taken in a simple manner and the scan points of the point cloud in question are removed from the coordinate system. As a result, reduced point information of the converted information is obtained in turn, which in particular forms the reduced digital map of the surroundings. A high degree of abstraction of the information regarding the objects is achieved in the object level database. In this regard, a more precise relationship to concrete objects is already facilitated here. At the scan point level, the level of abstraction is relatively low. The environment is only characterized by the already mentioned points of the point cloud. The classification as actual objects is not given at this level.
Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt, das Anweisungen umfasst, die bei Ausführung des Programms durch einen Computer diesen zum Durchführen des Verfahrens gemäß dem oben genannten Aspekt oder einer vorteilhaften Implementation davon veranlassen .Another aspect of the invention relates to a computer program product which comprises instructions which, when the program is executed by a computer, cause the computer to carry out the method according to the above-mentioned aspect or an advantageous implementation thereof.
Ein weiterer Aspekt der Erfindung betrifft ein elektronisches Selbstlokalisierungssystem für ein Fahrzeug. Das Selbstlokalisierungssystem umfasst mindestens eine Aufnahmeeinheit des Fahrzeugs. Das Selbstlokalisierungssystem umfasst darüber hinaus mindestens eine Bewertungseinheit des Fahrzeugs. Das Selbstlokalisierungssystem ist ausgelegt zum Durchführen des Verfahrens gemäß dem oben genannten Aspekt oder einer vorteilhaften Implementation davon. Insbesondere wird dadurch das Verfahren durchgeführt.Another aspect of the invention relates to an electronic self-localization system for a vehicle. The self-localization system comprises at least one recording unit of the vehicle. The self-localization system also includes at least one evaluation unit of the vehicle. The self-localization system is designed to carry out the method according to the above-mentioned aspect or an advantageous implementation thereof. In particular, the method is carried out as a result.
Weitere Merkmale der Erfindung werden aus den Ansprüchen, den Figuren und der Beschreibung der Figuren ersichtlich. Die oben in der Beschreibung erwähnten Merkmale und Merkmalskombinationen sowie die unten in der Beschreibung der Figuren erwähnten und/oder alleinig in den Figuren gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweiligen spezifizierten Kombination verwendbar, sondern auch in anderen Kombinationen, ohne vom Schutzumfang der Erfindung abzuweichen. Somit sind auch Implementierungen als durch die Erfindung eingeschlossen und offenbart anzusehen, die nicht ausdrücklich in den Figuren gezeigt und erläutert sind, können aber aus separaten Merkmalskombinationen der erläuterten Implementierungen hervorgehen und durch diese erzeugt werden. Implementierungen und Merkmalskombinationen, die somit nicht alle der Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen, sind auch als offenbart anzusehen.Further features of the invention are evident from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description as well as the features and combinations of features mentioned below in the description of the figures and / or shown solely in the figures can be used not only in the respective specified combination, but also in other combinations without falling from the scope of protection of the invention to deviate. Thus, implementations are also to be regarded as encompassed and disclosed by the invention that are not expressly included in FIGS Figures are shown and explained, but can arise from separate combinations of features of the explained implementations and can be generated by them. Implementations and combinations of features, which therefore do not have all of the features of an originally formulated independent claim, are also to be regarded as disclosed.
Ausführungsformen der Erfindung werden im Folgenden unter Bezugnahme auf schematische Zeichnungen ausführlicher erläutert.Embodiments of the invention are explained in more detail below with reference to schematic drawings.
Diese zeigen in:
-
1 eine simplifizierte Ansicht eines Verkehrsszenariums mit einem Fahrzeug, das auf der Grundlage einer digitalen Umgebungskarte eine Selbstlokalisierung durchführen soll. -
2 ein schematisches Flussdiagramm mit einer Ausführungsform des erfindungsgemäßen Verfahrens.
-
1 a simplified view of a traffic scenario with a vehicle that is supposed to carry out a self-localization on the basis of a digital map of the surroundings. -
2 a schematic flow diagram with an embodiment of the method according to the invention.
In den Figuren sind identische und funktional identische Elemente mit denselben Referenzzeichen versehen.In the figures, identical and functionally identical elements are provided with the same reference symbols.
In
Das Fahrzeug
Das Fahrzeug
In dem Aufnahmeprozess werden beispielsweise auch die Objekte
Gemäß einer Ausführungsform werden die in
Dann kann erkannt werden, welche Objekte statische Objekte sind, welche Objekte potentiell bewegliche Objekte sind und welche Objekte zu dem Zeitpunkt oder in dem Zeitintervall der Aufnahme tatsächlich bewegliche Objekte sind.It can then be recognized which objects are static objects, which objects are potentially moving objects and which objects are actually moving objects at the point in time or in the time interval of the recording.
In Abhängigkeit von dieser Beziehung und Einsicht gemäß Schritt
Insbesondere wird in dieser Ausführungsform auch vorgesehen, dass die Punkte
Gemäß einem Schritt
Das Selbstlokalisierungssystem
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 10109198 B2 [0002]US 10109198 B2 [0002]
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020109789.1A DE102020109789A1 (en) | 2020-04-08 | 2020-04-08 | Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020109789.1A DE102020109789A1 (en) | 2020-04-08 | 2020-04-08 | Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020109789A1 true DE102020109789A1 (en) | 2021-10-14 |
Family
ID=77851800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020109789.1A Pending DE102020109789A1 (en) | 2020-04-08 | 2020-04-08 | Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020109789A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022207771A1 (en) | 2022-07-28 | 2024-02-08 | Continental Autonomous Mobility Germany GmbH | Method and system for dynamically reducing the complexity of a 3D map |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010006828A1 (en) | 2010-02-03 | 2011-08-04 | Volkswagen AG, 38440 | Method for creating model of surrounding of vehicle, involves detecting surrounding of vehicle with help of sensor, where two surrounding models are produced automatically on basis of sensor data |
DE102015115012A1 (en) | 2015-09-08 | 2017-03-09 | Connaught Electronics Ltd. | Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle |
US10109198B2 (en) | 2017-03-08 | 2018-10-23 | GM Global Technology Operations LLC | Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems |
WO2019044652A1 (en) | 2017-08-29 | 2019-03-07 | Sony Corporation | Information processing apparatus, information processing method, program, and movable object |
US20190258737A1 (en) | 2018-02-20 | 2019-08-22 | Zoox, Inc. | Creating clean maps including semantic information |
DE102018208182A1 (en) | 2018-05-24 | 2019-11-28 | Robert Bosch Gmbh | Method and device for carrying out at least one safety-enhancing measure for a vehicle |
EP3371025B1 (en) | 2015-11-03 | 2019-12-11 | Continental Teves AG & Co. OHG | Surroundings modeling device for a driver assistance system for a motor vehicle |
DE102018122922A1 (en) | 2018-09-19 | 2020-03-19 | Valeo Schalter Und Sensoren Gmbh | Method of driving a vehicle in a low speed mode |
-
2020
- 2020-04-08 DE DE102020109789.1A patent/DE102020109789A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010006828A1 (en) | 2010-02-03 | 2011-08-04 | Volkswagen AG, 38440 | Method for creating model of surrounding of vehicle, involves detecting surrounding of vehicle with help of sensor, where two surrounding models are produced automatically on basis of sensor data |
DE102015115012A1 (en) | 2015-09-08 | 2017-03-09 | Connaught Electronics Ltd. | Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle |
EP3371025B1 (en) | 2015-11-03 | 2019-12-11 | Continental Teves AG & Co. OHG | Surroundings modeling device for a driver assistance system for a motor vehicle |
US10109198B2 (en) | 2017-03-08 | 2018-10-23 | GM Global Technology Operations LLC | Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems |
WO2019044652A1 (en) | 2017-08-29 | 2019-03-07 | Sony Corporation | Information processing apparatus, information processing method, program, and movable object |
US20190258737A1 (en) | 2018-02-20 | 2019-08-22 | Zoox, Inc. | Creating clean maps including semantic information |
DE102018208182A1 (en) | 2018-05-24 | 2019-11-28 | Robert Bosch Gmbh | Method and device for carrying out at least one safety-enhancing measure for a vehicle |
DE102018122922A1 (en) | 2018-09-19 | 2020-03-19 | Valeo Schalter Und Sensoren Gmbh | Method of driving a vehicle in a low speed mode |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022207771A1 (en) | 2022-07-28 | 2024-02-08 | Continental Autonomous Mobility Germany GmbH | Method and system for dynamically reducing the complexity of a 3D map |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1836681B1 (en) | Method for determining the displacement of a vehicle | |
DE102009050368A1 (en) | Method for automatically calibrating a virtual camera | |
DE102010042026B4 (en) | Method for generating an image of at least one object in the surroundings of a vehicle | |
DE102009036200A1 (en) | Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects | |
DE102008062121A1 (en) | A vehicle unit having a vehicle corridor display function, a method for displaying a predicted vehicle trajectory, and a system for generating vehicle corridor marks | |
DE102011111440A1 (en) | Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment | |
DE102015216908A1 (en) | Method of detecting objects on a shelf | |
DE102017216267B4 (en) | Method and device for data reduction of feature-based environment information of a driver assistance system | |
DE102017219282A1 (en) | Method and device for automatically generating an artificial neural network | |
DE102016124978A1 (en) | Virtual representation of an environment of a motor vehicle in a driver assistance system with a plurality of projection surfaces | |
DE102012023060A1 (en) | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram | |
DE102020109789A1 (en) | Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system | |
DE102011121473A1 (en) | A method for displaying images on a display device of a motor vehicle, driver assistance device, motor vehicle and computer program | |
DE102020127278A1 (en) | Around-View Synthesis System and Process | |
DE102014201409A1 (en) | PARKING - TRACKING DEVICE AND METHODS THEREOF | |
DE102008041761A1 (en) | Method for determining relative yaw angle between two vehicles i.e. cars, involves calculating orientation angle of wall surface relative to picture recording direction based on relative inclination between determined edges | |
EP3833576B1 (en) | Surveillance camera system | |
DE102020208080A1 (en) | Detection of objects in images under equivariance or invariance with respect to the object size | |
DE102009043705A1 (en) | Method and camera system for generating images for transmission to an external control unit | |
DE102005002636A1 (en) | Video data processing method for camera system, involves applying coordinate transformation to camera image for obtaining transformed camera image, where transformation transfers camera coordinate system to destination coordinate system | |
DE102018208604A1 (en) | Determining a recording behavior of a recording unit | |
DE102018221625A1 (en) | Transfer of additional information between camera systems | |
DE102019102423A1 (en) | Method for live annotation of sensor data | |
DE102012025463A1 (en) | Method for determining e.g. pitch angle change of passenger car to determine proper motion of car in six different degrees of freedom, involves determining parameter based on pair of image features and associated image features of images | |
DE102014207897A1 (en) | Method for generating a display image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G01C0021320000 Ipc: G01C0007040000 |
|
R163 | Identified publications notified |