DE102021214763A1 - Method and control device for controlling an automated vehicle - Google Patents
Method and control device for controlling an automated vehicle Download PDFInfo
- Publication number
- DE102021214763A1 DE102021214763A1 DE102021214763.1A DE102021214763A DE102021214763A1 DE 102021214763 A1 DE102021214763 A1 DE 102021214763A1 DE 102021214763 A DE102021214763 A DE 102021214763A DE 102021214763 A1 DE102021214763 A1 DE 102021214763A1
- Authority
- DE
- Germany
- Prior art keywords
- dynamic
- automated vehicle
- localization
- measurement data
- static
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9322—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
Abstract
Es wird ein Verfahren zum Steuern eines automatisierten Fahrzeugs (100) beschrieben, bei dem statische und dynamische Messdaten (510, 520) wenigstens eines fahrzeugeigenen Umfeldsensors (111, 112, 113) bereitgestellt werden, wobei die statischen Messdaten (510) statischen Objekten (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind, während die dynamischen Messdaten (520) dynamischen Objekten (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind. Anschließend wird eine Lokalisierung (631) durchgeführt, bei der anhand der statischen Messdaten (510) ermittelte Merkmale statischer Objekte (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte (212) abgeglichen werden, um eine globale Pose des automatisierten Fahrzeugs (100) zu ermitteln. Ferner wird eine auch Objektverfolgung (632) durchgeführt, bei der anhand der dynamischen Messdaten (520) dynamische Objekte (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit ihren relativen Positionen ermittelt werden. Anschließend werden die Ergebnisse (530) der Lokalisierung (631) und die Ergebnisse (540) der Objektverfolgung (632) in einem gemeinsamen Auswertungsprozess (630) und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten (510, 520) ermittelt. Schließlich werden die ermittelten Ergebnisse (530) der Lokalisierung (631) und/oder die Ergebnisse (540) der Objektverfolgung (632) zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs (100) verwendet.A method for controlling an automated vehicle (100) is described, in which static and dynamic measurement data (510, 520) are provided by at least one on-board environment sensor (111, 112, 113), the static measurement data (510) being associated with static objects (310 ) are assigned in the area (300) of the automated vehicle (100), while the dynamic measurement data (520) are assigned to dynamic objects (320) in the area (300) of the automated vehicle (100). A localization (631) is then carried out, in which the features of static objects (310) in the environment (300) of the automated vehicle (100) determined using the static measurement data (510) are compared with features from a provided digital localization map (212), to determine a global pose of the automated vehicle (100). Object tracking (632) is also carried out, in which dynamic objects (320) in the environment (300) of the automated vehicle (100) are determined with their relative positions using the dynamic measurement data (520). The results (530) of the localization (631) and the results (540) of the object tracking (632) are then determined in a joint evaluation process (630) using both the static and the dynamic measurement data (510, 520). Finally, the determined results (530) of the localization (631) and/or the results (540) of the object tracking (632) are used to plan the behavior and/or the movement of the automated vehicle (100).
Description
Die Erfindung betrifft ein Verfahren zum Steuern eines automatisierten Fahrzeugs. Ferner betrifft die Erfindung eine Steuervorrichtung_zum Durchführen des Verfahrens.The invention relates to a method for controlling an automated vehicle. The invention also relates to a control device for carrying out the method.
Aktuelle Fahrassistenzsysteme (ADAS, Advanced Driver Assistance Systems) sowie hochautomatisierte Fahrzeugsysteme für autonomes Fahren (AD) setzen eine detaillierte Kenntnis über das Umfeld des Fahrzeugs sowie über die aktuelle Verkehrssituation voraus. Um geeignete Fahrmanöver mit ausreichender Genauigkeit planen und durchführen zu können, müssen sowohl die eigene Position bzw. Pose als auch die relative Positionen und gegebenenfalls auch die Geschwindigkeiten benachbarter Verkehrsteilnehmer bekannt sein. Die Lokalisierung des Fahrzeugs kann kartenbasiert erfolgen, wobei hierzu ein Umgebungsmodell, das durch Erfassen des Fahrzeugumfelds mittels Umfeldsensorik und anschließendes Extrahieren bestimmter Umfeldinformationen generiert wird, mit einer digitalen Lokalisierungskarte abgeglichen wird. Als digitale Lokalisierungskarte kann z.B. eine Radarmerkmalskarte dienen, die auf statischen Radarmessungen von Fahrzeugen einer Fahrzeugflotte (crowd-sourced radar feature map) basiert. Eine auf diese Weise ermittelte Position des Ego-Fahrzeugs innerhalb einer Navigationskarte dient in Navigationsgeräten ferner zum Erstellen einer Route und zum Navigieren des Fahrzeugs entlang der Route.Current driver assistance systems (ADAS, Advanced Driver Assistance Systems) and highly automated vehicle systems for autonomous driving (AD) require detailed knowledge of the vehicle's surroundings and the current traffic situation. In order to be able to plan and carry out suitable driving maneuvers with sufficient accuracy, one's own position or pose as well as the relative positions and possibly also the speeds of neighboring road users must be known. The localization of the vehicle can be map-based, for which purpose an environment model, which is generated by detecting the vehicle environment using environment sensors and then extracting certain information about the environment, is compared with a digital localization map. A radar feature map, for example, which is based on static radar measurements of vehicles in a vehicle fleet (crowd-sourced radar feature map), can serve as the digital localization map. A position of the ego vehicle determined in this way within a navigation map is also used in navigation devices to create a route and to navigate the vehicle along the route.
Darüber hinaus verwenden einige radarbasierte ADAS-Anwendungen (z. B. Abstandsregeltempomat ACC (Adaptive Cruise Control), Staupilot TJP (Traffic Jam Pilot), Autobahnpilot (Highway Pilot Hands-free), etc.) dynamische Objektverfolgung (dynamic object tracking) zum Detektieren dynamischer Objekte (z.B. umgebende Fahrzeuge oder Fußgänger) in der Fahrzeugumgebung. Im Unterschied zur radarbasierten Lokalisierungsfunktion verwenden die radarbasierten ADAS-Anwendungen hauptsächlich dynamische Radarmessungen zum Ermitteln der relativen Positionen der umgebenden dynamischen Objekte.In addition, some radar-based ADAS applications (e.g. adaptive cruise control (ACC), traffic jam pilot (TJP), highway pilot hands-free, etc.) use dynamic object tracking for detection dynamic objects (e.g. surrounding vehicles or pedestrians) in the vehicle environment. In contrast to the radar-based localization function, the radar-based ADAS applications mainly use dynamic radar measurements to determine the relative positions of the surrounding dynamic objects.
Die Lokalisierung und dynamische Objektverfolgung stellen somit zwei separate Komponenten innerhalb der ADAS/AD Architektur dar. Während statische Radarmessungen und die Radarmerkmalskarte zur Bestimmung der Fahrzeugposition (Eigenposition) verwendet werden, werden die unabhängig dazu erfolgenden dynamischen Radarmessungen zur Bestimmung der Positionen und gegebenenfalls auch Geschwindigkeiten benachbarter dynamischer Objekte relativ zum Ego-Fahrzeug verwendet. Anschließend werden die von der Lokalisierungs-Komponente bereitgestellten Informationen und die von der dynamischen Objektverfolgungs-Komponente bereitgestellten Informationen als Input für die Verhaltensgenerierung und die Fahrzeugbewegungssteuerung kombiniert. Da beide Komponenten (Lokalisierung und dynamische Objektverfolgung) voneinander unabhängige Schätzfehler aufweisen, kommt es in der Verhaltensgenerierung und Fahrzeugbewegungsteuerung zu einer Akkumulation dieser Schätzfehler, was mit einer größeren Unsicherheit bei der Verhaltensgenerierung und Fahrzeugbewegungssteuerung einhergeht. Ferner führt die Tatsache, dass beide Komponenten (Lokalisierung und dynamische Objektverfolgung) nicht alle Messdaten des Radarsensors, sondern jeweils nur einen Teil davon verwenden, zu einer zusätzlichen Unsicherheit der von den beiden Komponenten bereitgestellten Informationen. Dieser Fehler betrifft somit auch Anwendungen, die lediglich Informationen einer der beiden Komponenten (Lokalisation oder dynamische Objektverfolgung) verwenden.The localization and dynamic object tracking thus represent two separate components within the ADAS/AD architecture. While static radar measurements and the radar feature map are used to determine the vehicle position (own position), the dynamic radar measurements that take place independently of this are used to determine the positions and, if necessary, speeds of neighboring vehicles dynamic objects relative to the ego vehicle. Then the information provided by the localization component and the information provided by the dynamic object tracking component are combined as input for behavior generation and vehicle motion control. Since both components (localization and dynamic object tracking) have independent estimation errors, these estimation errors accumulate in behavior generation and vehicle motion control, which is accompanied by greater uncertainty in behavior generation and vehicle motion control. Furthermore, the fact that both components (localization and dynamic object tracking) do not use all of the measurement data from the radar sensor, but only part of it, leads to additional uncertainty in the information provided by the two components. This error also affects applications that only use information from one of the two components (localization or dynamic object tracking).
Die der Erfindung zugrunde liegende Aufgabe kann daher darin gesehen werden, eine Möglichkeit zur Verbesserung der Genauigkeit der Lokalisierung und/oder dynamischen Objektverfolgung bereitzustellen. Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.The object on which the invention is based can therefore be seen as providing a possibility for improving the accuracy of localization and/or dynamic object tracking. This object is solved by means of the respective subject matter of the independent claims. Advantageous configurations of the invention are the subject matter of the dependent subclaims.
Gemäß der Erfindung ist ein Verfahren zum Steuern eines automatisierten Fahrzeugs vorgesehen, bei dem statische und dynamische Messdaten wenigstens eines fahrzeugeigenen Umfeldsensors bereitgestellt werden, wobei die statischen Messdaten statischen Objekten in der Umgebung des automatisierten Fahrzeugs zugeordnet sind, während die dynamischen Messdaten dynamischen Objekten in der Umgebung des automatisierten Fahrzeugs zugeordnet sind. Anschließend wird eine Lokalisierung durchgeführt, bei der anhand der statischen Messdaten ermittelte Merkmale statischer Objekte in der Umgebung des automatisierten Fahrzeugs mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte abgeglichen werden, um globale Pose des automatisierten Fahrzeugs zu ermitteln. Ferner wird auch eine dynamische Objektverfolgung durchgeführt, bei der anhand der dynamischen Messdaten dynamische Objekte in der Umgebung des automatisierten Fahrzeugs mit ihren relativen Positionen ermittelt werden. Die Ergebnisse der Lokalisierung und die Ergebnisse der dynamischen Objektverfolgung werden dabei in einem gemeinsamen Auswertungsprozess und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten ermittelt. Schließlich werden die Ergebnisse der Lokalisierung und/oder die Ergebnisse der dynamischen Objektverfolgung zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs verwendet. Durch die gemeinsame Verarbeitung der statischen und dynamischen Messdaten kann die Genauigkeit der damit erzielten Ergebnisse der Lokalisierung und der dynamischen Objektverfolgung verbessert werden. Unter anderem können durch die gemeinsame Verarbeitung und Optimierung der Messdaten verschiedene, mit dem jeweiligen Messverfahren einhergehende Fehler und Störungen kompensiert werden. So können beispielsweise systematische Messfehler des jeweiligen Sensors durch Verwendung der HD-Lokalisierungskarte als Referenz besser erkannt und reduziert wird. Ferner kann bei Verwendung statischer und dynamischer Messdaten insgesamt mehr Messungen zur Verfügung stehen, bereits statistisch betrachtet eine Verbesserung der Messgenauigkeit erzielt werden. Von dieser Genauigkeitsverbesserung profitieren dabei auch solche Funktionen des automatisierten Fahrzeugs, die lediglich die Ergebnisse der Lokalisierung oder lediglich die Ergebnisse der dynamischen Objektverfolgung nutzen. Durch die Verwendung der Messdaten sowohl statischer als auch dynamischer Objekte in der Fahrzeugumgebung kann sowohl die Lokalisierung als auch die dynamische Objektverfolgung verbessert werden. Für Anwendungen, die keine Lokalisierungsbetriebsweise Lokalisierungskarte benötigen. Die dynamische Objektverfolgung kann durch die Berücksichtigung der statischen Radarmessungen und Karteninformationen verbessert werden. Andererseits kann auch die Genauigkeit der Lokalisierung verbessert werden, indem dynamische Objekte und gegebenenfalls auch die unkartieren statischen Objekte, wie zum Beispiel parkende Fahrzeuge, mitberücksichtigt werden. Eine erweiterte Objektverfolgung inklusive Klassifikation kann somit die Lokalisierung unterstützen. Die kombinierte Lösung der beiden Probleme (Lokalisierung und dynamische Objektverfolgung) führt nicht nur zu einer Verbesserung der Genauigkeit der damit erzielten Ergebnisse (Fahrzeug-Pose und relative Position umgebender dynamischer Objekte), sondern ist auch effizienter als die separate Lösung der beiden Probleme.According to the invention, a method for controlling an automated vehicle is provided in which static and dynamic measurement data are provided by at least one on-board environment sensor, the static measurement data being associated with static objects in the environment of the automated vehicle, while the dynamic measurement data are associated with dynamic objects in the environment of the automated vehicle are assigned. Localization is then carried out, in which features of static objects in the area surrounding the automated vehicle, determined using the static measurement data, are compared with features from a provided digital localization map in order to determine the global pose of the automated vehicle. Dynamic object tracking is also carried out, in which dynamic objects in the area surrounding the automated vehicle are determined with their relative positions using the dynamic measurement data. The results of the localization and the results of the dynamic object tracking are determined in a joint evaluation process using both the static and the dynamic measurement data. Finally, the results of the localization and/or the results of the dynamic object tracking are used to plan the behavior and/or the movement of the automated driving stuff used. The joint processing of the static and dynamic measurement data can improve the accuracy of the localization and dynamic object tracking results achieved thereby. Among other things, various errors and disturbances associated with the respective measurement method can be compensated for by jointly processing and optimizing the measurement data. For example, systematic measurement errors of the respective sensor can be better recognized and reduced by using the HD localization map as a reference. Furthermore, when using static and dynamic measurement data, more measurements can be available overall, and an improvement in the measurement accuracy can already be achieved from a statistical point of view. Those functions of the automated vehicle that only use the results of the localization or only the results of the dynamic object tracking also benefit from this improvement in accuracy. By using the measurement data of both static and dynamic objects in the vehicle environment, both localization and dynamic object tracking can be improved. For applications that do not require a localization mode localization map. Dynamic object tracking can be improved by taking static radar measurements and map information into account. On the other hand, the accuracy of the localization can also be improved by taking into account dynamic objects and possibly also the unmapped static objects, such as parked vehicles. An extended object tracking including classification can thus support the localization. The combined solution of the two problems (localization and dynamic object tracking) not only leads to an improvement in the accuracy of the results obtained therefrom (vehicle pose and relative position of surrounding dynamic objects), but is also more efficient than solving the two problems separately.
In einer Ausführungsform ist vorgesehen, dass die Ergebnisse der Lokalisierung und dynamischen Objektverfolgung mithilfe eines graphbasierten Optimierungsverfahrens ermittelt werden, bei dem aus den statischen Messdaten abgeleitete Randbedingungen und aus den dynamischen Messdaten abgeleitete Randbedingungen zu einem gemeinsamen Optimierungsproblem addiert werden. Ein solches graphbasiertes Optimierungsverfahren stellt eine sehr effektive Methode zum Ermitteln sowohl der Ego-Pose mithilfe dynamischer Messdaten und einer HD-Lokalisierungskarte als auch der relativen Position benachbarter dynamischer Objekte dar.One embodiment provides for the results of the localization and dynamic object tracking to be determined using a graph-based optimization method in which boundary conditions derived from the static measurement data and boundary conditions derived from the dynamic measurement data are added to form a common optimization problem. Such a graph-based optimization procedure is a very effective method for determining both the ego pose using dynamic measurement data and an HD localization map, and the relative position of neighboring dynamic objects.
In einer weiteren Ausführungsform ist vorgesehen, dass die Ergebnisse der Lokalisierung und dynamischen Objektverfolgung mithilfe eines filterbasierten Zustandsschätzverfahrens ermittelt werden. Der Filterzustand eines bei dem Zustandsschätzverfahren verwendeten Filters umfasst dabei sowohl die unbekannten Zustände der Lokalisierung als auch die unbekannten Zustände der dynamischen Objektverfolgung. Filterbasierte Zustandsschätzverfahren stellen ebenfalls besonders effektive Methoden zur Ermittlung unbekannter Zustände des Ego-Fahrzeugs und benachbarter dynamischer Objekte dar.A further embodiment provides that the results of the localization and dynamic object tracking are determined using a filter-based state estimation method. The filter state of a filter used in the state estimation method includes both the unknown states of the localization and the unknown states of the dynamic object tracking. Filter-based state estimation methods are also particularly effective methods for determining unknown states of the ego vehicle and neighboring dynamic objects.
In einer weiteren Ausführungsform ist vorgesehen, dass der filterbasierter Optimierungsprozess einen Kalman-Filter oder einen Partikel-Filter verwendet. Hierbei handelt es sich um besonders effektive filterbasierte Methoden, mit denen auch eine größere Anzahl an Messdaten effektiv und genau verarbeitet werden kann.A further embodiment provides that the filter-based optimization process uses a Kalman filter or a particle filter. These are particularly effective filter-based methods with which a large number of measurement data can be processed effectively and precisely.
In einer weiteren Ausführungsform ist vorgesehen, dass neben den statischen und dynamischen Objekten auch unkartierte statische Objekte für die Lokalisierung und/oder dynamische Objektverfolgung verwendet werden. Auch die unkartieren statischen Objekte, bei denen sich beispielsweise um parkende Fahrzeuge handeln kann, sind geeignet, die Anzahl der Einzelmessungen für die verwendeten Statistischen Verfahren zu erhöhen. Infolge dessen kann dieses Vorgehen zur Erhöhung der Genauigkeit bei der Schätzung oder Optimierung der Ego-Pose bzw. der Position benachbarter Fahrzeuge führen.A further embodiment provides that, in addition to the static and dynamic objects, unmapped static objects are also used for the localization and/or dynamic object tracking. The unmapped static objects, which can be parked vehicles, for example, are also suitable for increasing the number of individual measurements for the statistical methods used. As a result, this procedure can lead to an increase in accuracy when estimating or optimizing the ego pose or the position of neighboring vehicles.
In einer weiteren Ausführungsform ist vorgesehen, dass nur die Ergebnisse der Lokalisierung oder nur die Ergebnisse der dynamischen Objektverfolgung zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs verwendet werden. Auch bei einer derartigen Konfiguration, bei der lediglich die Ergebnisse der Lokalisierung oder die Ergebnisse der dynamischen Objektverfolgung für die entsprechende Funktion benötigt werden, kann durch die gemeinsame Auswertung der statischen und dynamischen Messdaten eine Erhöhung der jeweils benötigten Ergebnisse erzielt werden.A further embodiment provides that only the results of the localization or only the results of the dynamic object tracking are used to plan the behavior and/or the movement of the automated vehicle. Even with such a configuration, in which only the results of the localization or the results of the dynamic object tracking are required for the corresponding function, the results required in each case can be increased by jointly evaluating the static and dynamic measurement data.
In einer weiteren Ausführungsform ist vorgesehen, dass als Umfeldsensor wenigstens ein Radar-Sensor, ein Lidar-Sensor und/oder eine Videokamera verwendet werden. Diese Sensoren liefern besonders zuverlässige Messdaten zu statischen und dynamischen Objekten und sind daher besonders gut zur Sensierung des Fahrzeugumfelds geeignet.A further embodiment provides that at least one radar sensor, a lidar sensor and/or a video camera are used as the surroundings sensor. These sensors provide particularly reliable measurement data on static and dynamic objects and are therefore particularly well suited to sensing the vehicle's surroundings.
Gemäß einem weiteren Aspekt ist ferner Steuervorrichtung für ein automatisiertes Fahrzeug die eingerichtet ist, wenigstens einen Teil der Schritte des oben genannten Verfahrens auszuführen. Für die Steuervorrichtung_ergeben sich die bereits im Zusammenhang mit dem Verfahren genannten Vorteile. According to a further aspect, there is also a control device for an automated vehicle which is set up to carry out at least some of the steps of the method mentioned above. The advantages already mentioned in connection with the method result for the control device.
Gemäß einem weiteren Aspekt ist ein Computerprogramm umfassend Befehle vorgesehen, die bei einer Ausführung des Computerprogramms auf einem Computer diesen veranlassen eines der oben beschriebenen Verfahren auszuführen. Die Realisierung der oben beschriebenen Verfahren in Form eines Computerprogramms bietet eine besonders hohe Flexibilität.According to a further aspect, a computer program is provided comprising instructions which, when the computer program is executed on a computer, cause the latter to carry out one of the methods described above. Implementing the methods described above in the form of a computer program offers a particularly high degree of flexibility.
Schließlich ist gemäß einem weiteren Aspekt ein computerlesbares Speichermedium vorgesehen, auf dem das oben genannte Computerprogramm gespeichert ist.Finally, according to a further aspect, a computer-readable storage medium is provided, on which the above-mentioned computer program is stored.
Die Erfindung wird im Folgenden anhand von Figuren näher beschrieben. Dabei zeigen:
-
1 schematisch eine Verkehrssituation, bei der ein automatisiertes Fahrzeug mithilfe bordeigener Sensoren seine Umgebung abtastet; -
2 schematisch den Aufbau einer Anordnung zur separaten Durchführung einer Lokalisierung und dynamischen Objektverfolgung anhand statischer und dynamischer Messdaten; -
3 ein Diagramm zur Verdeutlichung der Funktionsweise eines graphbasierten Optimierungsprozesses zu Ermittlung der Ego-Pose des Fahrzeugs; -
4 ein Diagramm zur Verdeutlichung der Funktionsweise eines graphbasierten Optimierungsprozesses zur kombinierten Ermittlung der Ego-Pose des Fahrzeugs und der relativen Position wenigstens eines umgebenden dynamischen Objekts; -
5 schematisch den Aufbau einer Anordnung zur Durchführung einer kombinierten Lokalisierung und dynamischen Objektverfolgung; -
6 schematisch eine Variation der Anordnung aus5 , -
7 schematisch eine weitere Variation der Anordnung aus5 ; und -
8 ein vereinfachtes Ablaufdiagramm zur Verdeutlichung des Verfahrens.
-
1 schematic of a traffic situation in which an automated vehicle scans its surroundings using on-board sensors; -
2 Schematically the structure of an arrangement for separately carrying out localization and dynamic object tracking using static and dynamic measurement data; -
3 a diagram to clarify the functioning of a graph-based optimization process for determining the ego pose of the vehicle; -
4 a diagram to clarify the functioning of a graph-based optimization process for the combined determination of the ego pose of the vehicle and the relative position of at least one surrounding dynamic object; -
5 schematic of the structure of an arrangement for carrying out a combined localization and dynamic object tracking; -
6 schematically shows a variation of the arrangement5 , -
7 schematically shows another variation of the arrangement5 ; and -
8th a simplified flow chart to clarify the procedure.
Das hier beschriebene Konzept sieht vor, dass die statischen und dynamischen Messdaten eines Radar-Sensors oder eines anderen Umfeldsensors des automatisierten Fahrzeugs im Rahmen einer Lokalisierung und dynamischen Objektverfolgung nicht getrennt, sondern gemeinsam ausgewertet werden.The concept described here provides that the static and dynamic measurement data of a radar sensor or another environment sensor of the automated vehicle are not evaluated separately as part of localization and dynamic object tracking, but are evaluated together.
Die
Ferner umfasst das automatisierte Fahrzeug 100 auch Sensoren zum Erfassen verschiedener Messgrößen und Parameter auf, wie z.B. Inertialsensoren 114 zum Erfassen des aktuellen Bewegungszustands des automatisierten Fahrzeugs 100, einen Lenkwinkelsensor 115, eine GNSS-Einrichtung 116 zum satellitengestützten Ermitteln der globalen Position des automatisierten Fahrzeugs 100 sowie eine Odometrie-Einrichtung 117 zum Ermitteln der zurückgelegten Wegstrecke z.B. anhand der Rotationsbewegung der Fahrzeugräder. Das automatisierte Fahrzeug 100 umfasst ferner eine drahtlose Kommunikationsvorrichtung 190 zum Aufbau einer drahtlosen Kommunikationsverbindung 201 zu einem externen Server 210. Wie in der
Wie aus
In der
Die Ermittlung der aktuellen Ego-Pose des automatisierten Fahrzeugs 100 sowie der Positionen umgebender dynamischer Objekte 320 kann grundsätzlich mithilfe verschiedener Verfahren erfolgen. In den hier beschriebenen Beispielen werden hierfür zwei Ansätze verwendet, die auch bei der Simultanen Lokalisierung und Kartierung (Simultaneous Localisation and Mapping, SLAM) zum Einsatz kommen. Der erste Ansatz betrifft eine filterbasierte Methode, die zum Beispiel einen Kalman-Filter bzw. einen erweiterten Kalman-Filter (EKF) oder einen Partikel-Filter verwendet. Bei diesem Ansatz wird der unbekannte Zustand des jeweiligen Objekts, zum Beispiel die Ego-Pose des automatisierten Fahrzeugs 100 oder die relativen Positionen umgebender dynamischer Objekte 320, geschätzt. Die Schätzung erfolgt dabei „on-the-go“, d.h. fortlaufend mit den jeweils neuesten Messdaten. Der Kalman-Filter stellt dabei einen besonders effizienten rekursiven Schätzalgorithmus dar, der den Zustand eines dynamischen Systems aus fehlerbehafteten Beobachtungen optimal im Sinne der kleinsten Quadrate schätzt. Bei dem Kalman-Filter handelt es sich folglich um ein mathematisches Verfahren zur iterativen Schätzung von Parametern zur Beschreibung von Systemzuständen auf Basis von fehlerbehafteten Beobachtungen bzw. Messungen.The determination of the current ego pose of the
Einen weiteren geeigneten Filter zur Verwendung in der filterbasierten Methode bildet ein sogenannter Partikel-Filter. Hierbei handelt es sich um eine Monte-Carlo-Methode, also ein stochastisches Verfahren zur Zustandsschätzung in einem dynamischen Prozess, dessen Dynamik nur im statistischen Mittel bekannt ist und der nur unvollständig beobachtet werden kann. Im Fall der dynamischen Objektverfolgung erfolgt eine genaue und kontinuierlich aktualisierte Bestimmung des Ortes und der Geschwindigkeit des betrachteten Objekts aufgrund einer ungenauen und fehlerhaften Messung des Ortes.A so-called particle filter forms another suitable filter for use in the filter-based method. This is a Monte Carlo method, i.e. a stochastic method for estimating the state in a dynamic process, the dynamics of which are only known as statistical averages and which can only be observed incompletely. In the case of dynamic object tracking, an accurate and continuously updated determination of the location and speed of the object under consideration is made due to an inaccurate and erroneous measurement of the location.
Die Bestimmung der Ego-Pose des Fahrzeugs 100 sowie der relativen Position umgebender dynamischer Objekte 320 kann ferner auch als ein Pose-Graph-Optimierungsproblem formuliert werden. Hierbei wird die gesamte Trajektorie jedes betrachteten Objekts unter Berücksichtigung aller bisherigen Messungen geschätzt bzw. optimiert. Das Ziel einer graphbasierten Optimierung der Pose eines Objekts ist es demnach, die sich durch die Aneinanderreihung nacheinander gemessener bzw. ermittelter Posen ergebende Trajektorie des jeweiligen Objekts anhand relativer Messungen der Pose zu schätzen.The determination of the first-person pose of the
Mithilfe der
Die
In der
In der
In der
Die
Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt. Vielmehr können hieraus auch andere Variationen vom Fachmann abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Beispielsweise können die hier beschriebenen Komponenten, Einrichtungen und Module je nach Anwendung in Form von Software oder Hardware oder auch als eine Kombination aus Software- und Hardware realisiert werden.Although the invention has been illustrated and described in detail by the preferred embodiments, the invention is not limited by the disclosed examples. Rather, other variations can also be derived from this by a person skilled in the art without the protection leave the beginning of the invention. For example, depending on the application, the components, devices and modules described here can be implemented in the form of software or hardware or as a combination of software and hardware.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021214763.1A DE102021214763A1 (en) | 2021-12-21 | 2021-12-21 | Method and control device for controlling an automated vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021214763.1A DE102021214763A1 (en) | 2021-12-21 | 2021-12-21 | Method and control device for controlling an automated vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021214763A1 true DE102021214763A1 (en) | 2023-06-22 |
Family
ID=86606365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021214763.1A Pending DE102021214763A1 (en) | 2021-12-21 | 2021-12-21 | Method and control device for controlling an automated vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021214763A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016015405A1 (en) | 2016-12-22 | 2017-07-06 | Daimler Ag | Comprehensive environmental detection for a car by means of radar |
DE102019213403A1 (en) | 2019-09-04 | 2021-03-04 | Zf Friedrichshafen Ag | Method for the sensor-based localization of a host vehicle, host vehicle and a computer program |
DE102019213929A1 (en) | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Plausibility check of stopped previously dynamic objects with the help of allocation grids |
-
2021
- 2021-12-21 DE DE102021214763.1A patent/DE102021214763A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016015405A1 (en) | 2016-12-22 | 2017-07-06 | Daimler Ag | Comprehensive environmental detection for a car by means of radar |
DE102019213403A1 (en) | 2019-09-04 | 2021-03-04 | Zf Friedrichshafen Ag | Method for the sensor-based localization of a host vehicle, host vehicle and a computer program |
DE102019213929A1 (en) | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Plausibility check of stopped previously dynamic objects with the help of allocation grids |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015111535B4 (en) | Algorithm for precise curvature estimation for the path planning of autonomous vehicles | |
EP3329216A1 (en) | Determining arrangement information for a vehicle | |
DE102017103123A1 (en) | Vehicle lane placement | |
EP3254136B1 (en) | Processing sensor measurements of a vehicle environment with low transverse resolution | |
DE102018114808A1 (en) | Method for the automatic lateral guidance of a following vehicle in a vehicle platoon | |
DE102013107861A1 (en) | Tracking of road vehicles with sensors of different types | |
EP3824247A1 (en) | Method and system for determining a position of a vehicle | |
DE102020102962A1 (en) | VEHICLE TARGET TRACKING | |
DE102016213817B4 (en) | A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane | |
DE102016214045A1 (en) | Method and device for determining a roadway model for a vehicle environment | |
EP3610224B1 (en) | Method, device, and computer-readable storage medium with instructions for estimating the pose of a motor vehicle | |
DE102016011366A1 (en) | Method for determining the position of a vehicle | |
DE102020105657A1 (en) | Methods and systems for the mapping and localization of a vehicle | |
DE102019132150A1 (en) | Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device | |
EP3155454B1 (en) | Method and system for adapting a navigation system | |
DE102018221864A1 (en) | Method and system for determining a trajectory of a vehicle | |
DE102020105619A1 (en) | SYSTEM AND PROCEDURE FOR DETERMINING VEHICLE POSITION | |
DE102016223999A1 (en) | Determining a reference trajectory with a posse graph | |
DE102016223072B4 (en) | Determination of a vehicle's own movement on the basis of stationary objects | |
DE102021214763A1 (en) | Method and control device for controlling an automated vehicle | |
DE102021130241A1 (en) | Map-based heading disambiguation | |
DE112022002421T5 (en) | Movement amount estimation device, movement amount estimation method and movement amount estimation program | |
EP3545330A1 (en) | Method and device for determining an exact position of a vehicle based on radar signatures of the vehicle environment | |
DE102019131334A1 (en) | Method for tracking extended objects with at least one detection device and detection device | |
EP3969847A1 (en) | Method and device for processing sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |