DE102021214763A1 - Method and control device for controlling an automated vehicle - Google Patents

Method and control device for controlling an automated vehicle Download PDF

Info

Publication number
DE102021214763A1
DE102021214763A1 DE102021214763.1A DE102021214763A DE102021214763A1 DE 102021214763 A1 DE102021214763 A1 DE 102021214763A1 DE 102021214763 A DE102021214763 A DE 102021214763A DE 102021214763 A1 DE102021214763 A1 DE 102021214763A1
Authority
DE
Germany
Prior art keywords
dynamic
automated vehicle
localization
measurement data
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021214763.1A
Other languages
German (de)
Inventor
Cong Wu
Carsten Hasberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021214763.1A priority Critical patent/DE102021214763A1/en
Publication of DE102021214763A1 publication Critical patent/DE102021214763A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Abstract

Es wird ein Verfahren zum Steuern eines automatisierten Fahrzeugs (100) beschrieben, bei dem statische und dynamische Messdaten (510, 520) wenigstens eines fahrzeugeigenen Umfeldsensors (111, 112, 113) bereitgestellt werden, wobei die statischen Messdaten (510) statischen Objekten (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind, während die dynamischen Messdaten (520) dynamischen Objekten (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind. Anschließend wird eine Lokalisierung (631) durchgeführt, bei der anhand der statischen Messdaten (510) ermittelte Merkmale statischer Objekte (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte (212) abgeglichen werden, um eine globale Pose des automatisierten Fahrzeugs (100) zu ermitteln. Ferner wird eine auch Objektverfolgung (632) durchgeführt, bei der anhand der dynamischen Messdaten (520) dynamische Objekte (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit ihren relativen Positionen ermittelt werden. Anschließend werden die Ergebnisse (530) der Lokalisierung (631) und die Ergebnisse (540) der Objektverfolgung (632) in einem gemeinsamen Auswertungsprozess (630) und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten (510, 520) ermittelt. Schließlich werden die ermittelten Ergebnisse (530) der Lokalisierung (631) und/oder die Ergebnisse (540) der Objektverfolgung (632) zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs (100) verwendet.A method for controlling an automated vehicle (100) is described, in which static and dynamic measurement data (510, 520) are provided by at least one on-board environment sensor (111, 112, 113), the static measurement data (510) being associated with static objects (310 ) are assigned in the area (300) of the automated vehicle (100), while the dynamic measurement data (520) are assigned to dynamic objects (320) in the area (300) of the automated vehicle (100). A localization (631) is then carried out, in which the features of static objects (310) in the environment (300) of the automated vehicle (100) determined using the static measurement data (510) are compared with features from a provided digital localization map (212), to determine a global pose of the automated vehicle (100). Object tracking (632) is also carried out, in which dynamic objects (320) in the environment (300) of the automated vehicle (100) are determined with their relative positions using the dynamic measurement data (520). The results (530) of the localization (631) and the results (540) of the object tracking (632) are then determined in a joint evaluation process (630) using both the static and the dynamic measurement data (510, 520). Finally, the determined results (530) of the localization (631) and/or the results (540) of the object tracking (632) are used to plan the behavior and/or the movement of the automated vehicle (100).

Description

Die Erfindung betrifft ein Verfahren zum Steuern eines automatisierten Fahrzeugs. Ferner betrifft die Erfindung eine Steuervorrichtung_zum Durchführen des Verfahrens.The invention relates to a method for controlling an automated vehicle. The invention also relates to a control device for carrying out the method.

Aktuelle Fahrassistenzsysteme (ADAS, Advanced Driver Assistance Systems) sowie hochautomatisierte Fahrzeugsysteme für autonomes Fahren (AD) setzen eine detaillierte Kenntnis über das Umfeld des Fahrzeugs sowie über die aktuelle Verkehrssituation voraus. Um geeignete Fahrmanöver mit ausreichender Genauigkeit planen und durchführen zu können, müssen sowohl die eigene Position bzw. Pose als auch die relative Positionen und gegebenenfalls auch die Geschwindigkeiten benachbarter Verkehrsteilnehmer bekannt sein. Die Lokalisierung des Fahrzeugs kann kartenbasiert erfolgen, wobei hierzu ein Umgebungsmodell, das durch Erfassen des Fahrzeugumfelds mittels Umfeldsensorik und anschließendes Extrahieren bestimmter Umfeldinformationen generiert wird, mit einer digitalen Lokalisierungskarte abgeglichen wird. Als digitale Lokalisierungskarte kann z.B. eine Radarmerkmalskarte dienen, die auf statischen Radarmessungen von Fahrzeugen einer Fahrzeugflotte (crowd-sourced radar feature map) basiert. Eine auf diese Weise ermittelte Position des Ego-Fahrzeugs innerhalb einer Navigationskarte dient in Navigationsgeräten ferner zum Erstellen einer Route und zum Navigieren des Fahrzeugs entlang der Route.Current driver assistance systems (ADAS, Advanced Driver Assistance Systems) and highly automated vehicle systems for autonomous driving (AD) require detailed knowledge of the vehicle's surroundings and the current traffic situation. In order to be able to plan and carry out suitable driving maneuvers with sufficient accuracy, one's own position or pose as well as the relative positions and possibly also the speeds of neighboring road users must be known. The localization of the vehicle can be map-based, for which purpose an environment model, which is generated by detecting the vehicle environment using environment sensors and then extracting certain information about the environment, is compared with a digital localization map. A radar feature map, for example, which is based on static radar measurements of vehicles in a vehicle fleet (crowd-sourced radar feature map), can serve as the digital localization map. A position of the ego vehicle determined in this way within a navigation map is also used in navigation devices to create a route and to navigate the vehicle along the route.

Darüber hinaus verwenden einige radarbasierte ADAS-Anwendungen (z. B. Abstandsregeltempomat ACC (Adaptive Cruise Control), Staupilot TJP (Traffic Jam Pilot), Autobahnpilot (Highway Pilot Hands-free), etc.) dynamische Objektverfolgung (dynamic object tracking) zum Detektieren dynamischer Objekte (z.B. umgebende Fahrzeuge oder Fußgänger) in der Fahrzeugumgebung. Im Unterschied zur radarbasierten Lokalisierungsfunktion verwenden die radarbasierten ADAS-Anwendungen hauptsächlich dynamische Radarmessungen zum Ermitteln der relativen Positionen der umgebenden dynamischen Objekte.In addition, some radar-based ADAS applications (e.g. adaptive cruise control (ACC), traffic jam pilot (TJP), highway pilot hands-free, etc.) use dynamic object tracking for detection dynamic objects (e.g. surrounding vehicles or pedestrians) in the vehicle environment. In contrast to the radar-based localization function, the radar-based ADAS applications mainly use dynamic radar measurements to determine the relative positions of the surrounding dynamic objects.

Die Lokalisierung und dynamische Objektverfolgung stellen somit zwei separate Komponenten innerhalb der ADAS/AD Architektur dar. Während statische Radarmessungen und die Radarmerkmalskarte zur Bestimmung der Fahrzeugposition (Eigenposition) verwendet werden, werden die unabhängig dazu erfolgenden dynamischen Radarmessungen zur Bestimmung der Positionen und gegebenenfalls auch Geschwindigkeiten benachbarter dynamischer Objekte relativ zum Ego-Fahrzeug verwendet. Anschließend werden die von der Lokalisierungs-Komponente bereitgestellten Informationen und die von der dynamischen Objektverfolgungs-Komponente bereitgestellten Informationen als Input für die Verhaltensgenerierung und die Fahrzeugbewegungssteuerung kombiniert. Da beide Komponenten (Lokalisierung und dynamische Objektverfolgung) voneinander unabhängige Schätzfehler aufweisen, kommt es in der Verhaltensgenerierung und Fahrzeugbewegungsteuerung zu einer Akkumulation dieser Schätzfehler, was mit einer größeren Unsicherheit bei der Verhaltensgenerierung und Fahrzeugbewegungssteuerung einhergeht. Ferner führt die Tatsache, dass beide Komponenten (Lokalisierung und dynamische Objektverfolgung) nicht alle Messdaten des Radarsensors, sondern jeweils nur einen Teil davon verwenden, zu einer zusätzlichen Unsicherheit der von den beiden Komponenten bereitgestellten Informationen. Dieser Fehler betrifft somit auch Anwendungen, die lediglich Informationen einer der beiden Komponenten (Lokalisation oder dynamische Objektverfolgung) verwenden.The localization and dynamic object tracking thus represent two separate components within the ADAS/AD architecture. While static radar measurements and the radar feature map are used to determine the vehicle position (own position), the dynamic radar measurements that take place independently of this are used to determine the positions and, if necessary, speeds of neighboring vehicles dynamic objects relative to the ego vehicle. Then the information provided by the localization component and the information provided by the dynamic object tracking component are combined as input for behavior generation and vehicle motion control. Since both components (localization and dynamic object tracking) have independent estimation errors, these estimation errors accumulate in behavior generation and vehicle motion control, which is accompanied by greater uncertainty in behavior generation and vehicle motion control. Furthermore, the fact that both components (localization and dynamic object tracking) do not use all of the measurement data from the radar sensor, but only part of it, leads to additional uncertainty in the information provided by the two components. This error also affects applications that only use information from one of the two components (localization or dynamic object tracking).

Die der Erfindung zugrunde liegende Aufgabe kann daher darin gesehen werden, eine Möglichkeit zur Verbesserung der Genauigkeit der Lokalisierung und/oder dynamischen Objektverfolgung bereitzustellen. Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.The object on which the invention is based can therefore be seen as providing a possibility for improving the accuracy of localization and/or dynamic object tracking. This object is solved by means of the respective subject matter of the independent claims. Advantageous configurations of the invention are the subject matter of the dependent subclaims.

Gemäß der Erfindung ist ein Verfahren zum Steuern eines automatisierten Fahrzeugs vorgesehen, bei dem statische und dynamische Messdaten wenigstens eines fahrzeugeigenen Umfeldsensors bereitgestellt werden, wobei die statischen Messdaten statischen Objekten in der Umgebung des automatisierten Fahrzeugs zugeordnet sind, während die dynamischen Messdaten dynamischen Objekten in der Umgebung des automatisierten Fahrzeugs zugeordnet sind. Anschließend wird eine Lokalisierung durchgeführt, bei der anhand der statischen Messdaten ermittelte Merkmale statischer Objekte in der Umgebung des automatisierten Fahrzeugs mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte abgeglichen werden, um globale Pose des automatisierten Fahrzeugs zu ermitteln. Ferner wird auch eine dynamische Objektverfolgung durchgeführt, bei der anhand der dynamischen Messdaten dynamische Objekte in der Umgebung des automatisierten Fahrzeugs mit ihren relativen Positionen ermittelt werden. Die Ergebnisse der Lokalisierung und die Ergebnisse der dynamischen Objektverfolgung werden dabei in einem gemeinsamen Auswertungsprozess und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten ermittelt. Schließlich werden die Ergebnisse der Lokalisierung und/oder die Ergebnisse der dynamischen Objektverfolgung zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs verwendet. Durch die gemeinsame Verarbeitung der statischen und dynamischen Messdaten kann die Genauigkeit der damit erzielten Ergebnisse der Lokalisierung und der dynamischen Objektverfolgung verbessert werden. Unter anderem können durch die gemeinsame Verarbeitung und Optimierung der Messdaten verschiedene, mit dem jeweiligen Messverfahren einhergehende Fehler und Störungen kompensiert werden. So können beispielsweise systematische Messfehler des jeweiligen Sensors durch Verwendung der HD-Lokalisierungskarte als Referenz besser erkannt und reduziert wird. Ferner kann bei Verwendung statischer und dynamischer Messdaten insgesamt mehr Messungen zur Verfügung stehen, bereits statistisch betrachtet eine Verbesserung der Messgenauigkeit erzielt werden. Von dieser Genauigkeitsverbesserung profitieren dabei auch solche Funktionen des automatisierten Fahrzeugs, die lediglich die Ergebnisse der Lokalisierung oder lediglich die Ergebnisse der dynamischen Objektverfolgung nutzen. Durch die Verwendung der Messdaten sowohl statischer als auch dynamischer Objekte in der Fahrzeugumgebung kann sowohl die Lokalisierung als auch die dynamische Objektverfolgung verbessert werden. Für Anwendungen, die keine Lokalisierungsbetriebsweise Lokalisierungskarte benötigen. Die dynamische Objektverfolgung kann durch die Berücksichtigung der statischen Radarmessungen und Karteninformationen verbessert werden. Andererseits kann auch die Genauigkeit der Lokalisierung verbessert werden, indem dynamische Objekte und gegebenenfalls auch die unkartieren statischen Objekte, wie zum Beispiel parkende Fahrzeuge, mitberücksichtigt werden. Eine erweiterte Objektverfolgung inklusive Klassifikation kann somit die Lokalisierung unterstützen. Die kombinierte Lösung der beiden Probleme (Lokalisierung und dynamische Objektverfolgung) führt nicht nur zu einer Verbesserung der Genauigkeit der damit erzielten Ergebnisse (Fahrzeug-Pose und relative Position umgebender dynamischer Objekte), sondern ist auch effizienter als die separate Lösung der beiden Probleme.According to the invention, a method for controlling an automated vehicle is provided in which static and dynamic measurement data are provided by at least one on-board environment sensor, the static measurement data being associated with static objects in the environment of the automated vehicle, while the dynamic measurement data are associated with dynamic objects in the environment of the automated vehicle are assigned. Localization is then carried out, in which features of static objects in the area surrounding the automated vehicle, determined using the static measurement data, are compared with features from a provided digital localization map in order to determine the global pose of the automated vehicle. Dynamic object tracking is also carried out, in which dynamic objects in the area surrounding the automated vehicle are determined with their relative positions using the dynamic measurement data. The results of the localization and the results of the dynamic object tracking are determined in a joint evaluation process using both the static and the dynamic measurement data. Finally, the results of the localization and/or the results of the dynamic object tracking are used to plan the behavior and/or the movement of the automated driving stuff used. The joint processing of the static and dynamic measurement data can improve the accuracy of the localization and dynamic object tracking results achieved thereby. Among other things, various errors and disturbances associated with the respective measurement method can be compensated for by jointly processing and optimizing the measurement data. For example, systematic measurement errors of the respective sensor can be better recognized and reduced by using the HD localization map as a reference. Furthermore, when using static and dynamic measurement data, more measurements can be available overall, and an improvement in the measurement accuracy can already be achieved from a statistical point of view. Those functions of the automated vehicle that only use the results of the localization or only the results of the dynamic object tracking also benefit from this improvement in accuracy. By using the measurement data of both static and dynamic objects in the vehicle environment, both localization and dynamic object tracking can be improved. For applications that do not require a localization mode localization map. Dynamic object tracking can be improved by taking static radar measurements and map information into account. On the other hand, the accuracy of the localization can also be improved by taking into account dynamic objects and possibly also the unmapped static objects, such as parked vehicles. An extended object tracking including classification can thus support the localization. The combined solution of the two problems (localization and dynamic object tracking) not only leads to an improvement in the accuracy of the results obtained therefrom (vehicle pose and relative position of surrounding dynamic objects), but is also more efficient than solving the two problems separately.

In einer Ausführungsform ist vorgesehen, dass die Ergebnisse der Lokalisierung und dynamischen Objektverfolgung mithilfe eines graphbasierten Optimierungsverfahrens ermittelt werden, bei dem aus den statischen Messdaten abgeleitete Randbedingungen und aus den dynamischen Messdaten abgeleitete Randbedingungen zu einem gemeinsamen Optimierungsproblem addiert werden. Ein solches graphbasiertes Optimierungsverfahren stellt eine sehr effektive Methode zum Ermitteln sowohl der Ego-Pose mithilfe dynamischer Messdaten und einer HD-Lokalisierungskarte als auch der relativen Position benachbarter dynamischer Objekte dar.One embodiment provides for the results of the localization and dynamic object tracking to be determined using a graph-based optimization method in which boundary conditions derived from the static measurement data and boundary conditions derived from the dynamic measurement data are added to form a common optimization problem. Such a graph-based optimization procedure is a very effective method for determining both the ego pose using dynamic measurement data and an HD localization map, and the relative position of neighboring dynamic objects.

In einer weiteren Ausführungsform ist vorgesehen, dass die Ergebnisse der Lokalisierung und dynamischen Objektverfolgung mithilfe eines filterbasierten Zustandsschätzverfahrens ermittelt werden. Der Filterzustand eines bei dem Zustandsschätzverfahren verwendeten Filters umfasst dabei sowohl die unbekannten Zustände der Lokalisierung als auch die unbekannten Zustände der dynamischen Objektverfolgung. Filterbasierte Zustandsschätzverfahren stellen ebenfalls besonders effektive Methoden zur Ermittlung unbekannter Zustände des Ego-Fahrzeugs und benachbarter dynamischer Objekte dar.A further embodiment provides that the results of the localization and dynamic object tracking are determined using a filter-based state estimation method. The filter state of a filter used in the state estimation method includes both the unknown states of the localization and the unknown states of the dynamic object tracking. Filter-based state estimation methods are also particularly effective methods for determining unknown states of the ego vehicle and neighboring dynamic objects.

In einer weiteren Ausführungsform ist vorgesehen, dass der filterbasierter Optimierungsprozess einen Kalman-Filter oder einen Partikel-Filter verwendet. Hierbei handelt es sich um besonders effektive filterbasierte Methoden, mit denen auch eine größere Anzahl an Messdaten effektiv und genau verarbeitet werden kann.A further embodiment provides that the filter-based optimization process uses a Kalman filter or a particle filter. These are particularly effective filter-based methods with which a large number of measurement data can be processed effectively and precisely.

In einer weiteren Ausführungsform ist vorgesehen, dass neben den statischen und dynamischen Objekten auch unkartierte statische Objekte für die Lokalisierung und/oder dynamische Objektverfolgung verwendet werden. Auch die unkartieren statischen Objekte, bei denen sich beispielsweise um parkende Fahrzeuge handeln kann, sind geeignet, die Anzahl der Einzelmessungen für die verwendeten Statistischen Verfahren zu erhöhen. Infolge dessen kann dieses Vorgehen zur Erhöhung der Genauigkeit bei der Schätzung oder Optimierung der Ego-Pose bzw. der Position benachbarter Fahrzeuge führen.A further embodiment provides that, in addition to the static and dynamic objects, unmapped static objects are also used for the localization and/or dynamic object tracking. The unmapped static objects, which can be parked vehicles, for example, are also suitable for increasing the number of individual measurements for the statistical methods used. As a result, this procedure can lead to an increase in accuracy when estimating or optimizing the ego pose or the position of neighboring vehicles.

In einer weiteren Ausführungsform ist vorgesehen, dass nur die Ergebnisse der Lokalisierung oder nur die Ergebnisse der dynamischen Objektverfolgung zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs verwendet werden. Auch bei einer derartigen Konfiguration, bei der lediglich die Ergebnisse der Lokalisierung oder die Ergebnisse der dynamischen Objektverfolgung für die entsprechende Funktion benötigt werden, kann durch die gemeinsame Auswertung der statischen und dynamischen Messdaten eine Erhöhung der jeweils benötigten Ergebnisse erzielt werden.A further embodiment provides that only the results of the localization or only the results of the dynamic object tracking are used to plan the behavior and/or the movement of the automated vehicle. Even with such a configuration, in which only the results of the localization or the results of the dynamic object tracking are required for the corresponding function, the results required in each case can be increased by jointly evaluating the static and dynamic measurement data.

In einer weiteren Ausführungsform ist vorgesehen, dass als Umfeldsensor wenigstens ein Radar-Sensor, ein Lidar-Sensor und/oder eine Videokamera verwendet werden. Diese Sensoren liefern besonders zuverlässige Messdaten zu statischen und dynamischen Objekten und sind daher besonders gut zur Sensierung des Fahrzeugumfelds geeignet.A further embodiment provides that at least one radar sensor, a lidar sensor and/or a video camera are used as the surroundings sensor. These sensors provide particularly reliable measurement data on static and dynamic objects and are therefore particularly well suited to sensing the vehicle's surroundings.

Gemäß einem weiteren Aspekt ist ferner Steuervorrichtung für ein automatisiertes Fahrzeug die eingerichtet ist, wenigstens einen Teil der Schritte des oben genannten Verfahrens auszuführen. Für die Steuervorrichtung_ergeben sich die bereits im Zusammenhang mit dem Verfahren genannten Vorteile. According to a further aspect, there is also a control device for an automated vehicle which is set up to carry out at least some of the steps of the method mentioned above. The advantages already mentioned in connection with the method result for the control device.

Gemäß einem weiteren Aspekt ist ein Computerprogramm umfassend Befehle vorgesehen, die bei einer Ausführung des Computerprogramms auf einem Computer diesen veranlassen eines der oben beschriebenen Verfahren auszuführen. Die Realisierung der oben beschriebenen Verfahren in Form eines Computerprogramms bietet eine besonders hohe Flexibilität.According to a further aspect, a computer program is provided comprising instructions which, when the computer program is executed on a computer, cause the latter to carry out one of the methods described above. Implementing the methods described above in the form of a computer program offers a particularly high degree of flexibility.

Schließlich ist gemäß einem weiteren Aspekt ein computerlesbares Speichermedium vorgesehen, auf dem das oben genannte Computerprogramm gespeichert ist.Finally, according to a further aspect, a computer-readable storage medium is provided, on which the above-mentioned computer program is stored.

Die Erfindung wird im Folgenden anhand von Figuren näher beschrieben. Dabei zeigen:

  • 1 schematisch eine Verkehrssituation, bei der ein automatisiertes Fahrzeug mithilfe bordeigener Sensoren seine Umgebung abtastet;
  • 2 schematisch den Aufbau einer Anordnung zur separaten Durchführung einer Lokalisierung und dynamischen Objektverfolgung anhand statischer und dynamischer Messdaten;
  • 3 ein Diagramm zur Verdeutlichung der Funktionsweise eines graphbasierten Optimierungsprozesses zu Ermittlung der Ego-Pose des Fahrzeugs;
  • 4 ein Diagramm zur Verdeutlichung der Funktionsweise eines graphbasierten Optimierungsprozesses zur kombinierten Ermittlung der Ego-Pose des Fahrzeugs und der relativen Position wenigstens eines umgebenden dynamischen Objekts;
  • 5 schematisch den Aufbau einer Anordnung zur Durchführung einer kombinierten Lokalisierung und dynamischen Objektverfolgung;
  • 6 schematisch eine Variation der Anordnung aus 5,
  • 7 schematisch eine weitere Variation der Anordnung aus 5; und
  • 8 ein vereinfachtes Ablaufdiagramm zur Verdeutlichung des Verfahrens.
The invention is described in more detail below with reference to figures. show:
  • 1 schematic of a traffic situation in which an automated vehicle scans its surroundings using on-board sensors;
  • 2 Schematically the structure of an arrangement for separately carrying out localization and dynamic object tracking using static and dynamic measurement data;
  • 3 a diagram to clarify the functioning of a graph-based optimization process for determining the ego pose of the vehicle;
  • 4 a diagram to clarify the functioning of a graph-based optimization process for the combined determination of the ego pose of the vehicle and the relative position of at least one surrounding dynamic object;
  • 5 schematic of the structure of an arrangement for carrying out a combined localization and dynamic object tracking;
  • 6 schematically shows a variation of the arrangement 5 ,
  • 7 schematically shows another variation of the arrangement 5 ; and
  • 8th a simplified flow chart to clarify the procedure.

Das hier beschriebene Konzept sieht vor, dass die statischen und dynamischen Messdaten eines Radar-Sensors oder eines anderen Umfeldsensors des automatisierten Fahrzeugs im Rahmen einer Lokalisierung und dynamischen Objektverfolgung nicht getrennt, sondern gemeinsam ausgewertet werden.The concept described here provides that the static and dynamic measurement data of a radar sensor or another environment sensor of the automated vehicle are not evaluated separately as part of localization and dynamic object tracking, but are evaluated together.

Die 1 zeigt schematisch ein auf einer Straße 340 fahrendes automatisiertes Fahrzeug 100. Das automatisierte Fahrzeug 100 weist eine Umfeldsensorik 110 zum Erfassen von Objekten und Strukturen in seiner Umgebung 300 sowie eine Steuervorrichtung 120 zum Steuern des automatisierten Fahrzeugs 100 auf. Im vorliegenden Beispiel umfasst die Umfeldsensorik 110 mehrere Umfeldsensoren, wie z.B. einen Radar-Sensor 111, einen LiDAR-Sensor 112 und eine Videokamera 113. Im vorliegenden Beispiel erfasst der bordeigene Radarsensor 112 umgebende statische Objekte 310 (z.B. Verkehrsschilder), dynamische Objekte 320 (z.B. entgegenkommende Fahrzeuge) und auch unkartierte statische bzw. semidynamische Objekte 330 (z.B. parkende Fahrzeuge).The 1 1 schematically shows an automated vehicle 100 driving on a road 340. The automated vehicle 100 has an environment sensor system 110 for detecting objects and structures in its environment 300 and a control device 120 for controlling the automated vehicle 100. In the present example, the environment sensor system 110 includes several environment sensors, such as a radar sensor 111, a LiDAR sensor 112 and a video camera 113. In the present example, the on-board radar sensor 112 detects surrounding static objects 310 (e.g. traffic signs), dynamic objects 320 (e.g oncoming vehicles) and also unmapped static or semi-dynamic objects 330 (eg parked vehicles).

Ferner umfasst das automatisierte Fahrzeug 100 auch Sensoren zum Erfassen verschiedener Messgrößen und Parameter auf, wie z.B. Inertialsensoren 114 zum Erfassen des aktuellen Bewegungszustands des automatisierten Fahrzeugs 100, einen Lenkwinkelsensor 115, eine GNSS-Einrichtung 116 zum satellitengestützten Ermitteln der globalen Position des automatisierten Fahrzeugs 100 sowie eine Odometrie-Einrichtung 117 zum Ermitteln der zurückgelegten Wegstrecke z.B. anhand der Rotationsbewegung der Fahrzeugräder. Das automatisierte Fahrzeug 100 umfasst ferner eine drahtlose Kommunikationsvorrichtung 190 zum Aufbau einer drahtlosen Kommunikationsverbindung 201 zu einem externen Server 210. Wie in der 1 gezeigt ist, sind das automatisierte Fahrzeug 100 und der externe Server Teil eines Systems 200, das weitere Fahrzeuge und Server umfassen kann und bestimmte Dienstleistungen (z.B. Cloud-Services) anbietet. Im vorliegenden Beispiel weist der Server 210 eine Speichereinrichtung 211 auf, in der digitale digitalen Lokalisierungskarten 212 gespeichert sind. Im Betrieb empfängt das automatisierte Fahrzeug 100 von dem Server 210 eine geeignete digitale Lokalisierungskarte 212 der Umgebung 300, in der sich das betreffende automatisierte Fahrzeug 100 aktuell befindet. Die empfangene digitale Lokalisierungskarte 212 kann z. B. in einer fahrzeugeigenen Speichereinrichtung 122 abgelegt werden.Automated vehicle 100 also includes sensors for detecting various measured variables and parameters, such as inertial sensors 114 for detecting the current state of motion of automated vehicle 100, a steering angle sensor 115, a GNSS device 116 for satellite-based determination of the global position of automated vehicle 100, and an odometry device 117 for determining the distance covered, for example based on the rotational movement of the vehicle wheels. The automated vehicle 100 also includes a wireless communication device 190 for establishing a wireless communication connection 201 to an external server 210. As in FIG 1 is shown, the automated vehicle 100 and the external server are part of a system 200, which can include other vehicles and servers and certain services (eg, cloud services) offers. In the present example, the server 210 has a storage device 211 in which digital localization maps 212 are stored. In operation, the automated vehicle 100 receives from the server 210 a suitable digital localization map 212 of the environment 300 in which the automated vehicle 100 in question is currently located. The received digital location map 212 may e.g. B. be stored in an on-board storage device 122.

Wie aus 1 ferner ersichtlich ist, umfasst die Steuervorrichtung 120 im vorliegenden Beispiel neben der Speichereinrichtung 122 auch eine Steuereinrichtung 121 zum Ermitteln einer optimalen Trajektorie 301 sowie eine Bewegungssteuerungseinrichtung 123 zum Steuern der Bewegung des automatisierten Fahrzeugs 100 entlang der ermittelten Trajektorie 301.How out 1 can also be seen that in the present example, in addition to storage device 122, control device 120 also includes a control device 121 for determining an optimal trajectory 301 and a movement control device 123 for controlling the movement of automated vehicle 100 along the determined trajectory 301.

In der 2 ist eine Anordnung 150 aus einem Radarsensor 111 und zwei Komponenten 121, 122 der Steuervorrichtung 120 eines automatisierten Fahrzeugs in Form eines vereinfachten Blockschaltbilds dargestellt. In dem hier gezeigten Beispiel umfasst die Steuereinrichtung 121 zwei separate Komponenten, nämlich ein Lokalisierungsmodul 131 und ein Objektverfolgungsmodul 132. Wie mittels der beiden Pfeile angedeutet ist, sendet der Radarsensor 111 die statischen Messdaten 510 an das Lokalisierungsmodul 131 und die dynamischen Messdaten 520 an das Objektverfolgungsmodul 132. Die statischen und dynamischen Messdaten 510, 520 werden dann separat voneinander mithilfe geeigneter Auswerteverfahren, wie zum Beispiel einem filterbasierten Zustandsschätzverfahren oder einem graphbasierten Optimierungsverfahren, verarbeitet bzw. ausgewertet. Als Ergebnis dieser Auswertung stellt das Lokalisierungsmodul 131 anschließend die Ego-Pose 530 des automatisierten Fahrzeugs 100 bereit, während das Objektverfolgungsmodul 132 als Ergebnis eine Liste 540 der in der Umgebung detektierten dynamische Objekte 320 mit ihren relativen Positionen bereitstellt. Neben den statischen Messdaten 510 verwendet das Lokalisierungsmodul 131 ferner auch die in der Speichereinrichtung 122 abgelegte digitale Lokalisierungskarte 212 zu Ermittlung der Ego-Pose 530. Die von dem Lokalisierungsmodul 131 und dem Objektverfolgungsmodul 132 bereitgestellten Ergebnisse 530, 540 verwendet die Planungseinrichtung 140 anschließend zur Planung des Verhaltens und der Trajektorie 301 des automatisierten Fahrzeugs 100. Hierzu weist die Planungseinrichtung 140 einen Verhaltensplaner 141 und einen Trajektorienplaner 142 auf.In the 2 an arrangement 150 of a radar sensor 111 and two components 121, 122 of the control device 120 of an automated vehicle is shown in the form of a simplified block diagram. In the example shown here, the control device 121 comprises two separate components, namely a localization module 131 and an object tracking module 132. As indicated by the two arrows, the radar sensor 111 sends the static measurement data 510 to the localization module 131 and the dynamic measurement data 520 to the object tracking module 132. The static and dynamic measurement data 510, 520 are then processed or evaluated separately from one another using suitable evaluation methods, such as a filter-based state estimation method or a graph-based optimization method. As a result of this evaluation, the localization module 131 then provides the ego pose 530 of the automated vehicle 100, while the object tracking module 132 provides a list 540 of the dynamic objects 320 detected in the environment with their relative positions as a result. In addition to the static measurement data 510, the localization module 131 also uses the digital localization map 212 stored in the storage device 122 to determine the ego pose 530. The planning device 140 then uses the results 530, 540 provided by the localization module 131 and the object tracking module 132 to plan the Behavior and trajectory 301 of automated vehicle 100. For this purpose, planning device 140 has a behavior planner 141 and a trajectory planner 142.

Die Ermittlung der aktuellen Ego-Pose des automatisierten Fahrzeugs 100 sowie der Positionen umgebender dynamischer Objekte 320 kann grundsätzlich mithilfe verschiedener Verfahren erfolgen. In den hier beschriebenen Beispielen werden hierfür zwei Ansätze verwendet, die auch bei der Simultanen Lokalisierung und Kartierung (Simultaneous Localisation and Mapping, SLAM) zum Einsatz kommen. Der erste Ansatz betrifft eine filterbasierte Methode, die zum Beispiel einen Kalman-Filter bzw. einen erweiterten Kalman-Filter (EKF) oder einen Partikel-Filter verwendet. Bei diesem Ansatz wird der unbekannte Zustand des jeweiligen Objekts, zum Beispiel die Ego-Pose des automatisierten Fahrzeugs 100 oder die relativen Positionen umgebender dynamischer Objekte 320, geschätzt. Die Schätzung erfolgt dabei „on-the-go“, d.h. fortlaufend mit den jeweils neuesten Messdaten. Der Kalman-Filter stellt dabei einen besonders effizienten rekursiven Schätzalgorithmus dar, der den Zustand eines dynamischen Systems aus fehlerbehafteten Beobachtungen optimal im Sinne der kleinsten Quadrate schätzt. Bei dem Kalman-Filter handelt es sich folglich um ein mathematisches Verfahren zur iterativen Schätzung von Parametern zur Beschreibung von Systemzuständen auf Basis von fehlerbehafteten Beobachtungen bzw. Messungen.The determination of the current ego pose of the automated vehicle 100 and the positions of surrounding dynamic objects 320 can in principle be carried out using various methods. In the examples described here, two approaches are used for this, which are also used in Simultaneous Localization and Mapping (SLAM). The first approach concerns a filter-based method that uses, for example, a Kalman filter or an extended Kalman filter (EKF) or a particle filter. In this approach, the unknown state of the respective object, for example the ego pose of the automated vehicle 100 or the relative positions of surrounding dynamic objects 320, is estimated. The estimate is made "on-the-go", i.e. continuously with the latest measurement data. The Kalman filter represents a particularly efficient recursive estimation algorithm that optimally estimates the state of a dynamic system from erroneous observations in the sense of the least squares. The Kalman filter is therefore a mathematical method for iteratively estimating parameters for describing system states on the basis of erroneous observations or measurements.

Einen weiteren geeigneten Filter zur Verwendung in der filterbasierten Methode bildet ein sogenannter Partikel-Filter. Hierbei handelt es sich um eine Monte-Carlo-Methode, also ein stochastisches Verfahren zur Zustandsschätzung in einem dynamischen Prozess, dessen Dynamik nur im statistischen Mittel bekannt ist und der nur unvollständig beobachtet werden kann. Im Fall der dynamischen Objektverfolgung erfolgt eine genaue und kontinuierlich aktualisierte Bestimmung des Ortes und der Geschwindigkeit des betrachteten Objekts aufgrund einer ungenauen und fehlerhaften Messung des Ortes.A so-called particle filter forms another suitable filter for use in the filter-based method. This is a Monte Carlo method, i.e. a stochastic method for estimating the state in a dynamic process, the dynamics of which are only known as statistical averages and which can only be observed incompletely. In the case of dynamic object tracking, an accurate and continuously updated determination of the location and speed of the object under consideration is made due to an inaccurate and erroneous measurement of the location.

Die Bestimmung der Ego-Pose des Fahrzeugs 100 sowie der relativen Position umgebender dynamischer Objekte 320 kann ferner auch als ein Pose-Graph-Optimierungsproblem formuliert werden. Hierbei wird die gesamte Trajektorie jedes betrachteten Objekts unter Berücksichtigung aller bisherigen Messungen geschätzt bzw. optimiert. Das Ziel einer graphbasierten Optimierung der Pose eines Objekts ist es demnach, die sich durch die Aneinanderreihung nacheinander gemessener bzw. ermittelter Posen ergebende Trajektorie des jeweiligen Objekts anhand relativer Messungen der Pose zu schätzen.The determination of the first-person pose of the vehicle 100 as well as the relative position of surrounding dynamic objects 320 can also be formulated as a pose graph optimization problem. Here, the entire trajectory of each object under consideration is estimated or optimized, taking into account all previous measurements. The aim of a graph-based optimization of the pose of an object is accordingly to estimate the trajectory of the respective object resulting from the sequence of successively measured or determined poses using relative measurements of the pose.

Mithilfe der 3 und 4 soll der Unterschied zwischen einem einfachen graphbasierten Optimierungsprozess, welcher nur die statischen Messdaten 510 verwendet, und einem erweiterten graphbasierten Optimierungsprozess, welcher zusätzlich auch die dynamischen Messdaten 520 verwendet, verdeutlicht werden. Hierzu ist in der 3 ein sogenannter Sliding Graph dargestellt, in dem die anhand der dynamischen Messdaten 520 und der digitalen Lokalisierungskarte 212 ermittelte Ego-Posen 530 des automatisierten Fahrzeugs 100 über mehrere aufeinanderfolgende Messzyklen eingezeichnet sind. Ein solcher graphbasierter Optimierungsprozess berücksichtigt in der Regel alle bisherigen Messergebnisse gleichzeitig, welche gemeinsam mit den Merkmalen aus der digitalen Lokalisierungskarte abgeglichen werden.With the help of 3 and 4 The aim is to clarify the difference between a simple graph-based optimization process, which only uses the static measurement data 510, and an extended graph-based optimization process, which also uses the dynamic measurement data 520. For this is in the 3 a so-called sliding graph is shown, in which the ego poses 530 of the automated vehicle 100 determined using the dynamic measurement data 520 and the digital localization map 212 are plotted over a number of consecutive measurement cycles. Such a graph-based optimization process usually takes into account all previous measurement results at the same time, which are compared together with the features from the digital localization map.

Die 4 verdeutlicht hingegen die Auswertung der Messdaten mithilfe eines erweiterten graphbasierten Optimierungsverfahrens, das im vorliegenden Beispiel ebenfalls einen Sliding Graph verwendet. Im Unterschied zu dem in der 3 gezeigten Beispiel, umfasst dieser erweiterter Sliding Graph hier nunmehr sowohl die statischen als auch die dynamischen Messdaten 510, 520. So werden neben der anhand der statischen Messdaten 510 über mehrere Meßzyklen hinweg ermittelten globalen Ego-Posen des automatisierten Fahrzeugs 100 innerhalb der digitalen Lokalisierungskarte auch die ebenfalls über mehrere Meßzyklen hinweg anhand der dynamischen Messdaten 520 ermittelten Positionen benachbarter dynamischer Objekte 320 relativ zum automatisierten Fahrzeug 100 dargestellt. Bei dem erweiterten graphbasierten Optimierungsverfahren werden somit aus den statischen Messdaten 510 abgeleitete Randbedingungen und aus den dynamischen Messdaten 520 abgeleitete Randbedingungen zu einem gemeinsamen Optimierungsproblem addiert. Die kombinierte Lösung der beiden Probleme, nämlich der Lokalisierung und der dynamischen Objektverfolgung, addiert alle durch die statischen dynamischen Messdaten vorgegebenen Randbedingungen zu einem einzigen Optimierungsproblem. Im Vergleich zu der in der 3 gezeigten separaten Lösung der beiden Probleme wird das Optimierungsverfahren durch die zusätzlichen Informationen genauer. Ferner wird das Optimierungsverfahren auch effizienter, da hierbei lediglich eine Optimierung zur gelichzeitigen Lösung der beiden Probleme (Lokalisierung und dynamische Objektverfolgung) notwendig ist.The 4 on the other hand, illustrates the evaluation of the measurement data using an extended graph-based optimization method, which also uses a sliding graph in the present example. In contrast to the one in the 3 example shown, this extended sliding graph now includes both the static and the dynamic measurement data 510, 520. In addition to the static measurement data 510 global ego poses of automated vehicle 100 determined over several measurement cycles within the digital localization map, the positions of adjacent dynamic objects 320 relative to automated vehicle 100, also determined over several measurement cycles using dynamic measurement data 520, are also shown. In the extended graph-based optimization method, boundary conditions derived from the static measurement data 510 and boundary conditions derived from the dynamic measurement data 520 are thus added to form a common optimization problem. The combined solution of the two problems, namely the localization and the dynamic object tracking, adds all the boundary conditions specified by the static, dynamic measurement data to a single optimization problem. Compared to the one in the 3 The separate solution of the two problems shown above makes the optimization process more precise thanks to the additional information. Furthermore, the optimization method also becomes more efficient, since in this case only one optimization for the simultaneous solution of the two problems (localization and dynamic object tracking) is necessary.

In der 5 ist eine verbesserte Anordnung 150 dargestellt, die ebenfalls einen Radarsensor 111 und eine Steuervorrichtung 120 mit einer Steuereirichtung 121 und einer Speichereinrichtung 122 umfasst. Im Unterschied zu der Anordnung 150 aus 2 sind das Lokalisierungsmodul 131 und das Objektverfolgungsmodul 132 der hier gezeigten Steuereirichtung 121 in einer gemeinsamen Messdatenverarbeitungseinrichtung 130 zusammengefasst. Folglich werden die vom Radarsensor 111 bereitgestellten statischen und dynamischen Messdaten 510, 520 gemeinsam an die Messdatenverarbeitungseinrichtung 130 gesendet. Nach Auswertung der Messdaten werden die Ergebnisse dieser Auswertung, nämlich die Ego-Pose 530 des automatisierten Fahrzeugs 100 sowie eine Liste 540 der umgebenden dynamische Objekte mitsamt deren relativer Position an die Planungseinrichtung 140 übergeben. Die Planungseinrichtung 41 ermittelt mithilfe ihres Verhaltensplaner 141 und Trajektorienplanung 142 die jeweils optimale Trajektorie 301 für das automatisierte Fahrzeug 100.In the 5 an improved arrangement 150 is shown, which also includes a radar sensor 111 and a control device 120 with a control device 121 and a memory device 122 . In contrast to the arrangement 150 from 2 the localization module 131 and the object tracking module 132 of the control device 121 shown here are combined in a common measurement data processing device 130 . Consequently, the static and dynamic measurement data 510, 520 provided by the radar sensor 111 are sent together to the measurement data processing device 130. After evaluating the measurement data, the results of this evaluation, namely the ego pose 530 of the automated vehicle 100 and a list 540 of the surrounding dynamic objects together with their relative position, are transferred to the planning device 140 . The planning device 41 uses its behavior planner 141 and trajectory planning 142 to determine the respective optimal trajectory 301 for the automated vehicle 100.

In der 6 ist eine Variation der in der 5 gezeigten verbesserten Anordnung 150 dargestellt. In diesem Fall benötigt eine Applikation des automatisierten Fahrzeugs, wie z. B. der Abstandsregelautomat (ACC, Adaptive Cruise Control) keine Position des automatisierten Fahrzeugs 100 auf der Karte, sondern lediglich die Positionen der umgebenden dynamischen Objekte 320 relativ zu dem automatisierten Fahrzeug. In diesem Fall können die Systemarchitektur und/oder der Datafluss der Steuereinrichtung 121 entsprechend dem in der 6 gezeigten Ausführungsbeispiel adaptiert werden. Dabei übermittelt die Messdatenbearbeitungseinrichtung 130 lediglich die Ergebnisse 540 der dynamischen Objektverfolgung, nämlich die Liste der umgebenden dynamischen Objekte 320 mitsamt deren relativen Positionen, an die die jeweilige Applikation durchführende Hard- oder Softwarekomponente (z.B. das ACC-Steuerungsmodul).In the 6 is a variation of that in the 5 shown improved assembly 150 shown. In this case, an application of the automated vehicle, such as B. the automatic distance control (ACC, Adaptive Cruise Control) no position of the automated vehicle 100 on the map, but only the positions of the surrounding dynamic objects 320 relative to the automated vehicle. In this case, the system architecture and/or the data flow of the control device 121 can correspond to that in FIG 6 shown embodiment can be adapted. The measurement data processing device 130 only transmits the results 540 of the dynamic object tracking, namely the list of the surrounding dynamic objects 320 together with their relative positions, to the hardware or software component executing the respective application (eg the ACC control module).

In der 7 ist eine weitere Variation der in der 5 gezeigten verbesserten Anordnung 150 dargestellt. In diesem Fall benötigt eine Applikation des automatischen Fahrzeugs 100, wie z.B. ein Navigationssystem auf Fahrspurebene, keine Kenntnis über benachbarte dynamische Objekte, sondern lediglich die aktuelle Pose des automatisierten Fahrzeugs 100. In diesem Fall liefert die gemeinsame Optimierung oder Filterung der Messdaten 510, 520 als Ergebnis lediglich die aktuelle Pose 530 des automatisierten Fahrzeugs, die von der Messdatenverarbeitungseinrichtung 130 für die die entsprechende Applikation ausführende Hard- oder Softwarekomponente (z.B. Entertainmentsystem für erweitertes Recruiting auf Fahrspurebene) bereitgestellt wird.In the 7 is another variation of the in the 5 shown improved assembly 150 shown. In this case, an application of the automated vehicle 100, such as a lane-level navigation system, does not require any knowledge of neighboring dynamic objects, but only the current pose of the automated vehicle 100. In this case, the joint optimization or filtering of the measurement data 510, 520 delivers as The result is only the current pose 530 of the automated vehicle, which is provided by the measurement data processing device 130 for the hardware or software component executing the corresponding application (eg entertainment system for extended recruiting at lane level).

Die 8 zeigt schließlich ein vereinfachtes Ablaufdiagramm des hier beschriebenen Verfahrens 600. Demnach wird in einem ersten Schritt 610 eine digitale Lokalisierungskarte 212 von einer Speichereinrichtung 122 des Fahrzeugs 100 bereitgestellt. In einem weiteren Schritt 620 wird die Umgebung 300 des automatisierten Fahrzeugs 100 mittels wenigstens eines bordeigenen Umfeldsensors 111, 112, 113 abgetastet. Die dabei gewonnenen statischen und dynamischen Messdaten 510, 520 werden in dem Schritt 621 bereitgestellt. In dem Schritt 630 erfolgt eine gemeinsame Auswertung der statischen und dynamischen Messdaten 510, 520. Dieser Schritt umfasst die Lokalisierung 631, d. h. die Ermittlung der eigenen Pose des automatisierten Fahrzeugs 100 innerhalb der Lokalisierungskarte 212, sowie die dynamische Objektverfolgung 632, d. h. die Ermittlung umgebender dynamischer Objekte 320 sowie deren jeweiligen Positionen relativ zum automatisierten Fahrzeug. In dem nachfolgenden Schritt 633 werden die Ergebnisse der Lokalisierung und der dynamischen Objektverfolgung bereitgestellt. Anschließend findet in dem Schritt 640 eine Planung statt, die eine Verhaltensplanung 641 und eine Bewegungsplanung 642 umfasst. In dem darauffolgenden Verfahrensschritt 650 findet eine Steuerung des Fahrzeugs anhand der Ergebnisse der Planung statt.The 8th finally shows a simplified flow chart of the method 600 described here. Accordingly, in a first step 610 a digital localization map 212 is provided by a storage device 122 of the vehicle 100 . In a further step 620, the surroundings 300 of the automated vehicle 100 are scanned using at least one on-board surroundings sensor 111, 112, 113. The static and dynamic measurement data 510, 520 obtained in this way are provided in step 621. In step 630 there is a joint evaluation of the static and dynamic measurement data 510, 520. This step includes the localization 631, ie the determination of the own pose of the automated vehicle 100 within the localization map 212, and the dynamic object tracking 632, ie the determination of surrounding dynamic Objects 320 and their respective positions relative to the automated vehicle. In the subsequent step 633 the results of the localization and the dynamic object tracking are provided. Then, in step 640, planning takes place, which includes behavior planning 641 and movement planning 642. In the subsequent method step 650, the vehicle is controlled using the results of the planning.

Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt. Vielmehr können hieraus auch andere Variationen vom Fachmann abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Beispielsweise können die hier beschriebenen Komponenten, Einrichtungen und Module je nach Anwendung in Form von Software oder Hardware oder auch als eine Kombination aus Software- und Hardware realisiert werden.Although the invention has been illustrated and described in detail by the preferred embodiments, the invention is not limited by the disclosed examples. Rather, other variations can also be derived from this by a person skilled in the art without the protection leave the beginning of the invention. For example, depending on the application, the components, devices and modules described here can be implemented in the form of software or hardware or as a combination of software and hardware.

Claims (10)

Verfahren zum Steuern oder automatisierten Fahrzeugs (100), wobei statische und dynamische Messdaten (510, 520) wenigstens eines fahrzeugeigenen Umfeldsensors (111, 112, 113) bereitgestellt werden, wobei die statischen Messdaten (510) statischen Objekten (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind, während die dynamischen Messdaten (520) dynamischen Objekten (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) zugeordnet sind, wobei eine Lokalisierung (631) durchgeführt wird, bei der anhand der statischen Messdaten (510) ermittelte Merkmale statischer Objekte (310) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit Merkmalen aus einer bereitgestellten digitalen Lokalisierungskarte (212) abgeglichen werden, um eine globale Pose des automatisierten Fahrzeugs (100) zu ermitteln, wobei eine dynamische Objektverfolgung (632) durchgeführt wird, bei der anhand der dynamischen Messdaten (520) dynamische Objekte (320) in der Umgebung (300) des automatisierten Fahrzeugs (100) mit ihren relativen Positionen ermittelt werden, wobei die Ergebnisse (530) der Lokalisierung (631) und die Ergebnisse (540) der dynamischen Objektverfolgung (632) in einem gemeinsamen Auswertungsprozess (630) und unter Verwendung sowohl der statischen als auch der dynamischen Messdaten (510, 520) ermittelt werden, und wobei die Ergebnisse (530) der Lokalisierung (631) und/oder die Ergebnisse (540) der dynamischen Objektverfolgung (632) zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs (100) verwendet werden.Method for controlling or automated vehicle (100), wherein static and dynamic measurement data (510, 520) of at least one on-board environment sensor (111, 112, 113) are provided, wherein the static measurement data (510) are assigned to static objects (310) in the environment (300) of the automated vehicle (100). , while the dynamic measurement data (520) are assigned to dynamic objects (320) in the environment (300) of the automated vehicle (100), with a localization (631) being carried out in which the static measurement data (510) are used to determine characteristics of static objects (310) in the environment (300) of the automated vehicle (100) are compared with features from a provided digital localization map (212) in order to determine a global pose of the automated vehicle (100), wherein dynamic object tracking (632) is carried out, in which dynamic objects (320) in the environment (300) of the automated vehicle (100) are determined with their relative positions on the basis of the dynamic measurement data (520), wherein the results (530) of the localization (631) and the results (540) of the dynamic object tracking (632) are determined in a joint evaluation process (630) and using both the static and the dynamic measurement data (510, 520), and wherein the results (530) of the localization (631) and/or the results (540) of the dynamic object tracking (632) are used for planning the behavior and/or the movement of the automated vehicle (100). Verfahren nach Anspruch 1, wobei die Ergebnisse (530, 540) der Lokalisierung (631) und dynamischen Objektverfolgung (632) mithilfe eines graphbasierten Optimierungsverfahrens ermittelt werden, bei dem aus den statischen Messdaten (510) abgeleitete Randbedingungen und aus den dynamischen Messdaten (520) abgeleitete Randbedingungen zu einem gemeinsamen Optimierungsproblem addiert werden.procedure after claim 1 , the results (530, 540) of the localization (631) and dynamic object tracking (632) being determined using a graph-based optimization method in which the static measurement data (510) derived boundary conditions and the dynamic measurement data (520) derived boundary conditions to one common optimization problem can be added. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Ergebnisse (530, 540) der Lokalisierung (631) und dynamischen Objektverfolgung (632) mithilfe eines filterbasierten Zustandsschätzalgorithmus ermittelt werden, wobei der Filterzustand eines bei dem Zustandsschätzalgorithmus verwendeten Filters sowohl die unbekannten Zustände der Lokalisierung (631) als auch die unbekannten Zustände der dynamischen Objektverfolgung (632) umfasst.Method according to one of the preceding claims, wherein the results (530, 540) of the localization (631) and dynamic object tracking (632) are determined using a filter-based state estimation algorithm, wherein the filter state of a filter used in the state estimation algorithm includes both the unknown states of location (631) and the unknown states of dynamic object tracking (632). Verfahren nach Anspruch 3, wobei der filterbasierte Zustandsschätzalgorithmus einen Kalman-Filter-Algorithmus oder einen Partikel-Filter-Algorithmus verwendet.procedure after claim 3 , wherein the filter-based state estimation algorithm uses a Kalman filter algorithm or a particle filter algorithm. Verfahren nach einem der vorhergehenden Ansprüche, wobei neben den statischen und dynamischen Objekten (310, 320) auch unkartierte statische Objekte (330) für die Lokalisierung (631) und/oder dynamische Objektverfolgung (632) verwendet werden.Method according to one of the preceding claims, in which, in addition to the static and dynamic objects (310, 320), unmapped static objects (330) are also used for localization (631) and/or dynamic object tracking (632). Verfahren nach einem der vorhergehenden Ansprüche, wobei nur die Ergebnisse (530) der Lokalisierung (631) oder nur die Ergebnisse (540) der dynamischen Objektverfolgung (632) zur Planung des Verhaltens und/oder der Bewegung des automatisierten Fahrzeugs (100) verwendet werden.Method according to one of the preceding claims, wherein only the results (530) of the localization (631) or only the results (540) of the dynamic object tracking (632) are used for planning the behavior and/or the movement of the automated vehicle (100). Verfahren nach einem der vorhergehenden Ansprüche, wobei als Umfeldsensor (111, 112, 113) wenigstens ein Radar-Sensor (111), ein Lidar-Sensor (112) und/oder eine Videokamera (113) verwendet werden.Method according to one of the preceding claims, wherein at least one radar sensor (111), a lidar sensor (112) and/or a video camera (113) are used as the surroundings sensor (111, 112, 113). Steuervorrichtung (120) für ein automatisiertes Fahrzeug (100) die eingerichtet ist, wenigstens einen Teil der Schritte des Verfahrens gemäß einem der Ansprüche 1 bis 7 auszuführen.Control device (120) for an automated vehicle (100) which is set up, at least part of the steps of the method according to one of Claims 1 until 7 to execute. Computerprogramm umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 7 auszuführen.Computer program comprising instructions which, when the computer program is executed by a computer, cause the latter to carry out a method according to one of Claims 1 until 7 to execute. Computerlesbares Speichermedium (122), auf dem ein Computerprogramm nach Anspruch 9 gespeichert ist.A computer-readable storage medium (122) on which a computer program claim 9 is saved.
DE102021214763.1A 2021-12-21 2021-12-21 Method and control device for controlling an automated vehicle Pending DE102021214763A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021214763.1A DE102021214763A1 (en) 2021-12-21 2021-12-21 Method and control device for controlling an automated vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021214763.1A DE102021214763A1 (en) 2021-12-21 2021-12-21 Method and control device for controlling an automated vehicle

Publications (1)

Publication Number Publication Date
DE102021214763A1 true DE102021214763A1 (en) 2023-06-22

Family

ID=86606365

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021214763.1A Pending DE102021214763A1 (en) 2021-12-21 2021-12-21 Method and control device for controlling an automated vehicle

Country Status (1)

Country Link
DE (1) DE102021214763A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016015405A1 (en) 2016-12-22 2017-07-06 Daimler Ag Comprehensive environmental detection for a car by means of radar
DE102019213403A1 (en) 2019-09-04 2021-03-04 Zf Friedrichshafen Ag Method for the sensor-based localization of a host vehicle, host vehicle and a computer program
DE102019213929A1 (en) 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Plausibility check of stopped previously dynamic objects with the help of allocation grids

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016015405A1 (en) 2016-12-22 2017-07-06 Daimler Ag Comprehensive environmental detection for a car by means of radar
DE102019213403A1 (en) 2019-09-04 2021-03-04 Zf Friedrichshafen Ag Method for the sensor-based localization of a host vehicle, host vehicle and a computer program
DE102019213929A1 (en) 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Plausibility check of stopped previously dynamic objects with the help of allocation grids

Similar Documents

Publication Publication Date Title
DE102015111535B4 (en) Algorithm for precise curvature estimation for the path planning of autonomous vehicles
EP3329216A1 (en) Determining arrangement information for a vehicle
DE102017103123A1 (en) Vehicle lane placement
EP3254136B1 (en) Processing sensor measurements of a vehicle environment with low transverse resolution
DE102018114808A1 (en) Method for the automatic lateral guidance of a following vehicle in a vehicle platoon
DE102013107861A1 (en) Tracking of road vehicles with sensors of different types
EP3824247A1 (en) Method and system for determining a position of a vehicle
DE102020102962A1 (en) VEHICLE TARGET TRACKING
DE102016213817B4 (en) A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane
DE102016214045A1 (en) Method and device for determining a roadway model for a vehicle environment
EP3610224B1 (en) Method, device, and computer-readable storage medium with instructions for estimating the pose of a motor vehicle
DE102016011366A1 (en) Method for determining the position of a vehicle
DE102020105657A1 (en) Methods and systems for the mapping and localization of a vehicle
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
EP3155454B1 (en) Method and system for adapting a navigation system
DE102018221864A1 (en) Method and system for determining a trajectory of a vehicle
DE102020105619A1 (en) SYSTEM AND PROCEDURE FOR DETERMINING VEHICLE POSITION
DE102016223999A1 (en) Determining a reference trajectory with a posse graph
DE102016223072B4 (en) Determination of a vehicle's own movement on the basis of stationary objects
DE102021214763A1 (en) Method and control device for controlling an automated vehicle
DE102021130241A1 (en) Map-based heading disambiguation
DE112022002421T5 (en) Movement amount estimation device, movement amount estimation method and movement amount estimation program
EP3545330A1 (en) Method and device for determining an exact position of a vehicle based on radar signatures of the vehicle environment
DE102019131334A1 (en) Method for tracking extended objects with at least one detection device and detection device
EP3969847A1 (en) Method and device for processing sensor data

Legal Events

Date Code Title Description
R163 Identified publications notified