DE102020210379A1 - Computer-implemented method and computer program product for obtaining a representation of surrounding scenes for an automated driving system, computer-implemented method for learning a prediction of surrounding scenes for an automated driving system and control unit for an automated driving system - Google Patents

Computer-implemented method and computer program product for obtaining a representation of surrounding scenes for an automated driving system, computer-implemented method for learning a prediction of surrounding scenes for an automated driving system and control unit for an automated driving system Download PDF

Info

Publication number
DE102020210379A1
DE102020210379A1 DE102020210379.8A DE102020210379A DE102020210379A1 DE 102020210379 A1 DE102020210379 A1 DE 102020210379A1 DE 102020210379 A DE102020210379 A DE 102020210379A DE 102020210379 A1 DE102020210379 A1 DE 102020210379A1
Authority
DE
Germany
Prior art keywords
driving system
information
environment
layer
hsrv
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020210379.8A
Other languages
German (de)
Inventor
Georg Schneider
Nils Murzyn
Vijay Parsi
Firas Mualla
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102020210379.8A priority Critical patent/DE102020210379A1/en
Priority to EP21745818.1A priority patent/EP4196379A1/en
Priority to PCT/EP2021/070099 priority patent/WO2022033810A1/en
Publication of DE102020210379A1 publication Critical patent/DE102020210379A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Abstract

Computerimplementiertes Verfahren zum Erhalten einer Umfeldszenen-Repräsentation (HSRV) für ein automatisiertes Fahrsystem (R) umfassend die Schritte: Erhalten von Umfeldmerkmalen aus realen und/oder virtuellen Umfeldsensordaten des Fahrsystems (R) (V1) und Anordnen der Umfeldmerkmale in der Szenen-Repräsentation (HSRV) (V2) umfassend mehrere in räumlicher Relation angeordnete Schichten (A-H) umfassend jeweils statische (stat) oder dynamische (dyn) Umfeldmerkmale, wobei die statischen (stat) Umfeldmerkmale regionale Informationen, Positionsdaten des Fahrsystems und/oder der Umfeldmerkmale, Verkehrsregelinformationen, Verkehrsweiser und Ankertrajektorien umfassen, die dynamischen (dyn) Umfeldmerkmale semantische Informationen und Bewegungsinformationen der Verkehrsteilnehmer umfassen und das Fahrsystem (R) basierend auf der Szenen-Repräsentation (HSRV) geregelt und/oder gesteuert wird (V3).Computer-implemented method for obtaining an environment scene representation (HSRV) for an automated driving system (R) comprising the steps: obtaining environment features from real and/or virtual environment sensor data of the driving system (R) (V1) and arranging the environment features in the scene representation ( HSRV) (V2) comprising a plurality of layers (AH) arranged in spatial relation, each comprising static (stat) or dynamic (dyn) environmental features, the static (stat) environmental features being regional information, position data of the driving system and/or the environmental features, traffic regulation information, traffic signs and anchor trajectories, the dynamic (dyn) environmental features include semantic information and movement information of the road users and the driving system (R) is regulated and/or controlled (V3) based on the scene representation (HSRV).

Description

Die Erfindung bezieht sich auf ein computerimplementiertes Verfahren und ein Computerprogrammprodukt zum Erhalten einer Umfeldszenen-Repräsentation für ein automatisiertes Fahrsystem, ein computerimplementiertes Verfahren zum Lernen einer Prädiktion von Umfeldszenen für ein automatisiertes Fahrsystem und ein Steuergerät für ein automatisiertes Fahrsystems.The invention relates to a computer-implemented method and a computer program product for obtaining a representation of surrounding scenes for an automated driving system, a computer-implemented method for learning a prediction of surrounding scenes for an automated driving system, and a control unit for an automated driving system.

Im Rahmen von AD/ADAS-Anwendungen, aber auch im Umfeld von Industrie 4.0 und kollaborativer Mensch-Roboter-Interaktion, reicht eine reine sensorielle Erfassung der Umwelt nicht aus. Vielmehr wird die zeitliche Vorhersage der Weiterentwicklung der dynamischen Szene mit all ihren eigenständigen Interakteuren, zum Beispiel Personen, Fahrzeuge, Radfahrer, immer wichtiger, um intelligente Entscheidungen für beispielsweise automatisierte Fahrzeuge treffen zu können. Hierbei ist nicht nur die Interaktion aller Interakteure, beispielsweise Verkehrsteilnehmer, untereinander wichtig, sondern auch die Interaktion dieser mit ihrer direkten Umwelt, zum Beispiel dem Verkehrsraum und/oder der Infrastruktur.In the context of AD/ADAS applications, but also in the context of Industry 4.0 and collaborative human-robot interaction, purely sensory detection of the environment is not sufficient. Rather, the temporal prediction of the further development of the dynamic scene with all its independent interactors, e.g. people, vehicles, cyclists, is becoming increasingly important in order to be able to make intelligent decisions for automated vehicles, for example. Not only the interaction of all interactors, for example road users, is important here, but also the interaction of these with their direct environment, for example the traffic area and/or the infrastructure.

Die Umwelt ist geprägt von einer Vielzahl von einerseits expliziten, sichtbaren Zeichen und Markierungen, beispielsweise Verkehrsschildern, Spurmarkierungen, Bordsteinen, Fahrbahnrändern, die mit zum Teil regional unterschiedlichen Bedeutungen, Regeln und realen Verhaltensweisen gekoppelt sind und mit einer großen Zahl von unterliegenden Regeln und Normen, die nicht sichtbar das Verhalten der Interakteure in der Umwelt bestimmen, wie zum Beispiel, dass wenn sich ein Rettungsfahrzeug von hinten nähert, eine Rettungsgasse zu bilden ist. Diese Regeln werden zum einen auch regional sehr unterschiedlich gelebt und zum anderen hängen sie von Begleitereignissen ab, wie im vorherigen Beispiel von dem Herannahen eines Rettungsfahrzeugs in einer akuten zu erkennenden Stausituation.The environment is characterized by a large number of explicit, visible signs and markings, such as traffic signs, lane markings, curbs, roadsides, which are coupled with regionally different meanings, rules and real behavior and with a large number of underlying rules and standards, which do not visibly determine the behavior of the interactors in the environment, such as when an emergency vehicle approaches from behind, an emergency lane must be formed. On the one hand, these rules are applied very differently from region to region and, on the other hand, they depend on accompanying events, such as the approach of an emergency vehicle in an acute traffic jam situation in the previous example.

Um eine verlässliche und leistungsstarke Szenen-Vorhersage gewährleisten zu können, müssen alle diese expliziten, impliziten, regional geprägten und ereignisgeprägten Regeln/Informationen in Betracht gezogen werden und zur zeitlichen Vorhersage herangezogen werden.In order to ensure reliable and powerful scene prediction, all of these explicit, implicit, regional and event-driven rules/information must be considered and used for temporal prediction.

Im Stand der Technik sind occupancy grids bekannt, einer kartenartigen Repräsentation von statischer Umwelt und darin befindlichen Verkehrsteilnehmern, siehe beispielsweise EP 2 771 873 B1 . Mittels derartigen Gitterdarstellungen sind räumliche Abhängigkeiten erfassbar. Nachteilig ist, dass zusätzliche semantische Informationen in der Regel nicht erfasst werden oder separat zu verwalten sind.In the prior art, occupancy grids are known, a map-like representation of the static environment and road users located therein, see for example EP 2 771 873 B1 . Spatial dependencies can be detected by means of such grid representations. The disadvantage is that additional semantic information is usually not recorded or has to be managed separately.

Der Erfindung hat die Aufgabe zugrunde gelegen, eine verbesserte Bewegungsplanung eines intelligenten Agenten umfassend automatisierte Fahrsysteme zu ermöglichenThe invention is based on the object of enabling improved movement planning for an intelligent agent including automated driving systems

Die Verfahren nach Anspruch 1 und 8, das Computerprogrammprodukt nach Anspruch 7 und das Steuergerät nach Anspruch 12 lösen jeweils diese Aufgabe. Die erfindungsgemäße Umfeldszenen-Repräsentation stellt eine hybride Repräsentation dar. Die auf dieser Repräsentation aufbauende weitere Verarbeitung, um zum Beispiel eine zeitliche Vorhersage von allen Verkehrsteilnehmern über mehrere Zeitschritte in die Zukunft zu ermöglichen, wird dadurch schneller, effizienter, leistungsstärker, exakter, weniger fehleranfällig, robuster und verlässlicher. Bei der erfindungsgemäßen Umfeldszenen-Repräsentation werden die Vorteile der räumlichen und der semantischen Repräsentation in einer intelligenten Weise miteinander in Einklang gebracht.The methods according to claims 1 and 8, the computer program product according to claim 7 and the control unit according to claim 12 each solve this task. The environment scene representation according to the invention represents a hybrid representation. The further processing based on this representation, in order to enable, for example, a chronological prediction of all road users over several time steps into the future, becomes faster, more efficient, more powerful, more precise, less error-prone, more robust and reliable. With the environment scene representation according to the invention, the advantages of the spatial and the semantic representation are brought into harmony with one another in an intelligent manner.

Ein Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Erhalten einer Umfeldszenen-Repräsentation für ein automatisiertes Fahrsystem umfassend die Schritte

  • • Erhalten von Umfeldmerkmalen aus realen und/oder virtuellen Umfeldsensordaten des Fahrsystems und
  • • Anordnen der Umfeldmerkmale in der Szenen-Repräsentation umfassend mehrere in räumlicher Relation angeordnete Schichten umfassend jeweils statische oder dynamische Umfeldmerkmale.
One aspect of the invention relates to a computer-implemented method for obtaining a representation of an environment scene for an automated driving system, comprising the steps
  • • Obtaining environmental features from real and/or virtual environmental sensor data of the driving system and
  • • Arranging the environment features in the scene representation comprising several layers arranged in spatial relation, each comprising static or dynamic environment features.

Die statischen Umfeldmerkmale umfassen regionale Informationen, Positionsdaten des Fahrsystems und/oder der Umfeldmerkmale, Verkehrsregelinformationen, Verkehrsweiser und Ankertrajektorien. Die dynamischen Umfeldmerkmale umfassen semantische Informationen und Bewegungsinformationen der Verkehrsteilnehmer. Das Fahrsystem wird basierend auf der Szenen-Repräsentation geregelt und/oder gesteuert.The static environment features include regional information, position data of the driving system and/or the environment features, traffic regulation information, traffic signs and anchor trajectories. The dynamic environment features include semantic information and movement information of road users. The driving system is regulated and/or controlled based on the scene representation.

Ein weiterer Aspekt der Erfindung betrifft ein Computerprogramm zum Erhalten einer Umfeldszenen-Repräsentation für ein automatisiertes Fahrsystem. Das Computerprogramm umfasst Befehle, die bewirken, dass ein Computer ein erfindungsgemäßes Verfahren ausführt, wenn das Programm auf dem Computer ausgeführt wird.A further aspect of the invention relates to a computer program for obtaining a representation of an environment scene for an automated driving system. The computer program comprises instructions that cause a computer to carry out a method according to the invention when the program is run on the computer.

Ein weiterer Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Lernen einer Prädiktion von Umfeldszenen für ein automatisiertes Fahrsystem. Dabei erhält ein Maschinenlernalgorithmus die nach einem erfindungsgemäßen Verfahren erhaltenen Umfeldszenen-Repräsentationen zusammen mit jeweiligen Referenz-Prädiktionen als Eingangsdatenpaare. Basierend auf diesen Eingangsdatenpaare wird Gradienten-basiert die Prädiktion aus den Umfeldszenen-Repräsentationen gelernt.A further aspect of the invention relates to a computer-implemented method for learning a prediction of environmental scenes for an automated driving system. In this case, a machine learning algorithm receives the environmental scene representations obtained according to a method according to the invention together with the respective reference predictions as input data pairs. Based on these pairs of input data, the gradient-based prediction is learned from the surrounding scene representations.

Ein weiterer Aspekt der Erfindung betrifft ein Steuergerät für ein automatisiertes Fahrsystem. Das Steuergerät umfasst erste Schnittstellen, über die das Steuergerät Umfeldsensordaten des Fahrsystems erhält. Ferner umfasst das Steuergerät eine Prozesssiereinheit, die aus den Umfeldsensordaten Umfeldmerkmale bestimmt, einen nach einem erfindungsgemäßen Verfahren angelernten Maschinenlernalgorithmus ausführt und prädizierte Umfeldszenen erhält und basierend auf den prädizierten Umfeldszenen Regel- und/oder Steuersignale für einen automatisierten Betrieb des Fahrsystems bestimmt. Außerdem umfasst das Steuergerät zweite Schnittstellen, über die das Steuergerät die Regel- und/oder Steuersignale Aktuatoren zur Längs- und/oder Querführung des Fahrsystems bereitstellt.A further aspect of the invention relates to a control unit for an automated driving system. The control unit includes first interfaces via which the control unit receives environmental sensor data from the driving system. Furthermore, the control unit includes a processing unit, which determines environmental features from the environmental sensor data, executes a machine learning algorithm learned according to a method according to the invention and receives predicted environmental scenes and, based on the predicted environmental scenes, determines regulation and/or control signals for automated operation of the driving system. In addition, the control unit includes second interfaces via which the control unit provides the control and/or control signals to actuators for longitudinal and/or lateral guidance of the driving system.

Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, den Zeichnungen und der Beschreibung bevorzugter Ausführungsbeispiele.Advantageous refinements of the invention result from the definitions, the dependent claims, the drawings and the description of preferred exemplary embodiments.

Computerimplementiert bedeutet, dass die Schritte des Verfahrens von einer Datenverarbeitungsvorrichtung, beispielsweise einem Computer, einem Rechensystem, einem Rechnernetzwerk, beispielsweise einem Cloud-System, oder Teilen davon, ausgeführt werden.Computer-implemented means that the steps of the method are executed by a data processing device, for example a computer, a computing system, a computer network, for example a cloud system, or parts thereof.

Automatisierte Fahrsysteme umfassen automatisierte Fahrzeuge, Straßenfahrzeuge, People Mover, Roboter und Drohnen.Automated driving systems include automated vehicles, road vehicles, people movers, robots and drones.

Umfeldmerkmale umfassen Häuser, Straßen, insbesondere Straßengeometrie und/oder -zustand, Schilder, Spurmarkierungen, Vegetation, bewegliche Verkehrsteilnehmer, Fahrzeuge, Fußgänger, Fahrradfahrer.Environmental features include houses, streets, in particular street geometry and/or condition, signs, lane markings, vegetation, moving road users, vehicles, pedestrians, cyclists.

Umfeldsensordaten umfassen Roh- und/oder beispielsweise mit Filtern, Verstärkern, Serializern, Komprimierungs- und/oder Konvertierungseinheiten vorverarbeitete Daten von an dem Fahrsystem angeordneten Kameras, Radarsensoren, Lidarsensoren, Ultraschallsensoren, Akustiksensoren, Car2X-Einheiten und/oder Echtzeit-/Offlinekarten. Nach einem Aspekt der Erfindung sind die Umfeldsensordaten mit dem Fahrsystem real eingefahrene Daten. Nach einem weiteren Aspekt der Erfindung umfassen die Umfeldsensordaten virtuell erzeugte Daten, beispielsweise mittels Software-, Hardware-, Model- und/oder Vehicle-in-the-Loop Verfahren. Nach einem weiteren Aspekt der Erfindung sind die Umfeldsensordaten reale Daten, die virtuell augmentiert und/oder variiert wurden.Surroundings sensor data includes raw data and/or data pre-processed, for example with filters, amplifiers, serializers, compression and/or conversion units, from cameras, radar sensors, lidar sensors, ultrasonic sensors, acoustic sensors, Car2X units and/or real-time/offline maps arranged on the driving system. According to one aspect of the invention, the surroundings sensor data are actually data entered with the driving system. According to a further aspect of the invention, the environmental sensor data includes virtually generated data, for example using software, hardware, model and/or vehicle-in-the-loop methods. According to a further aspect of the invention, the environmental sensor data is real data that has been virtually augmented and/or varied.

Die Umfeldmerkmale werden aus den Umfeldsensordaten mittels Objekt-Klassifikatoren erhalten, beispielsweise künstlichen neuronalen Netzwerken zur semantischen Bildsegmentierung.The environmental features are obtained from the environmental sensor data using object classifiers, for example artificial neural networks for semantic image segmentation.

Die Umfeldszenen-Repräsentation schichtet ein Szenario in mehrere Schichten. Ein reales Szenario wird als Hybrid von statischen und dynamischen und damit semantischen Informationen dargestellt. In diesem Zusammenhang wird die erfindungsgemäße Umfeldszenen-Repräsentation auch Hybride Szenen Repräsentation zur Vorhersage, abgekürzt HSRV, genannt. Das Szenario ist beispielsweise ein Bild mit i Pixeln in x-Richtung und j Pixeln in y-Richtung. Die einzelnen Schichten können ebenfalls als Bilder dargestellt werden und sind deckungsgleich zueinander angeordnet, beispielsweise liegen die Schichten deckungsgleich räumlich übereinander. Die erfindungsgemäße Umfeldszenen-Repräsentation ist als ein Stapel übereinander liegender digitaler Fotos, beispielsweise von einer Kreuzungssituation aufgenommen aus der Vogelperspektive, vorstellbar. Andererseits wird dieser Stapel mit Bildern kombiniert mit weiteren Schichten von zum Teil rein semantischen Informationen, die zum Beispiel als reine Merkmalsvektoren repräsentiert sind.The environment scene representation layers a scenario into several layers. A real scenario is presented as a hybrid of static and dynamic and thus semantic information. In this context, the environment scene representation according to the invention is also called Hybrid Scene Representation for Prediction, abbreviated HSRV. For example, the scenario is an image with i pixels in the x-direction and j pixels in the y-direction. The individual layers can also be represented as images and are arranged congruently with one another, for example the layers are spatially congruently one on top of the other. The environmental scene representation according to the invention can be imagined as a stack of digital photos lying one on top of the other, for example taken from a bird's-eye view of an intersection. On the other hand, this stack of images is combined with further layers of partly purely semantic information that is represented, for example, as pure feature vectors.

Statische Umfeldmerkmale werden in zwei weitere Kategorien unterteilt. Elemente, die sich quasi nicht oder nur nach längeren Zeiträumen ändern, wechseln ihren Zustand kurzfristig nicht und werden als starr bezeichnet. Natürlich sieht HRSV auch eine Adaption dieser Elemente vor, wenn es beispielsweise zu einer Änderung der Verkehrsführung kommt. Dieser Aspekt der Adaption spielt sich allerdings auf einer anderen zeitlichen Skala ab. Ein Beispiel dafür bilden die Fahrbahnmarkierungen. Im Gegensatz dazu stehen Elemente, die den Zustand häufig wechseln können und somit zustandswechselnd sind. In die letztere Kategorie werden zum Beispiel Ampeln oder Wechselverkehrszeichen eingeordnet.Static environmental characteristics are divided into two further categories. Elements that do not change or only change after a long period of time do not change their status in the short term and are rigidly labeled. Of course, HRSV also provides for an adaptation of these elements if, for example, there is a change in traffic routing. However, this aspect of adaptation takes place on a different time scale. Road markings are an example of this. In contrast, there are elements that can change state frequently and are therefore state-changing. Traffic lights or variable message signs, for example, are classified in the latter category.

Je nach der Region unterscheidet sich das Verhalten der Verkehrsteilnehmer. Beispielsweise werden in Deutschland Verkehrsregeln relativ stark eingehalten, in Italien eher mild, in Großbritannien wird von rechts überholt, usw.The behavior of road users differs depending on the region. For example, in Germany traffic rules are relatively strictly observed, in Italy rather mildly, in Great Britain overtaking is done from the right, etc.

Positionsdaten des Fahrsystems und/oder der Umfeldmerkmale werden über Karteninformationen erfasst. Ein Kartenausschnitt wird gebildet, indem jedem Pixel der Karteninformation entsprechenden Schicht der Umfeldszenen-Repräsentation ein Wert zugeordnet wird. Die Werte basieren auf diskreten Labeln der Karte, beispielsweise Zahlencodes für Straße, Fußgängerweg, unterbrochene Linie, Doppellinie, usw. Position data of the driving system and/or the environmental features are recorded via map information. A map section is formed by assigning a value to each pixel of the map information corresponding layer of the environment scene representation. The values are based on discrete labels of the map, e.g. numeric codes for street, walkway, broken line, double line, etc.

Neben der Karte werden die Vorfahrtsregeln über die Verkehrsregelinformationen abgebildet. Hierzu wird in der Mitte einer jeden Fahrbahn eine Linie gezogen. An Kreuzungen werden zusätzlich Linien gezogen, die alle zulässigen Manöver darstellen. Nach einem Aspekt der Erfindung werden implizit geregelte Information wie beispielsweise „Rechts vor Links“ mit der Beschilderung überlagert. Gegebenenfalls widersprüchliche Regelinformationen werden in dieser Schicht zu einer konsistenten Regel aggregiert, so dass die dann geltenden Regeln als vorrangig behandelt werden.In addition to the map, the right of way rules are shown via the traffic regulation information. A line is drawn in the middle of each lane. Additional lines are drawn at intersections, representing all permissible maneuvers. According to one aspect of the invention, implicitly regulated information such as "right before left" is overlaid with the signage. Any conflicting rule information is aggregated to form a consistent rule in this layer, so that the rules then in effect are treated as having priority.

Verkehrsweiser umfassen zustandswechselnde und zustandsbehaftende Verkehrsweiser. Mit zustandswechselnden Verkehrsweisern werden meist optisch an den Fahrer übergebene Signale, die ihren Zustand im Laufe eines Tages mehrmals wechseln können, zusammengefasst. Beispiele dieser Kategorie sind Ampeln, Wechselverkehrszeichen auf Autobahnen und Einfahrtsanzeigen an Mautstellen. Diese Verkehrsweiser werden als den aktuellen Zustand repräsentierender Pixelwert in dem räumlichen Kontext der Umfeldszenen-Repräsentation dargestellt. Aus Gründen der Redundanz werden solche Pixelregionen in der Regel nicht auf ein Pixel beschränkt, sondern auf eine größere Anzahl von Pixel abgebildet. Die genaue Größe der Ausdehnung wird zumeist auch aus Daten auf ein Optimum angelernt.Traffic advisors include state-changing and stateful traffic advisors. Status-changing traffic signs are usually used to summarize signals that are passed on to the driver visually and that can change their status several times in the course of a day. Examples of this category are traffic lights, variable message signs on motorways and entry signs at toll booths. These traffic signs are represented as a pixel value representing the current state in the spatial context of the local scene representation. For reasons of redundancy, such pixel regions are generally not limited to one pixel, but rather mapped to a larger number of pixels. The exact size of the expansion is mostly learned from data to an optimum.

Die Ankertrajektorien kombinieren Information aus den Vorfahrtsregeln und aus den zustandswechselnden Verkehrsweisern. Die so ermittelten Ankertrajektorien werden nach einem Aspekt der Erfindung mit den Regeln der zustandswechselnden Verkehrsweiser in Einklang gebracht und entsprechend priorisiert. Die Schicht der Ankertrajektorien kann nach einem Aspekt der Erfindung je nach zeitlicher Anforderung an das Fahrsystem die Schichten der Verkehrsweiser und/oder der Verkehrsregelinformationen ergänzen oder ersetzen.The anchor trajectories combine information from the right of way rules and from the status-changing traffic signs. According to one aspect of the invention, the anchor trajectories determined in this way are brought into line with the rules of the status-changing traffic indicators and prioritized accordingly. According to one aspect of the invention, the layer of the anchor trajectories can supplement or replace the layers of traffic instructions and/or traffic regulation information, depending on the time required of the driving system.

Die Befehle des Computerprogramms umfassen Software- und/oder Hardwarebefehle. Das Computerprogramm wird beispielsweise in einen Speicher des erfindungsgemäßen Steuergeräts geladen oder ist in diesem Speicher bereits geladen.The computer program instructions include software and/or hardware instructions. The computer program is loaded into a memory of the control device according to the invention, for example, or is already loaded into this memory.

Nach einem weiteren Aspekt der Erfindung wird das erfindungsgemäße Computerprogramm auf einer Hardware und/oder Software einer Cloud-Einrichtung ausgeführt.According to a further aspect of the invention, the computer program according to the invention is executed on hardware and/or software of a cloud facility.

Das Computerprogramm wird beispielsweise durch einen computerlesbaren Datenträger oder ein Datenträgersignal in den Speicher geladen. Damit wird die Erfindung auch als eine Aftermarket-Lösung realisiert.The computer program is loaded into the memory, for example, by a computer-readable data carrier or a data carrier signal. The invention is thus also implemented as an aftermarket solution.

Das Steuergerät, im Englischen electronic control unit, abgekürzt ECU, genannt, bereitet Eingangssignale auf, verarbeitet diese mittels einer elektronischen Schaltung und stellt Logik- und/oder Leistungspegel als Regel- und/oder Steuersignale bereit. Das erfindungsgemäße Steuergerät ist skalierbar für assistiertes Fahren bis hin zu vollautomatisiertes/autonomes/fahrerloses Fahren.The control unit, abbreviated as ECU, prepares input signals, processes them using an electronic circuit and provides logic and/or power levels as regulation and/or control signals. The control device according to the invention is scalable for assisted driving through to fully automated/autonomous/driverless driving.

Nach einem Aspekt der Erfindung erhält das Steuergerät Rohdaten von Sensoren und umfasst eine Auswerteeinheit, die die Rohdaten für HSRV prozessiert. Nach einem weiteren Aspekt der Erfindung erhält das Steuergerät vorverarbeitete Rohdaten. Nach einem weiteren Aspekt der Erfindung umfasst das Steuergerät eine Schnittstelle zu einer Auswerteeinheit, die die Rohdaten für HSRV prozessiert.According to one aspect of the invention, the control unit receives raw data from sensors and includes an evaluation unit that processes the raw data for HSRV. According to a further aspect of the invention, the control unit receives pre-processed raw data. According to a further aspect of the invention, the control unit includes an interface to an evaluation unit that processes the raw data for HSRV.

Nach einem weiteren Aspekt der Erfindung umfasst das Steuergerät eine Software- und/oder Hardwareebene für die Trajektorienplanung Planung oder High-Level Controlling. Nach dieser Ebene werden dann die Signale an die Aktuatoren gesendet.According to a further aspect of the invention, the control unit includes a software and/or hardware level for trajectory planning or high-level controlling. After this level, the signals are then sent to the actuators.

Die Prozessiereinheit umfasst beispielsweise eine programmierbare elektronische Schaltung. Nach einem Aspekt der Erfindung ist die Prozessiereinheit oder das Steuergerät als ein System-on-Chip ausgeführt.The processing unit includes, for example, a programmable electronic circuit. According to one aspect of the invention, the processing unit or the control device is designed as a system-on-chip.

Nach einem Aspekt der Erfindung umfasst die Szenen-Repräsentation:

  • • eine erste Schicht umfassend die regionalen Informationen zum Verhalten der Verkehrsteilnehmer und/oder Wetterinformationen,
  • • eine zweite Schicht umfassend Karteninformationen zur Bestimmung der Position des Fahrsystems,
  • • eine dritte Schicht umfassend die Verkehrsregelinformationen,
  • • eine vierte Schicht umfassend die Verkehrsweiser,
  • • eine fünfte Schicht umfassend die Ankertrajektorien,
  • • eine sechste Schicht umfassend semantisch-explizite Informationen,
  • • eine siebte Schicht umfassend semantisch-latente Informationen und
  • • eine achte Schicht umfassend die Bewegungsinformationen.
According to one aspect of the invention, the scene representation includes:
  • • a first layer comprising the regional information on the behavior of road users and/or weather information,
  • • a second layer containing map information for determining the position of the driving system,
  • • a third layer comprising the traffic rule information,
  • • a fourth layer comprising traffic signs,
  • • a fifth layer comprising the anchor trajectories,
  • • a sixth layer comprising semantically explicit information,
  • • a seventh layer comprising semantic-latent information and
  • • an eighth layer comprising the movement information.

Nach einem weiteren Aspekt der Erfindung werden

  • • die regionalen Informationen und/oder die Wetterinformationen in Form von Codes bereitgestellt oder ein Maschinenlernalgorithmus lernt über eine Eingabe von globalen Koordinaten und Fahrdaten des Fahrsystems einen Zusammenhang zwischen Region und Fahrverhalten,
  • • die Position des Fahrsystems zu einem bestimmten Zeitpunkt aus einem Kartenausschnitt bestimmt und der Kartenausschnitt für jeden neuen Zeitschritt generiert oder der Kartenausschnitt nach einer vorgegebenen Anzahl von Zeitschritten aktualisiert, wobei jedem Pixel der zweiten Schicht ein Wert der Karte zugeordnet wird,
  • • die Verkehrsregelinformationen mittels aus den Umfeldsensordaten erfassten Verkehrsschildern und/oder aus den regionalen Informationen abgeleiteten Verkehrsregeln bestimmt,
  • • ein Zustand der Verkehrsweiser als Pixelwert in der vierten Schicht dargestellt,
  • • die Ankertrajektorien, die nach einem Aspekt der Erfindung von einem Verkehrsteilnehmer erreichbaren Fahrbahnlinien umfassen, in Abhängigkeit der Verkehrsweiser priorisiert,
  • • die semantischen Informationen in Form von Merkmalsvektoren dargestellt und/oder
  • • die Bewegungsinformationen mittels eines Maschinenlernalgorithmus über Zeitschritte gelernt und bestimmt und räumlich dargestellt.
According to a further aspect of the invention
  • • the regional information and/or the weather information is provided in the form of codes or a machine learning algorithm learns a connection between the region and driving behavior by entering global coordinates and driving data of the driving system,
  • • the position of the driving system is determined from a map section at a specific point in time and the map section is generated for each new time step or the map section is updated after a specified number of time steps, with each pixel of the second layer being assigned a value on the map,
  • • the traffic regulation information is determined by means of traffic signs recorded from the environmental sensor data and/or traffic regulations derived from the regional information,
  • • a status of the traffic sign displayed as a pixel value in the fourth layer,
  • • the anchor trajectories, which according to one aspect of the invention include lane lines that can be reached by a road user, are prioritized depending on the traffic signs,
  • • the semantic information is presented in the form of feature vectors and/or
  • • The movement information is learned and determined using a machine learning algorithm via time steps and displayed spatially.

Das hinzuführen der regionalen Information, beispielsweise in Form eines Landescodes aus einer Tabelle, führt zu einer Verbesserung der Prädiktionsgüte. Jede Region wird über einen bestimmten Landes- oder Regionscode repräsentiert ist. Äquivalent dazu wird die aktuelle Wettersituation über einen Wettercode verarbeitet. Dieser Code kann dem Maschinenlernalgorithmus auch global, das heißt nicht über eine Schicht, zur Verfügung gestellt werden. Der Maschinenlernalgorithmus hat damit die Möglichkeit, die realen Zusammenhänge von Region und/oder Wetter und gelebtem Fahrverhalten zu erlernen. Alternativ wird, um den räumlichen Aspekt auch bei einem Faltungsnetzwerk zu erhalten, derselbe regionale Wert jedem Pixel in einer Schicht zugeordnet. In Bezug auf die regionale Information ist es eine Option, statt eines Landescodes unmittelbar über die globalen Koordinaten einen Zusammenhang zwischen Region und Fahrverhalten zu erlernen und somit eine Experten basierte Abgrenzung von Regionen nicht durchführen zu müssen. Solche Landes- oder Wettercodes bleiben meistens über einen längeren Zeitpunkt für denselben Ort gleich, sind damit also starr. Das Wetter ändert sich natürlich und dieser Änderung wird Rechnung getragen, aber zumeist ist die Änderung auch noch etwas langsamer als zum Beispiel die Änderungen einer Ampel und noch langsamer als die Bewegungen von anderen Verkehrsteilnehmern.Adding the regional information, for example in the form of a country code from a table, leads to an improvement in the prediction quality. Each region is represented by a specific country or region code. Equivalently, the current weather situation is processed via a weather code. This code can also be made available to the machine learning algorithm globally, i.e. not across a layer. The machine learning algorithm thus has the opportunity to learn the real connections between region and/or weather and actual driving behavior. Alternatively, to preserve the spatial aspect even with a convolutional network, the same regional value is assigned to each pixel in a layer. With regard to the regional information, one option is to learn a connection between the region and driving behavior directly via the global coordinates instead of a country code, and thus not having to carry out an expert-based delimitation of regions. Such country or weather codes usually remain the same for the same place over a longer period of time, so they are rigid. The weather changes, of course, and this change is taken into account, but usually the change is also somewhat slower than, for example, the changes in a traffic light and even slower than the movements of other road users.

Beispielsweise werden Ländercodes über folgende Look-Up-Tabelle erhalten: Regionale Information Beschreibung Verkehrsregeln 0 keine - 1 Deutschland stark 2 Italien mild 3 Großbritannien Umgekehrt, stark 4 USA Stark, anders 5 Kongo Unbekannt, anders ... ... ... For example, country codes are obtained from the following look-up table: Regional information description traffic rules 0 no - 1 Germany strong 2 Italy mild 3 Great Britain Vice versa, strong 4 USA Strong, different 5 Congo Unknown, different ... ... ...

Pixelwerte für Ampeln werden beispielsweise aus folgender Look-Up-Tabelle entnommen: Ampelphasen Beschreibung 0 Grün 1 Gelb 2 Rot 3 Gelb-Rot 4 Ampel steht auf blinkend 5 Ampel ist komplett aus 6 Rot, Rechter Pfeil 7 Rot, Linker Pfeil ... ... For example, pixel values for traffic lights are taken from the following look-up table: traffic light phases description 0 green 1 yellow 2 Red 3 Yellow Red 4 Traffic light is flashing 5 Traffic light is completely off 6 Red Right Arrow 7 Red Left Arrow ... ...

Nach einem weiteren Aspekt der Erfindung werden Straßenlinienarten beispielsweise aus folgender Look-Up-Tabelle entnommen: Straßenlinien Beschreibung 0 keine 1 Unterbrochene Linien 2 Durchgezogene Linien 3 Doppellinien 4 Fahrrad Linien ... ... According to a further aspect of the invention, street line types are taken from the following look-up table, for example: street lines description 0 no 1 Broken Lines 2 solid lines 3 double lines 4 bike lines ... ...

Neben dem dynamischen Verhalten ist auch eine semantische Beschreibung der Verkehrsteilnehmer und ihrer Eigenschaften für die Prädiktion der Bewegung hilfreich. Beispielsweise hat ein Lastkraftwagen andere Begrenzungen des dynamischen Verhaltens als ein Fahrradfahrer. Nach einem Aspekt der Erfindung werden semantische Informationen in einem Merkmalsvektor gebündelt. Beispiele für diese Art von Information sind die Fahrzeugklasse, beispielsweise LKW, PKW, Motorrad, Fahrrad, Fußgänger, die Höhe und Breite der Objekte oder Zustände der Blinklichter, beispielsweise rechts, links, warnen, aus. Deskriptoren beschreiben diese Eigenschaften, das heißt sie erzeugen die Merkmalsvektoren zur Eingabe in einen Maschinenlernalgorithmus. Diese Deskriptoren werden in gleicher Art und Weise wie die Deskriptoren der dynamischen Information angeordnet und bilden die Schicht der semantisch-expliziten Information.In addition to the dynamic behavior, a semantic description of the road users and their characteristics is also helpful for predicting the movement. For example, a truck has different dynamic behavior limitations than a cyclist. According to one aspect of the invention, semantic information is bundled into a feature vector. Examples of this type of information are the vehicle class, for example truck, car, motorcycle, bicycle, pedestrian, the height and width of the objects or states of the flashing lights, for example right, left, warning, off. Descriptors describe these properties, i.e. they generate the feature vectors for input into a machine learning algorithm. These descriptors are arranged in the same way as the dynamic information descriptors and form the semantically explicit information layer.

Optional wird zusätzliche semantische Information des Verkehrsteilnehmers durch die Verwendung latenter Merkmalsvektoren realisiert. Latent bedeutet, dass die Information vom Menschen nicht direkt interpretierbar, sondern in gewisser Weise implizit in den Daten enthalten sind. Die Berechnung dieser latenten Merkmalsvektoren wird nach einem Aspekt der Erfindung mit künstlichen tiefen neuronalen Netzwerken durchgeführt. Beispielsweise sind Objekt-Klassifikatoren, die der erfindungsgemäßen Umfeldszenen-Repräsentation vorgelagert sind, als künstliche tiefe neuronale Netzwerke realisiert. Im Allgemeinen wird bei der Klassifikation ein solcher latenter Merkmalsvektor als Zwischenprodukt generiert. Diese latenten Zwischenvektoren aller Verkehrsteilnehmer werden in oben beschriebener Art und Weise räumlich angeordnet und bilden die Schicht der semantisch-latenten Information. Nach einem Aspekt der Erfindung wird die semantisch-explizite Schicht mit der semantisch-latenten Schicht ergänzt. Ein Vorteil der semantisch latenten Information ist die Robustheit gegenüber Rauschsignalen diskreter Klassen. Wenn die diskrete Klassifikation zwischen zwei Klassen schwankt, beispielsweise LKW und PKW, ist es schwierig, die Klasseninformation richtig zu interpretieren. Da der latente Merkmalsvektor ein Vektor kontinuierlicher Zahlen ist, wirken sich Schwankungen kaum bis gar nicht aus und es wird eine robustere Interpretation der semantischen Information des Objekts ermöglicht.Optionally, additional semantic information of the road user is realized through the use of latent feature vectors. Latent means that the information cannot be directly interpreted by humans, but is in some way implicitly contained in the data. According to one aspect of the invention, these latent feature vectors are calculated using artificial deep neural networks accomplished. For example, object classifiers, which are upstream of the environmental scene representation according to the invention, are implemented as artificial deep neural networks. In general, such a latent feature vector is generated as an intermediate product during classification. These latent intermediate vectors of all road users are spatially arranged in the manner described above and form the layer of semantic-latent information. According to one aspect of the invention, the semantically explicit layer is supplemented with the semantically latent layer. An advantage of the semantically latent information is the robustness against noise signals of discrete classes. When the discrete classification varies between two classes, such as truck and passenger car, it is difficult to correctly interpret the class information. Because the latent feature vector is a vector of continuous numbers, fluctuations have little to no effect and allow for a more robust interpretation of the object's semantic information.

Der dynamische Teil beschreibt die beweglichen Verkehrsteilnehmer der Szene. Hierbei werden die Koordinaten der Verkehrsteilnehmer über einen bestimmten Zeitraum genutzt, um mit einem Deskriptor dieses dynamischen Bewegungsverhaltens zu generieren. Das Fahrverhalten kann durchaus auch latent enthalten sein. Die Berechnung dieses Deskriptors wird einerseits mittels eines künstlichen tiefen neuronalen Netzwerks gelernt, beispielsweise einem Netzwerk umfassend Long-Short-Term-Memory-Schichten, abgekürzt LSTM. Bei LSTMs ist nach einer Einschwingphase eine iterative Anpassung des Deskriptors nur durch Eingabe der Koordinate des nächsten Zeitschrittes möglich. Nach einem Aspekt der Erfindung werden hier Parameter eines Fahrdynamik- oder Bewegungsdynamikmodells verwendet, beispielsweise mittels Kalman-Filter. Die Deskriptoren aller Verkehrsteilnehmer werden basierend auf der letzten Koordinate räumlich angeordnet und bilden die Schicht der Bewegungsinformation.The dynamic part describes the moving road users in the scene. The coordinates of the road users are used over a certain period of time to generate a descriptor for this dynamic movement behavior. Driving behavior can also be contained latently. The calculation of this descriptor is learned on the one hand by means of an artificial deep neural network, for example a network comprising long-short-term memory layers, LSTM for short. With LSTMs, after a settling phase, an iterative adjustment of the descriptor is only possible by entering the coordinates of the next time step. According to one aspect of the invention, parameters of a vehicle dynamics or movement dynamics model are used here, for example by means of a Kalman filter. The descriptors of all road users are spatially arranged based on the last coordinate and form the layer of movement information.

Nach einem weiteren Aspekt der Erfindung werden die Umfeldmerkmale in Pixeln der Schichten und/oder über Merkmalsvektoren mit räumlichen Ankerpunkten dargestellt werden. Die Merkmalsvektoren haben einen vorgegebenen räumlichen Ankerpunkt. Nach einem weiteren Aspekt der Erfindung werden die Umfeldmerkmale als Farbwerte der Pixeln interpretiert.According to a further aspect of the invention, the environmental features are represented in pixels of the layers and/or via feature vectors with spatial anchor points. The feature vectors have a predetermined spatial anchor point. According to a further aspect of the invention, the environmental features are interpreted as color values of the pixels.

Nach einem weiteren Aspekt der Erfindung wird in jeder Schicht eine räumliche Lage der Umfeldmerkmale über eine korrespondierende Position in einer Karte erfasst. According to a further aspect of the invention, a spatial position of the environment features is recorded in each layer via a corresponding position on a map.

Dies ist vorteilhaft für eine räumlich korrespondierende Anordnung der Umfeldmerkmale.This is advantageous for a spatially corresponding arrangement of the environmental features.

Nach einem weiteren Aspekt der Erfindung werden räumliche Koordinaten des Fahrsystems und/oder der Umfeldmerkmale in Pixeln dargestellt, wobei ein Pixel in jeder der Schichten einer gleichen Streckenlänge entspricht.According to a further aspect of the invention, spatial coordinates of the driving system and/or the environmental features are represented in pixels, with one pixel in each of the layers corresponding to the same route length.

In einer Ausgestaltung des erfindungsgemäßen Verfahrens zum Lernen einer Prädiktion werden mehrere Umfeldszenen-Repräsentationen bereitgestellt, die die statischen und dynamischen Umfeldmerkmale umfassend die Verkehrsteilnehmer über eine variable Anzahl von x Zeitschritten abbilden.In one embodiment of the method according to the invention for learning a prediction, a number of environment scene representations are provided, which depict the static and dynamic environment features including the road users over a variable number of x time steps.

Mittels dieser Umfeldszenen-Repräsentationen wird der Maschinenlernalgorithmus angelernt, validiert und getestet. Während der Validierung werden in dem Lernprozess enthaltene Meta-Parameter geeignet eingestellt. Während der Testphase wird die Vorhersage des angelernten Maschinenlernalgorithmus bewertet.The machine learning algorithm is trained, validated and tested using these environment scene representations. During the validation, meta-parameters included in the learning process are adjusted appropriately. During the test phase, the prediction of the learned machine learning algorithm is evaluated.

Die Umfeldszenen-Repräsentation wird erfindungsgemäß an die neuronalen Strukturen angekoppelt. Der Vorteil der erfindungsgemäßen Umfeldszenen-Repräsentation besteht darin, dass eine sehr große und sehr flexible Menge an Informationen bereitgestellt wird, auf die der Maschinenlernalgorithmus zugreifen kann. Innerhalb der Lernphase, in der die variablen Parameter/Gewichte des Maschinenlernalgorithmus eingestellt werden, bildet sich dann die Verwendung der speziellen Informationen heraus, die am besten dazu geeignet ist, die Aufgabe der Prädiktion zu leisten.According to the invention, the environment scene representation is coupled to the neural structures. The advantage of the environmental scene representation according to the invention is that a very large and very flexible amount of information is provided which the machine learning algorithm can access. Within the learning phase, in which the variable parameters/weights of the machine learning algorithm are adjusted, the use of the specific information that is best suited to perform the task of prediction then emerges.

In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens zum Lernen einer Prädiktion von Umfeldszenen umfasst der Maschinenlernalgorithmus eine Encodierer-Decodierer-Struktur umfasst,

  • • die Umfeldszenen-Repräsentationen encodiert in ein Faltungsnetzwerk eingegeben werden,
  • • das Faltungsnetzwerk lernt, Interaktionen zwischen den Schichten der Umfeldszenen-Repräsentation, Interaktionen zwischen Verkehrsteilnehmern und/oder Interaktionen zwischen Verkehrsteilnehmer und Umfeldmerkmalen darzustellen und in Form eines Ausgabevolumens, dessen Höhe und Breite gleich der Größe der Umfeldszenen-Repräsentation ist, auszugeben, wobei aus dem Ausgabevolumen für jeden Verkehrsteilnehmer eine Spalte basierend auf der Pixel-diskreten Position des Verkehrsteilnehmers ermittelt wird und die Spalte mit einem Vektor, der das dynamische Verhalten beschreibt, konkateniert wird,
  • • aus dem Konkatenieren erhaltenen zusammengesetzten Merkmalsvektoren in prädizierte Trajektorien des Fahrsystems und/oder der Verkehrsteilnehmer decodiert werden.
In a further embodiment of the method according to the invention for learning a prediction of environmental scenes, the machine learning algorithm comprises an encoder-decoder structure,
  • • the environmental scene representations are encoded and entered into a convolution network,
  • • the convolution network learns to represent interactions between the layers of the environment scene representation, interactions between road users and/or interactions between road users and environment features and in the form of an output volume whose height and width are equal the size of the environment scene representation is to be output, with a column being determined from the output volume for each road user based on the pixel-discrete position of the road user and the column being concatenated with a vector that describes the dynamic behavior,
  • • Composite feature vectors obtained from the concatenation are decoded into predicted trajectories of the driving system and/or the road users.

Nach einem weiteren Aspekt der Erfindung basieren die Encodierer und/oder Decodierer auf Long-Short-Term-Memory Technik.According to a further aspect of the invention, the encoders and/or decoders are based on long-short-term memory technology.

Nach einem weiteren Aspekt der Erfindung werden durch generatives adversariales Lernen Rauschvektoren konkateniert und durch unterschiedliche Rauschvektoren für identische Trajektorien in der Vergangenheit unterschiedliche Trajektorien in der Zukunft generiert. Dadurch werden multimodale Unsicherheiten von Prädiktionen erfasst.According to a further aspect of the invention, noise vectors are concatenated by generative adversarial learning and different trajectories in the future are generated by different noise vectors for identical trajectories in the past. This captures multimodal uncertainties of predictions.

In einer Ausführungsform der Erfindung ist der Maschinenlernalgorithmus ein Multi-Agent Tensor Fusion Encodierer-Decodierer. Ein Multi-Agent Tensor Fusion Encodierer-Decodierer für statische Umfeldszenen ist in arXiv: 1904.04776v2 [cs.CV] offenbart. Die Erfindung stellt einen Multi-Agent Tensor Fusion Algorithmus für die erfindungsgemäße Umfeldszenen-Repräsentation bereit, die neben statischen Umfeldmerkmalen auch dynamische Umfeldmerkmale umfasst. Der erfindungsgemäße Multi-Agent Tensor Fusion Algorithmus erhält keine statischen Umfeldszenen als Eingabe, sondern die HSRV umfassend dynamische Umfeldmerkmale.In one embodiment of the invention, the machine learning algorithm is a multi-agent tensor fusion encoder-decoder. A multi-agent tensor fusion encoder-decoder for static environmental scenes is disclosed in arXiv: 1904.04776v2 [cs.CV]. The invention provides a multi-agent tensor fusion algorithm for the environment scene representation according to the invention, which also includes dynamic environment features in addition to static environment features. The multi-agent tensor fusion algorithm according to the invention does not receive static environmental scenes as input, but rather the HSRV containing dynamic environmental features.

Ein Encodierer-Decodierer-LSTM-Netzwerk ist besonders gut geeignet, um sequenzbasierte Probleme zu lösen.An encoder-decoder LSTM network is particularly well suited to solving sequence-based problems.

Nach einem Aspekt der Erfindung werden die Rauschvektoren durch ein generatives adversariales Netzwerk, abgekürzt GAN, erzeugt, beispielsweise durch das in arXiv: 1904.04776v2 [cs.CV] unter Punkt 3.3 offenbarte GAN.According to one aspect of the invention, the noise vectors are generated by a generative adversarial network, abbreviated GAN, for example by the GAN disclosed in arXiv: 1904.04776v2 [cs.CV] under point 3.3.

Die Erfindung wird in den folgenden Ausführungsbeispielen verdeutlicht. Es zeigen:

  • 1 eine Darstellung einer erfindungsgemäßen Umfeldszenen-Repräsentation,
  • 2 eine Darstellung eines erfindungsgemäßen Maschinenlernverfahrens,
  • 3 eine Darstellung eines erfindungsgemäßen Steuergeräts und
  • 4 eine Darstellung des erfindungsgemäßen Verfahrens zum Erhalten der Umfeldszenen-Repräsentation aus 1.
The invention is illustrated in the following exemplary embodiments. Show it:
  • 1 a representation of an environment scene representation according to the invention,
  • 2 a representation of a machine learning method according to the invention,
  • 3 a representation of a control unit according to the invention and
  • 4 shows a representation of the method according to the invention for obtaining the environment scene representation 1 .

In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile. Übersichtshalber werden in den einzelnen Figuren nur die jeweils relevanten Bezugsteile hervorgehoben.In the figures, the same reference symbols denote the same or functionally similar reference parts. For the sake of clarity, only the relevant reference parts are highlighted in the individual figures.

1 zeigt beispielhaft eine erfindungsgemäße Umfeldszenen-Repräsentation HSRV. In der dargestellten Umfeldszene E befindet sich ein PKW als Beispiel eines Fahrsystems R an einer Einmündung. An der Einmündung befindet sich ein Fußgänger W. Die Vorfahrt wird über eine Ampel L geregelt. Die Ampelschaltung L zeigt dem PKW R die grüne Ampelphase an und dem Fußgänger W die rote. Über der Darstellung dieser Situation aus der Vogelperspektive werden die verschiedenen Schichten, die für die Prädiktion der Trajektorien der Verkehrsteilnehmer wesentlich sind, abgebildet. In Schicht A wird die regionale Information dargestellt. Schicht B bedient sich der Karteninformation, Schicht C der Verkehrsregelinformation. Die zustandsbehafteten Verkehrsweiser und die Ankertrajektorien sind in Schicht D und Schicht E enthalten. In Schicht F werden semantische Merkmale der einzelnen Verkehrsteilnehmer beschrieben. Schicht G und Schicht H enthalten latente Information, wobei diese Information in Schicht G auf Eigenschaften, die den Verkehrsteilnehmer beschrieben, und in Schicht H auf dem dynamischen Bewegungsverhalten basiert. 1 shows an example of a surrounding scene representation HSRV according to the invention. In the environment scene E shown, there is a car as an example of a driving system R at a junction. At the junction there is a pedestrian W. The right of way is controlled by a traffic light L. The traffic light circuit L shows the car R the green traffic light phase and the pedestrian W the red one. The various layers that are essential for the prediction of the trajectories of the road users are shown above the representation of this situation from a bird's eye view. Layer A shows the regional information. Layer B uses the map information, layer C the traffic regulation information. The stateful traffic signs and the anchor trajectories are contained in layer D and layer E. Layer F describes the semantic characteristics of the individual road users. Layer G and layer H contain latent information, with this information in layer G being based on properties that describe the road user and in layer H on the dynamic movement behavior.

Die Schichten A bis E sind statische Schichten und beschreiben statische Umfeldmerkmale stat der Umfeldszene E. Dabei beschreiben die Schichten A bis C starre statische Umfeldmerkmale stat_1 und die Schichten D und E zustandswechselnde statische Umfeldmerkmale stat_2.Layers A to E are static layers and describe static environmental features stat of environmental scene E. Layers A to C describe rigid static environmental features stat_1 and layers D and E state-changing static environmental features stat_2.

Die Schichten F bis H sind dynamische Schichten und beschreiben dynamische Umfeldmerkmale dyn der Umfeldszene E.The layers F to H are dynamic layers and describe dynamic environment features dyn of the environment scene E.

2 zeigt eine exemplarische Architektur eines künstlichen tiefen neuronalen Netzwerks DNN, das die Umfeldszenen-Repräsentation HSRV als Eingabe bekommt. die Die Umfeldszenen-Repräsentation HSRV wird als Feature Volumen in das Netzwerk DNN eingegeben. Beispielsweise umfasst das Netzwerk DNN eine Faltungsnetzwerk-Encodierer-Decodierer Struktur, über die mittels Multi-Agent Tensor Fusion die Interaktionen zwischen den verschiedenen Schichten A-H und, aufgrund seiner auf Filtermasken basierenden Architektur, die Interaktionen mit sich in der Umgebung befindenden Elementen der Umfeldszenen-Repräsentation HSRV modelliert werden. Ein Feature Volumen resultiert aus dem Netzwerk DNN, wobei Höhe und Breite dem Eingabevolumen entsprechen. Das Eingabevolumen ist die Umfeldszenen-Repräsentation HSRV. Aus dem Ausgabevolumen V wird für jeden Verkehrsteilnehmer nun eine Spalte gewählt und mit dem Vektor, der das dynamische Verhalten beschreibt, und einem Rauschvektor konkateniert. Die Spalte wird basierend auf der quantisierten Position des Verkehrsteilnehmers ermittelt. Die zusammengesetzte Feature-Vektoren werden nun jeweils in einen LSTM Decoder gegeben. Dieser Decoder generiert dann die zukünftige Trajektorie pro Verkehrsteilnehmer. Da im Training gemäß des GAN Setups verschiedene Rauschvektoren konkateniert werden, können in der Inferenz durch unterschiedliche Rauschvektoren für identische Trajektorien in der Vergangenheit unterschiedliche Trajektorien in der Zukunft generiert werden. 2 shows an exemplary architecture of an artificial deep neural network DNN that receives the environment scene representation HSRV as input. The environment scene representation HSRV is entered into the network DNN as a feature volume. For example, the network DNN includes a convolutional network-encoder-decoder structure, which uses multi-agent tensor fusion to control the interactions between the various layers AH and, due to its architecture based on filter masks, the interactions with elements of the environment scene representation located in the environment HSRV are modeled. A feature volume results from the network DNN, where height and width correspond to the input volume. The input volume is the environment scene representation HSRV. A column is now selected for each road user from the output volume V and concatenated with the vector that describes the dynamic behavior and a noise vector. The column is determined based on the quantized position of the road user. The assembled feature vectors are now each fed into an LSTM decoder. This decoder then generates the future trajectory for each road user. Since different noise vectors are concatenated in the training according to the GAN setup, different noise vectors for identical trajectories in the past can be used in the inference to generate different trajectories in the future.

Das in 3 gezeigte Steuergerät ECU erhält über erste Schnittstellen INT 1 Umfeldsensordaten U, beispielsweise von einer oder mehreren Kameras des Fahrsystems R. Eine Prozessiereinheit P, beispielsweise eine CPU, GPU oder FPGA, führt Objekt-Klassifikatoren aus und bestimmt dabei aus den Umfeldsensordaten U die statischen und/oder dynamischen Umfeldmerkmale stat und dyn. Die Prozessiereinheit P prozessiert die Umfeldmerkmale mit einem erfindungsgemäß angelernten Maschinenlernalgorithmus und erhält prädizierte Umfeldszenen. Basierend auf den prädizierten Umfeldszenen bestimmt die Prozessiereinheit P Regel- und/oder Steuersignale für einen automatisierten Betrieb des Fahrsystems R. Über zweite Schnittstellen INT 2 stellt das Steuergerät ECU die Regel- und/oder Steuersignale Aktuatoren zur Längs- und/oder Querführung des Fahrsystems R bereit.This in 3 The control unit ECU shown receives environmental sensor data U via first interfaces INT 1 , for example from one or more cameras of the driving system R. A processing unit P, for example a CPU, GPU or FPGA, executes object classifiers and uses the environmental sensor data U to determine the static and/or or dynamic environmental characteristics stat and dyn. The processing unit P processes the environmental features using a machine learning algorithm learned according to the invention and obtains predicted environmental scenes. Based on the predicted environmental scenes, the processing unit P determines regulation and/or control signals for automated operation of the driving system R. The control unit ECU uses second interfaces INT 2 to provide the regulation and/or control signals to actuators for longitudinal and/or lateral guidance of the driving system R ready.

4 zeigt die Schritte des Verfahren zum Erhalten einer Umfeldszenen-Repräsentation. In Schritt V1 werden die Umfeldmerkmalen stat und dyn erhalten. In Schritt V2 werden die Schichten A-H mit den jeweiligen Umfeldmerkmalen stat und dyn erzeugt. In Schritt V3 wird das Fahrsystem R basierend auf der Szenen-Repräsentation HSRV geregelt und/oder gesteuert. 4 shows the steps of the method for obtaining a surround scene representation. In step V1, the environmental features stat and dyn are obtained. In step V2, the slices AH are generated with the respective environment features stat and dyn. In step V3, the driving system R is regulated and/or controlled based on the scene representation HSRV.

BezugszeichenlisteReference List

HSRVHSRV
Umfeldszenen-RepräsentationEnvironment Scene Representation
statstat
statisches Umfeldmerkmalstatic environment feature
stat_1stat_1
statisch starre Umfeldmerkmalestatically rigid environmental features
stat_2stat_2
statisch zustandswechselnde Umfeldmerkmalestatic state-changing environmental features
dyndynamic
dynamisches Umfeldmerkmaldynamic environment feature
A-HAH
Schichtenlayers
EE
Umfeldszeneenvironment scene
Uu
Umfeldsensordatenenvironmental sensor data
VV
Ausgabevolumenoutput volume
WW
Fußgängerpedestrian
LL
Ampeltraffic light
DNNDNN
künstliches tiefes neuronales Netzwerkartificial deep neural network
V1-V3V1-V3
Verfahrensschritteprocess steps
ECUECU
Steuergerätcontrol unit
INT1INT1
erste Schnittstellenfirst interfaces
INT2INT2
zweite Schnittstellensecond interfaces
PP
Prozessiereinheitprocessing unit

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • EP 2771873 B1 [0005]EP 2771873 B1 [0005]

Claims (12)

Computerimplementiertes Verfahren zum Erhalten einer Umfeldszenen-Repräsentation (HSRV) für ein automatisiertes Fahrsystem (R) umfassend die Schritte • Erhalten von Umfeldmerkmalen aus realen und/oder virtuellen Umfeldsensordaten (U) des Fahrsystems (R) (V1) und • Anordnen der Umfeldmerkmale in der Szenen-Repräsentation (HSRV) (V2) umfassend mehrere in räumlicher Relation angeordnete Schichten (A-H) umfassend jeweils statische (stat) oder dynamische (dyn) Umfeldmerkmale, wobei • die statischen (stat) Umfeldmerkmale regionale Informationen, Positionsdaten des Fahrsystems und/oder der Umfeldmerkmale, Verkehrsregelinformationen, Verkehrsweiser und Ankertrajektorien umfassen, • die dynamischen (dyn) Umfeldmerkmale semantische Informationen und Bewegungsinformationen der Verkehrsteilnehmer umfassen und • das Fahrsystem (R) basierend auf der Szenen-Repräsentation (HSRV) geregelt und/oder gesteuert wird (V3).Computer-implemented method for obtaining an environment scene representation (HSRV) for an automated driving system (R) comprising the steps • obtaining environment features from real and/or virtual environment sensor data (U) of the driving system (R) (V1) and • Arranging the environment features in the scene representation (HSRV) (V2) comprising a plurality of spatially arranged layers (A-H) each comprising static (stat) or dynamic (dyn) environment features, wherein • the static (stat) environment features include regional information, position data of the driving system and/or the environment features, traffic regulation information, traffic signs and anchor trajectories, • the dynamic (dyn) environment features include semantic information and movement information of road users and • the driving system (R) is regulated and/or controlled (V3) based on the scene representation (HSRV). Verfahren nach Anspruch 1, wobei die Szenen-Repräsentation (HSRV) umfasst: • eine erste Schicht (A) umfassend die regionalen Informationen zum Verhalten der Verkehrsteilnehmer und/oder Wetterinformationen, • eine zweite Schicht (B) umfassend Karteninformationen zur Bestimmung der Position des Fahrsystems, • eine dritte Schicht (C) umfassend die Verkehrsregelinformationen, • eine vierte Schicht (D) umfassend die Verkehrsweiser, • eine fünfte Schicht (E) umfassend die Ankertrajektorien, • eine sechste Schicht (F) umfassend semantisch-explizite Informationen, • eine siebte Schicht (G) umfassend semantisch-latente Informationen und • eine achte Schicht (H) umfassend die Bewegungsinformationen.procedure after claim 1 , wherein the scene representation (HSRV) comprises: • a first layer (A) comprising the regional information on the behavior of road users and/or weather information, • a second layer (B) comprising map information for determining the position of the driving system, • a third Layer (C) comprising the traffic rule information, • a fourth layer (D) comprising the traffic signs, • a fifth layer (E) comprising the anchor trajectories, • a sixth layer (F) comprising semantically explicit information, • a seventh layer (G) comprising semantic-latent information and • an eighth layer (H) comprising the movement information. Verfahren nach Anspruch 1 oder 2, wobei • die regionalen Informationen und/oder die Wetterinformationen in Form von Codes bereitgestellt werden oder wobei ein Maschinenlernalgorithmus über eine Eingabe von globalen Koordinaten und Fahrdaten des Fahrsystems einen Zusammenhang zwischen Region und Fahrverhalten lernt, • die Position des Fahrsystems zu einem bestimmten Zeitpunkt aus einem Kartenausschnitt bestimmt wird und der Kartenausschnitt für jeden neuen Zeitschritt generiert wird oder der Kartenausschnitt nach einer vorgegebenen Anzahl von Zeitschritten aktualisiert wird, wobei jedem Pixel der zweiten Schicht ein Wert basierend auf der Klasse des Kartensegments zugeordnet wird, • die Verkehrsregelinformationen mittels aus den Umfeldsensordaten erfassten Verkehrsschildern und/oder aus den regionalen Informationen abgeleiteten Verkehrsregeln bestimmt werden, • ein Zustand der Verkehrsweiser als Pixelwert in der vierten Schicht (D)dargestellt wird, • die Ankertrajektorien die von einem Verkehrsteilnehmer erreichbaren Fahrbahnlinien umfassen und/oder in Abhängigkeit der Verkehrsweiser priorisiert werden, • die semantischen Informationen in Form von Merkmalsvektoren dargestellt werden und/oder • die Bewegungsinformationen mittels eines Maschinenlernalgorithmus über Zeitschritte gelernt und bestimmt werden und räumlich dargestellt werden.procedure after claim 1 or 2 , where • the regional information and/or the weather information is provided in the form of codes or where a machine learning algorithm learns a connection between region and driving behavior by entering global coordinates and driving data of the driving system, • the position of the driving system at a specific point in time from a map section is determined and the map section is generated for each new time step or the map section is updated after a specified number of time steps, with each pixel of the second layer being assigned a value based on the class of the map segment, • the traffic regulation information using traffic signs recorded from the environmental sensor data and/or traffic rules derived from the regional information are determined, • a status of the traffic sign is displayed as a pixel value in the fourth layer (D), • the anchor trajectories are those that can be reached by a road user include lane lines and/or are prioritized depending on the traffic sign, • the semantic information is presented in the form of feature vectors and/or • the movement information is learned and determined using a machine learning algorithm over time steps and is presented spatially. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Umfeldmerkmale (stat, dyn) in Pixeln der Schichten (A-H) und/oder über Merkmalsvektoren mit räumlichen Ankerpunkten dargestellt werden.Procedure according to one of Claims 1 until 3 , whereby the environmental features (stat, dyn) are represented in pixels of the layers (AH) and/or via feature vectors with spatial anchor points. Verfahren nach einem der Ansprüche 1 bis 4, wobei in jeder Schicht (A-H) eine räumliche Lage der Umfeldmerkmale (stat, dyn) über eine korrespondierende Position in einer Karte erfasst wird.Procedure according to one of Claims 1 until 4 , where in each layer (AH) a spatial position of the environmental features (stat, dyn) is recorded via a corresponding position on a map. Verfahren nach einem der Ansprüche 1 bis 5, wobei räumliche Koordinaten des Fahrsystems (R) und/oder der Umfeldmerkmale (stat, dyn) in Pixeln dargestellt werden, wobei ein Pixel in jeder der Schichten (A-H) einer gleichen Streckenlänge entspricht.Procedure according to one of Claims 1 until 5 , wherein spatial coordinates of the driving system (R) and/or the environmental features (stat, dyn) are represented in pixels, one pixel in each of the layers (AH) corresponding to the same route length. Computerprogramm zum Erhalten einer Umfeldszenen-Repräsentation (HSRV) für ein automatisiertes Fahrsystem (R) umfassend Befehle, die bewirken, dass ein Computer eines der Verfahren der Ansprüche 1 bis 6 ausführt, wenn das Programm auf dem Computer ausgeführt wird.Computer program for obtaining an environment scene representation (HSRV) for an automated driving system (R) comprising instructions that cause a computer to perform one of the methods of Claims 1 until 6 executes when the program is run on the computer. Computerimplementiertes Verfahren zum Lernen einer Prädiktion von Umfeldszenen (E) für ein automatisiertes Fahrsystem (R), wobei ein Maschinenlernalgorithmus die nach einem der Verfahren der Ansprüche 1 bis 6 erhaltenen Umfeldszenen-Repräsentationen (HSRV) zusammen mit jeweiligen Referenz-Prädiktionen als Eingangsdatenpaare erhält und basierend auf diesen Eingangsdatenpaare Gradienten-basiert die Prädiktion aus den Umfeldszenen-Repräsentationen (HSRV) lernt.Computer-implemented method for learning a prediction of environmental scenes (E) for an automated driving system (R), with a machine learning algorithm according to one of the methods of claims che 1 until 6 received environment scene representations (HSRV) together with respective reference predictions as input data pairs and based on these input data pairs gradient-based the prediction from the environment scene representations (HSRV) learns. Verfahren nach Anspruch 8, wobei der Maschinenlernalgorithmus eine Encodierer-Decodierer-Struktur umfasst, wobei • die Umfeldszenen-Repräsentationen (HSRV) encodiert in ein Faltungsnetzwerk eingegeben werden, • das Faltungsnetzwerk lernt, Interaktionen zwischen Schichten (A-H) der Umfeldszenen-Repräsentation (HSRV), Interaktionen zwischen Verkehrsteilnehmern und/oder Interaktionen zwischen Verkehrsteilnehmer und Umfeldmerkmalen (stat, dyn) darzustellen und in Form eines Ausgabevolumens (V), dessen Höhe und Breite gleich der Größe der Umfeldszenen-Repräsentation ist, auszugeben, wobei aus dem Ausgabevolumen (V) für jeden Verkehrsteilnehmer eine Spalte basierend auf der Pixel-diskreten Position des Verkehrsteilnehmers ermittelt wird und die Spalte mit einem Vektor, der das dynamische Verhalten beschreibt, konkateniert wird, • aus dem Konkatenieren erhaltenen zusammengesetzten Merkmalsvektoren in prädizierte Trajektorien des Fahrsystems (R) und/oder der Verkehrsteilnehmer decodiert werden.procedure after claim 8 , where the machine learning algorithm comprises an encoder-decoder structure, where • the environment scene representations (HSRV) are encoded and input into a convolution network, • the convolution network learns interactions between layers (AH) of the environment scene representation (HSRV), interactions between road users and/or interactions between road users and environmental features (stat, dyn) and in the form of an output volume (V), whose height and width is equal to the size of the environment scene representation, to output, with the output volume (V) for each road user a column is determined based on the pixel-discrete position of the road user and the column is concatenated with a vector that describes the dynamic behavior, • composite feature vectors obtained from the concatenation are decoded into predicted trajectories of the driving system (R) and/or the road users. Verfahren nach Anspruch 9, wobei die Encodierer und/oder Decodierer auf Long-Short-Term-Memory Technik basieren.procedure after claim 9 , the encoders and/or decoders being based on long-short-term memory technology. Verfahren nach Anspruch 9 oder 10, wobei durch generatives adversariales Lernen Rauschvektoren konkateniert werden und durch unterschiedliche Rauschvektoren für identische Trajektorien in der Vergangenheit unterschiedliche Trajektorien in der Zukunft generiert werden.procedure after claim 9 or 10 , where noise vectors are concatenated by generative adversarial learning and different trajectories in the future are generated by different noise vectors for identical trajectories in the past. Steuergerät (ECU) für ein automatisiertes Fahrsystem (R)umfassend • erste Schnittstellen (INT1), über die das Steuergerät (ECU) Umfeldsensordaten des Fahrsystems (R) erhält, • eine Prozesssiereinheit (P), die aus den Umfeldsensordaten Umfeldmerkmale (S, D) bestimmt, einen nach einem der Verfahren der Ansprüche 7 bis 10 angelernten Maschinenlernalgorithmus ausführt und prädizierte Umfeldszenen erhält und basierend auf den prädizierten Umfeldszenen Regel- und/oder Steuersignale für einen automatisierten Betrieb des Fahrsystems (R) bestimmt, und • zweite Schnittstellen (INT2), über die das Steuergerät (ECU) die Regel- und/oder Steuersignale Aktuatoren zur Längs- und/oder Querführung des Fahrsystems (R) bereitstellt.Control unit (ECU) for an automated driving system (R) comprising • first interfaces (INT1) via which the control unit (ECU) receives environmental sensor data from the driving system (R), • a processing unit (P) which, from the environmental sensor data, generates environmental features (S, D ) determines a by one of the methods of Claims 7 until 10 executes the learned machine learning algorithm and receives predicted environmental scenes and, based on the predicted environmental scenes, determines regulation and/or control signals for automated operation of the driving system (R), and • second interfaces (INT2), via which the control unit (ECU) transmits the regulation and/or or provides control signals to actuators for longitudinal and/or lateral guidance of the driving system (R).
DE102020210379.8A 2020-08-14 2020-08-14 Computer-implemented method and computer program product for obtaining a representation of surrounding scenes for an automated driving system, computer-implemented method for learning a prediction of surrounding scenes for an automated driving system and control unit for an automated driving system Pending DE102020210379A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020210379.8A DE102020210379A1 (en) 2020-08-14 2020-08-14 Computer-implemented method and computer program product for obtaining a representation of surrounding scenes for an automated driving system, computer-implemented method for learning a prediction of surrounding scenes for an automated driving system and control unit for an automated driving system
EP21745818.1A EP4196379A1 (en) 2020-08-14 2021-07-19 Computer-implemented method and computer programme product for obtaining an environment scene representation for an automated driving system, computer-implemented method for learning an environment scene prediction for an automated driving system, and control device for an automated driving system
PCT/EP2021/070099 WO2022033810A1 (en) 2020-08-14 2021-07-19 Computer-implemented method and computer programme product for obtaining an environment scene representation for an automated driving system, computer-implemented method for learning an environment scene prediction for an automated driving system, and control device for an automated driving system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020210379.8A DE102020210379A1 (en) 2020-08-14 2020-08-14 Computer-implemented method and computer program product for obtaining a representation of surrounding scenes for an automated driving system, computer-implemented method for learning a prediction of surrounding scenes for an automated driving system and control unit for an automated driving system

Publications (1)

Publication Number Publication Date
DE102020210379A1 true DE102020210379A1 (en) 2022-02-17

Family

ID=77042979

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020210379.8A Pending DE102020210379A1 (en) 2020-08-14 2020-08-14 Computer-implemented method and computer program product for obtaining a representation of surrounding scenes for an automated driving system, computer-implemented method for learning a prediction of surrounding scenes for an automated driving system and control unit for an automated driving system

Country Status (3)

Country Link
EP (1) EP4196379A1 (en)
DE (1) DE102020210379A1 (en)
WO (1) WO2022033810A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021203440A1 (en) 2021-04-07 2022-10-13 Zf Friedrichshafen Ag Computer-implemented method, computer program and arrangement for predicting and planning trajectories
DE102022201127A1 (en) 2022-02-03 2023-08-03 Zf Friedrichshafen Ag Method and computer program for characterizing future trajectories of road users
DE102022131178B3 (en) 2022-11-24 2024-02-08 Cariad Se Method for automated driving of a vehicle and method for generating a machine learning model capable of this, as well as processor circuit and vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115468778B (en) * 2022-09-14 2023-08-15 北京百度网讯科技有限公司 Vehicle testing method and device, electronic equipment and storage medium
CN115662167B (en) * 2022-10-14 2023-11-24 北京百度网讯科技有限公司 Automatic driving map construction method, automatic driving method and related devices

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2771873B1 (en) 2011-10-28 2018-04-11 Conti Temic microelectronic GmbH Grid-based environmental model for a vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11169531B2 (en) * 2018-10-04 2021-11-09 Zoox, Inc. Trajectory prediction on top-down scenes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2771873B1 (en) 2011-10-28 2018-04-11 Conti Temic microelectronic GmbH Grid-based environmental model for a vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021203440A1 (en) 2021-04-07 2022-10-13 Zf Friedrichshafen Ag Computer-implemented method, computer program and arrangement for predicting and planning trajectories
DE102022201127A1 (en) 2022-02-03 2023-08-03 Zf Friedrichshafen Ag Method and computer program for characterizing future trajectories of road users
EP4224436A1 (en) 2022-02-03 2023-08-09 ZF Friedrichshafen AG Method and computer program for characterizing future trajectories of road users
DE102022131178B3 (en) 2022-11-24 2024-02-08 Cariad Se Method for automated driving of a vehicle and method for generating a machine learning model capable of this, as well as processor circuit and vehicle

Also Published As

Publication number Publication date
EP4196379A1 (en) 2023-06-21
WO2022033810A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
DE102020210379A1 (en) Computer-implemented method and computer program product for obtaining a representation of surrounding scenes for an automated driving system, computer-implemented method for learning a prediction of surrounding scenes for an automated driving system and control unit for an automated driving system
WO2017125209A1 (en) Method for guiding a vehicle system in a fully automated manner, and motor vehicle
DE112017006530T5 (en) FEEDBACK FOR AN AUTONOMOUS VEHICLE
DE102021203440A1 (en) Computer-implemented method, computer program and arrangement for predicting and planning trajectories
DE102018203583B4 (en) Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model
DE112020001103T5 (en) Multitasking perception network with applications for scene understanding and an advanced driver assistance system
DE102019114577A1 (en) SYSTEMS, DEVICES AND METHODS FOR EMBEDDED CODING OF CONTEXT-RELATED INFORMATION USING A NEURONAL NETWORK WITH VECTOR SPACE MODELING
DE102013203239A1 (en) Grid-based prediction of the position of an object
DE102016007899B4 (en) Method for operating a device for traffic situation analysis, motor vehicle and data processing device
DE102021109395A1 (en) METHODS, SYSTEMS AND DEVICES FOR USER UNDERSTANDABLE EXPLAINABLE LEARNING MODELS
DE112021006846T5 (en) Systems and methods for scenario-dependent trajectory evaluation
DE102022003079A1 (en) Method for an automated generation of data for raster map-based prediction approaches
DE112022001546T5 (en) Systems and methods for generating object recognition labels using foveal image magnification for autonomous driving
DE102017128082A1 (en) Meta-architecture design for a CNN network
DE102023001698A1 (en) Method for an automated generation of data for raster map-based prediction approaches
DE102019204187A1 (en) Classification and temporal recognition of tactical driving maneuvers by road users
DE102018132627A1 (en) Method for capturing an environment of a motor vehicle by means of temporal fusion of images through an artificial neural network; Control unit, driver assistance system; Computer program product
DE202022106107U1 (en) System for testing level 3 automated driving systems (ADS)
DE112022002869T5 (en) Method and system for predicting the behavior of actors in an autonomous vehicle environment
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle
DE102021213344A1 (en) Method for determining agent trajectories in a multi-agent scenario
DE102021000792A1 (en) Method for operating a vehicle
DE102021201177A1 (en) Computer-implemented method and computer program for generating routes for an automated driving system
DE102020200875A1 (en) Method for providing sensor data by a sensor system of a vehicle
DE112020006532T5 (en) COMPUTER SYSTEM AND METHOD WITH END-TO-END MODELING FOR A SIMULATED TRAFFIC AGENT IN A SIMULATION ENVIRONMENT

Legal Events

Date Code Title Description
R012 Request for examination validly filed