DE102022207741A1 - Method and system for generating an environment model - Google Patents

Method and system for generating an environment model Download PDF

Info

Publication number
DE102022207741A1
DE102022207741A1 DE102022207741.5A DE102022207741A DE102022207741A1 DE 102022207741 A1 DE102022207741 A1 DE 102022207741A1 DE 102022207741 A DE102022207741 A DE 102022207741A DE 102022207741 A1 DE102022207741 A1 DE 102022207741A1
Authority
DE
Germany
Prior art keywords
environment
environment model
model
detection sensor
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022207741.5A
Other languages
German (de)
Inventor
Matthias Schreier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to DE102022207741.5A priority Critical patent/DE102022207741A1/en
Priority to JP2023084646A priority patent/JP2024018956A/en
Publication of DE102022207741A1 publication Critical patent/DE102022207741A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erzeugen eines Umfeldmodells in einem Ego-Fahrzeug (FE) umfassend die folgenden Schritte:- Aufzeichnen (S1) eines Umfelds des Ego-Fahrzeugs (FE) mittels zumindest eines Umfelderfassungssensors (2);- Erzeugen (S2) eines ersten Umfeldmodells (U1) basierend auf der Aufzeichnung des zumindest einen Umfelderfassungssensors;- Verarbeiten (S3) des ersten Umfeldmodells (U1) in einem trainierten neuronalen Netz;- Erzeugen (S4) eines zweiten Umfeldmodells (U2) basierend auf der Verarbeitung des ersten Umfeldmodells (U1).The invention relates to a method for generating an environment model in an ego vehicle (FE), comprising the following steps: - recording (S1) an environment of the ego vehicle (FE) using at least one environment detection sensor (2); - generating (S2) a first environment model (U1) based on the recording of the at least one environment detection sensor; - processing (S3) of the first environment model (U1) in a trained neural network; - generating (S4) a second environment model (U2) based on the processing of the first environment model ( U1).

Description

Die Erfindung betrifft ein Verfahren und ein System zum Erzeugen eines Umfeldmodells.The invention relates to a method and a system for generating an environment model.

Aus dem Stand der Technik ist bekannt, dass in ADAS- oder AD-Systemen unterschiedliche exterozeptive Umfeldsensoren wie Kamera, Lidar, Radar oder Ultraschallsensoren zum Einsatz, um ein adäquates Fahrzeugumfeldmodell zu erzeugen. In experimentellen Prototypen automatisierter Fahrzeuge werden hierbei insbesondere kostspielige, hochauflösende 360° Lidar-Sensoren eingesetzt, die zwar hervorragende Umfeldmodellergebnisse ermöglichen, jedoch nach wie vor mit hohen Kosten verbunden sind und daher insbesondere für Serienfahrzeuge durch kostengünstigere Lösungen ersetzt werden.It is known from the prior art that different exteroceptive environment sensors such as cameras, lidar, radar or ultrasonic sensors are used in ADAS or AD systems in order to generate an adequate vehicle environment model. In experimental prototypes of automated vehicles, expensive, high-resolution 360° lidar sensors are used in particular, which, although they enable excellent environment model results, are still associated with high costs and are therefore replaced by more cost-effective solutions, especially for series vehicles.

Künstliche Intelligenz (KI), insbesondere tiefe neuronale Netze, sind heutzutage weit verbreitet, um in spezifischen Applikationen menschliche Resultate zu übertreffen, z.B. in den Bereichen der Bildverarbeitung, Sprachverarbeitung, etc. Es ist mit dieser Methodik insbesondere möglich, inverse Problemstellungen zu lösen, die eigentlich als „unmöglich“ gelten, z.B. die Kolorierung eines Schwarz-Weißbildes oder die Schätzung einer Tiefenkarte rein auf Basis monokularer Kamerabilder.Artificial intelligence (AI), in particular deep neural networks, are now widely used to outperform human results in specific applications, e.g. in the areas of image processing, language processing, etc. With this methodology, it is particularly possible to solve inverse problems are actually considered “impossible”, e.g. colorizing a black and white image or estimating a depth map purely based on monocular camera images.

Es ist demnach eine Aufgabe der vorliegenden Erfindung ein Verfahren und ein System bereitzustellen, mittels welchen ein verbessertes Umfeldmodell kostengünstig bereitgestellt werden kann.It is therefore an object of the present invention to provide a method and a system by means of which an improved environment model can be provided cost-effectively.

Diese Aufgabe wird durch den Gegenstand der Ansprüche 1 und 5 gelöst. Weitere vorteilhafte Ausgestaltungen und Ausführungsformen sind Gegenstand der Unteransprüche.This task is solved by the subject matter of claims 1 and 5. Further advantageous refinements and embodiments are the subject of the subclaims.

In ersten Überlegungen wurde festgestellt, dass im Bereich der Computergrafik Ansätze existieren, die Bildqualität und Berechnungszeit von Videospielen zu optimieren, indem zunächst ein Bild in niedriger Auflösung vorberechnet wird, das dann erst im Anschluss in einem Postprocessing-Schritt auf eine höhere Auflösung hochskaliert wird. Dies geschieht heutzutage bevorzugt nicht mehr durch fixe Filtertechniken, sondern durch neuronale Netze, die auf Basis vieler Videospiele vortrainiert wurden. Es ist hiermit mittlerweile möglich, eine höhere Bild-Qualität zu erzeugen, als wenn man die Bilder direkt in der höhen, nativen Bildauflösung berechnet. Beispielsweise ist in der US20210150669 ein exemplarisches Netz zur Hochskalierung von niedrigaufgelösten Bildern gezeigt.Initial considerations revealed that there are approaches in the field of computer graphics to optimize the image quality and calculation time of video games by first pre-calculating an image in low resolution, which is then scaled up to a higher resolution in a post-processing step. Nowadays, this is no longer done using fixed filter techniques, but rather using neural networks that have been pre-trained on the basis of many video games. It is now possible to produce a higher image quality than if the images were calculated directly in the higher, native image resolution. For example, in the US20210150669 an exemplary network for upscaling low-resolution images is shown.

Dieser Ansatz wurde nun Auf Umfeldmodellebene angewendet.This approach has now been applied at the environment model level.

Ensprechend wird erfindungsgemäß ein Verfahren zum Erzeugen eines Umfeldmodells in einem Ego-Fahrzeug umfassend die folgenden Schritte vorgeschlagen:

  • - Aufzeichnen eines Umfelds des Ego-Fahrzeugs mittels zumindest eines Umfelderfassungssensors;
  • - Erzeugen eines ersten Umfeldmodells basierend auf der Aufzeichnung des zumindest einen Umfelderfassungssensors;
  • - Verarbeiten des ersten Umfeldmodells in einem trainierten neuronalen Netz;
  • - Erzeugen eines zweiten Umfeldmodells basierend auf der Verarbeitung des ersten Umfeldmodells.
Accordingly, according to the invention, a method for generating an environment model in an ego vehicle is proposed, comprising the following steps:
  • - Recording an environment of the ego vehicle using at least one environment detection sensor;
  • - Generating a first environment model based on the recording of the at least one environment detection sensor;
  • - Processing the first environment model in a trained neural network;
  • - Generating a second environment model based on the processing of the first environment model.

Der zumindest eine Umfelderfassungssensor kann beispielsweise eine Monokamera, eine Stereokamera, ein Radarsensor, ein Lidarsensor und/oder ein Ultraschallsensor sein. Bevorzugt wird nicht nur ein einzelner Sensor sondern mehrere gleiche und/oder verschiedene Sensoren in dem Ego-Fahrzeug zur Aufzeichnung des Fahrzeugumfelds verwendet.The at least one environment detection sensor can be, for example, a mono camera, a stereo camera, a radar sensor, a lidar sensor and/or an ultrasonic sensor. Preferably, not just a single sensor but several identical and/or different sensors are used in the ego vehicle to record the vehicle's surroundings.

Aus den Daten der Aufzeichnung des Umfelderfassungssensors wird nun ein erstes Umfeldmodell erstellt. In das Umfeldmodell können z.B. alle detektierten Objekte/Freiräume/Fahrstreifenmarkierungen/Verkehrszeichen eingetragen werden. Entsprechend würde das Umfeldmodell z.B. als eine Gridkarte mit belegten und unbelegten Gridzellen (bzw. weiteren Zell-Klassen) erstellt werden. Es wäre alternativ auch denkbar eine Freiraumkarte, eine objektbasierte Beschreibung oder eine Kombination verschiedener Modelle zu erstellen. Bei der Verwendung mehrerer unterschiedlicher Sensoren würde das Umfeldmodell aus den Informationen aus den verschiedenen Umfelderfassungssensoren erstellt werden.A first environment model is now created from the data recorded by the environment detection sensor. For example, all detected objects/open spaces/lane markings/traffic signs can be entered into the environment model. Accordingly, the environment model would be created, for example, as a grid map with occupied and unoccupied grid cells (or other cell classes). Alternatively, it would also be conceivable to create an open space map, an object-based description or a combination of different models. When using several different sensors, the environment model would be created from the information from the different environment detection sensors.

Das erstellte erste Umfeldmodell wird nun in einem trainierten neuronalen Netz verarbeitet und es wird ein zweites Umfeldmodell erstellt. Durch die Verarbeitung in dem neuronalen Netz kann das erste Umfeldmodell mit Informationen aus dem neuronalen Netz erweitert bzw. verbessert werden, um ein Umfeldmodell zu erstellen, welches genauere Informationen beinhaltet, welche durch die im Ego-Fahrzeug verfügbaren Sensoren nicht detektierbar oder nicht in einem hohen Detailgrad detektierbar sind. Das erste und das zweite Umfeldmodell weisen dabei im Wesentlichen (aber nicht notwendigerweise) die gleichen Informationen, wie bspw. Objekte und Freiräume etc. auf, und unterscheiden sich hauptsächlich in dem Detailgrad der Informationsdarstellung.The first environment model created is now processed in a trained neural network and a second environment model is created. Through processing in the neural network, the first environment model can be expanded or improved with information from the neural network in order to create an environment model that contains more precise information that is not detectable or not at a high level by the sensors available in the ego vehicle level of detail can be detected. The first and second environment models essentially (but not necessarily) have the same information, such as objects and open spaces etc., and differ mainly in the level of detail of the information representation.

Das neuronale Netz wird a priori, vor der Verwendung in dem Ego-Fahrzeug mit Sensordaten von hochpräzisen Umfeldsensoren trainiert, um einen KI-basierten virtuellen Umfeldmodell-Supersensor zu kreieren, der die Qualität von Umfeldmodellen verbessern kann, welche durch einfachere Sensoren erzeugt wurden. Das kann in Analogie zu den genannten Netzen der Bildhochskalierung in Videospielen gesehen werden, die auf Basis von qualitativ hochwertigem Bildmaterial (z.B. in 16k Auflösung gerenderter Spielszenen) lernen, wie ein Bild idealerweise auszusehen hat. Entsprechend werden für das Trainieren des neuronalen Netzes mit Hilfe hochgenauer Referenzsensoren einer Fahrzeugflotte in realen Fahrzeugumgebungen Sensorrohdaten generiert. Aus diesen hochpräzisen Sensorrohdaten wird nun ein akkurates, hochpräzises Umfeldmodell erzeugt, ggf. auch mit Hilfe von Labeling, Postprocessing, etc. Das neuronale Netz wird dann offline trainiert und typische Umfeldmodellrepräsentationen von Fahrumgebungen gelernt.The neural network is trained a priori, before use in the ego vehicle, with sensor data from high-precision environment sensors to create an AI-based virtual environment model supersensor that can improve the quality of environment models generated by simpler sensors. This can be seen in analogy to the aforementioned image upscaling networks in video games, which learn what an image should ideally look like based on high-quality image material (e.g. game scenes rendered in 16k resolution). Accordingly, to train the neural network, raw sensor data is generated in real vehicle environments using high-precision reference sensors from a vehicle fleet. An accurate, high-precision environment model is now created from these high-precision sensor raw data, possibly with the help of labeling, post-processing, etc. The neural network is then trained offline and typical environment model representations of driving environments are learned.

In einer besonders bevorzugten Ausgestaltung wird durch die Verarbeitung in dem neuronalen Netz die Auflösung des erzeugten ersten Umfeldmodells erhöht. Unter der Erhöhung der Auflösung des ersten Umfeldmodells wird im Lichte der Erfindung verstanden, den Detailgrad des erzeugten Umfeldmodells mit Hilfe des neuronalen Netzes zu erhöhen. Entsprechend ist das erste Umfeldmodell ein Umfeldmodell mit niedriger Auflösung und das zweite Umfeldmodell nach der Verarbeitung ein Umfeldmodell mit hoher Auflösung. Dies ist vorteilhaft, da auf diese Weise keine zusätzlichen oder teureren Sensoren verwendet werden müssen, um ein hochdetailliertes bzw. hochgenaues Umfeldmodell zu erstellen.In a particularly preferred embodiment, the resolution of the first environment model generated is increased by the processing in the neural network. In the light of the invention, increasing the resolution of the first environment model means increasing the level of detail of the environment model generated with the help of the neural network. Accordingly, the first environment model is a low-resolution environment model and the second environment model after processing is a high-resolution environment model. This is advantageous because in this way no additional or more expensive sensors have to be used to create a highly detailed or highly accurate environment model.

In einer weiteren bevorzugten Ausgestaltung verwendet das neuronale Netz Informationen aus gelernten hochauflösenden semantischen Gridkarten zur Verarbeitung des ersten Umfeldmodells. Besonders bevorzugt handelt es sich dabei um semantische, dynamische Gridkarten, welche statische und dynamische Fahrumgebungen in objektfreier Form ganzheitlich repräsentieren. Dies ist vorteilhaft, da ein solche umfeldmodellinterne Zwischenrepräsentation mit niedrigem Abstraktionsgrad mehr Details enthält als typische abstrakte Umfeldmodell-Ausgangsrepräsentationen wie bspw. Verkehrsteilnehmerlisten, Straßenmodelle, Freiraummodelle etc. Auf diese Weise lernt das neuronale Netz, wie idealtypische, hochauflösende semantische dynamische Gridkarten aussehen, welche, wie zuvor erwähnt, auf Basis hochgenauer Referenzsensorik generiert wurden. Das neuronale Netz nutz dieses Wissen, um bspw. eine schlechter aufgelöste Gridkarte, die online im Ego-Fahrzeug generiert wird, in einem Postprocessing-Schritt hochzuskalieren und somit zu verbessern.In a further preferred embodiment, the neural network uses information from learned high-resolution semantic grid maps to process the first environment model. These are particularly preferably semantic, dynamic grid maps, which holistically represent static and dynamic driving environments in an object-free form. This is advantageous because such an intermediate representation within the environment model with a low level of abstraction contains more details than typical abstract environment model initial representations such as road user lists, road models, open space models, etc. In this way, the neural network learns what ideal, high-resolution semantic dynamic grid maps look like, which, as mentioned above, were generated based on highly accurate reference sensors. The neural network uses this knowledge, for example, to upscale and thus improve a poorly resolved grid map that is generated online in the ego vehicle in a post-processing step.

Weiterhin werden besonders bevorzugt durch das Erhöhen der Auflösung eine Geometrieverbesserung, eine Klassifikationsverbesserung, eine Vervollständigung nicht vollständig beobachteter Aspekte und/oder eine Verbesserung höherer Zustände an dem ersten Umfeldmodell durchgeführt. Mit der Geometrieverbesserung können bspw. Ausmaße von anderen Verkehrsteilnehmern besser bestimmt werden. Weiterhin kann mit mehr Details die Klassifikation einzelner in dem Umfeldmodell vorhandener Objekte verbessert werden und entsprechend eine genauere Unterscheidung bspw. zwischen verschiedenen Verkehrsteilnehmern erreicht werden. Die Vervollständigung nichtvollständig beobachteter Aspekte ist vorteilhaft, da mit dem Wissen aus den hochaufgelösten Umfeldmodellen das neuronale Netz bspw. Fahrspurmarkierungen vervollständigen kann, da das Netz weiß, wie z.B. eine durchgezogene Fahrbahnmarkierung idealerweise aussieht und an welcher Position auf der Fahrbahn normalerweise solche Markierungen auftreten. So können bspw. fälschlich als nicht durchgezogene Markierung erkannte Fahrbahnmarkierungen vervollständigt und korrigiert werden, was zu einem verbesserten Umfeldmodell führt und auch die Sicherheit in dem Ego-Fahrzeug erhöht, da Fahrerassistenzsystemen die das Umfeldmodell nutzen genauere und vollständigere Daten bereitgestellt werden. Unter der Verbesserung höherer Zustände kann beispielsweise die Verbesserung einer Zellgeschwindigkeitsschätzung verstanden werden. Mit einem hochgenauen Umfeldmodell und einer präziseren Bestimmung der weiteren Verkehrsteilnehmer können deren Bewegungsprofile mit möglichem Beschleunigungsvermögen, Möglichkeit zum Richtungswechsel etc. genauer ermittelt werden und entsprechend besser prädiziert werden, wie sich der jeweilige Verkehrsteilnehmer bewegen wird. Ein Fahrradfahrer weist beispielsweise ein geringeres Beschleunigungsvermögen aber eine schnellere Möglichkeit zum Richtungswechsel als ein Auto auf.Furthermore, by increasing the resolution, a geometry improvement, a classification improvement, a completion of aspects that are not completely observed and/or an improvement of higher states are particularly preferably carried out on the first environment model. With the improvement in geometry, dimensions of other road users can, for example, be better determined. Furthermore, with more details, the classification of individual objects present in the environment model can be improved and a more precise distinction can be achieved, for example between different road users. The completion of incompletely observed aspects is advantageous because, with the knowledge from the high-resolution environment models, the neural network can, for example, complete lane markings, since the network knows what, for example, a solid road marking ideally looks like and at which position on the road such markings normally occur. For example, road markings that are incorrectly recognized as non-solid markings can be completed and corrected, which leads to an improved environment model and also increases safety in the ego vehicle, since driver assistance systems that use the environment model are provided with more precise and complete data. Improving higher states can be understood to mean, for example, improving a cell speed estimate. With a highly accurate environment model and a more precise determination of the other road users, their movement profiles with possible acceleration capabilities, the ability to change direction, etc. can be determined more precisely and, accordingly, it can be better predicted how the respective road user will move. For example, a cyclist has a lower acceleration capacity but a quicker ability to change direction than a car.

Erfindungsgemäß wird weiterhin ein System zum Erzeugen eines Umfeldmodells vorgeschlagen, umfassend zumindest einen Umfelderfassungssensor zum Erfassen eines Umfelds eines Ego-Fahrzeugs, eine Auswerteeinheit zum Auswerten der von dem Umfelderfassungssensor, aufgezeichneten Daten und eine Recheneinheit, welche ausgestaltet ist, ein erstes Umfeldmodell aus der Aufzeichnung des zumindest einen Umfelderfassungssensors zu erstellen und mittels eines neuronalen Netzes das erste Umfeldmodell zu verarbeiten und ein zweites Umfeldmodell durch die Verarbeitung des ersten Umfeldmodells zu erzeugen. Die Recheneinheit kann dabei eine ECU, ADCU oder eine sensorseitig integrierte Recheneinheit sein. Zum Datenaustausch zwischen dem Umfelderfassungssensor und der Auswerteeinheit bzw. zwischen der Auswerteinheit und der Recheneinheit ist eine Datenverbindung vorgesehen. Die Datenverbindung kann dabei kabelgebunden oder auch kabellos, bspw. als Bluetooth, mobiles Netz oder Wifi ausgestaltet sein.According to the invention, a system for generating an environment model is further proposed, comprising at least one environment detection sensor for detecting the environment of an ego vehicle, an evaluation unit for evaluating the data recorded by the environment detection sensor and a computing unit which is designed to generate a first environment model from the recording of the to create at least one environment detection sensor and to process the first environment model using a neural network and to generate a second environment model by processing the first environment model. The computing unit can be an ECU, ADCU or a computing unit integrated on the sensor side. A data connection is provided for data exchange between the environment detection sensor and the evaluation unit or between the evaluation unit and the computing unit seen. The data connection can be wired or wireless, for example as Bluetooth, mobile network or WiFi.

Als neuronale Netze können bevorzugt rekurrente neuronale Netze verwendet werden, welche temporale Zusammenhänge mitberücksichtigen können. Zur Hochskalierung können insbesondere vollständig konvolutionale Netze zum Einsatz kommen. Im Falle einer beispielhaften, gridbasierten Zwischenrepräsentation kann das Grid als Bild aufgefasst werden und ähnliche Netzarchitekturen wie beim Hochskalieren von Computergrafiken zum Einsatz kommen.Recurrent neural networks, which can take temporal relationships into account, can preferably be used as neural networks. In particular, fully convolutional networks can be used for upscaling. In the case of an exemplary grid-based intermediate representation, the grid can be viewed as an image and similar network architectures can be used as when upscaling computer graphics.

Weitere vorteilhafte Ausgestaltungen und Ausführungsformen ergeben sich aus den Zeichnungen.Further advantageous refinements and embodiments can be seen from the drawings.

Darin zeigen:

  • 1: eine schematische Darstellung eines Ablaufdiagramms eines Verfahrens gemäß einer Ausführungsform der Erfindung;
  • 2: eine schematische Darstellung eines Systems gemäß einer Ausführungsform der Erfindung;
  • 3: eine schematische Darstellung eines Ablaufs zum Erzeugen eines Umfeldmodells.
Show in it:
  • 1 : a schematic representation of a flowchart of a method according to an embodiment of the invention;
  • 2 : a schematic representation of a system according to an embodiment of the invention;
  • 3 : a schematic representation of a process for creating an environment model.

1 zeigt eine schematische Darstellung eines Ablaufdiagramms eines Verfahrens gemäß einer Ausführungsform der Erfindung. In Schritt S1 wird ein Umfeld des Ego-Fahrzeugs FE mittels zumindest eines Umfelderfassungssensors 2 aufgezeichnet. In einem weiteren Schritt S2 wird ein erstes Umfeldmodell U1 basierend auf den Daten der Aufzeichnng des zumindest einen Umfelderfassungssensors erzeugt. Dieses erste Umfeldmodell U1 wird in Schritt S3 in einem trainierten neuronalen Netz verarbeitet. Abschließend wird in Schritt S4 ein zweites Umfeldmodell U2 basierend auf der Verarbeitung des ersten Umfeldmodells U1 erzeugt. 1 shows a schematic representation of a flowchart of a method according to an embodiment of the invention. In step S1, an environment of the ego vehicle FE is recorded using at least one environment detection sensor 2. In a further step S2, a first environment model U1 is generated based on the data from the recording of the at least one environment detection sensor. This first environment model U1 is processed in a trained neural network in step S3. Finally, in step S4, a second environment model U2 is generated based on the processing of the first environment model U1.

In 2 ist eine schematische Darstellung eines Systems gemäß einer Ausführungsform der Erfindung gezeigt. Das System 1 weist dabei zumindest einen Umfelderfassungssensor 2, eine Auswerteeinheit 3 sowie eine Recheneinheit 4 auf. Der zumindest eine Umfelderfassungssensor 2, die Auswerteeinheit 3 und die Recheneinheit 4 sind mittels einer Datenverbindung D verbunden. Die Datenverbindung D kann dabei kabelgebunden oder kabellos ausgestaltet sein.In 2 a schematic representation of a system according to an embodiment of the invention is shown. The system 1 has at least one environment detection sensor 2, an evaluation unit 3 and a computing unit 4. The at least one environment detection sensor 2, the evaluation unit 3 and the computing unit 4 are connected by means of a data connection D. The data connection D can be designed to be wired or wireless.

3 zeigt eine schematische Darstellung eines Ablaufs zum Erzeugen eines Umfeldmodells. Wie in der Darstellung gezeigt wird das neuronale Netz mit einem Umfeldmodell UF trainiert, welches durch die Sensordaten einer Fahrzeugflotte FF erzeugt wird. Die Fahrzeugflotte FF ist dabei mit hochpräzisen Sensoren ausgestattet. Entsprechend weist das Umfeldmodell UF hochgenaue Daten auf. Das Umfeldmodell UF kann dabei, wie gezeigt, eine semantische dynamische Gridkarte sein, in welcher z.B. dynamische und statische Objekte sowie Freiräume und Fahrstreifen eingetragen werden (sowie potentiell weitere für die Fahraufgabe relevante Informationen). Dieses trainierte neuronale Netz wird anschließend in dem Ego-Fahrzeug FE verwendet. Das Ego-Fahrzeug FE zeichnet das Umfeld mit zumindest einem Umfelderfassungssensor auf und erzeugt ein erstes Umfeldmodell U1. Das Ego-Fahrzeug FE verfügt hierbei nicht über hochauflösende Sensoren. Entsprechend ist das erste Umfeldmodell U1 ein niedrig aufgelöstes Umfeldmodell U1. Nach der Verarbeitung des ersten Umfeldmodells U1 in Schritt S4 in dem trainierten neuronalen Netz wird in Schritt S5 ein zweites Umfeldmodell U2 erzeugt. Das Umfeldmodell U1 wurde in dem neuronalen Netz mit den hochgenauen Daten erweitert und optimiert und entsprechend hochskaliert, so dass das zweite Umfeldmodell U2 ein hochaufgelöstes Umfeldmodell ist. 3 shows a schematic representation of a process for creating an environment model. As shown in the illustration, the neural network is trained with an environment model UF, which is generated by the sensor data of a vehicle fleet FF. The FF vehicle fleet is equipped with high-precision sensors. Accordingly, the UF environment model has highly accurate data. As shown, the environment model UF can be a semantic dynamic grid map in which, for example, dynamic and static objects as well as open spaces and lanes are entered (as well as potentially other information relevant to the driving task). This trained neural network is then used in the ego vehicle FE. The ego vehicle FE records the environment with at least one environment detection sensor and generates a first environment model U1. The ego vehicle FE does not have high-resolution sensors. Accordingly, the first environment model U1 is a low-resolution environment model U1. After processing the first environment model U1 in step S4 in the trained neural network, a second environment model U2 is generated in step S5. The environment model U1 was expanded and optimized in the neural network with the high-precision data and scaled up accordingly, so that the second environment model U2 is a high-resolution environment model.

BezugszeichenlisteReference symbol list

11
Systemsystem
22
UmfelderfassungssensorEnvironment detection sensor
33
AuswerteeinheitEvaluation unit
44
RecheneinheitComputing unit
DD
DatenverbindungData Connection
FEFE
Ego-FahrzeugEgo vehicle
FFFF
Fahrzeugflottevehicle fleet
S1-S4S1-S4
VerfahrensschritteProcedural steps
UFUF
Umfeldmodell FahrzeugflotteVehicle fleet environment model
U1U1
erstes Umfeldmodellfirst environment model
U2U2
zweites Umfeldmodellsecond environment model

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 20210150669 [0006]US 20210150669 [0006]

Claims (5)

Verfahren zum Erzeugen eines Umfeldmodells in einem Ego-Fahrzeug (FE) umfassend die folgenden Schritte: - Aufzeichnen (S1) eines Umfelds des Ego-Fahrzeugs (FE) mittels zumindest eines Umfelderfassungssensors (2); - Erzeugen (S2) eines ersten Umfeldmodells (U1) basierend auf der Aufzeichnung des zumindest einen Umfelderfassungssensors; - Verarbeiten (S3) des ersten Umfeldmodells (U1) in einem trainierten neuronalen Netz; - Erzeugen (S4) eines zweiten Umfeldmodells (U2) basierend auf der Verarbeitung des ersten Umfeldmodells (U1).Method for generating an environment model in an ego vehicle (FE) comprising the following steps: - Recording (S1) an environment of the ego vehicle (FE) using at least one environment detection sensor (2); - Generating (S2) a first environment model (U1) based on the recording of the at least one environment detection sensor; - Processing (S3) of the first environment model (U1) in a trained neural network; - Generating (S4) a second environment model (U2) based on the processing of the first environment model (U1). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch die Verarbeitung in dem neuronalen Netz die Auflösung des erzeugten ersten Umfeldmodells (U1) erhöht wird.Procedure according to Claim 1 , characterized in that the resolution of the generated first environment model (U1) is increased by the processing in the neural network. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das neuronale Netz Informationen aus gelernten hochauflösenden semantischen Gridkarten (UF) zur Verarbeitung des ersten Umfeldmodells (U1) verwendet.Method according to one of the preceding claims, characterized in that the neural network uses information from learned high-resolution semantic grid maps (UF) to process the first environment model (U1). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch das Erhöhen der Auflösung eine Geometrieverbesserung, eine Klassifikationsverbesserung, eine Vervollständigung nicht vollständig beobachteter Aspekte und/oder eine Verbesserung höherer Zustände an dem ersten Umfeldmodell (U1) durchgeführt werden.Method according to one of the preceding claims, characterized in that by increasing the resolution, a geometry improvement, a classification improvement, a completion of aspects that are not completely observed and/or an improvement of higher states are carried out on the first environment model (U1). System (1) zum Erzeugen eines Umfedmodells umfassend zumindest einen Umfelderfassungssensor (2) zum Erfassen eines Umfelds eines Ego-Fahrzeugs (FE), eine Auswerteeinheit (3) zum Auswerten der von dem Umfelderfassungssensor (2) aufgezeichneten und eine Recheneinheit (4), welche ausgestaltet ist, ein erstes Umfeldmodell (U1) aus der Aufzeichnung des zumindest einen Umfelderfassungssensors zu erstellen und mittels eines neuronalen Netzes das erste Umfeldmodell (U1) zu verarbeiten und ein zweites Umfeldmodell (U2) durch die Verarbeitung des ersten Umfeldmodells (U1) zu erzeugen.System (1) for generating an environmental model comprising at least one environment detection sensor (2) for detecting an environment of an ego vehicle (FE), an evaluation unit (3) for evaluating the data recorded by the environment detection sensor (2) and a computing unit (4), which is designed to create a first environment model (U1) from the recording of the at least one environment detection sensor and to process the first environment model (U1) by means of a neural network and to generate a second environment model (U2) by processing the first environment model (U1).
DE102022207741.5A 2022-07-27 2022-07-27 Method and system for generating an environment model Pending DE102022207741A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022207741.5A DE102022207741A1 (en) 2022-07-27 2022-07-27 Method and system for generating an environment model
JP2023084646A JP2024018956A (en) 2022-07-27 2023-05-23 Method and system for generating surrounding environment model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022207741.5A DE102022207741A1 (en) 2022-07-27 2022-07-27 Method and system for generating an environment model

Publications (1)

Publication Number Publication Date
DE102022207741A1 true DE102022207741A1 (en) 2024-02-01

Family

ID=89508608

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022207741.5A Pending DE102022207741A1 (en) 2022-07-27 2022-07-27 Method and system for generating an environment model

Country Status (2)

Country Link
JP (1) JP2024018956A (en)
DE (1) DE102022207741A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016210534A1 (en) 2016-06-14 2017-12-14 Bayerische Motoren Werke Aktiengesellschaft Method for classifying an environment of a vehicle
US20190004535A1 (en) 2017-07-03 2019-01-03 Baidu Usa Llc High resolution 3d point clouds generation based on cnn and crf models
US20210150669A1 (en) 2019-11-18 2021-05-20 Advanced Micro Devices, Inc. Gaming super resolution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016210534A1 (en) 2016-06-14 2017-12-14 Bayerische Motoren Werke Aktiengesellschaft Method for classifying an environment of a vehicle
US20190004535A1 (en) 2017-07-03 2019-01-03 Baidu Usa Llc High resolution 3d point clouds generation based on cnn and crf models
US20210150669A1 (en) 2019-11-18 2021-05-20 Advanced Micro Devices, Inc. Gaming super resolution

Also Published As

Publication number Publication date
JP2024018956A (en) 2024-02-08

Similar Documents

Publication Publication Date Title
DE102018203583B4 (en) Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model
DE102019114577A1 (en) SYSTEMS, DEVICES AND METHODS FOR EMBEDDED CODING OF CONTEXT-RELATED INFORMATION USING A NEURONAL NETWORK WITH VECTOR SPACE MODELING
WO2018215031A1 (en) Method for detecting objects in an image of a camera
DE102010011629A1 (en) Method for environmental representation of vehicle, involves recording and storing environment data in hierarchical data structures, which are identified in environmental objects
DE102012107886A1 (en) Method for the electronic detection of traffic signs
DE102021002798A1 (en) Process for camera-based environment detection
EP3789926A1 (en) Method for detecting an adversarial fault in the input data of a neural network
DE102019218613A1 (en) Object classification method, object classification circuit, motor vehicle
EP3782081B1 (en) Method for generating a test data set, method for testing, method for operating a system, device, control system, computer program product, computer readable medium, generation and use
DE102018206806A1 (en) Method and device for converting an input image of a first domain into an output image of a second domain
DE102017221765A1 (en) Train and operate a machine learning system
DE102021004426A1 (en) Method for training an autonomous driving function
EP4078238A1 (en) Method and device for making sensor data more robust against adverse disruptions
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE102022207741A1 (en) Method and system for generating an environment model
DE102018132627A1 (en) Method for capturing an environment of a motor vehicle by means of temporal fusion of images through an artificial neural network; Control unit, driver assistance system; Computer program product
DE102021200643B3 (en) Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network
DE102021005053A1 (en) Method for merging a large number of sensor data by means of an electronic computing device, as well as a driver assistance system
DE102021213344A1 (en) Method for determining agent trajectories in a multi-agent scenario
EP4049186A1 (en) Method for making a neural network more robust against adversarial disruptions
DE102019217951A1 (en) Method and apparatus for determining a domain distance between at least two data domains
DE102019217282A1 (en) Process for predicting the driving behavior of other road users
DE102019001005A1 (en) Device and method for the compression of sensor data
DE102006004361A1 (en) Method for determination of duration of vehicle presence at specific location, comprises use of reference times and -paths
DE102021002011A1 (en) Method for annotating data from a survey of the surroundings

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication