DE102022207741A1 - Method and system for generating an environment model - Google Patents
Method and system for generating an environment model Download PDFInfo
- Publication number
- DE102022207741A1 DE102022207741A1 DE102022207741.5A DE102022207741A DE102022207741A1 DE 102022207741 A1 DE102022207741 A1 DE 102022207741A1 DE 102022207741 A DE102022207741 A DE 102022207741A DE 102022207741 A1 DE102022207741 A1 DE 102022207741A1
- Authority
- DE
- Germany
- Prior art keywords
- environment
- environment model
- model
- detection sensor
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000011156 evaluation Methods 0.000 claims description 7
- 230000007613 environmental effect Effects 0.000 claims 1
- 238000012805 post-processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Erzeugen eines Umfeldmodells in einem Ego-Fahrzeug (FE) umfassend die folgenden Schritte:- Aufzeichnen (S1) eines Umfelds des Ego-Fahrzeugs (FE) mittels zumindest eines Umfelderfassungssensors (2);- Erzeugen (S2) eines ersten Umfeldmodells (U1) basierend auf der Aufzeichnung des zumindest einen Umfelderfassungssensors;- Verarbeiten (S3) des ersten Umfeldmodells (U1) in einem trainierten neuronalen Netz;- Erzeugen (S4) eines zweiten Umfeldmodells (U2) basierend auf der Verarbeitung des ersten Umfeldmodells (U1).The invention relates to a method for generating an environment model in an ego vehicle (FE), comprising the following steps: - recording (S1) an environment of the ego vehicle (FE) using at least one environment detection sensor (2); - generating (S2) a first environment model (U1) based on the recording of the at least one environment detection sensor; - processing (S3) of the first environment model (U1) in a trained neural network; - generating (S4) a second environment model (U2) based on the processing of the first environment model ( U1).
Description
Die Erfindung betrifft ein Verfahren und ein System zum Erzeugen eines Umfeldmodells.The invention relates to a method and a system for generating an environment model.
Aus dem Stand der Technik ist bekannt, dass in ADAS- oder AD-Systemen unterschiedliche exterozeptive Umfeldsensoren wie Kamera, Lidar, Radar oder Ultraschallsensoren zum Einsatz, um ein adäquates Fahrzeugumfeldmodell zu erzeugen. In experimentellen Prototypen automatisierter Fahrzeuge werden hierbei insbesondere kostspielige, hochauflösende 360° Lidar-Sensoren eingesetzt, die zwar hervorragende Umfeldmodellergebnisse ermöglichen, jedoch nach wie vor mit hohen Kosten verbunden sind und daher insbesondere für Serienfahrzeuge durch kostengünstigere Lösungen ersetzt werden.It is known from the prior art that different exteroceptive environment sensors such as cameras, lidar, radar or ultrasonic sensors are used in ADAS or AD systems in order to generate an adequate vehicle environment model. In experimental prototypes of automated vehicles, expensive, high-resolution 360° lidar sensors are used in particular, which, although they enable excellent environment model results, are still associated with high costs and are therefore replaced by more cost-effective solutions, especially for series vehicles.
Künstliche Intelligenz (KI), insbesondere tiefe neuronale Netze, sind heutzutage weit verbreitet, um in spezifischen Applikationen menschliche Resultate zu übertreffen, z.B. in den Bereichen der Bildverarbeitung, Sprachverarbeitung, etc. Es ist mit dieser Methodik insbesondere möglich, inverse Problemstellungen zu lösen, die eigentlich als „unmöglich“ gelten, z.B. die Kolorierung eines Schwarz-Weißbildes oder die Schätzung einer Tiefenkarte rein auf Basis monokularer Kamerabilder.Artificial intelligence (AI), in particular deep neural networks, are now widely used to outperform human results in specific applications, e.g. in the areas of image processing, language processing, etc. With this methodology, it is particularly possible to solve inverse problems are actually considered “impossible”, e.g. colorizing a black and white image or estimating a depth map purely based on monocular camera images.
Es ist demnach eine Aufgabe der vorliegenden Erfindung ein Verfahren und ein System bereitzustellen, mittels welchen ein verbessertes Umfeldmodell kostengünstig bereitgestellt werden kann.It is therefore an object of the present invention to provide a method and a system by means of which an improved environment model can be provided cost-effectively.
Diese Aufgabe wird durch den Gegenstand der Ansprüche 1 und 5 gelöst. Weitere vorteilhafte Ausgestaltungen und Ausführungsformen sind Gegenstand der Unteransprüche.This task is solved by the subject matter of
In ersten Überlegungen wurde festgestellt, dass im Bereich der Computergrafik Ansätze existieren, die Bildqualität und Berechnungszeit von Videospielen zu optimieren, indem zunächst ein Bild in niedriger Auflösung vorberechnet wird, das dann erst im Anschluss in einem Postprocessing-Schritt auf eine höhere Auflösung hochskaliert wird. Dies geschieht heutzutage bevorzugt nicht mehr durch fixe Filtertechniken, sondern durch neuronale Netze, die auf Basis vieler Videospiele vortrainiert wurden. Es ist hiermit mittlerweile möglich, eine höhere Bild-Qualität zu erzeugen, als wenn man die Bilder direkt in der höhen, nativen Bildauflösung berechnet. Beispielsweise ist in der
Dieser Ansatz wurde nun Auf Umfeldmodellebene angewendet.This approach has now been applied at the environment model level.
Ensprechend wird erfindungsgemäß ein Verfahren zum Erzeugen eines Umfeldmodells in einem Ego-Fahrzeug umfassend die folgenden Schritte vorgeschlagen:
- - Aufzeichnen eines Umfelds des Ego-Fahrzeugs mittels zumindest eines Umfelderfassungssensors;
- - Erzeugen eines ersten Umfeldmodells basierend auf der Aufzeichnung des zumindest einen Umfelderfassungssensors;
- - Verarbeiten des ersten Umfeldmodells in einem trainierten neuronalen Netz;
- - Erzeugen eines zweiten Umfeldmodells basierend auf der Verarbeitung des ersten Umfeldmodells.
- - Recording an environment of the ego vehicle using at least one environment detection sensor;
- - Generating a first environment model based on the recording of the at least one environment detection sensor;
- - Processing the first environment model in a trained neural network;
- - Generating a second environment model based on the processing of the first environment model.
Der zumindest eine Umfelderfassungssensor kann beispielsweise eine Monokamera, eine Stereokamera, ein Radarsensor, ein Lidarsensor und/oder ein Ultraschallsensor sein. Bevorzugt wird nicht nur ein einzelner Sensor sondern mehrere gleiche und/oder verschiedene Sensoren in dem Ego-Fahrzeug zur Aufzeichnung des Fahrzeugumfelds verwendet.The at least one environment detection sensor can be, for example, a mono camera, a stereo camera, a radar sensor, a lidar sensor and/or an ultrasonic sensor. Preferably, not just a single sensor but several identical and/or different sensors are used in the ego vehicle to record the vehicle's surroundings.
Aus den Daten der Aufzeichnung des Umfelderfassungssensors wird nun ein erstes Umfeldmodell erstellt. In das Umfeldmodell können z.B. alle detektierten Objekte/Freiräume/Fahrstreifenmarkierungen/Verkehrszeichen eingetragen werden. Entsprechend würde das Umfeldmodell z.B. als eine Gridkarte mit belegten und unbelegten Gridzellen (bzw. weiteren Zell-Klassen) erstellt werden. Es wäre alternativ auch denkbar eine Freiraumkarte, eine objektbasierte Beschreibung oder eine Kombination verschiedener Modelle zu erstellen. Bei der Verwendung mehrerer unterschiedlicher Sensoren würde das Umfeldmodell aus den Informationen aus den verschiedenen Umfelderfassungssensoren erstellt werden.A first environment model is now created from the data recorded by the environment detection sensor. For example, all detected objects/open spaces/lane markings/traffic signs can be entered into the environment model. Accordingly, the environment model would be created, for example, as a grid map with occupied and unoccupied grid cells (or other cell classes). Alternatively, it would also be conceivable to create an open space map, an object-based description or a combination of different models. When using several different sensors, the environment model would be created from the information from the different environment detection sensors.
Das erstellte erste Umfeldmodell wird nun in einem trainierten neuronalen Netz verarbeitet und es wird ein zweites Umfeldmodell erstellt. Durch die Verarbeitung in dem neuronalen Netz kann das erste Umfeldmodell mit Informationen aus dem neuronalen Netz erweitert bzw. verbessert werden, um ein Umfeldmodell zu erstellen, welches genauere Informationen beinhaltet, welche durch die im Ego-Fahrzeug verfügbaren Sensoren nicht detektierbar oder nicht in einem hohen Detailgrad detektierbar sind. Das erste und das zweite Umfeldmodell weisen dabei im Wesentlichen (aber nicht notwendigerweise) die gleichen Informationen, wie bspw. Objekte und Freiräume etc. auf, und unterscheiden sich hauptsächlich in dem Detailgrad der Informationsdarstellung.The first environment model created is now processed in a trained neural network and a second environment model is created. Through processing in the neural network, the first environment model can be expanded or improved with information from the neural network in order to create an environment model that contains more precise information that is not detectable or not at a high level by the sensors available in the ego vehicle level of detail can be detected. The first and second environment models essentially (but not necessarily) have the same information, such as objects and open spaces etc., and differ mainly in the level of detail of the information representation.
Das neuronale Netz wird a priori, vor der Verwendung in dem Ego-Fahrzeug mit Sensordaten von hochpräzisen Umfeldsensoren trainiert, um einen KI-basierten virtuellen Umfeldmodell-Supersensor zu kreieren, der die Qualität von Umfeldmodellen verbessern kann, welche durch einfachere Sensoren erzeugt wurden. Das kann in Analogie zu den genannten Netzen der Bildhochskalierung in Videospielen gesehen werden, die auf Basis von qualitativ hochwertigem Bildmaterial (z.B. in 16k Auflösung gerenderter Spielszenen) lernen, wie ein Bild idealerweise auszusehen hat. Entsprechend werden für das Trainieren des neuronalen Netzes mit Hilfe hochgenauer Referenzsensoren einer Fahrzeugflotte in realen Fahrzeugumgebungen Sensorrohdaten generiert. Aus diesen hochpräzisen Sensorrohdaten wird nun ein akkurates, hochpräzises Umfeldmodell erzeugt, ggf. auch mit Hilfe von Labeling, Postprocessing, etc. Das neuronale Netz wird dann offline trainiert und typische Umfeldmodellrepräsentationen von Fahrumgebungen gelernt.The neural network is trained a priori, before use in the ego vehicle, with sensor data from high-precision environment sensors to create an AI-based virtual environment model supersensor that can improve the quality of environment models generated by simpler sensors. This can be seen in analogy to the aforementioned image upscaling networks in video games, which learn what an image should ideally look like based on high-quality image material (e.g. game scenes rendered in 16k resolution). Accordingly, to train the neural network, raw sensor data is generated in real vehicle environments using high-precision reference sensors from a vehicle fleet. An accurate, high-precision environment model is now created from these high-precision sensor raw data, possibly with the help of labeling, post-processing, etc. The neural network is then trained offline and typical environment model representations of driving environments are learned.
In einer besonders bevorzugten Ausgestaltung wird durch die Verarbeitung in dem neuronalen Netz die Auflösung des erzeugten ersten Umfeldmodells erhöht. Unter der Erhöhung der Auflösung des ersten Umfeldmodells wird im Lichte der Erfindung verstanden, den Detailgrad des erzeugten Umfeldmodells mit Hilfe des neuronalen Netzes zu erhöhen. Entsprechend ist das erste Umfeldmodell ein Umfeldmodell mit niedriger Auflösung und das zweite Umfeldmodell nach der Verarbeitung ein Umfeldmodell mit hoher Auflösung. Dies ist vorteilhaft, da auf diese Weise keine zusätzlichen oder teureren Sensoren verwendet werden müssen, um ein hochdetailliertes bzw. hochgenaues Umfeldmodell zu erstellen.In a particularly preferred embodiment, the resolution of the first environment model generated is increased by the processing in the neural network. In the light of the invention, increasing the resolution of the first environment model means increasing the level of detail of the environment model generated with the help of the neural network. Accordingly, the first environment model is a low-resolution environment model and the second environment model after processing is a high-resolution environment model. This is advantageous because in this way no additional or more expensive sensors have to be used to create a highly detailed or highly accurate environment model.
In einer weiteren bevorzugten Ausgestaltung verwendet das neuronale Netz Informationen aus gelernten hochauflösenden semantischen Gridkarten zur Verarbeitung des ersten Umfeldmodells. Besonders bevorzugt handelt es sich dabei um semantische, dynamische Gridkarten, welche statische und dynamische Fahrumgebungen in objektfreier Form ganzheitlich repräsentieren. Dies ist vorteilhaft, da ein solche umfeldmodellinterne Zwischenrepräsentation mit niedrigem Abstraktionsgrad mehr Details enthält als typische abstrakte Umfeldmodell-Ausgangsrepräsentationen wie bspw. Verkehrsteilnehmerlisten, Straßenmodelle, Freiraummodelle etc. Auf diese Weise lernt das neuronale Netz, wie idealtypische, hochauflösende semantische dynamische Gridkarten aussehen, welche, wie zuvor erwähnt, auf Basis hochgenauer Referenzsensorik generiert wurden. Das neuronale Netz nutz dieses Wissen, um bspw. eine schlechter aufgelöste Gridkarte, die online im Ego-Fahrzeug generiert wird, in einem Postprocessing-Schritt hochzuskalieren und somit zu verbessern.In a further preferred embodiment, the neural network uses information from learned high-resolution semantic grid maps to process the first environment model. These are particularly preferably semantic, dynamic grid maps, which holistically represent static and dynamic driving environments in an object-free form. This is advantageous because such an intermediate representation within the environment model with a low level of abstraction contains more details than typical abstract environment model initial representations such as road user lists, road models, open space models, etc. In this way, the neural network learns what ideal, high-resolution semantic dynamic grid maps look like, which, as mentioned above, were generated based on highly accurate reference sensors. The neural network uses this knowledge, for example, to upscale and thus improve a poorly resolved grid map that is generated online in the ego vehicle in a post-processing step.
Weiterhin werden besonders bevorzugt durch das Erhöhen der Auflösung eine Geometrieverbesserung, eine Klassifikationsverbesserung, eine Vervollständigung nicht vollständig beobachteter Aspekte und/oder eine Verbesserung höherer Zustände an dem ersten Umfeldmodell durchgeführt. Mit der Geometrieverbesserung können bspw. Ausmaße von anderen Verkehrsteilnehmern besser bestimmt werden. Weiterhin kann mit mehr Details die Klassifikation einzelner in dem Umfeldmodell vorhandener Objekte verbessert werden und entsprechend eine genauere Unterscheidung bspw. zwischen verschiedenen Verkehrsteilnehmern erreicht werden. Die Vervollständigung nichtvollständig beobachteter Aspekte ist vorteilhaft, da mit dem Wissen aus den hochaufgelösten Umfeldmodellen das neuronale Netz bspw. Fahrspurmarkierungen vervollständigen kann, da das Netz weiß, wie z.B. eine durchgezogene Fahrbahnmarkierung idealerweise aussieht und an welcher Position auf der Fahrbahn normalerweise solche Markierungen auftreten. So können bspw. fälschlich als nicht durchgezogene Markierung erkannte Fahrbahnmarkierungen vervollständigt und korrigiert werden, was zu einem verbesserten Umfeldmodell führt und auch die Sicherheit in dem Ego-Fahrzeug erhöht, da Fahrerassistenzsystemen die das Umfeldmodell nutzen genauere und vollständigere Daten bereitgestellt werden. Unter der Verbesserung höherer Zustände kann beispielsweise die Verbesserung einer Zellgeschwindigkeitsschätzung verstanden werden. Mit einem hochgenauen Umfeldmodell und einer präziseren Bestimmung der weiteren Verkehrsteilnehmer können deren Bewegungsprofile mit möglichem Beschleunigungsvermögen, Möglichkeit zum Richtungswechsel etc. genauer ermittelt werden und entsprechend besser prädiziert werden, wie sich der jeweilige Verkehrsteilnehmer bewegen wird. Ein Fahrradfahrer weist beispielsweise ein geringeres Beschleunigungsvermögen aber eine schnellere Möglichkeit zum Richtungswechsel als ein Auto auf.Furthermore, by increasing the resolution, a geometry improvement, a classification improvement, a completion of aspects that are not completely observed and/or an improvement of higher states are particularly preferably carried out on the first environment model. With the improvement in geometry, dimensions of other road users can, for example, be better determined. Furthermore, with more details, the classification of individual objects present in the environment model can be improved and a more precise distinction can be achieved, for example between different road users. The completion of incompletely observed aspects is advantageous because, with the knowledge from the high-resolution environment models, the neural network can, for example, complete lane markings, since the network knows what, for example, a solid road marking ideally looks like and at which position on the road such markings normally occur. For example, road markings that are incorrectly recognized as non-solid markings can be completed and corrected, which leads to an improved environment model and also increases safety in the ego vehicle, since driver assistance systems that use the environment model are provided with more precise and complete data. Improving higher states can be understood to mean, for example, improving a cell speed estimate. With a highly accurate environment model and a more precise determination of the other road users, their movement profiles with possible acceleration capabilities, the ability to change direction, etc. can be determined more precisely and, accordingly, it can be better predicted how the respective road user will move. For example, a cyclist has a lower acceleration capacity but a quicker ability to change direction than a car.
Erfindungsgemäß wird weiterhin ein System zum Erzeugen eines Umfeldmodells vorgeschlagen, umfassend zumindest einen Umfelderfassungssensor zum Erfassen eines Umfelds eines Ego-Fahrzeugs, eine Auswerteeinheit zum Auswerten der von dem Umfelderfassungssensor, aufgezeichneten Daten und eine Recheneinheit, welche ausgestaltet ist, ein erstes Umfeldmodell aus der Aufzeichnung des zumindest einen Umfelderfassungssensors zu erstellen und mittels eines neuronalen Netzes das erste Umfeldmodell zu verarbeiten und ein zweites Umfeldmodell durch die Verarbeitung des ersten Umfeldmodells zu erzeugen. Die Recheneinheit kann dabei eine ECU, ADCU oder eine sensorseitig integrierte Recheneinheit sein. Zum Datenaustausch zwischen dem Umfelderfassungssensor und der Auswerteeinheit bzw. zwischen der Auswerteinheit und der Recheneinheit ist eine Datenverbindung vorgesehen. Die Datenverbindung kann dabei kabelgebunden oder auch kabellos, bspw. als Bluetooth, mobiles Netz oder Wifi ausgestaltet sein.According to the invention, a system for generating an environment model is further proposed, comprising at least one environment detection sensor for detecting the environment of an ego vehicle, an evaluation unit for evaluating the data recorded by the environment detection sensor and a computing unit which is designed to generate a first environment model from the recording of the to create at least one environment detection sensor and to process the first environment model using a neural network and to generate a second environment model by processing the first environment model. The computing unit can be an ECU, ADCU or a computing unit integrated on the sensor side. A data connection is provided for data exchange between the environment detection sensor and the evaluation unit or between the evaluation unit and the computing unit seen. The data connection can be wired or wireless, for example as Bluetooth, mobile network or WiFi.
Als neuronale Netze können bevorzugt rekurrente neuronale Netze verwendet werden, welche temporale Zusammenhänge mitberücksichtigen können. Zur Hochskalierung können insbesondere vollständig konvolutionale Netze zum Einsatz kommen. Im Falle einer beispielhaften, gridbasierten Zwischenrepräsentation kann das Grid als Bild aufgefasst werden und ähnliche Netzarchitekturen wie beim Hochskalieren von Computergrafiken zum Einsatz kommen.Recurrent neural networks, which can take temporal relationships into account, can preferably be used as neural networks. In particular, fully convolutional networks can be used for upscaling. In the case of an exemplary grid-based intermediate representation, the grid can be viewed as an image and similar network architectures can be used as when upscaling computer graphics.
Weitere vorteilhafte Ausgestaltungen und Ausführungsformen ergeben sich aus den Zeichnungen.Further advantageous refinements and embodiments can be seen from the drawings.
Darin zeigen:
-
1 : eine schematische Darstellung eines Ablaufdiagramms eines Verfahrens gemäß einer Ausführungsform der Erfindung; -
2 : eine schematische Darstellung eines Systems gemäß einer Ausführungsform der Erfindung; -
3 : eine schematische Darstellung eines Ablaufs zum Erzeugen eines Umfeldmodells.
-
1 : a schematic representation of a flowchart of a method according to an embodiment of the invention; -
2 : a schematic representation of a system according to an embodiment of the invention; -
3 : a schematic representation of a process for creating an environment model.
In
BezugszeichenlisteReference symbol list
- 11
- Systemsystem
- 22
- UmfelderfassungssensorEnvironment detection sensor
- 33
- AuswerteeinheitEvaluation unit
- 44
- RecheneinheitComputing unit
- DD
- DatenverbindungData Connection
- FEFE
- Ego-FahrzeugEgo vehicle
- FFFF
- Fahrzeugflottevehicle fleet
- S1-S4S1-S4
- VerfahrensschritteProcedural steps
- UFUF
- Umfeldmodell FahrzeugflotteVehicle fleet environment model
- U1U1
- erstes Umfeldmodellfirst environment model
- U2U2
- zweites Umfeldmodellsecond environment model
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 20210150669 [0006]US 20210150669 [0006]
Claims (5)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022207741.5A DE102022207741A1 (en) | 2022-07-27 | 2022-07-27 | Method and system for generating an environment model |
JP2023084646A JP2024018956A (en) | 2022-07-27 | 2023-05-23 | Method and system for generating surrounding environment model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022207741.5A DE102022207741A1 (en) | 2022-07-27 | 2022-07-27 | Method and system for generating an environment model |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022207741A1 true DE102022207741A1 (en) | 2024-02-01 |
Family
ID=89508608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022207741.5A Pending DE102022207741A1 (en) | 2022-07-27 | 2022-07-27 | Method and system for generating an environment model |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024018956A (en) |
DE (1) | DE102022207741A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016210534A1 (en) | 2016-06-14 | 2017-12-14 | Bayerische Motoren Werke Aktiengesellschaft | Method for classifying an environment of a vehicle |
US20190004535A1 (en) | 2017-07-03 | 2019-01-03 | Baidu Usa Llc | High resolution 3d point clouds generation based on cnn and crf models |
US20210150669A1 (en) | 2019-11-18 | 2021-05-20 | Advanced Micro Devices, Inc. | Gaming super resolution |
-
2022
- 2022-07-27 DE DE102022207741.5A patent/DE102022207741A1/en active Pending
-
2023
- 2023-05-23 JP JP2023084646A patent/JP2024018956A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016210534A1 (en) | 2016-06-14 | 2017-12-14 | Bayerische Motoren Werke Aktiengesellschaft | Method for classifying an environment of a vehicle |
US20190004535A1 (en) | 2017-07-03 | 2019-01-03 | Baidu Usa Llc | High resolution 3d point clouds generation based on cnn and crf models |
US20210150669A1 (en) | 2019-11-18 | 2021-05-20 | Advanced Micro Devices, Inc. | Gaming super resolution |
Also Published As
Publication number | Publication date |
---|---|
JP2024018956A (en) | 2024-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018203583B4 (en) | Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model | |
DE102019114577A1 (en) | SYSTEMS, DEVICES AND METHODS FOR EMBEDDED CODING OF CONTEXT-RELATED INFORMATION USING A NEURONAL NETWORK WITH VECTOR SPACE MODELING | |
WO2018215031A1 (en) | Method for detecting objects in an image of a camera | |
DE102010011629A1 (en) | Method for environmental representation of vehicle, involves recording and storing environment data in hierarchical data structures, which are identified in environmental objects | |
DE102012107886A1 (en) | Method for the electronic detection of traffic signs | |
DE102021002798A1 (en) | Process for camera-based environment detection | |
EP3789926A1 (en) | Method for detecting an adversarial fault in the input data of a neural network | |
DE102019218613A1 (en) | Object classification method, object classification circuit, motor vehicle | |
EP3782081B1 (en) | Method for generating a test data set, method for testing, method for operating a system, device, control system, computer program product, computer readable medium, generation and use | |
DE102018206806A1 (en) | Method and device for converting an input image of a first domain into an output image of a second domain | |
DE102017221765A1 (en) | Train and operate a machine learning system | |
DE102021004426A1 (en) | Method for training an autonomous driving function | |
EP4078238A1 (en) | Method and device for making sensor data more robust against adverse disruptions | |
DE102017201796A1 (en) | Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device | |
DE102022207741A1 (en) | Method and system for generating an environment model | |
DE102018132627A1 (en) | Method for capturing an environment of a motor vehicle by means of temporal fusion of images through an artificial neural network; Control unit, driver assistance system; Computer program product | |
DE102021200643B3 (en) | Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network | |
DE102021005053A1 (en) | Method for merging a large number of sensor data by means of an electronic computing device, as well as a driver assistance system | |
DE102021213344A1 (en) | Method for determining agent trajectories in a multi-agent scenario | |
EP4049186A1 (en) | Method for making a neural network more robust against adversarial disruptions | |
DE102019217951A1 (en) | Method and apparatus for determining a domain distance between at least two data domains | |
DE102019217282A1 (en) | Process for predicting the driving behavior of other road users | |
DE102019001005A1 (en) | Device and method for the compression of sensor data | |
DE102006004361A1 (en) | Method for determination of duration of vehicle presence at specific location, comprises use of reference times and -paths | |
DE102021002011A1 (en) | Method for annotating data from a survey of the surroundings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |