DE102019219756A1 - Method for generating artificial roadway features, computer program, computer-readable data carrier and device for generating artificial roadway features - Google Patents
Method for generating artificial roadway features, computer program, computer-readable data carrier and device for generating artificial roadway features Download PDFInfo
- Publication number
- DE102019219756A1 DE102019219756A1 DE102019219756.6A DE102019219756A DE102019219756A1 DE 102019219756 A1 DE102019219756 A1 DE 102019219756A1 DE 102019219756 A DE102019219756 A DE 102019219756A DE 102019219756 A1 DE102019219756 A1 DE 102019219756A1
- Authority
- DE
- Germany
- Prior art keywords
- image information
- artificial
- roadway
- features
- roadway features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004590 computer program Methods 0.000 title claims description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 46
- 239000013589 supplement Substances 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 abstract description 4
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 8
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000010410 layer Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000282994 Cervidae Species 0.000 description 1
- 241000283070 Equus zebra Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Verfahren (20) zur Erzeugung von künstlichen Fahrbahn-Merkmalen, umfassend:• Erhalten (21) von Bild-Informationen von einer Kamera (2, 2a);• Eingeben (22) der erhaltenen Bild-Informationen in ein neuronales Netzwerk (34), wobei das neuronale Netzwerk (34) basierend auf den erhaltenen Bild-Informationen die künstlichen Fahrbahn-Merkmale erzeugt; und• Ergänzen (23) von in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmalen mit den erzeugten künstlichen Fahrbahn-Merkmalen.A method (20) for generating artificial roadway features, comprising: • obtaining (21) image information from a camera (2, 2a); • inputting (22) the image information obtained into a neural network (34), wherein the neural network (34) generates the artificial roadway features based on the image information obtained; and • supplementing (23) real roadway features represented in the image information obtained with the generated artificial roadway features.
Description
Die Erfindung betrifft ein Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen, ein Computerprogramm, einen computerlesbaren Datenträger und eine Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen.The invention relates to a method for generating artificial roadway features, a computer program, a computer-readable data carrier and a device for generating artificial roadway features.
Heutige Fahrerassistenzsysteme in Fahrzeugen können auf Bild-Informationen von der Fahrzeugumgebung angewiesen sein, um ihre Funktion sicher und zuverlässig erfüllen zu können. Diese Informationen können z. B. von einer oder mehreren Kameras in oder am Fahrzeug bereitgestellt werden. Bekannt sind beispielsweise Fahrerassistenzsysteme zur Spur- oder Totwinkelüberwachung, die in bestimmten Fahrsituationen eine Warnung an den Fahrer ausgeben können. Andere Systeme, wie bspw. ein Notbremssystem, können basierend auf den Bild-Informationen auch automatisch einen Bremsvorgang einleiten.Today's driver assistance systems in vehicles can rely on image information from the vehicle environment in order to be able to perform their function safely and reliably. This information can e.g. B. provided by one or more cameras in or on the vehicle. For example, driver assistance systems for lane or blind spot monitoring, which can output a warning to the driver in certain driving situations, are known. Other systems, such as an emergency braking system, can also automatically initiate a braking process based on the image information.
Vor allem in autonomen Fahrzeugen kann es wichtig sein, den Fahrbahnverlauf in einem Bereich vor dem Fahrzeug genau zu erfassen, um die Planung eines sicheren Fahrwegs genau durchführen zu können. Dabei kann das autonome Fahrzeug eine Vielzahl unterschiedlicher Sensor- bzw. Datenquellen analysieren, insbesondere Kameras, um den Fahrbahnverlauf zu modellieren.In autonomous vehicles in particular, it can be important to precisely record the course of the road in an area in front of the vehicle in order to be able to plan a safe route precisely. The autonomous vehicle can analyze a large number of different sensor or data sources, in particular cameras, in order to model the course of the road.
Aus der deutschen Offenlegungsschrift
Die deutsche Offenlegungsschrift
Aus der deutschen Offenlegungsschrift
Problematisch können Fahrsituationen sein, in denen Fahrbahnmarkierungen, Verkehrszeichen oder allgemein der Fahrbahnverlauf nicht gut oder nur teilweise in den Bild-Informationen erkennbar sind. Dies kann bspw. der Fall sein, wenn andere Verkehrsteilnehmer wie z.B. ein größerer Lastkraftwagen die entsprechenden Markierungen oder Fahrbahnbegrenzungen verdecken. Solche Situationen können durch die aus den oben genannten Stand der Technik Dokumenten Lösungen nicht berücksichtigt werden.Driving situations can be problematic in which lane markings, traffic signs or, in general, the course of the lane cannot be recognized well or only partially in the image information. This can be the case, for example, when other road users such as a large truck cover the corresponding markings or lane boundaries. Such situations cannot be taken into account by the solutions from the prior art documents mentioned above.
Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen, ein Computerprogramm, einen computerlesbaren Datenträger und eine Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen bereitzustellen, welche die oben genannten Nachteile wenigstens teilweise überwinden.The object of the present invention is therefore to provide a method for generating artificial roadway features, a computer program, a computer-readable data carrier and a device for generating artificial roadway features, which at least partially overcome the above-mentioned disadvantages.
Diese Aufgabe wird durch das erfindungsgemäße Verfahren nach Anspruch 1, das Computerprogramm nach Anspruch 8, den computerlesbaren Datenträger nach Anspruch 9 und die Vorrichtung nach Anspruch 10 gelöst.This object is achieved by the method according to the invention according to
Gemäß einem ersten Aspekt stellt die Erfindung ein Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen bereit, umfassend:
- • Erhalten von Bild-Informationen von einer Kamera;
- • Eingeben der erhaltenen Bild-Informationen in ein neuronales Netzwerk, wobei das neuronale Netzwerk basierend auf den erhaltenen Bild-Informationen die künstlichen Fahrbahn-Merkmale erzeugt; und
- • Ergänzen von in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmalen mit den erzeugten künstlichen Fahrbahn-Merkmalen.
- • Obtaining image information from a camera;
- Inputting the image information obtained into a neural network, the neural network generating the artificial roadway features based on the image information obtained; and
- • Supplementing real roadway features represented in the image information obtained with the generated artificial roadway features.
Gemäß einem zweiten Aspekt stellt die Erfindung ein Computerprogramm bereit, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt auszuführen.According to a second aspect, the invention provides a computer program comprising instructions which, when the program is executed by a computer, cause the computer to execute the method according to the first aspect.
Gemäß einem dritten Aspekt stellt die Erfindung einen computerlesbaren Datenträger bereit, auf dem das Computerprogramm nach dem zweiten Aspekt gespeichert ist.According to a third aspect, the invention provides a computer-readable data carrier on which the computer program according to the second aspect is stored.
Gemäß einem vierten Aspekt stellt die Erfindung eine Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen bereit, die dazu eingerichtet ist das Verfahren nach dem ersten Aspekt auszuführen.According to a fourth aspect, the invention provides a device for generating artificial roadway features which is set up to carry out the method according to the first aspect.
Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.Further advantageous embodiments of the invention emerge from the subclaims and the following description of preferred exemplary embodiments of the present invention.
Ein erfindungsgemäßes Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen, umfasst:
- • Erhalten von Bild-Informationen von einer Kamera;
- • Eingeben der erhaltenen Bild-Informationen in ein neuronales Netzwerk, wobei das neuronale Netzwerk basierend auf den erhaltenen Bild-Informationen die künstlichen Fahrbahn-Merkmale erzeugt; und
- • Ergänzen von in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmalen mit den erzeugten künstlichen Fahrbahn-Merkmalen.
- • Obtaining image information from a camera;
- Inputting the image information obtained into a neural network, the neural network generating the artificial roadway features based on the image information obtained; and
- • Supplementing real roadway features represented in the image information obtained with the generated artificial roadway features.
Wie eingangs erwähnt, kann bei der Fahrt eines Kraftfahrzeugs die Sicht auf die vorausliegende Straße und die Fahrbahnmarkierungen durch andere Verkehrsteilnehmer, z. B. durch einen Lastkraftwagen, teilweise oder auch stark verdeckt sein. Auch in Fahrsituationen auf bspw. laub- oder schneebedeckten Straßen können Fahrbahnmarkierungen verdeckt sein. Folglich kann in vielen alltäglichen Verkehrssituationen der Sichtbereich einer Kamera im oder am Fahrzeug auf den Straßenverlauf durch andere Objekte verringert sein. Dadurch kann die Kamera nur einen Ausschnitt der Bild-Informationen verarbeiten und nur für diesen Teil können z. B. Fahrbahnmarkierungen geschätzt werden. Dies kann insbesondere in autonomen Fahrzeugen problematisch sein, da dort eine genaue Modellierung des Fahrbahnverlaufs basierend auf Fahrbahnmarkierungen für eine sichere und zuverlässige Funktionsweise des Fahrzeugs von Bedeutung ist und ansonsten bspw. der autonome Fahrbetrieb eingeschränkt sein kann.As mentioned at the beginning, when driving a motor vehicle, the view of the road ahead and the lane markings by other road users, e.g. B. be partially or heavily covered by a truck. Road markings can also be covered in driving situations on, for example, leafy or snow-covered roads. Consequently, in many everyday traffic situations, the field of view of a camera in or on the vehicle on the course of the road can be reduced by other objects. As a result, the camera can only process a section of the image information. B. road markings are estimated. This can be problematic in particular in autonomous vehicles, since there an exact modeling of the course of the road based on road markings is important for a safe and reliable functioning of the vehicle and otherwise, for example, autonomous driving can be restricted.
Folglich wird das Verfahren in manchen Ausführungsbeispielen insbesondere im Kraftfahrzeugumfeld eingesetzt, ohne dass die Erfindung auf diesen Fall beschränkt sein soll.Consequently, in some exemplary embodiments, the method is used in particular in the motor vehicle environment, without the invention being restricted to this case.
Das Verfahren kann grundsätzlich auf einem Computer ausgeführt werden, insbesondere einem Bordcomputer oder einem Steuergerät in einem Kraftfahrzeug. Der Computer weist dafür elektronische Komponenten wie bspw. eine oder mehrere CPUs (von „Central Processing Unit“), eine oder mehrere GPUs (von „Graphical Processing Unit“), einen oder mehrere ASICs (von „Application Specific Integrated Circuit“), elektronische Speicherelemente oder dergleichen auf, die typischerweise für die in dem Verfahren notwendigen Berechnungen verwendet werden. In Ausführungsbeispielen im Kraftfahrzeugumfeld kann das Verfahren insbesondere auf einem Steuergerät oder Bordcomputer oder dergleichen ausgeführt werden oder auf mehrere Steuergeräte, Prozessoren, GPUs, ASICs oder dergleichen entsprechend verteilt werden, um das hierin beschriebene Verfahren auszuführen.The method can in principle be carried out on a computer, in particular an on-board computer or a control device in a motor vehicle. For this purpose, the computer has electronic components such as, for example, one or more CPUs (from “Central Processing Unit”), one or more GPUs (from “Graphical Processing Unit”), one or more ASICs (from “Application Specific Integrated Circuit”), electronic ones Storage elements or the like, which are typically used for the calculations necessary in the method. In exemplary embodiments in the motor vehicle environment, the method can in particular be carried out on a control unit or on-board computer or the like, or can be appropriately distributed to several control units, processors, GPUs, ASICs or the like in order to carry out the method described herein.
Es wurde erkannt, dass mit der Anwendung von z. B. erzeugenden gegnerischen Netzwerken (auch „GAN“ im Folgenden von „Generative Adversial Networks“) aus dem Gebiet der künstlichen Intelligenz in manchen Ausführungsbeispielen z. B. ein künstliches Kamerabild erzeugt werden kann, das den weiteren Fahrbahnverlauf darstellt, der in den Bild-Informationen von der Kamera vorher nicht vorhanden gewesen ist. Dieses kann bei manchen Ausführungsbeispielen zur Stützung von Fahrerassistenzsystemen genutzt werden, indem das künstliche Kamerabild den Fahrerassistenzsystemen zur Verfügung gestellt wird.It was recognized that with the application of e.g. B. generating opposing networks (also “GAN” in the following from “Generative Adversial Networks”) from the field of artificial intelligence. B. an artificial camera image can be generated, which shows the further course of the road, which was not previously available in the image information from the camera. In some exemplary embodiments, this can be used to support driver assistance systems in that the artificial camera image is made available to the driver assistance systems.
Neuronale Netzwerke, insbesondere GANs, sind dem Fachmann grundsätzlich bekannt. Ein GAN kann z. B. derart ausgestaltet und/oder trainiert sein, dass es künstliche Bild-Informationen erzeugt. Dabei können künstliche Bild-Informationen z. B. Personen, Fahrbahnmarkierungen oder Fahrzeuge oder beliebige Objektklassen repräsentieren, welche realen Bild-Informationen (d. h. z. B. Kamerabilder von real existierenden Objekten etc.), die gleiche Objektklassen repräsentieren, sehr ähnlich sein können. Wobei ähnlich bedeuten kann, dass die künstlichen Bild-Informationen von einem Bild-Analyseverfahren (welches bspw. auch auf einem neuronales Netzwerk basieren kann) nicht von realen Bild-Informationen unterschieden werden können.Neural networks, in particular GANs, are known in principle to the person skilled in the art. A GAN can e.g. B. designed and / or trained in such a way that it generates artificial image information. Artificial image information such. B. represent people, lane markings or vehicles or any object classes, which real image information (i.e. e.g. camera images of real existing objects etc.) representing the same object classes can be very similar. Whereby similar can mean that the artificial image information from an image analysis method (which, for example, can also be based on a neural network) cannot be differentiated from real image information.
Basierend auf neuronalen Netzwerken, insbesondere GANs, können daher in manchen Ausführungsbeispielen diese derart ausgestaltet und/oder trainiert sein, dass das Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen, insbesondere im Kraftfahrzeugumfeld, eingesetzt werden kann, ohne dass die Erfindung auf diesen Fall beschränkt sein soll.Based on neural networks, in particular GANs, in some exemplary embodiments these can therefore be designed and / or trained in such a way that the method for generating artificial roadway features can be used, in particular in the motor vehicle environment, without the invention being restricted to this case should.
Dabei können künstliche Fahrbahn-Merkmale in manchen Ausführungsbeispielen künstlichen Bild-Informationen entsprechen, die Fahrbahnmarkierungen, Verkehrszeichen und dergleichen repräsentieren, also Elemente bzw. Merkmale einer Fahrbahn auf der sich z. B. ein Kraftfahrzeug befindet.In this case, artificial lane features in some exemplary embodiments can correspond to artificial image information representing lane markings, traffic signs and the like, that is to say elements or features of a lane on which z. B. is a motor vehicle.
Bild-Informationen können bei manchen Ausführungsbeispielen einem aufgezeichneten Kamerabild entsprechen. In anderen Ausführungsbeispielen können Bild-Informationen durch Bild-Analyseverfahren extrahierte Merkmale sein, wie z. B. Punkte, Linien, Objekte und/oder Umrisse von Objekte, Farbverläufe, etc.. Im Allgemeinen können die Bild-Informationen durch digitale und/oder analoge Werte und/oder Signale repräsentiert sein.In some exemplary embodiments, image information can correspond to a recorded camera image. In other exemplary embodiments, image information can be represented by image Analytical methods extracted features, such as B. points, lines, objects and / or outlines of objects, color gradients, etc .. In general, the image information can be represented by digital and / or analog values and / or signals.
Somit können bei manchen Ausführungsbeispielen künstliche Fahrbahn-Merkmale einem erzeugten Kamerabild entsprechen, in welchem Fahrbahnmarkierungen, Verkehrszeichen und dergleichen repräsentiert sein können. In anderen Ausführungsbeispielen können die künstlichen Fahrbahn-Merkmale Punkte, Linien, Objekte und/oder Umrisse von Objekten, und dergleichen sein, welche Fahrbahnmarkierungen, Verkehrszeichen und dergleichen repräsentieren können.Thus, in some exemplary embodiments, artificial roadway features can correspond to a generated camera image in which roadway markings, traffic signs and the like can be represented. In other exemplary embodiments, the artificial lane features can be points, lines, objects and / or outlines of objects, and the like, which lane markings, traffic signs and the like can represent.
In manchen Ausführungsbeispielen werden zur Erzeugung von künstlichen Fahrbahn-Merkmalen zunächst Bild-Informationen von einer Kamera erhalten. Die Kamera kann bei manchen Ausführungsbeispielen in oder an einem Kraftfahrzeug montiert sein und das Umfeld bzw. einen Teil des Umfelds des Kraftfahrzeugs aufzeichnen, ohne dass die Erfindung auf diesen Fall beschränkt ist. In solchen Ausführungsbeispielen können in den Bild-Informationen von der Kamera reale Fahrbahn-Merkmale repräsentiert sein, d. h. Elemente bzw. Merkmale einer Fahrbahn auf der sich das Kraftfahrzeug befindet. Dies können insbesondere Fahrbahnbegrenzungen, -markierungen und dergleichen sein, die grundsätzlich geeignet sein können, einen Fahrbahnverlauf in einem Bereich um das Kraftfahrzeug zu ermitteln und/oder zu modellieren.In some exemplary embodiments, image information is first received from a camera in order to generate artificial roadway features. In some exemplary embodiments, the camera can be mounted in or on a motor vehicle and record the surroundings or a part of the surroundings of the motor vehicle, without the invention being restricted to this case. In such exemplary embodiments, real lane features can be represented in the image information from the camera, i. H. Elements or features of a roadway on which the motor vehicle is located. These can in particular be road boundaries, markings and the like, which can in principle be suitable for determining and / or modeling a road course in an area around the motor vehicle.
Die erhaltenen Bild-Informationen werden in ein neuronales Netzwerk eingegeben, wobei das neuronale Netzwerk basierend auf den erhaltenen Bild-Informationen die künstlichen Fahrbahn-Merkmale erzeugt.The image information obtained is input into a neural network, the neural network generating the artificial roadway features based on the image information obtained.
Das neuronale Netzwerk kann ein GAN sein, ein faltendes neuronales Netzwerk (auch CNN im Folgenden von „Convolutional Neural Network“), und es kann allgemein ein ein- oder mehrschichtiges neuronales Netzwerk oder dergleichen sein. Das neuronale Netzwerk kann in manchen Ausführungsbeispielen durch die Gewichte zwischen den einzelnen Schichten charakterisiert sein und/oder durch die Gewichte der einzelnen Neuronen. Bei manchen Ausführungsbeispielen werden die Gewichte des neuronalen Netzwerks aus einem Speicher geladen, um die Berechnungen zur Erzeugung der künstlichen Fahrbahn-Merkmale basierend auf den erhaltenen Bild-Informationen auszuführen, welche, wie oben erwähnt, auf einer oder mehrerer CPUs, einer oder mehrerer GPUs, oder einer entsprechenden Verteilung auf diesen durchgeführt werden kann. Der Speicher kann ein Festwertspeicher oder ein flüchtiger Speicher sein. In anderen Ausführungsbeispielen ist das neuronale Netzwerk durch einen (oder mehrere) ASIC realisiert.The neural network can be a GAN, a convolutional neural network (also CNN in the following from “convolutional neural network”), and it can generally be a single-layer or multi-layer neural network or the like. In some exemplary embodiments, the neural network can be characterized by the weights between the individual layers and / or by the weights of the individual neurons. In some exemplary embodiments, the weights of the neural network are loaded from a memory in order to carry out the calculations for generating the artificial roadway features based on the image information obtained, which, as mentioned above, is carried out on one or more CPUs, one or more GPUs, or a corresponding distribution can be carried out on these. The memory can be a read-only memory or a volatile memory. In other exemplary embodiments, the neural network is implemented by one (or more) ASIC.
Das neuronale Netzwerk kann bei manchen Ausführungsbeispielen die erhaltenen Bild-Informationen als Eingangswerte aufnehmen und verarbeiten, um nach den Berechnungen in den einzelnen Schichten des neuronalen Netzwerks die künstlichen Fahrbahn-Merkmale erzeugt zu haben. Wobei künstlich in manchen Ausführungsbeispielen bedeuten kann, dass die Fahrbahn-Merkmale zwar real existieren können, aber in den erhaltenen Bild-Informationen nicht repräsentiert sind (weil sie, wie oben erwähnt, bspw. durch ein Objekt, wie ein Fahrzeug, Fußgänger, Laub, Schnee, Wasser, etc., verdeckt sind). In manchen Ausführungsbeispielen weisen die erzeugten künstlichen Fahrbahn-Merkmale auch die in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmale auf und zusätzliche Fahrbahn-Merkmale, die basierend auf den erhaltenen Bild-Informationen bzw. den realen Fahrbahn-Merkmale mit hoher Wahrscheinlichkeit die Fahrbahn bzw. den weiteren Fahrbahnverlauf entsprechen. In anderen Ausführungsbeispielen weisen die die erzeugten künstlichen Fahrbahn-Merkmale nur die zusätzlichen Fahrbahn-Merkmale auf.In some exemplary embodiments, the neural network can record and process the image information obtained as input values in order to have generated the artificial roadway features after the calculations in the individual layers of the neural network. Artificial can mean in some exemplary embodiments that the lane features can actually exist, but are not represented in the image information obtained (because, as mentioned above, they are, for example, by an object such as a vehicle, pedestrian, foliage, Snow, water, etc. are covered). In some exemplary embodiments, the generated artificial roadway features also have the real roadway features represented in the image information obtained and additional roadway features which, based on the received image information or the real roadway features, have a high probability of the roadway or correspond to the further course of the road. In other exemplary embodiments, the generated artificial roadway features only have the additional roadway features.
Daher ergänzen die erzeugten künstlichen Fahrbahn-Merkmalen in manchen Ausführungsbeispielen die in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmalen.In some exemplary embodiments, the generated artificial roadway features therefore supplement the real roadway features represented in the image information obtained.
Das Ergänzen der realen Fahrbahn-Merkmalen mit künstlichen Fahrbahn-Merkmalen kann in manchen Ausführungsbeispielen bspw. ein Hinzufügen von Fahrbahnmarkierungen sein, die vorher verdeckt waren (in den Bild-Informationen also nicht enthalten waren), von Verkehrszeichen und dergleichen. In anderen Ausführungsbeispielen kann eine Fahrbahnbegrenzung oder dergleichen z. B. gemäß ihrem wahrscheinlichen Verlauf nach verlängert werden.In some exemplary embodiments, adding artificial lane features to the real lane features can be, for example, adding lane markings that were previously covered (that is, they were not contained in the image information), traffic signs and the like. In other embodiments, a lane boundary or the like, for. B. be extended according to their likely course.
Wie oben erwähnt, kann bspw. der Sichtbereich einer Kamera in einem Kraftfahrzeug auf den Straßenverlauf in manchen Ausführungsbeispielen durch andere Objekte wie z.B. einem Lastkraftwagen verdeckt sein, bzw. das Objekt kann ein Fahrbahn-Merkmal (teilweise) verdecken, welches bspw. für ein oder mehrere Assistenzsystem benötigt wird. Basierend auf neuronalen Netzen, insbesondere Verfahren wie GANs, kann es in manchen Ausführungsbeispielen möglich sein, einen Algorithmus bzw. ein neuronales Netzwerk zu trainieren, welches bspw. ein verdecktes Bild der Kamera, das heißt die von der Kamera ausgegebenen Bild-Informationen, in dem Kraftfahrzeug als Eingangsdaten aufnimmt und als Ausgang ein Bild wiedergeben würde, in dem z. B. der weitere Straßenverlauf ohne ein verdeckendes Objekt dargestellt ist. Dieses Bild könnte bei manchen Ausführungsbeispielen als weiterer Eingang für einen nachfolgenden Algorithmus genutzt werden, um eine Schätzung bzw. eine Modellierung der Fahrbahn und des Fahrbahnverlaufs vornehmen zu können, auch wenn das Eingangsbild der Kamera dies nur bedingt zulässt. Dies ist vorteilhaft, insbesondere bei autonomen Fahrzeugen, da dadurch eine Modellierung der Fahrbahn und des Fahrbahnverlaufs genauer möglich sein kann. Außerdem können verschiedene Fahrerassistenzsysteme die künstlichen Fahrbahn-Merkmale verwenden, wodurch die Robustheit der Systeme in problematischen Situationen erhöht wird und die Sicherheit beim Betrieb des Fahrzeugs somit verbessert wird.As mentioned above, for example, the field of view of a camera in a motor vehicle on the course of the road in some exemplary embodiments can be covered by other objects such as a truck, or the object can (partially) cover a lane feature that is, for example, for a or several assistance systems are required. Based on neural networks, in particular methods such as GANs, it may be possible in some exemplary embodiments to train an algorithm or a neural network which, for example, contains a hidden image of the camera, i.e. the image information output by the camera Motor vehicle receives as input data and would reproduce an image as an output in which z. B. the further course of the road is shown without an obscuring object. In some exemplary embodiments, this image could be used as a further input for a The following algorithm can be used in order to be able to estimate or model the roadway and the course of the roadway, even if the input image from the camera only allows this to a limited extent. This is advantageous, in particular in the case of autonomous vehicles, since it allows the roadway and the course of the roadway to be modeled more precisely. In addition, various driver assistance systems can use the artificial roadway features, as a result of which the robustness of the systems is increased in problematic situations and the safety during operation of the vehicle is thus improved.
Wie oben erwähnt, weisen die erzeugten künstlichen Fahrbahn-Merkmale in manchen Ausführungsbeispielen Fahrbahnmarkierungen auf, welche zur Modellierung der Fahrbahn und des Fahrbahnverlaufs geeignet sein können. Die Fahrbahnmarkierungen können bspw. Leitlinien (bzw. unterbrochene Linie) sein, Fahrbahn- bzw. Fahrstreifenbegrenzungen (bzw. durchgezogene Linie), bzw. allgemein Längsmarkierungen (Beschleunigungsstreifen, gelbe Markierungen in Baustellen, Radfahrstreifen, etc.), Flächenmarkierungen (Schrägstrichgatter bzw. Sperrflächen, Radfahrerfurt), Grenzmarkierungen, Quermarkierungen (Haltelinien, Zebrastreifen, etc.), Parkflächenmarkierungen, Pfeile, und dergleichen sein. Bei manchen Ausführungsbeispielen können die Fahrbahnmarkierungen Leitpfosten oder dergleichen aufweisen. Fahrbahn-Merkmale umfassen bei manchen Ausführungsbeispielen Merkmale, welche einen Verlauf der Fahrbahn, eine Begrenzung oder andere Charakteristika von ihr charakterisieren.As mentioned above, in some exemplary embodiments the generated artificial roadway features have roadway markings which can be suitable for modeling the roadway and the course of the roadway. The lane markings can be, for example, guidelines (or broken lines), lane or lane boundaries (or solid line), or generally longitudinal markings (acceleration lanes, yellow markings in construction sites, cycle lanes, etc.), area markings (slash gates or restricted areas , Radfahrerfurt), border markings, cross markings (stop lines, zebra crossings, etc.), parking area markings, arrows, and the like. In some exemplary embodiments, the road markings can have delineator posts or the like. In some exemplary embodiments, roadway features include features which characterize a course of the roadway, a boundary or other characteristics of it.
Wie oben erwähnt, weisen die erzeugten künstlichen Fahrbahn-Merkmale in manchen Ausführungsbeispielen Verkehrszeichen auf. Die Verkehrszeichen können bspw. Zeichen bzw. Schilder für Geschwindigkeitsbegrenzungen sein, Vorfahrtsregelungen, Stoppschilder, Autobahnschilder, Warnschilder (z.B. vor scharfen Kurven, Wildwechsel, etc.), und dergleichen sein.As mentioned above, the generated artificial roadway features have traffic signs in some exemplary embodiments. The traffic signs can be, for example, signs or signs for speed limits, right of way, stop signs, motorway signs, warning signs (e.g. before sharp bends, deer crossing, etc.), and the like.
In manchen Ausführungsbeispielen werden die (erhaltenen) Bild-Informationen durch Bild-Daten repräsentiert. In solchen Ausführungsbeispielen können Bild-Daten analoge und/oder digitale Werte und/oder Signale sein bzw. aufweisen, die ein aufgezeichnetes Kamerabild repräsentieren können. Diese können bspw. die digitalisierten Signale von einzelnen Pixeln einer Kamera sein bzw. aufweisen und sie können auch in einem beliebigen Datenformat vorliegen (z. B. als Rohdatenformat, JPEG, SVG, etc.).In some exemplary embodiments, the (obtained) image information is represented by image data. In such exemplary embodiments, image data can be or have analog and / or digital values and / or signals that can represent a recorded camera image. These can, for example, be or have the digitized signals from individual pixels of a camera and they can also be present in any data format (e.g. as raw data format, JPEG, SVG, etc.).
Bei manchen Ausführungsbeispielen werden die Bild-Informationen durch Bild-Merkmale repräsentiert. In solchen Ausführungsbeispielen können die mit einer Kamera aufgezeichneten Bild-Daten bspw. in der Kamera vorverarbeitet werden, wobei aus den Bild-Daten verschiedenen Bild-Merkmale extrahiert werden. Diese können, wie oben erwähnt, bspw. Punkte, Linien, Objekte und/oder Umrisse von Objekten, Farbverläufe, etc. sein, welche Fahrbahnmarkierungen, Verkehrszeichen, Verkehrsteilnehmer, Personen, und dergleichen repräsentieren.In some exemplary embodiments, the image information is represented by image features. In such exemplary embodiments, the image data recorded with a camera can, for example, be preprocessed in the camera, with various image features being extracted from the image data. As mentioned above, these can be, for example, points, lines, objects and / or outlines of objects, color gradients, etc., which represent lane markings, traffic signs, road users, people and the like.
In manchen Ausführungsbeispielen werden die Bild-Informationen durch eine Kombination aus Bild-Daten und Bild-Merkmalen repräsentiert.In some exemplary embodiments, the image information is represented by a combination of image data and image features.
In manchen Ausführungsbeispielen weist das neuronale Netzwerk ein erzeugendes gegnerisches Netzwerk auf. GANs sind grundsätzlich bekannt und können aus zwei neuronalen Netzwerken bestehen: einem Generator und einem Diskriminator. In manchen Ausführungsbeispielen kann der Generator derart ausgestaltet und/oder trainiert sein, dass er künstliche Fahrbahn-Merkmale basierend auf in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmalen (Eingangswerte) erzeugt bzw. die realen Fahrbahn-Merkmale ergänzt, die der Diskriminator nicht von realen Fahrbahn-Merkmalen unterscheiden kann. In solchen Ausführungsbeispielen ist der Diskriminator derart ausgestaltet und/oder trainiert, dass er grundsätzlich Unterschiede zwischen künstlichen und realen Fahrbahn-Merkmalen erkennen könnte. Daher können die erzeugten künstlichen Fahrbahn-Merkmale nachfolgend für z. B. die Modellierung eines Fahrbahnverlaufs in einem Bereich um ein Kraftfahrzeug verwendet werden und verschiedenen Fahrerassistenzsystemen zur Verfügung gestellt werden.In some exemplary embodiments, the neural network has a generating opposing network. GANs are known in principle and can consist of two neural networks: a generator and a discriminator. In some exemplary embodiments, the generator can be designed and / or trained in such a way that it generates artificial roadway features based on real roadway features (input values) represented in the image information obtained or supplements the real roadway features that the discriminator does not can distinguish from real roadway features. In such exemplary embodiments, the discriminator is designed and / or trained in such a way that it could fundamentally recognize differences between artificial and real roadway features. Therefore, the generated artificial road features can subsequently be used for e.g. B. the modeling of the course of a roadway in an area around a motor vehicle can be used and various driver assistance systems are made available.
Daher ist in manchen Ausführungsbeispielen das neuronale Netzwerk mit Trainings-Bild-Informationen trainiert. Ein trainiertes neuronales Netzwerk kann sich dabei von einem untrainierten neuronalem Netzwerk durch die Werte der Gewichte unterscheiden, wie es allgemein bekannt ist. Die Trainings-Bild-Informationen können, wie oben erwähnt, z. B. Bild-Daten oder Bild-Merkmale sein bzw. Bild-Daten und/oder Bild-Merkmale enthalten, aufweisen (allgemein repräsentieren). Vorzugsweise weisen die Trainings-Bild-Informationen eine hohe Variation an unterschiedlichen Situationen auf. In Ausführungsbeispielen, die eine Anwendung des Verfahrens in einem Kraftfahrzeug betreffen, kann bspw. eine Fahrbahn und der Fahrbahnverlauf in den Trainings-Bild-Informationen mit verschiedenen Störungen oder Verdeckungen (Laub, Schnee, Personen, andere Fahrzeuge, welche unterschiedliche Positionen auf der Fahrbahn haben, etc.) einzelner Abschnitte vorliegen, um das neuronale Netzwerk zu trainieren. Dabei weisen die Trainings-Bild-Informationen vorzugsweise Situationen auf, welche die Fahrbahn und den Fahrbahnverlauf mit und ohne Verdeckung zeigen.Therefore, in some exemplary embodiments, the neural network is trained with training image information. A trained neural network can differ from an untrained neural network by the values of the weights, as is generally known. The training image information can, as mentioned above, e.g. B. be image data or image features or contain image data and / or image features (generally represent). The training image information preferably exhibits a high degree of variation in different situations. In exemplary embodiments that relate to an application of the method in a motor vehicle, for example, a lane and the course of the lane in the training image information with various disturbances or obscurations (leaves, snow, people, other vehicles that have different positions on the lane , etc.) of individual sections are available in order to train the neural network. The training image information preferably has situations that show the roadway and the course of the roadway with and without obscuring.
Die Trainings-Bild-Informationen können bei manchen Ausführungsbeispielen aus Kamerabildern erhalten sein, die in realen Situationen aufgezeichnet wurden. In anderen Ausführungsbeispielen sind die Trainings-Bild-Informationen durch einen Computer generiert worden. In weiteren Ausführungsbeispielen sind die Trainings-Bild-Informationen eine Kombination aus realen und computergenerierten Bild-Informationen.In some exemplary embodiments, the training image information can be obtained from camera images that were recorded in real situations. In other exemplary embodiments, the training image information has been generated by a computer. In further exemplary embodiments, the training image information is a combination of real and computer-generated image information.
Das neuronale Netzwerk kann bei manchen Ausführungsbeispielen mit den Trainings-Bild-Informationen auf einem Computer, einem Server, einer Cloud oder dergleichen trainiert worden seien, wobei diese elektronische Komponenten wie eine CPU, GPU, ASICs oder dergleichen aufweisen, die typischerweise für das Training eines neuronalen Netzwerks verwendet werden.In some exemplary embodiments, the neural network can have been trained with the training image information on a computer, a server, a cloud or the like, these having electronic components such as a CPU, GPU, ASICs or the like, which are typically used for training a neural network can be used.
Manche Ausführungsbeispiele betreffen ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das hierin beschriebene Verfahren auszuführen.Some exemplary embodiments relate to a computer program, comprising instructions which, when the program is executed by a computer, cause the computer to execute the method described herein.
Der Computer weist dafür, wie oben erwähnt, elektronische Komponenten wie bspw. eine oder mehrere CPUs, eine oder mehrere GPUs, einen oder mehrere ASICs, elektronische Speicherelemente oder dergleichen auf, die typischerweise für die in dem hierin beschriebenen Verfahren notwendigen Berechnungen verwendet werden.For this purpose, as mentioned above, the computer has electronic components such as, for example, one or more CPUs, one or more GPUs, one or more ASICs, electronic storage elements or the like, which are typically used for the calculations required in the method described herein.
Manche Ausführungsbeispiele betreffen einen computerlesbarer Datenträger, auf dem das obengenannte Computerprogramm gespeichert ist.Some exemplary embodiments relate to a computer-readable data carrier on which the aforementioned computer program is stored.
Der computerlesbare Datenträger kann dabei durch ein digitales Speichermedium wie bspw. einen magnetischen Speicherelement (z.B. eine magnetische Festplatte oder dergleichen), einen digitalen Halbleiterspeicher (z.B. Flash-Speicher oder dergleichen), einer Kombination aus beiden, einen optischen Datenträger, etc. realisiert sein. Der computerlesbare Datenträger kann in manchen Ausführungsbeispielen auch durch eine Vielzahl solcher Speicherelemente realisiert sein auf denen das Computerprogramm entsprechend verteilt ist.The computer-readable data carrier can be implemented by a digital storage medium such as a magnetic storage element (e.g. a magnetic hard disk or the like), a digital semiconductor memory (e.g. flash memory or the like), a combination of both, an optical data carrier, etc. In some exemplary embodiments, the computer-readable data carrier can also be implemented by a multiplicity of such storage elements on which the computer program is appropriately distributed.
Manche Ausführungsbeispiele betreffen eine Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen, die dazu eingerichtet ist das hierin beschriebene Verfahren auszuführen.Some exemplary embodiments relate to a device for generating artificial roadway features which is set up to carry out the method described herein.
Die Vorrichtung kann dabei grundsätzlich von einem wie oben beschriebenen Computer realisiert sein, um das hierin beschriebene Verfahren auszuführen.The device can in principle be implemented by a computer as described above in order to carry out the method described herein.
Ausführungsbeispiele der Erfindung werden nun beispielhaft und unter Bezugnahme auf die beigefügte Zeichnung beschrieben, in der:
-
1 schematisch ein erstes Ausführungsbeispiel eines Verfahrens zur Erzeugung von künstlichen Fahrbahn-Merkmalen in einem Kraftfahrzeug zeigt; -
2 in einem Ablaufdiagramm ein zweites Ausführungsbeispiel eines Verfahrens zur Erzeugung von künstlichen Fahrbahn-Merkmalen zeigt; und -
3 in einem Blockdiagramm eine Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen zeigt.
-
1 schematically shows a first embodiment of a method for generating artificial roadway features in a motor vehicle; -
2 shows in a flowchart a second exemplary embodiment of a method for generating artificial roadway features; and -
3 shows in a block diagram a device for generating artificial roadway features.
Das erste Ausführungsbeispiel des Verfahrens zur Erzeugung von künstlichen Fahrbahn-Merkmalen ist in
Das Kraftfahrzeug
Das Kraftfahrzeug
Die Vorrichtung
Das zweite Ausführungsbeispiel des Verfahrens
Die Vorrichtung
Bei 21 werden entsprechend Bild-Informationen von der Kamera
Das Computerprogramm, welches aus dem computerlesbaren Datenträger
Bei 22 werden daher die erhaltenen Bild-Informationen in das neuronale Netzwerk
Bei 23 werden die in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmalen mit den erzeugten künstlichen Fahrbahn-Merkmalen ergänzt, wie hierin ausgeführt.At 23, the real roadway features represented in the image information obtained are supplemented with the generated artificial roadway features, as set out herein.
Bei 24 weisen die erzeugten künstlichen Fahrbahn-Merkmale Fahrbahnmarkierungen auf, wie hierin ausgeführt.At 24, the artificial lane features generated include lane markings, as set forth herein.
Bei 25 weisen die erzeugten künstlichen Fahrbahn-Merkmale Verkehrszeichen auf, wie hierin ausgeführt.At 25, the generated artificial roadway features include traffic signs, as set out herein.
Bei 26 werden die Bild-Informationen durch Bild-Daten repräsentiert, wie hierin ausgeführt.At 26, the image information is represented by image data as set forth herein.
Bei 27 werden die Bild-Informationen durch Bild-Merkmale repräsentiert, wie hierin ausgeführt.At 27, the image information is represented by image features, as set out herein.
Bei 28 weist das neuronale Netzwerk
Bei 29 ist das neuronale Netzwerk
Die erzeugten künstlichen Fahrbahn-Merkmale werden über die CAN-Schnittstelle
In dem Verfahren
BezugszeichenlisteList of reference symbols
- 11
- KraftfahrzeugMotor vehicle
- 2, 2a2, 2a
- Kameracamera
- 33
- Vorrichtungcontraption
- 44th
- FahrbahnverlaufLane course
- 55
- Zweites KraftfahrzeugSecond motor vehicle
- 6, 6a6, 6a
- FahrbahnmarkierungenRoad markings
- 7, 7a7, 7a
- VerkehrszeichenTraffic signs
- 2020th
- VerfahrenProcedure
- 2121
- Erhalten von Bild-Informationen von einer KameraObtaining image information from a camera
- 2222nd
- Eingeben der erhaltenen Bild-Informationen in ein neuronales Netzwerk, wobei das neuronale Netzwerk basierend auf den erhaltenen Bild-Informationen die künstlichen Fahrbahn-Merkmale erzeugtInputting the image information obtained into a neural network, the neural network generating the artificial roadway features based on the image information obtained
- 2323
- Ergänzen von in den erhaltenen Bild-Informationen repräsentierten realen Fahrbahn-Merkmalen mit den erzeugten künstlichen Fahrbahn-MerkmalenSupplementing real roadway features represented in the image information obtained with the generated artificial roadway features
- 2424
- Aufweisen von FahrbahnmarkierungenShowing lane markings
- 2525th
- Aufweisen von VerkehrszeichenShowing traffic signs
- 2626th
- Repräsentieren der Bild-Informationen durch Bild-DatenRepresenting the image information with image data
- 2727
- Repräsentieren der Bild-Informationen durch Bild-MerkmaleRepresentation of the image information by image features
- 2828
- Aufweisen eines erzeugenden gegnerischen NetzwerksHaving a generating opposing network
- 2929
- Trainieren des neuronalen Netzwerks mit Trainings-Bild-InformationenTraining the neural network with training image information
- 3030th
- CAN-SchnittstelleCAN interface
- 3131
- CPUCPU
- 3232
- GPUGPU
- 3333
- Computerlesbarer DatenträgerComputer readable data carrier
- 3434
- Neuronales NetzwerkNeural network
- 4040
- FahrerassistenzsystemDriver assistance system
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102011109569 A1 [0004]DE 102011109569 A1 [0004]
- DE 102014223259 A1 [0005]DE 102014223259 A1 [0005]
- DE 102016211730 A1 [0006]DE 102016211730 A1 [0006]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019219756.6A DE102019219756A1 (en) | 2019-12-16 | 2019-12-16 | Method for generating artificial roadway features, computer program, computer-readable data carrier and device for generating artificial roadway features |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019219756.6A DE102019219756A1 (en) | 2019-12-16 | 2019-12-16 | Method for generating artificial roadway features, computer program, computer-readable data carrier and device for generating artificial roadway features |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019219756A1 true DE102019219756A1 (en) | 2021-06-17 |
Family
ID=76084774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019219756.6A Pending DE102019219756A1 (en) | 2019-12-16 | 2019-12-16 | Method for generating artificial roadway features, computer program, computer-readable data carrier and device for generating artificial roadway features |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019219756A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018201054A1 (en) * | 2017-02-03 | 2018-08-09 | Harman International Industries, Incorporated | System and method for image representation by a driver assistance module of a vehicle |
US20180247138A1 (en) * | 2017-02-28 | 2018-08-30 | Samsung Electronics Co., Ltd. | Method and device to generate virtual lane |
US20190279004A1 (en) * | 2018-03-06 | 2019-09-12 | Phantom AI, Inc. | Lane line reconstruction using future scenes and trajectory |
-
2019
- 2019-12-16 DE DE102019219756.6A patent/DE102019219756A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018201054A1 (en) * | 2017-02-03 | 2018-08-09 | Harman International Industries, Incorporated | System and method for image representation by a driver assistance module of a vehicle |
US20180247138A1 (en) * | 2017-02-28 | 2018-08-30 | Samsung Electronics Co., Ltd. | Method and device to generate virtual lane |
US20190279004A1 (en) * | 2018-03-06 | 2019-09-12 | Phantom AI, Inc. | Lane line reconstruction using future scenes and trajectory |
Non-Patent Citations (2)
Title |
---|
Complete Guide to Artificial Neural Network Concepts & Models. URL: https://missinglink.ai/guides/neural-network-concepts/complete-guide-artificial-neural-networks/ archiviert durch URL:https://web.archive.org/web/20191031173058/https://missinglink.ai/guides/neural-network-concepts/complete-guide-artificial-neural-networks/ [abgerufen am 23.09.2020] * |
KWON, Yong-Hoon and PARK, Min-Gyu: Predicting Future Frames using Retrospective Cycle GAN . In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2019. * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016007899B4 (en) | Method for operating a device for traffic situation analysis, motor vehicle and data processing device | |
DE102018203583B4 (en) | Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model | |
DE102018104270A1 (en) | Method for predicting the behavior of at least one pedestrian | |
DE102016210534A1 (en) | Method for classifying an environment of a vehicle | |
DE102019216206A1 (en) | Device and method for determining a U-turn strategy of an autonomous vehicle | |
WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
DE102017127600A1 (en) | Method for automatic parking for a motor vehicle with a driving support system | |
DE102015009849A1 (en) | Vehicle-type radar system and method of removing a target of no interest | |
DE102020200169B3 (en) | Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing | |
DE102010001700A1 (en) | Method for determination utilization of e.g. roads, for driver of vehicle, has repeating detection of utilization of route section and increase of degree of utilization of route section, where degree of utilization is increased again | |
DE102014211852A1 (en) | Method and apparatus for determining a maximum speed of a rail vehicle, method and apparatus for controlling the speed of a rail vehicle | |
DE102015006569A1 (en) | Method for image-based recognition of the road type | |
DE102019219756A1 (en) | Method for generating artificial roadway features, computer program, computer-readable data carrier and device for generating artificial roadway features | |
DE102021206475A1 (en) | Obstacle detection in the track area based on depth data | |
DE102021124736A1 (en) | Method and device for determining a position hypothesis | |
DE102016216528A1 (en) | Method and device for determining the location of a vehicle, in particular a rail vehicle | |
EP3772017A1 (en) | Rail signal detection for autonomous railway vehicles | |
DE102019008079A1 (en) | Method for detecting at least one object in a driving area of a vehicle, device set up to carry out such a method, and vehicle with such a device | |
DE102018004044A1 (en) | Method for operating an autonomously moving vehicle | |
DE102012008780A1 (en) | Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model | |
DE102022201659B3 (en) | Vehicle system and method for assigning traffic lights to lanes | |
DE102021202526A1 (en) | Computer-implemented method for performing an automated driving function, computer program product, control unit and motor vehicle | |
DE102022205505A1 (en) | Method for creating a data set | |
DE102021206981A1 (en) | Method for testing the reliability of an AI-based object detection | |
DE102022113744A1 (en) | Method for creating a data set |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |