DE102019115327A1 - Line marker identification using LiDAR - Google Patents
Line marker identification using LiDAR Download PDFInfo
- Publication number
- DE102019115327A1 DE102019115327A1 DE102019115327.1A DE102019115327A DE102019115327A1 DE 102019115327 A1 DE102019115327 A1 DE 102019115327A1 DE 102019115327 A DE102019115327 A DE 102019115327A DE 102019115327 A1 DE102019115327 A1 DE 102019115327A1
- Authority
- DE
- Germany
- Prior art keywords
- lidar
- neural network
- convolutional neural
- deep convolutional
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren (10) zum Identifizieren von Linienmarkierungen (24) auf einer Straße, wobei die Linienmarkierungen (24) Begrenzungen von Fahrspuren definieren, unter Verwendung eines LiDAR-basierten Umgebungssensors (14) zur Verwendung in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10), mit den Schritten zum Bereitstellen eines tiefen konvolutionellen neuronalen Netzwerks (26) mit einer Eingabeschicht (28) und einer Ausgabeschicht (30), Empfangen von Sensorinformation vom LiDAR-basierten Umgebungssensor ( 14), die einen Straßenabschnitt vor dem Fahrzeug (10) abdeckt, Zuführen der Sensorinformation vom LiDAR-basierten Umgebungssensor (14) zur Eingabeschicht (28) des tiefen konvolutionellen neuronalen Netzwerks (26), Verarbeiten der der Eingabeschicht (28) zugeführten Sensorinformation durch das tiefe konvolutionelle neuronale Netzwerk (26) und Empfangen von Identifizierungsinformation (42) der Linienmarkierungen (24) von der Ausgabeschicht (30) des tiefen konvolutionellen neuronalen Netzwerks (26). Die vorliegende Erfindung betrifft auch ein Fahrunterstützungssystem (12) für ein Fahrzeug (10) mit einem LiDAR-basierten Umgebungssensor (14) und einer mit dem LiDAR-basierten Umgebungssensor (14) verbundenen Verarbeitungseinheit (16) zum Empfangen von Sensorinformation vom Umgebungssensor, wobei das Fahrunterstützungssystem (12) dazu eingerichtet ist, das vorstehende Verfahren auszuführen.The present invention relates to a method (10) for identifying line markings (24) on a road, the line markings (24) defining the boundaries of lanes, using a LiDAR-based environment sensor (14) for use in a driving support system (12) of a Vehicle (10), with the steps of providing a deep convolutional neural network (26) with an input layer (28) and an output layer (30), receiving sensor information from the LiDAR-based environment sensor (14) which covers a road section in front of the vehicle ( 10), feeding the sensor information from the LiDAR-based environment sensor (14) to the input layer (28) of the deep convolutional neural network (26), processing the sensor information fed to the input layer (28) by the deep convolutional neural network (26) and receiving Identification information (42) of the line markings (24) from the output layer (30) of the deep convolutional neural network (26). The present invention also relates to a driving support system (12) for a vehicle (10) with a LiDAR-based environment sensor (14) and a processing unit (16) connected to the LiDAR-based environment sensor (14) for receiving sensor information from the environment sensor, the Driving support system (12) is set up to carry out the above method.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Identifizieren von Linienmarkierungen auf einer Straße, wobei die Linienmarkierungen Begrenzungen von Fahrspuren definieren.The present invention relates to a method for identifying line markings on a road, the line markings defining boundaries of traffic lanes.
Auch betrifft die vorliegende Erfindung ein Fahrunterstützungssystem für ein Fahrzeug, das einen LiDAR-basierten Umgebungssensor und eine mit dem LiDAR-basierten Umgebungssensor verbundene Verarbeitungseinheit zum Empfangen von Sensorinformation vom Sensor aufweist, wobei das Fahrunterstützungssystem dazu eingerichtet ist, das vorstehende Verfahren auszuführen.The present invention also relates to a driving support system for a vehicle which has a LiDAR-based environment sensor and a processing unit connected to the LiDAR-based environment sensor for receiving sensor information from the sensor, the driving support system being configured to carry out the above method.
Weltweit dienen Straßennetze tagtäglich unzähligen Fahrzeugen. Um einen sicheren und effizienten Verkehr zu gewährleisten, werden Straßen in der Regel mit aufgemalten Linienmarkierungen markiert, die einzelne Fahrspuren voneinander trennen.Road networks serve countless vehicles around the world every day. To ensure safe and efficient traffic, roads are usually marked with painted line markings that separate individual lanes from each other.
Autonomes und halbautonomes Fahren wird in der Automobilindustrie ein immer wichtigerer Faktor. Prototypen für autonomes Fahren sind bereits entwickelt und eingesetzt worden und werden aktuell getestet. In einigen Fällen werden sie sogar unter realen Fahrbedingungen getestet. Autonomes Fahren wird im Automobilsektor als bahnbrechende Technologie angesehen.Autonomous and semi-autonomous driving is becoming an increasingly important factor in the automotive industry. Prototypes for autonomous driving have already been developed and used and are currently being tested. In some cases they are even tested under real driving conditions. Autonomous driving is seen as a breakthrough technology in the automotive sector.
Für Fahrunterstützungssysteme ist es ein wesentlicher Schritt hin zum autonomen Fahren, eine Straßen- und insbesondere eine Fahrspurverfolgung zu ermöglichen oder zu unterstützen. Dies bezieht sich insbesondere auf Fahrszenarien auf Schnellstraßen oder ähnliche Szenarien, bei denen die Straße mehrere Fahrspuren für jede Richtung aufweist, z.B. drei oder vier parallele Fahrspuren. Die Fahrspurverfolgung ist insbesondere dann eine Herausforderung, wenn die Fahrspuren nicht durchgehend sind, z.B. bei Straßenabzweigungen und Verzweigungen, die beispielsweise eine gabelartige Fahrspursituation auf der Straße darstellen, beispielsweise eine Verzweigungsstelle für zwei Autobahnen oder eine Straßenteilung aufgrund einer Baustelle oder dergleichen. Es können Ausfahrtspuren zum Verlassen einer Straße, insbesondere einer Schnellstraße, sowie Auffahrtspuren zum Auffahren auf eine Straße vorgesehen sein. Es ist daher wichtig, Fahrspuren zu identifizieren, um robuste Einsatz- und Trajektorienplanungsaufgaben zu erfüllen.For driving support systems, it is an essential step towards autonomous driving to enable or support road and especially lane tracking. This relates in particular to driving scenarios on expressways or similar scenarios where the road has several lanes for each direction, e.g. three or four parallel lanes. The lane following is a particular challenge when the lanes are not continuous, e.g. in the case of road junctions and branches that represent, for example, a fork-like lane situation on the road, for example a junction for two motorways or a road division due to a construction site or the like. Exit lanes can be provided for leaving a road, in particular an expressway, as well as access lanes for entering a road. It is therefore important to identify lanes in order to perform robust mission and trajectory planning tasks.
Bekannte Ansätze zum Erfassen von Fahrspuren der Straße basieren auf einer Erfassung von Linienmarkierungen. Die Linienmarkierungen werden auf der Straße bereitgestellt, um Fahrspuren zu markieren, d.h. Fahrspuren voneinander zu trennen, und Fahrspuren von Bereichen jenseits der Straße abzutrennen. Die Linienmarkierungen können als durchgehende Linien oder als unterbrochene Linien bereitgestellt werden. Die Linienmarkierungen werden typischerweise unter Verwendung von kamerabasierten Umgebungssensoren erfasst.Known approaches for detecting lanes of the road are based on the detection of line markings. The line markings are provided on the road to mark driving lanes, i.e. Separate lanes from one another and separate lanes from areas beyond the road. The line markings can be provided as solid lines or as broken lines. The line markings are typically detected using camera-based environmental sensors.
Beispielsweise erfordert eine Spurhalteassistenzfunktion ein hochgradig effizientes Erfassen der Linienmarkierungen der Fahrspuren auf der Straße. Herkömmliche Lösungen, die bislang zum Erfassen der Linienmarkierungen der Fahrspuren auf der Straße angeboten werden, verwenden Sensorinformation einer im Fahrzeug installierten Frontkamera, wobei die Frontkamera Bilder der Umgebung des Fahrzeugs in der Fahrtrichtung zum Identifizieren der Linienmarkierungen bereitstellt. Die herkömmlichen Lösungen basieren beispielsweise auf Computer Vision. Computer Vision hängt z.B. von OpenCV Library als Computer-Vision-Lösung ab, wobei insbesondere ein Canny-Filter verwendet wird, das auf Bilder angewendet wird, die von der im Ego-Fahrzeug installierten Kamera extrahiert werden. Alternativ dazu können tiefe konvolutionelle neuronale Netzwerke, Deep Convolutional Neural Networks (DCNN), zum Identifizieren der Linienmarkierungen verwendet werden. Das DCNN hängt von Convolutional-Schichten ab, die auf die Bilder angewendet werden, die von der im Fahrzeug installierten Kamera extrahiert werden, um die Fahrspurmarkierungen auf der Straße als Merkmale zum Identifizieren der Linienmarkierungen zu extrahieren.For example, a lane departure warning function requires a highly efficient detection of the line markings of the lanes on the road. Conventional solutions that have hitherto been offered for detecting the line markings of the lanes on the road use sensor information from a front camera installed in the vehicle, the front camera providing images of the surroundings of the vehicle in the direction of travel to identify the line markings. The conventional solutions are based on computer vision, for example. Computer vision depends e.g. from OpenCV Library as a computer vision solution, specifically using a Canny filter that is applied to images extracted by the camera installed in the ego vehicle. Alternatively, Deep Convolutional Neural Networks (DCNN) can be used to identify the line markings. The DCNN depends on convolutional layers applied to the images extracted by the camera installed in the vehicle to extract the lane markings on the road as features for identifying the line markings.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Identifizieren von Linienmarkierungen auf einer Straße und ein Fahrunterstützungssystem anzugeben, das dazu eingerichtet ist, das vorstehende Verfahren auszuführen, und die ein zuverlässiges Identifizieren von Linienmarkierungen ermöglichen, insbesondere zur Verwendung in Fahrszenarien auf Schnellstraßen mit mehreren Fahrspuren für jede Richtung.The present invention is based on the object of specifying a method for identifying line markings on a road and a driving support system which is set up to carry out the above method and which enable line markings to be reliably identified, in particular for use in driving scenarios on expressways with several Lanes for each direction.
Die Lösung dieser Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This problem is solved by the independent claims. Advantageous refinements are given in the subclaims.
Insbesondere ist durch die vorliegende Erfindung ein Verfahren zum Identifizieren von Linienmarkierungen auf einer Straße, wobei die Linienmarkierungen Begrenzungen von Fahrspuren definieren, unter Verwendung eines LiDAR-basierten Umgebungssensors zur Verwendung in einem Fahrunterstützungssystem eines Fahrzeugs angegeben, aufweisend die Schritte zum Bereitstellen eines tiefen konvolutionellen neuronalen Netzwerks mit einer Eingabeschicht und einer Ausgabeschicht, Empfangen von Sensorinformation vom LiDAR-basierten Umgebungssensor, die einen Straßenabschnitt vor dem Fahrzeug abdeckt, Übertragen der Sensorinformation vom LiDAR-basierten Umgebungssensor an die Eingabeschicht des tiefen konvolutionellen neuronalen Netzwerks, Verarbeiten der an die Eingabeschicht übertragenen Sensorinformation durch das tiefe konvolutionelle Netzwerk, und Empfangen von Identifizierungsinformation der Linienmarkierungen von der Ausgabeschicht des tiefen konvolutionellen neuronalen Netzwerks.In particular, the present invention specifies a method for identifying line markings on a road, the line markings defining the boundaries of lanes, using a LiDAR-based environment sensor for use in a driving support system of a vehicle, comprising the steps of providing a deep convolutional neural network with an input layer and an output layer, receiving sensor information from the LiDAR-based environment sensor, which covers a road section in front of the vehicle, transmitting the sensor information from the LiDAR-based environment sensor to the input layer of the deep convolutional neural network, processing the sensor information transmitted to the input layer by the deep convolutional network, and receiving identification information of the line marks from the output layer of the deep convolutional neural network.
Durch die vorliegende Erfindung ist auch ein Fahrunterstützungssystem für ein Fahrzeug angegeben, das einen LiDAR-basierten Umgebungssensor und eine mit dem LiDAR-basierten Umgebungssensor verbundene Verarbeitungseinheit zum Empfangen von Sensorinformation vom Sensor aufweist, wobei das Fahrunterstützungssystem dazu eingerichtet ist, das vorstehende Verfahren auszuführen.The present invention also specifies a driving support system for a vehicle which has a LiDAR-based environment sensor and a processing unit connected to the LiDAR-based environment sensor for receiving sensor information from the sensor, the driving support system being configured to carry out the above method.
Grundidee der Erfindung ist es, Sensorinformation vom LiDAR-basierten Umgebungssensor durch das tiefe konvolutionelle neuronale Netzwerk (DCNN) zu verarbeiten, um eine zuverlässige Identifizierung der Linienmarkierungen zu erhalten. Dies ermöglicht eine verbesserte Erkennung von Fahrspuren, die zwischen zwei Linienmarkierungen definiert sind, so dass die identifizierten Linienmarkierungen und/oder Fahrspuren weiterverarbeitet werden können, um eine Fahrunterstützung für das Fahrzeug bereitzustellen, insbesondere wenn mehrere Fahrspuren für die gleiche Fahrtrichtung parallel vorhanden sind.The basic idea of the invention is to process sensor information from the LiDAR-based environment sensor through the deep convolutional neural network (DCNN) in order to obtain reliable identification of the line markings. This enables improved detection of lanes that are defined between two line markings, so that the identified line markings and / or lanes can be further processed in order to provide driving assistance for the vehicle, in particular when several lanes for the same direction of travel are present in parallel.
Der LiDAR-basierte Umgebungssensor hat eine Sensorreichweite, die typischerweise der Reichweite z.B. eines Kamerasensors, der herkömmlich zum Erfassen von Fahrspurmarkierungen von Fahrspuren verwendet wird, überlegen ist. Die Verwendung LiDAR-basierter Umgebungssensoren ermöglicht eine frühzeitige Identifizierung der Linienmarkierungen, da LiDAR-basierte Umgebungssensoren typischerweise eine Sensorreichweite von bis zu 200 m haben, während Kamerasensoren lediglich eine Reichweite von 20 - 80 m erreichen. Darüber hinaus stellen LiDAR-basierte Umgebungssensoren die Sensorinformation der Umgebung mit einer hohen Auflösung bereit. Daher enthält die Sensorinformation des LiDAR-basierten Umgebungssensors relevante Sensorinformation hoher Qualität, die die Linienmarkierungen abdeckt. Darüber hinaus ermöglicht die Verwendung LiDAR-basierter Umgebungssensoren die Identifizierung der Linienmarkierungen unabhängig von den Lichtverhältnissen im Bereich vor dem Fahrzeug. LiDAR-basierte Umgebungssensoren sind relativ unabhängig von Beleuchtungsbedingungen, so dass sie auch unter Bedingungen ohne Licht verwendet werden können, z.B. bei Dunkelheit, und unter Bedingungen mit eingeschränkter Sicht.The LiDAR-based environment sensor has a sensor range that typically corresponds to the range e.g. is superior to a camera sensor conventionally used for detecting lane markings of traffic lanes. The use of LiDAR-based environmental sensors enables the line markings to be identified at an early stage, as LiDAR-based environmental sensors typically have a sensor range of up to 200 m, while camera sensors only have a range of 20 - 80 m. In addition, LiDAR-based environment sensors provide the sensor information of the environment with a high resolution. Therefore, the sensor information of the LiDAR-based environment sensor contains relevant high-quality sensor information that covers the line markings. In addition, the use of LiDAR-based environmental sensors enables the line markings to be identified regardless of the lighting conditions in the area in front of the vehicle. LiDAR-based environmental sensors are relatively independent of lighting conditions, so they can also be used in non-light conditions, e.g. in the dark and in conditions with limited visibility.
Der LiDAR-basierte Umgebungssensor weist eine Laserquelle zum Emittieren von Laserlicht auf. Das Laserlicht kann als punktueller Strahl emittiert werden, der in einer horizontalen und in einer vertikalen Richtung bewegt wird, um ein Sichtfeld des LiDAR-basierten Umgebungssensors abzudecken. Modernere LiDAR-basierte Umgebungssensoren verfügen über eine Laserquelle zum Emittieren von Laserlichtstreifen, die das Sichtfeld durch Bewegen des Laserlichtstreifens nur in einer vertikalen oder in einer horizontalen Richtung abdecken. Messungen für mehrere Messpunkte werden gemäß der Bewegung der Laserlichtstreifen gleichzeitig ausgeführt. Dies erhöht die Messgeschwindigkeit für das Sichtfeld des LiDAR-basierten Umgebungssensors. Die Sensorinformation vom LiDAR-basierten Umgebungssensor wird typischerweise als eine sogenannte „Punktwolke“ mit mehreren Messpunkten bereitgestellt, die die Umgebung des Fahrzeugs abdecken.The LiDAR-based environment sensor has a laser source for emitting laser light. The laser light can be emitted as a point beam that is moved in a horizontal and in a vertical direction in order to cover a field of view of the LiDAR-based environment sensor. More modern LiDAR-based environmental sensors have a laser source for emitting laser light strips that cover the field of view by moving the laser light strip only in a vertical or in a horizontal direction. Measurements for multiple measurement points are carried out simultaneously according to the movement of the laser light strips. This increases the measurement speed for the field of view of the LiDAR-based environmental sensor. The sensor information from the LiDAR-based environment sensor is typically provided as a so-called “point cloud” with several measurement points that cover the area around the vehicle.
Der LiDAR-basierte Umgebungssensor stellt Abstandsinformation für jeden Messpunkt basierend auf einer Laufzeit(Time-of-Flight, TOF)messung zwischen dem Zeitpunkt, zu dem das Laserlicht emittiert wird, und dem Zeitpunkt, zu dem Reflexionen des emittierten Laserlichts empfangen werden, für jeden Messpunkt der Punktwolke bereit. Zusätzlich bestimmt der LiDAR-basierte Umgebungssensor für jeden der Messpunkte die Intensität der empfangenen Reflexionen. Die Intensität ist abhängig von einer Oberflächenfarbe und einer Oberflächenstruktur der Umgebung. Die bereitgestellte Intensität der Reflexionen ermöglicht z.B. eine Unterscheidung von Farben und/oder Oberflächenstrukturen, so dass Linienmarkierungen, die ohne Erhebung auf einer Fahrbahnoberfläche vorgesehen sind, erfasst werden können. LiDAR-basierte Umgebungssensoren sind auf dem Fachgebiet hinlänglich bekannt und werden daher nicht näher erläutert.The LiDAR-based environment sensor provides distance information for each measurement point based on a time-of-flight (TOF) measurement between the point in time at which the laser light is emitted and the point in time at which reflections of the emitted laser light are received for each Measurement point of the point cloud ready. In addition, the LiDAR-based environment sensor determines the intensity of the reflections received for each of the measuring points. The intensity depends on a surface color and a surface structure of the environment. The provided intensity of the reflections enables e.g. a distinction between colors and / or surface structures, so that line markings that are provided without an elevation on a road surface can be detected. LiDAR-based environmental sensors are well known in the technical field and are therefore not explained in more detail.
Die Sensorinformation vom LiDAR-basierten Umgebungssensor deckt einen Straßenabschnitt vor dem Fahrzeug ab. In diesem Zusammenhang bezieht sich der Ausdruck „vor dem Fahrzeug“ auf eine Fahrtrichtung des Fahrzeugs. Beim Rückwärtsfahren wird also der Straßenabschnitt hinter dem Fahrzeug abgedeckt, allgemein wird aber der Straßenabschnitt vor dem Fahrzeug abgedeckt. Der LiDAR-basierte Umgebungssensor führt die Sensorinformation der Verarbeitungseinheit über eine Datenverbindung, d.h. einen Kommunikationsbus, zu. In der Automobilindustrie sind verschiedenartige Kommunikationsbusse bekannt, z.B. CAN-Bus oder andere.The sensor information from the LiDAR-based environment sensor covers a section of road in front of the vehicle. In this context, the term “in front of the vehicle” refers to a direction of travel of the vehicle. When reversing, the road section behind the vehicle is covered, but generally the road section in front of the vehicle is covered. The LiDAR-based environment sensor carries the sensor information to the processing unit via a data connection, i.e. a communication bus, too. Various communication buses are known in the automotive industry, e.g. CAN bus or others.
Die Identifizierungsinformation kann direkt verwendet werden, um die Fahrspurmarkierungen durch einige Identifizierungspunkte glatt darzustellen. Beispielsweise kann die Identifizierungsinformation verwendet werden, um ein Polynomlinienmodells an jede der identifizierten Linienmarkierungen anzupassen. Dadurch können die Linienmarkierungen auf eine einfache und effiziente Weise beschrieben werden. Das gleiche gilt für die Fahrspuren, die durch die Linienmarkierungen begrenzt und/oder getrennt sind.The identification information can be used directly to smoothly display the lane markings by some identification points. For example, the identification information can be used to adapt a polynomial line model to each of the identified line markings. This enables the line markings to be written in a simple and efficient manner will. The same applies to the lanes that are delimited and / or separated by the line markings.
Ein Vorteil der Verwendung der vom LiDAR-basierten Umgebungssensor empfangenen Sensorinformation zum Identifizieren der Linienmarkierungen besteht im geringen Rechenaufwand für die Verarbeitung der Sensorinformation im Vergleich zur Bildverarbeitung basierend auf herkömmlichen Computer-Vision-Lösungen wie Kantendetektoren, Canny-Filtern, Sobel oder Sift. Darüber hinaus erfordert die Identifizierung der Linienmarkierungen basierend auf Bildverarbeitung typischerweise eine umfangreiche Nachbearbeitung.One advantage of using the sensor information received from the LiDAR-based environment sensor to identify the line markings is the low computational effort required to process the sensor information compared to image processing based on conventional computer vision solutions such as edge detectors, Canny filters, Sobel or Sift. In addition, the identification of the line markings based on image processing typically requires extensive post-processing.
Die vom LiDAR-basierten Umgebungssensor empfangene Sensorinformation wird durch das tiefe konvolutionelle neuronale Netzwerk (DCNN) verarbeitet, was eine effiziente Identifizierung der Linienmarkierungen ermöglicht. Tiefe konvolutionelle neuronale Netzwerke weisen zwischen der Eingabeschicht und der Ausgabeschicht weitere Schichten zum Verarbeiten der bereitgestellten Sensorinformation und zum Bereitstellen der Identifizierungsinformation an der Ausgabeschicht auf.The sensor information received from the LiDAR-based environmental sensor is processed by the deep convolutional neural network (DCNN), which enables efficient identification of the line markings. Deep convolutional neural networks have further layers between the input layer and the output layer for processing the sensor information provided and for providing the identification information at the output layer.
Das Verfahren ist insbesondere beim Fahren auf Schnellstraßen oder auf anderen Straßen anwendbar und geeignet, bei dem häufige Fahrspurereignisse auftreten können, und das von der Antizipation solcher Fahrspurereignisse profitiert. Beim Fahren auf einer solchen Schnellstraße oder Straße bewegt sich das Fahrzeug typischerweise mit einer erhöhten Geschwindigkeit, was zu einer erhöhten Zeit führt, die erforderlich ist, um das Fahrzeug bis zum Stillstand abzubremsen. Insbesondere können Szenarien mit mehreren Fahrspuren für eine Fahrtrichtung des Fahrzeugs, z.B. mit drei Fahrspuren und vier Linienmarkierungen, die die Fahrspuren trennen und begrenzen, auf eine effiziente Weise gehandhabt werden.The method is particularly applicable and suitable when driving on expressways or on other roads in which frequent lane events can occur and which benefits from the anticipation of such lane events. When traveling on such an expressway or road, the vehicle typically moves at an increased speed, which results in an increased time required to brake the vehicle to a stop. In particular, scenarios with several lanes for one direction of travel of the vehicle, e.g. with three lanes and four line markings that separate and delimit the lanes, can be handled in an efficient manner.
Das Fahrunterstützungssystem kann als ein System zum Unterstützen eines menschlichen Fahrers des Fahrzeugs, typischerweise als Fahrassistenzsystem bezeichnet, oder zum Unterstützen von autonomem oder halbautonomem Fahren bereitgestellt werden. Im ersten Fall kann das Fahrassistenzsystem Information in Bezug auf bestimmte Fahrspurereignisse unter Verwendung einer Benutzerschnittstelle ausgeben, z.B. über ein Display und/oder einen Lautsprecher des Fahrzeugs. Das Fahrunterstützungssystem kann ein individuelles System zum Bestimmen des bestimmten Fahrspurereignisses sein, oder es kann integraler Bestandteil eines autonomen oder zumindest halbautonomen Fahrunterstützungssystems sein, das z.B. eine Längssteuerung und/oder eine Quersteuerung des Fahrzeugs ausführt. Daher kann das Fahrunterstützungssystem die Steuerung des Fahrzeugs ausführen oder die Steuerung des Fahrzeugs basierend auf den bestimmten Fahrspurereignissen anpassen.The driving support system can be provided as a system for supporting a human driver of the vehicle, typically referred to as a driving assistance system, or for supporting autonomous or semi-autonomous driving. In the first case, the driver assistance system can output information relating to certain lane events using a user interface, e.g. via a display and / or a loudspeaker in the vehicle. The driving support system can be an individual system for determining the particular lane event, or it can be an integral part of an autonomous or at least semi-autonomous driving support system, e.g. carries out a longitudinal control and / or a lateral control of the vehicle. Therefore, the driving support system can perform control of the vehicle or adjust control of the vehicle based on the determined lane events.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen eines tiefen konvolutionellen neuronalen Netzwerks mit einer Eingabeschicht und einer Ausgabeschicht das Bereitstellen des tiefen konvolutionellen neuronalen Netzwerks mit mehreren Schichtgruppen auf, die der Eingabeschicht folgen, wobei jede Schichtengruppe eine Convolutional-Schicht und eine Max-Pooling-Schicht aufweist. Eine Anzahl von z.B. vier Schichtgruppen hat sich als zum Identifizieren der Linienmarkierungen vor dem Fahrzeug geeignet erwiesen. Jede der Convolutional-Schichten und der Pooling-Schichten kann eine unterschiedliche Konfiguration haben, insbesondere in Abhängigkeit von ihrer Position innerhalb des DCNN und ferner in Abhängigkeit von benachbarten Schichten.According to a modified embodiment of the invention, the step of providing a deep convolutional neural network with an input layer and an output layer comprises providing the deep convolutional neural network with multiple layer groups that follow the input layer, each layer group having a convolutional layer and a max. Has pooling layer. A number of e.g. four shift groups have proven to be suitable for identifying the line markings in front of the vehicle. Each of the convolutional layers and the pooling layers can have a different configuration, in particular depending on their position within the DCNN and also depending on neighboring layers.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen eines tiefen konvolutionellen neuronalen Netzwerks mit einer Eingabeschicht und einer Ausgabeschicht das Bereitstellen des tiefen konvolutionellen neuronalen Netzwerks mit einer Flatten-Schicht und einer Fully-Connected-Schicht vor der Ausgabeschicht auf. Die Flatten-Schicht stellt in der Regel die Ausgabe von den vorangehenden Schichten in einem für eine Verarbeitung in der Fully-Connected-Schicht geeigneten Format bereit. Die Fully-Connected-Schicht gibt die Sensorinformation an die Ausgabeschicht aus.According to a modified embodiment of the invention, the step of providing a deep convolutional neural network with an input layer and an output layer comprises providing the deep convolutional neural network with a flatten layer and a fully connected layer in front of the output layer. The flatten layer usually provides the output from the previous layers in a format suitable for processing in the fully connected layer. The fully connected layer outputs the sensor information to the output layer.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen eines tiefen konvolutionellen neuronalen Netzwerks mit einer Eingabeschicht und einer Ausgabeschicht das Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit Trainingsdaten auf, die Darstellungen von Sensorinformation mit Annotationen aufweisen. Der Trainingsschritt kann innerhalb des Fahrzeugs ausgeführt werden, z.B. vor der Nutzung oder sogar während der Nutzung. Das DCNN kann jedoch auch offline trainiert werden, d.h. bevor das Fahrunterstützungssystem mit dem DCNN für das Fahrzeug bereitgestellt wird. In diesem Fall kann das Training des DCNN als ein zentral ausgeführter Schritt einmal ausgeführt werden, um ein gemeinsames Verhalten für alle Implementierungen des DCNN zu gewährleisten. Das Training des DCNN kann auf eine Weise erfolgen, die dazu geeignet ist, ein Regressionsproblem für Messpunkte abzudecken, die jede Linienmarkierung darstellen. Die Sensorinformation von LiDAR-basierten Umgebungssensoren kann als Trainingsdaten verwendet werden, wenn sie zusammen mit Annotationen bereitgestellt wird.According to a modified embodiment of the invention, the step of providing a deep convolutional neural network having an input layer and an output layer comprises performing a training step of the deep convolutional neural network with training data, which have representations of sensor information with annotations. The training step can be carried out inside the vehicle, for example before use or even during use. However, the DCNN can also be trained offline, ie before the driving support system with the DCNN is provided for the vehicle. In this case, the training of the DCNN can be carried out once as a centrally executed step in order to ensure a common behavior for all implementations of the DCNN. The training of the DCNN can be done in a manner that is suitable to cover a regression problem for measurement points that represent each line marker. The sensor information from LiDAR-based environmental sensors can be used as training data if it is provided together with annotations.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit Trainingsdaten, die Darstellungen von Sensorinformation mit Annotationen aufweisen, das Erzeugen synthetischer Trainingsdaten mit entsprechenden Annotationen auf. Synthetische Trainingsdaten können leicht erzeugt werden, so dass sie für das Training des DCNN leicht zur Verfügung stehen. Dies ist besonders hilfreich, wenn es an gekennzeichneter (annotierter) Sensorinformation mangelt. Annotationen erfordern in der Regel eine menschliche Interaktion, so dass das Bereitstellen von annotierten Trainingsdaten eine sehr mühsame Aufgabe ist. Vorzugsweise werden die synthetischen Trainingsdaten und ihre Kennzeichnungen unter Verwendung eines Python-Skripts erzeugt.According to a modified embodiment of the invention, the step of executing a training step of the deep convolutional neural network with training data which has representations of sensor information with annotations comprises generating synthetic training data with corresponding annotations. Synthetic training data can easily be generated so that it is readily available for training the DCNN. This is particularly helpful when there is a lack of labeled (annotated) sensor information. Annotations usually require human interaction, so providing annotated training data is a very tedious task. The synthetic training data and their identifications are preferably generated using a Python script.
Die synthetischen Trainingsdaten können derart erzeugt werden, dass sie verschiedene Szenarien für die Linienmarkierungen von Fahrspuren abdecken. Dies kann unterschiedliche Linienmarkierungsdicken, Rauschen, wie es typischerweise von realen LiDAR-basierten Umgebungssensoren hinzugefügt wird, gerade und gekrümmte Linienmarkierungen in unterschiedlichen Konfigurationen und Kombinationen und dergleichen beinhalten. Daher können die erzeugten Trainingsdaten Linienmarkierungen enthalten, die mit geraden und gekrümmten Straßen mit Links- und Rechtskurven mit unterschiedlichen Längen in Beziehung stehen. Weiterhin können unterschiedliche Lückenmuster auf die synthetischen Trainingsdaten angewendet werden, um Linienmarkierungen, die durch andere Objekte, z.B. verschiedenartige Fahrzeuge Dritter, Objekte auf der Straße, verdeckt sind, oder einfach verschwundene Linienmarkierungen nachzubilden.The synthetic training data can be generated in such a way that they cover various scenarios for the line markings of traffic lanes. This can include different line marking thicknesses, noise as typically added by real LiDAR-based environmental sensors, straight and curved line marking in different configurations and combinations, and the like. Therefore, the generated training data may include line markings related to straight and curved roads with left and right turns of different lengths. Furthermore, different gap patterns can be applied to the synthetic training data in order to avoid line markings caused by other objects, e.g. Various third-party vehicles, objects on the road, are covered, or simply to reproduce line markings that have disappeared.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Vorverarbeiten der vom LiDAR-basierten Umgebungssensor empfangenen Sensorinformation zum Entfernen von Messpunkten, die nicht zu einer Oberfläche der Straße gehören, von der empfangenen Sensorinformation auf. Daher werden Rohmesspunkte, die vom LiDAR-basierten Umgebungssensor als eine Punktwolke bereitgestellt werden, vorverarbeitet, um Messpunkte zu entfernen, die nicht zur Straße gehören. Solche Messpunkte, die nicht zur Straße gehören, fügen keine nützliche Information bezüglich den Linienmarkierungen auf der Straße hinzu und können daher verworfen werden. Dies wird auch als Ground Clipping bezeichnet.According to a modified embodiment of the invention, the method has an additional step of preprocessing the sensor information received from the LiDAR-based environment sensor in order to remove measurement points that do not belong to a surface of the road from the received sensor information. Therefore, raw measurement points, which are provided by the LiDAR-based environment sensor as a point cloud, are preprocessed in order to remove measurement points that do not belong to the road. Such measuring points that do not belong to the road do not add any useful information regarding the line markings on the road and can therefore be discarded. This is also known as ground clipping.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Vorverarbeiten der vom LiDAR-basierten Umgebungssensor empfangenen Sensorinformation zum Entfernen von Messpunkten, die nicht zu einer Oberfläche der Straße gehören, das Entfernen von Messpunkten basierend auf einer angepassten Höhe der Messpunkte von der empfangenen Sensorinformation auf. Daher werden Messpunkte, die nicht auf Bodenniveau liegen, direkt verworfen. Um eine Unebenheit der Straße, Neigungen der Straße und Messungenauigkeiten zu berücksichtigen, können zu verwerfende Messpunkte basierend auf ihrer Höhe z.B. im Vergleich zu einer Höhe des Fahrzeugs verworfen werden. Die Höhe der zu verwerfenden Messpunkte wird vorzugsweise basierend z.B. auf Straßenzuständen und/oder Umgebungsinformation, z.B. Neigungen, angepasst.According to a modified embodiment of the invention, the step of preprocessing the sensor information received from the LiDAR-based environment sensor for removing measurement points that do not belong to a surface of the road comprises removing measurement points based on an adapted height of the measurement points from the received sensor information. Therefore, measuring points that are not at ground level are discarded directly. In order to take into account an unevenness of the road, inclinations of the road and measurement inaccuracies, measuring points to be rejected can be based on their height, e.g. can be discarded compared to a height of the vehicle. The height of the measuring points to be discarded is preferably based on e.g. on road conditions and / or environmental information, e.g. Inclinations, adjusted.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Empfangen von Identifizierungsinformation der Linienmarkierungen von der Ausgabeschicht des tiefen konvolutionellen neuronalen Netzwerks das Empfangen eines vorgegebenen Satzes von Identifizierungspunkten pro Linienmarkierung als Identifizierungsinformation auf. Der vordefinierte Satz von Identifizierungspunkten weist eine Anzahl von Identifizierungspunkten pro Linienmarkierung auf, die dazu geeignet ist, die jeweilige Linienmarkierung zu identifizieren, z.B. zehn Identifizierungspunkte pro Linienmarkierung, um eine Gleichmäßigkeit zu erzielen. Daher kann die Ausgabe basierend auf der Anzahl von Messpunkten angepasst werden, die eine Linienmarkierung oder eine Länge einer Linienmarkierung vor dem Fahrzeug darstellen.According to a modified embodiment of the invention, the step of receiving identification information of the line markings from the output layer of the deep convolutional neural network comprises receiving a predetermined set of identification points per line mark as identification information. The predefined set of identification points has a number of identification points per line marking which is suitable for identifying the respective line marking, e.g. ten identification points per line marking to achieve uniformity. Therefore, the output can be adjusted based on the number of measurement points representing a line mark or a length of a line mark in front of the vehicle.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Konfigurieren einer Anzahl von Identifizierungspunkten in Form eines vordefinierten Satzes von Identifizierungspunkten als Identifizierungsinformation auf. Die Konfiguration kann sich auf eine Konfiguration z.B. der Ausgabeschicht zum Bereitstellen der jeweiligen Anzahl von Identifizierungspunkten als Identifizierungsinformation beziehen. Die Konfiguration wird typischerweise als eine Systemeinstellung erzeugt, die während des Betriebs, d.h. bei Verwendung des Fahrunterstützungssystems, nicht geändert wird.According to a modified embodiment of the invention, the method has an additional step of configuring a number of identification points in the form of a predefined set of identification points as identification information. The configuration can refer to a configuration e.g. the output layer for providing the respective number of identification points as identification information. The configuration is typically generated as a system setting that is made during operation, i. when using the driving assistance system, is not changed.
Gemäß einer modifizierten Ausführungsform der Erfindung weist die Verarbeitungseinheit eine Implementierung eines tiefen konvolutionellen neuronalen Netzwerks (DCNN) auf. Die Implementierung des DCNN ermöglicht eine effiziente Verarbeitung der Sensorinformation vom LiDAR-basierten Umgebungssensor. Die Implementierung des DCNN kann als ein vollständig trainiertes DCNN bereitgestellt werden, das bei der Implementierung im Fahrunterstützungssystem einsatzbereit ist.According to a modified embodiment of the invention, the processing unit has an implementation of a deep convolutional neural network (DCNN). The implementation of the DCNN enables efficient processing of the sensor information from the LiDAR-based environmental sensor. The implementation of the DCNN can be provided as a fully trained DCNN ready for use when implemented in the driving assistance system.
Diese und andere Aspekte der Erfindung werden anhand der nachstehend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen dargestellt sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will be apparent and illustrated in the embodiments described below. Individual features that are shown in the embodiments can form an aspect of the present invention on their own or in combination. Features of the various embodiments can vary from one embodiment can be transferred to another embodiment.
Es zeigen:
-
1 eine schematische Seitenansicht eines Fahrzeugs gemäß einer ersten bevorzugten Ausführungsform mit einem Fahrunterstützungssystem mit einem LiDAR-basierten Umgebungssensor; -
2 ein Ablaufdiagramm eines Verfahrens zum Identifizieren von Linienmarkierungen auf einer Straße, das durch das Fahrunterstützungssystem des Fahrzeugs von1 der ersten Ausführungsform ausgeführt wird; -
3 eine schematische Darstellung verschiedener Darstellungen von vier Sätzen verschieden geformter Linienmarkierungen als Punktwolken, wie sie vom LiDAR-basierten Umgebungssensor des Fahrunterstützungssystems der ersten Ausführungsform empfangen werden, zusammen mit einer Darstellung von Identifizierungsinformation, wie sie von einem tiefen konvolutionellen neuronalen Netzwerk des Fahrunterstützungssystems empfangen wird; und -
4 eine schematische Darstellung eines tiefen konvolutionellen neuronalen Netzwerks, das Teil des Fahrunterstützungssystem der ersten Ausführungsform ist, mit mehreren unterschiedlich geformten Schichten.
-
1 a schematic side view of a vehicle according to a first preferred embodiment with a driving support system with a LiDAR-based environment sensor; -
2 FIG. 8 is a flow diagram of a method for identifying line markings on a road implemented by the driving assistance system of the vehicle of FIG1 the first embodiment is carried out; -
3 a schematic representation of various representations of four sets of differently shaped line markings as point clouds, as they are received by the LiDAR-based environment sensor of the driving support system of the first embodiment, together with a representation of identification information, as received by a deep convolutional neural network of the driving support system; and -
4th a schematic representation of a deep convolutional neural network, which is part of the driving support system of the first embodiment, with several differently shaped layers.
Das Fahrzeug
Das Fahrunterstützungssystem
Der LiDAR-basierte Umgebungssensor
Der LiDAR-basierte Umgebungssensor
Nachfolgend wird ein Verfahren zum Identifizieren von Linienmarkierungen
Das Verfahren beginnt mit Schritt S100, der sich auf das Bereitstellen eines tiefen konvolutionellen neuronalen Netzwerks
Das tiefe konvolutionelle neuronale Netzwerk
Der Trainingsschritt beinhaltet das Erzeugen synthetischer Trainingsdaten mit entsprechenden Annotationen. Das synthetische Training wird in einem Datengenerator
Schritt S110 bezieht sich auf das Konfigurieren einer Anzahl von Identifizierungspunkten
Schritt S120 bezieht sich auf das Bereitstellen von Sensorinformation vom LiDAR-basierten Umgebungssensor
Schritt S130 bezieht sich auf das Vorverarbeiten der empfangenen Sensorinformation vom LiDAR-basierten Umgebungssensor
Schritt S140 bezieht sich auf das Zuführen der Sensorinformation vom LiDAR-basierten Umgebungssensor
Schritt S150 bezieht sich auf die Verarbeitung der der Eingabeschicht
Schritt S160 bezieht sich auf das Empfangen von Identifizierungsinformation
Das vorstehende Verfahren ist insbesondere beim Fahren auf Schnellstraßen oder anderen Straßen mit mehreren Fahrspuren anwendbar und geeignet. Beim Fahren auf einer derartigen Schnellstraße oder Straße bewegt sich das Fahrzeug
BezugszeichenlisteList of reference symbols
- 1010
- Fahrzeugvehicle
- 1212
- FahrunterstützungssystemDriving support system
- 1414th
- LiDAR-basierter UmgebungssensorLiDAR-based environmental sensor
- 1616
- VerarbeitungseinheitProcessing unit
- 1717th
- MesspunktMeasuring point
- 1818th
- KommunikationsbusCommunication bus
- 2020th
- Vorderseitefront
- 2222nd
- FahrtrichtungDirection of travel
- 2424
- LinienmarkierungLine marking
- 2626th
- tiefes konvolutionelles neuronales Netzwerk, DCNNdeep convolutional neural network, DCNN
- 2828
- EingabeschichtInput layer
- 3030th
- AusgabeschichtOutput layer
- 3232
- SchichtgruppeShift group
- 3434
- Convolutional-SchichtConvolutional layer
- 3636
- Max-Pooling-SchichtMax pooling shift
- 3838
- Flatten-SchichtFlatten layer
- 4040
- Fully-Connected-SchichtFully connected layer
- 4242
- Identifizierungsinformation, IdentifizierungspunktIdentification information, identification point
- 4444
- DatengeneratorData generator
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019115327.1A DE102019115327A1 (en) | 2019-06-06 | 2019-06-06 | Line marker identification using LiDAR |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019115327.1A DE102019115327A1 (en) | 2019-06-06 | 2019-06-06 | Line marker identification using LiDAR |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019115327A1 true DE102019115327A1 (en) | 2020-12-10 |
Family
ID=73459622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019115327.1A Pending DE102019115327A1 (en) | 2019-06-06 | 2019-06-06 | Line marker identification using LiDAR |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019115327A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202233A1 (en) | 2021-03-09 | 2022-09-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting a lane using a LiDAR system |
DE102021129070A1 (en) | 2021-11-09 | 2023-05-11 | Valeo Schalter Und Sensoren Gmbh | Recording of the content of an environment of a vehicle with a priori confidences |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286524B1 (en) * | 2015-04-15 | 2016-03-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-task deep convolutional neural networks for efficient and robust traffic lane detection |
DE102017103123A1 (en) * | 2016-03-08 | 2017-09-14 | Ford Global Technologies, Llc | Vehicle lane placement |
DE102018116111A1 (en) * | 2017-07-06 | 2019-01-10 | GM Global Technology Operations LLC | A uniform deep convolution neural network for the estimation of free space, the estimation of the object recognition and the object position |
-
2019
- 2019-06-06 DE DE102019115327.1A patent/DE102019115327A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286524B1 (en) * | 2015-04-15 | 2016-03-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-task deep convolutional neural networks for efficient and robust traffic lane detection |
DE102017103123A1 (en) * | 2016-03-08 | 2017-09-14 | Ford Global Technologies, Llc | Vehicle lane placement |
DE102018116111A1 (en) * | 2017-07-06 | 2019-01-10 | GM Global Technology Operations LLC | A uniform deep convolution neural network for the estimation of free space, the estimation of the object recognition and the object position |
Non-Patent Citations (1)
Title |
---|
XU, Qingyang et al.: Deep Convolutional Neural Network-Based Autonomous Marine Vehicle Maneuver. In: Int. J. Fuzzy Syst., 20, 2018, 687-699. * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202233A1 (en) | 2021-03-09 | 2022-09-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting a lane using a LiDAR system |
DE102021129070A1 (en) | 2021-11-09 | 2023-05-11 | Valeo Schalter Und Sensoren Gmbh | Recording of the content of an environment of a vehicle with a priori confidences |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013205950B4 (en) | Roadside detection method | |
DE102011106050B4 (en) | Shadow removal in an image captured by a vehicle-based camera for detection of a clear path | |
EP2504209B1 (en) | Method to estimate the roll angle in a car | |
DE102015116268B4 (en) | Lane boundary line information acquisition device | |
DE102017203838A1 (en) | Method and system for environment detection | |
DE102011001037B4 (en) | In-vehicle device for white line detection | |
DE112014004990T5 (en) | Method for generating exact lane level maps | |
DE112018007484T5 (en) | Obstacle detection device, automatic braking device using an obstacle detection device, obstacle detection method, and automatic braking method using an obstacle detection method | |
EP2795537A1 (en) | Determining a vertical profile of a vehicle environment by means of a 3d camera | |
DE102015203016A1 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102011106072A1 (en) | SHADOW REMOVAL IN A PICTURE BASED ON A VEHICLE-BASED CAMERA USING AN OPTIMIZED LINEAR AXIS | |
DE102015209186A1 (en) | Method for determining a description of a lane | |
DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
DE102015209147A1 (en) | Method for parking area detection | |
DE102019216206A1 (en) | Device and method for determining a U-turn strategy of an autonomous vehicle | |
DE102018123393A1 (en) | Detection of parking areas | |
DE102019116892A1 (en) | Lane event anticipation through LiDAR road boundary detection | |
DE102019115327A1 (en) | Line marker identification using LiDAR | |
DE102019112279A1 (en) | METHOD AND DEVICE FOR DIAGONAL TRACK DETECTION | |
AT521647A1 (en) | Method and system for data preparation, for training an artificial neural network and for analyzing sensor data | |
DE112021000482T5 (en) | DETECTION OF FOREIGN OBJECTS IN A VEHICLE PATHWAY | |
DE102008050456B4 (en) | Method and apparatus for lane detection | |
DE102006007550A1 (en) | Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels | |
DE102020127315B4 (en) | System and method for annotating automotive radar data | |
DE102006055145B4 (en) | Onboard fog determining apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |